Sous peine de devoir verser une pénalité libératoire, les « obligés » s’acquittent de leurs obligations par la détention de certificats, obtenus à la suite d’actions d’économies d’énergie réalisées auprès de leurs clients, ou par l’achat à d’autres acteurs ayant mené ces actions, notamment les collectivités territoriales et les bailleurs sociaux. Un obligé qui obtient plus de certificats d’économie d’énergie que l’objectif qui lui est assigné peut les vendre par le biais d’un registre national (entre 0,35 et 0,40 centime le kWh, contre une pénalité de 2 centimes).
Après une première période jugée satisfaisante (65,2 terrawatt-heures cumulés et actualisés d’économies ont été réalisés du 1er juillet 2006 au 30 juin 2009 pour un objectif de 54 TWh cumac), une deuxième période de ce dispositif a commencé le 1er janvier 2011, pour trois ans. Le dispositif a été élargi aux distributeurs de carburants et ses objectifs ont été renforcés, comme le prévoit la loi Grenelle 2.
Afin d’adapter le dispositif à ces nouveaux objectifs, le décret n°2011-1215 du 30 septembre 2011 a confié l’ensemble des compétences en matière d’agrément de plans d’actions d’économies d’énergie et de délivrance des CEE au ministre chargé de l’Énergie. Les demandes déposées avant le 1er octobre 2011, en dehors de la région Ile-de-France, demeurent instruites par le préfet de département.
En complément de ce décret, un arrêté du 30 septembre 2011 crée un pôle national pour l’instruction des dossiers et la délivrance des certificats d’économies d’énergie (CEE). Ce nouveau service à compétence nationale est composé de neuf agents (quinze sont prévus à terme), placés sous l’autorité d’un chef de pôle. Ils sont chargés de la mise en œuvre du dispositif, et en particulier de l’instruction et de la délivrance des certificats et des agréments des plans d’actions d’économies d’énergie, de la mise en œuvre des opérations de contrôle, du constat par les agents commissionnés des infractions et prononciation des sanctions spécifiques à ces infractions, de la gestion et de la fixation des obligations individuelles et de la réconciliation administrative de fin de période triennale. Ils ont également en charge la communication et l’information sur le dispositif et l’archivage des pièces justificatives.
La prochaine étape sera la fixation par décret des modalités de contrôle et des sanctions applicables. Le Conseil supérieur de l’Énergie a émis un avis favorable sur ce projet de texte au cours de sa séance du 18 juillet 2011. La publication de ce décret est prévue avant la fin de l’année.
Par Solange Viger, avocate au barreau de Paris et consultante en droit de l’environnement
L’objet céleste de 400 mètres de largeur, baptisé « 2005 YU55 », s’approchera au plus près mardi 8 novembre à 23H28 GMT, passant à 324 600 kilomètres de la Terre, soit 0,85 fois la distance de la Terre à la Lune.
Cet astéroïde se trouve sur une orbite qui le fait passer à intervalles réguliers à proximité de la Terre, de Mars ou de Vénus, mais son passage de mardi est le plus proche de la planète bleue depuis « au moins 200 ans », précise la Nasa.
La prochaine fois qu’un astéroïde aussi grand devrait s’approcher à une distance comparable de la Terre sera en 2028, selon la NASA.
Des observations de l’astéroïde effectuées en 2010 avec le radiotélescope américain d’Arecibo, à Porto Rico, indiquent qu’il s’agit d’un objet de forme approximativement sphérique et tournant lentement sur lui-même, en 18 heures. Sa surface est plus noire que le charbon.
Les astronomes amateurs souhaitant l’observer devront avoir un télescope avec une ouverture d’au moins 15 centimètres.
La Nasa découvre et suit un grand nombre d’astéroïdes et comètes passant dans le voisinage de la Terre. L’agence spatiale calcule leur orbite pour déterminer s’ils représentent un danger pour la Terre.
Dans un récent rapport, elle a révisé à la baisse le nombre de gros astéroïdes proches de la Terre et surtout ceux de taille moyenne capables d’anéantir une grande agglomération.
Au sens de REACH, un utilisateur en aval est toute personne physique ou morale établie dans l’Union Européenne, autre que le fabricant ou l’importateur, qui utilise une substance, telle quelle ou contenue dans une préparation, dans l’exercice de ses activités industrielles ou professionnelles.
Quels sont les droits et obligations des utilisateurs en aval ?
Informer des utilisations/usages des substances
Les utilisateurs en aval peuvent contacter leurs fournisseurs afin de les informer de leurs utilisations/usages des substances, en vue d’en faire une utilisation identifiée, de telle sorte que ces utilisations puissent être couvertes par l’enregistrement et qu’elles puissent faire l’objet d’une évaluation de la sécurité chimique. Les fournisseurs doivent être contactés avant une échéance d’enregistrement des substances (avant le 31 mai 2013 pour des substances produites ou importées à plus de 100 tonnes par an, avant le 31 mai 2018 pour des substances produites ou importées à plus de 1 tonne par an) ou un mois avant la prochaine livraison de la substance si celle-ci est déjà enregistrée. Les fournisseurs sont contactés par écrit et les informations à leur transmettre sont à la fois des informations sur l’utilisation et sur les conditions d’utilisation des substances (durée et fréquence d’utilisation, mesures de gestion des risques déjà en place…).
Cas des utilisateurs en aval fournisseurs de substances ou de mélanges
Les utilisateurs en aval fournisseurs de substances ou de mélanges ont des obligations de communication d’information en matière de numéro d’enregistrement et autres informations pertinentes. Cette communication est assurée le long de la chaîne d’approvisionnement par la fiche de données de sécurité (FDS).
Vérifier les fiches de données de sécurité (FDS)
Les utilisateurs en aval recevant une fiche de données de sécurité avec des utilisations identifiées et les scénarios d’exposition correspondant annexés doivent vérifier que leurs conditions opérationnelles et leurs mesures de gestion des risques sont conformes à celles communiquées. Si pertinent, ils doivent également transmettre l’information à leur client.
Les scénarios d’exposition sont développés dans le cadre de la réalisation d’un rapport sur la sécurité chimique et élaborés pour les utilisations identifiées de substances dangereuses ou PBT/vPvB (Persitent Bioaccumulable Toxique / very Persistent very Bioaccumulable). Ils contiennent les conditions opérationnelles et les mesures de gestion des risques pour l’utilisation sûre d’une substance donnée tout au long de son cycle de vie, aussi bien sur le plan santé humaine que sur le plan environnemental.
Elaborer une évaluation de la sécurité chimique et des scénarios d’exposition (voir ci-dessous)
Quand la substance a été enregistrée mais que l’utilisation n’a pas été couverte par le fournisseur (usage déconseillé, conditions opératoires non respectées, mesures de gestion des risques non respectées …), l’utilisateur en aval doit réaliser une évaluation de la sécurité chimique pour des quantités utilisées de plus de une tonne par an, par substance. Cette évaluation doit ensuite être notifiée à l’Agence européenne des produits chimiques (ECHA). L’évaluation de la sécurité chimique aboutit à la réalisation de scénarios d’exposition, uniquement si la substance est classée comme dangereuse ou évaluée comme PBT ou vPvB. Ces scénarios sont ensuite annexés aux fiches de données de sécurité.
Céline NECTOUX, Ingénieur Environnement, Centre National des Risques Industriels
Les trois réacteurs les plus anciens s’arrêteraient d’ici quatre ans, suivis des quatre autres à une échéance guère plus lointaine, à condition toutefois que le pays trouve d’ici là un approvisionnement lui permettant de garantir sa sécurité électrique. Le porte-parole du ministre de l’énergie et du climat belge a confirmé ainsi l’information donnée par les médias du pays : « S’il s’avère que nous ne sommes pas confrontés à des coupures et à une flambée des prix, nous avons l’intention de nous tenir à la loi de 2003 sur une sortie du nucléaire. »
Le nucléaire représente actuellement plus de la moitié de la production électrique belge. Le pays espère déjà tirer d’ici 2020 20 % de son électricité des sources renouvelables. Or actuellement 1,4 % provient de l’éolien, 0,8 % du solaire et 7 % de l’hydroélectricité, la biométhanisation et les pompes à chaleur. De gros investissements s’avèreront indispensables pour doubler cette production dans le temps imparti. Noémie Laumont, secrétaire générale d’Edora (Fédération de l’Energie d’Origine Renouvelable et Alternative) estime que cette décision entraînera de nouveaux choix énergétiques : « Ce sera impérativement un mix équilibré de différentes sources d’énergies renouvelables, comme l’électricité venant du vent et du soleil qui sont variables et d’autres sources comme la biomasse qui sont plus facilement réglables. À cela, vous pouvez également ajouter l’hydroélectricité et la géothermie qui sont des sources très stables de production. Donc l’important c’est vraiment d’équilibrer les différentes sources de manière à ce que la production puisse répondre à la demande en électricité. »
La position de la coalition actuellement en discussion pour la formation d’un gouvernement renoue avec le principe de sortie du nucléaire voté par la Belgique en 2003. Depuis, en 2009, un accord avait pourtant été signé pour prolonger de dix ans utilisation les trois réacteurs les plus anciens. Accord jamais ratifié par le Parlement cependant, du fait de « l’absence » de gouvernement en Belgique depuis lors.
Cette décision ne fait pas du tout l’affaire de GDF-Suez, propriétaire, par l’intermédiaire de sa filiale, Electrabel, des deux centrales belges, et pour qui c’était jusqu’à présent la seule référence d’exploitant de réacteurs nucléaires pour exporter son savoir-faire. Cela pourrait effectivement remettre en question ses ambitions pour construire des centrales au Brésil ou en Grande-Bretagne, où le groupe est, avec Iberdrola, candidat à la construction de sites.
Voici comment mettre en œuvre la méthodologie de classification des dangers, de détermination du code de déchets et d’identification des obligations particulières à certaines filières de déchets.
Quatre étapes sont nécessaires :
1 : Vérifiez le classement des déchets par rapport à leur composition ;
2 : Vérifiez le classement de vos déchets par rapport à la nomenclature des déchets ;
3 : Exploitez les informations communiquées par votre fournisseur ;
Étape 1 : Vérifiez le classement des déchets par rapport à leur composition
Vérifiez tout d’abord si vous êtes en présence d’un déchet dangereux. Un déchet est considéré comme dangereux s’il possède les propriétés indiquées à l’annexe I de l’article R. 541-8 du Code de l’environnement .
H1 « Explosif » : substances et préparations pouvant exploser sous l’effet de la flamme ou qui sont plus sensibles aux chocs ou aux frottements que le dinitrobenzène.
H2 « Comburant » : substances et préparations qui, au contact d’autres substances, notamment de substances inflammables, présentent une réaction fortement exothermique.
H3-A « Facilement inflammable » : substances et préparations :
à l’état liquide (y compris les liquides extrêmement inflammables), dont le point d’éclair est inférieur à 21 °C, ou ;
pouvant s’échauffer au point de s’enflammer à l’air à température ambiante sans apport d’énergie, ou ;
à l’état solide, qui peuvent s’enflammer facilement par une brève action d’une source d’inflammation et qui continuent à brûler ou à se consumer après l’éloignement de la source d’inflammation, ou ;
à l’état gazeux, qui sont inflammables à l’air à une pression normale, ou ;
qui, au contact de l’eau ou de l’air humide, produisent des gaz facilement inflammables en quantités dangereuses.
H3-B « Inflammable » : substances et préparations liquides, dont le point d’éclair est égal ou supérieur à 21 °C et inférieur ou égal à 55 °C.
H4 « Irritant » : substances et préparations non corrosives qui, par contact immédiat, prolongé ou répété avec la peau et les muqueuses, peuvent provoquer une réaction inflammatoire.
H5 « Nocif » : substances et préparations qui, par inhalation, ingestion ou pénétration cutanée, peuvent entraîner des risques de gravité limitée.
H6 « Toxique » : substances et préparations (y compris les substances et préparations très toxiques) qui, par inhalation, ingestion ou pénétration cutanée, peuvent entraîner des risques graves, aigus ou chroniques, voire la mort.
H7 « Cancérogène » : substances et préparations qui, par inhalation, ingestion ou pénétration cutanée, peuvent produire le cancer ou en augmenter la fréquence.
H8 « Corrosif » : substances et préparations qui, en contact avec des tissus vivants, peuvent exercer une action destructrice sur ces derniers.
H9 « Infectieux » : matières contenant des micro-organismes viables ou leurs toxines, dont on sait ou on a de bonnes raisons de croire qu’ils causent la maladie chez l’homme ou chez d’autres organismes vivants.
H10 « Toxique pour la reproduction » : substances et préparations qui, par inhalation, ingestion ou pénétration cutanée, peuvent produire ou augmenter la fréquence d’effets indésirables non héréditaires dans la progéniture ou porter atteinte aux fonctions ou capacités reproductives.
H11 « Mutagène » : substances et préparations qui, par inhalation, ingestion ou pénétration cutanée, peuvent produire des défauts génétiques héréditaires ou en augmenter la fréquence.
H12 : substances et préparations qui, au contact de l’eau, de l’air ou d’un acide, dégagent un gaz toxique ou très toxique.
H13 « Sensibilisant » : substances et préparations qui, par inhalation ou pénétration cutanée, peuvent donner lieu à une réaction d’hypersensibilisation telle qu’une nouvelle exposition à la substance ou à la préparation produit des effets néfastes caractéristiques. Cette propriété n’est à considérer que si les méthodes d’essai sont disponibles.
H14 « Écotoxique » : substances et préparations qui présentent ou peuvent présenter des risques immédiats ou différés pour une ou plusieurs composantes de l’environnement.
H15 : substances et préparations susceptibles, après élimination, de donner naissance, par quelque moyen que ce soit, à une autre substance, par exemple un produit de lixiviation, qui possède l’une des caractéristiques énumérées ci-avant.
Pour vérifier ces critères, vous devez déterminer les substances de vos déchets ainsi que leurs caractéristiques physico-chimiques (à partir des FDS des matières entrantes, données sur vos procédés ou à partir d’analyses physico-chimiques).
Vous déterminez ensuite les critères de dangers de la façon suivante :
Pour les propriétés H1, H2, H3 appliquez l’Arrêté du 8 juillet 2003 relatif aux critères et méthodes d’évaluation des propriétés de dangers H1 explosif, H2 comburant, H3 inflammable et facilement inflammable d’un déchet ;
Pour la propriété H9 : il peut être fait recours à des analyses biologiques ou à l’évaluation des origines du déchet (déchets d’activité de soins, déchets d’ouvrages d’assainissement, etc.).
En ce qui concerne les propriétés H3 à H8, H10 et H11, sont en tout état de cause considérés comme dangereux les déchets présentant une ou plusieurs des caractéristiques suivantes :
Leur point d’éclair est inférieur ou égal à 55 ° C.
Ils contiennent une ou plusieurs substances classées comme très toxiques à une concentration totale égale ou supérieure à 0,1 %.
Ils contiennent une ou plusieurs substances classées comme toxiques à une concentration totale égale ou supérieure à 3 %.
Ils contiennent une ou plusieurs substances classées comme nocives à une concentration totale égale ou supérieure à 25 %.
Ils contiennent une ou plusieurs substances corrosives de la classe R35 à une concentration totale égale ou supérieure à 1 %.
Ils contiennent une ou plusieurs substances corrosives de la classe R34 à une concentration totale égale ou supérieure à 5 %.
Ils contiennent une ou plusieurs substances irritantes de la classe R41 à une concentration totale égale ou supérieure à 10 %.
Ils contiennent une ou plusieurs substances irritantes des classes R36, R 37, R 38 à une concentration totale égale ou supérieure à 20 %.
Ils contiennent une substance reconnue comme étant cancérogène, des catégories 1 ou 2, à une concentration égale ou supérieure à 0,1 %.
Ils contiennent une substance reconnue comme étant cancérogène, de la catégorie 3, à une concentration égale ou supérieure à 1 %.
Ils contiennent une substance toxique pour la reproduction, des catégories 1 ou 2, des classes R60, R 61 à une concentration égale ou supérieure à 0,5 %.
Ils contiennent une substance toxique pour la reproduction, de la catégorie 3, des classes R62, R 63 à une concentration égale ou supérieure à 5 %.
Ils contiennent une substance mutagène, des catégories 1 ou 2, de la classe R 46 à une concentration égale ou supérieure à 0,1 %.
Ils contiennent une substance mutagène de la catégorie 3 de la classe R40 à une concentration égale ou supérieure à 1 %.
Étape 2 : Vérifiez le classement de vos déchets par rapport à la nomenclature des déchets
Vous devez maintenant attribuer à votre déchet un code réglementaire à 6 chiffres. Les déchets sont classés selon leur procédé d’origine et leur composition. La procédure donnée dans l’encart ci-dessous vous précise dans quel ordre balayer les différentes rubriques pour respecter les indications données par la nomenclature des déchets du Code de l’environnement (annexe II de l’article R. 541-8).
Vous l’identifierez dans la nomenclature (étape 1) à l’aide d’un code marqué d’un astérisque, s’il est considéré comme dangereux lors de l’étape 1.
Le laboratoire national américain d’Oak Ridge, qui héberge déjà le « Jaguar », un supercalculateur du constructeur américain Cray, devrait accueillir un nouveau résident sous peu. « Titan », du haut de ses 20 pétaflops, est sur les rails pour devenir le plus puissant supercalculateur au monde, ce qui devrait permettre aux États-Unis de ravir la première place mondiale occupée actuellement par le superordinateur japonais « K », du constructeur nippon Fujitsu, situé à Kobé.
Pour rappel, la mesure FLOPS (« FLoating Point Operations Per Second », opérations à virgule flottante par seconde) permet d’évaluer la vitesse de calcul d’un superordinateur. Le préfixe « péta » correspond à 10 puissance 15. Autrement dit, Titan sera capable d’effectuer pas moins de vingt millions de milliards d’opérations à virgule flottante chaque seconde. Le « K » était capable, grâce à ses 548 352 cœurs, d’une puissance de calcul de 8,16 pétaflops, pour une consommation approchant les 10 000 kilowatts.
Cray, première société à avoir atteint le pétaflops, va dans un premier temps mettre à jour le Cray XT5 du Jaguar, le remplacer par un Cray XK6, ajoutant par la même un millier de processeurs GPU Tesla M2090 de la société Nvidia. En plus de ces améliorations, Cray ajoutera l’année prochaine environ 18 000 nouveaux GPU, offrant là une l’architecture adaptée aux calculs massivement parallèles, pour un budget total de 97 millions de dollars.
Lorsque Titan entrera en fonction début 2013, cette puissance de calcul sera mise à profit pour des simulations nucléaires et climatiques, ainsi que dans le cadre de recherches sur les énergies du futur. La barre fatidique des 100 pétaflops se rapproche doucement…
L’Avicenn (Association de Veille et d’Information Civique sur les Enjeux des Nanosciences et des Nanotechnologies) propose un premier éclairage sur les enjeux politiques cachés derrière cette définition à première vue neutre et « scientifique », les prochains obstacles et rendez-vous à venir. Avant de conclure sur le suspense concernant la définition que retiendra la France pour la déclaration annuelle des nanomatériaux qu’elle est en train de mettre en place.
Nanomatériau : la définition officielle de la Commission européenne
Dans un communiqué de presse en forme d’autosatisfecit1, la Commission européenne a annoncé hier avoir enfin établi « une définition (des nanomatériaux) claire pour s’assurer que toutes les règles de sécurité chimique appropriées sont appliquées ».
Le nanomatériau est ainsi défini comme :
« un matériau naturel, formé accidentellement ou manufacturé
contenant des particules libres, sous forme d’agrégat ou sous forme d’agglomérat,
dont au moins 50 % des particules, dans la répartition numérique par taille, présentent une ou plusieurs dimensions externes se situant entre 1 nm et 100 nm2. »
Le texte de la Commission prévoit une révision de la définition d’ici décembre 2014, en fonction des premiers retours d’expérience ainsi que des progrès techniques et scientifiques.
Cette définition a été longuement attendue tant par l’industrie que par les associations et les pouvoirs publics des États membres : elle va en effet servir de référence pour les méthodes de mesure et de tests sur la toxicité des nanomatériaux , et pour la rédaction et promulgation des règlementations européennes (et le cas échéant nationales) spécifiques aux nanomatériaux ; elle ouvre notamment la voie à un cadre réglementaire Reach-Nano.
La fin d’un long processus de négociation
Il y a un an quasiment jour pour jour, la Commission européenne avait soumis à consultation publique un « Projet de recommandation de définition du terme nanomatériau ». 200 réponses à la consultation auraient été fournies par des industriels, académiques, associations de la société civile, citoyens, etc.
À la fin mars dernier, la DG environnement de la Commission avait annoncé le fait que la Commission ne fournirait pas de définition définitive avant plusieurs mois, suscitant l’insatisfaction générale3.
Ce sont les divergences d’opinion entre les différentes parties prenantes qui sont à l’origine du retard pris dans l’adoption du projet de recommandation. Plusieurs directions de la Commission étaient impliquées dans le processus, chacune soumise à un lobbying intense en provenance d’acteurs aux intérêts souvent incompatibles : d’un côté la DG Entreprises défendant les intérêts industriels, de l’autre les DG Environnement et Sanco défendant respectivement les positions des associations de protection de l’environnement et de la santé des consommateurs.
La définition adoptée par la Commission procède d’arbitrages entre les attentes des uns et des autres.
Premières réactions de la société civile et de l’industrie chimique : trois principaux points de polémique
Au lendemain de la parution de cette nouvelle définition, les plus actives des « parties prenantes » ont d’ores et déjà réagi officiellement : parmi elles, du côté de la société civile, le Bureau européen de l’environnement (BEE)4 – qui fédère plus de 140 ONG dans 31 pays – , les Amis de la Terre Australie (FoE Australia)5, le Center for International Environmental Law (CIEL)6, le Bureau européen des unions de consommateurs (BEUC)7 ou encore l’Association des consommateurs européens sur la normalisation (ANEC)8 ; du côté industriel, le Conseil européen des fédérations de l’industrie chimique (CEFIC)9.
Le plafond de 100 nm
Les Amis de la Terre Australie, l’ANEC et le BEUC dénoncent l’adoption du seuil plafond de 100 nm jugé trop restrictif : ces associations auraient souhaité un seuil plafond plus élevé, qui aurait permis de prendre en compte davantage de matériaux. Elles s’appuient sur les considérations du Comité scientifique des Risques Sanitaires Émergents et Nouveaux (SCENIHR) qui a souligné l’absence de fondement scientifique à cette limite de 100 nm, ainsi que sur les résultats d’études toxicologiques faisant état de la toxicité de particules submicroniques dépassant les 100 nm.
Comme l’illustrent les Amis de la Terre, si cette définition était appliquée à la réglementation, cela impliquerait que des substances composées à 45 % de particules de 95 nm et à 55 % de particules de 105 nm échapperaient à la réglementation applicable aux nanomatériaux et ne seraient pas soumises aux éventuelles obligations d’étiquetage ou d’évaluation sanitaire. Le tout aux dépens des consommateurs et des travailleurs exposés à ces substances sur lesquelles continuera donc de planer la menace d’un risque supposé mais non évalué.
En réponse à la consultation de la Commission sur sa première proposition de définition en 2010, de nombreuses associations avaient milité pour un seuil de 300 nm10.
Les Amis de la Terre Australie rappellent que des marques cosmétiques européennes et des fabriquants américains de produits bioactifs sont déjà en train de modifier leurs produits pour exploiter les nouvelles propriétés optiques, chimiques et biologiques des nanomatériaux dont la taille est supérieure à 100 nm, afin d’échapper à l’étiquetage et aux exigences d’évaluation de sécurité anticipés pour les matériaux dont la taille est comprise entre 1 et 100 nm.
Le seuil de 50 %
Certaines organisations – dont CIEL et l’ANEC – applaudissent le choix du nombre de particules, et non de leur masse, comme unité de mesure des nanomatériaux ; à l’inverse, le CEFIC redoute que l’adoption de cette définition dans les réglementations entraîne une hausse importante des coûts pour les entreprises. La Commission a suivi ici les recommandations du SCENIHR11, qui avaient été notamment soutenues par l’ANEC en 2010.
La Commission a en revanche largement relevé la proportion de matériaux de taille nanométrique requise pour qualifier une substance de nanomatériau par rapport à ce qui était prévu : le taux retenu – 50% de particules de taille nanométrique en nombre dans la matière considérée12 – est 50 fois supérieur à celui proposé par la DG Environnement et soutenu par la société civile (1 %), et plus de 333 fois plus élevé que celui défendu par le CSRSEN / SCENIHR (0,15 %) 13 et soutenu par la DG Sanco.
Les associations ont manifesté leur surprise, incompréhension et hostilité devant un seuil si élevé. CIEL relève par exemple que même l’industrie allemande n’en avait pas tant demandé : elle avait milité pour un taux de 10 % environ « seulement ».
La Commission a toutefois prévu qu’en cas d’inquiétudes en termes de risques environnementaux ou sanitaires, ce taux pourra être abaissé en deçà de 50 % – mais en aucun cas relevé – du moins d’ici 2014. Si cette mesure est saluée par CIEL ou ClientEarth, les Amis de la Terre Australie dénoncent quant à eux le fait que la charge de la preuve de la toxicité des matériaux sur lesquels porte cette inquiétude incombera alors aux associations. Or démontrer que certains nanomatériaux peuvent causer des dommages est déjà en soi rendu très difficile par les nombreuses incertitudes scientifiques, l’absence de méthodes et d’instruments fiables en matière d’évaluation des risques, la variabilité des nanomatériaux ou encore le manque d’informations sur l’exposition réelle à ces matériaux. Faire cette même démonstration, mais sur une part déterminée de nanoparticules dans un échantillon, relève donc tout simplement de la gageure.
L’inclusion des agglomérats et aggrégats
Tandis que CIEL se félicite de l’inclusion des agglomérats et aggrégats dans la définition, le CEFIC considère que cette mesure rendra toute législation européenne sur les nanomatériaux trop contraignante.
Une définition scientifique… mais surtout politique, résultat d’un rapport de force entre acteurs défendant des logiques différentes
L’apparente technicité des débats et le caractère finalement arbitraire de sélection des seuils retenus illustrent la forte dimension politique à l’oeuvre derrière les décisions prises : les autorités européennes ayant eu à prendre une décision sur des bases scientifiques certes – grâce à l’éclairage scientifique des experts sollicités – mais surtout à opérer un arbitrage entre des intérêts d’acteurs divergents.
Les associations regrettent le déséquilibre entre les forces en présence – les lobbys industriels ayant des moyens hors de proportion en comparaison de ceux de la société civile qui n’a pas les ressources humaines ni financières pour prendre une part aussi active que l’industrie dans les groupes de travail ou les activités de lobbying auprès de la Commission.
Notons qu’au sein même de la société civile, des nuances apparaissent dans l’appréciation portée à la définition adoptée par la Commission européenne. CIEL, le BEE et le BEUC ont, malgré leurs réserves, accueilli favorablement l’adoption de cette définition, en espèrant qu’elle permettra d’ouvrir la voie à une véritable régulation par l’Union Européenne en la matière. Mais les Amis de la Terre Australie sont quant à eux beaucoup plus critiques : ils estiment que le texte adopté par la Commission est une injure au processus démocratique de consultation et d’implication des parties prenantes dont se réclament pourtant en théorie les institutions. Censée encourager la prise en compte des considérations environnementales, sanitaires, sociales et éthiques, et guider l’action publique par des considérations d’intérêt général plutôt que vers la satisfaction des seuls intérêts industriels, la Commission aurait manqué à son devoir de privilégier le principe de précaution.
Le début d’une nouvelle aventure : des problèmes d’application à prévoir
David Azoulay de CIEL rappelle que cette définition n’est pas une fin en soi, mais un outil nécessaire à la régulation de la fabrication et de l’utilisation des nanomatériaux.
Désormais, les institutions européennes (et les États membres s’ils le souhaitent) auront une définition commune à laquelle se référer pour leurs éventuelles régulations. Et les scientifiques pourront également mettre en cohérence la terminologie de leurs méthodes d’évaluation et de gestion des risques.
À certaines exceptions près (notamment celle d’Andrew Maynard14 ), cette définition était vue par beaucoup comme un préalable à toute démarche de régulation ou d’évaluation des risques. Vito Buonsante, juriste pour ClientEarth, souligne15 ainsi qu’il n’y a désormais plus de raison justifiant que les données précises portant sur les risques des nanomatériaux ne soient pas documentées dans REACH en tant que substances à part ; les fabricants et les importateurs n’ont plus d’excuses pour ne pas les enregistrer et la tâche de l’Agence européenne des produits chimiques (ECHA) sera facilitée. Cette définition devrait donc contribuer à faire avancer les choses.
Reste que de nombreux écueils attendent les autorités chargées de mettre en oeuvre les régulations qui se baseront sur cette définition – notamment ceux posés par les seuils, l’inclusion dans la définition des aggrégats et agglomérats et des nanomatériaux d’origine naturelle (et pas seulement ceux qui sont manufacturés), ou encore la fiabilité des méthodes de mesure16.
La définition des nanomatériaux est certes désormais stabilisée jusqu’en 2014, mais les travaux et les tractations ne sont pas prêts de s’arrêter…
Les prochains rendez-vous importants à l’agenda européen concerneront REACH et les nanomatériaux
La question de l’application de REACH aux nanomatériaux sera au programme les 22 et 23 novembre, lors de la réunion du sous-groupe des CARACAL (autorités compétentes pour la mise en oeuvre de REACH et de la réglementation CLP relative à la classification, à l’étiquetage et à l’emballage des substances et mélanges chimiques) spécifiquement dédié aux nanomatériaux, le CASG Nano (Competent Authorities Sub-Group on Nanomaterials).
Le suspense français : quelle définition pour le décret relatif à la déclaration annuelle des substances à l’état nanoparticulaire ?
Dans le cas de la France, il n’est pas sûr, à l’heure actuelle, que le décret relatif à la déclaration annuelle des substances à l’état nanoparticulaire17 s’appuiera sur la nouvelle définition de la Commission européenne. Il se peut que le gouvernement français tente de maintenir une définition permettant d’englober dans sa réglementation plus de nanomatériaux que la définition adoptée par la Commission. Tous les espoirs de la société civile se tournent donc vers le choix français en cours, qui sera déterminant pour la suite : si la définition retenue est plus large que celle de la Commission et donc plus conforme avec le principe de précaution, elle pourrait servir d’exemple et être suivie dans d’autres pays.
NB : Retrouvez sur la page Gouvernance du site Wikinanos.fr les communiqués de presse et prises de position sur le sujet émis par les parties prenantes avant… et après la date de rédaction de cet article (19/10/11).
L’édition 2011 du « tableau de bord de l’Union européenne sur les investissements en R&D industrielle » vient d’être publiée par la Commission Européenne.
Il indique que les investissements des principales entreprises de l’Union en recherche et développement (R&D) ont connu une forte reprise en 2010, puisqu’ils ont augmenté de 6,1 % après avoir diminué de 2,6 % l’année précédente. Cependant, les données relatives aux mille quatre cent principales entreprises mondiales montrent que les sociétés de l’Union européenne restent dans l’ensemble loin derrière leurs principales concurrentes aux États-Unis et dans certains pays asiatiques en matière de croissance de la R&D.
La tendance générale a été positive en 2010, puisque les investissements en R&D ont progressé de 4 %. Il s’agit d’un renversement considérable, l’année 2009 ayant vu une baisse de 1,9 %. Parmi les cinquante plus grandes entreprises mondiales en matière d’investissements totaux en R&D, quinze sont établies dans l’Union européenne, dix-huit aux États-Unis et treize au Japon.
On remarque également que plus des deux tiers des investissements en R&D figurant dans le tableau de bord de l’Union européenne proviennent d’entreprises situées dans les trois plus grands États membres. Parmi celles-ci, les entreprises allemandes affichent la croissance annuelle la plus élevée de 8,1 %. Ce bon résultat est essentiellement dû à quelques entreprises automobiles. La croissance des investissements en R&D s’est élevée à 5,8 % pour les entreprises britanniques, soit un chiffre proche de la moyenne de l’Union européenne et à 3,8 % pour les entreprises françaises.
L’Asie du Sud-Est affiche de forts taux de croissance de la R&D industrielle notamment la Chine (+29,5 %), la Corée (+20,5 %) et Taïwan (+17,8 %). La secteur de la pharmacie-biotechnologies s’empare des deux premières places avec Roche (Suisse) et Pfizer (USA) et conforte sa position de secteur leader en R&D – Sanofi-Aventis est en tête du secteur en Europe (14e) alors que Volkswagen (6e) est leader européen tous secteurs confondus. À l’image de ce dernier, les constructeurs automobiles ont recouvré des niveaux d’investissement élevés en 2010.
Autre tendance de fond, la hausse des investissements des sociétés des TIC (LG : +39,5 %, Oracle : +38,9 %, Google : +32,3 %, Samsung : +24,9 %). En Europe, l’Allemagne, le Royaume-Uni et la France concentrent plus des deux tiers de la R&D privée européenne avec des taux de croissance respectifs de 8,1 %, 5,8 % et 3,8 %.
À propos des entreprises françaises : Sanofi-Aventis (14e), Alcatel Lucent (32e), PSA (46e) sont dans le TOP 50. 2 françaises (Gameloft et NicOx) figurent dans les 28 affichant la plus forte croissance (chiffre d’affaires/emploi/R&D). Tous les grands groupes français figurent dans ce top 1 400, et on trouve également des entreprises de taille inférieure comme : Vilmorin (Limagrain), Ingenico, Gameloft, FMB, Technicolor, Neopost, Parrot, Guerbet, Akka Technologies, Latecoere.
Le tableau de bord de l’Union européennesur les investissements en R&D industrielle est publié tous les ans par la Commission européenne (DG Recherche et innovation et Centre commun de recherche). Il fournit des informations sur les 1 400 principales entreprises mondiales (dont 400 sont établies dans l’Union), classées en fonction de leurs investissements en R&D ;
L’Union de l’innovation est l’une des sept initiatives phares de la stratégie Europe 2020 pour une économie intelligente, durable et inclusive. Cette initiative vise à transformer l’Europe en un acteur scientifique d’envergure vraiment mondial et à supprimer les obstacles (tels que le coût élevé des brevets, la fragmentation des marchés, la lenteur du processus de normalisation et la pénurie de qualifications) qui entravent l’innovation et empêchent actuellement les idées de se concrétiser rapidement en produits et services commercialisables. Elle a également pour objectif de révolutionner la manière dont les secteurs public et privé collaborent, notamment dans le cadre de partenariats pour l’innovation entre les institutions européennes, les pouvoirs publics nationaux et régionaux et les entreprises.
un drone bon marché, fabriqué avec des pièces et des composants électroniques grand public, capable de vol géostationnaire ? C’est la prouesse qu’a réalisée le ministère japonais de la Défense ;
manipuler un hologramme ? Le « Holodesk », prototype sorti tout droit des laboratoires de Microsoft, en est tout à fait capable ;
le designer brésilien Arthur Sacek prouve qu’il est possible de tout construire avec des Lego : dernier exemple en date, une imprimante 3D capable de sculpter de la mousse florale ;
toujours pas convaincu ? Voici la très impressionnante horloge « LCD » entièrement construite en « Lego Technic », dont le mécanisme vaut le coup d’œil ;
une solution au problème des déjections canines sur le trottoir ? C’est le défi étonnant que se sont lancés les concepteurs d’AshPooPie, un incinérateur de crottes portatif ;
le gadget (inutile ?) de la semaine : un ensemble de mains robotiques capable d’applaudir… ou de battre la mesure ;
pour conclure, et en bonus, un député japonais buvant un verre d’eau décontaminée, provenant de l’intérieur de la centrale de Fukushima.
Le drone « espion » sphérique japonais :
Pour débuter cette treizième revue du Web, le ministère japonais de la défense a présenté la semaine dernière, devant un parterre de journalistes, son tout nouveau drone « espion » encore à l’état de prototype, financé et développé à la demande du gouvernement nippon. Celui-ci se présente sous la forme d’une sphère noire de 42 centimètres de diamètre pesant près de 350 grammes. Il est capable d’atteindre les 60 km/h en vitesse de pointe, chose plutôt rare pour un appareil aussi léger. Doté d’une hélice à huit pales, le drone impressionne tant par sa maniabilité que par son apparente stabilité, capable de vol stationnaire comme d’atterrir ou de décoller de manière horizontale.
Ce drone est présenté comme un outil de surveillance active et discrète d’une personne ou d’un groupe de personnes, mais dont l’autonomie ne serait pour le moment que de huit minutes, ce qui semble ridiculement court, le plaçant au rayon des jouets high-tech. On peut aussi douter de son utilisation comme drone « espion », tant que le bruit et la taille de l’appareil ne seront pas réduits. L’équipe de scientifiques responsable du projet s’échine à résoudre ces problèmes, et pense équiper l’appareil d’une caméra plus performante que celle embarquée actuellement, tandis qu’un système de pilotage automatique serait à l’étude.
Pour contrecarrer le couple engendré par l’hélice, le drone est équipé de deux gouvernes dirigeant le flux d’air dans le sens opposé, et de trois gyroscopes permettant au dispositif de gagner en stabilité, même en cas de collision. Autre point fort, son prix : l’engin ne couterait pas plus de 1 400 dollars à la production, et n’est composé que d’éléments grand public, aisément disponibles sur le marché. Voici la vidéo de la présentation :
Manipuler des hologrammes, grâce à l’Holodesk de Microsoft :
Dans la droite lignée de l’Holodeck de la série culte « Star Trek », les laboratoires du géant américain Microsoft ont développé un système permettant de manipuler des objets virtuels à la main, à travers un dispositif baptisé « Holodesk ». Encore à l’état de prototype, le « Holodesk » se base sur la technologie Kinect et sur un miroir semi-réfléchissant laissant passer une partie de la lumière qu’il reçoit, et laissant passer l’autre partie.
La combinaison du capteur Kinect et du miroir semi-réfléchissant crée un environnement virtuel en trois dimensions. Le concept est assez simple à comprendre : un projecteur situé en hauteur envoie une image plus bas, dans la zone de travail, à travers le miroir semi-réfléchissant, permettant à la fois de voir l’image projetée et de voir ce qu’il se passe dans l’environnement de la zone de travail. Il suffit alors de placer ses mains dans cette zone de travail et de laisser le capteur Kinect observer les mouvements de l’utilisateur. L’image projetée est actualisée de manière dynamique, autorisant l’interaction virtuelle avec des hologrammes. La clé de voûte du système réside en une webcam, traquant en temps réel la position de la tête et des yeux de l’utilisateur, pour s’assurer que l’orientation de la projection reste constante. Il ne manque plus que la sensation de l’objet…
Démonstration en vidéo :
L’imprimante 3D en Lego d’Arthur Sacek :
L’un des tous derniers projets du designer brésilien Arthur Sacek a de quoi faire sourire de prime abord. Cherchant à prouver que tout peut être construit simplement à l’aide de Lego, il est parvenu à concevoir une fraiseuse / imprimante permettant de produire des images en trois dimensions. Le seul élément n’appartenant pas à l’univers Lego se trouve être la mèche de la fraiseuse.
Commandée par le système robotique programmable Mindstorms NXT de l’entreprise danoise Lego, l’imprimante 3D d’Arthur Sacek est capable de découper des images 3D dans des blocs de mousse florale, une mousse passablement dure, dont l’utilisation principale est la création de montages floraux et de décorations de Noël, du fait qu’elle absorbe très aisément l’eau.
Limitée par la capacité de mémoire du système Mindstorms NXT, l’imprimante 3D ne peut reproduire que des modèles dont la taille maximale est un carré de 80 millimètres de côté, sur 40 millimètres de profondeur. Le Brésilien pourrait bien vouloir continuer à développer le concept, afin que son appareil puisse sculpter d’autres matériaux. La phase de travail, en accéléré dans la vidéo, prend normalement près de deux heures trente. Un coup d’aspirateur sur la mousse, et le visage apparaît… Bluffant !
Horloge « LCD » construite en Lego :
Toujours pas convaincu ? Le Suédois Hans Andersson, programmateur et développeur dans le privé, a attrapé le virus du Lego en offrant une boîte à ses deux filles, afin d’éveiller en elles un intérêt pour la technologie. C’est évidemment lui qui s’est escrimé le plus longtemps sur la boîte de jeux, poussé à en acheter de nouvelles, et à créer des systèmes robotiques de plus en plus élaborés. Hans Andersson a notamment mis au point un robot capable de résoudre des grilles de Sudoku, ainsi qu’un robot capable de compléter un jeu de Rubik’s Cube.
Sa dernière création ? Une horloge « digitale », dont l’affichage reproduit celui des horloges à cristaux liquides… mais en Lego. Baptisée « Time Twister », cette horloge est composée de deux systèmes robotiques programmables Mindstorms NXT, communiquant par Bluetooth, et commandant les quatre chiffres, eux-mêmes composés de cinq couches de trois legos, blancs ou noirs. Chaque couche effectue une ou plusieurs rotations à 360 degrés lorsque cela est nécessaire, au moment d’un changement de minutes ou d’heure. Difficile de connaître l’heure au moment même d’un grand chamboulement… Pour mieux comprendre, voici la vidéo :
« AshPooPie », solution au problème de déjections canines ?
Inspiré par un funérarium près de chez lui, le professeur Oded Shoseyov, de l’université hébraïque de Jérusalem, a décidé de remédier au problème des déjections canines. Sa société, Paulee CleanTec, propose une alternative au traditionnel sac de ramassage : « AshPooPie ». Plus besoin de ramasser les crottes de votre animal, et de remplir des sacs souvent peu écologiques.
Le procédé reste toutefois bien mystérieux : après avoir récupéré les déjections de votre animal à l’aide de la cuillère réservoir de l’engin portable, la combinaison d’un procédé thermique et chimique (des cartouches jetables contenant des « composés spéciaux AshPooPie » sont disponibles) et des pales rotatives transforme la déjection en de la cendre 100 % stérile et sans odeur, d’après les concepteurs.
Paulee CleanTec espère pouvoir présenter un prototype rapidement, et mettre sur le marché ce gadget courant 2012. Bien que le AshPooPie soit garanti sans mauvaise odeur et facile à nettoyer, pas sûr que cela fonctionne auprès du grand public…
Le gadget (inutile ?) de la semaine : un robot capable d’applaudir
Masato Takahashi, de l’université japonaise de Keio, a créé un jeu de mains robotiques, pour les situations où un robot entier ne serait pas nécessaire. Baptisé « Ondz », ce robot peut être utilisé en tant qu’avatar « applaudisseur » pour des internautes ne pouvant être présents lors d’un spectacle, par exemple. Il permettrait aussi de battre la mesure lors d’un concert, ou bien évidemment de donner plus de corps à des applaudissements faiblards. Du baume au cœur pour les artistes à l’égo fragile ?
Un député japonais boit de l’eau provenant de la centrale de Fukushima-Daiichi :
Pour conclure cette treizième revue du Web, et en bonus, voici la vidéo d’un parlementaire japonais – également membre du gouvernement japonais –, Yasuhiro Sonoda, buvant un verre d’eau provenant de l’intérieur de la centrale de Fukushima-Daiichi. But de la manoeuvre ? Promouvoir la qualité et l’efficacité du travail de décontamination effectué jusque-là. Le député s’exécute devant les caméras de la télévision japonaise, tout en ayant pris le soin de rappeler que « le simple fait de boire [cette eau décontaminée] ne signifie pas que la sûreté est confirmée ». « Le meilleur moyen est de fournir des données au public », a-t-il ajouté. Doit-on préciser que cette eau n’a de toute façon pas vocation à être bue ?
Tepco a précisé qu’il s’agissait du réacteur n°2 de la centrale Fukushima Daiichi, gravement endommagée par le séisme et le tsunami géant survenus le 11 mars.
« Nous ne pouvons pas écarter la possibilité d’une réaction de fission nucléaire localisée », a déclaré le porte-parole de Tepco, Hiroki Kawamata, ajoutant que l’injection de ces produits était une mesure de précaution.
La fission nucléaire est le processus qui se produit habituellement dans les réacteurs atomiques, mais de façon contrôlée, ce qui n’est pas le cas à Fukushima.
Tepco affirme toutefois que la température et la pression à l’intérieur du réacteur, ainsi que le niveau des radiations, n’avaient pas grandement changé.
Trois des six réacteurs de Fukushima Daiichi ont été endommagés, de même que la piscine du quatrième, après la rupture de leur alimentation électrique et l’arrêt de leur système de refroidissement, accidents provoqués par le séisme et le tsunami du 11 mars.
Les craintes d’un redémarrage de fission nucléaire (« recriticalité », selon le jargon des experts) sont apparues après la découverte (en cours de confirmation) de gaz xenon 133 et 135, lesquels sont générés lors d’une fission nucléaire.
Ces substances ayant une durée de vie radioactive courte – cinq jours pour le xenon 133 et neuf heures pour le xenon 135 –, la fission qui les a dégagées est forcément intervenue très récemment.
« Il est difficile à ce stade d’analyser exactement ce qu’il a pu se produire, compte tenu du fait que nul ne sait dans quelles conditions, où, sous quelle forme se trouve le combustible qui a fondu dans les réacteurs après le 11 mars », a précisé à l’AFP un expert français.
Cette nouvelle avarie intervient alors que, grâce aux mesures prises depuis des mois pour refroidir les réacteurs, les températures au fond des cuves ont été ramenées depuis plusieurs semaines sous 100 degrés Celsius, condition sine qua non pour parvenir à un « arrêt à froid’ d’ici à la fin de l’année, selon les objectifs visés.
Vous recherchez la définition d’un terme, d’un acronyme, d’une expression…, le site ECHA-term vous permet de trouver la réponse et ses traductions en 22 langues.
ECHA-term est une base de données terminologique multilingue contenant les principales terminologies de REACH et CLP. La base de données répond aux besoins des divers utilisateurs : les acteurs de REACH et CLP, les autorités nationales, traducteurs, interprètes et le public en général. Il vise à améliorer la clarté de la communication dans le domaine des produits chimiques. Cette base de données est disponible sur :
http://echa.cdt.europa.eu/SearchByQueryEdit.do
Projet de plan pour l’évaluation des substances soumis aux États membres
(21/10/2011)
L’ECHA a présenté le premier projet de plan d’action (Corap) aux les États membres. Ce projet de plan contient 91 substances qui sont proposées aux fins d’examen par les États membres en vertu du processus d’évaluation des substances dans le cadre du règlement REACH. Ces substances seront évaluées sur 2012, 2013 ou 2014. L’ECHA publie également une version publique du projet de plan, y compris le nom des substances non-confidentielles, numéros CAS et CE, et l’année d’évaluation.
Le règlement REACH demande à l’ECHA de soumettre le projet de Corap aux Etats membres pour le 1er Décembre 2011. Le plan porte sur les substances suspectées de présenter des risques pour la santé humaine ou l’environnement. L’évaluation des substances est le processus le cadre de REACH, qui permet de clarifier ces risques. Des évaluations complémentaires pourront être demandées auprès des déclarants des substances si des données supplémentaires sont jugées nécessaires pour clarifier les risques suspectés. Alternativement, il peut être conclu que la substance ne constitue pas un risque et aucune donnée supplémentaire n’est nécessaire.
Information complémentaires et la liste des substances sur : http://echa.europa.eu/news/na/201110/na_11_50_corap_en.asp
CoRAP : http://echa.europa.eu/reach/evaluation/corap_en.asp
Liste des substances : http://echa.europa.eu/doc/reach/evaluation/corap_2011.pdf
Informations pour éviter les essais inutiles sur les animaux – une nouvelle substance concernée
(21/10/2011)
L’ECHA a lancé un appel visant à collecter des informations sur une substance pour éviter les tests inutiles sur les animaux. Cette substance est la 2-pipérazine-1-yléthylamine (N° CAS : 140-31-8 et N° CE : 205-411-0)
Les informations sur cette substance sont à soumettre pour le 5 décembre 2011. http://echa.europa.eu/consultations/test_proposals/test_prop_cons_en.asp?consultations_status=current
Le rêve de tout automobiliste et possesseur de maison : assis dans son salon, il peut recharger son véhicule à l’aide d’une télécommande – non pas avec de l’essence, mais avec de l’électricité produite par sa maison.
À partir de début 2012, une famille de 4 personnes vivra pendant un an dans une maison à énergie positive, installée au centre ville de Berlin, pour tester en conditions réelles différents concepts d’optimisation de l’efficacité énergétique des bâtiments. L’habitation génèrera assez d’énergie pour non seulement s’autoalimenter, mais aussi pour recharger un véhicule électrique.
À l’initiative du Ministère fédéral des transports, de la construction et du développement urbain (BMVBS), le projet sera suivi par la Société Fraunhofer et la maison de quelques 130 mètres carrés réalisée par le bureau d’ingénieur Werner Sobek de Stuttgart, qui a remporté l’appel d’offre public. L’État entend ainsi devenir une force motrice dans le développement de l’électromobilité.
L’isolation thermique sera très efficace ; tous les murs extérieurs seront recouverts de modules photovoltaïques. Les matériaux employés seront complètement recyclables, la chaleur sera générée par une pompe à chaleur et les appareils électriques seront sélectionnés en fonction de leur efficacité énergétique. Par exemple, une machine à laver pourra être contrôlée par un boîtier de commande qui ne l’activera uniquement lorsqu’une surcapacité sera détectée dans le réseau électrique.
La famille d’essai, qui n’a pas encore été sélectionnée, disposera également de voitures, de vélos et de mobylettes électriques. L’énergie générée dans la maison rechargera ces véhicules par induction. Tous les constructeurs automobiles allemands se sont montrés intéressés par ce projet, mais aucun partenaire n’a encore été sélectionné. Le gouvernement fédéral a décidé d’inverstir 2,5 à 3 millions d’euros pour ce projet.
S’assurer que toutes les fenêtres d’un bâtiment sont fermées : derrière cette action triviale et nécessaire d’un point de vue sécuritaire et énergétique, peut se cacher une tâche fastidieuse, pour peu que les fenêtres soient nombreuses, pas toutes aisément accessibles, ou qu’il y ait une contrainte de temps. C’est dans ce genre de situations que les contacteurs de fenêtres prennent tout leur sens. Ces petits assistants électroniques, intégrés aux poignées d’une fenêtre, indiquent à partir de la position de la poignée si la fenêtre est grande ouverte, inclinée ou fermée. Ils transmettent l’information à une base qui centralise l’ensemble des données, accessibles par l’utilisateur, qui peut alors connaître l’état d’ouverture de chaque fenêtre sur simple consultation et d’un seul coup d’œil.
Un groupe de chercheurs allemands de l’Institut de Duisburg, affilié au prestigieux institut Fraunhofer, a mis au point une nouvelle version de ces capteurs, d’une grande fiabilité et ne nécessitant ni câblages ni batteries. « Nos contacteurs sans fil récupèrent toute leur énergie à partir des ondes radio ambiantes », explique le docteur Gerd vom Bögel, un des scientifiques en charge du projet. Les modèles sans fil sont dépendants soit de batteries, soit de cellules solaires, chacune de ces deux approches possèdant des inconvénients : les batteries doivent être changées régulièrement pour que les contacteurs restent pleinement opérationnels, tandis que les cellules solaires restent évidemment dépendantes du soleil (la moindre zone d’ombre et le système devient défaillant, sans parler de la nuit tombée) et sont assez peu discrètes, en raison de leur nécessité d’accéder à la lumière.
Reste alors la configuration standard, l’alimentation des contacteurs par câblage électrique. Commercialisée depuis de nombreuses années, l’installation de tels câblages peut paraître rédhibitoire car très lourde. En outre, il est souvent impossible de les améliorer ou de les adapter aux constructions déjà existantes.
À l’opposé, le nouveau système développé par les chercheurs allemands est remarquable de discrétion, et peut être installé sans effort. En marge des contacteurs, chaque pièce du bâtiment doit être équipée d’un petit module de contrôle, servant à la fois de récepteur, de transmetteur, mais aussi d’alimentation pour chacun des contacteurs, par le biais des ondes radio. Le système peut être configuré pour être interrogé à distance, à partir d’un smartphone, du moment que la base centralisant les informations dispose d’une connexion Internet.
La question de la gestion énergétique est restée au centre des discussions durant la phase de développement : « Les modules de contrôle doivent eux aussi se conformer à la limitation de puissance des ondes radio. Il devient alors particulièrement malaisé de récupérer suffisamment d’énergie nécessaire au bon fonctionnement de tous les contacteurs se trouvant dans une grande pièce », explique Gerd vom Bögel. « Mais nous nous sommes assurés que tous les modules, les antennes et les autres composants soient si finement réglés les uns aux autres que le système fonctionne de manière fiable, même sur de grandes distances. », ajoute-t-il. Les chercheurs ont mis au point un premier prototype, et tablent d’ores et déjà sur la future intégration d’autres types de capteurs à leur système, pour permettre par exemple de réguler la température ambiante dans chacune des pièces d’un bâtiment.
L’optimisation de la performance énergétique d’un bâtiment est le cheval de bataille des entrepreneurs, des particuliers et de certaines entreprises à la pointe de la gestion énergétique, ou à la recherche d’une « green-étiquette ». Cet élan nécessite la mise en place de nouveaux comportements, une mixité énergétique, le développement de nouveaux matériaux… L’installation de nouveaux systèmes et la mise à jour de ceux devenus obsolètes représentent un investissement non négligeable, parfois rédhibitoire.
Quatre chercheurs de l’université de Séoul, Ho Sun Lim, Jeong Ho Cho, Jooyong Kim et Chang Hwan Lee, ont mis au point une nouvelle vitre intelligente ayant la faculté de s’assombrir en été afin de permettre de minimiser l’énergie dépensée pour la climatisation, et de redevenir claire en hiver, laissant passer toute la lumière extérieure et par la même, toute la chaleur solaire.
Ces vitres, conçues pour équiper les fenêtres ou lucarnes d’une maison, comme les baies vitrées d’une salle de conférence, ne sont évidemment pas nouvelles sur le marché. Mais celles-ci comportaient plusieurs inconvénients : un prix excessivement élevé, le rapide déclin des performances du matériau, ainsi qu’un processus de fabrication incluant des substances potentiellement toxiques.
Les chercheurs sud-coréens ont découvert qu’un polymère, utilisant le potentiel des contre-ions (ion accompagnant les composés ioniques, afin de maintenir la neutralité électrique) et un solvant tel que le méthanol, permettaient la conception très peu onéreuse d’une fenêtre intelligente, à la fois d’une grande stabilité et d’une grande robustesse, et ce sans utiliser de produits corrosifs ou toxiques. Ce matériau a l’avantage d’être extrêmement réactif, passant facilement d’une opacité presque totale à la transparence la plus pure en seulement quelques secondes.
« D’après ce que nous savons, un changement optique aussi extrême est sans précédent parmi les fenêtres intelligentes actuelles », déclarent les scientifiques. « Un tel contrôle de la lumière devrait fournir une nouvelle option d’économies sur les coûts de chauffage, de climatisation et d’éclairage, à travers une meilleure gestion de la pénétration de la lumière dans un bâtiment. », concluent-ils.
L’acteur du secteur du bâtiment peut et doit agir, en contribuant positivement à réduire ses impacts sur l’environnement, participant ainsi au mouvement d’ensemble de la société, mais aussi en respectant ses propres contraintes économiques et sociales en cherchant quel doit être le choix optimal pour l’énergie dans le cadre d’une construction neuve ou pour la réhabilitation d’un bâtiment.
Quels seront les impacts des décisions des maîtres d’ouvrage en termes de qualité d’usage et service final, équilibre économique immédiat mais aussi de moyen et long terme, sécurité d’approvisionnement, impact environnemental, « image » commerciale ou exemplarité ?
Par ailleurs, les maîtres d’ouvrage pourront-ils faire jouer les nouvelles règles de concurrence et de transparence des marchés énergétiques ?
Telles sont les principales questions auxquelles ce dossier tentera d’apporter des éléments de réponses en facilitant la compréhension des évolutions récentes du contexte énergétique global comme local.
en première partie, une présentation générale de la problématique énergétique telle qu’elle se pose aux nations, groupes de nations et aux agents économiques ;
les principaux éléments de l’évolution du contexte économique juridique et environnemental et leur impact sur les marchés énergétiques ;
des critères de choix des énergies prenant en compte les nouvelles contraintes environnementales ;
en annexes, un panorama des ressources et des marchés énergétiques mondiaux, européens et français ainsi que des éléments de connaissance sur la formation des prix de l’électricité ou sur les dispositions internationales en matière de lutte contre l’effet de serre.
Depuis la démocratisation des smartphones, une frange de la population, toujours plus importante, possède un appareil photo, de plus ou moins bonne qualité. De nombreuses applications permettent de modifier les photos capturées, de les rendre plus ludiques, de leur donner un grain différent ou encore de donner une patine rétro et vintage aux réalisations, notamment à l’aide de l’application « Hipstamatic » qui connaît un franc succès. Pour élargir l’angle de vue et le cadre, ou encore créer un effet de style, il existe aussi des applications permettant la création de photos panoramiques.
L’Allemand Jonas Pfeil, récemment diplômé de l’université technique de Berlin, et épaulé par Kristian Hildebrand, Carsten Gremzow, Bernd Bickel et Marc Alexa, a développé un moyen simple et ludique pour créer une photo à la fois panoramique et sphérique, sur 360 degrés. Jonas Pfeil a eu l’idée d’embarquer 36 petits modules photos d’une résolution de 2 Mégapixels – identiques à ceux présents dans certains smartphones – à l’intérieur d’une balle verte, spécialement conçue et rembourrée avec de la mousse. Lorsque la balle atteint son point le plus haut, chacun des modules prend simultanément une photo, comme autant d’objectifs du même appareil, orientés différemment et répartis pour couvrir ce fameux panoramique « sphérique ».
Une fois à la maison et le transfert des données effectué, un logiciel de reconstruction permet de mettre automatiquement, bout à bout, tous les clichés, puis de « naviguer » confortablement à l’intérieur même du panoramique, par le biais d’une interface spécifique. L’image obtenue est assez propre, et a l’avantage d’éviter le « ghosting » ou « effet fantôme », lorsque la transparence d’un objet ou d’une personne est causée par son mouvement ou sa disparition, dans le cas de panoramiques reconstruits à partir de clichés qui n’ont pas été pris au même instant. L’objet n’est pas encore en vente, mais la démonstration vaut le coup d’oeil :
Un monde aussi traditionnel que le bâtiment et le génie civil – le « BTP » pour faire court – peut-il être un terreau fertile pour l’accueil d’innovations faisant appel à la maîtrise de la matière aux échelles de longueur approchant celles de l’atome et des molécules ? Il n’y a pas si longtemps la question aurait paru saugrenue, tant le désir de traditionnel et de perpétuation des savoir-faire était au cœur des préoccupations, en particulier dans le monde du bâtiment. Le seul moteur du changement était pour le particulier le désir d’un confort supérieur et, pour le monde industriel, la marche vers plus de rationalité, d’efficacité et de profit.
Les choses ont changé, même si les motivations qui viennent d’être évoquées restent d’actualité. Les soucis d’efficacité énergétique, de réduction des émissions de gaz à effet de serre, d’économie des ressources naturelles, de durabilité et de recyclabilité, de maintien de la biodiversité, de sécurité aussi ont désormais pris le pas sur les précédents ou, tout au moins, les complètent. Ceci ouvre des perspectives nouvelles pour les innovations. Il reste malgré tout deux spécificités du monde de la construction à laquelle les nanotechnologies doivent s’adapter. La première est l’échelle – en volume, tonnage, nombre de pièces – à laquelle ces technologies doivent pouvoir diffuser. Aucun autre domaine de l’activité humaine ne rivalise sur ce point avec la construction. La seconde spécificité, qui découle en réalité de la première, est ce que l’on pourrait appeler la rusticité ou, plus exactement, la robustesse impérative de leur mise en œuvre. Une technologie n’a de chances de se répandre dans le monde de la construction que si elle est compatible avec une mise en œuvre relativement simple et si possible tolérante (robuste) vis-à-vis des écarts de procédure.
Le monde de la « construction » recouvre en réalité plusieurs domaines assez distincts sur le plan technique. Le premier est celui du bâtiment, c’est-à-dire essentiellement de l’habitat – individuel ou collectif – et des bâtiments du tertiaire. Le deuxième recouvre les grandes infrastructures de ce que l’on appelle habituellement le génie civil. C’est le monde des « ouvrages d’art » : ponts, tunnels, viaducs, barrages… Le troisième est celui de la route, qui possède lui aussi ses spécificités. Ce premier dossier traite du bâtiment en se concentrant sur les matériaux d’enveloppe et, plus particulièrement, sur les fonctionnalités que les nanotechnologies leur apportent grâce, le plus souvent, à l’ingénierie de leur porosité et de leurs propriétés de surface.
La filière espère atteindre 25 % en 2015. Le monomur recouvre différentes formes et notamment la brique, le béton cellulaire, la pouzzolane (roche volcanique). Selon Pascal Deffaugt, maçon et président de la CAPEB Haute-Savoie, « l’usage du matériau utilisé varie avec le territoire. Dans le nord de la France ou en Alsace, on construit en briques de façon séculaire alors qu’en montagne le bois domine ».
Moins coûteux que l’ossature bois ?
À défaut d’être écologique dans sa fabrication en raison de l’énergie qu’il requiert à la cuisson, le monomur se montre en revanche un matériau sain car sa conception ne nécessite aucun apport chimique. De plus, lors de la fabrication comme en fin de vie, les résidus sont utilisés pour le terrassement.
Sa composition alvéolaire, à l’instar de sa forte inertie, permet d’enregistrer d’excellentes performances thermiques. Avoir recours à une isolation supplémentaire dépend du résultat souhaité. Posé en intérieur, l’isolant permet d’éviter les rainurages des briques propices aux ponts thermiques engendrés par le passage des câbles et conduits. Longtemps suspectée elle-même de multiplier les ponts thermiques, la pose de monomur est réalisée depuis plusieurs années à l’aide de solutions techniques qui les évitent, notamment la maçonnerie à rouler à joints minces.
Plus d’un siècle d’existence
Et Pascal Duffaugt d’expliquer : « Il est des cas de figure, lorsque les surfaces vitrées sont importantes, où il est nécessaire d’avoir recours à des solutions techniques particulières avec des joints pelliculaires afin de faire barrage aux ponts thermiques. La pose de monomur demande une grande rigueur pour poser les bons éléments au bon endroit. Comme pour tous les types de constructions, notamment pour des raisons sismiques, soubassement, sous-sol, vide sanitaire, doivent être en béton et montrer une semelle plane au micron ».
Le béton cellulaire existe depuis la fin du 19e siècle. Sa fabrication actuelle résulte d’un procédé de développement, alors que la brique bénéficie d’une histoire beaucoup plus ancienne. En conclusion : « Construire en monomur, c’est de l’horlogerie de la construction pour un procédé qui demeure moins cher que l’ossature bois, d’où sa croissance. En revanche, on ne pas réaliser plus que du R+5 ».
La résistance thermique, R, d’un isolant au passage de la chaleur est fonction de son épaisseur et de sa conductivité thermique, λ, qui doit être la plus faible possible. Les isolants thermiques traditionnels ont une conductivité comprise généralement entre 0,035 et 0,045 W/m.K, alors que les nouvelles solutions présentent des coefficients inférieurs à 0,013 W/m.K.
Le coût des « superisolants » est, pour le moment, nettement plus élevé que celui des isolants classiques, mais ils font gagner des m² onéreux.
L’aérogel
L’aérogel est un matériau translucide composé de minuscules particules de silice remplies à 99,8 % d’air. Il est l’un des matériaux solides les plus légers au monde avec une densité de 3 grammes pour un cube de 1 cm de côté. Les aérogels possèdent un coefficient de conductivité thermique compris entre 0,011 et 0,013 W/m.K, le plus faible pour un solide, offrant une excellente isolation thermique.
Un exemple, Rockwool commercialise Aerowool, des panneaux de 20 à 40 mm d’épaisseur composés de laine de roche et d’aérogel où λ est égal à 0,019, montrant ainsi les qualités de ce nouvel isolant.
Le panneau isolant sous vide
Les panneaux isolants sous vide (PIV) présentent, quant à eux, un λ entre 0,005 et 0,007 W/m.K, ce qui permet d’atteindre une résistance thermique de 5 W/m².K avec seulement 35 mm d’isolant.
Un PIV se compose d’un matériau nanoporeux (poudre de silice, aérogel) contenu dans une enveloppe étanche. L’ensemble est ensuite vidé de son air. Fragiles, les VIP sont entourés d’un film protecteur.
Les matériaux à changement de phase
Au-delà d’une certaine température caractéristique à chaque type de matière (paraffine, acides gras…), les matériaux à changement de phase (MPC) se liquéfient en absorbant les calories de l’atmosphère ambiante et les restituent lorsque la température baisse. Renforçant l’inertie thermique des parois, ils permettent d’écrêter de 3° C à 5° C les températures extrêmes, ce qui limite d’autant le recours à la climatisation. Un système de ventilation nocturne associé régénère encore plus efficacement les MCP (restitution des calories).
Si plusieurs fabricants commercialisent dès à présent des produits incluant des MCP (panneaux de 5 mm), le CSTB estime cependant que quelques points particuliers doivent encore faire l’objet d’améliorations et de recherches spécifiques.
L’économie fonctionnelle est une économie dont les transactions marchandes client/fournisseur sont caractérisées par trois propriétés qui en font la spécificité :
les échanges entre les parties s’entendent sur la durée. Traditionnellement, les relations marchandes traduisent l’échange ponctuel entre deux acteurs. C’est ce qui justifie l’importance du prix qui traduit, dès lors, un investissement. En économie fonctionnelle, c’est moins le moment de la transaction qui compte que la création d’un lien s’opérant sur un temps plus long puisqu’il s’agit de fournir un service au cours d’une période fixée conjointement.
le contrat est conclu sur la base de résultats à atteindre. L’objectif des parties dépassant le simple échange, il doit être établi sur le maintien de la satisfaction réellement mesurée pour en vérifier la constance. Les relations contractuelles sont ainsi définies par un niveau des performances attendues et non plus par les moyens mis en œuvre. Cette obligation de résultats, qui se substitue à la seule conformité à un descriptif technique, est à la fois plus ouverte, puisqu’il n’y a pas d’imposition de solutions, mais aussi plus contraignante car une exigence de garantie existe.
l’objet de la transaction se définit par un usage. En fait, l’économie fonctionnelle met l’accent, non sur le vecteur du service souhaité, mais sur la seule pérennité de ce dernier. Ce qui est au cœur de cette économie c’est la fonctionnalité procurée au client par la mise à disposition d’une solution à cette fin par le fournisseur. L’usage prime sur la technologie.
Aucune de ces dimensions n’est véritablement étrangère à la construction.
Le bâtiment est de ce point de vue un objet qui répond à de très nombreuses fonctions pour ses utilisateurs et c’est sous cet angle qu’il se prête particulièrement à des développements en économie fonctionnelle.
« Oxyde d’indium-étain » : ce nom ne vous est probablement pas familier. Pourtant, c’est l’un des composants essentiels de nombreux appareils qui nous accompagnent dans notre quotidien, tels nos smartphones, les écrans à cristaux liquides, les OLED ou encore les cellules photovoltaïques. La couche connectant entre eux les pixels de nos écrans électroniques est composée d’oxyde d’indium-étain, pellicule complètement transparente utilisée comme enrobage conducteur, capable de transmettre une information de manière parfaite.
Cette pellicule cumule toutefois deux problèmes : l’indium est un métal très rare, non renouvelable, dont la récente utilisation massive a fait grimper le prix à près de 800 dollars le kilo ; le processus de dépôt de la pellicule est particulièrement délicat, se faisant sous vide et à haute température (évaporation par faisceau d’électrons ou dépôt physique par phase vapeur), pour un film excessivement peu flexible et fragile. Ces problèmes ont mobilisé une partie de la communauté scientifique, multipliant les efforts pour réduire les coûts tout en accélérant et simplifiant le processus.
Nanofils de cuivre
C’est dans ce contexte que le chimiste américain Ben Wiley et son équipe de l’université Duke, en Caroline du Nord, ont créé un film transparent et conducteur constitué de nanofils de cuivre, enrobé d’une fine couche de plastique. La principale difficulté fût de développer une technique de synthèse de ces nanofils de cuivre, en organisant les atomes de cuivre présents dans une solution en longs et fins nanofils indépendants. Les chercheurs sont ensuite parvenus à démontrer, dans une étude publiée dans Advanced Materials, que le film développé partageait bien les même propriétés que la pellicule d’oxyde d’indium-étain, tout en étant bien moins cher à produire.
Moins de 10 dollars le kilo
Une autre alternative à la pellicule d’oxyde d’indium-étain est une encre contenant des nanofils d’argent. Récemment découverte, elle a déjà été exploitée dans l’écran d’un smartphone qui sera mis sur le marché cette année. Mais l’argent, tout comme l’indium, reste très onéreux, approchant les 1 400 dollars le kilo. Le cuivre est quant à lui largement plus abondant que l’indium ou l’argent, et excessivement moins cher, toujours à moins de 10 dollars le kilo.
Flexibilité accrue
Autre qualité du film de Ben Wiley et de son équipe, la flexibilité. La conduction et la structure d’un film traditionnel ne résistent pas à quelques flexions ou pliages, alors que leur film peut supporter près de mille pliages et revenir à son état initial sans dommage. Le coût très bas de ce film, ses performances et sa flexibilité pourraient bien l’imposer comme le futur choix naturel pour les écrans, appareils et panneaux solaires. Et peut-être revoir les prix à la baisse…
Malgré ses atouts, la France ne s’est pas donnée les moyens d’exploiter pleinement son potentiel. Alors que l’Allemagne s’apprête à installer 4 à 5 gigawatts (GW) d’électricité solaire cette année et 52 GW d’ici 2020, le niveau des installations en France devrait être inférieur à 1 GW cette année et n’atteindra probablement même pas 7 GW en 2020. Dans le même temps, l’industrie solaire allemande emploie 130 000 personnes et parvient à générer des revenus à l’exportation.
Pourquoi le développement du solaire est-il aujourd’hui au point mort en France ? Première explication : la réduction considérable du montant des tarifs de rachat pour les installations photovoltaïques. La baisse progressive du coût des panneaux solaires et la nécessité de se prémunir des bulles spéculatives se sont traduits par une réduction proportionnelle des tarifs de rachat.
Alors que des pays comme l’Allemagne ont maintenu des mesures claires et transparentes – et ainsi encouragé les investissements à long-terme – la France s’est dotée d’un système d’appels d’offres à court-terme qui décourage les investisseurs. Ce système est particulièrement défavorable aux entreprises spécialisées dans les grandes installations commerciales. Ainsi, des projets comme ceux menés par First Solar et ses partenaires nécessitent du temps et des investissements en amont pour voir le jour. Cette nouvelle politique, combinée à des restrictions sur l’utilisation des terres agricoles, même les moins valorisées, et à la rétroactivité de certaines décisions ont mis en péril l’avenir de certains projets de construction d’usines solaires. Ces projets avaient pourtant engendré des coûts importants et leur suspension a eu des conséquences parfois dramatiques pour les investisseurs.
Il est encore temps pour la France d’inverser la tendance pour occuper sa place légitime parmi les leaders mondiaux du solaire. Il s’agit là d’une ambition réaliste, qui impose néanmoins de réévaluer certaines hypothèses sur lesquelles repose la politique française en matière de solaire. Ainsi, considérer que le prix de l’énergie solaire est de 537 euros/MWh est un postulat biaisé, puisqu’il suppose que toute l’énergie solaire provienne de petites solutions solaires coûteuses et installées sur des toits individuels. À l’inverse, les grandes installations photovoltaïques au sol, en France, peuvent déjà produire de l’électricité pour environ 200 euros /MWh, un chiffre qui baisse continuellement.
De même, on suggère parfois que les installations photovoltaïques au sol constitueraient une menace pour les terres agricoles. Pourtant, dans la plupart des cas, les centrales solaires, lorsqu’elles sont construites dans le respect de l’environnement, peuvent permettre de produire de l’électricité propre tout en contribuant à la protection de la biodiversité. De plus, il existe aujourd’hui, en France, des milliers d’hectares de terrains militaires et de terres industrielles et agricoles qui ne sont pas utilisés et qui sont qualifiés pour accueillir des parcs solaires. Le projet de centrale solaire actuellement en construction à Toul Rosières, sur le site d’une ancienne base militaire de l’OTAN, en est un exemple éclatant.
Enfin, certains affirment que la France ne serait pas en mesure de rivaliser avec les producteurs asiatiques de panneaux à bas coûts. En la matière, First Solar peut aujourd’hui affirmer que la fabrication de panneaux photovoltaïques en Europe est une activité non seulement possible mais rentable. Nous avons récemment double la capacité de production de notre usine en Allemagne, qui emploie plus de 1 200 personnes.
Dans le cadre de la politique incitative de la France fondée sur un tarif de rachat clairement défini, s’appliquant à tous les projets photovoltaïques et calculé de manière inversement proportionnelle à la taille du projet, First Solar avait l’intention d’investir 100 millions d’euros dans une usine à Blanquefort, en Aquitaine. Cette usine, dont la construction est actuellement gelée, aurait ainsi produit plus de 130 MW de panneaux solaires à la pointe de la technologie chaque année et employé plus de 400 personnes.
Alors que l’énergie solaire est de plus en plus compétitive et qu’elle se place progressivement sur un pied d’égalité avec les autres énergies, la France pourrait aujourd’hui créer des emplois locaux dans le secteur solaire, aussi bien dans les métiers de la fabrication que dans ceux du développement et de l’installation de systèmes solaires. Pour cela, la France devrait changer de cap rapidement et mettre en œuvre une politique incitative, transparente et crédible qui donne de la visibilité au-delà des échéances électorales de 2012. De surcroît, cette politique devrait être fondée sur une échelle de tarifs de rachat modérée et progressive.
En juillet 2009, First Solar annonçait, conjointement avec M. le ministre d’État, ministre de l’écologie, Jean-Louis Borloo, son intention de construire une usine de panneaux solaires pour subvenir aux besoins du marché français. Le journal Le Monde avait d’ailleurs annoncé cette nouvelle, en titrant sa une :« La France commence à croire au secteur solaire. » Nous restons aujourd’hui convaincus que le solaire a un avenir en France. Quand les conditions le permettront, First Solar s’engage à reprendre la construction de son usine française à Blanquefort et à contribuer ainsi à la création de plus de 400 emplois et à la concrétisation de l’immense potentiel solaire de la France. C’était notre espoir et cela le reste.
Par Robert Gillette, président directeur général de First Solar
La simulation numérique est un outil de prototypage virtuel accélérant les processus de création et d’optimisation. Que cela concerne le contrôle de l’épaisseur du film de silicium pour la fabrication de cellules photovoltaïques, la mise au point d’une batterie pour un nouveau marché, un regard plus pointu sur l’acoustique d’une éolienne ou les risques de fuite dans un stockage longue durée de déchets nucléaires. Avec une prise en compte toujours plus grande des interactions entre physiques parce que le monde est … multiphysique.
Éviter la fusion des pales d’une turbine à gaz implique de mettre en place un circuit de refroidissement et de prendre en compte la thermo-dilatation au niveau des contraintes de fatigue, notamment le long des soudures. Étudier la pérennité d’un stockage profond de déchets nucléaires conduit à simuler les fuites radioactives en cas de fracture dans la roche. Adapter une batterie ou une pile à combustible à une nouvelle application nécessite de tester la fiabilité des cycles de charge/décharge au cours de l’utilisation. Et placer des éoliennes off-shore conduit à se poser la question de l’ancrage dans un sol parfois instable !
Pour analyser un procédé ou un produit, il est courant de se focaliser sur un aspect des phénomènes en jeu (une seule physique). Avec l’hypothèse que les autres physiques n’ont pas ou peu d’influence (température, fatigue, attaques chimiques, vibrations, humidité, écoulement par exemple). C’est souvent correct : on est dans un régime où c’est le cas (pièce métallique à telle température de fonctionnement). Mais de moins en moins du fait de l’intégration de plus en plus poussée des dispositifs, de la miniaturisation, de la recherche de performances optimales. Et c’est d’ailleurs le but des prototypes de vérifier l’adéquation entre les objectifs initiaux et le résultat concret.
La simulation intervient à ce niveau parce que c’est un outil inégalable pour rester compétitif. Véritable laboratoire virtuel, l’outil idéal s’insère dans la chaine de conception et s’adapte à la problématique. Il doit incorporer les géométries issues des logiciels de CAO et les données matériaux. Bien plus, il doit être capable de simuler une physique particulière, ou plusieurs avec leurs couplages en fonction de l’évolution des idées à tester. La paramétrisation totale du modèle (géométries, matériaux, physiques) est nécessaire pour déterminer l’optimum de fonctionnement. Enfin, l’interface s’adapte à des utilisateurs de niveaux différents, du néophyte à l’expert, pour faciliter la coopération et les échanges.
Les airbags frontaux, disposés dans le volant et dans la planche de bord avant, soit les plus répandus, ont fait des merveilles depuis qu’ils équipent les véhicules. Tout du moins lors du type d’accident le plus commun, c’est-à-dire le choc frontal. Pourtant, selon des statistiques américaines, 11 % des décès au volant sont causés par des chocs latéraux. La dynamique induite par le choc peut alors entraîner le conducteur sur le siège voisin, dans une torsion extrême et souvent fatale, bien que maintenu par la ceinture de sécurité.
Forts de ce constat et après plus de trois années de recherches, l’équipementier nippon Takata et le constructeur américain General Motors, soucieux de rendre les véhicules plus sûrs, ont présenté au début du mois d’octobre un tout nouveau dispositif de sécurité, le « front center airbag », l’airbag central avant. Placé dans le siège conducteur, il émerge entre les deux sièges avant et a pour but de maintenir et d’empêcher le conducteur de se retrouver sur le siège du passager lorsqu’il est seul en voiture, la tête et les cervicales encaissant une grosse partie du choc et une torsion très violente. Lorsqu’un passager est présent à l’avant du véhicule, il devrait lui permettre de ne pas percuter le conducteur dans l’accident, l’airbag maintenant ce dernier et créant une séparation tampon salvatrice.
Cette idée, inspirée de l’airbag développé auparavant par Toyota sur les modèles « Crown Majesta », devrait équiper les Buick Enclave, les GMC Acadia et la Chevrolet Traverse d’ici l’année prochaine pour le marché américain, et arriver en Europe à l’horizon 2013. La vidéo qui suit présente les crash-tests, avec et sans l’airbag central avant, avec et sans passager. Les résultats dans les conditions du test sont impressionnants, surtout lorsque cet airbag est combiné avec un airbag latéral :
Tout justiciable peut, depuis le 1er mars 2010, soutenir, à l’occasion d’une instance devant une juridiction administrative ou judiciaire, « qu’une disposition législative porte atteinte aux droits et libertés que la Constitution garantit », en application de l’article 61-1 de la Constitution.
C’est dans ce cadre que le Conseil constitutionnel a été saisi, le 19 juillet 2011, par le Conseil d’État de deux questions prioritaires de constitutionnalité posées par l’association France Nature Environnement, relatives à la conformité aux droits et libertés que la Constitution garantit d’une part, de l’article L. 511-2 du code de l’environnement, d’autre part, du paragraphe III de l’article L. 512-7 du même code. Ces deux dispositions sont issues de l’ordonnance n°2009-663 du 11 juin 2009 relative à l’enregistrement de certaines installations classées pour la protection de l’environnement. Le Conseil constitutionnel a joint ces deux questions prioritaires de constitutionnalité pour statuer par une seule décision.
Il rappelle d’abord que les décrets de nomenclature, qui déterminent le régime applicable aux ICPE, constituent des décisions publiques ayant une incidence sur l’environnement. Il en va de même des projets de prescriptions générales que doivent respecter, en vertu de l’article L. 512-7 du même code, les ICPE soumises à enregistrement.
Or, ni les dispositions contestées ni aucune autre disposition législative n’assurent la mise en oeuvre du principe de participation du public à l’élaboration des décisions publiques en cause. Dans ces conditions, en adoptant les dispositions contestées sans prévoir la participation du public, le législateur a méconnu l’article 7 de la Charte de l’environnement, qui fixe le droit de chacun d’accéder à l’information environnementale et de participer à l’élaboration des décisions ayant une incidence sur l’environnement. Il en résulte l’abrogation des deux dispositions contestées, c’est-à-dire leur suppression pour l’avenir.
Le principe est qu’une disposition déclarée inconstitutionnelle sur le fondement de l’article 61-1 est abrogée à compter de la publication de la décision du Conseil constitutionnel ou d’une date ultérieure fixée par cette décision. Le Conseil constitutionnel jugeant que l’abrogation immédiate pouvant avoir ici des conséquences manifestement excessives, il reporte au 1er janvier 2013 la date d’abrogation de ces dispositions.
Dans la pratique, cette décision du Conseil constitutionnel ne devrait donc pas avoir d’incidences majeures pour les exploitants des ICPE. Il appartient au ministère de revoir sa copie d’ici le 1er janvier 2013, afin de sécuriser le cadre juridique des ICPE à compter de cette date.
Par Solange Viger, avocate au barreau de Paris et consultante en droit de l’environnement
Pour aller plus loin :
Découvrez les Fiches Pratiques Techniques de l’Ingénieur : Exploiter une ICPE
Quelles annonces ! HP abandonne les PC traditionnels ! IBM annonce la mort du PC ! Un signal fort sur le marché et une tendance de fond qui se confirme : le poste de travail est en pleine mutation et s’oriente massivement vers une nouvelle approche centrée sur la virtualisation. Ainsi, en quelques années, le VDI aura réussi à ébranler le marché du poste de travail si souvent présenté comme un socle indispensable et un incontournable.
Cette évolution est principalement dictée par des raisons purement rationnelles : économiques, organisationnelles… Ainsi, depuis 2005, le nombre de postes de travail virtualisés est multiplié par deux toutes les années. À ce jour, l’on estime que le marché des postes de travail virtualisés devrait représenter plus de 4 milliards de dollars. Ce chiffre, qui représente une fourchette moyenne, ne prend pas en compte les chantiers de renouvellement de parcs de nombreux secteurs, à l’image de celui de la santé en France, qui semble s’orienter fortement vers des postes clients légers qui intègreront l’approche VDI.
Notons également que l’explosion des tablettes vient grapiller de nombreuses parts de marché aux PC traditionnels. Ainsi, le fameux cabinet d’analyses Gartner estime que le marché mondial des PC a connu un recul de 1,1 % au premier trimestre 2011. Il s’agit d’une réelle bombe sur le marché, dans la mesure où le même cabinet prévoyait une croissance. Selon ce dernier, les tablettes expliquent cette donnée. Seule exception dans ce marché, Apple qui connaît, pour sa part, une croissance du nombre de vente de ses postes de travail. La notion de convergence avec l’iPad et de communauté d’utilisateurs explique surement cette croissance.
Autre évolution, l’arrivée massive des technologies tactiles, qui ont, elles aussi, largement fait évoluer les usages et les postes de travail, qui deviennent de simple device servant à afficher une information, une vidéo, des photos et maintenant des applications de toute nature. Au croisement de ces différents éléments, n’oublions pas que le bureau et le poste de travail sont des incontournables dont les utilisateurs auront toujours besoin. Il faudra donc bien proposer une approche et une technologie répondant à cette équation. La réponse existe, le VDI : une évidence désormais plébiscitée. Les constructeurs ne s’y trompent d’ailleurs pas et revoient leurs positionnements pour proposer des offres intégrées associant serveurs, logiciels, clients légers…
L’approche VDI devient donc globale et s’inscrit dans le cadre d’offres packagées, portées principalement par de nombreux intégrateurs spécialisés en infrastructures et sécurité. Cela se traduit par des migrations massives de parcs vers ces nouveaux environnements. De manière assez générale, les grandes organisations et structures internationales commencent à lancer leurs projets par lots. Ces premiers déploiements significatifs préfigurent de la nouvelle organisation du poste de travail dans un environnement professionnel.
Les DSI sont donc enfin convaincues de l’apport du VDI. Il est important de prendre en compte cette donnée et de bien mesurer les opportunités qui se dessinent à court terme. La bataille du PC se jouera sur un autre registre et inclura nécessairement une approche de virtualisation du poste client.
Plébiscité par les entreprises, le Cloud Computing connaît aujourd’hui une croissance importante et se positionne comme une nouvelle manière de concevoir l’informatique. Adopté assez naturellement par les PME pour ses avantages évidents (simplicité d’accès, évolutions à la demande…), ce dernier est aussi largement déployé au sein des grands groupes.
Pour expliquer synthétiquement le concept de Cloud Computing, rappelons que l’informatique en nuage consiste à déporter sur des serveurs distants des traitements informatiques traditionnellement localisés sur des serveurs locaux ou sur le poste client de l’utilisateur.
Dans le monde professionnel, cette démarche présente de nombreux avantages comme par exemple accéder à des services en ligne sans avoir à gérer l’infrastructure associée qui représente souvent une problématique complexe. Le navigateur web (ou autre moyen standard) devient alors la « porte d’entrée » vers le service – sous réserve de bénéficier d’une bande passante correcte pour assurer la fluidité du système -, ce qui allège considérablement les contraintes côté utilisateur.
Les cinq caractéristiques du Cloud Computing traditionnellement évoquées sont :
une mutualisation des ressources pour réduire les coûts ;
leur mise à disposition en libre-service (sans nécessité d’intervention de la part du fournisseur) ;
l’élasticité du service (modifiable selon les besoins) ;
l’accès universel à ces ressources via le réseau ;
une facturation à l’utilisation (car le service est mesurable).
L’expansion du Cloud s’explique finalement par l’évolution profonde du système d’information et la manière dont il s’intègre dans l’entreprise pour répondre aux nouveaux besoins des utilisateurs, notamment leurs exigences en matière de continuité et de qualité du service.
Quelques chiffres pour illustrer le phénomène : selon IDC, le marché mondial des services Cloud représente à l’heure actuelle environ 5 % des investissements TIC mondiaux, soit 17 milliards de dollars. Ce pourcentage pourrait être doublé d’ici 2013 (croissance annuelle de 25%) ce qui représenterait 44 milliards de dollars.
Toutes les entreprises sont donc concernées par le Cloud qui trouve une application concrète dans la gestion des risques et des assurances. Cette activité sensible se trouve en effet significativement facilitée par l’utilisation d’un logiciel en tant que service.
Premièrement, les Risk Managers ont besoin d’un logiciel accessible 24h/24, 7j/7, 365 jours par an et qui puisse être facilement déployé sur plusieurs sites à travers le monde pour permettre aux filiales de remonter au niveau groupe toutes les informations nécessaires (notamment l’état des lieux des objets de risques puis la déclaration des incidents et des sinistres par exemple). Inversement, le groupe doit pouvoir alerter ses filiales et partager avec elles les éléments qui les intéressent (sinistralité locale, dépenses de prévention…). Ceci implique de donner des accès personnalisés au logiciel à un grand nombre d’utilisateurs, dispersés géographiquement et susceptibles de se connecter à tout moment (voire en même temps).
Deuxièmement, les Risk Managers doivent disposer en temps réel de données précises relatives à l’exposition au risque de leur entreprise, à la dépendance vis-à-vis de tel ou tel assureur, aux provisions constituées, au règlement financier des sinistres… Ces indicateurs, ainsi que bien d’autres analyses essentielles, ne s’obtiennent qu’à partir d’une base de données centralisée alimentée par tous les intervenants risques et assurances.
Troisièmement, la gestion des risques et des assurances fait intervenir des acteurs divers (courtiers, assureurs, experts, direction générale…) qui peuvent avoir besoin d’accéder aux informations les concernant. L’installation d’un logiciel en local, avec les problèmes de compatibilité et de stabilité liés à chaque entreprise, n’apparaît pas comme la solution idéale.
Toutes ces situations correspondent typiquement à la description du Cloud qui permet la mise en production rapide d’applications stratégiques en simplifiant les problématiques d’intégration et de paramétrages. L’informatique répond alors précisément aux besoins du métier et se positionne comme un maillon central de la performance.
Enfin, en termes de sécurité, il est important de préciser que le Cloud Computing n’est pas un frein pour les Risk Managers qui travaillent sur des données stratégiques. Bien au contraire, les technologies actuelles garantissent une disponibilité continue des plateformes et une parfaite intégrité des données échangées. La sécurisation de l’accès aux données et les backups sont du reste souvent mieux assurés par un hébergeur car c’est le cœur de son métier. N’oublions pas enfin que le Cloud n’est pas une approche fermée. Il est toujours possible de revenir à une architecture traditionnelle…je n’ai personnellement encore jamais vu ce cas se produire tant « essayer le Cloud c’est l’adopter ».
la vidéo la plus impressionnante à ce jour sur la supraconductivité : quand un disque supraconducteur entre en « lévitation quantique »… ;
la formation de la Galaxie vous intéresse ? L’université de Zurich a réalisé une simulation d’une galaxie en spirale, comme la Voie Lactée ;
un sable qui ne se mouille pas ? Redécouvrez le sable hydrophobe, déjà popularisé dans une boîte de jeux pour enfants ;
un robot capable de bien jouer au billard et de se mouvoir seul ? Telle est la prouesse réalisée par Thomas Nierhoff de l’université de Munich ;
et enfin, le gadget (inutile ?) de la semaine, deux boîtiers… que nous vous laissons le soin de découvrir.
La « lévitation quantique » :
Pour débuter cette douzième revue du Web, nous vous présentons une vidéo qui fait énormément parler d’elle en ce moment. Un groupe de chercheurs et d’étudiants de l’université de Tel-Aviv (Israël) a développé un disque supraconducteur capable de léviter, tout d’abord au dessus d’un simple aimant permanent, puis sur tout un circuit circulaire composé d’aimants. Dans cette vidéo, c’est plus l’illustration d’un phénomène déjà connu que le phénomène en lui-même qui importe.
Le disque est composé d’un demi-millimètre de verre saphir, un saphir synthétique notamment utilisé comme verre de montre, recouvert d’une couche de céramique (oxyde mixte de baryum de cuivre et d’yttrium, YBa2Cu3O7-x) d’environ un micron. Le disque est ensuite enfermé dans un film plastique de protection. La couche de céramique n’a pas de propriété supraconductrice à température ambiante, mais une fois atteinte la température de -185 degrés Celsius (immersion dans de l’azote liquide), toute sa supraconductivité peut alors librement s’exprimer. Le disque conduit l’électricité sans résistance ni déperdition d’énergie.
Contrairement à l’effet Meissner (exclusion totale de tout flux magnétique à l’intérieur d’un supraconducteur), le champ magnétique pénètre le supraconducteur en raison de sa grande finesse, sous forme de tubes de flux magnétique. À l’intérieur de chaque tube de flux magnétique, la supraconductivité est détruite localement, raison pour laquelle les tubes sont circonscrits au niveau des points faibles du disque. Chaque mouvement du disque fait bouger les tubes, ce que le supraconducteur essaie d’éviter en restant bloqué, piégé en l’air, donnant cette impression de lévitation. Voici la fantastique vidéo, ainsi qu’une illustration de cet emprisonnement quantique :
Simulation d’une galaxie en spirale :
L’université de Zurich s’est essayée à simuler la formation d’une galaxie en spirale, équivalente à la Voie Lactée. Cette simulation est le fruit de près de huit mois de précieux calculs effectués par le superordinateur de Manno, en Suisse. D’après les explications contenues dans la vidéo, les premières petites galaxies seraient nées moins d’un million d’années après le Big Bang, formées de nuages d’hydrogène, d’étoiles et de (l’hypothétique) matière noire. La gravité a regroupé ces galaxies, permettant d’entrevoir les prémices d’une galaxie en spirale. Le processus se poursuit ensuite, mais de manière plus lente, notamment grâce à l’accumulation de gaz et de galaxies naines. Voici donc cette simulation :
Le sable qui ne se mouille pas :
Le sable hydrophobe est un sable traité ayant la particularité de rester sec malgré son immersion dans l’eau, repoussant littéralement les molécules d’eau. Certains d’entre vous connaissent peut-être déjà ce sable très particulier : une boîte de jeu pour enfants, permettant de faire des formes colorées et amusantes, l’utilisait il y a quelques années de cela comme principal élément à modeler. Ce sable s’appelait alors le « sable magique ».
Un sable qui ne se mouille pas… Aussi paradoxal que cela puisse paraître, le comportement du sable en question peut être rapproché, visuellement, d’un grumeau coagulé de farine. Le sable est un composé silicique, pouvant être rendu hydrophobe lorsque l’on greffe à sa surface des molécules organiques de type « organo-silane », R-Si(OCH3). Les groupements methoxy s’hydrolisent lorsqu’ils sont plongés dans l’eau, donnant pour résultat des molécules de type Rsi(O-)3.
Ce sable avait lors de sa mise au point, un objectif bien précis : « nettoyer » le pétrole présent dans l’eau de mer, après une catastrophe ou un dégazage. Le sable se mélange au pétrole, qui coule alors plutôt que de rester en surface. Mais la production de ce sable s’est avérée être si chère qu’il ne fut finalement utilisé que comme un jeu pour enfants. Voici la vidéo :
Le robot joueur de billard :
Le robot humanoïde conçu par Thomas Nierhoff, de l’université technique de Munich, a de quoi impressionner. Il est équipé de deux bras anthropomorphiques, et se déplace grâce à une plateforme mobile. Deux spots et une caméra disposés au dessus de la table à trois mètres de hauteur compètent le dispositif et permettent de déterminer la position des boules sur la table.
Les données visuelles, provenant de la caméra au plafond, fournissent à travers une interface, une estimation de la difficulté de chaque coup, la force nécessaire à la réalisation d’un coup ainsi que la position optimale de la queue de billard. Cerise sur le gâteau, la position du bras robotique est elle-même optimisée. Le taux de réussite du robot est assez élevé (près de 80 %). Il a tendance bien évidemment à baisser lorsque la difficulté du coup augmente.
Application intéressante, les données calculées par le programme pour le robot peuvent être rendues visibles sur la table de billard elle-même, à l’aide d’un projecteur. Un joueur humain peut alors profiter des indications d’angles projetées sur la table. La vidéo se termine sur le robot, empochant cinq boules à la suite :
Le gadget (inutile ?) de la semaine : deux boitiers au sale caractère
Pour conclure cette douzième Revue du Web, voici deux boitiers tout à fait particuliers. Sale caractère non, ces boîtiers ?
La matière, une substance qui compose tout corps ayant une réalité tangible ? Mais que de mondes divers et variés à explorer ! Des atomes aux galaxies, des cellules aux neutrinos, une évidence s’impose : la matière recouvre des formes, des états et des échelles multiples. Venez la découvrir avec « Entrée en matière », un événement grand public et gratuit organisé par le CNRS, avec le concours de ses partenaires, et qui rassemble dans les Jardins du Trocadéro à Paris du 19 au 30 octobre 2011 : une exposition, des animations, des projections de films et des conférences. Une invitation à explorer la matière sous toutes ses formes, parfois inédites, inattendues, de l’infiniment grand à l’infiniment petit. Une belle entrée en matière pour la sonder sous tous ses aspects !
Des événements spéciaux à ne pas manquer :
Les experts des lasers sondent la matière, les 19, 20 et 21 octobre 2011
La journée de la microscopie, jeudi 20 octobre 2011, de 10 heures à 18 heures
La journée spéciale « Chimie », samedi 29 octobre 2011, de 10 heures à 19 heures
La Tour Eiffel en lévitation sur un supraconducteur, tous les samedis et dimanches après-midi, de 13 h 30 à 18 h 30
Le rapport de l’Afssaps établit, notamment, l’état des connaissances relatif aux nanoparticules de dioxyde de titane dans les produits cosmétiques en termes de pénétration cutanée, de génotoxicité et de cancérogenèse.
Le dioxyde de titane (TiO2) figure à l’annexe VII de la directive cosmétique 76/768/CEE du 27 juillet 1976, c’est-à-dire sur la liste des filtres UV que peuvent contenir les produits cosmétiques, avec une restriction d’utilisation à un maximum de 25 %. La forme nanoparticulaire de cette substance permet une amélioration du spectre d’absorption du filtre et une transparence des produits de protection solaire.
Ce rapport est d’abord l’occasion d’insister une nouvelle fois sur l’impasse dans laquelle on se trouve quant à la définition des nanomatériaux. En effet, faute de définition uniforme tant à l’échelle internationale qu’européenne, l’Afssaps a dû mener son étude en se fondant sur la définition des nanomatériaux adoptée par le règlement n° 1223/2009 du Parlement européen et du Conseil du 30 novembre 2009 relatif aux produits cosmétiques, entrant en vigueur en 2013.
« Un nanomatériau est un matériau insoluble ou bio-persistant, fabriqué intentionnellement et se caractérisant par une ou plusieurs dimensions externes, ou une structure interne, sur une échelle de 1 à 100 nm ». Cette définition, susceptible d’évoluer en fonction des connaissances scientifiques, peut paraître incomplète par l’exclusion des nanomatériaux solubles et non bio-persistants.
Alors que la réglementation progresse en terme de traçabilité, que ce soit par l’obligation de déclaration des substances à l’état nanoparticulaire prévue aux articles L. 523-1 et suivants du Code de l’environnement ou par l’obligation d’étiquetage des nanomatériaux sur les produits cosmétiques prévue par l’article 19 du règlement n° 1223/2009 du Parlement européen et du Conseil du 30 novembre 2009, l’existence de définitions spécifiques, variant selon le domaine ou le niveau, international, européen ou national, de la norme, semble se profiler de plus en plus.
L’Afssaps donne ensuite plusieurs recommandations comme celles de ne pas utiliser le TiO2 sur une peau lésée, comme, par exemple, un érythème solaire, et de ne pas utiliser les produits contenant cette substance en « sprays » aérosol ou en poudre sur le visage ou dans des locaux fermés….
En réalité, ces informations apparaissent de manière générale communes à tout produit chimique et ne sont pas spécifiques au TiO2.
Le rapport permet d’insister une nouvelle fois sur l’impasse dans laquelle on se trouve quant aux connaissances scientifiques relatives aux nanomatériaux. Les conclusions sont en effet déjà connues : conscience des difficultés actuelles relatives à l’évaluation des risques liés aux nanomatériaux, insuffisances des données scientifiques, nécessité de réaliser des études complémentaires…. En résumé, le décalage s’accentue entre l’information du public et la définition des nanomatériaux et entre l’information du public et la connaissance scientifique…..