Les ordures pourraient chauffer la moitié de la Grande-Bretagne

Les ordures ménagères, les produits alimentaires jetés ou encore les déchets de bois pourraient être transformés en biogaz.Jusqu’ici, le peu de biogaz utilisé outre-Manche sert à produire de l’électricité, mais il pourrait plus utilement être transformé en biométhane et alimenter la moitié des besoins en gaz du pays, contribuant à l’objectif de 20% d’énergies renouvelables pour 2020 – et en outre résoudre le problème de gestion des déchets et de réduction de décharges. Deux procédés le permettent : la digestion anaérobie ou méthanisation (où des bactéries réalisent une fermentation des déchets humides comme les rejets des égouts et le fumier), et la gaséification, plus adaptée aux déchets secs. Le biométhane est déjà produit et réinjecté dans le réseau gazier dans certains pays européens.D’après National Grid, ce biométhane coûterait le même prix que les autres énergies renouvelables. National Grid, qui a mandaté Ernst and Young pour réaliser cette étude, l’a transmise au ministre de l’Energie, Ed Miliband.La Grande-Bretagne s’intéresse de plus en plus au biogaz : en novembre est né un leader britannique de la digestion anaérobique (le procédé de décomposition des déchets organiques pour produire des biogaz), avec la fusion des sociétés Biogen et Greenfinch, dont le site de production traitera 45.000 tonnes de déchets alimentaires par an et produira suffisamment d’énergie pour 2.000 foyers, avec un investissement de 18 millions de livres.Le biogaz se développe en Europe comme aux Etats-Unis : pour preuve, la toute récente création de l’Association européenne du biogaz (European Biogas Association, EBA), les projets du groupe californien BioEnergy Solutions qui développe un projet à base de fumier réunissant 9 exploitations agricoles, pour produire du méthane qui sera injecté dans le réseau de distribution de la compagnie californienne Pacific Gas & Electric Co. Et en Chine, la Banque Mondiale a décidé d’accorder 120 millions de dollars au programme rural chinois de biogaz (National Rural Biogas Program, ou Ntegy). Par Laurence Benhamou auteur du site GreenUnivers

Chiffres clés : état du parc photovoltaïque français

Voici deux petits éléments qui font une photographie au 31 décembre 2008 de l’état du raccordement des installations photovoltaïques au réseau français.

Premier constat : on s’approche de 69 MW en puissance d’installations raccordées, dont 48 en métropole, et 21 outre-mer et Corse. Le bilan de l’année 2008 montre une nette accélération des raccordements, surtout au deuxième semestre où le parc raccordé a crû de 168% en métropole. Sur la même période, on enregistre une croissance plus faible en outre-mer et Corse (31%). Au niveau de la France, du 31 décembre 2007 au 31 décembre 2008, le parc raccordé a été multiplié par 2,75.

original

Sur une année, la production du parc photovoltaïque raccordé français représente environ 70 GWh d’électricité, soit l’équivalent de la consommation électrique de 31.200 habitants, tous postes de consommation confondus.

original

Sources :

Neomansland

La chaîne de transmission : fil rouge de l’évaluation et de la prévention des risques biologiques

On distingue quatre types de risques pouvant résulter d’une exposition à des agents biologiques :

  • Les risques infectieux : ce sont les mieux connus, en particulier en milieu professionnel. Les infections sont dues à la pénétration, puis à la multiplication d’un agent biologique dans le corps.
  • Les risques immuno-allergiques : ils correspondent le plus souvent à des phénomènes de stimulation excessive des défenses immunitaires se traduisant par un asthme, une rhinite ou une pneumopathie d’hypersensibilité. Ces réactions sont dues à la présence dans l’organisme d’un allergène pouvant provenir d’un agent biologique qui peut être un fragment ou une substance sécrétée par l’agent biologique
  • Les effets toxiniques : il s’agit des effets toxiques dus à la présence dans l’atmosphère de travail de toxines secrétées par les agents biologiques (mycotoxines secrétées par des moisissures) ou composants de la paroi des bactéries Gram Négatif (endotoxines).
  • Les effets cancérogènes : le Centre international de recherche contre le cancer classe cancérogènes certains agents biologiques, certaines mycotoxines, ainsi que certaines infections, quand elles deviennent chroniques.

La réglementation classe les agents biologiques en fonction de leur risque infectieux en 4 groupes de pathogénicité croissante, notés de 1 à 4. Ce classement ne prend pas en compte les autres risques biologiques, mais les agents classés 2 et 3 peuvent être accompagnés d’une note A « effets allergisants possibles » ou T « production de toxine ».

Activités susceptibles d’exposer un individu à un risque

Selon l’enquête SUMER 2003, plus de 15 % des travailleurs se déclarent exposés à des agents biologiques dans le cadre de leur activité, ce qui représente 2,6 millions de travailleurs. De nombreux secteurs d’activité sont concernés : métiers de la santé, en laboratoires de recherche, métiers au contact d’animaux vivants ou morts, métiers du funéraire, du secteur agroalimentaire, du traitement de l’eau ou des déchets…

Pourcentage, par secteur professionnel, des travailleurs qui se déclarent exposés à des agents biologiques dans le cadre de leur activité
Secteur santé-action sociale : milieux de soins, laboratoires d’analyses médicales, services funéraires… 66%
Agriculture : éleveurs, horticulteurs, maraîchers, arboriculteurs, viticulteurs, forestiers… 33%
Industries agricoles et agroalimentaires 31%
Services à la personne 27%
Recherche et développement 24%

Source : données SUMER 2003

Evaluation et prévention

Les travailleurs peuvent être exposés à des agents biologiques dans deux types de situations : lors d’une utilisation délibérée de micro-organismes ou lors d’une exposition potentielle.

  • Dans le cas d’une utilisation délibérée, l’agent biologique fait partie du procédé industriel. Il est à la base de la réalisation finale. Ainsi, l’industrie pharmaceutique et les industries biotechnologiques en général utilisent les capacités de synthèse d’agents biologiques pour l’obtention de princips actifs. On connaît l’identité précise des agents biologiques et les quantités mises en œuvre. L’évaluation des risques et la prévention se rapprochent de celles faites face à un produit chimique.
  • Dans une situation d’exposition potentielle, les agents biologiques ne font pas partie du procédé industriel, mais sont présents du fait de l’activité. Dans ce cas, la démarche d’évaluation des risques est facilitée par l’utilisation de la chaîne de transmission.

Une chaîne de transmission est constituée de cinq maillons :

  1. Le réservoir : c’est la source, le lieu dans lequel s’accumulent et prolifèrent les agents biologiques. Le réservoir peut être vivant (animal, patient…) ou inanimé (seringue, eau…).
  2. Les portes de sortie : pour qu’il y ait risque d’exposition, il faut que les agents biologiques puissent sortir du réservoir ou que le travailleur puisse avoir accès à ce réservoir.
  3. La transmission :en milieu professionnel, elle peut se faire essentiellement par voie aérienne, par contact avec la peau ou les muqueuses, par inoculation (accident, morsure ou piqûre d’insecte) ou par voie digestive.
  4. Les portes d’entrée : elles sont liées aux différents modes de transmission : voies respiratoires pour la transmission aérienne, muqueuses et/ou peau au cours d’un contact, voie sanguine lors d’une piqûre ou d’une blessure, voie digestive en portant les mains ou un objet à la bouche.
  5. L’hôte potentiel : dans le cas des risques biologiques en milieu professionnel, il s’agit du travailleur qui se trouve en bout de chaîne de transmission. Il va être contaminé et pourra développer la maladie si l’exposition est suffisamment importante et s’il n’est pas protégé.

Démarche de prévention des risques : rompre la chaîne de transmission

La prévention des risques consiste à rompre la chaîne de transmission, le plus en amont possible, par des mesures d’organisation du travail, de protection collective et individuelle, d’information et de formation des personnels, y compris les personnels intérimaires et intervenants extérieurs.

Chaque fois que cela est possible, les mesures de protection doivent avant tout porter sur l’origine des risques donc sur le réservoir. Elles sont à envisager selon les situations professionnelles ; par exemple, en santé humaine, il s’agit de dépister et traiter au plus tôt les patients ; en santé animale, les mesures sont parfois plus radicales (abattage d’un troupeau en cas de brucellose…) ; pour d’autres situations professionnelles, ce sera la désinsectisation, la dératisation…

Les actions de prévention peuvent également porter sur la transmission : mesures d’isolement d’un malade, amélioration de la ventilation, limitation des projections, mesures de désinfection…

Quand les mesures de protection collective ne suffisent pas ou ne peuvent pas être mises en place rapidement (remise en cause de l’organisation du travail, nouvelle conception des locaux et/ou des matériels…), il est possible d’avoir recours à des équipements de protection individuelle adaptés au contexte professionnel tels que gants, tabliers ou appareils de protection respiratoire (cf. texte APR dans ce dossier), afin de protéger les portes d’entrée.

Intégrer le concept de « fil rouge » à sa démarche d’évaluation

Le concept de chaîne de transmission est un « fil rouge » que chaque préventeur peut s’approprier comme démarche d’évaluation et de prévention des risques biologiques en entreprise afin de les faire figurer sur le document unique au même titre que les autres risques (physiques, chimiques…).

Quelques exemples de chaînes de transmission

Véronique Caron, Conseiller médical en santé au travail, INRS département Études et Assistance MédicalesPour en savoir plus :

  • Risque biologique en milieu professionnel. INRS, 2007 (www.inrs.fr/dossiers/risquebiologique.html).
  • Les risques biologiques en milieu professionnel, ED 6034 (2008)

Les autres articles du dossier

  • Les vaccinations sont-elles obligatoires dans un contexte professionnel ?
  • Risques respiratoires pour les professionnels de la valorisation des déchets
  • Quelle protection respiratoire contre les risques d’inhalation d’agents biologiques ?
  • Attention à la contamination des fluides de coupe aqueux
  • Glossaire des risques biologiques
Agent Réservoir Porte de sortie Voie de transmission Porte d’entrée Symptômes
Traitement des eaux usées et leptospirose Leptospires Rats Urines Pénétration par la peau et les muqueuses Peau et muqueuses Fièvre, Atteinte du foie, des reins
Pose d’antenne en toiture et ornithose Chlamydia psittaci (une bactérie) Oiseaux Fientes Inhalation de poussières de fientes desséchées Voies respiratoires Fièvre, Atteinte pulmonaire
Tour aéroréfrigérante et légionellose Légionelles Eau du circuit de refroidissement Gouttelettes émises dans la tour ou à l’extérieur (travaux sur toiture) Inhalation d’aérosols de gouttelettes d’eau contaminée Voies respiratoires Fièvre, Atteinte pulmonaire
Pose d’antenne en toiture et ornithose Penicillium Flore de surface et «farine» servant à traiter le saucisson Poussières Inhalation de poussières contaminées (ensemencement, brossage, conditionnement) Voies respiratoires Rhinite, Asthme, Pneumopathie d’hypersensibilité

Les vaccinations sont-elles obligatoires dans un contexte professionnel ?

La vaccination, quand elle existe, ne peut en aucun cas se substituer à la mise en place des mesures de prévention collective, elle vient seulement les compléter. La vaccination n’autorise pas à baisser la garde vis-à-vis des risques professionnels ; être vacciné contre un ou plusieurs agents biologiques ne dispense pas du respect des règles de sécurité mises en place.Il est important de souligner que le Code du travail ne rend obligatoire aucune vaccination. Seul le Code de la santé publique rend obligatoire un certain nombre de vaccinations, sous réserve d’une exposition à des risques de contamination dans le cadre d’activités professionnelles précises relevant pour la plupart du secteur santé et action sociale.Par ailleurs, le Comité technique des vaccinations, qui relève du Haut Conseil de la santé publique, publie chaque année un calendrier des vaccinations pour la population en général, avec des recommandations de vaccinations pour certaines catégories professionnelles, en précisant bien qu’en milieu professionnel, le risque d’exposition est évalué par le médecin du travail.

Le médecin du travail doit jouer un rôle d’alerte et de conseil
Après évaluation des risques poste par poste au sein d’une entreprise, le médecin du travail pourra conseiller à l’employeur la pratique d’une vaccination pour les travailleurs non immunisés, contre un ou plusieurs agents biologiques présents sur les lieux de travail. L’employeur, informé des avantages, limites et éventuels inconvénients de la vaccination conseillée, peut alors décider de recommander cette vaccination à ses salariés (Art. R.4426-6), auquel cas tous les frais inhérents à cette vaccination seront à sa charge : vaccin, déplacement au cabinet médical, temps de déplacement et consultation médicale.Aucune vaccination ne peut être pratiquée sans l’accord explicite du travailleur. Après information par le médecin du travail sur les risques encourus au poste de travail, sur les avantages et les limites de la vaccination et sur ses éventuels inconvénients, le salarié conserve le libre choix d’être ou ne pas être vacciné, ainsi que le choix du médecin vaccinateur (médecin traitant, médecin du travail…). Le médecin du travail peut en effet pratiquer lui-même les vaccinations qu’il a conseillées et qui ont été acceptées par l’employeur, après avoir obtenu l’accord de principe de ce dernier, et sous réserve de disposer du temps et des moyens nécessaires à l’accomplissement de cette mission.Marie-Cécile Bayeux-Dunglas, Conseiller médical en santé au travail, INRS Département Etudes et Assistance Médicales 

Les autres articles du dossier
  • La chaîne de transmission : « fil rouge » de l’évaluation et de la prévention des risques biologiques
  • Risques respiratoires pour les professionnels de la valorisation des déchets
  • Quelle protection respiratoire contre les risques d’inhalation d’agents biologiques ?
  • Attention à la contamination des fluides de coupe aqueux
  • Glossaire des risques biologiques

Risques respiratoires pour les professionnels de la valorisation des déchets ménagers

La valorisation des déchets s’opérant en centre de tri ou de compostage, il est nécessaire de distinguer les risques spécifiques à chacun de ces lieux.

Dans un centre de tri des déchets

Les activités d’un centre de tri génèrent l’émission de bioaérosols en grandes quantités. Ces fines poussières en suspension dans l’air sont chargées de micro-organismes, en particulier des moisissures appartenant pour la plupart aux genres Aspergillus et Penicillium, des bactéries Gram-négatif et des actinomycètes. Le niveau de concentration en micro-organismes dans l’air varie suivant la filière et les rythmes de collecte (degré de maturation des déchets). Il varie également avec le lieu géographique et la saison puisque température et humidité influencent largement la croissance des bactéries et moisissures présentes dès la mise au rebut.L’exposition aiguë ou chronique à ces bioaérosols peut être à l’origine de pathologies respiratoires diverses : syndrome toxique des poussières organiques, rhinite, asthme, pneumopathie d’hypersensibilité et ses complications. Les symptômes de rhinite et asthme peuvent varier en fonction de l’activité professionnelle avec disparition ou amélioration durant les jours de repos. Les effets des constituants de paroi tels les endotoxines des bactéries Gram-négatif ou les bêta glucanes des moisissures viennent s’ajouter à ceux d’autres nuisances également présentes : particules des moteurs diesels, gaz d’échappement, poussières minérales…Les risques biologiques liés au traitement des déchets vont donc bien au-delà du risque d’infection d’une blessure mal prise en charge et du risque de contamination virale après piqûre par aiguille retrouvée sur le tapis de tri (toxicomanie, traitement auto-administré…).

Sur une plate-forme de compostage

En 2007, environ 700 plates-formes ont été recensées. La fermentation aérobie due à la flore microbienne présente dans les déchets génère des risques chimiques : composés organiques volatils (COV), gaz divers et poussières, mais aussi des risques biologiques avec là-aussi des niveaux élevés d’exposition aux agents biologiques (actinomycètes, Aspergillus…) et leurs produits (endotoxines…). Les médecins relèvent un excès de symptômes d’inflammation et d’irritation des voies aériennes, des yeux ou de la peau.

Comment prévenir et limiter ces risques biologiques ?

Pour des raisons techniques, la quantification de l’exposition n’est pas une pratique courante quel que soit le secteur d’activité. Mais il faut savoir que dans l’atmosphère des cabines de tri, les concentrations en bactéries cultivables (de 10.000 à 1.000.000 UFC/m³) sont généralement 10 à 100 fois plus élevées que le niveau moyen relevé à l’extérieur (1.000 UFC/m³). Certes, il n’existe pas de valeur limite réglementaire pour l’exposition aux micro-organismes mais des valeurs guides sont proposées dans la littérature : 10.000 UFC/m³ pour les bactéries totales, 1.000 UFC/m³ pour les seules bactéries Gram-négatif et 200 UE/m³ pour les endotoxines.Qu’il s’agisse d’un centre de tri ou de compostage, la prévention est avant tout collective :

  • conception et aménagement des locaux, des engins et machines, des conteneurs… ;
  • ventilation des milieux de travail ;

et organisationnelle :

  • réduction de la charge physique pour limiter la fréquence respiratoire, limitation du nombre de personnes exposées ;

En complément, la prévention des risques biologiques qu’ils soient de type infectieux, toxiniques ou immunoallergiques associe des mesures d’hygiène impliquant à la fois l’employeur (mise à disposition et entretien des équipements et installations nécessaires, information et formation des travailleurs) et chaque travailleur (port d’une tenue de travail, lavage des mains, douche en fin de poste…).Aucune vaccination obligatoire n’est prévue pour ces salariés (cf. article Les vaccinations sont-elles obligatoires dans un contexte professionnel ?), cependant la vaccination antitétanique est indispensable. Suite à une évaluation spécifique à chaque site, d’autres vaccins peuvent être recommandés par le médecin du travail.

Intervenir en cas d’accident

Tout événement inhabituel (accident, syndrome toxique des poussières organiques…) survenant pendant et sur le lieu du travail doit être déclaré en accident du travail par l’employeur. Une conduite à tenir doit être affichée afin que toute blessure avec une aiguille puisse bénéficier très rapidement de la mise en place d’un suivi sérologique spécifique.Travailler dans le secteur des déchets peut ouvrir droit à la prise en charge au titre des maladies professionnelles d’un certain nombre de maladies, telles la leptospirose (tableau de maladie professionnelle n° 19), les hépatites virales (T n° 45), certains asthmes ou rhinites (T n° 66), les pneumopathies d’hypersensibilité (T n° 66 bis), si les conditions inscrites au tableau sont remplies.Le traitement des déchets est un secteur professionnel très accidentogène et la gestion des risques biologiques n’est pas perçue comme prioritaire malgré les conséquences possibles sur la fonction respiratoire. Une prévention intégrée dès la conception des installations et un respect strict des règles d’hygiène permettent de réduire ces risques.Colette Le Bâcle, Conseiller médical en santé au travail, INRS département Etudes et Assistance Médicales

Pour en savoir plus

 

  • Déchets et risques professionnels. Edition INRS (2008) (cf. http://www.inrs.fr/dossiers/dechets.html)
  • Guide électronique des tableaux des maladies professionnelles. INRS, 2007 (http://www.inrs.fr/mp)
  • Fiche Endotoxines dans la base Metropol sur http://www.inrs.fr/metropol
Les autres articles du dossier

 

  • La chaîne de transmission : « fil rouge » de l’évaluation et de la prévention des risques biologiques
  • Les vaccinations sont-elles obligatoires dans un contexte professionnel ?
  • Quelle protection respiratoire contre les risques d’inhalation d’agents biologiques ?
  • Attention à la contamination des fluides de coupe aqueux
  • Glossaire des risques biologiques

Quelle protection respiratoire contre les risques d’inhalation d’agents biologiques ?

L’utilisation en situation de travail d’un appareil de protection respiratoire (ou plus simplement APR) ne devrait être limitée qu’à des opérations courtes et exceptionnelles (entretien ou nettoyage d’installations…) ou des interventions pour lesquelles il n’est pas possible de mettre en place un dispositif de captage ou d’assainissement de l’air suffisant (interventions dans des espaces confinés…). Dans le cas d’une exposition potentielle à des agents biologiques en milieu de travail, les APR adaptés sont ceux de la famille des appareils filtrants contre les particules, et sont constitués d’un demi-masque, d’un masque, d’une cagoule ou d’un casque et d’un filtre à particules.

Les filtres à particules (ou antiaérosols) retiennent les particules quelle que soit leur origine (chimique ou biologique). Il existe trois classes de filtres à particules, notées par ordre d’efficacité croissante P1, P2, P3 (ou notées FFP1, FP2, FFP3 dans le cas des masques jetables).

Pour des interventions longues, les appareils filtrants à ventilation assistée (dans lesquels l’air ambiant est aspiré au travers du filtre au moyen d’une pompe) sont préférables car ils apportent davantage de confort à l’utilisateur.

S’il existe un risque d’exposition simultanée à des gaz ou vapeurs dangereux, un filtre combiné antiparticules-antigaz devra être utilisé. Les appareils filtrants ne doivent jamais être utilisés dans une ambiance pauvre en oxygène. Dans ce cas, il convient de recourir à des appareils isolants.

Bien choisir un APR, quelques règles simples

Les APR sont à l’origine de gêne ou d’inconfort lorsqu’ils doivent être portés pendant de longues périodes : poids, chaleur, gêne visuelle… Afin de faciliter le port et l’acceptation de l’APR, et d’améliorer ainsi son efficacité réelle, après avoir choisi un APR adapté à la nature du risque, il est important de ne pas négliger les points suivants :

  1. tenir compte des caractéristiques du salarié (morphologie notamment) et des tâches à réaliser (pénibilité, durée…) ;
  2. adapter le poste de travail au port de l’APR par le salarié ;
  3. adapter les rythmes de travail pour prendre en compte les contraintes générées par le port d’APR ;
  4. former les utilisateurs au port de l’APR et à son ajustement correct.

Attention, sauf exception, les masques médicaux ou masques chirurgicaux ne sont pas des APR. Portés par les personnels de santé, ils sont destinés à la protection des patients. Portés par les malades, ils sont destinés à éviter les projections de gouttelettes contaminées vers leur entourage et leur environnement. En aucun cas, ils ne protègent celui qui le porte contre un risque par inhalation d’aérosols.

Un APR peut être identifié comme tel grâce au marquage réglementaire qui doit comporter les indications suivantes :

  • identification du fabricant ;
  • marquage CE , suivi du numéro de l’organisme habilité assurant le contrôle de la production ;
  • numéro et année de la norme correspondant au type d’APR (EN 149 : 2001 dans le cas des masques filtrants jetables contre les particules) ;
  • classe d’efficacité (P1, P2 ou P3 pour les filtres antiparticules, FFP1, FFP2, FFP3 pour les masques filtrants jetables contre les particules).

Isabelle Balty, INRS département Expertise et Conseil Technique, Pôle risques biologiques

 Pour en savoir plus :

  • ED 98 – Les appareils de protection respiratoire. Fiche pratique de sécurité, Guimon M. Edition INRS, Paris (2002), 4 pages.
  • Masque jetable. Comment bien l’ajuster ?
  • ED 105 – Appareils de protection respiratoire et métiers de la santé. Fiche pratique de sécurité,  Balty I., Edition INRS, Paris (2003), 4 pages.

Les autres articles du dossier

  • La chaîne de transmission : « fil rouge » de l’évaluation et de la prévention des risques biologiques
  • Les vaccinations sont-elles obligatoires dans un contexte professionnel ?
  • Risques respiratoires pour les professionnels de la valorisation des déchets
  • Attention à la contamination des fluides de coupe aqueux
  • Glossaire des risques biologiques

Attention à la contamination des fluides de coupe aqueux

Les fluides de coupe (FDC) aqueux sont des liquides, à base d’huile et d’eau, appliqués par arrosage pour refroidir et lubrifier la partie active des outils de machines usinant les métaux, ainsi que faciliter l’évacuation des matériaux enlevés.

Quel type de contamination ?
La flore des FDC est très variée et peut atteindre des concentrations très élevées (de l’ordre de 10.000.000.000 UFC/mL). Des champignons microscopiques peuvent se développer dans les FDC, avec principalement des moisissures du genre Fusarium, mais aussi des levures du genre Candida. Cependant, d’après le NIOSH (National Institute for Occupational Safety and Health, USA), il n’a été relevé à ce jour aucune maladie liée à la présence des moisissures dans les FDC. Les bactéries sont les principaux contaminants des FDC. La plupart des études révèlent une colonisation initiale des FDC par des bactéries du genre Pseudomonas. Ces bacilles peuvent dégrader les biocides et ouvrir ainsi la voie à la colonisation du fluide par d’autres micro-organismes. Selon une étude de l’IRSST (Institut de Recherche Robert-Sauvé en Santé et en Sécurité du Travail, Canada), aucune pathologie liée aux Pseudomonas n’a été notée chez les utilisateurs de FDC aqueux. Certains genres de salmonelles, staphylocoques et légionelles sont également isolés des FDC, mais la plupart sont non pathogènes ou opportunistes (pathogènes pour les personnes aux défenses immunitaires affaiblies). Plusieurs études indiquent que les pathologies liées aux contaminants microbiens des fluides sont principalement respiratoires, de type pneumopathie d’hypersensibilité. Cette pathologie semblerait essentiellement liée à l’exposition des travailleurs aux aérosols contenant des mycobactéries et des endotoxines, générés par les machines.

Les mesures préventives
Les mesures de prévention des risques d’exposition aux bioaérosols consistent à appliquer les principes généraux tels que :1) éviter les risques, en adoptant, si possible, l’usinage à sec ;2) combattre les risques à la source, en agissant sur le réservoir de micro-organismes que constitue le FDC :
  • adopter, si possible, la microlubrification (technique d’usinage utilisant une quantité minimale de lubrifiant) ;
  • nettoyer et désinfecter les circuits et les machines avant l’introduction d’un nouveau FDC ;
  • préparer les mélanges dans des récipients propres ;
  • utiliser les FDC à la concentration indiquée par le fabricant (qui a optimisé la formule pour résister aux micro-organismes) ;
  • compléter les FDC avec une eau déminéralisée limitant ainsi le développement bactérien et la corrosion ;
  • éliminer les débris métalliques et l’huile étrangère pouvant servir de nourriture aux micro-organismes ;
  • ajouter des biocides aux concentrations indiquées par le fabricant et en changeant régulièrement de principe actif pour éviter l’apparition de germes résistants.
3) prendre des mesures de protection collective en leur donnant la priorité sur les mesures de protection individuelle :
  • limiter les émissions notamment par captage à la source ;
  • capoter les machines lorsque les caractéristiques de ces machines le permettent. Des mesures montrent que la concentration d’endotoxines dans l’air est plus faible près des machines capotées (16 UE/m³) que dans l’environnement des machines ouvertes (160 UE/m³) ;
  • réduire les débits d’arrosage souvent trop importants ;
  • suivre la teneur en micro-organismes dans les FDC en :
  1. observant le fluide : les FDC aqueux neufs ne dégagent pas d’odeurs désagréables et présentent un aspect clair (fluides synthétiques) à laiteux (émulsions) ;
  2. surveillant le pH : une diminution du pH peut être révélatrice, entre autres, d’un développement de micro-organismes ;
  3. quantifiant les micro-organismes par l’usage de kits rapides ou par des techniques de laboratoire.
Il n’existe, en France et à l’étranger, aucune valeur limite d’exposition professionnelle réglementaire des opérateurs aux bactéries ou aux champignons. Le CETIM (Centre technique des industries mécaniques) propose une concentration bactérienne maximale dans les FDC de 1.000.000 à 10.000.000 UFC/mL. Toutefois cette valeur concerne le nombre de micro-organismes tolérables avant une trop grande dégradation du fluide mais ne concerne pas les risques pour les opérateurs.Etant donné la variété des micro-organismes dans les FDC, il est impossible de les identifier à tout moment. L’identification s’envisage essentiellement en cas de problème de santé chez les salariés. De même, la métrologie des bioaérosols ne s’envisage que de façon exceptionnelle, en utilisant toujours les mêmes procédures et les mêmes appareils.4) Pour limiter les risques de transmission des germes par ingestion (en portant les mains ou des objets souillés à la bouche) ou par contact avec les muqueuses et la peau, des mesures très simples de prévention individuelle doivent être suivies :
  • se laver les mains avant de manger, boire ou fumer ;
  • porter des protections cutanées (vêtements de travail couvrant les bras, gants).
La prévention des risques biologiques passe par des mesures de conception et d’organisation du poste de travail, aussi bien que par la maîtrise de la flore contaminant les fluides. Le contrôle de cette flore (quantité et variété), peut se faire par l’usage raisonné de biocides, tout en comptant sur l’autorégulation naturelle des micro-organismes présents dans le fluide de coupe.Christine David, INRS département Expertise et Conseil Technique, Pôle risques biologiques Notes[1] UFC : unité formant colonie[2] UE : unité d’endotoxines
Pour en savoir plus :
  • ND 2290, Contamination des fluides de coupe aqueux et prévention des risques biologiques, DAVID C., HST (2008), n°211, pp. 31-43.
 

Les autres articles du dossier
  • La chaîne de transmission : « fil rouge » de l’évaluation et de la prévention des risques biologiques
  • Les vaccinations sont-elles obligatoires dans un contexte professionnel ?
  • Risques respiratoires pour les professionnels de la valorisation des déchets
  • Quelle protection respiratoire contre les risques d’inhalation d’agents biologiques ?
  • Glossaire des risques biologiques

Glossaire des risques biologiques

ActinomycètesBactéries du sol formant des filaments ramifiés et jouant un rôle important dans la formation de l’humus.AllergieRéaction d’hypersensibilité d’un organisme exposé à un élément étranger (poils, pollens…), un produit chimique ou un agent biologique (en particulier des moisissures). L’allergie se traduit par des manifestations diverses (conjonctivite, rhinite, sinusite, asthme…).EndotoxinesConstituants chimiques de la paroi des bactéries Gram-négatif. Les endotoxines sont libérées lors de la mort de ces bactéries et lors de leur multiplication. Leur mécanisme d’action chez l’homme est complexe : elles agissent sur le système immunitaire et les mécanismes de l’inflammation.Gram + et Gram –Une coloration inventée par Monsieur Gram en 1884 permet de différencier les bactéries : certaines apparaissent en violet (elles sont dites Gram-positif), d’autres en rose (Gram-négatif).MycotoxineSubstance toxique secrétée par certaines moisissures. Certaines, comme les aflatoxines, sont classées cancérogènes par le Centre international de recherche sur le cancer. D’autres ont des effets sur la régulation hormonale et/ou les défenses immunitaires.PathogèneQui peut provoquer une maladie.Pneumopathie d’hypersensibilité ou alvéolite allergique extrinsèqueInflammation des alvéoles pulmonaires avec difficultés respiratoires due à une réaction d’hypersensibilité (voir allergie).Syndrome toxique des poussières organiques ou ODTSRéaction pulmonaire inflammatoire avec fièvre passagère accompagnée de courbatures ressemblant à un début d’état grippal et faisant suite à une exposition à des poussières organiques.UEunité d’endotoxines.UFCUnité formant colonie. Une UFC (unité de compte internationale) correspond à une ou plusieurs cellules microbiennes capable(s) de se multiplier pour donner naissance à une seule colonie visible à l’œil nu. 
Les autres articles du dossier
  • La chaîne de transmission : « fil rouge » de l’évaluation et de la prévention des risques biologiques
  • Les vaccinations sont-elles obligatoires dans un contexte professionnel ?
  • Risques respiratoires pour les professionnels de la valorisation des déchets
  • Quelle protection respiratoire contre les risques d’inhalation d’agents biologiques ?
  • Attention à la contamination des fluides de coupe aqueux

L’intégration des énergies renouvelables : le débat est aussi économique

La recherche d’une plus grande indépendance énergétique et une politique climatique volontariste ont conduit l’Europe à définir des objectifs ambitieux pour la production d’énergie renouvelable (Directive 2001/77 pour la promotion de l’électricité d’origine renouvelable et « Paquet Energie-Climat »). La part des sources renouvelables dans la production d’électricité devrait ainsi passer de 14 % en 1997 à 21% en 2010, puis approcher 35 % en 2020. Différentes sources pourraient contribuer à la réalisation de ces objectifs, dont la biomasse, l’éolien, la micro-hydraulique et, dans une moindre mesure, le solaire photovoltaïque, sources qui sont par nature décentralisées et/ou intermittentes. Ce développement massif, qui intervient dans un contexte de libéralisation des industries énergétiques, nécessite de ce fait une réflexion coordonnée de la part des ingénieurs et des économistes sur les conditions d’insertion de la production distribuée dans le système électrique.

D’une problématique d’ingénieur à l’analyse économique
Fondamentalement, l’insertion massive des énergies renouvelables (EnR) pose des problèmes d’ordre technique qui concernent en premier lieu les gestionnaires de réseaux. La première question, que posent l’éolien aujourd’hui et le photovoltaïque demain, est celle de la localisation. Elle conduit à un afflux de puissance sur des réseaux qui n’étaient pas organisés et dimensionnés pour la recevoir, faisant émerger des besoins de renforcement ou de transformation de ces réseaux. La seconde question relève de la gestion des moyens de production intermittents dans le système électrique. Pour des taux de pénétration relativement faibles, inférieurs à 10 %, l’impact de la production intermittente reste limité et peut être pris en charge par le système électrique. En revanche lorsque leur proportion augmente, des moyens de production complémentaires doivent être mobilisés pour compenser d’éventuels déséquilibres ou défauts de capacité. La communauté des ingénieurs est depuis de nombreuses années mobilisée sur ces problématiques de l’insertion des énergies décentralisées et intermittentes (cf par exemple les travaux effectués par le G2ELab ou IDEA). L’apparition des économistes dans ce champ de recherche est plus récente. Tant que la contribution de ces énergies était modeste, la question des coûts est restée secondaire. Avec la fixation d’objectifs de production de plus en plus ambitieux, et les perspectives d’augmentation des coûts des politiques de soutien, de renforcement des réseaux ou d’équilibrage, la vision économique a pris de l’importance. Et ce, d’autant plus qu’elle intervient dans un contexte de libéralisation des marchés de l’électricité qui incite à distinguer les coûts pour mieux les affecter à chaque acteur en fonction des charges qu’il impose à l’ensemble du système.

Comment compenser le manque de compétitivité des EnR ?
Dans un premier temps, les économistes se sont intéressés à la question de l’efficacité des dispositifs économiques de soutien destinés à pallier au manque de compétitivité de l’électricité d’origine renouvelable. Deux grandes familles d’instruments sont classiquement mobilisées pour stimuler ce développement : les instruments « prix » et les instruments « quantités ». Les premiers associant obligation d’achat et prix garantis (utilisés notamment en Allemagne ou en France) sont généralement considérés comme étant les plus efficaces. Les seconds s’appuient sur des objectifs quantitatifs (les quotas) et des mécanismes de flexibilité (les certificats verts ou garanties d’origine). Ils retiennent de plus en plus l’attention parce qu’ils présentent en théorie une meilleure efficience économique et parce qu’ils favorisent l’intégration dans le marché électrique. Cette problématique de l’intégration a ainsi conduit à développer des dispositifs mixtes qui préservent l’efficacité des prix garantis tout en incitant les producteurs à mieux s’intégrer au marché de l’électricité. C’est le cas notamment du système espagnol de « premium » qui pousse les producteurs d’EnR à vendre leur électricité sur le marché aux conditions économiques du marché tout en leur allouant une rémunération complémentaire correspondant au caractère « vert » de leur production.

Quel partage des coûts ?
Outre l’efficacité des instruments d’incitation, les économistes examinent la question du partage des coûts d’insertion de la production distribuée sur les réseaux électriques. Concrètement, il s’agit de savoir s’il faut que l’ensemble des utilisateurs du réseau prenne en charge collectivement les coûts associés à cette insertion, avec l’avantage de favoriser son développement, ou bien s’il faut imputer aux producteurs distribués une partie significative des charges qu’ils génèrent pour mieux les inciter à s’implanter dans certaines zones par un signal tarifaire adapté.

Comment gérer l’équilibre offre / demande ?
L’équilibre offre/demande instantané est lui aussi rendu plus complexe avec le développement de moyens de production intermittents. L’amélioration des modèles de prévision météorologique est une des options techniques qui permet de réduire les écarts entre prévisions et productions réelles. Mais d’autres options, non techniques sont explorées telles que la modification des modalités de fonctionnement des marchés. Il s’agit notamment d’autoriser des délais plus courts entre les annonces et les injections effectives (pour améliorer la fiabilité des prévisions) ou d’accroître la tolérance sur les déséquilibres qui donnent lieu à des pénalités économiques. La gestion collective des déséquilibres constitue également une option. Les opérateurs ne paient alors que pour les déséquilibres résiduels, à charge pour le gestionnaire du réseau de transport de répartir le montant des pénalités entre tous les opérateurs dont les positions ont connu des écarts significatifs. Les solutions pour une meilleure intégration de la production intermittente et distribuée ne se trouvent pas uniquement dans les modalités de fonctionnement des marchés. Les producteurs d’EnR négocient aussi de nouveaux types de contrats avec des producteurs d’énergies conventionnelles ou hydrauliques pour pallier les périodes de sous-production. Certains ont mis en application le concept de « centrale virtuelle » qui consiste à agréger des offres ayant des profils de charge différents. La mutualisation des moyens de production s’applique alors à une même source (parcs éoliens bénéficiant de ressources distinctes), ou à plusieurs sources d’énergie ayant des profils complémentaires (solaire et éolien, par exemple ou éolien et moyens de production thermiques) avec l’objectif de lisser la courbe de charge et limiter le risque de non fourniture.

Quel impact sur le prix de l’électricité ?
Enfin, les économistes s’intéressent bien entendu à la question de l’impact que ces coûts d’intégration (instruments d’incitation, renforcement réseau, gestion des déséquilibres …) peuvent avoir sur le prix de l’électricité. Compte tenu de son coût marginal quasi nul, la production d’EnR est parmi les premières appelées au merit order pour la satisfaction des besoins de consommation. En se substituant à des unités de production plus coûteuses, elle devrait donc agir à la baisse sur les prix. En pratique, l’intégration des EnR produit un impact plus nuancé qui tient :
  • à la modulation de la répercussion du coût des politiques de soutien aux prix de vente ;
  • aux besoins de capacités de réserves supplémentaires et au recours plus important au marché d’équilibrage induit par le manque de prévisibilité de la production.
Si à l’origine la problématique de l’intégration des EnR était clairement positionnée sur des thématiques d’ingénieur, on voit qu’il n’est aujourd’hui plus possible de traiter cette question dans une perspective strictement disciplinaire. Pour répondre au défi que représente la forte augmentation attendue de la contribution des sources d’énergie intermittentes et distribuées, d’autres disciplines doivent être mises à contribution parmi lesquelles l’analyse économique ainsi que nous avons essayé de l’illustrer, mais certainement aussi la sociologie ou la science politique dans la perspective d’une intégration plus harmonieuse de ces nouvelles sources d’énergie. G2ELab : Laboratoire de Génie Electrique de GrenobleIDEA : « Inventer la Distribution Electrique de l’Avenir », groupement d’intérêt économique entre EDF, Schneider Electric et l’INP de GrenobleLEPII : Laboratoire d’Economie de la Production et de l’Intégration InternationalePhilippe Menanteau, LEPII, CNRS, université de Grenoble et Cédric Clastres, G2ELab, Grenoble INP, LEPII.

Concevoir et déployer une démarche « signaux faibles » : l’exemple d’un site nucléaire

Les auteurs de l’article ci-dessous ont reçu le prix ‘’Lambda Mu d’or Méthode et Industrie’’ pour la meilleure ‘’communication conférence’’ lors du seizième congrès de maîtrise des risques et de sûreté de fonctionnement qui s’est tenu au Palais des Papes d’Avignon en octobre 2008. Le lecteur pourra retrouver l’intégralité de la communication dans le recueil des actes du congrès publié par l’IMdR ainsi que dans le CD-ROM du congrès qui contiennent chacun d’autres articles relatifs à la même thématique.Commandité par la Direction du site et piloté par le responsable du Retour d’Expérience (REX) et l’antenne Facteur Humain (FH) de la Mission Sûreté Qualité (MSQ), ce projet a été conduit de manière participative en étant soutenu par un réseau de correspondants FH dans les services et les équipes de travail. Trois jalons ont rythmé la conduite de ce projet. Dans un premier temps, à partir d’un diagnostic de l’existant sur le site et de l’enseignement des accidents industriels dont nous avons connaissance, il s’agissait de construire collectivement et de partager sur le site le sens de la démarche « Signaux Faibles ». Un accord sur la définition des signaux faibles a ainsi été trouvé. Par « Signaux Faibles », nous entendons « un ensemble d’éléments, de faits, d’anomalies, de dysfonctionnements, de petits écarts, qui individuellement n’ont pas forcément d’impact sur les performances (sûreté, sécurité…), mais dont les récurrences, les accumulations, les agencements, peuvent conduire à des évènements plus graves ». Ensuite, de manière itérative avec les utilisateurs, nous avons conçu un outil répondant à la finalité identifiée (voir figure 1).

 La finalité  Comment ?
  • Identifier les problématiques « signaux faibles » à partir d’un ensemble de faits
  • Collecter des faits
  • Caractériser des situations de travail
  • Classer – traiter statistiquement
  • Analyser (objectiver, croiser) et partager collectivement
  • Hiérarchiser, décider d’actions
  • Mémoriser
Figure 1 : Fonctions de l’outil pour répondre à la démarche Signaux FaiblesPuis est venue l’étape des premières utilisations comme test du dispositif « Signaux Faibles ». Nous avons toujours considéré comme indissociable le système de détection et de collecte du système d’analyse et de traitement des données. Les premières utilisations du dispositif mis en place ont donc associé la phase de détection et la phase d’analyse des dysfonctionnements mémorisés.

Les facteurs de réussite du projet « Signaux Faibles »
Le dispositif mis en place lie à la fois des aspects technique (utilisation d’un outil), organisationnel (l’organisation définie pour mettre en œuvre la démarche « Signaux Faibles ») et managérial (l’animation du dispositif). La réussite du déploiement de ce dispositif repose selon nous sur quatre points principaux :
  • la nature de la collecte des données (caractérisation FH),
  • la possibilité qu’offre le dispositif mis en place de réaliser des analyses globales,
  • l’accompagnement du déploiement de la démarche dans les services et équipes,
  • l’apport de la démarche au management de la sûreté.
Une grille qui a été suivie point à point dans le cas du centre nucléaire de production d’électricité du Triscastin. En voici les principales étapes et enseignements.

La caractérisation factuelle de la situation de travail
Lors de la phase de diagnostic initial, les décideurs ont exprimé le besoin de disposer grâce à la démarche « Signaux Faibles » d’une compréhension affinée des dysfonctionnements. Pour répondre à cette attente, nous avons développé une caractérisation FH et organisationnelle ancrée sur les situations de travail. L’analyse globale de ces données a enrichi la compréhension que le site avait des dysfonctionnements.Par caractérisation FH, nous entendons la mémorisation d’éléments qui rendent compte de la situation de travail vécue par les personnes engagées dans l’histoire du dysfonctionnement. Une situation de travail se caractérise par l’existence d’un lien entre un système technique, physique et documentaire, une organisation du travail et des hommes évoluant dans des équipes de travail. Ainsi, pour un dysfonctionnement donné, la caractérisation FH consiste à recueillir à la fois des informations techniques, organisationnelles et relatives aux hommes et équipes : système technique concerné, environnement de travail au moment où le dysfonctionnement s’est produit (facteurs physiques, contexte d’activité, gestion du temps, gestion de l’équipe…) et des informations relatives aux acteurs (métier, fonction, expérience dans le poste). Ce sont ces données ainsi caractérisées qui vont alimenter l’analyse globale.D’autre part, l’approche proposée permet de faire remonter des problèmes indépendamment d’un questionnement relatif au respect ou non d’un référentiel de production. Pour une démarche de retour d’expérience, c’est assez nouveau. Parce qu’il est professionnel, l’intervenant choisit de faire remonter des données relatives à ce que lui trouve être un dysfonctionnement dans la situation d’intervention qu’il vit. Pour illustrer ce point, prenons l’exemple d’un lignage.Un agent de terrain choisit de mémoriser un problème pour d’autres raisons que la non atteinte d’un seuil physique lors de la réalisation de l’activité. Bien que le résultat du lignage soit conforme à l’attendu, l’agent de terrain va faire un retour d’expérience car il a été confronté à plusieurs désordres organisationnels : une succession d’interruptions et de reprises de l’activité, des consignes contradictoires provenant de donneurs d’ordre différents, un accès au matériel difficile… La démarche mise en place a l’avantage d’élargir le spectre du recueil d’informations ; ce qui est un atout pour accroître la vigilance organisationnelle au sein d’une industrie à risque.

Un dispositif permettant la réalisation d’analyses globales
De fait, la démarche « Signaux Faibles » vient enrichir l’analyse de bon nombre de dysfonctionnements grâce à l’introduction de données FH. Mais en même temps qu’elle augmente le nombre de dysfonctionnements mis en mémoire, elle permet également d’élargir le périmètre des analyses globales produites. Car grâce à la caractérisation FH, commune et ciblée (menus déroulants guidant le choix des items), la réalisation d’analyses globales est possible. En effet, supportée par un outil de comptage de données, la recherche de récurrences et de tendances que permet l’analyse globale n’est envisageable qu’à partir du moment où l’on dispose d’un nombre suffisant de données homogènes. Or c’est précisément ce que permet le dispositif mis en place.

L’accompagnement du déploiement de la démarche dans les services et équipes
L’accompagnement du déploiement de la démarche « Signaux Faibles » dans les services et équipes est un facteur de succès. Dans les services et équipes de conduite, les correspondants du réseau FH sont devenus des relais du déploiement de la démarche. Leur rôle a été multiple : accompagnement de la collecte auprès des techniciens et des managers, participation à la phase d’analyse des données… Ajoutons que le partage entre le relais FH du service ou de l’équipe et l’intervenant au sujet des situations de travail est précieux en terme de retour d’expérience et de culture de sûreté.

Les apports de la démarche « Signaux Faibles » au management de la sûreté
L’intégration de la démarche « Signaux Faibles » dans le système de management de la sûreté est sans conteste un élément positif. Les diagnostics qui sont réalisés pour une activité opérationnelle à enjeu de sûreté ou un domaine donné (Sûreté …) intègrent plusieurs sources de retour d’expérience (analyses d’évènements, analyses Signaux Faibles, résultats d’audits, indicateurs …). En produisant une vision globale, organisée et cohérente du REX, cette intégration permet d’améliorer la pertinence des diagnostics et de construire ainsi une compréhension affinée des problématiques à travailler. De plus, en tant qu’éléments de diagnostic des activités pilotées, les analyses « Signaux Faibles » orientent le manager responsable de l’activité / domaine quant au traitement des problématiques mises en lumière.Figure 2 : Principe d’élaboration collective du diagnostic du domaine SûretéD’autre part, l’intérêt que le management des services et du site a porté au mode de fonctionnement collectif mis en place pour animer la démarche « Signaux Faibles » est un atout. Dans le cadre du management de la sûreté, nous avons défini un lieu de pilotage intermédiaire entre les métiers et la direction (comité sûreté transverse). Cette instance permet un croisement entre les différentes analyses produites par les appuis fonctionnels du site (appuis sûreté, consultants FH…) et les points de vue des managers et appuis opérationnels de service. Cet espace-temps d’échange, de partage et de confrontation de points de vue, est le socle de l’élaboration collective du diagnostic périodique du domaine sûreté. Hors temps réel, cette instance permet une délibération sur les questions de sûreté à l’issue de laquelle les responsables statuent sur les problématiques à travailler. Ce dispositif d’échange permet à chacun de prendre du recul et il alimente la culture de sûreté. Enfin, il a l’avantage de bâtir un équilibre entre les ingénieries du site (Sûreté, FH, REX) et le management : les appuis apportent une connaissance argumentée et transverse des problèmes et participent aux échanges qui conduiront aux arbitrages du management.

Que retenir ?
Quelles sont, pour finir, les principaux points sur lesquels se positionner dans la perspective de la mise en œuvre d’un dispositif « Signaux Faibles » dans une entité industrielle ?
  • Bien sûr, il n’y a pas de transposition à l’identique possible. Chaque démarche est à intégrer dans les organisations de chaque entité en identifiant l’originalité que le dispositif peut apporter dans un système plus global de veille et en construisant le projet avec les acteurs concernés.
  • En terme de méthode, au delà de la nature des données recueillies, il nous semble important de s’interroger sur le type de caractérisation des données à utiliser. Cette caractérisation oriente la vision du réel : quel éclairage de la réalité est le plus pertinent dans le dispositif de veille considéré ?
  • Concernant l’animation et le management du dispositif, il est utile d’interroger la manière dont cette démarche peut s’intégrer dans les dispositifs de pilotage des performances du site. Il est tout autant nécessaire d’envisager une animation de la collecte, de l’analyse et du traitement des données aux différents niveaux de management : équipe de travail, services, site.
Violaine Bringaud (EDF/R&D) et Pascal Verges (EDF/CNPE du Tricastin), membres du réseau IMdR

Suivi réglementaire du 16 décembre 2008 au 31 janvier 2009

Installations classées

Circulaire du 20 janvier 2009 relatif aux thèmes d’actions nationales de l’inspection des installations classées et de la sécurité industrielle pour l’année 2009 (non publiée)Circulaire n° 09-009 du 22 janvier 2009 relative à la fiscalité de l’énergie (TGAP, TICGN, TICC) (BO des douanes n° 6794 du 29 janvier 2009)Arrêté du 13 janvier 2009 modifiant l’arrêté du 23 décembre 2008 relatif aux prescriptions générales applicables aux entrepôts couverts relevant du régime de la déclaration au titre de la rubrique n° 1510 de la nomenclature des installations classées pour la protection de l’environnement (JO n° 20 du 24 janvier 2009)Arrêté du 8 janvier 2009 modifiant l’arrêté du 5 novembre 2008 portant agrément d’un organisme pour effectuer le contrôle périodique de certaines catégories d’installations classées soumises à déclaration (SOCOMAX) (JO n° 18 du 22 janvier 2009)Décret n° 2009-45 du 13 janvier 2009 relatif à l’étiquetage des organismes génétiquement modifiés mis à disposition de tiers à l’occasion d’une utilisation confinée et modifiant le code de l’environnement (partie réglementaire) (JO n°12 du 15 janvier 2009)Décision n° 2009/10/CE de la Commission du 2 décembre 2008 établissant un formulaire relatif aux accidents majeurs conformément à la directive 96/82/CE du Conseil concernant la maîtrise des dangers liés aux accidents majeurs impliquant des substances dangereuses (JOUE n° L 6 du 10 janvier 2009)Arrêté du 23 décembre 2008 relatif aux prescriptions générales applicables aux entrepôts couverts relevant du régime de la déclaration au titre de la rubrique n° 1510 de la nomenclature des installations classées pour la protection de l’environnement (JO n°303 du 30 décembre 2008)Arrêté du 19 décembre 2008 relatif aux prescriptions générales applicables aux installations classées soumises à déclaration sous la rubrique n° 1434 (Installation de remplissage ou de distribution de liquides inflammables) (JO n° 303 du 30 décembre 2008)Loi n° 2008-1425 du 27 décembre 2008 de finances pour 2009 (JO n°302 du 28 décembre 2008)Arrêté du 22 décembre 2008 relatif aux prescriptions générales applicables aux installations classées soumises à déclaration sous la rubrique n° 1432 (stockage en réservoirs manufacturés de liquides inflammables) (JO n° 302 du 28 décembre 2008)Arrêté du 19 décembre 2008 fixant les règles générales et prescriptions techniques applicables aux stations-service soumises à autorisation sous la rubrique n° 1434 (Installation de remplissage ou de distribution de liquides inflammables) (JO n° 301 du 27 décembre 2008)Arrêté du 16 décembre 2008 modifiant l’arrêté du 5 août 2002 relatif à la prévention des sinistres dans les entrepôts couverts soumis à autorisation sous la rubrique 1510 (JO n° 300 du 26 décembre 2008)Arrêté du 18 décembre 2008 relatif aux prescriptions générales applicables aux installations classées soumises à déclaration sous la rubrique n° 1330 (Stockage de nitrate d’ammonium) (JO n° 298 du 23 décembre 2008)Arrêté du 17 décembre 2008 relatif aux prescriptions générales applicables aux installations classées soumises à déclaration sous la rubrique n° 1138 (Emploi ou stockage du chlore) (JO n° 298 du 23 décembre 2008)Arrêté du 11 décembre 2008 portant agrément d’un organisme pour effectuer le contrôle périodique de certaines catégories d’installations classées soumises à déclaration (JO n° 298 du 23 décembre 2008)

Déchets

Loi n° 2008-1443 du 30 décembre 2008 de finances rectificative pour 2008 (JO n°304 du 31 décembre 2008)Décret n° 2008-1380 du 19 décembre 2008 relatif aux procédures applicables aux transferts transfrontaliers de déchets radioactifs et de combustible nucléaire usé (JO n° 299 du 24 décembre 2008)

Eau

Arrêté du 17 décembre 2008 établissant les critères d’évaluation et les modalités de détermination de l’état des eaux souterraines et des tendances significatives et durables de dégradation de l’état chimique des eaux souterraines (JO n°5 du 7 janvier 2009)Arrêté du 23 décembre 2008 définissant les éléments de la lettre d’intention prévue à l’article 2-2 du décret n° 94-894 du 13 octobre 1994 modifié relatif à la concession et à la déclaration d’utilité publique des ouvrages utilisant l’énergie hydraulique (JO n° 3 du 4 janvier 2009)Arrêté du 23 décembre 2008 définissant le dossier de demande de concession prévu à l’article 3 du décret n° 94-894 du 13 octobre 1994 modifié relatif à la concession et à la déclaration d’utilité publique des ouvrages utilisant l’énergie hydraulique (JO n° 2 du 3 janvier 2009)Arrêté du 23 décembre 2008 définissant les modalités de réalisation et de remise du dossier de fin de concession prévu à l’article 29 du décret n° 94-894 du 13 octobre 1994 modifié relatif à la concession et à la déclaration d’utilité publique des ouvrages utilisant l’énergie hydraulique (JO n° 2 du 3 janvier 2009)Arrêté du 19 décembre 2008 modifiant l’arrêté du 21 décembre 2007 relatif aux modalités d’établissement des redevances pour pollution de l’eau et pour modernisation des réseaux de collecte (JO n° 302 du 28 décembre 2008)Arrêté du 17 décembre 2008 relatif au contrôle des installations privatives de distribution d’eau potable, des ouvrages de prélèvement, puits et forages et des ouvrages de récupération des eaux de pluie (JO n° 300 du 26 décembre 2008)Arrêté du 17 décembre 2008 fixant les éléments à fournir dans le cadre de la déclaration en mairie de tout prélèvement, puits ou forage réalisés à des fins d’usage domestique de l’eau (JO n° 300 du 26 décembre 2008)Directive 2008/105/CE du Parlement européen et du Conseil du 16 décembre 2008 établissant des normes de qualité environnementale dans le domaine de l’eau, modifiant et abrogeant les directives du Conseil 82/176/CEE, 83/513/CEE, 84/156/CEE, 84/491/CEE, 86/280/CEE et modifiant la directive 2000/60/CE (JOUE n° L 348 du 24 décembre 2008)

Substances dangereuses

Arrêté du 16 janvier 2009 modifiant l’arrêté du 20 avril 1994 relatif à la déclaration, la classification, l’emballage et l’étiquetage des substances dangereuses (JO n° 18 du 22 janvier 2009)Directive n° 2009/2/CE de la Commission du 15 janvier 2009 portant trente et unième adaptation au progrès technique de la directive 67/548/CEE du Conseil concernant le rapprochement des dispositions législatives, réglementaires et administratives relatives à la classification, l’emballage et l’étiquetage des substances dangereuses (JOUE n° L 11 du 16 janvier 2009)Règlement (CE) no 1272/2008 du Parlement européen et du Conseil du 16 décembre 2008 relatif à la classification, à l’étiquetage et à l’emballage des substances et des mélanges, modifiant et abrogeant les directives 67/548/CEE et 1999/45/CE et modifiant le règlement (CE) no 1907/2006 (JOUE n° L 353 du 31 décembre 2008)Règlement (CE) no 1336/2008 du Parlement européen et du Conseil du 16 décembre 2008 modifiant le règlement (CE) no 648/2004 afin de l’adapter au règlement (CE) no 1272/2008 relatif à la classification, à l’étiquetage et à l’emballage des substances et des mélanges (JOUE n° L 354 du 31 décembre 2008)Décision no 1348/2008/CE du Parlement européen et du Conseil du 16 décembre 2008 modifiant la directive 76/769/CEE du Conseil relative à la limitation de la mise sur le marché et de l’emploi de 2-(2-méthoxyéthoxy)éthanol, 2-(2-butoxyéthoxy)éthanol, diisocyanate de méthylènediphényle, cyclohexane et nitrate d’ammonium (JOUE n° L 348 du 24 décembre 2008)Directive 2008/112/CE du Parlement européen et du Conseil du 16 décembre 2008 modifiant les directives 76/768/CEE, 88/378/CEE et 1999/13/CE du Conseil ainsi que les directives 2000/53/CE, 2002/96/CE et 2004/42/CE du Parlement européen et du Conseil afin de les adapter au règlement (CE) no 1272/2008 relatif à la classification, à l’étiquetage et à l’emballage des substances et des mélanges (JOUE n° L 345 du 23 décembre 2008)

Produits chimiques et biocides

Directive n° 2008/127/CE de la Commission du 18 décembre 2008 modifiant la directive 91/414/CEE du Conseil en vue d’y inscrire plusieurs substances active (JOUE n° L 344 du 20 décembre 2008)Directive n° 2008/125/CE de la Commission du 19 décembre 2008 modifiant la directive 91/414/CEE en vue de l’inclusion du phosphure d’aluminium, du phosphure de calcium, du phosphure de magnésium, du cymoxanil, du dodémorphe, de l’ester méthylique de l’acide 2,5-dichlorobenzoïque, de la métamitrone, de la sulcotrione, du tébuconazole et du triadiménol en tant que substances actives (JOUE n° L 344 du 20 décembre 2008)Directive n° 2008/116/CE de la Commission du 15 décembre 2008 modifiant la directive 91/414/CEE du Conseil, en vue d’y inscrire les substances actives aclonifène, imidacloprid et métazachlore (JOUE n° L 337 du 16 décembre 2008)

Transport de matières dangereuses

Arrêté du 9 décembre 2008 modifiant l’arrêté du 1er juin 2001 modifié relatif au transport de marchandises dangereuses par route (dit  » arrêté ADR ») (JO n° 297 du 21 décembre 2008)Arrêté du 9 décembre 2008 modifiant l’arrêté du 5 juin 2001 modifié relatif au transport des marchandises dangereuses par chemin de fer (dit  » arrêté RID « ) (JO n° 298 du 23 décembre 2008)Arrêté du 9 décembre 2008 portant modification de l’arrêté du 5 décembre 2002 relatif au transport des marchandises dangereuses par voies de navigation intérieure (dit  » arrêté ADNR « ) (JO n° 297 du 21 décembre 2008)

Air

Arrêté du 29 décembre 2008 portant agrément d’une association de surveillance de la qualité de l’air au titre du code de l’environnement (livre II, titre II) (JO n°304 du 31 décembre 2008) Arrêté du 23 décembre 2008 portant agrément d’une association de surveillance de la qualité de l’air au titre du code de l’environnement (livre II, titre II) (JO n° 303 du 30 décembre 2008)Arrêté du 5 décembre 2008 portant agrément des laboratoires ou des organismes pour effectuer certains types de prélèvements et d’analyses à l’émission des substances dans l’atmosphère (JO n° 295 du 19 décembre 2008)

Risque industriel

Arrêté du 22 décembre 2008 modifiant l’arrêté du 13 juillet 2000 modifié portant règlement de sécurité de la distribution de gaz combustible par canalisations (JO n° 303 du 30 décembre 2008) Les textes relatifs aux thèmes  » Installations Classées  » et  » Environnement-santé  » sont consultables sur le site http://www.aida.ineris.frL’INERIS développe également un site « VIJI » dans lequel sont regroupés tous les textes nationaux et communautaires dans les domaines de l’hygiène, la sécurité et de l’environnement et assure une veille juridique et une mise à jour régulière de ces textes. Florence Oger, Juriste en environnement, hygiène et sécurité au sein de l’INERIS, responsable veille réglementaire et offres transversales (DRA)

Vers la production industrielle de bioéthanol et de biohydrogène

Fruit d’un accord de partenariat exclusif et mondial entre Biométhodes (Genopole, Evry), leader européen en ingénierie des enzymes, et Virginia Tech Intellectual Properties Inc. (États-Unis), une usine pilote sera construite en Virginie dans le courant de l’année 2009. Elle sera l’une des premières unités mondiales à intégrer deux technologies majeures : le procédé de prétraitement de la biomasse et les technologies d’enzymes optimisées pour l’hydrolyse de la cellulose en sucres fermentables.Ce partenariat qui vise à industrialiser la conversion de la biomasse lignocellulosique non alimentaire (déchets agricoles, entre autres) en bioéthanol, et de l’autre, la conversion des sucres en biohydrogène, marque la volonté de Biométhodes de devenir un acteur parfaitement intégré maîtrisant l’ensemble de la chaîne de valeurs et des savoir-faire nécessaires au développement des projets de production de biocarburants de deuxième génération.Percival Zhang, professeur assistant au College of Agriculture and Life Sciences (Virginia Tech), est à l’origine de la découverte de procédés originaux de conversion de la biomasse d’origine non alimentaire en éthanol de deuxième génération et en hydrogène. Ces procédés originaux reposent sur des enzymes améliorées, et sur des conditions physicochimiques douces. Contrairement aux procédés couramment utilisés, cette nouvelle technologie ne nécessite ni l’emploi de hautes pressions, ni des températures très élevées pour séparer efficacement la biomasse des déchets agricoles en ses trois composants essentiels, la cellulose, l’hemicellulose et la lignine. Outre l’excellent rendement de production d’éthanol de deuxième génération à partir de la fermentation des sucres, ce procédé permet également de valoriser les produits dérivés à haute valeur ajoutée, tels que la lignine et l’acide acétique. « Les technologies de Virginia Tech associées à l’expertise de Biométhodes dans l’amélioration d’enzymes génèrent les meilleures conditions de succès pour le développement industriel de biocarburants de deuxième génération et de bioydrogène tant en Europe qu’aux États-Unis » déclare John Talerico, de VTIP. L’équipe américaine, supervisée par le Professeur Percival Zhang, se focalisera en particulier sur l’étape du prétraitement de la biomasse. En France, les équipes de Biométhodes seront focalisées sur l’amélioration et la production des enzymes nécessaires aux procédés de transformation de la cellulose en bioéthanol, d’une part, et en biohydrogène, d’autre part.Biométhodes s’est fixé comme objectif d’augmenter l’efficacité de l’hydrolyse, d’optimiser la production d’enzymes, de réduire le coût total de production, et de passer à l’échelle industrielle dans des conditions économiques optimales. Concernant la production de biohydrogène, « l’Union Européenne déploie des efforts considérables pour favoriser le développement des technologies hydrogène », déclare Gilles Amsallem, PDG de Biométhodes. « Les conditions sont donc favorables au succès du projet ‘hydrogène embarcable’ en Europe, et les technologies de Biométhodes sont les plus adaptées pour réaliser cet ambitieux projet ». L’objectif de Biométhodes est de passer de la preuve de concept réalisée dans le laboratoire du Pr Percival Zhang sur des – fuels cells –, à des modèles réduits de générateurs, puis des prototypes de batteries, et enfin à des prototypes de voitures.

Biométhodes, entreprise de biotechnologie créée en 1998 à Génopole (premier bioparc français dédié aux biotechnologies et aux biothérapies, à Évry), emploie 22 ingénieurs et scientifiques. En une dizaine d’années il est devenu le leader européen dans l’ingénierie des enzymes grâce à ses technologies propriétaires dont Massive Mutagenesis, et THRTM qui permettent respectivement de générer et de sélectionner directement des variants de nouvelles protéines. Ces technologies ont permis l’amélioration d’enzymes pour nombreuses sociétés telles qu’Aventis, GSK, Roquette, ABEnzymes.

Entre les déchets et l’électricité, une torche à plasma

Dès la fin de l’année prochaine, la construction d’une unité de production d’électricité à partir de déchets grâce à un procédé de gazéification avec étage additionnel plasma va débuter au Portugal. Fruit d’un partenariat entre Europlasma, spécialisée dans des procédés industriels basés sur la technologie de la torche à plasma, et Regenco, une société luxembourgeoise qui, avec plus de 350 MW en développement est spécialisée dans les sites de production d’énergie renouvelable, et d’une association avec Eneolica, filiale de Lena, grand groupe portugais de travaux publics, cette installation produira 8 MW d’énergie électrique dès le début de 2011. Il s’agira de la troisième unité de ce type, après Morcenx, en France (12 MW) et Port-Hope, au Canada (20 MW)Cette future installation bénéficiera du procédé d’Europlasma pour convertir les déchets ménagers résiduels de la région en bio-syngas puis en électricité à l’aide de turbines à gaz. Les torches à plasma sont des outils thermiques qui peuvent remplacer les brûleurs de combustible fossile avec une efficacité allant jusqu’à 85%. Appliquée au traitement des déchets, une torche à plasma permet une destruction totale du déchet : les composés organiques sont totalement transformés en gaz de synthèse (syngas) et les composés inorganiques sont transformés en un verre inerte qui peut être valorisé et revendu comme agrégat ou composé de sous-couche routière. Elle trouve son intérêt dans tout type de traitement thermique apportant une facilité d’opération et une réduction de coûts basés sur un prix énergétique stable. De plus, le plasma n’engendre aucune forme d’incinération. Créée en 1992, la société Europlasma a mis au point des procédés permettant de traiter et de valoriser différents types de déchets (amiante, cendres toxiques,…). Les torches Europlasma sont des torches à arc non transféré développées au départ par EADS-LV (anciennement Aérospatiale) pour tester la résistance des matériaux des missiles ou des véhicules spatiaux lors de leur entrée dans l’atmosphère. Elles permettaient en effet de produire, à partir d’un gaz standard, un plasma présentant des températures élevées, bien supérieures aux températures atteintes par les moyens de chauffage conventionnels. La technologie plasma proposée par Europlasma est constituée de deux électrodes tubulaires connectées à une chambre d’injection d’un gaz tournoyant. Des sessions de tests ont montré que la torche peut fonctionner avec quasiment n’importe quel mélange de gaz (air, Ar, CO, Hélium, CO2, H2, N2, CH4, O2). L’allumage de l’arc est obtenu par un circuit court. La température du dard plasma résultant est typiquement de l’ordre de 4000°K alors que son enthalpie moyenne est dans la tranche de 5 MJ/kg air à 8 MJ/kg air. Pour augmenter la durée de vie des électrodes, un champ magnétique contrôle le mouvement de la racine de l’arc de l’électrode amont tandis que le gaz d’injection contrôle naturellement l’électrode aval. Les électrodes et la chambre d’injection sont refroidies par de l’eau déionisée et pressurisée.Le dernier développement d’Europlasma est la valorisation des déchets par un procédé de gazéification avec étage additionnel plasma pour la production d’électricité. L’entreprise a, en effet, développé un nouveau système, Turboplasma, ayant pour but d’améliorer les unités de gazéification en maximalisant la génération d’énergie renouvelable. Il s’agit d’un réacteur tubulaire à haute température, garni de réfractaires, avec 1 ou 2 torches en entrée, positionné à la suite d’une unité de gazéification de déchets ou de biomasse standard. Son principal avantage est de permettre un meilleur raffinage du gaz de synthèse et de se débarrasser des goudrons.

© EuroplasmaRetombée de l’aérospatiale, la torche à plasma peut remplacer les brûleurs de combustible fossile avec une efficacité de 85%.

Une “pico-centrale” électrique unique en france

La pico-centrale électrique qui a été mise en service à Saint-Étienne-de-Tinée, dans les Alpes-Maritimes, est la première canalisation en France où l’eau potable véhiculée est distribuée à deux entités – Saint-Étienne-de-Tinée et Auron – dont l’altitude diffère de 600 m. Réalisée avec le concours financier du Conseil général, elle permet de réduire la pression de l’eau, les réducteurs ayant été remplacés par une turbine de 200 kW de la société Desgranges et un alternateur de Paganin qui fournit de l’énergie électrique. La vente de cette énergie à EDF va créer un revenu à la commune de l’ordre de plus de 100.000 € par an.En 1976, la station de ski d’Auron, située dans les Alpes du Sud, manquait d’eau, notamment aux périodes de vacances avec la surpopulation touristique. Pour y remédier, la municipalité de Saint-Étienne-de-Tinée réalisa un vaste projet consistant à capter l’eau très pure des sources de Claï, à 2 000 m d’altitude en rive gauche de la Tinée, pour l’amener à Auron, à 1 600 m d’altitude en rive droite de la Tinée, au travers d’un vaste siphon dont le point bas se trouve à la traversée de la Tinée à 1 200 m d’altitude. L’eau descend à partir des sources de Claï jusqu’à la Tinée, puis remonte à Auron, arrivant au point bas avec une pression de 70 bar. L’installation de deux réducteurs permit l’utilisation de cette eau de qualité supérieure aux habitants de Saint-Étienne-de-Tinée.Le projet de pico-centrale réalisé sous la maîtrise d’œuvre de la société Serhy a, par ailleurs, utilisé la canalisation existante, n’engendrant aucune atteinte à l’environnement, pas de fouilles, aucune canalisation visible, aucune modification au droit des sources qui se trouvent dans le Parc national du Mercantour.L’eau étant destinée à l’alimentation en eau potable, toutes les pièces à son contact ont été réalisées en « acier inoxydable alimentaire » pour que sa pureté soit strictement conservée.

Une turbine de 200kW remplace les traditionnels réducteurs.

Vapeur et électricité à partir de biomasse, un projet pour le site de Lacq

Pour un investissement de l’ordre de 80 millions d’euros, Elyo du groupe SUEZ, va construire et exploiter une plate-forme industrielle de production de vapeur et d’électricité à partir de biomasse sur le site de Total à Lacq. Ce projet est porté par Biolacq Énergies, filiale d’Elyo à 100%. Les installations produiront en continu 80 MWt transformés en 15 MWe vendus au réseau électrique national, et 100 tonnes de vapeur par heure livrées aux industriels présents sur le site, permettant d’atteindre un rendement global performant de plus de 85%. Le besoin en combustible nécessite un approvisionnement annuel de 132.000 tonnes de biomasse agricole (50% cannes de maïs, 50% paille de blé) et de 57.000 tonnes de biomasse sylvicole, issue notamment des Pyrénées-Atlantiques. Cette diversité des combustibles biomasses est justifiée par la complémentarité des ressources locales garantissant un approvisionnement réparti dans le temps, à l’abri des aléas climatiques. L’installation pourra par ailleurs utiliser d’autres sources de combustibles sur les 20 ans du projet. Concernant la canne de maïs, il s’agit d’un gisement inutilisé à ce jour. En effet, une fois l’épi récolté, la jambe de maïs restait à terre sans être valorisée. Cependant, par respect pour l’équilibre organique et minéral des sols et selon leur nature, le prélèvement s’effectuera de manière raisonnée, c’est-à-dire une année sur trois, en excluant les sols pauvres. Par ailleurs, seul un tiers des résidus après la récolte du grain sera prélevé, ce qui fixe le taux d’exportation moyen à moins de 15% par an.La production d’électricité et de vapeur à partir du projet biomasse évitera l’émission de plus de 130.000 tonnes de CO2 par an et améliorera le bilan environnemental des industriels présents sur le site.

Amplificateur radiofréquence état solide ou tube : quels critères de choix ?

L’amplification de puissance radiofréquence est possible par tubes et par état solide. Mais comparer ces deux technologies est un sujet moins simple qu’il n’y paraît, si l’on fait abstraction des très faibles et très fortes puissances. En effet, une comparaison suppose des critères de choix et les définir n’est pas trivial.Les critères de choix dépendent des applications considérées et des utilisateurs. Citons les principaux :

  • le coût d’achat vient souvent en premier, en tenant compte du coût de conception si le dispositif recherché n’est pas commercialement disponible ;
  • le coût de possession, qui ajoute au coût d’achat le coût de maintien en service de l’équipement qui accueillera l’amplificateur : consommation électrique, durée de vie de l’amplificateur, coût des réparations, coût de gestion des obsolescences de composants électroniques… ;
  • le rendement électrique, si l’équipement dispose d’une ressource d’énergie limitée (c’est le cas des satellites) ;
  • la fiabilité, et la disponibilité opérationnelle, soit parce que l’équipement n’est pas réparable (sur un satellite…), soit parce que l’utilisateur ne veut à aucun prix que son équipement puisse tomber en panne inopinément, et qu’il souhaite une dégradation douce et la possibilité de réparer quand il le désire ;
  • et, évidemment, le respect des performances visées, notamment en termes de puissance, de bande passante et de linéarité.
S’ajoutent d’autres critères moins objectifs, mais très réels, dont le principal est la capacité de l’équipementier à concevoir ou à intégrer, voire à maintenir en état, des dispositifs fonctionnant sous très haute tension.Il est enfin des cas où le choix entre amplificateur à tube et amplificateur état solide est le résultat d’une réflexion plus globale au niveau de l’équipement qui les accueille : le meilleur exemple est celui les antennes à balayage électronique.Retrouvez les aspects  » performance  » qui guident les choix des utilisateurs, en offrant une meilleure compréhension du fonctionnement des dispositifs tube dans les dossiers  » Tubes électroniques hyperfréquences – Technologies, tubes à grille et klystrons  » et  » Tubes électroniques hyperfréquences – Tubes à ondes progressives et à champs croisés  » à paraître bientôt et état solide dans les dossiers  » Amplification de puissance radiofréquence à l’état solide – Classes, systèmes et technologies » et « Amplification de puissance radiofréquence à l’état solide – Paramètres de mise en œuvre « .Pour être informé de la parution du dossier  » Tubes électroniques hyperfréquences – Tubes à ondes progressives et à champs croisés  » cliquez-ici.Par Thierry Lemoine, directeur technique THALES Composants et Sous-systèmes

Les atouts de la pile à combustible au méthanol liquide

Classé au patrimoine mondial de l’UNESCO et d’accès difficile, le site Pigna Corbino, en Corse, subit de fréquentes interruptions d’alimentation électrique. Un problème pour SFR qui y a installé l’une de ses stations de base. La présence d’un système de secours électrique s’imposait, mais le lieu n’était pas approprié à l’installation d’un groupe électrogène et son emplacement éloigné rendait impraticable l’approvisionnement en hydrogène d’une éventuelle pile à combustible. L’opérateur de téléphonie mobile a été conduit à rechercher une solution alimentée en combustible liquide, à maintenance minimale, permettant de réduire l’impact environnemental. Son choix s’est porté sur une pile à combustible utilisant du méthanol liquide : pollution minimale, sans nuisance sonore et s’intégrant parfaitement au paysage.

La société Chloride a été chargée de fournir le système pile à combustible d’IdaTech (48VDC ElectraGen5 XTR) de type PEM (Proton Exchange Membrane). Ce dernier génère de l’hydrogène de haute qualité pour alimenter la pile à combustible en le produisant sur site, selon les besoins. Sa capacité lui permet d’assurer un fonctionnement de plusieurs jours à partir d’une source très compacte de carburant liquide, alors que les solutions traditionnelles ne sont utilisables que pour un nombre limité d’heures de fonctionnement. De plus, les fonctionnalités de télésurveillance du système permettent à SFR d’être averti de l’activation de la pile jusqu’au rétablissement du réseau électrique principal.

Modules photovoltaïques : une innovation intéressante pour un rendement de 24%

La société espagnole Concentración Solar La Mancha S.L., de Manzanares (Ciudad Real) a développé des modules photovoltaïques concentrés (CPV) qui utilisent des miroirs ou des lentilles pour concentrer la lumière, recueillie sur une surface relativement importante, sur une surface bien plus petite (1cm²) de matériau PV semi-conducteur actif basé sur les éléments des groupes III et V de la classification périodique. Ces systèmes offrent une efficacité de conversion de plus de 36%. L’une des premières installations commerciales de ce type de module CPV a vu le jour en septembre 2008 à l’ISFOC (Instituto de Sistemas Fotovoltaicos de Concentración) de Puertollano (Ciudad Real).Les modules photovoltaïques concentrés développés par la start-up espagnole Concentración Solar La Mancha S.L. sont constitués de six éléments concentrateurs et suivent automatiquement la course du Soleil dans le ciel, avec une précision de 0,2°. Cette précision permet des rendements de 20 à 24% en terme de production d’électricité, contre 15 à 16% pour les cellules conventionnelles au silicium.Les modules sont logés et soutenus, dans un châssis de grandes dimensions (83,3 cm× 56,5 cm pour 3 mm d’épaisseur) moulé dans un grade de polyéthylène téréphtalate (PET) DuPont renforcé en verre et mica, préféré à un aluminium revêtu d’une peinture en poudre. “Dès le départ, nous étions décidés à remplacer le métal par un polymère de hautes performances, afin de bénéficier des avantages offerts par ces matériaux”, explique Miguel Trinidad Aragon, P.‑D.G. de Concentración Solar La Mancha. Le grade sélectionné, Rynite 935 BK505, a été choisi pour son gauchissement extrêmement faible, sa rigidité élevée et ses propriétés d’isolation électrique. Exposé aux conditions extérieures, le matériau devait aussi offrir une excellente résistance à la chaleur (jusqu’à 85°C) et aux UV, tout en assurant le soutien structurel de tout le module PV, même par vent violent.

© DupontLe PET a été préféré à l’aluminium pour ses propriétés et la possibilité d’intégrer d’autres fonctions dans le châssis.

Premier bilan du programme Storhy sur le stockage de l’hydrogène

Au cours des dix dernières années, la direction de la recherche de PSA Peugeot Citroën a pu, au travers de 7 démonstrateurs technologiques utilisant l’hydrogène associé à la pile à combustible (PAC), tester plusieurs solutions. Ces différentes réalisations de type « Range Extender » constitueront, à moyen et long terme, une voie prometteuse pour les véhicules zéro émission (ZEV) nécessitant une autonomie accrue par rapport au véhicule électrique. Le démonstrateur Peugeot Partner H2Origin, présenté en avril 2008, illustre cette voie. Néanmoins la maturité technique et économique du véhicule hydrogène PAC est loin du stade industriel permettant une commercialisation en grande série.Afin d’être aux avant-postes des solutions techniques, le groupe PSA Peugeot-Citroën développe des partenariats ciblés (par exemple le CEA pour la pile à combustible) ou s’associe aux projets de recherche de la Commission Européenne. En travaillant, dans le cadre du projet européen StorHy (système de stockage d’hydrogène pour des applications automobiles) à l’amélioration du stockage de l’hydrogène sous format gazeux, PSA Peugeot Citroën cherchait à accroître significativement l’autonomie des véhicules à hydrogène. Les résultats obtenus montrent qu’un doublement de la pression de l’hydrogène stocké (700 bars au lieu de 350) est viable techniquement.Le stockage de l’hydrogène constitue un point clé pour l’utilisation de l’hydrogène comme source d’énergie du futur et la diffusion large sur le marché des véhicules fonctionnant à l’hydrogène. Le projet StorHy a permis des avancées significatives dans le développement de systèmes efficaces et sûrs pour le stockage de l’hydrogène embarqué à bord des véhicules. Ces progrès se sont accompagnés d’un renforcement de la compétitivité de l’industrie européenne et ont favorisé, dans le domaine du stockage de l’hydrogène, des échanges scientifiques et techniques européens au meilleur niveau.Pendant les 4 années et demi de la durée du projet européen StorHy, les acteurs majeurs de l’industrie et la recherche ont collaboré pour faire progresser la recherche et accélérer le développement des trois principales technologies de stockage de l’hydrogène : stockage de l’hydrogène à l’état gazeux sous haute pression (jusqu’à 700 bars), stockage sous forme liquide (cryogénique) à très basse température (-253°C) ou encore stockage absorbé dans des matériaux solides. Les solutions technologiques réalisées dans le cadre de StorHy pour le stockage de l’hydrogène à l’état gazeux haute pression, ou à l’état liquide et des technologies de stockage sont maintenant prêtes pour un développement en petites séries. Pour sa part, le stockage solide n’est, pour l’instant pas suffisamment mature pour une application automobile.

Efficacité énergétique : 50% d’économies grâce à un pilotage intelligent de la gestion technique

Les bâtiments étant responsables de 40% de la consommation d’énergie, les économies possibles dans ce domaine sont considérables. Voilà pourquoi l’efficacité énergétique est un thème central de KNX Association, créateur et propriétaire de la technologie KNX, le seul standard ouvert pour toutes les applications dans le domaine de la domotique et de l’immotique.

Un contrôle intelligent de la gestion technique du bâtiment réduit la consommation énergétique et sensiblement les frais d’utilisation qui y sont liés. C’est là, le résultat d’une recherche menée par l’université de Biberach, en Allemagne, sur le thème des possibilités d’économie d’énergie grâce à des installations électriques modernes telles que KNX. Son bilan : « Ce sont tout particulièrement les fonctions d’automatisation combinant différents systèmes qui débouchent sur de grandes possibilités d’économie d’énergie. Ces fonctions d’automation ne sont possibles qu’à l’aide d’une gestion moderne de la technique du bâtiment sur la base des systèmes de bus et de communication. Ici l’installation électrique traditionnelle atteint rapidement ses limites. »

Une autre recherche de l’université de Brême, montre dans quelles proportions les économies d’énergie sont possibles. Elle a pris comme terrain d’expérimentation le nouveau centre d’informatique et de technique de média (ZIMT) qui est équipé du système de commande KNX pour le chauffage et le pilotage de la lumière.

Économie d’énergie réalisée par KNX sur une application chauffage (sources : université de Brême).

Le bâtiment montre une consommation d’énergie spécifique de 60 à 75 kWh/m². Deux salles de classe identiques ont été choisies comme pièces test. L’une d’elle dispose d’une installation classique et la seconde est équipée du système de commande KNX. Suite à une série de mesures relevées sur une période de quatre ans, il est apparu que, dans la salle équipée d’un système de commande KNX, la consommation d’énergie est réduite de 50%. Ainsi, les frais d’investissement sont rapidement rentabilisés. Autre exemple, l’université de Brème qui consomme 230.000 kWh par an uniquement pour son éclairage, compte amortir son investissement dans une commande bus KNX en un an seulement. Au final, non seulement les exploitants et les investisseurs profitent de cette baisse de consommation d’énergie mais l’environnement aussi.

Réduction de la consommation d’énergie suite à l’installation de KNX

Grâce au système KNX, les objectifs d’économie d’énergie suivants sont atteints : jusqu’à 40% avec les commandes KNX pour l’occultation, 50% avec les régulateurs individuels de pièce ; 60% avec les commandes d’éclairage et 60% avec les commandes d’aération.

KNX Association : 120 entreprises et 7.000 produits

Reconnu comme standard européen (CENELEC EN 50090 et CEN EN 13321-1) et international (ISO/IEC 14543-3), KNX Association qui réunit dans le monde plus de 120 entreprises membres et 7.000produits, a conclu des accords de partenariat avec plus de 30.000 installateurs dans 70 pays.

En coordination avec KNX Association, KNX France concourt au développement de l’offre liée à la norme KNX en favorisant et dynamisant les échanges avec les filières de la profession. Il adapte l’usage de la norme aux spécificités culturelles et structurelles, notamment à travers la mise en place d’une stratégie et d’actions de communication à destination du marché.

La pyrogazéification, seule alternative à l’incinération ou l’enfouissement

Le programme de développement du procédé unique au monde de pyrogazéification de Finaxo Environnement vient d’enregistrer une avancée importante avec la labellisation officielle du projet PYRA2NA (Pyrolyse en Agro-Alimentaire, Nouvelles Avancées) par le pôle de compétitivité Picardie Champagne Ardenne qui avait déjà labellisé Pyrobio Energy + en 2006. L’objectif de ce programme porté par le Centre de Valorisation des Glucides d’Amiens (CVG), en étroite collaboration avec Finaxo Environnement et le Laboratoire d’Études et de Recherches sur le Matériau Bois (LERMAB) d’Épinal est de définir avec les centres techniques et les professionnels des industries agroalimentaires, les sous-(co)produits potentiellement valorisables en pyrogazéification pour la production d’énergie (chaleur, électricité).

Alors que Finaxo Environnement a nommé un directeur commercial spécialement dédié au département Pyrogazéification, le directeur et responsable du projet « Pyrobio Energy+ » chez Tereos a confirmé la volonté du groupe de poursuivre le développement du procédé avec la construction prochaine d’une unité industrielle pilote pouvant traiter 225 kg/h de matières organiques sur le site de la distillerie d’Origny-Sainte-Benoîte. Il a été décidé, suite aux tests concluants, un élargissement du champ d’application de la technologie de pyrogazéification, notamment dans le domaine des éco-carburants de synthèse. Ce souhait d’appliquer ce procédé aux carburants de seconde génération a ainsi conduit à une réflexion sur la technologie à utiliser pour optimiser la future unité d’Origny (chauffage du four au gaz ou à l’électricité, alimentation des billes chauffantes par vis sans fin ou par la mise en place d’un four tournant avec godets…). L’objectif est une livraison de l’unité industrielle pilote d’ici la fin 2008.

Le procédé de pyrogazéification Finaxo Industrie comporte un transfert ultrarapide de la chaleur au cœur de la matière par l’incorporation de billes d’acier de 20 à 50 mm, surchauffées entre 650 et 750°C qui cheminent dans un four à co-courant avec les déchets. Ainsi, le coke est brûlé pour fournir l’apport calorifique nécessaire à la réaction de pyrolyse ainsi que la surchauffe éventuelle du gaz de pyrolyse pour réduire la fraction condensable. La combustion du coke se fait de manière indépendante du réacteur de pyrolyse, ce qui permet de ne pas mélanger les fumées issues de la combustion du coke, avec les gaz de pyrolyse. Il en résulte la production d’un gaz riche qui facilite son utilisation dans un moteur à gaz.

La pyrolyse « rapide »

La pyrolyse d’un déchet organique ou contenant du carbone est une décomposition thermochimique en absence d’oxygène, entre 450 et 900°C. La pyrolyse « rapide » (quelques secondes à 600-900°C) produit un gaz combustible exempt de goudrons, dont la fraction condensable sera d’autant plus faible que la température est élevée. C’est cette dernière qui est prévue dans le brevet de Finaxo Industrie dont l’originalité réside dans l’utilisation d’un four à billes, alors que les procédés existants sont essentiellement des procédés cycloniques.

Un séchage suivi d’une thermolyse peuvent être réalisés dans une seule unité composée de deux fours distincts mais identiques, utilisant une masse commune de billes d’acier.

Aujourd’hui, les installations existantes ou en cours de construction ciblent le marché annuel des déchets ménagers qui représente en France 31 millions de tonnes alors que la technologie Finaxo vise les 400 millions de tonnes de déchets industriels (déchets hospitaliers, farines animales, pneus usagers, déchets des IAA, tailles des zones viticoles…). De plus, la technologie Finaxo permet de traiter les déchets à la source, évitant collecte et transport tout en apportant aux industriels une valorisation énergétique : le bilan énergétique est de 5,9 kW par kilogramme de matière organique sèche ; ou entre 0,38 et 1,415 kW pour une matière organique contenant entre 80 et 65% d’eau.Les avantages du procédé sont multiples :

  • minéralisation complète du déchet ;
  • production d’électricité par co‑génération ;
  • installations d’une capacité comprise entre 100 et 30 000 tonnes/an, éventuellement conteneurisables ;
  • déshydratation totale des déchets ;
  • rejets gazeux ne dépassant pas 2 000 Nm³/tonne contre 7 500 Nm³/tonne pour l’incinération.

Europe : où en sont les énergies renouvelables ?

Certes, les objectifs fixés pour 2010 par la Commission européenne ne seront pas tenus, mais la tendance actuelle sur le futur des énergies renouvelables dans l’Union européenne autorise un certain optimiste. EurObserv’ER indique dans son rapport que la part des énergies renouvelables dans la consommation totale d’énergie primaire a gagné 0,4 point en 2007 par rapport à 2006 (de 7,1 à 7,5%) et la part des énergies renouvelables dans la consommation totale d’électricité a augmenté de 0,6 point en 2007 par rapport à 2006 (de 14,3 à 14,9%) (voir pages 78-85 de la publication).Au delà, cette nouvelle édition de l’État des énergies renouvelables en Europe présente une synthèse de l’ensemble des baromètres thématiques sur les énergies renouvelables publiés au cours de l’année 2008 (données 2007). Elle donne notamment une présentation détaillée des capacités installées et de la production énergétique de chaque technologie en matière d’énergie renouvelable pour les 27 pays membres de l’Union européenne – énergie éolienne, solaire thermique, photovoltaïque, petite hydraulique, géothermie, biomasse solide, biocarburants, biogaz, déchets urbains renouvelables, énergies des océans et centrales héliothermodynamiques (voir pages 8-85).Les objectifs de l’Union européenne en matière d’énergies renouvelables pour 2020 sont également précisés. A cette date, elles devront représenter 20% de la consommation d’énergie finale, la contribution de chaque Etat membre étant toutefois différente (voir pages 86-89).Enfin, pour la première fois, l’« État des énergies renouvelables en Europe » consacre un chapitre entier aux indicateurs socio-économiques (chiffre d’affaires et emplois) de la plupart des filières énergies renouvelables dans certains pays membres (voir pages 90-113). Un travail complété par des études de cas sur sept régions européennes (« Solar Vallée » en Allemagne, « Savoie Technolac », « Castille-La Manche » en Espagne, etc.) ayant su développer une activité industrielle liées aux technologies renouvelables (voir pages 114-139).En savoir plus sur EurObserv’ERLe baromètre EurObserv’ER est une publication régulière qui regroupe l’ensemble des indicateurs reflétant l’actualité des énergies renouvelables (solaire, éolien, hydraulique, géothermie et biomasse) dans le monde et en Europe. Le prochain baromètre paraîtra en février 2009 et sera consacré à l’énergie éolienne.Le baromètre EurObserv’ER est un projet soutenu par la Commission européenne, dans le cadre du programme « Énergie Intelligente-Europe » de la DG TREN. Il est également soutenu par l’Ademe, l’Agence de l’environnement et de la maîtrise de l’énergie.

INRIA : publication du rapport d’evaluation externe

Le Visiting Committee (VC) s’est réuni avec les membres de la direction et plusieurs chercheurs de l’INRIA dans un hôtel parisien, les 18 et 19 décembre 2008. Il a également travaillé à huis clos le 20 décembre pour discuter de son évaluation et de ses recommandations. Avant la réunion, la direction de l’INRIA avait élaboré un ensemble très complet de documents riches en informations, dont une présentation générale de l’INRIA, une description de la mission assignée au VC, l’actuel plan stratégique de l’INRIA, le contrat quadriennal 2006-2009, et les rapports des précédents VC et des comités d’évaluation de programmes. L’ordre du jour des 18 et 19 décembre comportait des présentations sur l’ambition et la stratégie de l’INRIA, sur son évolution scientifique, sur ses impacts nationaux et internationaux universitaires, et sur sa stratégie en matière de transfert. Ces exposés étaient complétés par des présentations de recherche.

Conclusions de ce rapport :
L’institut est reconnu comme l’un des meilleurs au monde. Le visiting committee souligne :
  • sa croissance en productivité ;
  • le succès de son investissement dans de nouveaux domaines
  • interdisciplinaires comme la biologie et la médecine numériques ;
  • la réussite du déploiement régional sur une courte période. L’INRIA a su croître rapidement sans réduire sa qualité scientifique ;
  • le bien fondé des d’actions incitatives qui visent à renforcer les synergies entre les EPI, aujourd’hui plus nombreuses et à maintenir une bonne coordination scientifique au sein de l’institut ;
  • les nombreuses qualités du modèle d’organisation, particulièrement dynamique,
  • le bien fondé des actions exploratoires et de la politique d’encouragement à la prise de risque ;
Le rapport félicite par ailleurs l’INRIA d’avoir su mettre en œuvre une chaîne continue, de la recherche fondamentale au transfert et à l’innovation et d’avoir pris sérieusement en compte les recommandations du précédent comité.

Date de publication du rapport :
20 février 2009

Plus d’infos :
  • http://www.inria.fr/actualites/2009/visiting_committee.fr.html
  • http://www.enseignementsup-recherche.gouv.fr/cid23851/remise-du-rapport-d-evaluation-externe-de-l-inria.html

L’énergie éolienne en substitution à d’autres sources d’électricité

« L’une des caractéristiques techniques fondamentales de l’électricité éolienne dans son utilisation dans les réseaux est qu’elle n’est que substituable à une autre source d’électricité. En effet, l’électricité distribuée en courant alternatif n’étant pas stockable, l’électricité éolienne doit être consommée au fil du vent. Or, comme le vent, l’électricité éolienne est intermittente.Il est donc nécessaire d’associer les centrales éoliennes à d’autres moyens de production dont la puissance disponible est ajustable ad nutum, jusqu’à couvrir la totalité de la puissance appelée par le réseau en cas de réduction à zéro de la puissance éolienne.

Cela conduit à examiner une caractéristique économique de l’électricité éolienne : pour créer un marché viable et pérenne, il est nécessaire que le coût de l’électricité éolienne devienne inférieur au coût de l’électricité déplacée.Dans l’ensemble techno-électrique de l’année 2008, les moyens de production de l’électricité substituée les plus favorables au couplage avec l’électricité éolienne peuvent être classés de la façon suivante (du plus au moins favorable) :

– les centrales hydrauliques de lac ou à éclusées, voire les centrales STEP (station de transfert d’énergie par pompage). En effet dans ces types d’équipements hydrauliques, il est possible en cas de forte production éolienne, de différer l’utilisation de la ressource hydraulique jusqu’à des moments où l’énergie potentielle de l’eau stockée sera mieux valorisée (variation entre les prix OTC et les prix spot) ;

– les centrales équipées de turbines à gaz à cycle combiné (TGCC). Ces équipements consomment un combustible coûteux (gaz naturel à moyen terme de l’ordre du prix moyen de l’électricité éolienne), mais ils ont un rendement intrinsèque important (de l’ordre de 60 %) et sont donc relativement moins polluants en termes de CO2 remis à l’atmosphère que les autres centrales à combustible fossile. Enfin, leur durée de mise en puissance est de l’ordre de 1 à 3 heures, selon l’état de température initial ;

– les turbines à combustion (TAC) alimentées aussi bien au gaz naturel qu’au fioul ont des durées de mise en puissance tout à fait compatibles avec les variations de l’électricité éolienne, mais leur rendement n’est que de l’ordre de 30 % et elles émettent beaucoup de gaz à effet de serre ;- les centrales à vapeur fonctionnant au charbon ou au fioul (très rares maintenant) ont des durées de mise en puissance de l’ordre de 10 heures et génèrent également beaucoup de gaz à effet de serre ;

– enfin, les centrales nucléaires. Pas plus que les centrales éoliennes, les centrales nucléaires n’émettent des gaz à effet de serre. Donc pas d’avantage de ce coté pour les premières. Par ailleurs, le prix de l’uranium enrichi étant une fraction (quelques %) du prix de l’électricité produite, il est clair que pour être économiquement efficaces, ces centrales doivent fonctionner aussi près que possible de leur puissance nominale pendant le maximum de temps, ce qui est contraire à une pénétration significative de l’électricité éolienne. En résumé, il n’y a pas de problème technique fondamental à coupler des centrales éoliennes à un réseau majoritairement nucléaire comme celui de la France, mais un problème économique. »

Retrouvez dans le dossier « Énergie éolienne pour la fourniture d’électricité » toutes les données techniques pour comprendre les avantages et les limites de cette énergie renouvelable, dans le contexte environnemental et économique actuel.

Par Jean-Marc Noël, Ingénieur de l’École Navale & Ingénieur-Conseil

Développement durable : vers un nouveau modèle économique

Une démarche « développement durable » peut être transcrite de manière simple en trois points qui s’avèrent aussi comme structurant cette problématique.

1. Un concept en voie de maturation

À son origine, dans les années 80, le concept de développement durable a semblé très flou, ce qui explique aussi paradoxalement son succès. Il recouvre maintenant deux courants assez contrastés.Le premier peut être qualifié d’écologiste. Pour ses tenants le développement durable est indispensable pour préserver la planète des nombreux risques environnementaux consécutifs à une activité économique faisant fi des questions environnementales. Pour cette école le traitement des aspects environnementaux de l’activité économique suffit pour parvenir à un développement durable.Le second est beaucoup plus radical puisqu’il considère que tout développement de l’économie marchande est intrinsèquement un risque majeur pour l’équilibre du système mondial car l’épuisement des ressources a atteint un seuil critique. Ce mouvement prônant, de fait, une décroissance ne va pas sans poser une question majeure qui est celle de l’utilité du progrès technique pour l’ensemble de ce qui est désigné comme « la société civile ».Face à ces deux attitudes, une question mérite d’être posée : faut-il se suffire d’une interprétation causale ? En effet, chacune des propositions précédentes instrumentalise un paramètre : soit le traitement environnemental, soit la technologie. Mais aucune assurance sur le caractère opératoire de ces démarches ne semble acquise puisque le problème concerne en fait l’écosystème au sens de la maîtrise collective d’un système complexe.Il apparait alors qu’une troisième voie est indispensable et qu’elle passe par un regard renouvelé permettant de retrouver une certaine capacité d’action sur le cours des choses (les anglo-saxons parlent de « vision »).

2. Un modèle économique revisité

Pour faire évoluer les comportements, il apparait nécessaire d’opérer par étapes successives. Le changement ne peut être que progressif et il suppose d’être partagé.Pour être organisé de manière efficace un groupe social se doit d’avoir une même compréhension des enjeux encourus. C’est dans ce sens que le développement durable doit être compris. Les risques environnementaux, économiques et sociaux sont réels et pour être évités ils ne se suffiront pas de mesures ponctuelles palliatives. En fait il devient nécessaire que chacun ait assimilé l’urgence de nouvelles solutions et reconnaisse le besoin d’un nouveau paradigme collectif.Celui-ci passe dans un premier temps par la pratique systématisée de l’éco-conception. Toutes les activités de la collectivité appellent un traitement environnemental approfondi des flux consécutifs à la mise à disposition des produits. Le prélèvement des ressources et les rejets lors de la fabrication ou de l’usage doivent être maîtrisés puis minimisés. Cette attitude contribue ainsi à l’optimisation des ressources mobilisées. Cette gestion rigoureuse qui cherche à réduire les « déchets » générés a un fort potentiel qui se chiffre à plusieurs dizaines de points du PIB en Europe.À terme, il s’agit de basculer sur un mode d’échanges économiques privilégiant le service : l’objectif n’est plus d’organiser des transactions de produits, mais d’engager une « économie fonctionnelle » axée sur l’usage procuré par un produit et non sur un achat en tant qu’objet physique. Cette « dématérialisation » de l’économie, que certains qualifient de « découplage », permet une meilleure péréquation entre coûts de fabrication et coûts d’exploitation dans une logique d’optimisation du coût de possession (usage tous frais confondus).Ces trois étapes constituent les paliers nécessaires pour accéder à un nouveau modèle économique internalisant l’ensemble des externalités de l’économie classique qui ne sont pas actuellement prises en charge de manière satisfaisante.

3. Une responsabilité accrue de chacun

Le déploiement d’un nouveau modèle économique suppose, au-delà du partage d’une même représentation, une approbation active des membres du collectif, et ce, à trois niveaux.L’économie fonctionnelle est basée sur un usage qui se déroule dans la durée. Cette dimension temporelle introduit implicitement une relation d’interaction entre l’utilisateur final et le support du service concerné. La qualité du support ne suffit pas à compenser un « mauvais usage ». Il en va de la responsabilité de l’utilisateur. Ce rôle dépasse le simple statut de consommateur et conditionne un usage « responsable » c’est-à-dire qui assume les conséquences des transgressions volontaires apportées aux conditions usuelles d’emploi.Au-delà de ce rôle actif, le modèle économique n’est compatible avec un développement durable que si chacun accepte de contribuer à la préservation des biens collectifs c’est-à-dire à assumer le surcoût nécessaire à un équilibre global de la planète (financement de la réduction des GES, recyclage, consommation d’énergie renouvelable…). Le terme de surcoût ne signifie pas forcément une réduction du pouvoir d’achat mais plutôt une contribution volontaire à des dépenses collectives ignorées jusqu’alors (principe généralisé du pollueur-payeur).Toutefois cette responsabilisation ne dédouane pas les entreprises qui fournissent les produits/services. Elles doivent, de leur côté, rechercher à tout moment les technologies les plus appropriées pour minimiser justement ces nouveaux coûts. Cela ne peut être obtenu sans un usage plus général de l’innovation qu’elle soit d’ordre technique ou organisationnel. Une production responsable se doit de concevoir des solutions originales qui mutualisent les dépenses et tirent un meilleur parti des nouvelles technologies (capacité de simulation, optimisation sous contraintes…).Cette synergie entre l’utilisateur, la collectivité et les entreprises relève d’une régulation repensée, qui ne passe pas par des réglementations, mais bel et bien par un engagement personnel de tous.

Handicap ou coup de pouce ?

Dans ces conditions, le concept de développement durable apparaît à la fois comme une contrainte (introduire un changement dans les pratiques actuelles) et une opportunité (accès à une économie réellement soucieuse de l’environnement : l’économie fonctionnelle).

Pour en savoir plus

 

  • Editions Techniques de l’ingénieur, Economie fonctionnelle, Christophe Gobin, Génie Industriel (2009).

Dans le cas particulier du cadre bâti, si important néanmoins dans le phénomène de mondialisation, des compléments peuvent être trouvés dans T et I :

  • Développement durable, feuille de route de la R&D.
  • Economie des coûts cachés
  • Analyse fonctionnelle
  • Efficience
  • Industrialisation
  • Ingénierie concourante

[Rencontres] Gestion du risque chimique

Comment intégrer les nouvelles réglementations ? Quels sont les contrôles et sanctions ? Quelle gestion globale du risque chimique ? Pour réussir la mise en œuvre de votre plan d’actions de prévention et de gestion des risques, Quick FDS et les Editions Techniques de l’Ingénieur vous proposent :

  • le mardi 30 juin 2009, à Paris, une journée de conférence-débat autour d’experts et de dirigeants de renom ;
  • du 29 juin au 3 juillet, 5 formation complémentaires.
Pour accéder directement au bulletin d’inscription, cliquez ici.   

CONFERENCE – 30 juin 2009 – Paris
NOUVELLES ÉXIGENCES RÉGLEMENTAIRES DU RISQUE CHIMIQUE : FDS, SCENARIO D’EXPOSITION, SGH/CLP… COMMENT ÊTRE EN RÈGLE ?
 
 

Etat des lieux : les obligations internationales et leur transcription en France
9h00 : Comment retrouver une vision claire des exigences incontournables aujourd’hui ?
  • Les nouvelles contraintes : règlement REACH, SGH – Règlement CLP
  • Le point sur la sécurité et la santé au travail
  • Les enjeux actuels en environnement et risques industriels
Avec Ismahane El Bahloul, Expert conseil HSE – Management du risque9h45 : Ce qu’attend la médecine du travail
  • Quels sont les comptes à rendre aux médecins du travail ?
  • Quelles relations favoriser sur le terrain, en phase avec les réalités professionnelles ?
Avec Ulrick Brunner, Médecin du travail, ALCAN AEROSPACE ; Dominique Leuxe et Mireille Loizeau, Médecins du travail, toxicologues – Service inter entreprise10h30 : La mise en œuvre des contrôles des produits chimiques
  • Les inspections réalisées par les différents corps de contrôles habilités
  • Les sanctions encourues en cas de non respect de la réglementation « produits chimiques » du Code de l’environnement
Avec Stéphanie Viers, Chargée de mission Animations des politiques de contrôle, Bureau des Substances et Préparations Chimiques, DGPR, Ministère du Développement Durable11h00 : Pause  

Administratif, technique, financier : les clés de la réussite
11h30 : Producteur – Utilisateur : la cascade des responsabilités
  • REACH, étiquetage : quels impacts juridiques et modification des responsabilités pénale et civile ?
  • Les contrats avec les fournisseurs et les clients : les impacts juridiques de REACH
Avec Maître Laurent Grinfogel, Avocats, Cabinet HUGLO – LEPAGE 12h15 : Comment retrouver un avantage concurrentiel ?12h45 : Déjeuner 

Comment faire face sur le terrain ?
14h15 : « FDS étendues » et étiquetage : ce qui change sur le terrain
  • Nouveau contenu de la Fiche de Donnée de Sécurité : les impacts de REACH sur les FDS
  • Scénario d’exposition et les CSA/CSR (Chemical Safety Assesment/C S Report)
  • Le nouveau système d’étiquetage : les principes et les impacts du CLP
Avec Marie-Laure Héraud, Responsable Projet Risques chimiques, Direction Technique/HSE, BUREAU VERITAS15h00 : Les outils opérationnels au service des industriels
  • Usage des produits : comment faciliter la fluidité des échanges entre fournisseurs et utilisateurs ? Avec Michel Abadie, Directeur Général, QUICK FDS
  • Assistance pour les PME utilisatrices productrices/importatrices : l’apport du Helpdesk REACH. Avec Stéphanie Auguste, expert en assistance sur le règlement REACH, BERPC
15h45 : Retours d’expérience sur la mise en œuvre
  • Organisation, équipe, coût, planning… : comment est piloté le projet ?
  • Procédures effectuées, confidentialité, disparition/substitution de certaines substances… Les répercussions techniques
Dont retour d’expérience de : Marine Vivien, Ingénieur environnement, coordination règlementation substances, DASSAULT AVIATION ; Jérôme Durantet, Responsable des affaires réglementaires et HSE produits, BOSTIK, et Béatrice Marchal, Responsable HSE Produits, CRAY VALLEY16h30 : Fin de la manifestation 

5 FORMATIONS POUR RÉUSSIR VOTRE PLAN D’ACTIONS DE PRÉVENTION ET DE GESTION DU RISQUE CHIMIQUE
 Les 5 programmes de la semaine du 29 juin au 3 juillet, Paris :1/ REACH : appliquer vos obligations incontournablesLundi 29 juin 2009 /1 jour
  • Identifier les principales obligations réglementaires du règlement REACH et les l’impact des nouvelles réglementations (dont le règlement CLP/SGH)
  • Déterminer si votre entreprise est impactée par REACH
  • Initier une démarche de gestion du risque chimique
2/ Respecter les obligations réglementaires en sécurité et santé au travailMercredi 1 juillet – jeudi 2 juillet 2009 / 2 jours
  • Identifier les exigences essentielles pour suivre sereinement son activité
  • Rédiger, organiser et faire vivre le Document Unique
  • Initier une démarche de gestion de la sécurité et santé au travail pour l’ensemble des risques
3/ FDS et étiquetage : 2 outils de gestion des risques. Ce qui change avec REACH, CLP – SGH, les scenarii d’utilisation…Mercredi 1 juillet – jeudi 2 juillet 2009 / 2 jours
  • FDS étendue : les impacts de REACH sur la FDS, les sanctions et contrôles
  • S’approprier le nouveau système d’étiquetage et mettre à jour ses documents en interne pour une gestion globale du risque chimique
4/ Evaluer et gérer le risque ATEX. Identifier les obligations incontournables pour être en règleVendredi 3 juillet 2009 / 1 jour
  • Acquérir une vision globale des obligations réglementaires ATEX
  • Différencier les obligations pour les utilisateurs et pour les producteurs de matériels
  • Reconnaitre et évaluer les risques ATEX au sein de son entreprise
5/ Transport de produits dangereux. Les outils d’auto-diagnostic pour se situer par rapport à la réglementation. La mise à jour 2009 et les évolutions à anticiperVendredi 3 juillet 2009 / 1 jour
  • Identifier les principales obligations en matière de transport / d’expédition
  • Valider si son activité est assujettie à l’ADR – Réglementation transport de marchandises dangereuses et s’il y a nécessité de faire appel à un conseiller à la sécurité
  • Cerner les procédures à mettre en place
Pour plus de détail sur les programmes : nous contacter 

BULLETIN D’INSCRIPTION
A renvoyer à Jacqueline Zoric par FAX au 01 53 35 16 77Ou par courrier : Techniques de l’Ingénieur, 249 rue de Crimée, 75019 ParisContactInscription : 01 53 35 16 68 – [email protected]Programme : Gautier Bernard – 01 53 35 16 23 – [email protected]Je m’inscris à :♦ la conférence du 30 juin 2009 – 750 € HTEt à :♦ la formation du 29 juin 2009 – 490 € HT♦ la formation des 1-2 juillet 2009 – 990 € HT♦ la formation du 1-2 juillet 2009 – 990 € HT♦ la formation du 3 juillet 2009 – 490 € HT♦ la formation du 3 juillet 2009 – 490 € HT150 euros de remise pour toute inscription couplant la conférence et une formation *100 euros de remise pour toute inscription avant le 30 avril 2009 *Gratuit pour le 3ème inscrit de la même entreprise* Offre non cumulable

Les objets communicants, aujourd’hui et demain

Une reconnaissance mondiale confirmée
Fin 2008, le pôle de compétitivité SCS (Solution Communicantes Sécurisées) vient de voir son label de « pôle mondial » renouvelé pour trois années supplémentaires, et notamment en raison de son action d’intégration des PMI dans ses projets (40% des porteurs de projets sont des PME, 40% des acteurs dans les projets labellisés sont des PME et 64 % des adhérents sont des PME). Le 5e Forum OCOVA (organisé par Hautes-Alpes Développement) fut une parfaite illustration de l’importance prise par les petites structures. Les 150 participants au colloque, tous impliqués dans le développement de solutions innovantes autour de ces objets (cartes à puce, téléphone portable, assistants personnels, périphériques informatiques, terminaux GPS…) et la population de Gap ont pu découvrir des innovations qui sont à la veille de leur commercialisation. Des applications axées sur la téléphonie mobile (cf. l’article Téléphones mobiles : le NFC pour tous), la technologie RFID et les capteurs sans fil.

De l’énergie pour alimenter les objets communicants ?
Parallèlement à ces développements, les chercheurs, notamment ceux de Minalogic, travaillent sur des solutions miniaturisées intelligentes (puces et logiciels enfouis). Leurs objectifs sont multiples :
  • multiplier par 5 la résolution des caméras des portables et diviser leurs prix par 10 ;
  • assurer toutes les fonctions d’un combiné avec une seule puce ;
  • développer des chips asynchrones qui consommeront 3 à 10 fois moins d’énergie…
Fig : Principales fonctions d’un micro-système. Tendances énergétiques.Car l’autonomie des sources d’alimentation des objets communicants et la gestion de cette énergie constituent aujourd’hui encore une barrière à leur développement. Si un tag RFID ou un pacemaker ne consomme que 10 µW, on atteint 100 µW avec un capteur sans fil, 10 mW avec un récepteur bluetooth et 100 mW avec MP3 ou un PDA. En fait, il faut prendre en compte leurs taux d’utilisation. Par exemple, si on compte 6 acquisitions / heure pour un capteur, la consommation journalière ne dépassera pas … 2 µWh/j.De multiples pistes sont suivies par les laboratoires comme le Leti, Minatec ou l’Institut Carnot CEA-Leti. Par exemple, les vibrations qui sont en effet susceptibles de fournir une densité de puissance maximale de 10 µW/gramme de masse résistante ou les déformations (1,21 J/g de polymère diélectrique). Autre source d’énergie « gratuite », la thermoélectricité, y compris la chaleur dégagée par un corps humain qui rayonne 50 W. À base de nano-fils de SiGe qui pourraient être intégrés dans les doublures des vêtements, elle offrirait un rendement de 50µW/cm2 – 0,5V. Des nano-fils et des nano-cristaux qu’on pourrait aussi retrouver dans les micro-cellules solaires (100 µW/cm2, en intérieur). Le domaine du stockage fait également appel aux microotechnologies. En haut : principe d’une micro-pile à combustible (hydrogène) dotée d’électrodes nano-structurées.En bas : les micro-batteries à films minces 3D sont plus spécialement dédiées à la RFID.Qu’il s’agisse des micro-batteries à films minces 3D (10 µm d’épaisseur) dotées d’électrodes nano-structurées plus spécialement dédiées à la RFID ou des micro-piles à combustible (hydrogène) sur substrats en silicium (électrodes nano-structurées et nano-catalyseurs). Ces micropiles, d’une puissance allant de quelques milliwatts à 10 W, associées à une cartouche de combustible peuvent fonctionner deux à trois fois plus longtemps qu’une batterie au lithium. En effet, la densité d’énergie massique accessible est voisine aujourd’hui d’une batterie lithium ion et sera dans un futur proche de 500 Wh/kg contre 200 Wh/kg aujourd’hui. Dans le cas de terminaux sans fil, des systèmes hybrides micropac/batteries au lithium sont nécessaires, la batterie lithium assurant les pics de puissance et la micropac, l’autonomie. Manifestement, les microstructures semblent constituer une voie particulièrement prometteuse.

Le premier réseau à 40 Gb/s

Le réseau déployé en 2007 dans le cadre du projet Carriocas (Calcul réparti sur réseau internet optique à capacité surmultipliée),piloté par Alcatel-Lucent et dont la performance vient d’être portée à 40 Gb/s, est le premier réseau à ultra haut débit multipoint. En se connectant à distance, les utilisateurs de ce réseau expérimental pourront accéder à de très gros volumes de données et ainsi réaliser des avancées majeures dans un nouvel environnement de travail collaboratif, notamment dans le domaine de la simulation et du calcul numérique à hautes performances. Les utilisateurs de ce réseau, dont la gestion et l’opération sont coordonnées par France Telecom Orange Labs, pourront par ailleurs visualiser et exploiter les résultats au moyen d’un mur d’images de 23,9 millions de pixels et mesurant 5,6 m de haut sur 3,1 m de large. Deux liens optiques véhiculant chacun une longueur d’onde à 40 Gb/s ont été déployés. Le premier entre Clamart (centre R&D de EDF) et Saclay (Institut de Recherches sur les lois Fondamentales de l’Univers du CEA). Le second entre Saclay et Bruyères-le-Châtel avec le centre de calcul Ter@tec qui héberge les supercalculateurs du CEA. Le site d’Orsay avec le Laboratoire de l’Accélérateur Linéaire (LAL) de l’Université Paris-Sud/CNRS est de son côté relié à Clamart et à Bruyères le Châtel via 4 longueurs d’onde à 10 Gb/s. Les transpondeurs optiques à 40 Gb/s déployés sont des éléments conçus, assemblés et testés par Alcatel-Lucent. Ils ont été optimisés à la fois en termes de performance, de transmission (c’est-à-dire compatible avec desdistances supérieures à 1000 km), de coût, d’encombrement et de consommation énergétique. De plus, ils sont intégrés dans les plate-formes initialement prévues pour la transmission à 10 Gb/s, ce qui a permis d’augmenter le débit sans modification des systèmes préalablement déployés tout en utilisant les fibres existantes du réseau de France Telecom.Fig : Mur d’images de 23,9 Mpixels (5,6 × 3,1 m).Les prototypes validés dans le cadre du projet vont donner lieu très rapidement à une version commerciale. D’ores et déjà, des opérateurs télécoms de premier plan demandent dans leurs appels d’offres ce type de transpondeurs capables de concentrer 4 trains à 10 Gb/s sur une longueur d’onde unique à 40 Gb/s.

Téléphones mobiles : le NFC pour tous

Utiliser son téléphone mobile comme moyen de paiement (billettique, achat ou rechargement de titres de transport…), c’est l’une des applications possibles de la technologie NFC (Near Field Communication). Twinlinx développe une solution technologique qui ajoute des applications NFC à n’importe quel mobile existant.La technologie NFC (Near Field Communication) offre bien des possibilités : couponing, contrôle d’accès, lecture d’informations en approchant un mobile d’étiquettes électroniques disposées dans la rue, sur des affiches, sur des colis ou dans des abris bus, échange de cartes de visite, de photos ou de vidéos… Mais les prévisions les plus optimistes prévoient que seulement 15% des mobiles seront dotés de cette fonctionnalité en… 2012 ! Qu’importe : avec le système développé par la société aixoise Twinlinx, le NFC devient accessible avec n’importe quel mobile existant sur le marché et ne nécessite pas la mise en place de standard ou/et d’accords entre les différents acteurs du marché NFC pour être opérationnel.Tel est l’objet du projet « Blu Link 2008 » supporté par le pôle de compétitivité mondial SCS, qui a réuni les entreprises Twinlinx (porteur du projet), Smart Packaging Solutions et Mobile Distillery, ainsi que le laboratoire IM2NP, la RATP et Amadeus étant les premiers expérimentateurs.La solution Blu Link 2008 consiste en une plate-forme NFC incluant matériel, logiciel et puces basés sur le concept d’autocollant électronique, NFC utilisant le bluetooth pour créer la connexion avec le téléphone. Le tag joue le rôle d’interface entre la technologie NFC présente sur des terminaux applicatifs sans contact et un téléphone bluetooth. Pour probablement moins de 20 euros, le téléphone portable « classique » devient alors un compagnon intelligent sans-contact.Fig : Un minuscule autocollant ajoute la fonction NFC à un portable bluetooth.Cet autocollant de petite dimension (inférieur à 3 x 4 cm pour une épaisseur de l’ordre du millimètre) est apposé à l’extérieur du téléphone. La fonction NFC, indépendante de la carte SIM, est ainsi activée et devient alors immédiatement disponible sur tout téléphone bluetooth. Avec un « plus » : cette solution est compatible avec tous les systèmes utilisant les cartes sans contact dans le monde.

Communication entre calculateurs : l’approche “tout électronique”

Combien de fois n’a-t-on pas entendu dire lors de colloques que “le logiciel est noble tandis que le “hardware” – la quincaillerie – en un autre mot : l’électronique pure, est sujet d’arrière-garde! L’initiative d’une start-up – Arion Entreprise – en développant sans doute le concept le plus innovant actuellement dans le monde de la transmission/communication de données temps réel entre calculateurs, prend à contre-pied cette assertion désuète. En effet, la technologie originale Arion prône le “tout électronique” pour suppléer aux limites actuelles du “tout logiciel” dans les applications de communication de données/voix temps réel (informatique industrielle – contrôle de process – automatisme – réseaux Ethernet et autres – interconnexion temps réel 1 Gigabits multiprotocole – streaming vidéo/broadcast – télécom…).

“Il ressort à l’évidence des études de marché de ces dernières années que les mondes de l’informatique et de l’électronique sont en pleine phase de mutation”, commente Renaud Mesnager, Président-cofondateur d’Arion Entreprise. “L’informatique s’est développée sans retenue depuis plus de 20 ans. Confer la loi Moore! Aujourd’hui, grâce aux progrès de l’intégration des composants, les fabricants de semi-conducteurs peuvent mettre sur le marché des composants configurables dont la taille et les capacités combinatoires rivalisent largement avec ce qui est possible de faire avec les logiciels – par exemple le contrôle de process – et avec des performances temporelles et une sûreté de fonctionnement très supérieures à ce que l’informatique peut proposer. Notre démarche s’inscrit sur cette mutation”.

Dans les solutions traditionnelles, l’indépendance de l’application par rapport à la communication est assurée par un ensemble de services logiciels appelé “structure d’accueil”. Cette indépendance est acquise au prix d’une charge CPU importante, et cela, au détriment de l’application. Dans la solution Arion, la structure d’accueil et les protocoles de communication sont traités au niveau matériel et libèrent la puissance CPU.Ainsi, le composant Arion (100 ou 1000 kbits/sec Ethernet) avec sa seule électronique est mille fois plus rapide et sûr que les logiciels classiques. En effet, jusqu’à présent, les échanges de données entre calculateurs ou entre un calculateur et son environnement physique étaient réalisés par des logiciels exécutés par le processeur principal sous la conduite de “l’operating system” (OS). Ce qui pénalisait grandement et inéluctablement les performances de ce processeur dit aussi unité centrale.La technologie brevetée Arion simplifie tout cela en offrant uniquement par son seul composant le transfert direct d’informations entre les mémoires des calculateurs ou entre la mémoire d’un calculateur et ses entrées-sorties, et cela sans déranger le processeur principal. En conséquence cette technologie assure une rapidité d’échanges d’informations et une sûreté du fonctionnement très supérieures dans des systèmes où l’erreur n’est pas permise.

Ethernet à 1Gbits/sec

Récemment, Arion Entreprise a annoncé une évolution importante de son offre marquée par une montée en puissance de sa gamme avec :

  • Arion-1000 (version Ethernet 1 Giga de ce composant dont la caractéristique technique repose essentiellement sur une modification de sa structure interne [brevetée] lui permettant de supporter et gérer de hauts débits [1 Gigabits/sec.]) ;
  • Arion-I/O : module de gestion/contrôle d’Entrées/Sorties (version automate distribuée temps réel) ;
  • AgoraCom : un switch déterministe 1 Gigabits, multiprotocole et multiréseau qui est une véritable passerelle universelle entre divers réseaux… Une offre unique sur le marché international des outils de commutation multiprotocoles/multiréseaux ultra rapide (Ethernet à 1 Gbits/sec!).