Le bâtiment basse consommation est déjà une réalité

Parmi les 1 100 projets de bâtiments démonstrateurs aidés représentant une surface totale de 850 000 m2 shon (surface hors œuvre nette), 60 % concernent le résidentiel (maisons individuelles et logements collectifs) et 40 % le tertiaire (bureaux, santé, hébergement…). Les enseignements de ces démonstrateurs permettent de diffuser largement les meilleures solutions et les techniques d’optimisation auprès de tous les professionnels du bâtiment, notamment dans la construction neuve, qui représente 80 % des projets.

Pour être lauréat du PREBAT, un bâtiment démonstrateur doit présenter les niveaux de performances énergétiques suivantes :

  • pour le secteur résidentiel : niveau du label BBC, soit 50 kWh /an/ m2 en moyenne pour le chauffage, l’eau chaude, le rafraichissement, la ventilation, les auxiliaires de chauffage, l’éclairage dans le neuf et un niveau du label BBC, soit 80 kWh/m2/an en moyenne, en réhabilitation ;
  • pour le secteur tertiaire : une réduction de la consommation d’énergie de 50 % par rapport à la réglementation dans le neuf et une réduction de la consommation d’énergie de 40 % par rapport à la réglementation en réhabilitation.

Un surcoût de 10 à 15 % compensé par des économies d’énergie

L’expertise des 124 projets de construction neuve lauréats du PREBAT montre la faisabilité de la basse consommation à des coûts maîtrisés, voire sans surcoût pour une dizaine de bâtiments du tertiaire et du résidentiel collectif. Ainsi, 85 % des projets renseignés affichent un coût de travaux inférieur à 2.000 euros/m2 et 60 % un coût inférieur à 1 500 euros HT/m2 shon. Plusieurs projets du résidentiel collectif et du tertiaire se trouvent même sous la barre des 1 200 euros HT/m2 shon, coût moyen observé en construction neuve dans ce secteur. Le projet de construction de logements collectifs « Minima Domus » dans le Doubs (16 logements locatifs sociaux répartis en deux bâtiments, chacun comprenant 4 T3 et 4 T4, le tout pour 1 394 m2 de surface habitable) prévoit même une consommation énergétique prévisionnelle de 54,10 kWhep/m2/an (niveau du label BBC Effinergie dans cette zone climatique : 60 kWhep/m2/an) pour une coût des travaux de 938 euros HT/m2 shon. Les bâtiments sont compacts (pour limiter les pertes de chaleur), et orientés de façon à optimiser les apports solaires et la luminosité. Les principales caractéristiques de ce projet sont : une isolation extérieure de l’enveloppe, des menuiseries PVC avec double vitrage, une bonne perméabilité à l’air (égale à 1), une chaudière gaz à condensation collective et le choix du solaire pour l’eau chaude sanitaire.

Si la construction d’un bâtiment BBC représente encore un surcoût de l’ordre de 10 % à 15 %, celui-ci doit être mis au regard des économies d’énergie réalisées sur la durée de vie du bâtiment (consommations d’énergie divisées par deux par rapport à un bâtiment respectant la réglementation). L’application de la RT2012 aux bâtiments tertiaires et publics, dès la fin 2011, devrait, par ailleurs, stimuler l’offre de produits et de technologies et faire baisser les coûts.

Une combinaison de techniques déjà disponibles

Toutes les filières constructives sont représentées dans les 124 projets de bâtiments démonstrateurs expertisés avec un recours à des techniques classiques ou en développement :

  • un mode de chauffage performant : pompes à chaleur (45 % des maisons individuelles et 40 % des projets tertiaires), chaudière gaz à condensation (55 % des projets résidentiels), poêle ou chaudière au bois (40 % des maisons individuelles) ;
  • des besoins de chauffage fortement réduits grâce à une isolation renforcée de l’enveloppe (murs et toitures), un recours croissant à l’isolation par l’extérieur (55 % des projets) et au triple vitrage (18 % des projets, zone climatique H1) ;
  • une bonne étanchéité à l’air de l’enveloppe (inférieure ou égale à 1 pour 50 % des projets) ;
  • une ventilation améliorée (Hygro B) et en particulier une ventilation double flux (90 % des projets dans le tertiaire et 45 % des projets dans le résidentiel) ;
  • l’utilisation de matériaux renouvelables (ouate de cellulose, fibres de bois) dans plus de 20 % des projets ;
  • une très forte utilisation des énergies renouvelables (présentes dans 90 % des projets) et notamment du solaire thermique, devenu incontournable pour l’eau chaude sanitaire dans le résidentiel (90 % des projets résidentiels). Le solaire photovoltaïque est de plus en plus utilisé (35 % des projets), notamment dans le tertiaire (55 % des projets).

Un facteur important de succès réside dans la phase de conception et notamment le travail en partenariat entre l’architecte et un bureau d’études énergétiques qui favorise une meilleure maîtrise des coûts (optimisation de l’implantation et de l’orientation du bâtiment).

Vers une génération de démonstrateurs

Au total, près de 1 500 bâtiments sont attendus fin 2010. Tous les projets respectent les exigences du BBC, une douzaine de bâtiments étant même à énergie positive. Un suivi des consommations et performances des bâtiments livrés est, par ailleurs, réalisé dans plusieurs régions afin de mesurer la rentabilité des démonstrateurs et les actions correctives éventuelles à apporter.

La nouvelle phase du programme sur les bâtiments démonstrateurs (2010-2012) aura pour objectif de travailler sur les bâtiments réhabilités ou neufs à très haute performance énergétique ou à énergie positive et les procédés techniques permettant d’en réduire les coûts. Des études socio-économiques et sociologiques facilitant la mise en œuvre des mesures de maîtrise de l’énergie seront également menées.

Par Marc Chabreuil

 

« Réduire la distance entre le monde des écoles et le monde des universités »

Claude Maury est délégué général du Comité d’études sur les formations d’ingénieurs (cf. encadré).

Techniques de l’ingénieur : La formation des ingénieurs vous paraît-elle adaptée ?

Claude Maury : Il me semble que oui, et plusieurs indications vont dans ce sens. Même si c’est momentanément plus difficile, on constate d’abord que l’insertion dans le monde du travail a toujours été bonne ces dernières années, et supérieure en tout cas à celle des autres filières. On perçoit en second lieu que les écoles font en continu des efforts pour ajuster la formation aux demandes des entreprises. Un sujet d’actualité, et en même temps d’avenir, comme le développement durable, suscite des réponses au niveau des écoles, qui témoignent de tout le bénéfice qu’elles tirent d’une forte autonomie, mais d’autres exemples de cette réactivité pourraient être donnés.

Quelles sont les grandes tendances qui touchent la formation des ingénieurs ?

Dans le contexte économique actuel de faible croissance, certains secteurs font valoir des besoins, comme en particulier l’énergie et le nucléaire, mais toutes les branches font un lien fort entre leurs espérances de développement et leur recrutement d’ingénieurs, comme par exemple l’ingénierie. Par ailleurs, depuis 2003, les écoles portent une attention nouvelle à l’approche compétence, qui implique de mieux expliciter les attentes concrètes des entreprises vis à vis des ingénieurs en début de carrière. A ce titre, il apparaît par exemple, nécessaire de développer plus d’aptitudes en communication ou en gestion des risques. Autre tendance notable, l’apprentissage se développe. Cela ne concerne plus seulement le Cesi ou les formations dites partenariales, mais aussi les formations traditionnelles.

L’ouverture internationale, qui n’est pas une nouveauté, se traduit désormais par un développement de doubles diplômes. Beaucoup d’efforts sont faits avec la Chine, essentiellement pour attirer des étudiants chinois. Mais on peut relever que L’Ecole Centrale s’est implantée à Pékin, avec l’ambition d’exporter le modèle français, en conservant, avec quelques adaptations, la vision d’un ingénieur généraliste avec une très forte formation scientifique ouverte sur de nombreux champs.

Les écoles françaises ont-elles une taille insuffisante ?

La taille peut constituer un problème dès lors que les écoles françaises, même en ayant beaucoup grossi, ne sont pas intégrées dans des ensembles aussi vastes qu’à l’étranger, ce qui a des conséquences en termes de visibilité. La politique conduite actuellement au plan national vise à corriger ce handicap par la création des pôles de recherche et d’enseignement supérieur (PRES). C’est un mouvement qui prend des formes variables selon les régions, avec des vitesses de mise en œuvre différentes.

Les grandes écoles d’ingénieurs sont-elles reconnues à l’international ?

On entend souvent dire que les écoles d’ingénieurs françaises sont peu connues, mais je ne partage pas ce jugement un peu rapide. Les écoles françaises ont beaucoup de relations avec leurs homologues étrangers et n’ont pas de problèmes de considération. L’école Polytechnique ou encore l’ENS sont parfaitement connues et reconnues à Boston comme à Tokyo. Malgré le handicap du changement de nom (SupAéro devenue ISAE) toute l’aéronautique mondiale sait qu’il y a à Toulouse l’une des meilleures formations mondiales…

Le système des grandes écoles, spécificité française, va-t-il disparaître ?

La politique menée actuellement au niveau du gouvernement vise indiscutablement à réduire la distance entre le monde des écoles et le monde des universités, mais non à réaliser une absorption où tout le monde serait perdant. C’est un processus lent, qui aura des répercussions dans les prochaines années. Le paysage est en train de changer, dans les structures, mais aussi dans les têtes.

Dans la pratique, l’opposition que l’on se plaît à souligner entre deux modèles, n’est pas forcément simple à identifier sur le terrain, car beaucoup d’écoles sont intégrées dans des universités ou possèdent même des structures d’université. Les doctorats, pour prendre une illustration particulièrement frappante, sont désormais décernés par des écoles doctorales fédératrices d’équipes d’écoles et universités. D’autres évolutions sont en cours sans que l’on en ait forcément conscience. Ainsi, les universités sont encouragées afin de rénover les licences, à développer des classes préparatoires. La nouvelle université de Strasbourg envisageait à sa création de mettre en place des cycles privilégiés reprenant le modèle des écoles avec prépa intégrée. Sur un autre plan, il est difficile de savoir si Dauphine est une université, ce qui est vrai nominalement, ou une école, ce qui est vrai par rapport à son mode de fonctionnement. Les modèles évoluent et on ressent clairement la vanité de rester dans des schémas fermés d’opposition. Nous n’avons pas conscience par exemple du fait qu’un quart des ingénieurs diplômés français sort d’universités de technologie proches du modèle allemand, comme les Insa, les universités technologiques ou les instituts polytechniques nationaux. Un modèle qui me semble intéressant est celui dans lequel des grandes écoles seraient intégrées dans le périmètre d’universités pour devenir le fleuron de leur patrimoine. Après tout, c’est en gros le schéma de l’université de Harvard…

Faut-il s’attendre à des fusions d’écoles ?

Il y a eu ces dernières années de nombreuses fusions, en particulier pour les écoles universitaires qui ont donné naissance aux Polytechs, aujourd’hui bien identifiés. On perçoit aujourd’hui l’intérêt pour des rapprochements, comme par exemple l’alliance qui se construit entre Supélec et Centrale, ou le rattachement des écoles des Mines et des Télécoms à une structure administrative unique. On ne peut écarter des schémas de fusion, mais à l’évidence un certain pragmatisme s’impose et personne ne veut aller trop vite… A Marseille, dans un autre contexte, la fusion de trois écoles, deux universitaires et l’une consulaire, a fait émerger Centrale Marseille, et créé une dynamique intéressante à l’opposé des traditions de dispersion.

L’augmentation du nombre d’ingénieurs va-t-elle se poursuivre ?

J’en doute fort, pour de simples raisons démographiques. Les écoles trouvent leurs candidats au sein de la filière scientifique du secondaire, qui est aujourd’hui en flux quasi-stabilisée. Il est peu probable que puissent se maintenir des croissances étonnamment fortes de 3 à 4 % alors que le vivier primaire ne change plus. On va ainsi certainement arriver à un palier, ce qui semble cohérent avec les capacités d’absorption du marché de l’emploi.

Propos recueillis par Corentine Gasquet

Parcours

Diplômé de l’Ecole polytechnique (promotion 1961) et de l’Ecole des Mines (promotion 1964), Claude Maury est délégué général du Cefi (Comité d’études sur les formations d’ingénieurs). Ancien directeur technique de l’Ecole des Mines de Nancy (1967-1973), il a été responsable des écoles d’ingénieurs au ministère de l’Industrie (1973 -1978) puis directeur des relations extérieures de l’Ecole Polytechnique (1988 – 1994). Il est auteur de nombreux études et rapports.

Le site Emploi des Editions Techniques de l’ingénieur : emploi.techniques-ingenieur.fr

Instantanés Techniques enfin online !

La revue de référence des Techniques de l’Ingénieur, Instantanés Techniques, passe sur le Web ! Avec cette nouvelle version online, découvrez des contenus toujours plus d’actualité. Au jour le jour, cet espace du portail Techniques de l’Ingénieur, vous permet de rester alerté des dernières tendances, innovations et nouveaux produits pour l’industrie.

Pour en savoir plus, cliquez-ici
 

En tant qu’abonné
Vous accédez à la totalité des articles de la revue sur le site ;Et vous retrouvez les thèmes que vous avez découverts dans la revue papier :
  • Génie industriel
  • Électronique informatique télécom
  • Chimie
  • Matériaux
  • Mécanique électrotechnique
  • Mesure analyse informatique industrielle
  • Énergie – Environnement
Les cahiers
Vous bénéficiez également, chaque mois, d’un cahier spécial proposé par la rédaction. Vous y retrouvez :
  • Des articles de types : Vite s’informer, Produits, Comprendre, Evaluer, In situ, Agenda ;
  • Deux ou trois articles de fonds pour comprendre des innovations incontournables.
La tribune de l’expert
Chaque semaine et en fonction de l’actualité, découvrez aussi le billet d’humeur de l’expert du moment : coaching de carrière, stratégie générale, perception de l’actualité.

Les alertes
Enfin, vous sélectionnez vos alertes e-mail thématiques ou vous vous abonnez aux flux RSS de votre choix.Notre équipe de journalistes, intégrée à la rédaction des Techniques de l’Ingénieur, travaille avec la même charte de qualité : les informations sont sélectionnées et validées avant de les diffuser.
Pour en savoir plus, cliquez-ici

Un projet pilote de stockage d’énergie renouvelable choisit la technologie Li-ion

Cette année, le Department of Energy (DOE) a accordé 4,3 millions de dollars au projet pilote photovoltaïque de SMUD (Sacramento Municipal Utility District), fournisseur d’électricité pour la ville de Sacramento (Etats-Unis), qui sera conduit sur la commune d’Anatolia, III, une commune à très forte pénétration de systèmes photovoltaïques. L’objectif, sur 2 ans, est d’analyser la valeur de la production photovoltaïque distribuée, couplée avec un stockage d’énergie, dans 15 habitations et sur trois sites.Le projet permettra d’évaluer le système photovoltaïque ainsi que la capacité de stockage d’énergie et de déterminer la performance des systèmes de stockage pendant les périodes de forte demande. SMUD bénéficiera ainsi d’un retour d’expérience important concernant la faisabilité technique et économique de l’utilisation du stockage distribué en vue d’un développement plus important du photovoltaïque sur le  territoire qu’il dessert.Dans ce cadre, des batteries lithium-ion de Saft ont été sélectionnées. Elles assureront le stockage de l’électricité générée par les panneaux solaires et serviront d’appoint durant les périodes de « super-pointe » de SMUD de 16h à 19h, en particulier après 17h, lorsque la production des panneaux photovoltaïques décroit rapidement. La technologie Li-ion est apparue comme la seule susceptible d’offrir une batterie avec une durée de vie de 20 ans dans des conditions environnementales exigeantes.

Une capacité de stockage de 9 kWh

Les batteries Li-ion haute densité de Saft seront intégrées dans un dispositif de stockage d’énergie renouvelable de 5 kW fourni par Silent Power pour stocker l’énergie excédentaire produite par l’installation photovoltaïque résidentielle. Constituée de modules compacts sans entretien, elles offriront une capacité de stockage de 9 kWh.La conception modulaire des batteries Li-ion de Saft  présente un certain nombre de caractéristiques importantes pour le programme pilote de SMUD, notamment une excellente capacité de cyclage, une longue durée de vie et une plate-forme intelligente d’auto-diagnostic. Elles offrent  une haute densité énergétique, un temps de réponse de l’ordre de la milliseconde et une puissance élevée,  aussi bien en charge qu’en décharge. En outre, ces batteries fournissent des informations précises sur l’état de charge de la batterie (state-of-charge, SOC), qui est une fonction vitale dans le fonctionnement d’un système de stockage d’énergie dynamique.Le projet, d’un montant total de 5,9 millions de dollars, constitue un levier pour le programme « SolarSmart Homesâ » de la commune « Anatolia III » qui cherche à s’associer avec de nouveaux promoteurs pour fournir aux futurs propriétaires des maisons économes en énergie équipées de systèmes photovoltaïques en toiture. Les autres partenaires associés sont GridPoint, National Renewable Energy Laboratory (NREL), Navigant Consulting, Silent Power, SunPower et VPT Energy Systems.

Renault pilote la qualité de son informatique

Satisfaire 70.000 utilisateurs de métiers très différents aux quatre coins du monde avec des services informatiques adaptés et de qualité, ce n’est pas une mince affaire. Réorganiser ces services en profondeur, c’est un pari risqué. La DSI de Renault a pris ce risque à la mi-2006, en transférant une partie des services liés aux postes de travail, aux développements applicatifs et à la production, à des partenaires externes. Et elle s’est vue confrontée à la grogne de ses utilisateurs. Mais où commencer et où investir le plus d’efforts pour une amélioration rapide et durable des services, une amélioration ressentie par les utilisateurs ? L’étude annuelle de satisfaction des utilisateurs ne donnait guère de réponses à ces questions. Elle ne permettait pas d’évaluer assez rapidement les effets des mesures de redressement, pas plus que de saisir des signaux faibles dans le temps mais susceptibles de fournir des alertes avant qu’une situation ne se dégrade.Le comité de direction informatique de Renault mandate alors son chef de service « Transformation des processus et usages » de l’époque, Gérard Miniscloux, pour trouver une solution sur le marché, permettant d’avoir une visibilité plus continue de l’évolution de la satisfaction de ses utilisateurs. « Il me fallait trouver une solution, rapidement opérationnelle, de mesure en continu, qui fournisse des alertes argumentées » se souvient Gérard Miniscloux. « Suite à un appel d’offre, nous avons choisi PEPS (Probance Execution Performances) de Probance face à une grande société indienne, leader en Business Processes Management. Pour un même niveau de prix, la proposition de Probance était bien plus performante. » Aujourd’hui, Gaëtan Delpierre, Directeur de la Qualité au sein de la DSI de Renault, met en place les méthodes et outils pour garantir un niveau de service satisfaisant aux utilisateurs. « Avec l’aide de PEPS, nous avons pu, en deux ans et demi, diviser par trois le nombre d’utilisateurs très insatisfaits et multiplier par deux le nombre de très satisfaits. Autant dire que l’outil  PEPS est devenu incontournable pour nous en suivant nos 70.000 utilisateurs, répartis sur un grand nombre de sites à travers le monde. »

Réagir très rapidement aux premiers signaux de changement
C’est justement dans ce niveau de chiffres que les méthodes statistiques incorporées dans PEPS se montrent les plus efficaces et pertinentes. Le logiciel constitue un échantillon d’environ 1% des utilisateurs à sonder chaque jour. Ainsi, chaque utilisateur est sollicité dans une enquête de satisfaction environ 2 fois par an. « Avec ces mesures en continu, nous pouvons réagir très rapidement aux premiers signaux de changement, ce qui nous permet de maintenir la trajectoire vers nos objectifs », explique Gaëtan Delpierre. « PEPS nous donne des indicateurs très fiables, non seulement pour la globalité de l’informatique du groupe Renault, mais aussi site par site. Ainsi, les 80 responsables de nos sites ont un outil à leur disposition pour améliorer la qualité de leurs services et animer leurs relations avec les patrons de métiers sur leur site. » Maintenant que les objectifs initiaux sont atteints et même largement dépassés, on pourrait imaginer que le projet a été mis en veilleuse. « Ce n’est pas le cas », affirme le Directeur de la Qualité. « D’abord les exigences montent, mais nous sommes aussi dans un environnement en changement permanent. A chaque introduction d’une nouveauté, nous devons vérifier la qualité de nos services et la qualité perçue par nos utilisateurs. Nous mesurons simultanément des indicateurs physiques, tels que le nombre de pannes, les temps de réponse, le nombre d’appels au help desk, etc. La corrélation de ces paramètres avec la qualité des services perçue par nos utilisateurs nous indique quand nous avons « fait assez » pour les satisfaire. Dans l’informatique on peut toujours faire plus, mais souvent les coûts montent exponentiellement pour chaque delta de performance et de qualité supplémentaire. PEPS nous aide garder les coûts de la qualité à un niveau raisonnable en nous permettant de concentrer nos efforts sur les leviers les plus importants. Nous l’avons d’ailleurs vivement conseillé à nos collègues de Nissan. »

Epuration de l’air intérieur par les plantes en questions

Le recours à certaines plantes pour améliorer la qualité de l’air intérieur fait actuellement l’objet d’une forte médiatisation et suscite une attente importante de la part du grand public. Plusieurs programmes de recherche français et étrangers ont montré que les plantes possédaient la faculté d’éliminer certains polluants présents dans l’air. Qu’en est-il de l’efficacité et de l’innocuité de ces dispositifs dans l’environnement intérieur ? L’ l’Observatoire de la qualité de l’air intérieur (OQAI), la Faculté de Pharmacie de Lille et l’ADEME ont récemment fait  le point sur les connaissances actuelles notamment acquises dans le cadre du programme français PHYTAIR lancé en 2004 à l’initiative de l’Ademe.

Le programme PHYTAIR a pour objectif de construire un protocole scientifique d’évaluation objective de l’épuration de l’air intérieur par les plantes. Il a pour ambition de déterminer la capacité d’épuration des plantes placées dans des conditions réalistes, tant au niveau de la concentration des polluants de l’air intérieur que sur le plan du volume d’air à dépolluer. Il s’intéresse également aux mécanismes biologiques et physiologiques mis en jeu dans les plantes étudiées, ainsi qu’à d’éventuelles applications de bio-surveillance végétale de la qualité de l’air dans les environnements intérieurs. Les recherches menées dans le cadre de PHYTAIR portent plus particulièrement sur trois gaz (formaldéhyde, benzène et monoxyde de carbone) qui sont fréquemment présentes dans les espaces clos.Le programme PHYTAIR se décompose en trois phases dont les thématiques de recherche sont bien déterminées :

  • PHYTAIR 1 (2004-2005) a montré les performances d’épuration, évaluées à de fortes concentrations (non représentatives des concentrations habituellement rencontrées dans les espaces clos), varient en fonction des plantes et des polluants. La capacité d’abattement des polluants par les plantes est plus importante pour le CO que pour le formaldéhyde et le benzène. Certains paramètres physico-chimiques et biologiques influent sur les performances observées ;
  • PHYTAIR 2 (2006-2008) : a permis d’élaborer une méthode standardisée pour tester les capacités d’absorption des végétaux et les effets physiologiques des polluants. En parallèle, une étude de bio-surveillance végétale a également été menée dans dix établissements scolaires et crèches du Nord- Pas-de-Calais ;
  • PHYTAIR 3 (2009-20..) :  cette troisième et dernière phase consiste à mettre au point une méthode d’évaluation de la capacité des plantes à réduire les concentrations de polluants dans les lieux clos pour le CO, le benzène et le formaldéhyde. Certaines substances émises par les plantes seront également caractérisées, ainsi que la contribution des plantes à une éventuelle contamination bactérienne et fongique de la pièce. Un outil numérique sera utilisé pour modéliser le comportement des polluants ; des essais in situ dans une pièce témoin de la maison expérimentale MARIA du CSTB compléteront les scénarios testés.

Efficacité des plantes en termes d’épuration

L’analyse de l’état actuel des recherches menées par les différents laboratoires en France et à l’étranger sur les capacités épuratrices des plantes permet de mettre en évidence un certain nombre de convergences sur les résultats obtenus. Des questions restent cependant encore en suspens. En l’état actuel des connaissances, les travaux de recherche menés permettent d’établir un premier consensus sur les propriétés épuratrices des plantes via notamment leurs substrats et d’identifier les questions qui restent encore en suspens.

Toutes les études montrent qu’en laboratoire, les plantes possèdent des capacités d’abattement avérées vis-à-vis de polluants gazeux tels que le monoxyde de carbone, les COV et le formaldéhyde, par exemple. Ces études en enceintes expérimentales sont réalisées à des concentrations supérieures à celles rencontrées dans l’air intérieur, sur des substances seules et pendant des durées limitées. Il apparaît que l’ensemble substrat/racine/plante possède une action plus efficace que la plante (feuille) seule, grâce aux micro-organismes du sol dont la présence est largement entretenue par les végétaux eux-mêmes.

Toutefois, les rendements d’épuration observés lors de l’utilisation de plantes en pot dans des espaces réels restent faibles, ne permettant pas une épuration efficace des volumes d’air des bâtiments. Les dispositifs « dynamiques », basés sur le passage forcé de l’air pollué à travers le substrat des plantes (systèmes de bio-filtration) semblent les plus prometteurs.

Encore beaucoup de questions en suspens

À l’heure actuelle, il reste difficile de dimensionner le nombre de plantes ou de systèmes dynamiques de biofiltration au mètre carré nécessaires à l’élimination efficace des polluants dans une pièce. Le programme français PHYTAIR à l’échéance de la phase 3, ainsi que les recherches en cours aux Etats-Unis, permettront d’apporter des réponses sur ces points. Une évaluation normalisée de l’efficacité et de l’innocuité des systèmes de phyto-remédiation est à mettre en place comme pour tous les types de systèmes proposés pour assainir l’air intérieur. Une norme AFNOR est actuellement en préparation en ce sens pour les épurateurs d’air autonomes pour applications tertiaires et résidentielles (XP B44-200). La maintenance des épurateurs d’air est capitale afin de conserver leur niveau de performance initiale. Elle demeure néanmoins un réel problème sur le plan pratique. Ces questionnements se posent également pour les systèmes de bio-filtration. L’éventuelle contribution des plantes elles-mêmes aux émissions de polluants à l’intérieur des locaux est encore peu étudiée. La biosurveillance végétale, c’est-à-dire l’utilisation des effets des polluants observés sur les plantes pour évaluer la toxicité de l’air, est un outil prometteur à développer dans le domaine de l’air intérieur. Elle pourrait constituer un indicateur de la qualité de l’air intérieur, en complément de l’utilisation des éventuelles propriétés épuratrices des plantes.

Femmes ingénieurs : la bataille n’est pas encore gagnée !

(Cet article a été initialement publié le 05/07/10 sur Maviepro.fr)En 1973, Anne Chopinet faisait la Une de l’actualité, porte-drapeau de Polytechnique lors du défilé du 14 juillet. Elle devenait ainsi le symbole de l’ouverture aux jeunes filles de la prestigieuse institution française mise en œuvre l’année précédente. Il était temps… Bientôt 40 ans après, l’univers de l’ingénieur demeure encore essentiellement masculin. Les femmes ne représentent que 17% des 700 000 ingénieurs français – 26% des moins de 30 ans, 3% seulement des 60 à 64 ans (source : enquête 2010 du CNISF, Conseil national des ingénieurs et scientifiques de France).Selon Gérard Duwat, responsable de l’Observatoire des Ingénieurs du CNISF, à l’origine d’une enquête sur l’ingénieur français rendue publique voici quelques jours, « la place des femmes progresse lentement mais régulièrement. L’époque n’est pas si lointaine en effet où leur représentation était proche de zéro… Le métier demeure cela dit très masculin, la faute aux mentalités, la faute à une image de l’ingénieur chantier casque sur la tête qui n’est pas des plus attractives pour les jeunes femmes. »

L’environnement, un domaine très féminisé
Deux activités détonnent pourtant : les sciences de la vie et la chimie qui accueillent respectivement 43% et 33% de femmes, très loin devant la mécanique productique et l’automatique électricité, mauvais élèves de la mixité avec 9 et 7%. Confirmation d’Yves Jayet, directeur du Centre diversité et réussite de l’Insa de Lyon, école d’ingénieurs post-bac en cinq ans accueillant chaque année 300 jeunes filles parmi un millier d’élèves entrants : « Nos spécialités en environnement et biochimie se sont très largement féminisées. » De quoi permettre à l’établissement d’afficher des taux de féminisation supérieurs à la moyenne nationale… « Nous avons beaucoup travaillé sur la représentation mentale de l’activité. Des femmes ingénieurs participent désormais systématiquement aux séminaires et autres présentations de leurs métiers à nos élèves. Nous représentons aussi davantage de femmes sur nos plaquettes et encourageons diverses opérations de marrainage. »

Salaires : les écarts diminuent, mais persistent
Autre constat, les femmes demeurent moins bien rémunérées, même si les écarts s’amenuisent. Le fameux « plafond de verre » tient bon. Selon Gérard Duwat du CNISF, « si les maternités expliquent en grande partie le fait que les femmes accèdent moins aux postes à responsabilité, cela ne justifie pas pour autant les différences de rémunérations constatées dès l’embauche… » Ainsi l’enquête CNISF révèle-t-elle des salaire médians de 33.000 euros chez les ingénieurs débutants, avec des écarts de 2,6% entre garçons et filles, et de 21% chez les 55-59 ans.A noter toutefois que ces écarts étaient respectivement de 7,5 et 27 % il y a deux ans. Un rééquilibrage en grande partie imputable aux politiques de diversité encouragées par les pouvoirs politiques et promues au sein des grandes entreprises. Aujourd’hui, l’embauche des femmes figure au premier rang des préoccupations des recruteurs. Juste devant les personnes handicapées et les minorités visibles…Par Antoine Teillet, journaliste du site Maviepro.fr (article initialement publié le 05/07/10)A lire aussi
  • L’énergie, seul secteur à dynamiser l’emploi des ingénieurs (à propos de l’enquête du CNISF)
  • « Les ingénieurs et les scientifiques ont un rôle moteur à jouer » (Interview de Julien Roitman, président du CNISF)

Les micronanosystèmes, l’un des axes prioritaires de l’IRT

Pour assurer notre progression dans les domaines de l’aéronautique, de l’espace et des systèmes embarqués, Toulouse-Midi-Pyrénées vient de créer l’Institut de Recherche Technologique (IRT). Sous la maîtrise du Pôle de Recherche et d’Enseignement Supérieur « Université de Toulouse », ce projet qui réunit des établissements publics de recherche, les universités, des grandes écoles scientifiques, des groupes industriels et des PME, s’appuie principalement sur le Pôle de compétitivité mondial Aerospace Valley et le Réseau Thématique de Recherche Avancée en Sciences et Technologies de l’Aéronautique et de l’Espace.

De nature à créer ou à maintenir 10.000 emplois dans ces domaines à Toulouse, ce projet concerne la création de 2 grandes plates-formes (micronanosystèmes et simulation numérique), le renforcement des laboratoires existants, la création de 150.000 m2 d’immobilier d’entreprises et un renforcement de la formation des ingénieurs, Masters et Docteurs dans ces domaines. Sur 10 ans, les dépenses sont évaluées à 1 milliard d’euros.

Les matériaux, la mécanique et le calcul intensif étant déjà prévus et financés dans le cadre de l’Espace Clément Ader sur la même localisation géographique, l’IRT devra identifier et développer des ruptures technologiques sur les systèmes d’information et de communication, les architectures des systèmes embarqués et les micronanosystèmes des avions, des satellites et des véhicules de demain.

Deux  approches complémentaires des nanosystèmes

L’élément fonctionnel de base d’un nanosystème peut être conçu comme un nano-objet individuel, comme une collectivité de nano-objets ou comme une structure indivisible faisant intervenir des propriétés ou effets liés à des phénomènes de nature nanométrique. Cette complexité implique les notions :

  • d’agencement, connexions, interactions entre les éléments fonctionnels de base ;
  • de complémentarité et compatibilité des éléments fonctionnels ;
  • de coordination, synchronisation, ordonnancement, supervision des fonctions élémentaires.

Deux approches complémentaires doivent être distinguées, l’une descendante (top-down), et l’autre montante (bottom-up). C’est la convergence de ces deux approches qui  permettra, d’une part, l’avancée des connaissances dans les domaines du contrôle des phénomènes intramoléculaires, des technologies atomiques, de la nanophysique, de la nanochimie et de la nanobiologie, et, d’autre part, le développement de nanosystèmes pour de nombreuses applications.

Une approche ascendante basée sur des techniques de miniaturisation ultime

Le développement de nouveaux systèmes embarqués communicants nécessite la conception de fonctions de base à des échelles toujours plus réduites. Ces fonctions, fabriquées aujourd’hui à partir de couches minces ou de processus lithographiques, devront être remplacées par de nouvelles technologies issues directement des avancées récentes en physique, chimie et sciences des matériaux.

L’objectif ultime est d’utiliser quelques atomes pour assurer des fonctions de calcul ou mémoire en utilisant leur capacité de stockage, de transfert d’électrons ou de manipulations d’états quantiques. La technologie associée fait intervenir la manipulation des atomes à l’unité en utilisant des techniques issues de la microscopie à effet tunnel. Stabilisées par la surface d’un semi-conducteur grand gap, ces fonctions pourront également être assurées en propre par des molécules de plus en plus complexe indépendamment de la surface support. Ces molécule-machines peuvent remplir des fonctions mécaniques (transmission du mouvement de l’échelle atomique à l’échelle mésoscopique), voiture moléculaire de transport ou des fonctions calculs comme des molécule-porte logiques.

Ces mêmes fonctions peuvent être assurées par des nano-objets résultant de l’assemblage de quelques dizaines à quelques dizaines de milliers d’atomes. Dans cette gamme de taille, on trouve la plupart des transitions entre propriétés quantiques et propriétés classiques du matériau massif. Cette transition dépend de la propriété considérée (1 à 10 nm pour la nano-électronique, 10 à 100 nm pour le magnétisme, 1 à 100 nm pour l’optique). Pour obtenir des résultats prévisibles et reproductibles il est nécessaire de disposer d’objets aux propriétés de taille, forme et surtout composition de surface parfaitement contrôlées.

L’introduction dès aujourd’hui de ces nano-objets dans les systèmes embarqués est possible si l’on maîtrise leur organisation par auto-assemblage. Des systèmes auto-organisés de nanoparticules peuvent conduire à des applications de type mémoire, capteurs ou plus généralement transducteurs. L’incorporation de molécules peut permettre d’accéder, même à cette échelle mésoscopique, à des effets mécaniques. Le matériau constituant ces objets peut être notamment un métal, un oxyde ou les différentes formes de carbone dont la plus emblématique est le nanotube.

L’échelle encore supérieure rejoint les avancées actuelles de la micro-électronique, que ce soient les couches minces utilisées par exemple dans les dernières M-RAM, les nanofils semi-conducteurs et les nanomatériaux dont on va chercher à exploiter les propriétés mécaniques, notamment pour l’aéronautique.En fonction de l’échelle considérée, de l’atome au matériau nano-structuré, il sera nécessaire de prévoir les équipements appropriés qui sont décrits ci-dessous. Notons qu’un certain nombre de problèmes se poseront de manière récurrente et trouveront des solutions qui dépendront de l’échelle, en premier lieu la connexion et le packaging pour lesquels des solutions innovantes devront être trouvées.

Une approche descendante basée sur la construction de molécule-machines

Les micro-nano dispositifs, associés aux processeurs pour assurer des fonctions de détection et d’actionnement, présentent une diversification en termes de fonctionnalité (convertir de l’énergie, générer, transmettre, ou bien recevoir des signaux optiques ou hyper fréquences, détecter ou actionner, analyser des gaz ou des substances chimiques ou biochimiques). Cette diversification fonctionnelle se retrouve bien évidemment en termes de conception et de réalisation. Leur fonctionnement est basé sur différents mécanismes physiques, parfois plusieurs pour le même dispositif, ce qui impose l’analyse et la compréhension de nouveaux mécanismes et une panoplie importante en termes de modèles. Suivant l’approche descendante, ils sont réalisés à partir de procédés de micro fabrication de surface ou de volume dont de nombreuses étapes sont issus de procédés de microélectronique mais qui font intervenir un grand éventail de technologies (dépôts, gravures ioniques) de matériaux spécifiques (magnétiques, diélectriques, piézoélectriques, ferroélectriques) permettant de leur conférer les fonctionnalités et les performances requises. Cette approche descendante s’articule autour d’une approche d’intégration fonctionnelle supportée par une intégration technologique basée sur des étapes de micro et nano fabrication spécifiques bien connue et admise dans la stratégie d’intégration de type « More than Moore« .

La construction d’une plate-forme de micronanocaractérisation des matériaux conduira à l’amélioration du potentiel tant de recherche que d’innovation grâce à la mutualisation d’outils de micronanocaractérisation de haut niveau et, du fait de l’unité de lieu, par les échanges formels ou informels entre chercheurs œuvrant sur des thématiques apparemment différentes.

Par Marc Chabreuil

Bilan des recherches scientifiques pour le stockage des déchets radioactifs

Chargée de développer des solutions de stockage et d’entreposage pour les déchets radioactifs, l’Agence nationale pour la gestion des déchets radioactifs (Andra) dispose d’une recherche de haut niveau dans de nombreux domaines. Au total, plus de 70 laboratoires participent aux recherches de l’Andra et, pour la période 2006-2009, l’ensemble des travaux scientifiques s’est traduit par 242 publications scientifiques internationales de rang A et la soutenance de 28 thèses de doctorat. Ses travaux scientifiques qui sont déclinés dans un programme scientifique pluriannuel et sont régulièrement évalués par des experts extérieurs, viennent de faire du rapport  « Bilan scientifique de la période 2006-2009 ».Pour Patrick Landais, directeur scientifique de l’Andra, « ce rapport est d’abord un bilan d’étape de toutes les études qui ont permis de préciser et de confirmer les résultats obtenus entre 1991 et 2005, notamment grâce aux expérimentations réalisées dans le Laboratoire souterrain situé en Meuse. Il met aussi en perspective la suite du processus qui conduira au dossier scientifique et technique que l’Andra produira en 2012 pour supporter la demande d’autorisation de création du futur stockage profond réversible, pour les déchets radioactifs HA (haute activité et MA-VL (moyenne activité – vie longue). »Parmi les points marquants de ce bilan de 4 années de recherches, on notera :

  • une image plus détaillée de la géologie de la zone étudiée en Meuse/Haute Marne grâce à l’exploitation des travaux de reconnaissance (sismique réflexion et 15 forages profonds) réalisés en 2007 – 2008. Elle a fourni les arguments scientifiques structurant la proposition, fin 2009, d’une zone de reconnaissance approfondie (ZIRA) de 30 km2 sur laquelle est menée depuis mai 2010 une campagne de sismique 3D pour aboutir à la localisation du stockage ;
  • la mise en place depuis 2007, en Meuse/Haute-Marne, d’un Observatoire Pérenne de l’Environnement, sans équivalent en France par ses échelles spatiales (plusieurs centaines de km2) et temporelles (une centaine d’années). Il ambitionne de réunir une importante communauté scientifique afin de développer des recherches notamment sur les cycles d’éléments chimiques dans les différents compartiments de la biosphère ou les conséquences de forçages d’origine anthropique ;
  • le développement de moyens expérimentaux capables de reproduire les conditions et les interactions complexes dans les ouvrages de stockage. Ainsi, les résultats des expériences concernant les interactions entre fer, verre et argiles attendues dans les alvéoles de stockage des déchets HA conduisent d’une part à évaluer plus précisément les vitesses de corrosion de l’acier et d’altération du verre. D’autre part, ils fournissent des données d’entrée indispensables à la modélisation des processus associés comme la production et la migration de l’hydrogène résultant de la corrosion des aciers. En parallèle, ces connaissances approfondies sont prises en compte pour optimiser la conception du stockage (en particulier la composition des matériaux) et dimensionner les infrastructures associées ;
  • une meilleure compréhension des phénomènes hydriques, chimiques, mécaniques et thermiques qui interviendront plus particulièrement au cours de la période d’exploitation réversible du stockage, puis pendant les quelques milliers d’années qui suivront sa fermeture ;
  • une estimation plus précise des vitesses de migration des radionucléides au sein des argilites du Callovo-Oxfordien, en particulier grâce à l’expérience de diffusion débutée au Laboratoire souterrain en 2005 et achevée en septembre 2009 et à une compréhension des mécanismes intimes mis en jeu ;
  • l’amélioration continue de la base de données thermodynamiques qui regroupe les paramètres de comportement des éléments chimiques en lien avec les conditions d’oxydoréduction, d’acidité et de température attendues dans le stockage ;
  • des évolutions logicielles et matérielles permettant d’accroître la précision de l’évaluation de performance du futur stockage profond : couplages multiphysiques (thermique, hydraulique-gaz, chimique, mécanique, transports de solutés), maillages de plus de 10 millions d’éléments en 2009 (contre 600 000 en 2005) ;
  • le développement, depuis 2008, d’actions de recherche en sciences humaines et sociales pour accompagner la définition concertée de la notion de réversibilité du stockage profond (avec organisation d’un colloque national sur ce thème en juin 2009).
Une part importante de ces résultats scientifiques repose sur l’exploitation des expérimentations réalisées en Laboratoire souterrain. En particulier, 11 d’entre elles ont été lancées depuis 2006 et ont conduit à tripler le nombre de capteurs installés (3 300 en 2009 contre 1 100 en 2005).Le bilan scientifique de l’Andra insiste également sur l’importance des partenariats et des collaborations avec d’autres organismes de recherche ou des institutions d’enseignement supérieur. Au cours de la période de référence, des accords ont été signés avec une dizaine de partenaires (BGS, BRGM, CEA, CNRS, INRIA, universités de Nancy, de Troyes…) d’autres ont été signés en 2010 (INRA, Sandia). En 2006-2007, en raison des problématiques qui sont au cœur d’un projet tel que le stockage réversible profond, l’Andra a également créé ou renouvelé des groupements de laboratoires, organisés dans un cadre pluridisciplinaire autour des thématiques centrales pour l’étude du stockage.

Se préparer à IPv6 et éviter le grand bug

IPv6, suis-je concerné ?
A force de crier aux loups depuis de nombreuses années sur le crash du nombre d’adresses IPv4 disponibles et sur la vague IPv6 imminente, de nombreuses entreprises et ingénieurs se sont démotivés et démobilisés. Cependant quel que soit le débat sur la date à laquelle les adresses actuelles IPv4 ne seront plus disponibles, il est scientifiquement indéniable que la fin de IPv4 va arriver d’ici deux à trois ans. Sachant que nous sommes de plus en plus dépendants d’Internet ou du tout IP, il est impératif de se préparer, en prenant au minimum quelques mesures simples, voire en testant ses services et applications, ce qui ne demande pas d’effort si complexes ni coûteux.

Se préparer à l’IPv6
“J’appelle les pays de l’UE à faire en sorte qu’IPv6 soit largement employé par les autorités publiques et les entreprises d’ici à 2010″, a déclaré  en 2008 Viviane Reding, alors membre de la Commission européenne, responsable de la société de l’information et des médias. Que faire ? La Commission européenne apporte quelques briques de réponses à travers une communication en date du 27 mai 2008 « Faire progresser l’Internet, Plan d’action pour le déploiement du protocole Internet IP version 6 (IPv6) en Europe » COM (2008)313. De nombreux programmes mondiaux aident les entreprises à se préparer. Ce mouvement est amplifié par une logique sécuritaire aux Etats-Unis et un besoin vital en Asie qui manque d’adresses. L’Europe semble en sommeil depuis plusieurs années et espérons que cela ne va pas conduire à des handicaps pour l’innovation à venir, notamment pour la construction du futur Internet et de l’Internet des objets. Plutôt que d’attendre des incitations des autorités publiques ou des opérateurs, pourquoi ne pas se prendre en main et minimiser les risques, voire anticiper pour mieux innover ?

Estimation de la date de fin d’adresses IANA et RIR depuis 2007 – Extrait du rapport IANA IPv4 address report, mai 2010
Vérifier ma préparation, mes services, mes produits
Pour vérifier sa conformité et même obtenir un logo « IPv6 ready », des documents, essais et autres outils gratuits sont disponibles en ligne grâce au programme IPv6 ready logo détaillé plus bas.Toutefois, pour une vérification plus poussée ou adaptée à des besoins spécifiques actuels ou à venir, il est aussi possible d’utiliser des plateformes de développement ouvertes et gratuites et d’obtenir des soutiens d’experts français actifs dans le groupe G6  (www.g6.asso.fr). Est-il nécessaire de tester où valider ses produits ou solutions IPv6 si j’intègre un module IPv6 déjà éprouvé ? Des événements d’interopérabilité sont organisés tous les ans dans le monde et mettent en évidence le besoin d’effectuer des vérifications finales avec d’autres produits. Depuis 2000, l’Etsi a organisé huit événements IPv6 dont le dernier en 2006 (www.v6summit.com). Il semble que l’Europe soit tombée en léthargie sur l’IPv6 depuis et il est sûrement temps de se réveiller.

L’approche mondiale de validation IPv6, le comité « IPv6 ready logo »
Le forum IPv6 (www.ipv6forum.com), programme IPv6 Ready logo, est un programme de conformité et d’interopérabilité démarré en 2003 et visant à donner la confiance aux utilisateurs en démontrant qu’IPv6 est disponible et prêt à l’usage. Les objectives du programme IPv6 Ready logo (v6LC) sont les suivants :
  • définir les essais de conformité et d’interopérabilité ;
  • vérifier la mise en œuvre du protocole et valider l’interopérabilité avec d’autres produits ;
  • fournir l’accès à des outils gratuits d’auto-certification ;
  • délivrer les logos du programme ;
  • établir un réseau de laboratoires d’essais IPv6 Ready logo dans le monde pouvant fournir assistance et services.
Le V6LC comporte des représentants des fournisseurs d’équipement, des fournisseurs de service, des établissements universitaires, des organismes IPv6, des membres du projet Tahi (Japon), de l’université New Hampshire (UNH-IOL, Etats-Unis), d’Irisa/Inria (France), de l’Etsi (Europe), de BII (Chine), de TTA (Corée,  laboratoires CHT-TL (Taiwan) ou encore de JATE (Japon).Commencé en 2003 avec une phase I délivrant un logo « silver » sur la conformité aux protocoles IPv6 de base, le programme s’est développé depuis en ajoutant en 2005 un programme « gold » et récemment un programme pour la conformité SIP ainsi que pour les fournisseurs d’accès ISP. Plus d’informations, documents et procédures peuvent être obtenues sur le site www.ipv6ready.org. 

Le projet européen GO4IT
Pour une validation d’IPv6 plus poussés ou pour de nouveaux besoins plus complexes comme par exemple sur les objets communicants, le programme IPv6 ready logo peut apparaître limité. Cela a conduit l’Etsi à spécifier de nouveau les essais IPv6 utilisant son approche méthodologique rigoureuse (méthodologie TTCN-3) surtout si les essais doivent s’inscrire dans les mêmes logiques que les essais des terminaux mobiles conformément aux spécifications 3GPP. 1, 5 million d’euros ont été investis dans ce travail et les spécifications sont gratuitement disponibles.En parallèle, afin de fournir en Europe une solution pragmatique et « gratuite » comme au Japon (à l’origine du projet Tahi, www.tahi.org, qui a servi  de base à l’IPv6 ready logo programme), la Commission européenne a soutenu le projet de recherche GO4IT pour plus d’un million d’euros de 2005 à 2008 (www.go4-it.eu). Le projet GO4IT fournit un environnement générique d’essais à prix réduit, des services associés, ainsi que les suites exécutables d’essai IPv6. Cette plateforme, du fait de la mise en œuvre d’approches méthodologiques standardisées qui ont fait leur preuve, pourrait permettre d’étendre facilement le champ d’application à d’autres protocoles au-dessus d’IPv6 comme ceux mis en œuvre dans les objets (par exemple 6lowpan), chose plus difficile dans des environnements pragmatiques plus fermés qui n’ont pas à l’origine été conçus dans une vision globale des essais plus larges.

Les nouveaux défis et besoins
La marche de la migration IPv4 vers IPv6 semble se faire à pas forcés dans certains pays ou au contraire à petits pas dans d’autres pays. Il faut rappeler qu’IPv6 entraînera une nouvelle architecture Internet dont l’objectif final est louable : éviter une pénurie des adresses IP et favoriser l’émergence de services innovants liés à l’Internet des objets. La Commission européenne recommande aux Etats membres de “rendre obligatoire” l’utilisation d’IPv6 dans le cadre des marchés publics, de sensibiliser les entreprises et les organisations et de les aider lors de la transition.Avec plus de 1,3 milliard de personnes connectées, Internet est à un tournant de son histoire. Ce chiffre devrait atteindre 2,5 milliards d’ici à cinq ans. Le manque d’adresses IPv4 limitera la croissance d’Internet. Seul l’IPv6 permettra l’augmentation du nombre d’adresses.Pour rappel, IPV6 favorise le développement d’applications Internet innovantes, notamment dans le cadre de la mise en réseau d’un très grand nombre d’appareils simples. A titre d’exemple, la gestion de l’éclairage public et des bâtiments intelligents pourrait être améliorée. L’Internet pourrait également servir à connecter entre eux, à peu de frais et de manière fiable, des capteurs sans fil intégrés à des appareils domestiques. Au Japon, l’entreprise NTT utilise ce protocole pour connecter des milliers de capteurs à un système informatique permettant de détecter les tremblements de terre et de prendre des mesures immédiates par Internet pour limiter les dommages éventuels (par exemple des alertes à toutes les chaînes de télévision ou une gestion automatique des feux de signalisation passant tous les feux au rouge). Ce type d’application requiert des millions d’adresses et ne peut fonctionner sur l’Internet d’aujourd’hui. Les entreprises européennes doivent tirer parti de ce mouvement mondial très prometteur. Mettre IPv6 dans des objets ne suffira pas, il faudra assurer encore plus la fiabilité et l’interopérabilité des objets pour que cela puisse fonctionner sinon on observera de-ci de-là des solutions prometteuses qui auront des déploiements limités alors que les enjeux sont mondiaux. Philippe Cousin est CEO eglobalmark et membre comité IPv6 Ready logo. Il a été directeur services d’interopérabilité Etsi, organisant plusieurs événements mondiaux d’interopérabilité IPv6, et directeur technique projet de recherche GO4IT sur une plateforme ouverte d’essais IPv6. Contact : [email protected]

Le géoguidage, une technologie inédite en robotique mobile

Dans l’usine de fabrication de verre trempé et feuilleté pour l’automobile de Saint-Gobain Sekurit France, à la fin du processus de production, les verres transformés en fonction des besoins du client final sont déposés sur des supports spécifiques. Ces supports chargés doivent être transportés vers un stock à partir duquel ils seront expédiés ou bien réintroduits dans les lignes de production pour une nouvelle étape de transformation.A proximité de ce stock d’expédition, se trouve un autre stock de supports de charge vides qui doivent être transportés vers les lignes de production. L’installation comprend deux circuits différents d’environ 2 km, un premier circuit pour les vitres latérales des voitures et un circuit pour les pare-brises (environ 3.000 m2 de stock sont gérés de façon autonome et  1.000 emplacements différents de prise et de dépose de marchandise). Huit chariots Balyo automatiques à grande capacité gèrent la totalité de ce cycle fermé, y compris la gestion du stock et la traçabilité pour les supports vides et pleins. L’originalité de cette application vient du fait qu’elle n’a exigé ni infrastructure, ni modification des installations dans l’usine. Même quand, en fonction des besoins  de la production, les parcours des chariots ont été changés. Le secret de cette flexibilité : le géoguidage.Traditionnellement, les opérations de manutention sont assurées par des chariots électriques manuels conduits par des caristes ou par des chariots automatiques ou AGV (Automatic Guided Vehicles), qui utilisent la technologie de guidage par fil ou par laser dont la navigation est dépendante de l’information apportée par une entité externe (balises, réflecteurs, fils enterrés…). Une troisième technologie – le géoguidage – ne nécessite aucune infrastructure particulière, réduisant par voie de conséquence les délais et les coût de mise en œuvre ainsi que la maintenance.De plus, comme le chariot détermine lui-même sa position, à la différence des technologies avec infrastructure, le géoguidage est insensible à  l’environnement:  il n’est pas nécessaire d’avoir un sol plat ou en parfait état, la  poussière ou la lumière ne perturbe pas les manutentions, la température et les changements brusques de celle-ci ne posent pas de problème, le chariot connaît également sa position à l’extérieur des bâtiments… La société Balyo est aujourd’hui le seul acteur de son marché à proposer des chariots automatiques pour le transport de palettes ne nécessitant l’installation d’aucune infrastructure. Nominée dans le cadre  du « Prix de la stratégie d’Entreprise » et des « Trophées de l’innovation » lors du salon CFIA de Rennes, elle propose des véhicules adaptés à toutes les étapes de manutention des secteurs d’activité industrielle et logistique : transferts entre convoyeurs, transferts entre palettisation et filmage, entre préparation de commandes vers expédition, évacuation des déchets, etc. « Notre objectif est de démocratiser l’usage du chariot automatique. Pour ce faire, il fallait inventer un système qui rendrait son usage aussi simple qu’un chariot de manutention électrique classique. La technologie de géoguidage que nous avons développée avec nos équipes nous permet de proposer aujourd’hui une nouvelle génération de chariots automatiques. Grâce au capteur, nous mémorisons le sol » explique Raul Bravo co-fondateur et gérant de Balyo qui assure que les utilisateurs augmentent leur productivité avec un retour sur investissement moyen de 12 mois.

Le chariot connait sa position de façon absolue
Le chariot Balyo calcule seul sa position et ses trajectoires, grâce à un logiciel de navigation et à la technologie du géoguidage qui ont demandé cinq ans de recherche et développement pour maîtriser le traitement des informations fournies par le détecteur qui mémorise le sol. Il connait ainsi sa position dans l’usine ou l’entrepôt de façon absolue, et pas de façon relative (par rapport à un élément installé dans l’atelier). Le logiciel de navigation installé à l’intérieur du robot lui permet de mémoriser dans le détail le plan de l’ensemble de l’atelier ou de l’entrepôt. Avec le plan de circulation et un point de départ fixe, le chariot est capable de calculer exactement son déplacement, et donc sa position réelle.Un ordinateur superviseur centralise toutes les informations en provenance des installations et est en contact continu avec les chariots par radio. Connecté aux automates de l’utilisateur, à un logiciel de gestion de la production ou bien à des boutons d’appel, il reçoit les ordres à transmettre aux AGV, gère la circulation entre les différents chariots, optimise les mouvements de ceux-ci en fonction de plusieurs paramètres (situation dans le circuit, priorités, type de chariot…), gère le stock de produits et traçabilité de l’ensemble des opérations réalisées et configure les chariots et le circuit à réaliser par ceux-ci.Une nouvelle mission peut être déclenchée de plusieurs façons :
  • interface machine : le système superviseur est connecté aux automates des machines du client, par exemple un palettiseur. En fonction de la machine et de l’information donnée par celle-ci, une demande d’appel est créée ;
  • bouton d’appel : plutôt qu’un système automatique, il s’agit dans ce cas d’un opérateur qui appuie sur un bouton pour faire appel au système AGV ; 
  • détecteur de présence palette : un capteur de présence palette peut être installé au sol ou en sortie d’un convoyeur.  Quand la palette est détectée, l’appel est déclenché. Un lecteur de codes à barres ou RFID peut-être incorporé, afin d’apporter plus d’information sur la marchandise (type de produit, ordre de fabrication…). Une alternative est la détection de la palette lors du passage du chariot à proximité.  Un scrutateur laser lui permet de savoir si une palette est disponible pour le transport ;
  • déclenchement horodaté : pour certaines applications, il peut être intéressant de déclencher l’appel à des intervalles de temps prédéfinis.

Eurocopter renforce la traçabilité de ses flux internes et externes

Dès 2007, Eurocopter, numéro 1 mondial sur les marchés civils et parapublics,  a souhaité mettre en place un système de « tracing » de tous ses flux logistiques externes. Plutôt que de choisir une solution sur mesure, l’entreprise s’est orientée vers une solution pouvant s’interfacer facilement avec SAP, le progiciel de gestion utilisé par le fabricant. Elle a alors opté pour la solution DDS Shipper en mode hébergé de l’éditeur DDS Logistics qui permet d’optimiser et de contrôler en permanence l’ensemble de la supply chain, depuis l’achat jusqu’à la livraison finale.Solution informatique de gestion du transport, DDS Shipper est une pièce majeure du projet d’optimisation des flux logistiques au sein de la chaine logistique d’Eurocopter. Opérationnelle depuis le début de l’année, cette solution a été déployée dans un premier temps sur le site de Marignane (Bouches-du-Rhône). D’ici la fin de l’année, elle sera mise en place sur les deux autres principaux sites de production du groupe en Europe, à Donauwšrth (Allemagne) et à Albacete (Espagne).L’objectif du déploiement de cette solution de DDS Logistics est triple :

  • donner un accès direct à l’information à tous les personnels opérationnels concernés par une expédition import (des fournisseurs vers les sites de production) et export (des sites vers les sous-traitants, fournisseurs et chaînes de montage déportées) ;
  • établir un système d’alerte sur les retards ;
  • fournir des statistiques permettant aux gestionnaires de l’activité transport d’être plus efficace dans le pilotage des partenaires transport d’Eurocopter.

« Gagner en réactivité »

« Nous souhaitions être proactifs par rapport à nos flux, mieux anticiper en cas d’aléa et fournir une information de qualité à nos clients », explique Jérôme Brechet, responsable transport des flux industriels, basé à Marignane. « Les informations concernant nos flux nous étaient jusqu’alors principalement fournies par nos transporteurs », poursuit-il.Si sa fonctionnalité et sa facilité d’utilisation sont notables, c’est surtout la fonction « warning » de DDS Shipper qui a séduit Eurocopter. Celle-ci permet une gestion des flux par alertes. En fonction des paramètres prédéfinis et du degré d’urgence, des alertes préalables sont envoyées aux utilisateurs Eurocopter afin de pallier d’éventuels dysfonctionnements. « Nous travaillons avec quatre transporteurs majeurs à l’export qui sont interfacés avec DDS Shipper. La solution permet le suivi des marchandises transportées par chacun d’eux en temps réel », commente Jérôme Brechet.En plus de la fonction « tracing », Eurocopter a mis en place le module « Transport Analytics » de DDS Logistics. Celui-ci permet d’obtenir des statistiques, facilitant ainsi le suivi de l’activité sur le plan qualitatif et quantitatif, par prestataire, et par opération de transport.

« Avec le déploiement de l’outil sur nos sites de production en Europe, nous allons gagner en réactivité, optimiser la qualité de nos informations et avoir une maîtrise de bout en bout de nos flux », conclut Jérôme Bréchet

La recherche académique française s’attaque à la sécurité informatique

Aux côtés de ses partenaires, l’Inria vient de se doter d’un équipement de recherche inédit :  le LHS (Laboratoire de haute sécurité informatique). Situé au cœur du centre Inria Nancy-Grand Est, il  offre le cadre technologique et réglementaire nécessaire aux avancées scientifiques accompagnant les évolutions de notre société numérique. Ouvert aux partenaires industriels, il représente également un cadre propice aux tests de fiabilité requis avant toute mise sur le marché de différents produits ou solutions technologiques.Placé dans un environnement fermé avec un réseau Internet isolé et des locaux protégés accessibles par reconnaissance biométrique, le LHS permet de mener des expérimentations et manipulations à caractères sensibles. Il est conçu pour garantir la sécurité des données, des phénomènes et des équipements analysés. Le LHS Il est constitué de trois espaces distincts :

  • une salle de travail qui accueille les chercheurs ;
  • une salle de clusters dotée de trois unités : un télescope virtuel qui recueille des codes malveillants, des traces d’attaques et qui permet l’expérimentation de sondes sur l’Internet, un réseau fermé dit « éprouvette » qui permet de mener des expériences sensibles comme l’analyse de codes malveillants sans risque de contamination de l’ensemble du réseau et une unité de production pour distribuer les outils développés au sein du LHS : anti-virus, outils d’analyses…
  • une salle dite « rouge » : non connectée au réseau, elle concerne le traitement d’informations et de données très sensibles. Cette salle permet d’accueillir les équipements ou matériels à étudier en toute confidentialité dans le cadre de partenariats avec les industriels.
Les équipes du laboratoire se sont spécialisés dans trois grands domaines d’expertise : la virologie, l’analyse et protection du réseau, et la détection de vulnérabilités dans les systèmes communicants.

Virologie : comment reconnaître les virus de demain ?
Les chercheurs de l’équipe CARTE analysent des codes malveillants et élaborent les anti-virus du futur. Ils ont mis au point une nouvelle méthode de détection de virus qui prend en compte un paramètre fondamental : la capacité des virus à muter, tout comme des virus vivants. Primée au Concours national d’aide à la création d’entreprises de technologies innovantes 2009 dans la catégorie « Emergence », leur méthode permet d’extraire la signature ou squelette du virus, c’est-à-dire le bout de programme qui ne change pas malgré les mutations. « Ce résultat permet d’envisager des anti-virus plus efficaces puisque capables de reconnaître les virus même lorsqu’ils ont muté. D’autres défis scientifiques sont à relever, par exemple la mise au point de méthodes pour identifier les nouveaux virus, ceux dont on ne connait pas le squelette ! Avec le LHS, nous disposons du cadre nécessaire pour mener nos expérimentations futures », souligne Jean-Yves Marion, directeur de l’équipe CARTE.Par ailleurs, cette groupe travaille sur la neutralisation des botnets, réseaux d’ordinateurs infectés qui servent à envoyer du spam mais qui pourraient aussi servir à attaquer des services Internet. Les chercheurs s’intéressent également à d’autres plate-formes technologiques vulnérables comme les téléphones et les systèmes embarqués (exemple : voiture, …)

Supervision du réseau : comment analyser et sécuriser les échanges ?
Les chercheurs de l’équipe MADYNES étudient, quant à eux, les grands systèmes de communication pour comprendre leur fonctionnement et mettre en place des systèmes d’analyse et de contrôle, notamment pour lutter contre les failles de sécurité.Parmi leur derniers résultats : la conception d’un algorithme permettant de placer des sondes sur un grand réseau pair à pair et d’observer l’activité sur ce réseau. Les chercheurs ont réussi à analyser le trafic sur un réseau de 4 millions de machines, en plaçant une vingtaine de sondes et sans recourir à de grandes capacités de calcul. « Plusieurs domaines d’applications sont d’ores et déjà envisagés notamment dans le cadre du programme ANR MAPE, pour aider les autorités compétentes dans la lutte contre la cybercriminalité », précise Olivier Festor, directeur de l’équipe.

Détection de vulnérabilités dans les systèmes communicants
En phase de conception et de certification, les équipementiers ont besoin de pouvoir tester la fiabilité de leurs équipements, d’évaluer leur résistance à différents types d’attaques ou de menaces. Avec un réseau Internet isolé et des équipements ultrasécurisés, le LHS est un cadre propice pour réaliser ce type de tests.Parmi les risques identifiés figurent notamment les services de téléphonie sur Internet. Dans ce domaine, les chercheurs de l’équipe MADYNES ont mis au point une suite logicielle baptisée KIF qui permet de détecter automatiquement les failles sur la téléphonie sur IP.Par Marc Chabreuil

Durcissement de la Directive sur la performance énergétique des bâtiments

Le Conseil européen avait souligné en mars 2007 la nécessité d’accroître l’efficacité énergétique dans l’Union afin d’atteindre l’objectif visant à réduire de 20 % la consommation énergétique de l’Union d’ici à 2020, et avait appelé à la mise en œuvre complète et rapide des priorités établies dans la communication de la Commission intitulée « Plan d’action pour l’efficacité énergétique: réaliser le potentiel ». Ce plan identifiait les principales sources d’économies d’énergie potentielles rentables dans le secteur du bâtiment qui représente 40% de la consommation énergétique totale de l’Union européenne.A plusieurs reprises, le Parlement européen avait demandé que l’objectif d’efficacité énergétique fixé à 20 % pour 2020 soit rendu contraignant. Finalement, la directive 2002/91/CE du Parlement européen et du Conseil du 16 décembre 2002 sur la performance énergétique des bâtiments a subi des modifications substantielles qui, pour des raisons de clarté, ont nécessité la refonte du texte. La nouvelle directive (2010/31) qui est parue récemment au Journal Officiel d l’Union Européenne. Elle devrait aider l’ensemble de l’Union à atteindre son engagement de réduire, d’ici à 2020, les émissions globales de gaz à effet de serre d’au moins 20 % par rapport aux niveaux de 1990 (et de 30 % en cas de conclusion d’un accord international).La présente directive promeut l’amélioration de la performance énergétique des bâtiments dans l’Union, compte tenu des conditions climatiques extérieures et des particularités locales, ainsi que des exigences en matière de climat intérieur et du rapport coût/efficacité. Elle fixe des exigences en ce qui concerne :

  • le cadre général commun d’une méthode de calcul de la performance énergétique intégrée des bâtiments et de leurs parties et des unités de bâtiment;
  • l’application d’exigences minimales en matière de performance énergétique aux bâtiments neufs et à leurs parties et aux nouvelles unités de bâtiment;
  • l’application d’exigences minimales en matière de performance énergétique des bâtiments existants, unités de bâtiment et éléments de bâtiment lorsqu’ils font l’objet de travaux de rénovation importants, des éléments de bâtiment qui font partie de l’enveloppe du bâtiment et ont un impact considérable sur la performance énergétique de cette enveloppe lorsqu’ils sont rénovés ou remplacés; et les systèmes techniques de bâtiment en cas d’installation, de remplacement ou de modernisation desdits systèmes;
  • les plans nationaux visant à accroître le nombre de bâtiments dont la consommation d’énergie est quasi nulle ;
  • la certification de la performance énergétique des bâtiments ou des unités de bâtiment;
  • l’inspection régulière des systèmes de chauffage et de climatisation dans les bâtiments; 
  • les systèmes de contrôle indépendants pour les certificats de performance énergétique et les rapports d’inspection.
Les exigences fixées par la présente directive sont des exigences minimales et ne font pas obstacle au maintien ou à l’établissement, par chaque État membre, de mesures renforcées.

Bâtiments neufs
Pour les bâtiments neufs, les États membres veillent à ce que, avant le début de la construction, les systèmes de substitution à haute efficacité, s’ils sont disponibles, fassent l’objet d’une étude de faisabilité technique, environnementale et économique et qu’il en soit tenu compte :
  • les systèmes d’approvisionnement en énergie décentralisés faisant appel à de l’énergie produite à partir de sources renouvelables;
  • la cogénération;
  • les systèmes de chauffage ou de refroidissement urbains ou collectifs, notamment s’ils font appel, en partie ou totalement, à de l’énergie produite à partir de sources renouvelables;
  • les pompes à chaleur.
Bâtiments dont la consommation d’énergie est quasi nulle
Les États membres veillent à ce que d’ici au 31 décembre 2020, tous les nouveaux bâtiments soient à « consommation d’énergie quasi nulle » et que, après le 31 décembre 2018, les nouveaux bâtiments occupés et possédés par les autorités publiques soient à « consommation d’énergie quasi nulle ».Les États membres élaborent des plans nationaux visant à accroître le nombre de bâtiments dont la consommation d’énergie est quasi nulle. Ces plans peuvent inclure des objectifs différenciés selon la catégorie de bâtiment. En outre, les États membres élaborent des politiques et prennent des mesures telles que la définition d’objectifs afin de stimuler la transformation de bâtiments rénovés en bâtiments dont la consommation d’énergie est quasi nulle, et en informent la Commission dans leurs plans nationaux.

Certificats de performance énergétique
Les États membres arrêtent les mesures nécessaires pour établir un système de certification de la performance énergétique des bâtiments. Le certificat de performance énergétique inclut la performance énergétique du bâtiment et des valeurs de référence telles que les exigences minimales en matière de performance énergétique, afin que les propriétaires ou locataires du bâtiment ou de l’unité de bâtiment puissent comparer et évaluer sa performance énergétique.Le certificat de performance énergétique peut comporter des informations supplémentaires telles que la consommation énergétique annuelle pour les bâtiments non résidentiels et le pourcentage d’énergie produite à partir de sources renouvelables dans la consommation énergétique totale.

Délivrance des certificats de performance énergétique
Les États membres veillent à ce qu’un certificat de performance énergétique soit délivré pour :
  • tous les bâtiments ou unités de bâtiment construits, vendus ou loués à un nouveau locataire;
  • tous les bâtiments dont une superficie utile totale de plus de 500 m 2 est occupée par une autorité publique et fréquemment visitée par le public. Le 9 juillet 2015, ce seuil de 500 m 2 sera abaissé à 250 m 2 .
Les États membres exigent que, lors de la construction, de la vente ou de la location d’un bâtiment ou d’une unité de bâtiment, le certificat de performance énergétique ou une copie de celui-ci soit montré au nouveau locataire ou acquéreur potentiel et soit transmis à l’acquéreur ou au nouveau locataire.

Inspection des systèmes de chauffage
Les États membres prennent les mesures nécessaires pour mettre en œuvre une inspection périodique des parties accessibles des systèmes utilisés pour le chauffage des bâtiments, tels que le générateur de chaleur, le système de contrôle et la (les) pompe(s) de circulation, dotés d’une chaudière d’une puissance nominale utile à des fins de chauffage de locaux de plus de 20 kW. Cette inspection comprend une évaluation du rendement de la chaudière et de son dimensionnement par rapport aux exigences en matière de chauffage du bâtiment. Les systèmes de chauffage dont la chaudière a une puissance nominale utile supérieure à 100 kW sont inspectés au moins tous les deux ans. Pour ce qui est des chaudières au gaz, cet intervalle peut être porté à quatre ans.Inspection des systèmes de climatisationLes États membres prennent les mesures nécessaires pour mettre en œuvre une inspection périodique des parties accessibles des systèmes de climatisation d’une puissance nominale utile supérieure à 12 kW. Cette inspection comprend une évaluation du rendement de la climatisation et de son dimensionnement par rapport aux exigences en matière de refroidissement du bâtiment

Experts indépendants
Les États membres font en sorte que la certification de la performance énergétique des bâtiments et l’inspection des systèmes de chauffage et des systèmes de climatisation soient exécutées de manière indépendante par des experts qualifiés et/ou agréés, qu’ils agissent en qualité de travailleurs indépendants ou qu’ils soient employés par des organismes publics ou des établissements privés.Certaines dispositions (Bâtiments dont la consommation d’énergie est quasi nulle,  Certificats de performance énergétique,  Délivrance des certificats de performance énergétique, Experts indépendants…)  s’appliqueront  à partir du 9 janvier 2013 au plus tard aux bâtiments occupés par des autorités publiques et à partir du 9 juillet 2013 au plus tard aux autres bâtiments.

Le « paquet énergie – climat » face à la crise

Il y a quelques jours, la Commissaire européenne à l’environnement appelait les responsables politiques et tous les acteurs du secteur de l’énergie à tout mettre en œuvre, malgré la crise, pour atteindre l’objectif de – 20 % de rejets de gaz à effet de serre d’ici 2020. Serait-ce le début de la sagesse ?On se rappelle les objectifs « 3 fois 20 » du « paquet énergie – climat » de 2008 : réduire simultanément de 20 % chacun la consommation d’énergie et les rejets de gaz à effet de serre, et porter à 20 % la part des énergies renouvelables dans le mix énergétique européen (ce dernier objectif étant porté à 23 % pour la France, sans que l’on explique vraiment pourquoi ce traitement de faveur…).  Or le paquet énergie climat, approuvé par les Chefs d’Etat en décembre 2008 et, en France, rappelé dans la loi Grenelle 1 de juillet 2009, impose des contraintes souvent contradictoires et entraîne parfois des coûts exorbitants. Par exemple, la réduction des rejets de CO2 nécessite souvent de consommer plus d’énergie :

  • Le captage et stockage du CO2 (CCS) produit dans une centrale électrique au charbon fait chuter le rendement de 25 % environ : il faudra donc 25 % d’énergie primaire en plus pour produire 1 kWh électrique.
  • La synthèse de biocarburants à partir de biomasse cellulosique a un rendement proche de 50 % ; autrement dit, il faut 2 tep de biomasse pour produire 1 tep de carburant. La réduction des rejets de CO2 obtenue grâce aux biocarburants ne peut donc être obtenue que moyennant une augmentation substantielle de la consommation d’énergie primaire. Cette augmentation serait encore plus marquée si l’apport d’énergie requis par les procédés de synthèse était assuré par de l’électricité, ce qui permettrait pourtant  de mieux utiliser la ressource biomasse.
La volonté affichée de développer à tout prix les énergies renouvelables a un coût et ne réduit pas toujours les rejets de CO2 :
  • L’objectif de 23 % d’énergies renouvelables accepté par la France devrait conduire, si l’on en croit la loi Grenelle 1, à augmenter de près de 65 TWh la production d’électricité renouvelable (42 en éolien terrestre, 18 en éolien offshore, 5 en solaire photovoltaïque) ; mais ces 65 TWh seront nécessairement pris sur la production nucléaire (ou seront exportés), sans aucune réduction (ou presque)  des rejets de CO2. Pire, leur coût élevé (80 euros/MWh pour l’éolien terrestre, 130 euros/MWh pour l’éolien offshore, plus de 250 euros/MWh pour le solaire – 1) comparé au coût du nucléaire (40 à 50 euros/MWh) va alourdir la facture d’électricité de près de 4 milliards euros/an.
  • Les seuls engagements sur les aides au solaire photovoltaïque d’ici la fin 2012 (12 à 16 euros/Wc installé en additionnant les tarifs d’achat et les aides publiques directes), appliquées à 1GWc, correspondent à un endettement de la collectivité, envers les (heureux) producteurs, de 12 à 16 milliards d’euros. Il suffit de comparer ces ordres de grandeur à celui du « grand emprunt » (30 milliards euros) pour au moins s’interroger sur le caractère raisonnable de cette politique.
Parallèlement, l’ostracisme dont fait l’objet l’électricité même lorsque celle-ci est produite presque sans production de CO2 comme c’est le cas en France, va à l’encontre de l’objectif de réduction des rejets de CO2 : remplacer le chauffage électrique par un chauffage au gaz – à isolation thermique identique 2  – permet de diviser par 2 au moins la consommation d’énergie primaire, mais augmente les rejets de CO2. La loi Grenelle 2, en interdisant pratiquement, dans sa version actuelle, le chauffage électrique, va donc à l’encontre de l’objectif affiché de réduction du CO2.Bref, il est grand temps d’afficher clairement quel est l’objectif principal. Il est également temps, en cette période de crise particulièrement, de rechercher les voies les plus économiques en vue d’atteindre cet objectif. Si, comme l’affirme la Commissaire européenne, l’objectif premier est de diminuer les rejets de CO2, il faut impérativement réduire les consommations de combustibles fossiles et, plus particulièrement en France, celles de pétrole et de gaz. Il se trouve que cette réduction présente d’autres avantages :
  • le pétrole et le gaz étant presque totalement importés, ils grèvent notre balance commerciale , 
  • leurs prix sont extrêmement volatils, comme l’a montré encore une fois la crise de 2008 ,
  • les ressources sont concentrées dans des pays qui présentent des risques géopolitiques importants.
Economiser une tonne équivalent pétrole (tep) de pétrole ou de gaz a cependant un coût plus ou moins élevé qu’il convient d’évaluer avant d’engager des opérations massives. Mais les nombreuses études déjà réalisées (dont certaines citées dans de précédentes tribunes ou articles 3) montrent que :
  • Pour les usages fixes de l’énergie, les voies ne manquent pas à un prix équivalent de la tep compris entre 50 et 100 euros/baril : travaux d’économies d’énergie associés à du chauffage électrique dans l’habitat ancien, chaleur renouvelable associée ou non à des pompes à chaleur dans l’habitat neuf, etc.
  • Pour les usages mobiles de l’énergie, les défis sont plus difficiles à relever, du fait des coûts encore élevés des solutions d’économies d’énergie (le bonus-malus auto instauré en 2008 correspond à un prix équivalent de pétrole proche de 200 euros/baril) et des voies de remplacement du pétrole par un biocarburant ou par de l’électricité. On a, dans ce secteur, besoin de programmes intensifs de recherche et développement, accompagnés d’opérations pilotes permettant de valider telle ou telle voie.
  • Pour faire face aux augmentations prévisibles de la consommation d’électricité, tant pour les usages fixes que pour les usages mobiles, il serait prudent de lancer la construction de quelques centrales nucléaires en plus des deux déjà décidées. En parallèle, la recherche devrait être développée très fortement en vue de réduire les coûts du solaire photovoltaïque.
Espérons donc que l’Europe, et la France tout particulièrement, adoptent enfin les voies de la sagesse.Par Pierre Bacher, Auteur de « L’énergie en 21 questions » – Odile Jacob (2007) et auteur des Techniques de l’Ingénieur 

Notes
1 – En espérant que le coût des installations aura diminué de moitié en moyenne sur la prochaine décennie.2 – Ceci n’est généralement pas le cas, les logements chauffés à l’électricité consomment en moyenne 120 kWh/m², les logements chauffés au gaz (ou au fioul domestique) plus du double.3 – Tribune du 8 décembre 2008 ; Revue de l’énergie n° 582 – Prix du pétrole équivalent, prix du gaz équivalent et coût du CO2 évité (mars-avril 2008)

La modulation de l’écocontribution ouvre la voie à l’éco-conception

En s’engageant, dans le cadre du Grenelle de l’environnement, à moduler l’éco-contribution afin de différencier les produits en fonction de leur impact sur l’environnement, la France a cette fois un temps d’avance. Cette modulation, qui entre en vigueur le 1er juillet 2010, est bien plus qu’une simple contrainte financière pour les consommateurs ou les producteurs. Ces derniers doivent se saisir de cette opportunité pour concevoir et consommer plus écologiquement les produits que nous utilisons.EcoLogic a contribué, en apportant son expertise du traitement des déchets électriques, à la mise en place d’un barème modulé, demandé par les pouvoirs publics, qui récompense les conceptions respectant l’environnement. Si l’impact financier de cette modulation peut, dans certains cas, paraître faible, elle a pour corollaire important de définir un jeu de critères environnementaux concernant la fin de vie des produits, définis par les pouvoirs publics et donc exempts de biais. Ces critères peuvent devenir des axes de différentiation pour les producteurs qui pourront ainsi utiliser leurs efforts d’éco-conception pour vendre leurs produits selon les principes du green marketing.

Pour le consommateur, une écocontribution verte plus intelligente
La modulation de l’éco-contribution, incitera les consommateurs à consommer de façon plus responsable. À partir du 1er juillet 2010, la participation versée pour le retraitement d’un appareil électrique ou électroménager au moment de l’achat d’un nouveau produit ménager sera plus élevée pour les produits plus difficilement recyclables ou qui comportent des substances polluantes. Dans le cadre du Grenelle de l’environnement, le gouvernement a inscrit dans le cahier des charges pour le nouvel agrément des éco-organismes, en charge de la filière des DEEE, la modulation de la contribution en fonction de critères environnementaux afin, selon Chantal Jouanno, Secrétaire d’Etat chargée de l’Ecologie, de « mieux informer les utilisateurs d’équipements électriques et électroniques ménagers sur les impacts environnementaux liés à la fin de vie des équipements qu’ils achètent. » Par exemple, l’écocontribution sera majorée de 100 % pour les téléphones portables ne disposant pas d’un chargeur universel. La présence de polluants, comme les retardateurs de flamme bromés, le mercure, ou encore les fluides frigorigènes à fort pouvoir de réchauffement climatique dans certaines familles de produits pourra conduire à une majoration de 20 % de la contribution initiale. Enfin, les lampes à LED bénéficieront d’une baisse de 20 % par rapport aux lampes fluorescentes contenant du mercure. Si cette modulation de l’éco-contribution reste relativement neutre financièrement, le consommateur sera sans doute particulièrement sensible aux équipements produits de manière plus écologique.

Pour les constructeurs, un barème qui incite à l’écoconception des produits
Le principe de la responsabilité élargie du producteur permet d’intégrer dans le prix des produits de consommation une partie de leurs impacts environnementaux et fait ainsi porter au consommateur la charge financière des coûts d’élimination des déchets qu’il génère lors de l’achat. En modulant l’écocontribution afin de différencier les produits en fonction de leur impact sur l’environnement durant l’ensemble de leur cycle de vie, on favorise de facto l’éco-conception des équipements en termes de réemploi et de recyclage. Cette modulation encourage les bonnes pratiques de conception et de fabrication car elle signifie pour les fabricants une hausse conséquente de leur participation au regard des milliers de tonnes de produits mis sur le marché (1,46 million de tonnes en 2008). L’éco-conception relève d’une véritable volonté de prendre en compte, dans la fabrication des produits, des critères liés au développement durable. Ce principe vertueux accompagne une évolution profonde de la société : son application concrète permet la responsabilisation des entreprises et des consommateurs à l’origine de pollutions ou de gaspillage et encourage les actions et les innovations pour les réduire à la source. Contrairement aux idées reçues, l’éco-conception n’est pas synonyme de coûts de fabrication augmentés. En réduisant la matière de l’appareil ou de son packaging, en améliorant la séparabilité des matériaux, le producteur peut réaliser des économies significatives tout en facilitant le traitement des déchets en fin de vie. Il ressort en effet d’une étude franco-québécoise, basée sur une série d’entretiens réalisés auprès de 30 entreprises ayant mis en œuvre l’éco-conception, que pour 90 % d’entre-elles, cette démarche a contribué à augmenter leurs profits, soit par une augmentation des ventes, soit par une réduction des coûts de production (cf. « L’éco-conception : quels retours économiques pour l’entreprise ? » réalisée par le pôle Éco-conception et Management du cycle de vie de Saint-Étienne, en partenariat avec l’Institut de développement de produit du Québec)Dans une démarche de responsabilisation et de sensibilisation aux enjeux économiques et écologiques de l’éco-conception, l’éco-organisme EcoLogic sensibilise ses producteurs adhérents à ces problématiques. Il a ainsi organisé pour les constructeurs soucieux de mettre en place une démarche environnementale, parmi lesquels Brother, Canon, Epson ou Sharp, une visite sur un centre de démantèlement de ces déchets qui aura permis d’aider les adhérents à prendre en compte la problématique du traitement des déchets avant même que l’appareil ne soit fabriqué et de recueillir des propositions d’amélioration de chaque partie prenante. L’éco-conception a de l’avenir et sera très certainement une opportunité de différenciation et un facteur de compétitivité future. Ces rencontres stimulent les échanges entre opérateurs et producteurs pour aller ensemble vers une fabrication plus raisonnée. 

Par René-Louis Perrier, Président d’EcoLogic

Les rôles complémentaires de l’audit, du pen-test et du WAF

Le Web est un outil majeur des entreprises en termes d’organisation, de communication, d’image et de business. Or son intégration reste délicate. Les applications déployées et mises en œuvre doivent répondre à des besoins de plus en plus stricts :

  • impératif de dynamisme et de souplesse (mise à jour de l’application et/ou du contenu) ;
  • haute disponibilité (clustering/grid/cloud, backup/restore …) ;
  • sécurité des données, de l’applicatif client/serveur et des services mis à disposition.
La pratique sécuritaire préconisée par PCI-DSS (Payment Card Industry Data Security Standard) définit notamment une obligation de moyens basée sur des solutions techniques. La conformité au PCI-DSS formalise les meilleures pratiques de sécurité qui se traduisent par des solutions d’ordre à la fois techniques et organisationnelles avec notamment le contrôle régulier des configurations déployées. Pour répondre aux exigences sécuritaires, trois approches techniques sont généralement employées :
  • l’audit de code (tierce partie ou interne) ;
  • les « pen-tests » (tests de pénétration de systèmes, généralement réalisés par des tiers) ;
  • le WAF (Web Application Firewall).
L’audit de code : forces et faiblesses
Toute la force de l’audit de code réside dans l’approche fine et précise de l’application. Chaque service mis à disposition par l’application doit être testé et analysé pour en déceler les failles. Si cette procédure peut être systématique elle nécessite malheureusement un effort constant (difficilement compatible avec les impératifs de dynamisme attendu pour une application Web) et requiert l’intervention d’experts (expert applicatif et sécurité).De plus, cette approche sera réalisée de manière unitaire, Web Service par Web Service, ce qui ne permet pas toujours d’obtenir une vue globale sur le niveau de sécurité d’une application. Prenons par exemple un simple Web Service d’upload de fichier qui réaliserait une analyse sur le contenu d’un document fourni. De manière unitaire, ce Web Service peut être déclaré comme « sécurisé » à la suite d’une campagne d’audit de code.Qu’en est-il de l’application ? Si cette dernière fournit de nombreux services similaires, il devient évident que le serveur est susceptible d’être vulnérable aux attaques de type DOS (Denial Of Service) si un utilisateur demande en parallèle de multiple traitements de fichiers. Seule une approche globale de l’application peut révéler ce type d’information.

Les tests de pénétration : une approche macroscopique
Les tests de pénétration permettent de pallier cette problématique. Que cela soit réalisé par approche « boîte noire » (application inconnue du testeur) ou par « boite blanche » (le testeur connaît l’application, sa structure ou encore son code source) les tests de pénétrations seront réalisés par approche macroscopique et non plus unitaire.Les failles testées seront celles qui mettent en œuvre plusieurs modules de l’application. Par exemple, pour détecter une faille XSS, on introduira le Javascript frauduleux dans un formulaire d’inscription, puis on testera son activation dans toutes les pages de l’application (qui semblent pourtant « inoffensives ») présentant les informations préalablement saisies.Ces deux approches (audit/pen-tests) sont donc diamétralement opposées en termes de connaissance et de sécurité applicative. Le WAF permet de compléter parfaitement une politique de sécurité en palliant, non seulement les carences de ces deux approches, mais aussi en y apportant de nouvelles possibilités.Au travers d’une analyse continue et transparente du trafic sur une application, le WAF est capable de consolider automatiquement sa politique de sécurité en apprenant et en comprenant le fonctionnement d’une application. Réalisé tout au long du cycle de vie d’une application Web, depuis le développement jusqu’à la mise en production, ce mécanisme d’apprentissage répond totalement aux impératifs de souplesse attendus sans pour autant nécessiter un investissement de ressources important (contrairement aux audits et aux pen-tests).

Une politique sécuritaire efficace et souple avec le WAF
Ainsi, le WAF est capable de déceler de manière transparente toute utilisation frauduleuse de paramètres (XSS, XSRF, SQL injection, altération de paramètres, etc) sans connaissance métier d’une application. Cette approche extrêmement fine peut se révéler trop unitaire dans certains cas. De manière plus macroscopique, le WAF est aussi capable de détecter des couples (clef + valeur) et d’y associer une politique de sécurité en se basant sur des informations statistiques collectées lors de l’apprentissage. On peut, par exemple, déterminer que le paramètre « id » doit être un entier positif de 1 à N pour toute l’application ou pour un ensemble de Web Services donné.Élargissons encore l’angle de vue du WAF sur l’application. Ce dernier peut reconnaître les différents usages d’un script Web et y associer une politique de sécurité stricte. Par exemple, un script de gestion de compte utilisateur peut être utilisé pour ajouter, modifier ou encore effacer un compte. Il peut s’agir d’un seul et unique script dont le comportement (action réalisée) sera variable selon les paramètres donnés en entrée. Le WAF sera capable de déterminer chaque type d’appel et de créer une politique de sécurité différente pour chaque usage. Une création d’utilisateur avec un identifiant de compte fourni serait par exemple détecté comme une tentative d’usurpation d’identité. Inversement, une modification de compte ou un effacement sans identifiant d’utilisateur spécifié serait invalidé et traité comme une erreur.

On voit bien au travers de ces quelques exemples que le WAF permet d’atteindre une politique sécuritaire efficace et souple. Mais ce n’est pas le seul avantage de cette solution. En cas de détection de failles lors de l’étape de production, alors que les audits et les pen-tests ne permettent que de mettre en relief les failles, le WAF permettra pour sa part de sécuriser le service ou l’application (notion de patch virtuel) en attendant le prochain déploiement d’une version corrigeant la faille découverte. Plus qu’un outil passif, le WAF devient alors une part essentielle de la sécurité active d’une application.
Par Philippe Léothaud, directeur de la technologie chez de Bee Ware

L’électrocoagulation, nouvelle piste pour le traitement des effluents ?

L’équipe de recherche du groupement Eau Sol Environnement de l’Ecole Nationale Supérieure de Limoges mène des travaux sur l’électrocoagulation et la coagulation floculation. Ces deux procédés de traitement des effluents industriels ont été comparés par l’équipe de recherche pour un cas précis : l’élimination de l’arsenic présent dans des effluents de tannerie.Le procédé actuel, la décantation, permet d’obtenir des résultats acceptables, c’est-à-dire des effluents suffisamment débarrassés des substances polluantes pour être envoyés en station d’épuration. Cependant, les résultats de cette recherche montrent que les deux procédés utilisés (l’électrocoagulation et la coagulation floculation) permettent d’obtenir des résultats très intéressants. D’abord, les résultats des essais d’adsorption sur des flocs préformés et de coagulation/floculation avec des sels ferreux ont permis à l’équipe de recherche de préciser les mécanismes prédominants dans l’élimination de l’As(III) et de l’As(V). L’étude a également été menée en présence de matière organique, afin d’évaluer son impact sur l’efficacité du procédé. Il a alors été mis en évidence le caractère réfractaire d’une part de la matière organique au traitement, due à son entrée en compétition avec l’élimination de As(V) par adsorption.

l’électrocoagulation diminue la dose de traitement de moitié
Par la suite, l’étude a porté sur le procédé sur l’électrocoagulation, technique présentant l’avantage de générer in situ les réactifs (c’est-à-dire sans apport de coagulant, de floculants, d’acides, de bases…), tout en permettant une autorégulation de pH et une oxydation de l’As(III), diminuant de moitié la dose de traitement. L’application des deux procédés au traitement d’eaux riches en arsenic (cas des effluents industriels) et en matière organique et l’élimination complète de l’arsenic est donc constatée avec les deux procédés. Cependant, le procédé par électrocoagulation présente un avantage concurrentiel en terme d’efficacité, puisque la dose de traitement nécessaire se trouve divisée par deux par rapport à la coagulation/floculation. L’avantage de l’électrocoagulation est aussi qu’elle permet de piéger les métaux.Le principe de base de l’électrocoagulation est assez basique : il consiste à faire passer un courant électrique à travers l’eau à traiter. On se sert d’une anode (électrode négative) en aluminium qui, en se décomposant, produit un coagulant. L’effet du courant électrique est de casser toutes les liaisons chimiques des métaux complexés et également de réaliser une prépolarisation des molécules. A cet effet, il s’agit de systèmes extrêmement performants pour le traitement des effluents contenants des particules métalliques, telles que les eaux de polissage ou les effluents de galvanoplastie.Mais il y a plus. En effet, l’immense avantage de l’électrocoagulation, dans ce cas précis est que, selon les complexants utilisés, cela ne change rien à la qualité du traitement, contrairement aux systèmes physico-chimiques pour lesquels le type d’insolubilisant doit être adapté. Ainsi, si la filtration des boues est réalisée à l’aide d’un filtre-presse, la densité des boues est suffisantes pour éviter l’emploi de réactifs chimiques, appelés floculants, qui sont des produits également chers.

Une solution qui reste à expérimenter sur le terrain
Grâce à l’électrocoagulation, on utilise des floculants uniquement si l’on travaille avec un décanteur centrifuge. Le système d’électrocoagulation est un système automatique. Virginie Pallier, membre de l’équipe de recherche du groupement Eau Sol Environnement travaillant sur la comparaison entre l’électrocoagulation et la coagulation/floculation, nous est persuadé du potentiel de l’électrocoagulation pour le traitement des effluents : « la mise en place de ces systèmes ne demanderait que peu de maintenance. Aujourd’hui, bien que le procédé ne possède pas d’agrément, il est tout à fait possible de l’utiliser pour le traitement des effluents industriels. »Cependant, Virginie Pallier concède la difficulté à trouver un site pour expérimenter cette solution sur le terrain : « il est difficile de trouver un site, les industriels ont déjà leurs traitements, par décantation ou à l’aide de procédés membranaires. Il nous faut au minimum 200 litres d’effluents pour mener nos tests, cela pose des problèmes de volumes. Mais un étude sur site serait très intéressante ». Quoi qu’il en soit, les recherches menées montrent d’ores et déjà que le procédé d’électrocoagulation permet d’obtenir des résultats plus efficaces, en termes d’élimination de la charge polluante des effluents, que les méthodes usuelles.Par Pierre Thouverez

Traiter les eaux par du chitosane : quel intérêt ?

Certes, les procédés physico-chimiques de traitement et d’épuration des eaux usées ont prouvé leur efficacité. Mais ils ne sont pas sans poser de sérieux problèmes environnementaux et de santé. A l’heure où la demande du public en matière de produits renouvelables et biodégradables croît avec la sensibilisation à la protection de l’environnement, les matériaux d’origine biologique comme le chitosane apparaissent porteurs de solutions.Ce biopolymère est aujourd’hui de plus en plus utilisé pour récupérer et éliminer des polluants présents dans les effluents industriels. Il présente, il est vrai, de nombreuses propriétés physiques, chimiques et biologiques qui peuvent être mises à profit dans des procédés de décontamination des eaux comme l’adsorption, la coagulation/floculation et l’ultrafiltration membranaire.Focus sur ce procédé et ses limites avec Grégorio Crini, Pierre-Marie Badot et Nadia Morin-Crini dans l’article intitulé « Traitement des eaux par du chitosane : intérêts, méthodes et perspectives » de la collection Recherche et Innovation des éditions Techniques de l’Ingénieur.Pour lire l’intégralité de l’article « Traitement des eaux par du chitosane : intérêts, méthodes et perspectives » au format PDF , cliquez ici.Les auteursGrégorio Crini est docteur en chimie organique et macromoléculaire de l’université Lille 1, ingénieur d’études habilité à diriger des recherches à l’université de Franche-Comté à Besançon, en activité au laboratoire chrono-environnement, UMR 6249 CNRS/UFC usc INRA.Pierre-Marie Badot est professeur des universités, spécialité biologie environnementale, à l’université de Franche-Comté à Besançon, en activité au laboratoire chrono-environnement, UMR 6249 CNRS/UFC usc INRA.Nadia Morin-Crini est docteur en chimie analytique de l’université de Franche-Comté à Besançon, responsable du département analytique et en activité au laboratoire chrono-environnement, UMR 6249 CNRS/UFC usc INRA. 

Les fonderies ibériques séduites par la simulation numérique

La simulation de procédés de fonderie est une  solution clé qui permet de répondre aux nouveaux défis de diminution des coûts de production, de réduction de mise au point des outillages, d’augmentation des rendements et d’amélioration de la qualité des pièces coulées. Plusieurs sociétés ibériques, aussi bien des fonderies de précision que des fonderies de grosses pièces, qu’elles travaillent la fonte, l’acier ou les alliages de cuivre,  l’ont parfaitement compris et ont choisi d’investir dans les logiciels de simulation.

Moulage sable
La simulation du moulage permet à Suñer et DuritCAST de prédire de façon précise les champs de température et de l’écoulement du métal bien avant la conception de l’outillage. Les ingénieurs méthodes ont ainsi été en mesure de développer avec l’aide de la simulation numérique en très peu de temps de nouveaux systèmes de masselottage permettant de diminuer la mise au mille tout en respectant le cahier des charges défini par le client pour les pièces finales. « Les résultats de simulation obtenus grâce aux solutions de moulage d’ESI nous rendent très confiants », a déclaré Luis Sierra, responsable du contrôle de processus automatique chez DuritCAST. « Nous avons même décidé de refuser de valider les conceptions de nouveaux modèles si une simulation n’était pas effectuée au préalable. »L’un des objectifs de Faed pour les années à venir est d’améliorer sa productivité et de minimiser le nombre de prototypes réels. L’entreprise a donc prévu de simuler la totalité de ses pièces en fonte et en acier. Bien qu’elle coule des pièces massives, de plusieurs tonnes et pouvant mesurer plus de 5 m de long, elle est en mesure d’effectuer des simulations rapides qui ne durent pas plus de quelques heures. En outre, grâce au nouvel outil de visualisation, les techniciens des méthodes peuvent interpréter rapidement les résultats et contrôler de façon précise les cartes de porosité à l’intérieur de la pièce.Grupo Fumbarri coule des pièces en fonte pouvant peser jusqu’à 45 t chacune et mesurer plus de 12 m de long. A l’aide des solutions de simulation des procédés de fonderie, Grupo Fumbarri est aujourd’hui capable de concevoir des formes complexes selon le procédé à modèle perdu (lost foam) car il leur est plus facile de prédire les malvenues et d’optimiser l’écoulement du métal lié à la combustion du polystyrène.San Eloy Fundiciones utilise des machines de type Disamatic pour la réalisation de leurs pièces en fonte. Le remplissage de l’empreinte de chaque motte s’effectue en quelques secondes seulement. Le temps de remplissage reste l’un des paramètres clé à optimiser pour réduire les délais de production. Grace à l’outil de simulation, l’entreprise a pu concevoir de nouveaux systèmes d’alimentation, qui, en limitant les temps de coulée, permettent d’augmenter la productivité sans pour autant augmenter le risque de formation d’oxyde, préservant ainsi l’intégrité de la pièce. 

Moulage sous pression
L’une des principales préoccupations des fonderies utilisant des moules permanents est le contrôle de la température de la coquille pendant la durée d’un cycle de production. CIE Automotive utilise la simulation de manière intensive depuis des années afin de concevoir les circuits de refroidissement de ses outillages de moulage sous pression. L’entreprise utilise désormais le logiciel de simulation de moulage afin de modéliser le procédé SEED développé par Rio Tinto Alcan où  le métal est injecté à l’état semi solide.

Moulage cire perdue
Microfusión ALFA, acteur majeur dans le domaine de la fonderie de précision, a intégré le module thermo-mécanique de ProCAST afin de mieux contrôler non seulement le dimensionnel des pièces brutes de  fonderie mais aussi pour contrôler l’état des contraintes résiduelles après décochage et retour à température ambiante.  Microfusión ALFA est aujourd’hui mieux positionnée pour répondre aux exigences de plus en plus élevées en  matière de tolérance de la part de ses clients.

Fonderies d’alliage cuivre
Les fonderies qui  coulent des alliages en fonte, en acier ou en aluminium  ne sont pas les seules à bénéficier de la simulation. Des fonderies « Cuivres » ont également adopté cette technologie. Ainsi, Casuso Propellers, une société qui fabrique notamment des hélices de grande taille en cupro-aluminium pour le secteur naval ont collaboré avec ESI et Análisis y Simulación, partenaire de confiance d’ESI en matière d’ingénierie pour la vente, le support et la formation sur ProCAST et QuikCAST, afin de caractériser avec précision les propriétés thermiques des matériaux de moulage. Grâce à la méthode inverse de ProCAST, ils ont pu déterminer de manière précise toutes les propriétés physiques nécessaires à une prévision adéquate des retassures.

Les compteurs intelligents, premiers pas vers un logement plus sobre en énergie

L’Europe s’est engagée dans la voie de la sobriété énergétique, avec un objectif de 20 % d’amélioration de l’efficacité énergétique – c’est-à-dire parvenir à utiliser 20 % d’énergie en moins tout en rendant les mêmes services aux usagers. Plusieurs approches complémentaires sont possibles pour atteindre ce but. S’agissant de la consommation des particuliers, on peut utiliser des appareils moins énergivores (électroménagers de catégorie A ou A+), mieux isoler son logement, utiliser des modes de chauffage plus efficaces (pompe à chaleur, plancher chauffant…) ou encore modifier son comportement. C’est à ce dernier défi que s’attaquent aujourd’hui de jeunes sociétés de services telles qu’Edelia (filiale d’EDF) ou Ijenko.Ces sociétés ont en effet mis au point de nouvelles offres qui permettent aux particuliers de connaître en détail et en temps réel leur consommation d’électricité et de pouvoir agir sur celle-ci à distance ou par anticipation. Certaines sociétés proposent également de suivre en temps réel la consommation de gaz et d’eau.Tous ces services reposent sur un réseau d’appareils dont l’élément clé est un boîtier ressemblant à une « box » ADSL. Ce boîtier utilise Internet pour remonter régulièrement les informations qu’il accumule et recevoir des instructions à distance, via une interface dédiée et accessible uniquement par le client. Ce boîtier est relié au reste de l’équipement (capteurs, compteur, prises intelligentes…) par des technologies sans fil.

Les services proposés autour de ces nouvelles technologies
1/ Le suivi de la consommation et les alertes : ce service donne en quasi temps réel une visibilité sur la consommation en énergie (gaz, électricité) et en eau. A intervalle régulier, les informations issues des capteurs et centralisées sur la box sont envoyées vers le serveur de la société prestataire. Ainsi, le particulier peut consulter sur son interface Web l’historique de ses consommations (par heure, par jour, par mois, etc.), la puissance et le débit instantanés (équivalents à la consommation d’essence instantanée en voiture). Ce service permet également d’établir des comparatifs entre les différents modes de consommation afin de réduire sa facture. Le suivi des consommations est associé à un service d’alertes qui permet de recevoir des SMS ou des e-mails en fonction du paramétrage souhaité. Par exemple, le particulier peut être prévenu en cas de consommation anormale d’eau, qui souvent est synonyme de fuite. 2/ Le pilotage à distance et la programmation des appareils : il est possible de piloter à distance des appareils électriques grâce à des prises intelligentes positionnées entre la prise murale et l’appareil visé. Un simple clic sur une interface associée permet de l’activer ou de le désactiver à distance. Ce système est pratique pour remettre en route les radiateurs électriques et préchauffer le logement en rentrant de vacances ! Si le logement est équipé de capteurs de température et d’humidité, le système de chauffage peut être automatisé pour assurer un meilleur confort tout en limitant la consommation d’énergie durant les absences.3/ La sécurité :  « Tous ces services sont intéressants, mais peu de particuliers vont être prêts à payer un abonnement qui peut aller de quelques euros à quelques dizaines d’euros, voire d’acheter l’équipement, sophistiqué et donc coûteux, pour en bénéficier. C’est pourquoi les sociétés qui se positionnent sur ce marché proposent souvent des offres de sécurité complémentaires, qui permettent d’attirer un public plus large », commente Julien Barreteau, consultant chez Alcimed. Une fois que l’élément intelligent – la box – est installé, il est possible d’ajouter d’autres types de capteurs pour fournir des services additionnels tels que des détecteurs de mouvements ou de fumée, etc. Il suffit de paramétrer l’installation via l’interface Web pour être alerté de phénomènes anormaux tels que des mouvements détectés dans le logement lors d’une absence. Grâce au pilotage à distance, le particulier peut aussi programmer l’allumage automatique d’une lampe dans son salon tous les soirs pour donner l’impression que quelqu’un est là alors qu’il est en vacances. Des services plus sophistiqués peuvent également être proposés, mais font appel à un intervenant extérieur : par exemple, dans le cas de personnes âgées et isolées, une alarme préviendra un opérateur dès lors qu’aucun mouvement n’est détecté pendant plusieurs heures en journée. Cet opérateur appellera la personne pour s’assurer que tout va bien. On peut également demander l’intervention automatique d’une société de surveillance en cas de mouvement anormal détecté, de la même manière que dans des offres de sécurité classiques.  4/ La sensibilisation aux bonnes pratiques : au-delà de ces services, l’interface Web permet de sensibiliser le client aux enjeux de sa consommation d’énergie et aux moyens de la réduire, à travers des bilans personnalisés s’appuyant sur des questionnaires, des suggestions de bonnes pratiques ou des informations pertinentes issues de l’actualité. « Au final, ces installations apportent donc de la flexibilité et du confort grâce au pilotage à distance. De plus, pouvoir être prévenu très rapidement en cas de problème, qu’il s’agisse d’une fuite d’eau ou d’une intrusion, offre de la sérénité et limite les risques de déconvenue. Mais c’est bien au niveau des économies réalisées sur le plan de la consommation énergétique et à la sensibilisation que doit se situer la véritable valeur ajoutée de ces systèmes. Malheureusement, à ce stade, les retours d’expérience sont encore trop partiels pour permettre de quantifier les gains », résume Julien Barreteau.

Quelles perspectives pour ces services intelligents ?
1/ Une maison entièrement téléguidée ? A l’ère des objets communicants, la maison du futur permettra de piloter l’ensemble de ses équipements depuis un ordinateur, un smartphone ou sa télévision. Les services déjà disponibles en donnent un avant-goût. 2/ Une offre de services associés au logement totalement intégrée ? Il n’est pas absurde de penser qu’un fournisseur de services qui connaît les profils de consommation de ses clients leur propose un jour de se charger lui-même de trouver le meilleur fournisseur d’eau, de gaz ou d’électricité et les meilleurs offres associées, voire même de se charger des contrats et de ne présenter qu’une seule facture au client. Cela pourrait même aller jusqu’à l’assurance habitation, puisque les installations permettent de réduire les risques d’incendies, de dégâts des eaux ou de cambriolages. Des rapprochements entre assureurs et prestataires de services sont déjà en cours. Dans un avenir proche, ces offres en devenir pourraient même être portées par des acteurs du bâtiment, en intégrant l’ensemble de ces services dès la construction pour offrir des logements « clés en main ». 3/ Une maison qui gère l’énergie toute seule ? Lorsque les énergies renouvelables seront démocratisées et qu’une grande partie de la population pourra produire de l’énergie chez soi et éventuellement la stocker (par exemple dans les batteries d’un véhicule électrique), ces technologies permettront de faire communiquer les appareils de la maison qui assurent la production et le stockage d’énergie et ceux qui l’utilisent, permettant ainsi d’atteindre automatiquement un optimum énergétique et économique pour le particulier.« Reste à savoir comment seront surmontés les deux principaux obstacles au développement à grande échelle de ces services qui sont, d’une part, leur prix élevé, au regard du coût relativement faible actuellement de l’eau et de l’énergie, et, d’autre part, l’acceptabilité sociale liée à la protection et à l’usage possible des données collectées », s’interroge Jean-Philippe Tridant-Bel, Responsable de la BU Energie d’Alcimed.Par Marc Chabreuil

RSDE : un grand chantier encore à ses débuts

RSDE. Ces quelques lettres, qui signifient « recherche et réduction des substances dangereuses dans l’eau », en inquiètent plus d’un. « Les micropolluants vont constituer le sujet qui fâche dans les prochaines années », prévient François Morier, directeur général adjoint de Proserpol dans notre interview.De fait, cette action nationale, qui découle de la directive cadre sur l’eau 2000/60/CE du 23 octobre 2000, s’avère très ambitieuse. Un point positif pour la protection de l’environnement, mais qui risque de coûter cher aux industriels, déjà fragilisés par la crise. En parallèle de la directive sur l’eau, le règlement Reach sur les produits chimiques aura un impact sur les rejets grâce à la limitation ou à la suppression de l’usage de certaines substances. Dans la circulaire du 4 février 2002, le ministère de l’environnement précisait l’objectif « sur une durée de 5 ans, de rechercher les rejets de substances dangereuses pour environ 5.000 établissements, et lorsqu’un rejet présentant un risque pour l’environnement aquatique aura ainsi été identifié, de faire prendre les mesures nécessaires. » La première étape consistait à demander « à chaque exploitant concerné de mener une étude des rejets de substances dangereuses par son établissement, en se conformant au cahier des charges technique. » La circulaire du 5 janvier 2009 ouvre la deuxième phase de l’action nationale de recherche et de réduction des substances dangereuses dans l’eau, dans les rejets des installations classés pour la protection de l’environnement (ICPE) soumises à autorisation. Les objectifs nationaux de baisse des émissions entre 2004 et 2015 sont les suivants :

  • 50 % pour les substances dangereuses prioritaires ;
  • 30 % pour les substances prioritaires ;
  • 10 % pour les autres substances dangereuses.
« Ces objectifs ont été été repris tels quels dans chacun des schémas directeurs et schémas d’aménagement des eaux, explique Gilles Berroir, chef duBureau de la nomenclature, des émissions industrielles, de la pollution des eaux des ICPE au sein du ministère de l’Ecologie, de l’Energie, du Développement durable et de la Mer (MEEDDM). Dans les programmes de mesure, ne figurent pas non plus d’objectifs individuels et c’est au service de l’inspection des installations classées qu’il appartiendra de bâtir un programme d’actions permettant de contribuer à l’atteinte de ces objectifs de réduction. »
L’industrie française n’est pas prête
Dans le cadre de la RSDE, les prélèvements ont débuté en septembre 2009, mais toutes les DREAL (directions régionales de l’environnement, de l’aménagement et du logement) n’ont pas avancé au même rythme. La surveillance initiale comprend une campagne de 6 mesures, sur une durée de 6 mois, portant sur une liste de substances déterminées a priori en fonction des activités de l’établissement. La surveillance pérenne consiste en une mesure par trimestre pendant au minimum 2 ans et demi sur les substances réellement détectées dans les rejets du site et répondant à des critères définis dans la circulaire. 18 mois après le démarrage de la surveillance pérenne, les industriels doivent lancer une étude technico-économique pour étudier les possibilités de réduction ou de suppression des polluants concernés. Cette étape devrait se terminer en 2015, mais on s’attend à des retards. « Aucun industriel n’est au niveau pour traiter ces molécules, constate Laurent Julvez, directeur de l’agence Ile de France de Guigues environnement. La France est mal positionnée par rapport aux autres pays européens. » « Les coûts vont exploser pour les industriels », complète-t-il. A titre d’exemple une étude de faisabilité, hors analyse, coûte entre 15 et 35.000 euros. Pour certaines substances les coûts prévisibles de la surveillance peuvent avoir un effet incitatif vis-à-vis des industriels qui chercheront ainsi à mettre en œuvre des produits de substitution moins nocifs pour l’environnement », conclut Gilles Berroir. A noter que les agences de l’eau financent 50 % des études et financeront probablement 50 % des investissements également.

Attention aux effets croisés
Pour limiter le rejet de micropolluants, le meilleur moyen revient à intervenir en amont sur les matières premières et sur les procédés, notamment grâce au recyclage de l’eau ou re-use (lire l’article). Mais ce sera plus ou moins compliqué selon les secteurs, pharmacie, pétrole ou encore nucléaire en tête. Une deuxième possibilité consiste à traiter les effluents à la sortie de l’usine, ce qui suppose de construire une installation. « On connaît les solutions de traitement, mais il est difficile de trouver les techniques à coûts raisonnables, en tenant compte de l’installation mais aussi de la maintenance », prévient Laurent Julvez. Différents travaux de recherche sont en cours. Le projet Amperes, qui regroupe le Cemagref,  Suez Environnement, le LPTC Bordeaux et l’Agence de l’eau Rhône Méditerranée Corse, vise à quantifier les micopolluants dans les eaux usées et à évaluer l’efficacité d’élimination des différentes filières d’épuration. Troisième possibilité, les industriels peuvent envoyer leurs effluents dans un centre de traitement agréé. Pour cela, il faudra que les centres de traitement se mettent à niveau, en étant notamment très précautionneux sur les mélanges qui peuvent intervenir. Laurent Julvez est aussi un des 18 membres du groupe de travail organisé par la Direction générale de la prévention des risques avec la Direction de l’eau du MEEDDM concernant l’élaboration d’un guide les études technico-économiques, qui sera édité fin 2010. Ce guide est principalement destiné à l’administration, mais il intéresse aussi les industriels et les agences de l’eau. Le groupe s’est réuni il y a quelques semaines pour la deuxième fois. D’après les premiers comptes-rendus, a priori, quatre à cinq molécules par site devraient être concernées par la RSDE. « Il faut faire attention à la dimension sous-produits et aux effets croisés », insiste Laurent Julvez. « Les boues constituent un problème. La France n’est pas équipée d’incinérateurs assez importants pour les brûler. » Autre sujet épineux, les résidus médicamenteux ne sont pas encore intégrés dans les RSDE. Corentine GasquetTextes de référence
  • Circulaire du 4 février 2002
  • Circulaire du 5 janvier 2009
Aller plus loin
  • Médicaments dans l’eau : présence, risques et potentialités de traitement (base documentaire Techniques de l’ingénieur)

 

Deux nouveaux brevets vont faciliter la dématérialisation des documents entrants

Factures fournisseurs, bons de commandes, factures clients, lettres de relances, courriers commerciaux et marketing, bulletins de paie… Les entreprises croulent sous le papier. Un employé de bureau utilise en moyenne 10.000 feuilles de papier par an et le coût d’utilisation du papier en entreprise peut être de 13 à 31 fois plus élevé que son coût d’achat. Il n’est donc par surprenant que les sociétés cherchent de plus en plus à automatiser et dématérialiser la réception et l’envoi de leurs documents. L’un des principaux éditeurs de solutions et services de dématérialisation à la demande, Esker, vient de déposer 2 brevets auprès du Bureau Américain des Brevets (U.S. Patent & Trademark Office) qui devraient permettre de réduire considérablement le délai de mise en œuvre d’une solution de dématérialisation des documents entrants et d’accélérer le processus de validation des données.

Le développement de règles métiers intelligentes grâce à la reconnaissance du contenu
La reconnaissance du contenu des documents de gestion non structurés, tels que les factures fournisseurs ou les bons de commande clients, est un véritable défi pour la dématérialisation des documents entrants. Les technologies actuelles impliquent une analyse poussée de la structure de l’original et la création systématique de règles métiers complexes pour identifier les données variables et exploitables propres à chaque type de document. Grâce au premier brevet déposé, Esker innove dans l’univers des règles métiers en permettant d’analyser intelligemment la structure des documents et d’identifier automatiquement les données variables, sans créer de règle ou nécessiter une intervention manuelle.En analysant un par un tous les documents entrants d’un même type, cette technologie établit une cartographie des données variables et des données fixes. Par exemple, sur une facture fournisseur numérisée, les variables telles que la date de paiement, le numéro de facture, le montant total qui changent d’une facture à l’autre, sont détectées automatiquement et directement mises à disposition sous forme de données au sein du workflow de gestion des factures fournisseurs, évitant ainsi de créer des règles métiers au cas par cas. » Cette nouvelle technologie permet aux entreprises de rationaliser leurs processus métiers et de gagner en efficacité. Concrètement, cette innovation élimine les heures consacrées à la création des règles d’extraction des données variables et réduit ainsi considérablement le délai de mise en œuvre d’une solution de dématérialisation des documents entrants « , déclare Jean-Michel Bérard, Président du Directoire d’Esker.

Une validation des documents accélérée grâce à une interface tout en un
Le second brevet déposé permet d’aider les personnes chargées du rapprochement entre factures, bons de commande et données de l’ERP. Dans le cadre de ce processus, le rapprochement entre l’image d’un document numérisé, les données extraites par OCR ainsi que les informations issues de l’ERP est d’une grande complexité technique. Ici, l’ergonomie a un rôle important à jouer afin de simplifier la tâche de la personne en charge de la validation.Cette nouvelle technologie, développée par Esker, accélère ce processus de validation des données et diminue le risque d’erreurs en présentant toutes les données nécessaires sur une seule page Web. L’image du document, les données extraites de l’image numérisée et celles issues de l’ERP sont affichées en temps réel, dynamiquement et distinctement sur le même écran. » Dans cette nouvelle ère du Cloud Computing et plus précisément de dématérialisation des échanges documentaires à la demande, nous sommes convaincus que l’effort porté sur l’ergonomie de nos solutions est une des clés du succès « , conclut Jean-Jacques Bérard, Vice-Président Recherche & Développement au sein d’Esker.

L’énergie, seul secteur à dynamiser l’emploi des ingénieurs

Conséquence de la crise, 2009 aura été une année difficile pour les ingénieurs. Tel est un des enseignements de la 21e édition de l’observatoire des ingénieurs réalisé par l’association Ingénieurs et Scientifiques de France (ex Cnisf). En l’espace d’un an, leur taux de chômage a progressé de 2 points passant de 3,4 % en 2008 à 5,4 % en 2009, ce qui reste toutefois bien en deçà des statistiques françaises (9,6 % de la population active au 4e trimestre 2009). Au total, ce sont pas moins de 18.000 ingénieurs qui ont perdu leur emploi l’année dernière, dont 22 % suite à un licenciement individuel pour motif économique, 22 % suite à la fin d’un CDD et 18 % en raison d’une autre forme de rupture de contrat. Dans ce domaine, ce sont les services informatiques et les services d’information qui ont payé le plus lourd tribut (10,5 %), suivi par la fabrication de produits informatiques, électroniques et optiques (8,4 %) et enfin, la métallurgie et la fabrication de produits métalliques sauf machine et équipements (7,5 %).

Parallèlement, le nombre de recrutements a fléchi. De 71.700 en 2008, il passe à 48.400 un an plus tard, accusant une baisse de 32,5 %. Là aussi, tous les secteurs n’ont pas réagi de la même manière. Cette contraction a été particulièrement sensible dans deux secteurs qui sont traditionnellement très dynamiques en matière d’emploi : les services informatiques et services d’information ainsi que la fabrication de matériels de transport, aérospatial. Tous deux accusent une baisse de 63 % des recrutements entre 2008 et 2009. Des chiffres et une tendance qui ont d’ailleurs été confirmés, pour l’informatique, par le Syntec, mais que Gérard Duwat, responsable de l’Observatoire de l’ISF pondère pour 2010. « Certes, l’année 2009 a été difficile pour les SSII, mais elles recrutent de nouveau en ce début 2010. Et d’ajouter : en matière d’accès à l’emploi, les ingénieurs se retrouvent dans la même situation qu’en 2003-2004. L’année qui vient nous dira si les recrutements repartent effectivement à la hausse. » En fait, seul un secteur a embauché en 2009. Il s’agit de celui de la production et de la distribution d’énergie. Les recrutements d’ingénieurs dans ce segment ont crû de 18 % passant de 2.567 postes en 2008 à 3.030 en 2009.

reference

Autre indicateur de ce ralentissement du marché de l’emploi des ingénieurs : l’accès au premier poste est de moins en moins facile. Alors qu’en 2008, 56,1 % des jeunes diplômés avaient trouvé un travail avant leur sortie de l’école, ils ne sont plus que 43 % en 2009, soit un recul de 13 points. Pour une part croissante d’entre eux, la durée de recherche d’emploi s’allonge. Alors qu’ils n’étaient que 9,6 % à être à la recherche d’un travail en mars 2009 bien qu’ils aient commencé à prospecter en 2008, ils sont 18 % dans cette situation en mars 2010.

Pour les autres, à savoir les ingénieurs en poste, la crise freine la mobilité. Le nombre d’ingénieurs ayant connu une mobilité géographique ou ayant changé d’employeurs a baissé en 2009 par rapport à 2008. Quant à ceux qui changent de niveaux hiérarchiques ou qui prennent en charge de nouvelles responsabilités, ils restent stables. Un statu quo qui se traduit par la baisse des salaires des 10 % d’ingénieurs les moins bien payés (33.000 euros en 2009 contre 33.464 euros en 2008) et par une hausse sensible du traitement de ceux se situant au dessus du salaire médian (75.000 euros au lieu de 72.651 euros pour le 3e quartile, et 107.000 euros contre 101.000 euros pour le 9e décile). Le salaire médian progresse, quant à lui, de 780 euros à 52.780 euros, tandis que le salaire moyen passe de 61.000 euros en 2008 à 63.014 euros en 2009. « Ce qui signifie, précise Gérard Duwat, que l’effort constaté en 2008 sur les salaires des débutants n’a pas été renouvelé en 2009. La pression s’étant relâchée, ce sont les hauts salaires qui ont été réajustés. Nous sommes passés d’une politique salariale d’attraction à une politique de rétention des talents. » 

Le tableau n’est toutefois pas complètement sombre. La crise a aussi favorisé la création d’entreprises. En 2009, 6.600 nouvelles sociétés ont été fondées par des ingénieurs contre 5.700 en 2008. Et parmi ces créateurs, les jeunes ne sont pas en reste. Autre facteur encourageant : le moral des ingénieurs en poste remonte quelque peu. Alors qu’ils étaient 12 % à craindre pour leur emploi en mars 2009, ils ne sont plus que 9 % en mars 2010. Dans le même temps, ils sont plus nombreux à penser que leur entreprise recrutera davantage (4 % en mars 2009 contre 14 % en mars 2010). Enfin, alors que 56 % des ingénieurs avaient ressenti l’impact de la crise sur leur vie professionnelle en mars 2009, ils ne sont plus que 46 % en 2010. Un impact essentiellement négatif conséquence d’une pression plus forte des clients et des donneurs d’ordre, d’une ambiance de travail détériorée et d’une charge de travail qui s’alourdit. Autres griefs qui remontent : l’association insuffisante des ingénieurs à la gouvernance de l’entreprise et un manque de clarté de la stratégie et de la communication de cette dernière. Deux problèmes récurrents depuis quelques années.

Par Anne-Laure Béranger

La population d’ingénieurs français à la loupe

Pour cette 21 éme enquête des « Ingénieurs et scientifiques de France », près de 44 500 ingénieurs diplômés, âgés de moins de 65 ans, exerçant une activité salariée comme cadres en France métropolitaine issus de 116 écoles, ont répondu au questionnaire mis à disposition sur Internet par le relais des associations d’anciens élèves des écoles d’ingénieurs.

A la fin 2009, le nombre des ingénieurs diplômés de moins de 65 ans était estimé à 702 300, 26% d’entre eux ayant moins de 30 ans. Entre la fin 2008 et la fin 2009, le nombre des ingénieurs actifs, y compris les demandeurs d’emploi, (664 900) a progressé de moins de 10 000 unités. Le nombre des ingénieurs ayant le statut cadre et travaillant en France dans des fonctions techniques est, lui, stable (58%).

Très net recul des recrutements

Par rapport à l’an passé, les grands changements enregistrés en 2009 consistent en la légère diminution du nombre des ingénieurs en activité (599 400 vs. 601 000 en 2008) et à la forte diminution de la part des mobilités internes (34 % vs. 38 % en 2008). En 2009, on a compté 48 400 recrutements en France, tous secteurs et toutes activités confondus, soit un recul de 32 % par rapport à 2008 qui a enregistré 71 700 recrutements.

En fonction des classes d’âges, la distribution est identique à celle de 2008 : les jeunes de moins de 30 ans représentent 58 % des recrutements, les 30-44 ans 34 % et les 45-64 ans 8 %. Avec 78 % (contre 83 % en 2008), les entreprises du secteur privé restent de loin les plus grands recruteurs d’ingénieurs en France. Les entreprises nationales (EDF, SNCF…), d’économie mixte, EPIC ont recruté 10 % des ingénieurs en 2009 (7 % en 2008) ; l’Etat, les collectivités territoriales et le secteur public hospitalier 9 % (5 % en 2008). Les recrutements se font d’abord pour les fonctions d’études et cette prédominance est plus marquée pour les premiers emplois que pour le reste des recrutements : 46 % au lieu de 36 %. Les emplois en production viennent en deuxième rang avec 20 % du total, suivis de très près par l’informatique.

Forte progression des ex-apprentis

Si tous les ingénieurs formés dans les écoles habilitées par la Commission des Titres d’Ingénieurs en sortent au niveau Bac+5, ils ont généralement eu des parcours préalables très variés. 84 % des ingénieurs diplômés sont issus de la formation initiale (vs. 90,1 % en 2008). La proportion de ceux issus des classes préparatoires passe de 53,4 % en 2008 à 52 % en 2009.

Introduit en 1989, l’apprentissage connaît une forte progression : estimée à 1,7 % du total des diplômés en 2008, la part des ex-apprentis passe à 5,5 % du total des diplômés en 2009. Ces apprentis sont deux fois plus nombreux parmi les ingénieurs de moins de 30 ans : 12 %. Comme en 2008, les disciplines regroupées dans le vaste ensemble des STIC  représentent 22,3 % du total des formations d’ingénieurs (vs. 23,5 % en 2008). Les ingénieurs généralistes ou à spécialités  multiples représentent 19 %, les ingénieurs spécialisés en mécanique, production et productique, 15,2 %.

Le difficile premier emploi

Alors que depuis 2006 plus de la moitié des étudiants trouvaient un premier emploi avant la remise du diplôme, cette proportion tombe à 43 % en 2009 (vs. 56 % l’an dernier). 18 % des jeunes ayant commencé à chercher en 2009 étaient toujours en recherche de leur premier emploi en mars/avril 2010. Ils étaient 10 % l’an dernier, 4 % il y a deux ans. Dans chacune des dix dernières promotions, 14% des ingénieurs affirment avoir trouvé leur premier emploi suite à une formation complémentaire (vs.15 % en 2008). 

Si les sociétés de services en informatique ou en ingénierie perdent chacune, avec 14,3%,  près de 3 points dans le total de l’emploi, on voit aussi apparaître un poste « autres » dans le secteur tertiaire qui – vu son importance – doit rassembler les réponses d’ingénieurs employés dans les sociétés de services. L’énergie et le matériel de transport voient aussi leur poids dans les premiers emplois diminuer entre 2008 et 2009 avec un peu moins de 8%. Un nouvel item « Recherche-développement scientifique » regroupe 4,1% des emplois.

Légère progression du « turn over »

Cette année encore, l’enquête confirme que c’est en capitalisant sur ses acquis que l’on a le plus de chances de faire progresser sa carrière. Ainsi, 59 % d’ingénieurs pensent augmenter leurs responsabilités sans changer d’activité dominante.
En cinquante ans, la proportion des ingénieurs de moins de 35 ans qui ont eu un seul employeur a diminué de 10 points, signe d’un turn-over un peu plus important. La part des ingénieurs qui terminent leur carrière dans la même entreprise est de 5 point inférieure en 2009 à celle de 1958, passant de 22 % à 17 %.

Le nombre moyen d’employeurs selon les classes d’âge corrobore le constat précédent : les ingénieurs et les entreprises tendent à conclure des engagements de longue durée. La connaissance de l’entreprise, de ses équipements, de ses clients et partenaires participe de l’efficacité des ingénieurs et des performances de l’entreprise.

Contestation du style de management

La satisfaction professionnelle des ingénieurs ayant le statut cadre est en léger recul par rapport à 2009, passant de 47 % à 44 %.Comme par le passé, les écarts entre classes d’âge sont limités, les jeunes se montrant le plus souvent satisfaits. Une majorité d’indicateurs, source de forte satisfaction en 2009, le restent en 2010, mais à un niveau plus faible. Comme l’an dernier, ils ont trait à l’intérêt, à l’autonomie et à la diversité du travail. Comme par le passé, les principales sources d’insatisfaction portent sur l’organisation générale de l’entreprise. Des éléments essentiels comme « la pertinence de la stratégie » ou « le style de management » enregistrent une forte augmentation du taux d’insatisfaits (de l’ordre de +4 à +5 %) qui laisse présupposer d’un décalage grandissant entre les ingénieurs et la politique de leur entreprise.

Majorité d’emplois pour l’industrie

En toute logique, ce sont dans les régions les plus industrialisées ou celles qui regroupent les sièges sociaux que se situent les entreprises employant le plus d’ingénieurs en France. C’est donc dans la région parisienne qu’est concentrée la plus forte proportion de ces emplois avec 44 % (vs.44,4 % en 2008 et 45 % en 2007), suivie de Rhône-Alpes 12,3 % (vs. 11,3 % en 2008 et 11,7 % en 2007), Midi-Pyrénées 6,4 % (vs. 6,8 % en 2008 et 6,0 % en 2007) et Provence-Alpes-Côte d’Azur-Corse 5,6 % (vs. 5,4 % en 2008 et 2007).

Alors que l’emploi en France se maintient à un niveau analogue à celui de 2008 pour les ingénieurs avec le statut cadre (529 000), la part des emplois industriels baisse de 1,6 points (- 7600 emplois). Si l’on ajoute les 36 800 ingénieurs qui ont travaillé pour l’industrie tout en étant employés par une société de services, la part de l’emploi pour l’industrie atteint 54,6 %, ce qui est très supérieur à la part de l’emploi industriel pour les salariés français.

Une profession touchée par la crise

Les résultats de la crise sont indéniables : en 2009, le taux de chômage (à 3,4 % dans cette population fin décembre 2008) a augmenté de 2 points. Dans le même temps, les recrutements sont en net recul par rapport à 2008 : 48 400 en 2009 vs. 71 700 en 2008. Si les ingénieurs sont plus nombreux que l’an dernier à penser que leur entreprise recrutera davantage en 2010 (14 % vs. 4 %), on note également un taux supérieur d’indécis (27 % vs. 14 %). On  vérifie encore cette année que la crise touche les différents secteurs de façon inégale. Dans les secteurs qui fabriquent des produits informatiques, électroniques et optiques, dans les télécommunications et dans l’industrie pharmaceutique les ingénieurs se sentent presque deux fois plus exposés que la moyenne. A l’inverse, les ingénieurs qui sont deux fois moins inquiets que la moyenne, sont en poste dans l’administration, la production ou distribution d’électricité, de gaz, de vapeur et d’air, le raffinage, le transport et les industries extractives.

De plus en plus de demandeurs d’emplois

La proportion des demandeurs d’emploi chez les ingénieurs a enregistré une forte croissance de 2 points en 2010 où on compte 5,4 % de demandeurs d’emploi en moyenne parmi les actifs, au lieu de 3,4 l’an passé, soit +58 %. L’augmentation de la présence des demandeurs d’emploi se fait particulièrement sentir parmi les « moins de 30 ans », qui rencontrent plus de difficultés pour accéder à leur premier emploi, et chez les « 45-49 ans », où le taux passe de 2,8 à 5,2 %. 35 600 ingénieurs ont répondu qu’ils étaient sans activité professionnelle et en recherche d’emploi au 31 décembre 2009. Parmi eux : 11 000 (31 %) étaient des jeunes diplômés à la recherche de leur premier emploi et 24 600 (69 %) étaient en recherche d’un nouvel emploi, dont 18 000 environ avaient perdu ou quitté leur emploi en 2009.

Parmi les 18 000 ingénieurs ayant perdu ou quitté leur emploi en 2009, la proportion des départs non choisis prédomine. En effet, les motifs les plus souvent cités sont le licenciement individuel pour motif économique (22 %), la fin d’un CDD (22 %) ou encore un autre type de rupture de contrat (18 %). 4 400 d’entre eux (soit 25 %) exerçaient une activité de production et fonctions connexes au moment où ils ont perdu ou quitté leur emploi. 5 430 (31 %) travaillaient dans le secteur Etudes, recherche et conception.  Les services informatiques et services d’information ont été les plus touchés (10,5 % soit 1 860 personnes), la fabrication de produits informatiques, électroniques et optiques (8,4 %, 1 490 personnes) et la métallurgie et fabrication de produits métalliques sauf machines et équipements (7,5 %, 1 330).

Première mondiale pour un électrolyseur PEM

L’hydrogène occupe une place prépondérante dans l’activité industrielle mondiale. Ce gaz est utilisé en grande quantité par l’industrie pétrochimique principalement pour la désulfurisation des carburants et par l’industrie chimique pour la synthèse de l’ammoniac, pour la production de méthanol et d’acide chlorhydrique. L’industrie l’agroalimentaire (hydrogénation des graisses et des huiles), l’électronique (semi-conducteurs), la métallurgie sont également de grandes consommatrices d’hydrogène. Sans compter que, pour palier à l’épuisement des combustibles fossiles, l’hydrogène est désormais amené à devenir un vecteur énergétique en complément de l’électricité.

Aujourd’hui, 90 % du gaz hydrogène est produit de manière industrielle soit par vaporeformage de méthane (craquage du gaz naturel par la vapeur d’eau à haute température), soit par oxydation partielle (production de l’hydrogène à partir d’hydrocarbures lourds et de dioxygène). Deux procédés qui émettent d’importantes quantités de CO2 : la production d’une tonne d’hydrogène par vaporeformage du gaz naturel génère ainsi 9 tonnes de CO2 et 18 tonnes de CO2 par oxydation partielle.

Un troisième procédé, l’électrolyse de l’eau, constitue la solution la plus « durable » de production d’hydrogène. Moyen de production d’hydrogène propre qui ne génère ni gaz à effet de serre (GES) ni CO2 pouvant être alimenté en énergie électrique d’origine renouvelable, il permet de stocker de l’électricité sous forme chimique.

Deux technologies d’électrolyse sont actuellement utilisées : l’électrolyse alcaline avec l’utilisation comme électrolyte, d’une solution alcaline conductrice d’ions pour la dissociation de l’eau et l’électrolyse PEM qui utilise un électrolyte solide à membrane polymère échangeuse de protons (Proton Exchange Membrane) à la place d’un électrolyte liquide (électrolyse alcaline).

C’est cette dernière que la Compagnie Européenne des Technologies de l’Hydrogène (CETH), spécialisée dans la conception et la fabrication de systèmes de production et de purification de l’hydrogène, a utilisé pour mettre au point la première solution mondiale d’électrolyseur PEM multistacks à régulation de charge. Conçu et développé dans le centre de recherche de la société, l’électrolyseur PEM GENHY multistacks à régulation de charge produit de l’hydrogène pur à plus de 99,5 % de manière continue et en quantité industrielle.

La CETH devient ainsi la première société au monde à avoir développé cette solution industrielle permettant, à la fois, une production d’hydrogène décarbonée et sans émission de gaz à effet de serre, tout en offrant une disponibilité très élevée de la production d’hydrogène sur des sites industriels décentralisés. Cet électrolyseur ayant été conçu pour fonctionner avec une alimentation intermittente, il est parfaitement adapté au stockage des énergies renouvelables.

Assemblage en parallèle de plusieurs stacks pour produire 8 Nm3/h d’hydrogène

La production de quantités importantes d’hydrogène et d’oxygène par électrolyse de l’eau nécessite l’association de plusieurs cellules individuelles PEM en empilement. Ces cellules jouent le rôle de séparateur physique des produits de l’électrolyse. A l’anode, l’eau se dissocie en oxygène et en protons. A la cathode les protons se recombinent aux électrons pour former l’hydrogène. L’empilement de ces cellules PEM est appelé stack. La CETH a développé une solution novatrice portant sur l’intégration de plusieurs stacks de cellules PEM, assemblés en parallèle avec régulation de charge.

Cette technologie propriétaire repose sur l’intégration de plusieurs stacks de cellules PEM avec régulation de charge. Ce procédé facilite la gestion des délestages internes sans interrompre le fonctionnement du générateur. La production d’hydrogène reste constante et continue 24h sur 24h. La maintenance peut être programmée en fonction des exigences du procédé industriel. Par ailleurs, il s’agit d’une solution compacte : pour une production équivalente au système alcalin, les électrolyseurs de la gamme GENHY sont trois fois moins volumineux.

Actuellement, la société CETH qui, en avril dernier, avait réalisé le premier prototype mondial de reformage à membrane de bioéthanol de deuxième génération permettant une production d’hydrogène de haute pureté sans recours à l’électricité, finalise dans ses locaux l’assemblage du premier pilote industriel d’une capacité de production de 8 Nm3 d’hydrogène par heure sous 16 bars de pression. En mode sans régulation de charge, ce pilote industriel est également dimensionné pour une production opérationnelle d’hydrogène de 12 Nm3 /h, ce qui représente un niveau de production d’hydrogène encore jamais atteint par un électrolyseur de type PEM multistacks.

Ce procédé de CETH s’adresse tout particulièrement aux différentes applications industrielles nécessitant un hydrogène d’une grande pureté (les seules impuretés contenues dans l’hydrogène sont de l’humidité et de l’oxygène, lui-même utilisable pour d’autres applications, comme les piles à combustible), permet une réduction des phases de maintenance des unités de production de 30 à 40 % par rapport aux procédés alcalins, et ne requiert pas l’utilisation de solution caustique ou de liquide corrosif (KOH pour l’électrolyse alcaline). Enfin, ses modules se corrodent moins vite que ceux utilisés pour les technologies alcalines et les dépenses d’exploitation sont inférieurs de 20 à 30 % par rapport aux procédés alcalins.

Par Marc Chabreuil

La combinaison VDI-SBC, la meilleure approche de la virtualisation

La virtualisation de poste de travail ou autrement dénommé VDI (Virtual Desktop Infrastructure) est la solution technologique dont tout le monde parle actuellement. Les plus grands analystes internationaux comme le Gartner ont tracé la voie et présenté tous les avantages de cette approche :

  • les systèmes d’exploitation et les applications ne sont plus installés directement sur les postes des utilisateurs mais sur des serveurs ;
  • la direction informatique d’une entreprise peut gérer simplement et complètement son infrastructure en allégeant, notamment, les opérations de maintenance ;
  • l’utilisateur, au démarrage de son ordinateur, a l’impression d’être sur son poste de travail habituel, rien ne change, mais, en fait, il accède à une image, une représentation virtuelle de son système (Windows Seven par exemple), image reliée au data-center qui héberge réellement son système.

Par exemple, si j’ai un parc de 1.000 PC classiques avec Windows Vista, comment puis-je basculer facilement vers la nouvelle version du système de Microsoft ? En évoluant vers une infrastructure VDI, mon déploiement des 1.000 systèmes d’exploitation Microsoft Seven se réalise en quelques clics sur mon infrastructure serveurs. Les utilisateurs, à la connexion suivante, voient sur leurs postes de travail, la mire Vista remplacée par celle de Seven. La solution ultime étant de substituer aux postes de travail PC, des clients légers, moins onéreux et radicalement moins consommateurs d’énergie. Le client léger ne contient rien, en dehors de la partie exécutant l’image virtuelle.

VDI et virtualisation d’applications : quelle différence ?

Tout ceci est parfait, mais plusieurs zones d’ombres, susceptibles de freiner considérablement son adoption, apparaissent sur ce schéma. Au premier abord, la technologie évoquée ressemble sensiblement à la technologie largement plus ancienne qu’est la virtualisation d’applications SBC (Server-Based-Computing ou publication d’applications). Cette dernière consiste à faire fonctionner les applications à distance sur des serveurs et à renvoyer leur image ou représentation virtuelle à l’utilisateur sur son poste de travail. Seules les applications sont  virtualisées et non l’ensemble du système d’exploitation-applications, comme c’est le cas avec le VDI. La différence est fondamentale : le SBC est conçu pour gérer la vie des applications, en particulier, l’instantanéité de leur mise à jour, là, où le VDI aura tendance à figer les applications embarquées dans le système d’exploitation. Combien de clients nous expliquent que bien qu’ils aient été séduits et même impressionnés par la technologie du VDI, ils l’abandonnent après un premier test parce qu’ils ont les pires difficultés à maintenir les applications ou obtenir un niveau de service équivalent à celui qu’ils connaissaient avec leur « vieille technologie » SBC.

Un autre point défavorable est le coût de cette infrastructure VDI, lié à la migration du système d’exploitation. Sans entrer dans le détail, la différence majeure tient au coût du stockage qui est particulièrement élevé pour le VDI et nul pour le SBC. Pour un environnement bureautique typique avec 200 à 300 utilisateurs, pas moins de 10 GB d’espace disque et 1GB RAM sont nécessaires pour chaque utilisateur. En comparaison, la virtualisation d’applications ne requière que 200 MB RAM et aucun espace de stockage sur le poste.

Les directions informatiques déjà inquiètes par la manière dont elles devaient revoir le cycle de vie des applications avec le VDI, toussent fortement quand elles reçoivent le devis de l’architecture complète. Certes, le coût d’acquisition et de gestion sera inférieur au coût d’une infrastructure classique sans virtualisation, mais, globalement, un écart substantiel apparaît au profit du mode SBC.

Le VDI ne serait-il qu’une belle promesse sans lendemain ?

Le VDI  a, au contraire, toute sa place dans un mode combiné avec le SBC où il est capable de répondre parfaitement aux besoins, sur deux points principaux :

  • la capacité de plus grande personnalisation de l’environnement offerte à l’utilisateur (importante pour certaines catégories d’entre eux) ;
  • une totale adéquation avec le système pour faire fonctionner certaines applications, là, où le SBC exécute l’application directement sur un serveur créant des incompatibilités.

Ce mode combiné, associant  VDI et SBC, consistera pour un directeur informatique,  gérant 1.000 postes de travail, à sélectionner et à faire évoluer sa virtualisation suivant les besoins et usages de son entreprise. Ainsi, il commencera par centraliser et virtualiser ses applications. Il pourra ensuite décider de virtualiser les postes de travail, au cas par cas, lorsque la virtualisation d’applications n’est pas adaptée. Et même en utilisant la virtualisation de postes de travail, il utilisera la technologie de virtualisation d’applications pour faire vivre (et notamment maintenir) les applications au sein du bureau virtualisé. Une combinaison des deux technologies est donc la meilleure approche possible pour répondre aux attentes des utilisateurs de plus en plus variées.

En conclusion, adoptez la meilleure démarche pour le VDI : virtualisez vos applications dès que possible et, pour vos postes de travail, faites-le, en fonction de vos besoins spécifiques.

Par Marion Gravot, responsable marketing produit chez Systancia

Le re-use, la meilleure alternative pour l’industrie

Prenez une navette spatiale. L’eau circule dans un circuit complètement fermé, avec des recyclages à l’infini, ou presque. Des rejets liquides quasi-inexistants, un appoint très limité. « C’est un système ultime d’un circuit complètement bouclé », explique Jean-Louis Roubaty, professeur associé des universités. En théorie, ce fonctionnement idéal peut très bien s’appliquer à une usine, avec à la clé une réduction de la consommation d’eau et surtout des rejets. C’est la grande tendance selon les professionnels du secteur, qui l’appelle le « re-use », ou recyclage de l’eau (lire l’interview de François Morier, Proserpol). Le phénomène lui n’est pas nouveau. « Cela concernait surtout des sites très particuliers », explique Bernard Gély, directeur du pôle eaux industrielles de Guigues environnement. Et de citer l’exemple d’une raffinerie de pétrole en région parisienne dont la seule eau accessible était la nappe de Champigny, qui alimente notamment les parisiens et qui baissait en quantité et en qualité. Située à 17 km de la Seine, elle ne pouvait rejeter ses effluents que dans ce cours d’eau. Il y a 30 ans, une première en France, cette raffinerie a mis en place un système de séparation des eaux salées et des eaux non salées, avec deux réseaux d’égouts et un traitement séparé, l’eau moins saline étant recyclée en réfrigération. En France, des projets plus ambitieux de re-use sont étudiés, par exemple pour une autre usine toujours à proximité de la Seine. Le Japon est très en pointe sur le sujet. Le Canada s’y intéresse aussi de près, notamment dans l’industrie pétrolière. Il dispose en effet de la deuxième réserve de pétrole derrière l’Arabie saoudite, mais il est difficile à exploiter, car très visqueux. « L’exploitation se fait en injectant de la vapeur dans le sol pour réchauffer le pétrole, commente Bernard Gély. On obtient un mélange pétrole eau. L’eau est ensuite traitée pour la recycler dans les chaudières. Il s’agit de débits très importants, de l’ordre de 1.000 à 2.000 m3/h. » De grands investissements sont en cours en Chine, en Inde ou au Brésil. Ces pays en forte croissance intègrent le re-use dès la conception. De tels projets sont plus difficiles à mener pour des installations existantes.

Bien définir les spécifications de l’eau
Le re-use suppose un investissement conséquent, avec des technologies nouvelles et éventuellement des changements de procédés de fabrication. Il se fait donc le plus souvent sous la contrainte, comme dans le cas de cette raffinerie de région parisienne citée ci-dessus. Les évolutions en cours au niveau réglementaire vont dans ce sens : réduction des  prélèvements dans la nappe phréatique pour certains sites et surtout limitation voire réduction des polluants dans les rejets (lire l’article). « Quand on veut recycler, il faut pour l’instant un traitement encore plus sévère que pour le rejet dans le milieu naturel », précise Bernard Gély. Si les contraintes deviennent plus fortes pour le rejet, il deviendra plus avantageux de recycler. Au niveau technologique, il existe deux grandes familles : l’évaporation et l’osmose inverse. Ces technologies sont déjà bien au point. « L’enjeu pour les techniques membranaires, commence par une parfaite connaissance des effluents à traiter, condition indispensable à la fiabilité des dimensionnements et à la pérennité des installations », précise Bertrand Garnier, directeur technique d’Ondeo industrial solutions (Suez Environnement). A moyen terme, l’utilisation de nanoparticules dans les technologies membranaires devrait permettre de nouvelles avancées. Pour mener au mieux un projet de re-use, il faut avant tout bien connaître les eaux disponibles sur le site. « Il faut définir des spécifications de l’eau comme matière première dans un procédé donné », explique Jean-Louis Roubaty. Les spécifications seront très différentes selon les procédés et plus ou moins complexes selon les secteurs industriels, la pharmacie et l’électronique figurant parmi les plus complexes. « Pour optimiser le re-use, il faut éviter la ‘surqualité’, préconise-t-il. Il faut notamment éviter les blocages psychologiques. Un atelier va vouloir de l’eau de rivière purifiée alors que ce n’est pas forcément nécessaire. » Par ailleurs, il faut veiller à ne pas provoquer d’autres formes de pollution, avec des rejets sous forme physique (boue) ou gazeuse. Il faut aussi veiller à prendre en compte la réglementation sur les légionelles et les systèmes de refroidissement. Par Corentine Gasquet

Les technologies de l’eau : situation et développements

Par Sylvie Baig, Responsable Scientifique Innovation à la Société Degrémont, groupe Suez Environnement, et Michel Roustan, Professeur Émérite de Génie des Procédés à l’Institut National des Sciences Appliquées de Toulouse.L’eau est essentielle à la vie et a toujours constitué un facteur clé du développement de l’activité humaine d’où l’intérêt de la protéger. Son usage s’est d’ailleurs intensifié et les volumes d’eau utilisés par l’homme ont décuplé depuis le début du XXe siècle. L’agriculture consomme près de 70 % de l’eau utilisée, l’industrie 20 % et l’utilisation domestique 10 %. La consommation varie selon les pays car elle dépend notamment du climat, du mode d’agriculture, du niveau d’industrialisation des pays et des secteurs, du niveau d’accès à l’eau potable et des pratiques domestiques. Bien que l’eau soit la ressource la plus abondante sur Terre, l’eau douce accessible ne compte que pour moins de 1 % de la ressource totale mondiale et est inégalement répartie. Au plan mondial, l’essor démographique, l’urbanisation croissante, le développement économique s’accompagnent d’une hausse de la consommation en eau et d’une dégradation accrue de la qualité des ressources naturelles. Résultat : l’eau représente l’un des enjeux majeurs du XXIe siècle. Pour y faire face, la réglementation ne cesse de se renforcer visant une meilleure gestion des ressources en eau pour préserver la santé des consommateurs et, au-delà, assurer un usage raisonné et durable de l’eau. Ce contexte imprime un fort dynamisme dans le développement des technologies de l’eau.

Les technologies de traitement de l’eau
L’eau pure n’existe pas dans la nature. Elle contient diverses substances provenant soit du milieu dans lequel elle a évolué, soit des rejets d’activités humaines. Il est donc nécessaire de la traiter afin d’éliminer les polluants qu’elle contient jusqu’à atteindre une qualité conforme à son utilisation ultérieure : eau de consommation ou eau de procédé industriel. L’eau usée est épurée avant recyclage dans le procédé industriel, réutilisation ou rejet dans le milieu naturel ou recyclage (Fig. 1 et 2).

Figure 1 : Cycle Urbain de l’eau
 

Figure 2 : cycle de l’eau – usage industriel
La nature des polluants et le débit d’eau à traiter déterminent les opérations unitaires de traitement à mettre en œuvre en filière pour atteindre les objectifs de traitement réglementaires (cas de l’eau de consommation, de certaines eaux de procédé industriel, de l’eau restituée au milieu naturel) ou fixés par cahier des charges (cas de l’eau de procédé, de l’eau recyclée ou réutilisée dans l’industrie).

Les opérations unitaires – procédés industriels
Les différentes opérations unitaires couramment utilisées dans les procédés industriels de traitement de l’eau sont récapitulées à la figure 3 en fonction du type de pollution à laquelle elles s’adressent. L’élimination des matières colloïdales et des matières en suspension impliquent des techniques de séparation. Le principe du traitement des matières solubles est plus varié : conversion par réaction chimique ou biologique, transfert de phase, concentration…D’autres opérations unitaires concernent le traitement des déchets du traitement des eaux usées urbaines ou industrielles :
  • les boues produites : leur traitement consiste soit à réduire leur volume en séparant les phases liquide et solide (épaississement, déshydratation, séchage), soit à dégrader leur contenu organique par voie biologique (digestion, compostage) ou par voie chimique (oxydation par voie humide), et/ou à inhiber sa fermentation (stabilisation chimique ou biologique) ;
  • l’air vicié malodorant : il est collecté sur les ouvrages et épuré par absorption avec réaction chimique, adsorption, oxydation chimique ou biologique.

Figure 3 : opérations unitaires du traitement de l’eau selon la nature et la forme de pollution
Pour chaque opération, différentes techniques de mise en œuvre existent. Description détaillée est faite dans les différents articles des Techniques de l’Ingénieur.

Les filières de traitement
Les différents procédés unitaires sont intégrées en filières sur la base de :
  • leur domaine particulier d’application (débit, nature du polluant, concentration, performances, coûts d’investissement et d’exploitation) ;
  • leur besoin en terme de prétraitement en vue d’optimiser les performances et le dimensionnement de l’installation (matières en suspension, toxicité…) ;
  • leur impact sur le traitement aval (sous-produits, biodégradabilité et toxicité induites, conditions du milieu en pH et température) ;
  • le traitement des déchets issus du traitement de l’eau : air, concentrats ou saumures, effluents de lavage, boues.
La filière débute généralement par l’élimination des matières insolubles, se poursuit avec l’élimination des polluants solubles et s’achève sur la désinfection lorsque nécessaire. Elle est plus ou moins complexe selon les flux de pollution à abattre et de la variabilité journalière et saisonnière de ces derniers.

Orientations récentes et éléments prospectifs
L’ensemble s’articule autour de deux axes : filière de traitement et technologies.

Au niveau filières de traitement : une vision globale eau, énergie, matière, environnement
Le panorama des technologies du traitement de l’eau est vaste et s’accorde à l’utilisation de plus en plus fréquente de ressources alternatives aux ressources naturelles que sont les eaux de surface et les eaux naturelles moyennant l’adaptation des filières de traitement :
  • le dessalement de l’eau de mer et des eaux saumâtres par filière osmose inverse connaît une forte croissance devant la filière distillation pour la production d’eau potable. Elle est portée par la fiabilisation du prétraitement pour un meilleur contrôle des problèmes de colmatage, de la réduction des consommations énergétiques permise par les nouveaux matériaux membranaires et par la maîtrise de l’impact du captage et des rejets sur l’écologie marine (Fig. 4) ;

Figure 4 : exemple de filière de dessalement d’eau de mer en vue de la production d’eau potable (cas de l’usine LLobregat de Barcelone)
 
  • en complément au recyclage de l’eau dans une étape particulière du procédé, l’industrie adopte franchement la réutilisation des eaux usées avec des débits plus importants en boucle au niveau d’un site ou en cascade au niveau d’un parc industriel. Poussé à l’extrême, le rejet zéro est atteint. Les filières de traitement associent les technologies rustiques aux techniques avancées avec comme principaux critères de choix, les performances attendues, les coûts, la facilité de conduite, les contraintes d’exploitation, l’évaluation des risques encourus au regard du gain sur le prélèvement (Fig. 5 par exemple) ;

Figure 5 : stratégie d’optimisation de la réduction de production de boues en industrie
 
  • l’industrie s’intéresse également à l’utilisation des eaux pluviales. Les techniques de traitement adaptées exploitent le caractère particulaire des polluants comme dans le cas des rejets urbains par temps de pluie.
Les nouvelles filières assimilent les eaux résiduaires à une source d’énergie et visent au minimum l’autosuffisance assortie d’un bilan carbone optimisé : l’énergie thermique et hydraulique des eaux usées est récupérée, la digestion des boues est poussée à l’extrême souvent grâce à une pré-hydrolyse et le biogaz produit permet de co-générer de la chaleur ou de l’électricité. La stratégie de gestion des boues s’intègre alors complètement dans l’optimisation de la filière de traitement d’eau (Fig. 6).

Figure 6 : vue d’ensemble de l’installation ultrafiltration – osmose inverse pour la réutilisation en cascade de 70 % des eaux usées de la raffinerie de Taranto (Italie) en tant qu’eau déminéralisée de centrale d’énergie.

Au niveau technologies et procédés : intensification de procédé, ouverture de champ d’application, approche globale
L’intensification de procédé passe par l’optimisation de la conception des équipements et de leur dimensionnement, ce qui a pour conséquence d’augmenter les performances et ainsi d’améliorer la compétitivité : aération dans les procédés biologiques, mise en œuvre de bioréacteur à membranes, développement de systèmes à biofilm, application de pression de sélection dans les procédés biologiques, réduction de la production de boues par découplage du métabolisme…L’ouverture du champ d’application répond aux nouvelles réglementations en terme de désinfection et d’élimination de polluants organiques persistants. Elle concerne principalement les technologies de désinfection (UV en particulier) pour l’inactivation de parasites (Fig. 7), d’oxydation chimique (AOP), de séparation membranaire.

Figure 7 : exemple de filière de la production d’eau potable à partir d’eau de surface (cas de l’usine de Joinville).
Enfin, l’approche globale des procédés favorise l’émergence de nouvelles voies de valorisation matière pour les coproduits de traitement d’eau : biogaz sous forme d’hydrogène, cendres d’incinération des boues en matériaux de construction…

En transversal, une démarche scientifique concentrée à deux niveaux
Il s’agit :
  • d’accroître les connaissances fondamentales par une approche mécanistique : analyse multi-échelle (de la molécule au procédé), compréhension des phénomènes aux interfaces (capture de particules, émulsions, séparation membranaire), structuration de matrices biologiques et réactivité, sélectivité des espèces réactionnelles, utilisation d’outils de caractérisation (CFD…), de modélisation, d’analyse de cycle de vie.
  • de concevoir des réacteurs plus performants : multifonctionnels ; sélectifs vis-à-vis des polluants, intégrés dans une filière globale eau, énergie, matière.
 Les directives européennes et l’eauLa politique communautaire de l’environnement est née en 1972 avec l’eau dans les premiers champs d’intervention de la la Communauté européenne : la première directive dans ce domaine date de 1975 et traite de la qualité des eaux potabilisables. À ce jour, plus d’une vingtaine de directives européennes concernent plus ou moins directement le cycle de l’eau (eaux destinées à la consommation humaine, ressource en eau, milieux naturels : eaux douces souterraines ou superficielles, eaux marines, eaux estuariennes).La directive cadre sur l’eau 2000/60/CE établit un cadre pour une politique communautaire dans le domaine de l’eau. Elle impose des objectifs environnementaux ambitieux :
  • l’atteinte, en 2015, du “bon état pour toutes les masses d’eau” (cours d’eau, lacs, eaux souterraines, eaux côtières et de transition) et la non-détérioration des ressources en eau ;
  • la réduction ou la suppression de la pollution par les substances prioritaires et les substances dangereuses prioritaires.
Elle complète les directives européennes déjà en vigueur (directive Nitrates issus de l’agriculture 91/676/CE, directive Eaux résiduaires Urbaines 91/271/CE, directives 91/414/CEE et 98/8/CE relatives à la mise sur le marché des produits phytopharmaceutiques et des biocides respectivement, la directive IPPC 96/61/CE sur la prévention et la réduction intégrées de la pollution et la directive 99/31/CE concernant la mise en décharge des déchets. Des directives “filles” clarifient certains objectifs de la DCE : directive 2006/118/CE sur la protection des eaux souterraines contre la pollution et la détérioration, directive 2007/60/CE relative à l’évaluation et à la gestion des risques d’inondation incluant les risques de pollution environnementale et les installations visées par la directive IPPC, directive 2008/105/CE établissant des normes de qualité environnementale des substances prioritaires et certains autres polluants dans le domaine de l’eau.Les États membres sont responsables de la mise en œuvre de la DCE au niveau national. Le texte a été transposé en droit français en particulier par la loi sur l’eau et les milieux aquatiques du 30 décembre 2006.Voir aussi :
  • Protection juridique et réglementaire des milieux aquatiques
  • RSDE : un grand chantier encore à ses débuts

Cet article a été initialement publié dans Instantanés Techniques, décembre 2009, n°56       

Médicaments dans l’eau : quels risques et quels traitements ?

A l’instar d’autres micropolluants comme les détergents, les produits de nettoyages, les additifs des plastiques, les hydrocarbures, les pesticides, etc… les médicaments, sous une forme inchangée ou sous la forme des métabolites actifs, se retrouvent aujourd’hui dans l’eau. Leur présence dans les effluents des stations d’épuration a d’ailleurs été rapportée dans plusieurs études depuis les années 70. D’abord traitée avec une certaine légèreté, ce type de pollution des milieux aquatiques est désormais considéré avec beaucoup plus de sérieux. Il est vrai qu’au niveau européen, ce sont des milliers de tonnes de médicaments humains et vétérinaires qui sont excrétés, chaque année, et qui se retrouvent ainsi dans les eaux usées.Mais quels sont les composés pharmaceutiques que l’on retrouve dans les eaux usées et potables ? Quels sont les risques réellement encourus ? A quelle dose sont-ils toxiques ? Et quels sont les voies possibles de leur élimination ? Autant de questions auxquelles Luis Fernando Delgado Zambrano et Claire Albasi tentent de répondre dans l’article intitulé « Médicaments dans l’eau : présence, risques et potentialités de traitement » de la collection Recherche et Innovation des éditions Techniques de l’Ingénieur.Pour lire l’intégralité de l’article « Médicaments dans l’eau : présence, risques et potentialités de traitement » au format PDF , cliquez ici.Les auteursLuis Fernando Delgado Zambrano est doctorant au laboratoire de génie chimique, UMR CNRS 5503, université de Toulouse.Claire Albasi est chargée de recherche CNRS au laboratoire de génie chimique, UMR CNRS 5503, université de Toulouse.