Les technologies de l’eau : situation et développements

Par Sylvie Baig, Responsable Scientifique Innovation à la Société Degrémont, groupe Suez Environnement, et Michel Roustan, Professeur Émérite de Génie des Procédés à l’Institut National des Sciences Appliquées de Toulouse.L’eau est essentielle à la vie et a toujours constitué un facteur clé du développement de l’activité humaine d’où l’intérêt de la protéger. Son usage s’est d’ailleurs intensifié et les volumes d’eau utilisés par l’homme ont décuplé depuis le début du XXe siècle. L’agriculture consomme près de 70 % de l’eau utilisée, l’industrie 20 % et l’utilisation domestique 10 %. La consommation varie selon les pays car elle dépend notamment du climat, du mode d’agriculture, du niveau d’industrialisation des pays et des secteurs, du niveau d’accès à l’eau potable et des pratiques domestiques. Bien que l’eau soit la ressource la plus abondante sur Terre, l’eau douce accessible ne compte que pour moins de 1 % de la ressource totale mondiale et est inégalement répartie. Au plan mondial, l’essor démographique, l’urbanisation croissante, le développement économique s’accompagnent d’une hausse de la consommation en eau et d’une dégradation accrue de la qualité des ressources naturelles. Résultat : l’eau représente l’un des enjeux majeurs du XXIe siècle. Pour y faire face, la réglementation ne cesse de se renforcer visant une meilleure gestion des ressources en eau pour préserver la santé des consommateurs et, au-delà, assurer un usage raisonné et durable de l’eau. Ce contexte imprime un fort dynamisme dans le développement des technologies de l’eau.

Les technologies de traitement de l’eau
L’eau pure n’existe pas dans la nature. Elle contient diverses substances provenant soit du milieu dans lequel elle a évolué, soit des rejets d’activités humaines. Il est donc nécessaire de la traiter afin d’éliminer les polluants qu’elle contient jusqu’à atteindre une qualité conforme à son utilisation ultérieure : eau de consommation ou eau de procédé industriel. L’eau usée est épurée avant recyclage dans le procédé industriel, réutilisation ou rejet dans le milieu naturel ou recyclage (Fig. 1 et 2).

Figure 1 : Cycle Urbain de l’eau
 

Figure 2 : cycle de l’eau – usage industriel
La nature des polluants et le débit d’eau à traiter déterminent les opérations unitaires de traitement à mettre en œuvre en filière pour atteindre les objectifs de traitement réglementaires (cas de l’eau de consommation, de certaines eaux de procédé industriel, de l’eau restituée au milieu naturel) ou fixés par cahier des charges (cas de l’eau de procédé, de l’eau recyclée ou réutilisée dans l’industrie).

Les opérations unitaires – procédés industriels
Les différentes opérations unitaires couramment utilisées dans les procédés industriels de traitement de l’eau sont récapitulées à la figure 3 en fonction du type de pollution à laquelle elles s’adressent. L’élimination des matières colloïdales et des matières en suspension impliquent des techniques de séparation. Le principe du traitement des matières solubles est plus varié : conversion par réaction chimique ou biologique, transfert de phase, concentration…D’autres opérations unitaires concernent le traitement des déchets du traitement des eaux usées urbaines ou industrielles :
  • les boues produites : leur traitement consiste soit à réduire leur volume en séparant les phases liquide et solide (épaississement, déshydratation, séchage), soit à dégrader leur contenu organique par voie biologique (digestion, compostage) ou par voie chimique (oxydation par voie humide), et/ou à inhiber sa fermentation (stabilisation chimique ou biologique) ;
  • l’air vicié malodorant : il est collecté sur les ouvrages et épuré par absorption avec réaction chimique, adsorption, oxydation chimique ou biologique.

Figure 3 : opérations unitaires du traitement de l’eau selon la nature et la forme de pollution
Pour chaque opération, différentes techniques de mise en œuvre existent. Description détaillée est faite dans les différents articles des Techniques de l’Ingénieur.

Les filières de traitement
Les différents procédés unitaires sont intégrées en filières sur la base de :
  • leur domaine particulier d’application (débit, nature du polluant, concentration, performances, coûts d’investissement et d’exploitation) ;
  • leur besoin en terme de prétraitement en vue d’optimiser les performances et le dimensionnement de l’installation (matières en suspension, toxicité…) ;
  • leur impact sur le traitement aval (sous-produits, biodégradabilité et toxicité induites, conditions du milieu en pH et température) ;
  • le traitement des déchets issus du traitement de l’eau : air, concentrats ou saumures, effluents de lavage, boues.
La filière débute généralement par l’élimination des matières insolubles, se poursuit avec l’élimination des polluants solubles et s’achève sur la désinfection lorsque nécessaire. Elle est plus ou moins complexe selon les flux de pollution à abattre et de la variabilité journalière et saisonnière de ces derniers.

Orientations récentes et éléments prospectifs
L’ensemble s’articule autour de deux axes : filière de traitement et technologies.

Au niveau filières de traitement : une vision globale eau, énergie, matière, environnement
Le panorama des technologies du traitement de l’eau est vaste et s’accorde à l’utilisation de plus en plus fréquente de ressources alternatives aux ressources naturelles que sont les eaux de surface et les eaux naturelles moyennant l’adaptation des filières de traitement :
  • le dessalement de l’eau de mer et des eaux saumâtres par filière osmose inverse connaît une forte croissance devant la filière distillation pour la production d’eau potable. Elle est portée par la fiabilisation du prétraitement pour un meilleur contrôle des problèmes de colmatage, de la réduction des consommations énergétiques permise par les nouveaux matériaux membranaires et par la maîtrise de l’impact du captage et des rejets sur l’écologie marine (Fig. 4) ;

Figure 4 : exemple de filière de dessalement d’eau de mer en vue de la production d’eau potable (cas de l’usine LLobregat de Barcelone)
 
  • en complément au recyclage de l’eau dans une étape particulière du procédé, l’industrie adopte franchement la réutilisation des eaux usées avec des débits plus importants en boucle au niveau d’un site ou en cascade au niveau d’un parc industriel. Poussé à l’extrême, le rejet zéro est atteint. Les filières de traitement associent les technologies rustiques aux techniques avancées avec comme principaux critères de choix, les performances attendues, les coûts, la facilité de conduite, les contraintes d’exploitation, l’évaluation des risques encourus au regard du gain sur le prélèvement (Fig. 5 par exemple) ;

Figure 5 : stratégie d’optimisation de la réduction de production de boues en industrie
 
  • l’industrie s’intéresse également à l’utilisation des eaux pluviales. Les techniques de traitement adaptées exploitent le caractère particulaire des polluants comme dans le cas des rejets urbains par temps de pluie.
Les nouvelles filières assimilent les eaux résiduaires à une source d’énergie et visent au minimum l’autosuffisance assortie d’un bilan carbone optimisé : l’énergie thermique et hydraulique des eaux usées est récupérée, la digestion des boues est poussée à l’extrême souvent grâce à une pré-hydrolyse et le biogaz produit permet de co-générer de la chaleur ou de l’électricité. La stratégie de gestion des boues s’intègre alors complètement dans l’optimisation de la filière de traitement d’eau (Fig. 6).

Figure 6 : vue d’ensemble de l’installation ultrafiltration – osmose inverse pour la réutilisation en cascade de 70 % des eaux usées de la raffinerie de Taranto (Italie) en tant qu’eau déminéralisée de centrale d’énergie.

Au niveau technologies et procédés : intensification de procédé, ouverture de champ d’application, approche globale
L’intensification de procédé passe par l’optimisation de la conception des équipements et de leur dimensionnement, ce qui a pour conséquence d’augmenter les performances et ainsi d’améliorer la compétitivité : aération dans les procédés biologiques, mise en œuvre de bioréacteur à membranes, développement de systèmes à biofilm, application de pression de sélection dans les procédés biologiques, réduction de la production de boues par découplage du métabolisme…L’ouverture du champ d’application répond aux nouvelles réglementations en terme de désinfection et d’élimination de polluants organiques persistants. Elle concerne principalement les technologies de désinfection (UV en particulier) pour l’inactivation de parasites (Fig. 7), d’oxydation chimique (AOP), de séparation membranaire.

Figure 7 : exemple de filière de la production d’eau potable à partir d’eau de surface (cas de l’usine de Joinville).
Enfin, l’approche globale des procédés favorise l’émergence de nouvelles voies de valorisation matière pour les coproduits de traitement d’eau : biogaz sous forme d’hydrogène, cendres d’incinération des boues en matériaux de construction…

En transversal, une démarche scientifique concentrée à deux niveaux
Il s’agit :
  • d’accroître les connaissances fondamentales par une approche mécanistique : analyse multi-échelle (de la molécule au procédé), compréhension des phénomènes aux interfaces (capture de particules, émulsions, séparation membranaire), structuration de matrices biologiques et réactivité, sélectivité des espèces réactionnelles, utilisation d’outils de caractérisation (CFD…), de modélisation, d’analyse de cycle de vie.
  • de concevoir des réacteurs plus performants : multifonctionnels ; sélectifs vis-à-vis des polluants, intégrés dans une filière globale eau, énergie, matière.
 Les directives européennes et l’eauLa politique communautaire de l’environnement est née en 1972 avec l’eau dans les premiers champs d’intervention de la la Communauté européenne : la première directive dans ce domaine date de 1975 et traite de la qualité des eaux potabilisables. À ce jour, plus d’une vingtaine de directives européennes concernent plus ou moins directement le cycle de l’eau (eaux destinées à la consommation humaine, ressource en eau, milieux naturels : eaux douces souterraines ou superficielles, eaux marines, eaux estuariennes).La directive cadre sur l’eau 2000/60/CE établit un cadre pour une politique communautaire dans le domaine de l’eau. Elle impose des objectifs environnementaux ambitieux :
  • l’atteinte, en 2015, du “bon état pour toutes les masses d’eau” (cours d’eau, lacs, eaux souterraines, eaux côtières et de transition) et la non-détérioration des ressources en eau ;
  • la réduction ou la suppression de la pollution par les substances prioritaires et les substances dangereuses prioritaires.
Elle complète les directives européennes déjà en vigueur (directive Nitrates issus de l’agriculture 91/676/CE, directive Eaux résiduaires Urbaines 91/271/CE, directives 91/414/CEE et 98/8/CE relatives à la mise sur le marché des produits phytopharmaceutiques et des biocides respectivement, la directive IPPC 96/61/CE sur la prévention et la réduction intégrées de la pollution et la directive 99/31/CE concernant la mise en décharge des déchets. Des directives “filles” clarifient certains objectifs de la DCE : directive 2006/118/CE sur la protection des eaux souterraines contre la pollution et la détérioration, directive 2007/60/CE relative à l’évaluation et à la gestion des risques d’inondation incluant les risques de pollution environnementale et les installations visées par la directive IPPC, directive 2008/105/CE établissant des normes de qualité environnementale des substances prioritaires et certains autres polluants dans le domaine de l’eau.Les États membres sont responsables de la mise en œuvre de la DCE au niveau national. Le texte a été transposé en droit français en particulier par la loi sur l’eau et les milieux aquatiques du 30 décembre 2006.Voir aussi :
  • Protection juridique et réglementaire des milieux aquatiques
  • RSDE : un grand chantier encore à ses débuts

Cet article a été initialement publié dans Instantanés Techniques, décembre 2009, n°56       

Médicaments dans l’eau : quels risques et quels traitements ?

A l’instar d’autres micropolluants comme les détergents, les produits de nettoyages, les additifs des plastiques, les hydrocarbures, les pesticides, etc… les médicaments, sous une forme inchangée ou sous la forme des métabolites actifs, se retrouvent aujourd’hui dans l’eau. Leur présence dans les effluents des stations d’épuration a d’ailleurs été rapportée dans plusieurs études depuis les années 70. D’abord traitée avec une certaine légèreté, ce type de pollution des milieux aquatiques est désormais considéré avec beaucoup plus de sérieux. Il est vrai qu’au niveau européen, ce sont des milliers de tonnes de médicaments humains et vétérinaires qui sont excrétés, chaque année, et qui se retrouvent ainsi dans les eaux usées.Mais quels sont les composés pharmaceutiques que l’on retrouve dans les eaux usées et potables ? Quels sont les risques réellement encourus ? A quelle dose sont-ils toxiques ? Et quels sont les voies possibles de leur élimination ? Autant de questions auxquelles Luis Fernando Delgado Zambrano et Claire Albasi tentent de répondre dans l’article intitulé « Médicaments dans l’eau : présence, risques et potentialités de traitement » de la collection Recherche et Innovation des éditions Techniques de l’Ingénieur.Pour lire l’intégralité de l’article « Médicaments dans l’eau : présence, risques et potentialités de traitement » au format PDF , cliquez ici.Les auteursLuis Fernando Delgado Zambrano est doctorant au laboratoire de génie chimique, UMR CNRS 5503, université de Toulouse.Claire Albasi est chargée de recherche CNRS au laboratoire de génie chimique, UMR CNRS 5503, université de Toulouse.

Un composite renforcé de fibres de verre participe à l’esthétique d’un hôtel

Prévu pour être inauguré en juillet 2010, le nouvel hôtel Sheraton de l’aéroport de Malpensa, à Milan, est un ouvrage résolument moderne, à la fois de par son design, ainsi que par les technologies et les matériaux utilisés. Le corps du bâtiment s’étend sur 450 m de large et 14 m de haut. Ses trois étages abritent des locaux de bureau, 420 chambres, des cafés, des restaurants et un centre de conférences de 2.000 m². Selon l’architecte Riccardo Roselli,  » le concept de cet hôtel repose sur l’idée d’un fardelage à un pli entourant les modules qui contiennent les chambres. Toutes les installations sont masquées derrière l’habillage et sont ventilées par l’intermédiaire de diverses ouvertures. Globalement, la structure ressemble davantage à un objet de design qu’à un  bâtiment. « Une caractéristique essentielle de la conception réside dans la forme englobante réalisée par application d’un bardage en composite renforcé de fibres de verre. Le matériau a été transformé par la société italienne Progettazione Costruzione Ricerca (PCR Srl) qui a utilisé un procédé de pultrusion dans lequel des profilés sont extrudés en tirant les fibres de renfort de 3B à travers une résine thermodurcissable. La peau obtenue présente un fini de type quartz, hydrofuge, réalisé à l’aide de la technologie Qflex de PCR. La face extérieure est revêtue d’un film de couleur blanc-gris.Ce matériau renforcé de fibres de verre a été sélectionné après avoir été comparé avec d’autres matériaux de bardage de type membrane liquide ou en polycarbonate.  » Si certains de ces matériaux étaient aptes au thermoformage, leurs solutions de collage étaient limitées et ils ne remplissaient pas toutes les conditions du cahier des charges fonctionnelles. L’habillage par une membrane liquide appliquée par projection aurait pu être une solution, mais pas pour un ouvrage de cette taille « , précise Riccardo Roselli. » Dans des applications comme celles-ci, la fibre de verre, résistante à la corrosion, est de plus en plus utilisée en remplacement du métal car elle s’accompagne d’un certain nombre d’avantages décisifs. Grâce à ce matériau, les architectes et les designers en quête de solutions nouvelles peuvent créer des surfaces à la fois durables et d’une esthétique originale dans une grande diversité de formes, tandis que les installateurs apprécient la légèreté des éléments qui peuvent ainsi être posés plus facilement et en moins de temps « , affirme Hugues Jacquemin, Chief Executive Officer de 3B. Outre sa légèreté, ce matériau renforcé de fibres de verre de 3B présente d’excellentes propriétés mécaniques par rapport au métal. De plus, il résiste à la corrosion et agit comme isolant électrique et thermique. Enfin, fabriqué en bandes de 20 m de long par 1 m de large et léger, il est facile à manutentionner, ce qui est appréciable dans une ambiance de chantier. Par Marc Chabreuil

Wô, un nouveau concept de recyclage des eaux industrielles

Si l’eau est l’or bleu de demain, nul doute que le recyclage est la clé d’une gestion durable de la ressource. Or, la logique actuelle de la gestion de l’eau est inadaptée aux industries, fortes consommatrices d’eau dans leur process. Les solutions proposées ne répondent pas, en effet, aux exigences des performances économiques et environnementales. Elles présentent trop de gâchis et de pertes : seuls 1 à 2 % des eaux usées sont recyclées pour être réutilisées, les 98 à 99 % restants étant traitées puis rejetées dans le milieu naturel. Résultat, le prix de l’eau a augmenté en moyenne de 80 % en 10 ans en raison, entre autres, de la complexité des traitements à mettre en place. Face à ce constat, Cédric Fontaine et William Maufroy, co-fondateurs de 2 ô Innovation, ont développé un nouveau concept qui repose sur une nouvelle approche “intellectuelle” de la gestion des eaux : le procédé Wô qui permet de fonctionner en circuit fermé en réutilisant l’eau à l’infini.

Contrairement aux systèmes d’épurations classiques fonctionnant sur la base du traitement et de la suppression des polluants, le Wô a pour principe de séparer et concentrer le polluant et d’extraire l’eau pure à partir de l’effluent traité. Il s’agit d’un procédé d’ultra-filtration qui recycle l’eau usée en la faisant passer par des membranes en céramique. Grâce à leur porosité, l’eau va traverser la membrane, tandis que la majorité des polluants comme les hydrocarbures, les produits lessivants et les solvants va se concentrer et être stockée dans une cuve de 10 à 120 m³, voire plus.

reference

Résultat des premiers tests du concept Wô : la qualité des eaux traitées est inférieure à 5 ppm, ouvrant ainsi ce procédé à 99 % des processus industriels et supprimant le rejet d’eaux usées – © 2 ô innovation

Avec jusqu’à 0 % de rejet d’eaux usées, 95 % des eaux de process réutilisées et une qualité des eaux traitées inférieure à 5 ppm, Wô qui est utilisable dans 99 % des processus industriels pourrait aussi être embarqué sur des navires ce qui permettrait le nettoyage des cuves en mer. Il pourrait même être intégré dans un processus de traitement de la pollution, en amont de l’osmose, par exemple dans les stations d’épuration de l’agroalimentaire.

D’une capacité de 500 à 5.000 litres d’eau pure/h, Wô qui a exigé 2 ans de recherche, développements et tests, est décliné en plusieurs versions en fonction du secteur utilisateur : mécanique, stations de lavage automobiles, traitement de surface, blanchisseries industrielles, transport maritime, agro-alimentaire… Autant d’entreprises gourmandes en eau pour lesquelles un investissement limité (en moyenne 70.000 euros) permettrait de concilier économie et écologie. Car peu consommateur d’énergie, Wô qui fait réaliser des économies d’eau pouvant aller jusqu’à 100 % et permet de réduire fortement les taxes d’assainissement, offre un retour sur investissement compris entre 2 et 4 ans, voire moins. À titre d’exemple, une station de lavage pourrait économiser près de 3 .600 m³ d’eau par an, tandis qu’une usine chimique verrait sa consommation réduite par un facteur 10. Sans compter que la solution du recyclage pour un réemploi en circuit fermé pourrait, à terme, réduire le prélèvement des eaux souterraines de 60 % à 70 %. En attendant, les six premières installations Wô devraient être mises en service d’ici la fin de l’année.

reference

Installation Wô – © 2 ô innovation

Article initialement paru dans Instantanés techniques, décembre 2009, n°56

3 mini-méthaniseurs semi-industriels pour optimiser la production de biogaz

Lancé en 2008, le projet CODIMETH a pour ambition de « piloter la co-digestion des matières organiques pour la production optimisée de biogaz et la réduction des coûts d’exploitation. » Labellisé par le pôle de compétitivité Industries et Agro-Ressources et financé par le Conseil régional de Picardie, il est mené par 3 acteurs : la société Fertigaz, basée à Passel, tout près de Noyon, qui dispose d’un méthaniseur de 4.000 m3  capable de traiter 38.000 tonnes de déchets par an, l’Université de Technologie de Compiègne (UTC) et l’école d’ingénieurs LaSalle Beauvais. Un projet qui vient de changer d’échelle : les essais, effectués jusqu’à présent en laboratoire, vont prendre une dimension pré-industrielle.En effet, la seconde étape du projet CODIMETH vient de se réaliser avec l’installation de mini-fermenteurs sur un site-test. C’est aux abords immédiats de l’atelier laitier robotisé de la ferme de LaSalle Beauvais que cette plate-forme de démonstration et de faisabilité a vu le jour. Equipée de 3 mini-méthaniseurs de 2 m3 (volume utile : 1,5 m3), fournis par l’entreprise Biogaz PlanET France, elle doit permettre de tester la co-digestion de déchets agroalimentaires, une année durant.Quels sont les déchets qui ont le temps de dégradation le plus rapide ? Faut-il mélanger différents déchets pour la production d’un biogaz de qualité ? Dans ce cas, quels sont les mélanges de déchets les plus appropriés ?… Autant de questions auxquelles les essais à venir – menés par un étudiant en thèse de l’UTC, David Bassard, et un enseignant-chercheur du département Sciences et techniques agro-industrielles de LaSalle Beauvais, Thierry Ribeiro, doivent permettre de répondre, avant le transfert des procédés validés à l’échelle industrielle.En fait, l’école a déjà une forte expérience dans ce domaine. Elle a déjà participé à un consortium piloté par la CUMA du Pays Sud Oise, près de Chantilly, pour la production de biogaz et de substrat pour champignonnières, à partir de fumier de cheval, et, lors du  dernier Congrès  » Biogas Offenbourg « , qui s’est tenu en octobre 2009, en Allemagne, elle a fait une intervention remarquée sur le prétraitement de la matière organique, par micro-ondes ou par ozonation, visant à améliorer son potentiel méthanogène.Si le projet CODIMETH est focalisé sur la co-digestion de déchets issus de l’industrie agroalimentaire, l’école d’ingénieurs beauvaisienne envisage de mener des études par la suite sur le traitement d’autres déchets et sur l’utilisation du biogaz produit (brûlé pour le moment). Dans le cadre du projet  » La Ferme du Futur  » et s’appuyant sur le potentiel qu’offrent à la fois le campus et la ferme de LaSalle Beauvais, des essais pourraient être conduits à partir de déchets verts (tontes, branches…), de déchets alimentaires (déchets du restaurant universitaire), d’effluents d’élevage (fumier, lisier) et de coproduits agricoles (déchets de bio-raffinerie par exemple), le tout avec tests de branchement sur une chaudière et/ou sur un co-générateur à l’appui. Et, à terme, si les résultats s’avéraient concluants, un méthaniseur en grandeur réelle pourrait voir le jour à LaSalle Beauvais.

Look Voyages utilise ses clients pour optimiser son site Web

Sur un marché hautement compétitif tel que celui du voyage, la capacité à comprendre les attentes d’un client ainsi que ses comportements d’achat est essentielle pour pouvoir offrir aux internautes une expérience de navigation online pertinente, significative et intéressante. Ceci permet de les fidéliser plus aisément et aussi d’augmenter les taux de transformation. Dans le but de dynamiser l’engagement client, d’optimiser les taux de conversion de son site Web et de trouver la combinaison contenu web/layout qui plairait le plus à ses visiteurs, le troisième voyagiste français, Look Voyages qui enregistre plus de deux millions de visiteurs uniques chaque mois, a opté pour la technologie de testing multivariable (dite aussi de MVT) d’Autonomy Optimost. A l’inverse du marketing traditionnel qui, pour déterminer les préférences clients ou intentions, a tendance à se baser sur des métriques souvent mal définies ou sur des choix purement suggestifs, la solution Autonomy Optimost réalise automatiquement ses tests et analyses en temps réel et ce, auprès de véritables internautes. Ceci permet de mettre à jour la ou les configurations qui ont un réel impact positif sur les taux de conversion des différentes landing pages testées : formulaires Web, pages  » panier  » et bannières publicitaires. Ainsi, Look Voyages, en présentant aux internautes différentes versions du site, a pu identifier les combinaisons contenu/layout les plus performantes en termes de conversion. Il a constaté une amélioration considérable des achats en ligne, notamment en ce qui concerne les offres promotionnelles, le nombre de clics, le nombre d’inscriptions et de pages vues. Damien Poulain, Directeur eCommerce et B2C chez Look Voyages se réjouit :  » Après seulement quelques semaines de tests, nous avons pu identifier exactement le contenu et le layout capables d’augmenter l’engagement client et les taux de conversion. Des changements tels que la couleur, l’emplacement d’un bouton, ou la couleur de fond d’une page promotion qui, a priori, semblent sans conséquences font finalement une énorme différence. La solution Autonomy Optimost nous a permis d’accéder à des informations précieuses et par conséquent d’améliorer la navigation du site Web pour nos internautes. Par ailleurs, la création Web ne fait plus partie des responsabilités du département informatique. Elle est désormais plus proche du terrain, dans un espace dans lequel nos clients nous dévoilent, via leurs clics, le contenu et la présentation qu’ils préfèrent. « Certes, investir dans l’achat de trafic Web apportera probablement des visiteurs sur un site Internet.  » Cependant, encourager les internautes à agir une fois qu’ils sont sur le site reste un très grand défi pour les eCommerçants. Trouver et agir sur le contenu qui motivera les internautes à acheter est donc essentiel pour rentabiliser les investissements d’achat de trafic Web. Look Voyages a été convaincu de l’importance de cette démarche dès lors qu’elle a vu une nette progression de ses taux de conversion « , explique Greg Kelton, Vice Président EMEA d’Autonomy Optimost.Par Marc Chabreuil

Les systèmes récupérateurs d’énergie deviennent économiquement rentables

Les lois de la thermodynamique ne sont pas près d’être détrônées. Cependant, des dispositifs capables de récupérer l’énergie ambiante et de la transformer en énergie utile arrivent de plus en plus souvent à nous en donner l’illusion. Les capteurs qui génèrent de l’énergie électrique à partir d’une source physique latente, comme la différence de températures (générateurs thermoélectriques, piles thermiques), les vibrations ou les contraintes mécaniques (capteurs piézoélectriques et électromécaniques) ou encore la lumière (cellules photovoltaïques) sont devenus viables pour de nombreuses applications, complétant et, dans bien des cas, remplaçant l’alimentation secteur et les batteries.Augmentation de la sûreté et de l’accessibilité, diminution des coûts de maintenance, amélioration de l’efficacité énergétique et de la flexibilité système…, tels sont quelques-uns des bénéfices que l’on peut tirer de la récupération d’énergie. Cette technologie alimente une grande variété de systèmes de mesure, de contrôle et de surveillance déportés, autonomes et sans fil, dans diverses applications comme les infrastructures de transport, l’automobile et l’avionique, les compteurs déportés, le contrôle de processus industriel et l’automatisation des bâtiments. Mais jusqu’où peut-on aller ?

Une technologie en rapide évolution
Sur le plan électrique, les capteurs d’énergie se classent en deux grandes catégories. La première délivre au circuit de conditionnement d’énergie une tension de sortie et une impédance relativement faibles. Les générateurs thermoélectriques (TEG) et les cellules solaires en sont des exemples. Le circuit de conditionnement d’énergie doit alors fonctionner à partir d’une tension d’entrée de l’ordre de quelques dizaines ou de quelques centaines de millivolts (1). La seconde catégorie de capteurs présente une tension et une impédance un peu plus élevées. Un capteur piézoélectrique par exemple génère typiquement une tension en circuit ouvert de 5 à 40 V, et un courant de court-circuit de 10 à 50 µA (2).Parallèlement aux progrès technologiques réalisés par les capteurs d’énergie, un catalyseur essentiel de leur adoption commerciale est la disponibilité de circuits de gestion d’alimentation adaptés. L’énergie ambiante et les niveaux d’énergie des capteurs pouvant être très faibles, un système de gestion d’alimentation doit présenter plusieurs attributs critiques pour être efficace. Tout d’abord, un courant de repos (circuit actif, sans charge) faible est un point clé de sa performance de récupération d’énergie. Avant que l’énergie en excès ne puisse être appliquée à l’application, la sortie du capteur doit fournir le courant de fonctionnement requis par le circuit de gestion d’énergie (3). Deuxièmement, l’extraction de quantités d’énergie utiles de ces capteurs demeure un défi, en raison du régime de fonctionnement à faible puissance. C’est pourquoi un objectif clé de conception est d’obtenir un haut rendement de conversion d’énergie pour une très large plage de conditions de charge (4). Troisièmement, la capacité à gérer et à stocker l’énergie récoltée est aussi critique que le rendement de conversion d’énergie. Ce qui est particulièrement vrai quand la source d’énergie n’est pas disponible en continu, ou dans les applications où les besoins en énergie concordent en moyenne avec le capteur d’énergie, mais comportent des appels de puissance crête dépassant les capacités du capteur. Citons par exemple les capteurs déportés ou les balises de suivi de stock, qui sont habituellement dans un mode veille à faible consommation puis se réveillent pour récupérer et transmettre des données de télémétrie, en générant un pic de consommation relativement élevé. Dans ce cas, les fonctions de gestion d’alimentation entre l’entrée primaire et un élément de stockage ou réservoir d’énergie sont précieuses. Il est particulièrement intéressant de pouvoir employer des supercondensateurs de stockage, pour leur haute densité d’énergie et leur charge de longue durée (5).Finalement, le dispositif de gestion d’alimentation doit pouvoir fournir des sorties régulées standard répondant aux besoins de tous les capteurs, convertisseurs de données, processeurs, émetteurs-récepteurs radio et autres circuits composant la charge de l’application. Et, bien sûr, des solutions bien intégrées optimiseront la fabricabilité, la fiabilité et la performance tout en simplifiant la conception et en accélérant le développement. Grâce à de nouveaux circuits de gestion d’énergie, conçus pour s’interfacer efficacement avec les capteurs et rendre l’énergie récupérée utilisable, de grandes avancées en performance ont été réalisées, ce qui aboutit à l’émergence de produits et systèmes alimentés par récupération d’énergie économiquement viables, dans un grand nombre de marchés très divers. La reconnaissance et l’accueil favorable réservé à ces nouveaux produits apporteront d’excellentes opportunités de croissance en 2010 et au-delà.Par Donald E. Paulus, Vice-président et directeur général, Produits Alimentations, de Linear Technology Corporation 

Notes
(1) Le convertisseur,  élévateur et gestionnaire d’alimentation LTC3108 fonctionne  à partir d’entrées aussi faibles que 20 mV, ce qui l’adapte aux TEG réagissant à des différences de température de seulement 1 à 2°(2) Le convertisseur d’énergie piézoélectrique LTC3588 inclut un redresseur en pont double alternance à faibles pertes assurant une connexion optimum avec ce type de capteur. Sa tension d’entrée maximum de 20 V lui permet de fonctionner tout près du pic de transfert de puissance des capteurs piézoélectriques, avec des réservoirs de haute densité énergétique utilisant des condensateurs de 25 V de tension nominale.(3) Les circuits LTC3108 et LTC3588  présentent des courants de repos ultra faibles, allant de 6 µA à moins de 500 nA.(4)  La topologie avancée de régulateur-abaisseur à découpage à hystérésis LTC3588 autorise un rendement approchant 90% pour une charge pouvant aller de 60 µA à 100 mA à 3,3 Vout – soit une plage de courant de charge de l’ordre de 1 à 3 en échelle logarithmique.(5) Le gestionnaire d’alimentation LTC3108 apporte cette possibilité en autonome aux systèmes thermiques ou solaires, en demandant un minimum de composants externes. 

 

Le prototypage virtuel fait progresser les piles à combustible automobiles

Les piles à combustible à membrane échangeuse de protons (PEM) peuvent servir de source d’énergie zéro émission pour de nombreuses applications embarquées. Toutefois, il subsiste des défis techniques qui gênent la commercialisation des véhicules équipés de cette technologie. Les plus critiques sont les suivants : la réduction des coûts, la durabilité, la gestion de l’eau, la tolérance au gel et la densité de puissance.

Des améliorations significatives en matière de simulation du rendement des piles à combustible automobiles ont été présentées, aux Etats-Unis, à la réunion annuelle d’examen du mérite et d’évaluation par les pairs des programmes Hydrogène et Technologies Automobiles du Département de l’Energie (DOE). Ces derniers visent l’utilisation de la simulation pour réaliser une étude détaillée des diverses structures et propriétés des composants affectant le transport du gaz et de l’eau dans les piles à combustible à membrane échangeuse de protons.

Les activités présentées couvraient les résultats d’une validation expérimentale des modèles de transport d’eau, faite par l’ESI North America via des interfaces informatiques, dans les couches diffusionnelles et dans les canaux d’alimentation des gaz. Cette meilleure compréhension du transport de l’eau a permis d’évaluer de nouveaux concepts pour éliminer l’eau et contrôler sa répartition. Une intégration ultérieure des simulations de gestion de l’eau aux modèles électrochimiques et de transfert thermique existants a également été effectuée, créant une solution pour étudier des densités de puissance plus importantes et le fonctionnement transitoire.

 » Le prototypage virtuel s’appuie sur une simulation multi-physique avancée afin de comprendre les interactions complexes d’un phénomène physique. Ceci est une technologie requise pour livrer au grand public des véhicules à pile à combustible rentables, a déclaré Joseph Strelow, directeur et ingénieur en chef des programmes gouvernementaux d’ESI North America. Les réactions électrochimiques, les concentrations de polluants nuisant au rendement, et leur impact sur la durabilité des composants de la pile ne peuvent pas être mesurés directement dans une pile à combustible en fonctionnement. Les options de simulation disponibles ne permettaient pas jusqu’à présent de représenter la physique précise nécessaire pour réaliser de nouveaux progrès en matière de rendement. Nous sommes fiers de collaborer avec nos partenaires sectoriels et universitaires, avec l’appui du Département de l’Energie, en vue de résoudre ces problèmes fondamentaux.  »

Ce projet d’une durée de 4 ans, qui a débuté en 2007 avec un budget total de 6,4 millions dollars US, est mené en collaboration avec 7 partenaires technologiques, industriels et universitaires. Après l’examen final de mi-programme qui vient d’avoir lieu, le projet devrait être complété en mai 2011.

Spectro-imagerie térahertz : pourquoi et comment ?

Terahertz. Aujourd’hui, ces ondes électromagnétiques suscitent à la fois la curiosité et l’engouement de la part des scientifiques et des industriels. Toutefois, cette partie du spectre, qui comprend les ondes millimétriques (30 à 300 GHz) et submillimétriques (300 GHz à 3 THz), reste relativement inemployée en raison, notamment, d’une technologie très délicate et pas toujours maîtrisée. Pourtant, la spectro-imagerie Térahertz offre un potentiel applicatif important, ce qui en fait une technologie très prometteuse. Elle apporte notamment une potentialité de contraste optique novateur, sensible aux niveaux vibrationnels et rotationnels des matériaux. L’aspect spectroscopique dans ce domaine de fréquence peut dès lors mener à une caractérisation très large bande et à une identification unique des matériaux ou des échantillons. De plus, le très fort pouvoir pénétrant de ces ondes permet d’envisager une visualisation d’objets invisibles en surface, en volume ou opaques dans le visible. Ce qui ouvre, en complément des technologies existantes, de nouvelles perspectives dans des domaines aussi variés que la biologie, la sécurité ou encore l’environnement. C’est ce domaine en pleine émergence que Patrick Mounaix, chargé de recherches CNRS au Centre de physique moléculaire optique et hertzienne à Talence (33) nous propose de découvrir au fil de ce nouvel article intitulé « Spectro-imagerie térahertz : voir autrement » de la collection Recherche et Innovation des éditions Techniques de l’Ingénieur. Il y décrit :

  • Les caractéristiques de ce rayonnement et l’intérêt qu’il représente, y compris pour l’industrie ;
  • Les moyens de le générer et de le détecter ;
  • La mise en place d’une technique de spectro-imagerie térahertz bidimensionnelle ;
  • et enfin, son application à la visualisation d’objets opaques grâce à de nombreuses illustrations.
Autant d’éléments qui dressent un état des lieux précis des progrès technologiques réalisés et qui permettent d’envisager des transferts vers l’industrie en complément des techniques existantes. Pour lire l’intégralité de l’article « Spectro-imagerie térahertz : voir autrement » au format PDF, cliquez ici.Sur ce sujet également, le cahier innovation d’Instantanés Techniques « Terahertz, à la conquête d’un nouveau monde« .

Le fonctionnement des céramiques piézoélectriques enfin expliqué

La piézoélectricité est la propriété que possèdent certains corps de se polariser électriquement sous l’action d’une contrainte mécanique et, réciproquement, de se déformer lorsqu’on leur applique un champ électrique. Les deux effets sont indissociables. Cette propriété trouve un très grand nombre d’applications dans l’industrie et la vie quotidienne. L’allume-gaz est parmi les plus familières. Dans un allume-gaz, la pression exercée produit une tension électrique qui se décharge brutalement pour former une étincelle.
Les Dans la seconde partie du XXème siècle, les recherches se sont orientées vers des céramiques titanate de baryum (BaTiO3) puis, un peu plus tard, de titano-zirconates de plomb PbZrxTi1-xO3. En effet, leurs propriétés sont globalement bien meilleures que celles des cristaux naturels ; ils présentent des coefficients piézoélectriques environ 100 fois supérieurs.
La solution solide de zircono-titanate de plomb, notamment la composition PbZr0.52Ti0.48O3 (PZT), est une céramique qui convertit jusqu’à 70 % de l’énergie mécanique qu’elle reçoit lorsqu’elle est déformée en énergie électrique (et réciproquement). Cette propriété exceptionnelle est exploitée depuis plus de 50 ans dans de nombreuses application technologiques : sonars, sondes échographiques, injecteurs des moteurs diesels, capteurs divers…. Malgré les nombreuses études expérimentales et théoriques menées sur cette céramique, aucun modèle à l’échelle atomique n’a jamais été proposé afin d’expliquer pourquoi sa réponse piézoélectrique de PbZr0.52Ti0.48O3 est environ 15 fois plus forte que celle du composé sans Zirconium : PbTiO3.
Une équipe de chercheurs de l’Institut Charles Gerhardt (CNRS / Université Montpellier II) ont utilisé la spectroscopie d’absorption des rayons X afin de :

  • clarifier le rôle du zirconium, à l’échelle atomique, dans les propriétés piézoélectriques de ce matériau ;
  • mesurer ses déplacements polaires associés à une transition électrique (ferroélectrique-paraélectrique).

Ils ont ainsi montré que, contrairement aux liaisons Ti-O fortement polaires, les atomes de Zirconium vont produire une faible polarisation. Une telle configuration atomique pour un type d’atome implique un basculement de polarisation très facile, c’est-à-dire qu’un faible champ électrique est nécessaire pour ce basculement, ce qui va créer une situation énergétique favorable pour le basculement coopératif des dipôles Ti-O fortement polaires et expliquer ainsi les fortes propriétés piézoélectriques de PZT. Dans PZT, les petits déplacements (Zr) entraînent les gros (Ti) sous champ électrique !

La fibre optique est plus rapide mais aussi plus écologique

Fracture numérique, grand emprunt, mutualisation, zones blanches, grises, noires… il ne se passe pas une semaine sans que plusieurs articles ne parlent des réseaux de télécommunication, et surtout aujourd’hui du Très Haut Débit, autrement dit l’accès à un Internet plus rapide, principalement au moyen de la fibre optique. Les questions les plus fréquentes sont pour beaucoup d’ordre économique, les uns rappelant le coût très élevé du remplacement ou du déploiement des nouveaux réseaux à fibres optiques, les autres rappelant, parfois grâce aux outils juridiques, que l’accès au THD doit être ouvert, et que l’abonné doit avoir le choix. Malheureusement, fort peu de foyers utilisent aujourd’hui la fibre optique, et son déploiement ne s’effectue pas aussi vite que sont publiées les diverses annonces et communiqués de presse des opérateurs. Selon l‘ARCEP, au 31 décembre 2009, la France compte environ 20 millions d’abonnements haut et très haut débit, mais seulement 70.000 abonnements à la fibre optique.

Si la plupart retiennent que la fibre optique, « c’est plus rapide », il y a pourtant un enjeu majeur dans le déploiement de ces nouveaux réseaux : c’est la protection de l’environnement et de la planète. Comment ? L’empreinte carbone de la fibre optique est bien meilleure que celle des réseaux ADSL classiques, circulant au moyen des câbles en paires de cuivre. Cette contribution au développement durable des réseaux en fibres optiques se décline de différentes manières.

Une contribution sociétale

En offrant plus de débit, de surcroît bidirectionnel, la fibre optique permet une meilleure répartition et décentralisation du travail. En apportant le haut débit dans les petites villes et en permettant la création de centres de télé présence en zones rurales et semi-rurales, de nombreux déplacements seront évités. La technologie actuelle et le THD permettent aujourd’hui de réaliser des visioconférences en haute ou très haute définition, voire même en 3D, rendant caduque la nécessité de déplacements longs, fatigants et souvent très polluants.

Dans le domaine médical, à Arras par exemple, le réseau THD de l’agglomération permet désormais d’échanger toute sorte d’informations médicales de manière très rapide, rendant inutile l’impression des radios, scanners et autres clichés médicaux à fort impact carboné (encres et produits d’impression, consommation des matériels de restitution, films et supports…). Ailleurs en milieu rural, ce sont des boitiers de télédiagnostic médical qui permettent par exemple à des médecins de proximité de réaliser des analyses commentées en ligne par des spécialistes ou des permanents du SAMU. Ainsi, grâce à la technologie et au THD, l’accès à certains soins de qualité peut être identique, que l’on habite en grande agglomération où en grande ruralité, ceci encore sans nécessiter de transports de personnes polluants et ruineux pour notre système de santé.

Enfin, conséquence plus ou moins directe de la dernière crise économique, des systèmes de téléconférence de plus en plus réalistes sont mis sur le marché, fruit de collaboration efficace entre des équipementiers et des spécialistes de la vidéo tel le dernier rachat de Tanberg par CISCO. Cette croissance de l’offre est motivée par de nouveaux usages permettant de travailler efficacement sans avoir à se déplacer, économisant ainsi temps et émission de CO2. Le tout n’est pas d’avoir seulement des tuyaux, mais également de bien savoir où ils se trouvent, et ce qu’il est possible d’en faire. C’est tout cela qui construit un patrimoine d’infrastructure.

Une contribution énergétique

Dans les réseaux ADSL, où les supports de transport de l’information sont en fils de cuivre, circule un courant électrique. Même s’il est très faible, un fil de cuivre consomme de l’énergie, et le signal numérique est très vite affaibli (donc le débit) dès lors que le câble mesure quelques kilomètres, ce qui est très souvent le cas en zone rurale.

Au contraire, la fibre optique, grâce à la nature lumineuse du signal véhiculé, ne consomme pas d’énergie entre le centre technique (répartiteur ou sous-répartiteur) et l’abonné. De plus, même si une atténuation du signal reste mesurable, une bien plus grande distance peut être couverte. Ainsi, ce nombre d’équipements actifs consommateurs d’énergie est moindre et de plus faible puissance pour les réseaux à fibres optiques, notamment lorsqu’on la rapporte au débit, comme l’explique Alcatel-Lucent dans son étude « Eco-efficiency in action : Alcatel-Lucent sustainability solutions for access networks ».

Il reste que la montée en puissance et la multiplication des Data Centers, ainsi que la multiplication des terminaux ADSL chez les abonnés a tendance à augmenter la production indirecte de gaz à effet de serre. Les solutions techniques permettant la mise en veille des équipements actifs, sans perturbation du fonctionnement global du réseau, et l’usage de composants moins gourmands en énergie vont là aussi minimiser l’impact environnemental.

Une contribution propre

A l’heure actuelle, le cuivre est extrait principalement en Amérique du Sud (plus de 40% de la production mondiale) par des procédés souvent fortement polluants, du moins destructeurs de l’écosystème naturel. Puis, il est transporté en Chine par bateau où le minerai est transformé en produit fini, dans des centrales dont l’énergie provient du charbon, et est transporté de nouveau vers les pays qui le consomme.La fibre optique est produite à partir de matériaux simples, dont la production peut être réalisée de bout en bout en Europe, avec une empreinte carbone très faible en regard du cuivre. De fait, sa production est aussi moins sujette aux variations du cours mondial du cuivre.

Une contribution économique

Le principal frein au déploiement des réseaux THD réside dans les coûts inhérents au génie civil nécessaire pour déployer les câbles en fibre optique. Toutes les études montrent que les coûts liés à l’installation d’un réseau représentent jusqu’à 80 % pour le seul Génie Civil nécessaire à l’enfouissement du réseau.Il existe en France 450.000 km de fourreaux France Telecom par où passent les câbles de cuivre. Bien évidemment, il n’est pas prévu de rouvrir 450.000 km de routes et de trottoir à grand renfort de machines fortement polluantes pour installer les nouveaux câbles THD ! Economiquement et écologiquement, l’équation carbone devenant fortement négative.

De nombreuses astuces techniques sont néanmoins trouvées ici et là pour réduire ces coûts et améliorer le bilan carbone : retrait des câbles et remplacement par des fibres optiques, pose en micro-tranchée, réutilisation des fourreaux non occupés, pose de fourreaux de réserve lors des travaux d’enfouissement des autres réseaux (comme l’éclairage publique), pose de fibre le long des lignes électriques grâce à son insensibilité diélectrique, technologies hertziennes voire satellite pour les abonnés les plus reculés…

Encore faut-il que la connaissance technique des infrastructures souterraines actuelles et de leur état réel permette de choisir de façon pertinente les meilleures options, économiques et environnementales, parmi toutes les opportunités techniques proposées par les installateurs de réseaux et fournisseurs de matériel.

Une contribution humaine

En définitive, relativement peu d’opérateurs s’intéressent à cet aspect sous-jacent du déploiement des réseaux THD. Cet état de fait est regrettable : lorsqu’un réseau THD est mis en service, que ce soit en zone rurale ou en zone urbaine, des emplois directs et indirects sont créés, et de nouveaux services apparaissent, en général portés par des initiatives locales ou régionales : il y a là une contribution significative et conséquente au désencombrement et à la déconcentration des villes, tout en freinant la désertification rurale.

Les nouveaux réseaux sont-ils plus verts ?

Plusieurs études le prouvent, telle celle réalisée par EcoBilan citée ci-dessous, aller vers le THD et la fibre optique est indéniablement plus « écologique ». Son impact environnemental, autre manière de désigner la signature carbonée, est rapidement compensé par les économies réalisées en regard de celles provoquées par les technologies actuelles. Pour illustrer et conclure, il faut nécessairement citer cette étude réalisée par Ecobilan / PriceWaterhouseCoopers pour le FTTH Council Europe en 2009, sur le sujet, qui a abouti à un outil présenté lors de la conférence européenne de Copenhague, et permettant à tout opérateur de télécommunication d’évaluer, selon divers critères le bilan carbone lié au déploiement de son propre réseau. Les variables sont nombreuses : architecture retenue, type d’habitat, moyens de pose… Le modèle permet de choisir le meilleur compromis entre la performance, les coûts et la protection de l’environnement.

Par Pierre Pigaglio, Président de P&T Consulting France

Une plate-forme d’études électromagnétiques au service du développement durable

Présentes dans l’ensemble des secteurs industriels, les techniques radiofréquences constituent l’épine dorsale des nouvelles technologies issues de l’électronique. Elles visent notamment le développement durable, les nouveaux usages (bâtiment intelligent, monitoring, traçabilité, Internet, etc.) et le confort des personnes (assistance à domicile, domotique, biomédical, communications sans fil…).Les champs électromagnétiques résultant de ce développement croissant des applications radiofréquences ne cessent d’augmenter dans notre environnement. Il y a 20 ans déjà, on parlait d’un accroissement de 3 dB/ an du niveau de « pollution » électromagnétique, soit un doublement chaque année de la pollution électromagnétique présente dans notre environnement !A l’intérieur du bâtiment comme en milieu urbain, d’autres sources de champs électromagnétiques viennent contribuer à cet environnement électromagnétique, parmi lesquelles les appareils électriques domestiques (électroménager, multimédia, etc.) ou les équipements urbains d’éclairage. Inquiétudes autour des antennes-relais, lancement du Grenelle des ondes par le Gouvernement en 2009… : les  radiofréquences et les champs électromagnétiques sont aujourd’hui au cœur des débats car on peut s’interroger sur le niveau actuel des champs électromagnétique et les effets concomitants de cet environnement électromagnétique, tant sur les personnes que sur la faune et les objets. La réponse à ces questions constitue un enjeu majeur double pour la qualité de vie en milieu urbain et le développement durable, puisqu’il s’agit de garantir en premier lieu la pérennité et le développement des applications futures de nouvelles technologies issues de l’électronique et d’assurer le bien-être et la protection des personnes et des biens soumis aux champs électromagnétiques. Pour cela, la maîtrise des radiofréquences, et plus généralement des champs électromagnétiques, doit être envisagée au plus près de leur contexte d’application. C’est là l’objectif de la plate-forme d’études électromagnétiques PHELINE qui vient d’être inaugurée à Saint-Martin d’Hères et est le résultat d’une  synergie des ressources et des compétences du CSTB (Centre Technique et Technique du Bâtiment), l’UJF (Université Joseph Fourier) et de Floralis (filiale de transfert de technologie de l’UJF).

Un enjeu pour la qualité de vie et le développement durable

L’activité de la plateforme technologique PHELINE est centrée sur l’homme dans le respect de son environnement et sa sauvegarde. Permettant de mieux comprendre les phénomènes liés aux champs électromagnétiques émis par les appareils électriques et les systèmes communicants présents dans notre environnement, elle s’articule autour de quatre axes majeurs :

  • l’innovation au service de l’homme avec l’étude et le développement de nouveaux usages, de nouveaux services et de nouveaux produits basés sur les nouvelles technologies issues de l’électronique et faisant usage des radiofréquences : Internet des objets et objets communicants, RFID, bâtiment intelligent, solutions ubiquitaires, solutions innovantes pour la santé… ;
  • la maîtrise de l’environnement électromagnétique de l’homme, des animaux (faune) et des objets pour le bien-être, la santé publique et la sécurité ; c’est-à-dire la qualification et la quantification des champs électromagnétiques dans l’environnement « indoor » et « outdoor » et pour les risques d’exposition à l’homme ;
  • l’expertise autour des nouvelles règles et normes de développement durable : nouvelles applications électroniques radiofréquences de gestion durable des ressources naturelles, monitoring électronique/RF des bâtiments et des matériaux (vieillissement, performances énergétiques…), applications de traçabilité et de recyclage des matériaux, etc. ;
  • la formation, la recherche appliquée, la prestation de service et la création d’une pépinière d’entreprises (projet INTEGRA) dans les domaines précédemment cités.
Matériaux nouveaux et systèmes communicants sans-fil

La plate-forme PHELINE regroupe deux moyens d’essais complémentaires :

  • le couplage de deux chambres réverbérantes électromagnétiques : deux cages de Faraday accolées, parfaitement isolées de l’extérieur permettent, grâce à l’émission et la réception de champs diffus, de caractériser les propriétés électromagnétiques d’un matériau ;
  • une chambre anéchoïque qui  absorbe les champs électromagnétiques grâce à ses éléments pyramidaux disposés sur les parois intérieures. L’absence de réflexion interne permet de mesurer précisément les champs électromagnétiques émis par le dispositif testé ou d’irradier précisément celui-ci.

Ces deux équipements, complétés par des matériels de pointe destinés à la mesure, la caractérisation et la modélisation des champs électromagnétiques, seront utilisés pour des recherches technologiques portant sur l’étude de la propagation électromagnétique dans les milieux complexes que sont les bâtiments et les quartiers. Pour ce faire, il s’agira de connaître les caractéristiques des matériaux utilisés, ce que permet PHELINE. Ces données d’entrées, couplées à la simulation numérique, permettront d’extrapoler les résultats à une échelle macroscopique.La plate-forme PHELINE s’intéressera plus  particulièrement aux nouveaux matériaux, dont les propriétés électromagnétiques peuvent être contrôlées et optimisées, ainsi qu’aux systèmes communicants sans fil (capteurs, alarme, détecteurs incendie…) très utilisés dans le bâtiment. Ces derniers font actuellement l’objet d’une thèse menée au CSTB en collaboration avec le laboratoire XLIM, avec pour objectif d’améliorer l’autonomie et la fiabilité des réseaux de capteurs : réduction de la consommation d’énergie, meilleure robustesse aux brouillages radioélectriques, précision de la transmission de données : tels sont les grands axes de la thèse « Conception d’un réseau de capteurs sans fil dédié au diagnostic in-situ des performances des bâtiments en exploitation », qui s’appuie sur la plate- forme PHELINE.Marc Chabreuil

REACH et CLP : plus de 2.000 questions en moins d’un an

Stéphanie Auguste, expert en assistance réglementaire sur REACH et CLP, interviendra lors de la formation « Risque chimique 2010 : comment s’organiser pour tenir les délais ? » organisée par Techniques de l’ingénieur, le 30 juin à Paris. A noter, les prochaines formations organisées par Techniques de l’ingénieur : « SGH/CLP, classification et étiquetage des produits chimiques » et « Réglementation risque chimique : les urgences 2010 de REACH, SGH/CLP et FDS étendues ».

Technique de l’ingénieur : Pourriez-vous nous présenter votre service de helpdesk ?
Stéphanie Auguste : Chaque Etat membre doit mettre en place une mission d’assistance gratuite dans le cadre des règlements REACH et CLP (relatif à la classification, à l’étiquetage et à l’emballage des substances et des mélanges). Cette mission a été prise en charge en 2007, au préalable, par le BERPC, puis par l’Ineris depuis juillet 2009 à la suite de la fermeture du BERPC. Nous disposons d’un site Internet relatif à REACH depuis juin 2007 et d’un site Internet relatif au CLP depuis le décembre 2009, d’un numéro Indigo et d’un formulaire en ligne. Nos actions prioritaires évoluent dans le temps. Nous étions au départ très axés sur le pré-enregistrement, et aujourd’hui sur les forums d’échange d’information (SIEF). Notre champ reste limité. Nous ne remplaçons pas les consultants, nous n’aidons pas dans les choix stratégiques. Nous ne nous positionnons pas sur le « comment faire », mais sur le « quoi faire ».

Quels sont les autres moyens dont vous disposez pour aider les entreprises ?
Nous rédigeons des documents d’information en français en fonction des besoins identifiés, notamment lorsqu’aucune traduction des documents de l’ECHA n’est pas disponible. Nous intervenons dans des événements organisés par les Chambres de commerce et nous orientons les entreprises vers le plan de formation et d’accompagnement du MEEDDM (ministère de l’écologie, de l’énergie, du développement durable et de la mer) et l’UIC (Union des industries chimiques). Ils proposent des conférences en ligne et des formations thématiques, et surtout, un accompagnement individualisé par un consultant, moyennant une contribution financière réduite. Peu d’entreprises ont pour l’instant eu recours à ce service, ce qui semble étonnant et regrettable.

Combien de demandes recevez-vous en moyenne ?
Nous avons reçu environ 700 formulaires depuis juillet 2009, avec en moyenne trois questions par formulaire, soit environ 2.100 questions à traiter. De janvier à mai, nous avons enregistré environ 60 formulaires par mois. Dans le cadre de notre permanence téléphonique le matin, nous recevons, toujours en moyenne, six appels par jour depuis deux mois. Certains appels peuvent être longs en raison du nombre de questions résultant des statuts des acteurs qui peuvent être multiples et du statut des « produits », substances, mélanges ou articles.

Quel est le profil type des entreprises qui vous contactent ?
Elles sont principalement dans les secteurs de l’automobile, des métaux, des produits chimiques et des produits cosmétiques. Les demandes viennent surtout des micro-entreprises de moins de dix salariés, suivies par les entreprises de moins de 50. Les grands groupes ont des services juridiques et des consultants externes, mais ils nous consultent aussi dans certains cas.

Quelles sont les principales questions relatives à REACH ?
Les questions sur REACH portent essentiellement sur la compréhension de la notion de SVHC. Nous constatons une confusion entre la « liste des substances candidates à la procédure d’autorisation » et la liste des « substances soumises à autorisation ». Cette dernière liste n’est pas encore validée par la Commission européenne. Les personnes qui nous téléphonent pensent souvent que les substances de la liste candidate sont interdites. De même, certains industriels établissent des black lists pour anticiper REACH, interdisant certaines substances dans les conditions générales de vente, ce qui provoque des confusions. L’autre grand sujet de préoccupation, ce sont les SIEF. Cela concerne les entreprises qui produisent ou importent des substances dans des quantités supérieures ou égales à 1 tonne par an et qui ont effectué le pré-enregistrement de ces dernières. Le partage de certaines données entre les membres du SIEF est obligatoire pour procéder à l’enregistrement. Toutefois, le SIEF n’a pas de forme juridique prescrite et est géré par l’industrie. La communication entre les membres du SIEF est essentielle pour trouver des accords sur les règles du partage des données et du partage des coûts après avoir identifié si deux substances (ou plus) sont les mêmes au sein d’un SIEF donné. Toutefois, l’ECHA ne met pas à disposition d’outil pour que les membres puissent communiquer entre eux. Des petits importateurs doivent par exemple répondre à des lettres en anglais et ils ne savent pas comment s’y prendre. Ils ne savent pas ce qu’ils doivent payer ou pas, s’ils ont besoin de telles ou telles études. Le partage des coûts et le partage des données suscitent des craintes de la part des PME. En l’absence de règles spécifiques, les déclarants sont libres de choisir n’importe quel mécanisme de compensation tant qu’il est perçu comme étant équitable, transparent et non discriminatoire conformément à REACH. Par ailleurs, les déclarants doivent seulement participer aux coûts des informations qu’ils doivent soumettre pour satisfaire aux exigences en matière d’enregistrement. Lors de la recherche d’une entente, les acteurs impliqués doivent être conscients des droits de propriété intellectuelle, des aspects  liés à la confidentialité et toujours respecter les règles communautaires du droit de la concurrence. Ainsi, quelle que soit la forme de coopération choisie, il est recommandé qu’une trace des accords soit conservée sous forme écrite. Par exemple, avant d’échanger des informations techniques (impureté, composition, process…) nécessaires pour partager des données, il est recommandé de prendre certaines mesures, comme conclure des accords de confidentialité. En outre, les acteurs doivent parler de leur bande de tonnage respective comme définie dans REACH et éviter d’échanger des chiffres individuels ou plus détaillés.

Où en sont les forums d’échange d’information ?
Ils se dessinent davantage, mais cela reste trop limité. Il n’y a pas beaucoup de déclarants principaux, ce qui pose des problèmes. Par ailleurs, certains se trouvent dans les forums alors qu’ils ne devraient pas y être. Ils sont là dans le doute, mais ils ne sont pas actifs. Certaines sociétés participent dans le but de vendre leurs services. Très peu de forums sont bien organisés. Seulement la moitié des substances des déclarants fait l’objet d’un forum.

Face à ces problèmes d’organisation, les échéances pourraient-elles être repoussées ?
Je ne pense pas. Il n’y aura aucune tolérance et les échéances seront respectées.

Quelles sont les grandes questions sur CLP ?
Le sujet phare concerne la notification. A partir du 1er décembre 2010, les fabricants et les importateurs devront se conformer à la procédure de notification de la classification et de l’étiquetage à l’inventaire si cela est nécessaire. Certains nous demandent de classer leurs substances ce qui n’est pas le rôle du helpdesk. Si les substances ne sont pas classées de façon harmonisée, il faudra proposer une classification auprès de l’ECHA (auto-classification), qui mettra en place un inventaire et spécifiera si la classification est harmonisée ou pas, et s’il y a accord ou pas. Sur l’étiquetage, nous avons des questions d’ordre pratique. Pouvons-nous utiliser des étiquettes pré-imprimées ? Quelles seront les dimensions ?

Comment les salariés du helpdesk se forment-ils ?
Nous avons recours aux règlements. REACH est constitué d’environ 1.000 pages et des guides spécifiques sont à disposition, CLP d’environ 1.300 pages et d’un guide précisant les critères pour classer les substances et les mélanges notamment. Des formations sont organisées par l’ECHA, en particulier des séminaires en ligne. Par ailleurs, nous sommes membres d’un réseau interne, qui permet de remonter les questions complexes afin d’harmoniser nos réponses. Nous nous rendons à l’ECHA régulièrement. Nous échangeons beaucoup entre nous. Nous sommes tous des scientifiques, avec des spécialités différentes : physico-chimie, biotechnologies, toxicologie et éco-toxicologie.Propos recueillis par Corentine Gasquet Sites
  • www.ineris.fr/reach-info
  • www.ineris.fr/clp-info

 ParcoursAprès une formation dans le domaine des biotechnologies, Stéphanie Auguste spécialisée dans l’instrumentation et les méthodes d’analyse physico-chimiques. Elle a effectué ses premières expériences professionnelles dans le développement et la validation de méthodes analytiques puis dans le secteur de la formation continue avant d’intégrer l’équipe du helpdesk en 2007.

La fourniture d’équipements de protection individuelle

Le recours aux EPI est la dernière solution lorsque les autres moyens techniques (dont la protection collective) s’avèrent inapplicables ou insuffisants. En fonction des risques identifiés, il faudra choisir les EPI mis à la disposition des salariés pour les protéger (exemples : gants pour éviter les coupures, masques pour limiter l’inhalation de poussières, chaussures de sécurité pour se protéger des chutes d’objets lourds lors de manutentions, etc.).Téléchargez le livre blanc

La bonne méthode
Etape 1 – Choisir les équipements de protection individuelle (EPI) adaptés
Le CHSCT doit être consulté sur le choix, les conditions de mise à disposition et le mode d’utilisation des EPI.Ces EPI seront choisis de manière à :
  • ne pas générer de risques supplémentaires ;
  • être appropriés aux risques ;
  • être adaptés aux conditions de travail ;
  • tenir compte de l’ergonomie.
Sur la base de votre analyse des risques et sur la base des fiches techniques des EPI que vous pourrez solliciter auprès de différents fournisseurs, étudiez l’adéquation des protecteurs et du niveau de protection que vous souhaitez, en tenant compte du confort de vos salariés.Une fois la sélection arrêtée et les EPI utilisés, il serait intéressant de mener à nouveau cette analyse : passer du théorique à la pratique en interviewant les salariés. Cela vous permettra d’ajuster votre évaluation des risques initiale et de valider vos conclusions.ATTENTIONNe prenez pas le risque d’utiliser des EPI périmés. Des délais de péremption pour ces protecteurs sont définis pour des conditions normales. Il est important d’identifier ces délais et de les suivre afin d’éviter que les salariés n’utilisent du matériel non conforme et ne mettent en danger leur santé ou leur sécurité. Ces délais sont, en règle générale, définis sur les notices d’utilisation rédigées en français que transmet le fournisseur avec les EPI.
Etape 2 – Faire utiliser les EPI
  • Rédiger des consignes d’utilisation
Lorsque l’employeur remet les EPI à ses salariés, il a une obligation de les informer sur les risques contre lesquels le port des EPI les protège, les conditions d’utilisation et les instructions ou consignes associées.Pour rédiger ses consignes, il peut s’aider des notices d’instruction rédigées en français qui sont fournies avec les EPI.Il ne suffit pas de mettre à disposition les EPI, encore faut-il vérifier leur port effectif. Si tel n’est pas le cas, rappelez le but des EPI, questionnez les salariés afin de savoir pourquoi ils ne les portent pas et essayez de voir avec eux quels types d’équipement privilégier en terme d’ergonomie et de confort.L’employeur a une obligation de résultat en matière de sécurité au travail. Il lui appartient donc de s’assurer du port ou de l’utilisation effective des EPI et il peut inscrire cette obligation dans le règlement intérieur, ainsi que les sanctions assorties à un refus de port, à condition bien sûr qu’elle soit justifiée par des motifs directement liés à la sécurité.Le CHST doit être consulté sur les consignes d’utilisation des EPI qui seront inscrites dans le règlement intérieur.
  • Former à l’utilisation
L’employeur doit former les salariés à l’utilisation des EPI. Souvent, cette formation est intégrée à la formation à la sécurité, qu’il conviendra de ne pas oublier de renouveler régulièrement.
  • Maintenir en état de fonctionner et en conformité
Comme tous vos équipements, l’employeur doit vérifier que les EPI sont conformes avant leur mise en service. Pour cela, il est nécessaire de les maintenir en état de fonctionner et en état de conformité. L’employeur doit donc mettre en place des vérifications périodiques et une maintenance de ces équipements qui seront consignées dans le registre de sécurité.Attention, les vérifications périodiques pour certains EPI sont définies réglementairement.
Notre conseil
  • Etablissez une liste des EPI que vous utilisez afin de pouvoir mettre en place un suivi efficace.
  • Sur cette liste, vous pourrez préciser quelques informations importantes : date d’achat et date de péremption, nom de la personne en charge des vérifications, salariés à qui ont été remis ces EPI, etc.
  • Ce suivi devrait permettre d’éviter d’avoir des EPI non conformes ou encore d’oublier de former les salariés.
Source : Schémas commentés santé sécurité au travail > La fourniture d’équipements de protection individuelleEditions Tissot : droit du travail  – convention collective syntec 
Copyright vignette © 2006 ~Pyb

5 méthodes pour sécuriser un réseau virtuel

Selon l’entreprise américaine de conseil et de recherche dans le domaine des techniques avancées Gartner, d’ici à 2012, 60 % des serveurs virtualisés seront moins sécurisés que les serveurs physiques qu’ils sont censés remplacer. Actuellement, la plupart des entreprises déploient sur leur réseau des technologies de virtualisation sans impliquer les équipes réseau et de sécurité des systèmes dans les phases de planification. Ainsi, la majorité des entreprises se contente donc de moderniser les réseaux virtuels, en y appliquant les politiques de sécurité réseaux physiques existantes. Ce manque de préparation et de perspective affaiblit considérablement la sécurité du réseau, cette dernière étant l’élément essentiel de la mise en place réussie du cloud computing au sein des très grandes entreprises. Pour appuyer cette communication de Gartner, l’éditeur finlandais Stonesoft, fournisseur de solutions intégrées de sécurité réseau et de continuité de service, a identifié cinq façons pour les équipes informatiques de se prémunir des menaces et attaques survenant dans le cloud, tout en assurant la bonne mise en œuvre de leurs politiques

1 – Regrouper les identités (Federated ID) : le besoin pour les collaborateurs de se connecter à de multiples applications et services est inhérent à tout environnement de type cloud. La possibilité d’assurer l’authentification forte de l’utilisateur risquant d’échapper aux entreprises représente donc un danger considérable en termes de sécurité. Pour réduire ce risque, les entreprises doivent mettre en place des technologies de Single Sign-On (SSO) qui permettent aux utilisateurs d’accéder, via un login unique, à de multiples applications et services, y compris ceux localisés en dehors de la société, dans le cloud public. Le SSO permettra aux entreprises d’harmoniser l’administration de la sécurité et d’assurer une authentification forte, même dans le cloud.

2 – Assurer une connectivité permanente : lorsque la plupart des données sensibles d’une entreprise est stockée dans le cloud, la moindre panne réseau risque d’interrompre les opérations commerciales. Les services du cloud doivent être constamment accessibles, et ce même pendant les opérations de maintenance. Des fonctionnalités de haute-disponibilité comme le clustering actif/actif, un serveur dynamique de répartition de charge, ainsi qu’un répartiteur de chargeur ISP doivent donc être mis en place au sein de l’infrastructure réseau. Il est préférable pour les entreprises de choisir des technologies déjà intégrées à l’infrastructure réseau, plutôt que d’investir dans des versions autonomes de solutions afin d’assurer l’efficacité, la facilité d’administration mais également, de réduire les coûts.

3 – Mettre en place une inspection multi-couches : de l’augmentation du nombre d’environnements cloud computing et de la multiplication de menaces toujours plus évoluées découle le besoin de créer une protection couche-par-couche, comprenant la protection périmétrique, la prévention et la détection d’intrusions sur le réseau. Au lieu de mettre en place des firewalls de première génération visant à protéger le cloud et son périmètre, Stonesoft prône le déploiement d’appliances firewalls virtuelles de nouvelle génération qui intègrent un firewall et un IPS pour une inspection en profondeur du trafic. Ainsi, les entreprises pourront analyser tous les types de trafic : de la navigation Web, aux applications peer-to-peer en passant par le trafic Web chiffré transitant dans le tunnel SSL. Des appliances IPS supplémentaires devront aussi être installées afin de protéger les réseaux des attaques internes qui menacent l’accès au cloud.

4 – Exiger une administration centralisée : l’erreur humaine reste toujours la menace la plus considérable pesant à la fois sur les réseaux virtuels et physiques. A mesure que les entreprises déploient des dispositifs réseaux supplémentaires afin de sécuriser leur réseau virtuel, le risque devient plus grand. En effet, la gestion des périphériques, la surveillance et la configuration deviennent plus complexes et totalement désorganisées. C’est pour cette raison que Stonesoft recommande aux entreprises l’utilisation d’une seule console d’administration pour gérer superviser et configurer l’ensemble des dispositifs réseau, qu’ils soient physiques, virtuels ou tiers.

5 – Protéger les postes de travail virtuels : de plus en plus d’entreprises décident de déployer des postes de travail virtuels afin de bénéficier des avantages de cette nouvelle technologie, notamment en ce qui concerne l’administration et les coûts. Cependant, ces postes de travail sont tout autant, et si ce n’est plus, vulnérables que leurs homologues physiques. Pour protéger les postes de travail virtuels de façon adéquate, les entreprises devront les isoler des autres segments du réseau et mettre en place des processus d’inspection profonde pour prévenir les attaques internes et externes. Ces entreprises devront adopter une approche multi-niveaux de la sécurité en mettant notamment en place une technologie IPS qui empêchera les accès internes non autorisés, protègera les postes clients des serveurs malveillants et délivrera également des fonctionnalités d’accès distants via l’IPsec ou le SSL VPN qui protège contre les accès externes non autorisés.

Après les commandes clients, CGR dématérialise ses factures fournisseurs

Grossiste en robinetterie et en accessoires, le Comptoir Général de Robinetterie (CGR) dispose d’un catalogue de plus de 16 000 références produits qu’il s’engage à livrer dans toute la France en 24 h.  Le traitement des 1 000 bons de commandes clients reçus quotidiennement, essentiellement par fax, représentait donc pour CGR un processus critique garant de la satisfaction de ses clients : livraison conforme à la commande passée (référence article, quantité, prix), respect des délais de livraison, suivi de commande… Afin de traiter ces bons de commandes dans les meilleurs délais et répondre à l’engagement de livraison en 24 heures, les 50 techniciens de CGR, après réception des fax, devaient les saisir manuellement dans l’ERP Axapta de l’entreprise. Une tâche chronophage et à faible valeur ajoutée qui ne leur permettait pas de se consacrer entièrement à l’amélioration des offres et au service client. Face à cette problématique, la direction de CGR a souhaité se doter d’une solution de Lecture Automatique de Documents (LAD) pour automatiser et dématérialiser le traitement de ses bons de commande, et ainsi libérer les équipes techniques de la saisie des commandes.Après avoir consulté plusieurs acteurs du marché, le choix de CGR s’est porté sur la solution d’Esker –  Esker DeliveryWare – qui répondait à ses critères: la qualité et la souplesse de la solution, la possibilité de la faire évoluer en toute autonomie, la qualité du support technique…, Concrètement, Esker DeliveryWare permet à CGR de dématérialiser le traitement de ses bons de commande chaque jour, depuis la capture des données, jusqu’à la création de la commande dans l’ERP.Dès réception, les bons de commandes sont orientés, en fonction des processus internes, vers une machine fax, une imprimante, un compte de messagerie interne ou vers le circuit de traitement de Lecture Automatique des Commandes Clients. Le logiciel récupère automatiquement les données issues de la commande et les vérifie (numéro de commande, adresse de facturation et de livraison, reconnaissance du client…). Les commandes sont ensuite créées automatiquement dans l’ERP Axapta. L’image électronique de la commande est enfin archivée soit dans Esker DeliveryWare, soit dans l’ERP Axapta, simplifiant ainsi l’accès à l’historique des données et à la commande.« Pour une entreprise comme la nôtre, un retard de livraison, pour quelque motif que ce soit, peut s’avérer extrêmement préjudiciable et impacter la satisfaction de nos clients. Face à cette problématique, Esker DeliveryWare nous dispense non seulement de la saisie et de l’archivage manuels des bons de commandes mais elle nous offre également des fonctionnalités de validation des commandes à plusieurs niveaux, en plusieurs étapes et par plusieurs collaborateurs »  affirme Fabrice Varloteaux, Directeur des Systèmes d’Informations de CGR.« Fort du succès de notre premier projet de dématérialisation des commandes clients, nous avons voulu aller plus loin et développer l’utilisation de la solution pour d’autres flux afin de gagner encore plus en efficacité et nous inscrire dans une démarche de développement durable dans le cadre de notre certification ISO 14001 » explique Sylvie Genibre, Responsable Administratif et Comptabilité au sein de CGR. A l’issue d’une réflexion menée par les services Achats,  Approvisionnement, Comptabilité et Arrivage sur l’optimisation de l’organisation, de la logistique et de l’utilisation du papier au sein de l’entreprise, une des pistes les plus prometteuses s’est avérée être la dématérialisation du processus de réception et de traitement des factures fournisseurs.Avec plus de 300 fournisseurs, CGR recevait et saisissait manuellement plus de 1 000 factures fournisseurs par mois (800 relatives à des marchandises et 200 à des frais généraux) dans son logiciel de gestion comptable et financière Sage 1 000. Le traitement manuel de ces factures était long et pouvait occasionner des erreurs de saisies. Par ailleurs, les aides-comptables occupés à la saisie des factures manquaient de temps pour effectuer des contrôles, tâches à plus forte valeur ajoutée, plus « comptables ».Aujourd’hui, grâce aux solutions Esker, une fois les factures fournisseurs numérisées, les données clés sont capturées automatiquement avec une technologie de reconnaissance et lecture automatiques de documents (RAD/LAD). Elles sont ensuite validées par le comptable dans l’interface Esker et intégrées automatiquement dans Sage 1000 avec un lien vers l’archive électronique de la facture. Pour terminer, le visa de bon à payer déclenche la mise en paiement de la facture dans les délais impartis. Cette solution  permettra un gain notable sur le temps et le coût de traitement des factures, tout en apportant visibilité et traçabilité sur l’ensemble du processus.Marc Chabreuil

REACH : les denrières news

Des conférences en ligne pour se former
Dans le cadre de la convention MEEDDM-UIC sur la formation et l’accompagnement des entreprises sur REACH, l’UIC vous invite à participer gratuitement à différentes conférences en ligne. Chaque conférence en ligne (connexion web et audio) est animée par un expert, vous suivez en direct une présentation et vous avez la possibilité de poser des questions par écrit (mode « chat »). Les séances se dérouleront entre 8h30 et 9h30. Depuis le mois de février, des conférences en ligne sur les pré-SIEF, SIEF, CSA, Reach IT et IUCLID ont déjà eu lieu. De nouvelles dates ont été programmées et de nouveaux thèmes sont abordés.
  • http://www.uic.fr/REACH-conferences-en-ligne.asp.
Manuel pour les utilisateurs de IUCLID 2
(11 juin 2010) L’ECHA a publié un manuel pour les utilisateurs de IUCLID 5.2 donnant des instructions pratiques pour inclure des informations lors de l’enregistrement dans le cas des nanomatériaux.
  • http://iuclid.eu/index.php?fuseaction=home.documentation&type=public#reachmanual
8 nouvelles substances dans la liste candidate
(11 juin 2010) Les Etats membres se sont mis d’accord sur l’identification de 8 substances très préoccupantes, prochainement  inscrites dans la liste des substances candidates à la procédure d’autorisation. Il s’agit du trichloréthylène, de l’acide borique, le tétraborate de sodium anhydre, l’heptaoxyde de tétrabore et de disodium hydraté, le chromate de sodium, le chromate de potassium, le dichromate d’ammonium et le dichromate de potassium.
  • http://echa.europa.eu/consultations/authorisation/svhc/svhc_cons_en.asp
Rappel à l’ordre du ministère
(5 juin 2010) Le ministère de l’écologie a publié un avis destiné aux opérateurs économiques sur l’obligation de communiquer des informations sur les substances contenues dans les articles, en application de l’article 33 du règlement (CE) n° 1907/2006 REACH
  • Avis min. Ecol., NOR : DEVP1013151V, JO 5 juin 2010
Imprécisions liées à la traduction de l’annexe II
(4 juin 2010) L’Ineris indique sur son site Internet : « La version française du règlement (UE) n°453/2010 modifiant le règlement REACH en ce qui concerne l’annexe II relative aux fiches de données de sécurité comporte un certain nombre d’imprécisions voire d’incorrections. Les autorités françaises ont signalé à la Commission ces erreurs de traduction. Un rectificatif devrait être très prochainement publié. »
  • Site de l’Ineris : http://www.ineris.fr/reach-info/
Un guide pratique pour éviter les essais sur les animaux
(3 juin 2010) L’ECHA a publié son guide pratique N°10: Comment éviter les essais inutiles sur animaux. Il  permet au secteur industriel d’envisager toutes les méthodes alternatives possibles pour produire de nouvelles données sur les dangers, afin de veiller à ce que les essais sur des animaux vertébrés ne soient réalisés qu’en dernier recours.
  • Guide pratique pour éviter les essais sur les animaux
http://echa.europa.eu/doc/publications/practical_guides/pg_10_avoid_animal_testing_en.pdf

Moratoire sur la publication des mises à jour de guides techniques
(2 juin 2010) L’ECHA a instauré un moratoire de six mois sur la publication de dix guides techniques, jusqu’au 30 novembre 2010, première date limite d’enregistrement au titre du règlement REACH. Cette initiative devrait permettre à l’industrie de se concentrer les prochains mois sur la préparation des dossiers d’enregistrement ainsi que sur le délai de notification au titre du règlement CLP qui suivra peu après.
  • Communiqué de l’ECHA
Clarification de la notion d’intermédiaires
(1er juin 2010) Les États membres ont attiré l’attention de l’ECHA et de la Commission européenne sur les positions de l’industrie quant aux intermédiaires, qui s’avèrent non conformes à la définition des intermédiaires prévue dans le règlement REACH et dans le guide sur les intermédiaires. Ce document, sur lequel toutes les autorités ont marqué leur accord, a pour but d’expliquer à l’industrie dans quels cas il est possible d’enregistrer une substance chimique uniquement en tant qu’intermédiaire ou dans quels cas un enregistrement standard est nécessaire.
  • Guide sur les intermédiaires :
http://guidance.echa.europa.eu/docs/guidance_document/intermediates_en.pdf
  • Définition des intermédiaires telle que convenue par la Commission, les États
membres et l’ECHA :http://guidance.echa.europa.eu/docs/guidance_document/clarificationintermediates_201005_en.pdf
Publication au JO du règlement modifiant REACH
(31 mai 2010) Le règlement 453/2010, modifiant le règlement REACH, notamment sur les FDS, a été publié au Journal officiel de l’Union européenne. Règlement (UE) n°453/2010 de la Commission
  • http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:L:2010:133:0001:0043:FR:PDF
Une nouvelle version de REACH-IT
(31 mai 2010) La nouvelle version de REACH-IT est à présent disponible. Elle comprend de nouvelles fonctionnalités comme, notamment, la «soumission conjointe parallèle» qui permet aux membres d’une soumission conjointe de soumettre leurs dossiers dès que le dossier principal a été admis au traitement. Par la même occasion, une nouvelle fonctionnalité en ligne a été introduite pour permettre aux sociétés de préparer leurs notifications de classification et d’étiquetage directement dans REACH-IT. Après cette mise à jour, aucune nouvelle fonctionnalité ne sera introduite avant les dates limites de novembre et janvier.
  • http://echa.europa.eu/doc/press/na_10_29/na_10_29_reach_it_update_fr_20100531.pdf
Des Webinaires en ligne sur le site de l’ECHA
(26 mai 2010) Une série de webinaires ont été publiés en vue de fournir des informations essentielles concernant les modalités de préparation d’un dossier d’enregistrement dans IUCLID 5.2 et de sa soumission à l’ECHA au moyen de REACH-IT.
  • http://echa.europa.eu/news/webinars_en.asp
Montants des redevances dues l’ECHA
(22 mai 2010) Le règlement qui détermine le montant et les modalités de paiement des redevances perçues par l’ECHA, en lien avec le règlement CLP, est entré en vigueur. Règl. 440/2010, 21 mai 2010, JOUE 22 mai 2010, n° L 126
  • Règlement (UE) n ° 440/2010 de la Commission du 21 mai 2010 relatif aux redevances dues à l’Agence européenne des produits chimiques en application du règlement (CE) n ° 1272/2008 du Parlement européen et du Conseil relatif à la classification, à l’étiquetage et à l’emballage des substances et des mélanges (Texte présentant de l’intérêt pour l’EEE)
 Les précédents articles sur l’actualité de REACH
  • Actualités de mai 2010
  • Actualités d’avril 2010
  • Actualités de janvier à mars 2010
  • Actualités de novembre – décembre 2009
  • Actualités du 20 août au 31 octobre 2009
  • Actualités du 15 juillet au 20 août 2009
  • Actualités du 15 juin au 15 juillet 2009

Les cellules de Grätzel refont parler d’elles

Décerné tous les deux ans, le Millennium Technology Prize, trophée finlandais qui récompense les développeurs d’une innovation technologique qui améliore la qualité de vie de chacun, vient d’être attribué au suisse Michael Grätzel, professeur de chimie à l’Ecole polytechnique de Lausanne (EPFL) pour ses cellules à pigment photosensible appelées aussi cellules solaires à colorant, voire cellules de Grätzel (dye-sensitized solar cell, DSSc, DSC ou  DYSC en anglais). Une invention qui lui a déjà valu le Millenium European innovation Prize (2000), le Faraday Medal de la Royal Society et le Dutch Havinga Award (2001), le McKinsey Venture Awards (1998 et 2002), l’Italgas Prize (2004), le Gerischer Prize (2005) et le Prix Balzan (2009).  » L’énergie solaire s’est traditionnellement heurtée au problème du coût, qui restreint son utilisation. Les cellules Grätzel offrent un moyen de plus en plus avantageux de tirer partie de l’énergie solaire pour la mettre au service de l’Homme. L’innovation due au professeur Michael Grätzel sélectionnée par le Conseil d’administration de la Technology Academy Finland, sur recommandation du Comité international de sélection, jouera vraisemblablement un rôle important dans les applications  liées à l’énergie renouvelable. Elle favorisera, par conséquent, la promotion du développement durable « , déclare Ainomaija Haarla, directrice générale de la fondation Technology Academy Finland.Le rapport performance / coût des cellules solaires à colorants mises au point par Michael Grätzel est en effet excellent : cette technologie photoélectrochimique inspiré de la photosynthèse végétale  apparaît comme une alternative prometteuse à la technologie dominante des panneaux solaires au silicium, car elle fait intervenir des matériaux bon marché mis en œuvre avec des technologies relativement simples.

Le principe de fonctionnement de ces cellules
La première cellule nano-cristallines à pigment photosensible, démontrée à l’EPFL par Michael Grätzel, utilisait une paroi supérieure en oxyde d’étain dopé au fluor SnO2-F qui est un matériau à la fois transparent et conducteur d’électricité. Sur la face intérieure de cette paroi, se trouvait de l’oxyde de titane TiO2 pulvérulent semi-conducteur, dont la surface était imprégnée de polypyridine au ruthénium comme pigment photosensible et d’un électrolyte iodure/triiodure baignant l’ensemble en assurant la conduction avec la paroi inférieure de la cellule qui fermait le circuit. L’astuce principale de la cellule provient de la texture du semi-conducteur : avec une surface plane, ce procédé pourrait au mieux récupérer environ 1 % d’énergie solaire alors que, dans la cellule réalisée, le TiO2 a une extrême rugosité qui permet de multiplier la surface en contact avec le colorant et l’électrolyte par environ 800.Cette technologie qui fait l’objet d’études et d’améliorations dans divers laboratoires en entreprises, notamment au niveau de la stabilité de l’électrolyte et de la durée de vie,  présenterait plusieurs avantages :
  • contrairement aux panneaux à silicium, dont l’efficacité diminue lorsque la température augmente fortement, l’efficacité des cellules est indépendante de la température ;
  • en choisissant les différents composants, il est possible de créer des cellules transparentes, qui ouvrent la voie à de nombreuses applications ;
  • comme l’énergie solaire peut être captée par les deux faces, il devient possible d’utiliser ces cellules dans un environnement de faible luminosité ou de luminosité diffuse ;
  • en raison de leur transparence et de leur efficacité en faible luminosité, ces cellules pourront être insérées dans des menuiseries (fenêtres, portes, lumière zénithale, …), ou sur des éléments (toitures, bardages, parois, …). Par ailleurs, en choisissant la couleur du colorant, il est possible de modifier les coloris des cellules ;
  • plusieurs couches transparentes peuvent être superposées, ce qui augmentera l’efficacité des cellules (un panneau ainsi constitué atteindrait une efficacité de 20 à 30 %) ;
  • d’un faible encombrement, un panneau de cellule peut être miniaturisée. Ainsi, certaines cellules expérimentales sont composées de trois couches de 0,4 mm d’épaisseur.
A l’avenir se profilent donc de nombreux produits basés sur l’innovation due à Grätzel, comme les fenêtres génératrices d’énergie et des panneaux solaires considérablement moins coûteux que les panneaux actuels. Les tous premiers produits basés sur les cellules Grätzel ont d’ailleurs déjà fait leur apparition sur le marché.Par Marc Chabreuil

« La RFID est de plus en plus orientée sur les services »

Techniques de l’ingénieur : Vous êtes intervenu lors des Assises de la RFID. Qu’avez-vous pensé de cet événement ?
Sylvain Bureau : La démarche m’a semblé très intéressante. Les Assises ont rassemblé des acteurs différents, dans une plate-forme assez neutre. J’ai été surpris par le nombre de participants pour une première édition, notamment des personnes ayant un certain niveau hiérarchique dans l’entreprise.

Vous êtes chercheur au sein de l’ESCP Europe. En quoi la RFID dépasse-t-elle le monde scientifique et technique ?
La RFID est un objet technologique qui concerne aussi les sciences sociales. Cela soulève des problèmes sanitaires, juridiques, sociaux… On voit émerger de nombreuses problématiques en management et en gestion. Il n’existe pas de déterminisme technologique. Une même technologie n’aura pas le même impact suivant les process et les acteurs.

Quel est l’objectif de vos recherches ?
Nous cherchons à faire émerger des dimensions de contexte pour mettre en place une méthodologie pour savoir s’il faut adopter ou pas la RFID. Nous essayons également de comprendre comment le dispositif permet de recueillir de nouvelles données au niveau des objets pour améliorer l’efficacité et l’efficience des organisations mais aussi, la chaîne de valeur. Finalement, comme souvent quand il est question de technologies, les RFID représentent un catalyseur de changement qui peut être exploité pour innover et faire changer les organisations en place. Nous réalisons nos recherches principalement au sein du secteur de la santé et de la grande distribution qui sont particulièrement critiques et riches d’enseignement quand il est question de RFID. Par exemple, dans le cas des hôpitaux, cela peut apporter une plus grande qualité des soins mais aussi une réduction de certains coûts en matière de logistique.

La RFID est-elle passée à la vitesse supérieure ?
La RFID n’est plus considérée uniquement comme un outil de traçabilité logistique, un code-barres évolué. Elle est de plus en plus orientée sur les services. Elle s’inscrit dans une tendance plus large, l’Internet des objets. Il s’agit de mettre en réseau les objets et de les relier à Internet. Aujourd’hui, des usages existent et cela fonctionne. Mais cela reste limité à un certain périmètre. Le problème majeur est de passer à un niveau plus étendu. Cela suppose notamment l’interopérabilité des systèmes. Internet a mis une trentaine d’années avant de s’imposer. L’Internet des objets prendra du temps, mais il est inconcevable qu’il ne se développe pas. Toute la question est de savoir quelles seront les technologies et les normes. Pour les ingénieurs, il me semble important de comprendre qu’on assiste probablement à l’émergence d’un nouveau paradigme technologique qui va faire émerger de nouvelles opportunités de business. C’est un peu comme l’Internet à la fin des années 80 et au début des années 90.

Les problématiques éthiques vont-elles constituer un frein à ce développement ?
Selon l’univers social, la résultante sur la vie privée ne sera pas la même. Le grand enjeu, ce sont les données et les statistiques que l’on peut en tirer. Ce n’est pas une menace en tant que telle, mais il faut rester vigilant et dépasser une logique purement juridique pour appréhender le volet technique, et surtout améliorer la qualité du débat démocratique sur ces solutions car aujourd’hui, on reste encore trop au niveau de clichés qui empêchent de poser les questions essentielles. Propos recueillis par Corentine GasquetParcours Sylvain Bureau, normalien agrégé du secondaire en économie et gestion et docteur de l’Ecole Polytechnique en sciences de gestion, est professeur assistant au sein du département Information et opérations management de l’ESCP Europe. Directeur du pôle nouvelles technologies de la chaire entrepreneuriat Ernst & Young (www.entrecreateurs.fr), et responsable du RFID European Lab (www.rfideuropeanlab.org), il s’intéresse aux problématiques liées à la création d’entreprise, à l’innovation et aux nouvelles technologies. Depuis 2007, il a notamment mis en place un séminaire de création d’entreprise réunissant des élèves de la filière entrepreneur de Centrale Paris et des élèves designers de Strate Collège Design. Il est aussi familier de l’enseignement en école d’ingénieur et assure depuis 2003 des cours de management à l’Ecole Polytechnique. Au-delà de l’enseignement et de la recherche, il s’implique dans la démarche d’ouverture sociale des grandes écoles françaises. A l’ESCP Europe, il participe aux projets Cordées de la réussite, Double ascension et Collège Paris factory. 

Fonctionnalités de pointe pour une machine d’essais bi-axiale

La machine d’essais de traction/compression en bi-axial Mayes de l’Université de Sheffield vient de faire l’objet de travaux de modernisation qui ont porté sur une révision complète de la machine, assortie de l’intégration d’un nouveau système de commande. Cette machine qui travaille sur des éprouvettes normées, est utilisée pour tester divers matériaux, dont l’acier, les composites et l’aluminium destinés à des applications comme l’élimination des déchets nucléaires ou les structures d’avion, ainsi qu’à déterminer les efforts de frottement et de contrainte dans les trains d’atterrissage. Pour sa modernisation, l’université a logiquement fait appel à Moog Industrial Group, une division de la société Moog Inc., avec qui elle collabore depuis longtemps. Une équipe détachée de l’usine de Moog installée à Solihull, en Angleterre, et spécialisée dans les essais et simulations, a procédé à cette opération qui comprenait également l’installation et l’étalonnage de la machine, ainsi que la formation du personnel de l’université, laquelle utilise sept contrôleurs portables de la société.La modernisation de la machine d’essais a porté notamment sur l’adjonction d’un contrôleur à quatre voies. Selon Stuart Bibb, responsable des systèmes d’essais :  » les essais effectués par ce client comportent des boucles de régulation complexes qui ont pu être configurées à l’aide des fonctions et des outils des systèmes Moog. C’est grâce à ce genre de flexibilité et de capacité de prise en charge que le contrôleur portable de Moog se distingue de la concurrence. « Les essais biaxiaux sont notoirement complexes du fait que l’éprouvette doit être maintenue absolument centrée dans la machine pour garantir une sollicitation parfaitement symétrique de l’éprouvette. Ceci implique de pouvoir réguler à la fois le déplacement et la force appliquée par le système de manière que le centre de gravité de l’éprouvette reste fixe, tâche que le contrôleur portable accomplit à l’aide de voies d’asservissement personnalisables et de voies calculées. Outre ces quatre voies d’asservissement physiques, le contrôleur est configuré avec quatre voies d’asservissement virtuelles définies par l’utilisateur : force X, force Y, translation X et translation Y.Les voies virtuelles peuvent être utilisées de la même manière que les voies physiques pour positionner les vérins pour installer l’éprouvette et répartir l’application des forces. Les voies de translation servent à maintenir l’éprouvette en position correcte et les voies d’effort servent à appliquer la charge dynamique à l’éprouvette de manière parfaitement symétrique. En mode translation, avec translation 1 pour l’axe Y et translation 2 pour l’axe X, les deux vérins peuvent être réglés en position à l’aide de la commande point de consigne pour chaque axe. On maintient ainsi une distance constante entre les deux vérins qui effectuent une course identique simultanément.Une des nombreuses fonctions que le système Moog améliore, concerne la possibilité de créer par conversion cinématique des voies de commande virtuelles représentatives d’une certaine force et d’un certain déplacement.  » La conversion cinématique permet de définir un point de consigne par degré de liberté et, par la suite, de faciliter la création d’un spectre. Le contrôleur est capable de synchroniser plusieurs scénarios différents sur plusieurs actionneurs et de créer un degré de liberté virtuel. Les ingénieurs disposent ainsi d’une plus grande flexibilité dans la création des mouvements et d’une meilleure maîtrise de la mécanique de l’essai « , précise Stuart Bibb.Grâce au système, les ingénieurs peuvent configurer la boucle de régulation de manière que l’éprouvette renvoie des informations sur, par exemple, les moyennes de force et de position. En outre, il permet de créer une forme d’onde sinusoïdale adaptée à l’objectif final en moins d’une heure.D’après Mike Rennison, expérimentateur au département de génie mécanique de l’Université de Sheffield,  » nous avons opté pour le contrôleur portable de Moog parce qu’il nous permet d’aller plus loin dans les essais de par son universalité et sa flexibilité qui sont nettement supérieures à celles d’autres systèmes du marché. Il nous a aussi permis de mettre à niveau tous nos équipements pour pouvoir résoudre les problèmes que les clients nous soumettent. « Par Marc Chabreuil

Recyclage/valorisation des déchets : les 4 axes prioritaires du pôle de compétitivité TEAM²

Suite au dépôt de dossier  par le cd2e (Création Développement d’Eco-Entreprises) dans le cadre de l’appel à projet du Gouvernement, le CIADT a labellisé, le 11 mai 2010, TEAM² (Technologies de l’Environnement Appliquées aux Matières et Matériaux), pôle de compétitivité sur les technologies de recyclage, de valorisation des déchets et des éco-produits et du développement des usages de ces nouveaux matériaux. Cette labellisation est la reconnaissance de la qualité et du succès des actions innovantes menées par les éco-entreprises et de leur accompagnement par le cd2e, centre expert pour l’émergence des éco-technologies au service du développement des éco-entreprises, en région Nord-Pas De Calais.TEAM² qui agira sur l’amélioration de la recyclabilité et l’usage des matières issues du recyclage dans les produits industriels, s’appuiera sur un tissu de 300 d’éco-entreprises dynamiques (près de 200 sont déjà impliquées directement dans le projet) qui contribueront à apporter une expertise industrielle et technologique de pointe afin de lever les verrous technologiques. Par ailleurs, l’analyse de leur positionnement montre que la plupart d’entre elles interviennent sur l’ensemble du cycle de vie et qu’elles sont nombreuses à se positionner sur les familles de matières minérales et organiques. Ce constat vient asseoir le choix de positionnement de TEAM² sur les sédiments, les métaux rares, les déchets du BTP et les plastiques.Pour chacune des thématiques de recherche, le pôle TEAM² souhaite axer son action sur les domaines les moins maîtrisés aujourd’hui et présentant de fortes incertitudes scientifiques et technologiques, favorisant ainsi l’émergence de technologies de rupture dans l’objectif de lever les verrous technologiques sur les différentes parties de la chaîne de valeur : collecte (périmètre secondaire), process de tri, transformation et valorisation des MPS (Matière première secondaire ou Nouvelle matière première : déchet qui a été transformé et/ou combiné, en vue d’obtenir un produit utilisable dans les procédés de fabrication pour remplacer la matière première initiale).Le pôle TEAM² dont l’un des objectifs affiché est de devenir le pôle de référence européen en matière de valorisation des co-produits et d’usage des matières premières secondaires, travaillera en lien étroit avec l’ensemble des pôle de compétitivité régionaux, avec les pôles de compétitivité nationaux complémentaires (sur les sédiments, les plastiques et organiques, les éco-technologies) et avec les clusters européens et mondiaux sur les thématiques du recyclage (CTTEI au Québec, Luxembourg innovation au Luxembourg, la région du Minas Geraïs au Brésil, Recywall en Belgique et Envirolink en Grande Bretagne notamment).

Les sédiments
Aujourd’hui, l’accumulation de sédiments dans les ports et canaux perturbent les équilibres physico-chimiques des cours d’eaux (680 km de voies d’eau navigables) et des ports (3 millions de m³/an de sédiments sont dragués dans le seul Port autonome de Dunkerque). Malheureusement, les technologies existantes ne sont pas assez fines pour permettre la valorisation des sédiments et il n’existe aucune méthode normalisée pour caractériser l’écotoxicité de ce déchet ni aucune filière homologuée de gestion à terre des sédiments.TEAM² s’est donc fixé comme axes de recherche la mise au point de caractérisations et de classifications spécifiques adaptées à la diversité des sédiments, le développement de nouvelles formulations spécifiques liées aux sédiments contaminés en techniques routières et coulis de comblement de réseaux de tranchées, la définition de potentiels de mobilisation des polluants organiques et inorganiques des sédiments et l’étude du comportement mécanique des matériaux.Les objectifs autour de la thématique  » Sédiments  » sont :
  • 2012 : la caractérisation fine des sédiments et leur meilleure voie de valorisation ; 
  • 2015 : l’agrément pour l’utilisation des nouvelles MPS ;
  • 2017 : l’optimisation, le déploiement de la production et l’utilisation industrielle des sédiments.
Les métaux rares
La récupération des métaux rares se heurte à plusieurs verrous technologiques, notamment la difficulté de séparer et de récupérer des constituants et les limites de capacité de traitement des unités actuelles de traitement des cartes électroniques du fait de la chaleur engendrée par la destruction des plastiques et résines dans leurs fours. Bénéficiant des compétences des industriels régionaux comme Terra Nova, SITA Agora, Galloo et des écoles d’ingénieurs (ENSAN et Ecole Centrale), TEAM²  favorisera le développement de nouvelles méthodes de séparation et d’extraction de métaux spécifiques et/ou à large spectre, l’adaptation de procédés bien établis dans l’industrie des métaux non ferreux au traitement spécifique des cartes électroniques, les techniques liées à la pyrolyse des cartes électroniques, l’optimisation énergétique de la séparation et le couplage des séquences de pyro et hydrométallurgie.Les objectifs autour de la thématique  » Métaux rares  » sont :
  • 2012 : la mise en place d’une solution opérationnelle pour la captation de l’Indium (écrans plats,…) ;
  • 2015 : le développement d’une filière de traitement des cartes électroniques ;
  • 2015 : faire de la région Nord-Pas de Calais le leader incontesté de la valorisation de métaux et terres rares de récupération.

Les déchets de BTP
Le traitement des déchets de BTP se heurte à la difficulté de séparer les matériaux (les déchets inertes sont souvent constitués d’un mélange de produits), aux impuretés présentes dans le bois, aux différents types de bois ainsi qu’à l’identification et la séparation des infusibles et de verres de lampes de nouvelle génération. Le pôle est sensibilisé à ce thème, notamment parce que, dans la région, le parc de logement est ancien (44,4 % des logements construits avant 1948) ce qui engendre de nombreux travaux de déconstruction et rénovation et du fait de la présence de Lumiver Optim (MPS issues des néons) et de nombreux industriels de la filière VHU (Véhicules hors d’usage). Aussi TEAM² orientera-t-il les recherches sur les techniques de tri, de séparation et de valorisation des composants (plâtres, isolants…), les techniques de fabrication de granulats recomposés, des bétons organo-minéraux aux nouvelles caractéristiques, l’automatisation du tri et la gazéification du bois et la méthanisation, les outils de détection / séparation des vitrocéramiques, la séparation du PVB (polyvinyle butyrale) des pare-brise (décomposition chimique, traitement thermique…), et de  nouvelles formulations intégrant les MPS.Les objectifs autour de la thématique  » Déchets du BTP  » sont : – pour les déchets inertes :
  • 2012 : l’intégration de MPS issues des déchets inertes des travaux publics et du bâtiment, dans les projets de voiries ;
  • 2015 : la fabrication de nouveaux granulats / bétons opérationnels ;
– pour les déchets non inertes :
  • 2012 : des solutions de recyclage du plâtre et d’autres co-produits du BTP,
  • 2012 : l’installation d’un site pilote de gazéification du bois ;
  • 2015-2018 : l’installation d’un site industriel de gazéification du bois d’une puissance  de 1MWth ;
– pour le verre :
  • 2015, 95% de recyclage – valorisation des Véhicules Hors d’Usage (VHU) en  région ;
  • 2015, valorisation des pare-brises des véhicules en fin de vie, augmentation du  taux d’incorporation du calcin issu du verre plat dans les fours verriers et  organisation  d’une filière de valorisation des fenêtres et verres plats.

Plastiques et autres organiques
Au sein de la troisième région plasturgiste de France en nombre d’emplois et d’entreprises qui a également une forte connaissance et compétence dans le textile, TEAM² était bien placé pour pointer les verrous technologiques : manque de solutions pour la séparation des plastiques et pour le démantèlement des matériaux complexes (résines, D3E, composites…), problèmes d’identification et de dépollution des bromés et halogénés, problèmes de séparation des produits textiles à base de mélanges de fibres, difficultés  pour la préparation et le dosage de la charge organique pour la méthanisation des fermentescibles.Le pôle de compétitivité axera donc les recherches sur l’identification et le recyclage des plastiques spécifiques (corps noirs, halogènes, bioplastiques et composites…), les méthodes d’inertage des fractions halogénées, la formulation de nouvelles MPS adaptées aux process existants des utilisateurs de MPS, la création de MPS à utilisation textile, la caractérisation des déchets entrants afin d’automatiser l’alimentation du réacteur de méthanisation en termes de charges organiques, la séparation de la charge minérale.Les objectifs autour de la thématique  » Plastiques et autres organiques  » sont :
  • 2011 : l’élaboration de 2 nouvelles applications (isolation et nouvelles fibres issues du textile recyclé) ;
  • 2012 : l’amélioration et la caractérisation des déchets fermentescibles entrants ;
  • 2015 : la production et l’utilisation industrielle de ces 2 nouvelles MPS issues du textile ;
  • 2015 : la séparation automatisée de la charge minérale pour l’optimisation de la durée de vie du réacteur.

La technologie DART, futur standard pour les circuits en atmosphère explosive?

En matière de protection contre le risque d´explosion, le passé récent proposait deux concepts de réseaux de terrain de sécurité intrinsèque : FISCO et Entity. Ceux-ci sont considérés comme des solutions fiables pour l’automatisation des procédés, bien qu’ils aient des faiblesses notoires, comme des longueurs de câble limitées, un nombre limité d´appareils participants, et une puissance disponible modérée pour piloter les appareils. Cela est dû à leur concept même. En effet, ils fonctionnent en limitant la puissance de sorte que le courant et la tension sont maintenus à des niveaux empêchant la formation d’une étincelle assez chaude pour provoquer l´allumage.Pour sa part, la technologie DART (Dynamic Arc Recognition and Termination) qui certifie la sécurité intrinsèque d’un circuit, autorise davantage de puissance pour piloter des appareils de terrain en zone à risque d´explosion et permet des longueurs de câbles supérieures. Elle fait appel à des circuits de détection intelligents pour surveiller l´ensemble du circuit électrique : dès que la moindre étincelle est détectée, l’alimentation est coupée en quelques microsecondes pour éviter tout risque d´allumage. DART permet, pour la première fois, de disposer d´un tronc de haute puissance de sécurité intrinsèque (High-Power Trunk). Piloté par une alimentation DART complétée de protecteurs de segments DART, il offre jusqu’à 20 sorties par segment, menant aux différents appareils de terrain. L’alimentation DART se place en zone 2, tandis que le tronc, les protecteurs de segment, les embranchements secondaires et les appareils de terrain peuvent être situés dans la zone de danger classée Zone 1. En d’autres termes, DART permet à l´ensemble du segment à installer de bénéficier de la sécurité intrinsèque et autorise  un nombre important d´appareils avec des longueurs de câble importantes. Cette technique élargit  donc  considérablement le champ des possibilités, tout en permettant des applications totalement nouvelles.

Fiabilité et sécurité intrinsèque vérifiées par le PTB allemand
Le bus terrain DART est une solution que l´on peut intégrer à n’importe quelle infrastructure existante et qui peut s´adapter à n’importe quel appareil de terrain de type « Entity ». La structure arborescente combine une organisation structurée à la plus grande évolutivité et adaptabilité. Les concepteurs de systèmes n´ont donc pas besoin de basculer sur un concept technique radicalement nouveau, mais peuvent s´appuyer sur leur expertise existante pour élaborer des solutions de sécurité intrinsèque dotées de fonctionnalités considérablement accrues. Pour les exploitants de l’installation, le bus terrain DART constitue plus une évolution qu’une révolution. Il ne nécessite pas le remplacement de tout le matériel, mais il protège les investissements déjà réalisés pour l´automatisation des procédés. Les architectures réseau arborescentes existantes n´ont en effet besoin que de modifications mineures, tandis que tous les appareils de terrain Entity peuvent rester en place.Depuis que la fiabilité et la sécurité intrinsèque du concept DART ont été vérifiées par l’organisme certificateur allemand Physikalisch Technische Bundesanstalt(PTB), la technologie fait son chemin au sein des normes IEC. Avec 15 autres fabricants, Pepperl+Fuchs collabore pour faire de DART une technologie facile à utiliser et adaptable pour développer de nombreuses solutions pour les zones dangereuses.

Quelques composants DART
Pour une infrastructure en bus terrain avec une protection DART, la gamme FieldConnex de Pepperl+Fuchs propose essentiellement deux types de composants DART qui, associés,  assurent la protection DART du tronc. L’alimentation Power-Hub DART fournit une puissance nominale de 22,5 V et 360 mA au tronc Dotée d’une architecture redondante, elle  peut être dotée d´un module ADM (Advanced Diagnostic Module, ou module de diagnostic avancé) capable de surveiller en permanence la couche physique du bus de terrain, pour détecter tout signe de détérioration du signal qui pourrait nécessiter l´intervention d’un technicien de maintenance. Les différents modules d’alimentation peuvent être remplacés à chaud pour permettre l´échange d´un appareil défectueux sans gêner le fonctionnement de l´usine. Le protecteur de segment DART constitue la jonction de sécurité entre le tronc haute puissance (High-Power Trunk) et les appareils de terrain. Il permet de raccorder jusqu’à 12 branches secondaires d´une longueur pouvant atteindre 120 m chacune. Ces protecteurs de segment assurent une protection contre les courts-circuits et fournissent des sorties de sécurité intrinsèque compatibles Entity.DART permet l’utilisation d´instruments de terrain consommant davantage que ce qui était possible auparavant en zone 1. L´un des premiers instruments terrain DART est le Protos 3400 Power-i. Proposé par la société Knick,  le spécialiste allemand des instruments de processus, il s´agit du tout premier appareil d’analyse de processus utilisable au sein d´un circuit électrique de sécurité intrinsèque de type DART. Cette unité conçue pour une maintenance commode sur site, propose jusqu’à 4 voies pour réaliser des mesures à plusieurs endroits. Marc Chabreuil

Europe Airpost passe en 3 mois à un système informatique 100 % virtuel

Historiquement connue sous le nom d’Aéropostale,  filiale de La Poste jusqu’en 2006, Europe Airpost est aujourd’hui la 1ère compagnie aérienne au monde à offrir à la fois transports de frets et de passagers et la 2ème compagnie aérienne française, après Air France. Elle offre ces deux activités parallèlement et quotidiennement grâce à son unique  » Quick Change  » qui lui permet de transformer ses avions cargo en confortables avions passagers en moins de 30 min. Pendant la nuit, les avions sont principalement affectés au fret, tandis que la journée et les week-ends, ils transportent des passagers (800.000 voyageurs en 2009).Les services de l’Europe Airpost ne s’interrompent jamais, ce qui s’avère très critique à gérer et impliquait un changement de stratégie complète, notamment au niveau informatique. Considéré comme un centre de coûts lorsqu’il dépendait de La Poste, le département IT est désormais appréhendé comme un centre de profits. C’est la pierre angulaire de la nouvelle stratégie de l’entreprise, devenue une société privée en 2007. Or son infrastructure a évoluée au fil de l’eau et sans DSI ; le SI ne correspondait donc plus aux besoins de la nouvelle entité. Le site central, à Villepinte, disposait d’une trentaine de serveurs d’applications et de fichiers virtualisés sous VMware dans une baie HP. Par ailleurs, une quarantaine de serveurs physiques étaient éparpillés sur 3 autres sites de la compagnie à l’aéroport Roissy Charles de Gaulle (site opérationnel devenu le siège social en septembre 2009), l’aéroport de Marseille-Provence et l’aéroport de Toulouse Blagnac. Avec une telle architecture, si le système principal tombait en panne, l’ensemble de ses activités risquait de s’arrêter.Les autres contraintes de la société résidaient dans le volume de données à gérer (30 To en 2010 et 100To prévus pour 2011) et par la nature de son parc informatique, très hétérogène en raison, notamment, d’une croissance principalement externe. Europe Airpost souhaitait mettre en place un nouveau système facile à intégrer, fiable, souple et évolutif, et surtout, complètement indépendant des constructeurs, pour pouvoir accueillir facilement d’autres solutions matérielles ou logicielles, dans les années à venir. Fabrice de Biasio, nommé à la tête de la nouvelle DSI en juillet 2008, reprend alors le chantier et élabore un schéma directeur. La société part avec l’idée, pour commencer, de mettre en place un PRA (Plan de reprise d’activité)   » à froid « .

Choix d’une solution transversale 100 % logicielle
La compagnie fait alors appel à son intégrateur habituel, Diademys, pour l’aider dans ce projet. Ce dernier, plutôt qu’un PRA « à froid « , présente une solution très innovante qui va permettre, avec le budget imparti, d’aller beaucoup plus loin et beaucoup plus vite. Cette proposition prévoit d’intégrer d’emblée un plan de continuité d’activités (PCA) dans son projet, en profitant davantage de toutes les opportunités et bénéfices offerts par la virtualisation. La solution consiste à créer deux salles blanches sur un même site, pour y installer deux baies de stockage, reliées et répliquées entre elles.Au lieu de choisir des baies haut de gamme avec une solution de virtualisation intégrée mais propriétaire, Diademys préconise de partir sur des baies simples, gérées et administrées via un outil de virtualisation du stockage, complètement indépendant, du type DataCore. Cette solution transversale, 100 % logicielle, complètement ouverte vis-à-vis des constructeurs et éditeurs du marché, prend en charge tous les environnements hétérogènes, que ce soit au niveau des applications, du matériel ou du réseau. De plus, à fonctionnalités équivalentes, la solution DataCore semble 30 % moins chère qu’une solution matérielle correspondante.Cette offre retient l’intérêt d’Europe Airpost, d’autant plus que le déménagement du siège de Villepinte dans la zone de fret de Roissy Charles de Gaulle est prévu quelques mois plus tard (septembre 2009), lui offrant effectivement la possibilité de créer une salle informatique centrale et une salle de réplication distantes de 500m, dans deux bâtiments séparés. Les témoignages d’utilisateurs de solutions DataCore, tels que Lufthansa Systems, son fournisseur de logiciels d’aviation, étant encourageants, Europe Airpost prend la décision, en décembre 2008, de lancer le projet.

Déroulement du projet en deux étapes : consolidation et sécurisation
Les préparatifs démarrent début 2009. La première étape consiste à terminer la consolidation des serveurs physiques restants. La migration des applications en environnement mixte (auparavant Windows NT4, Windows 2003, Windows 2008, Linux et Unix) continue jusqu’à ce que toutes les machines physiques soient remplacées par des machines virtuelles VMware (Windows 2003/2008 et Linux), hébergées dans les deux nouvelles baies (IBM System Storage DS5100). D’une cinquantaine de serveurs physiques initialement, Europe Airpost passe à une architecture concentrée avec environ 80 machines virtuelles, hébergeant toutes ses applications, des moins critiques au plus critiques (y compris sa base de données Oracle Enterprise sous Linux). Il s’agit entre autres des applications métier, des applications spécifiques pour les pilotes et des applications standard. Après le déménagement du siège à Roissy, Diademys implémente une baie IBM et un contrôleur DataCore SANsymphony dans chacune des deux nouvelles salles informatiques. Tout est prêt et opérationnel début septembre 2009. Les deux SAN DataCore sont reliés par fibre optique et fonctionnent en mode de réplication synchrone (actif/actif).A la fin de cette première étape, qui n’aura durée que trois mois (juin-août 2009), seuls 3 serveurs physiques restent en place pour héberger 2 contrôleurs DataCore SANsymphony et 1 contrôleur externe VMware ESX. En janvier 2010, après un retour sur expérience de 4 mois, Europe Airpost, qui a constaté que tout s’était déroulé mieux qu’espéré, décide de passer alors à la deuxième phase du projet : la mise en place de son PRA sur un troisième site, beaucoup plus éloigné, pour prévenir d’un problème majeur ou d’une catastrophe naturelle éventuels sur son site principal.C’est une nouvelle salle blanche, actuellement en construction sur son site de Marseille, qui accueillera très prochainement son ancienne baie de stockage HP, ainsi qu’un troisième contrôleur DataCore SANsymphony avec l’option Advanced Site Recovery. Ce dernier va assurer quotidiennement la réplication des données entre les deux salles principales et le site externe via une connexion en fibre optique (10 Mo). Pour ce site, Europe Airpost opte pour la réplication en mode asynchrone à J+1, pour éviter qu’un quelconque problème du siège ne se propage sur le site de secours. La mise en production est prévue pour le deuxième trimestre 2010, le temps de finir l’aménagement de la nouvelle salle informatique.

Prochaine étape : la virtualisation des postes de travail 
Le fait de passer à un système informatique 100 % virtuel implique un changement radical de philosophie et de fonctionnement. Il présente aussi de nombreux avantages : l’intégration des technologies VMware ESX et DataCore est totalement transparente, le stockage est vu comme s’il n’y avait qu’une seule baie, l’allocation optimale des ressources grâce à l’optionThin Provisionning, une vraie haute disponibilité (si une baie s’arrête, l’autre baie prend automatiquement le relais sans interruption de l’exploitation), une augmentation notable des performances (20 à 30 % de gain depuis le déploiement de la solution DataCore),  une licence  » illimitée  » de DataCore jusqu’à 1 Po de stockage…Séduite par les bénéfices et les opportunités offertes par la virtualisation, Europe Airpost souhaite poursuivre dans la même logique. Une fois que le projet de PRA sera terminé, la société prévoit également la virtualisation des postes de travail (VMware View), des applications (VMware Thinapp) et du réseau et, notamment, des switch Cisco Nexus (avec VMware vSphere). SANsymphony jouera encore un rôle clé dans ces projets à venir car les bases de données, la gestion de fichiers, les serveurs, tout comme les futurs postes de travail et les applications virtualisés, vont reposer sur le SAN DataCore redondant, déployé chez Europe Airpost. Par Marc Chabreuil

« Les ingénieurs et les scientifiques ont un rôle moteur à jouer »

C.N.I.S.F., Cnisf ? Plus question d’écorcher le sigle ou de tenter de le prononcer en acronyme. On parlera désormais des Ingénieurs et scientifiques de France. Cette nouvelle appellation n’a rien d’anecdotique. Elle marque une volonté de renouveau pour une association qui souhaite gagner en visibilité. Elle intervient surtout à la demande du président fraîchement nommé, Julien Roitman, qui a déjà fait ses preuves à la tête des anciens de Supélec.

Techniques de l’ingénieur : Qui les Ingénieurs et scientifiques de France représentent-ils ?

Julien Roitman : Le terme d’ingénieur est ambigu. Il désigne à la fois ceux qui ont un diplôme d’ingénieur, mais qui n’exercent pas forcément ce métier, et ceux qui exercent le métier sans forcément avoir le diplôme. Les scientifiques représentent aujourd’hui une petite part de la fédération, mais je souhaite que cela change. Les anciens d’université doivent aussi être représentés.

La vocation des Ingénieurs et scientifiques de France est de rassembler les ingénieurs et les scientifiques et leurs associations et de les représenter à l’extérieur, auprès des pouvoirs publics, du monde économique et du grand public. Nous publions aussi un répertoire des ingénieurs de 3 à 400.000 noms, qui permet de valider si une personne est bien diplômée de telle ou telle école. J’aimerais que nous rajoutions dans cet annuaire les doctorants et les masters. 850.000 ingénieurs et scientifiques sont recensés en France.

Vous souhaitez vous ouvrir davantage aux scientifiques. Les barrières entre grandes écoles et universités pourraient-elles tomber ?

Les universités connaissent un phénomène de fond, avec une autonomie accrue, une organisation en pôles régionaux, etc. D’ici à une dizaine d’années, de nombreuses universités vont ressembler de plus en plus aux grandes écoles. De plus en plus d’associations d’anciens d’universités vont se créer, et notre rôle sera aussi de les fédérer. Nous devons nous tourner vers les universités et les aider à développer ces associations.

En tant que président des anciens de Supélec, vous avez œuvré pour l’alliance entre Centrale Paris et Supélec. Quel bilan en tirez-vous ?

J’ai en effet participé à la mise en place de cette alliance entre Centrale Paris et Supélec. Nous avons rejoint le pôle de recherche et d’enseignement supérieur UniverSud Paris, qui regroupe notamment l’université Paris-Sud 11 et l’ENS Cachan. Nous nous rapprochons d’un modèle américain comme Harvard ou le MIT. Je suis convaincu qu’il s’agit d’une bonne approche. En France, nous rencontrons un problème de masse critique, avec 210 écoles et 30.000 ingénieurs. Le classement de Shanghai ne s’intéresse pas aux universités de moins de 1.000 diplômés. Centrale / Supélec fournit un bon exemple de rapprochement sans que les écoles ne perdent leur spécificité.

Le système de sélection des grandes écoles doit-il disparaître ?

Il n’est pas question de changer le système de sélection. Il faut aider au maximum les étudiants à atteindre ce niveau et leur donner les moyens d’intégrer une école. Le concours de Centrale / Supélec est désormais gratuit. Nous proposons aussi une filière d’apprentissage.

Quels seront les autres grands chantiers de votre mandat ?

Nous devons être un lieu de rencontre et d’échange. Pour cela, il faut développer les activités transversales, notamment grâce aux comités sectoriels. A un autre niveau, nous devons recenser des experts de tel ou tel domaine. Cela permettra de donner du contenu aux comités et surtout de répondre aux demandes de l’extérieur, du monde politique ou des médias par exemple. Il faut pour cela s’appuyer sur les grandes écoles et les associations d’anciens, c’est un travail de longue haleine. Nous disposons d’une veille technologique intéressante. Il nous faut aussi mettre en place une veille politique et sociétale.

Etes-vous un lobby défendant les intérêts des ingénieurs ?

Notre objectif n’est pas de défendre des intérêts catégoriels. Nous considérons que si la France a une chance de sortir de ses difficultés, c’est en développant son économie, basée essentiellement sur l’industrie et les services. Les ingénieurs et les scientifiques ont donc un rôle moteur à jouer. On parle beaucoup d’innovation, elle repose en grande partie sur les ingénieurs et les scientifiques. Il faut leur permettre de contribuer au mieux à cela. Lors des grands débats, nous restons souvent « la grande muette ». Cependant, dans le domaine des transports, du développement durable, du réchauffement climatique etc., notre opinion me semble importante. Nous sommes sur le terrain, il nous faut aussi prendre des positions, faire des propositions, voire les mettre en œuvre.

De quels moyens de communication disposez-vous ?

A part notre enquête annuelle et un annuaire, nous ne disposons pas de publication. Nous devons produire des documents, des livres blancs, des propositions… Nous devons aussi utiliser les réseaux sociaux. Nous avons créé un groupe sur Viadeo, et nous serons bientôt sur LinkedIn et Facebook. Il faut aussi convaincre les écoles d’aller sur les réseaux sociaux et leur expliquer comment faire.

Nous organisons le Prix des ingénieurs de l’année et le Prix de l’ingénieur-inventeur Prix Chéreau Lavet. Le Club Lamennais propose des petits-déjeuners avec des personnalités. Nous devons être plus en contact avec le monde politique et les entreprises.  Tout cela va prendre du temps. Il faudra aussi que les membres de l’association s’approprient les projets et soient motivés.

Comment peut-on attirer plus d’étudiants dans les filières scientifiques ?

Les études scientifiques connaissent une désaffection progressive. Notre mission est aussi d’agir contre cette tendance. Il faut par exemple intervenir dans les collèges et lycées pour expliquer ce qu’est notre métier. Les métiers d’ingénieur ne font plus rêver comme à une époque. Ce sont pourtant des métiers dans lesquels on peut se mobiliser sur un sujet technique pointu, tout en faisant preuve de créativité, en conduisant une équipe et en faisant aboutir des grands projets. Cela permet de vivre des carrières très variées.

La formation des ingénieurs vous semble-t-elle adaptée ?

La formation en grande école, spécifique à la France, est très appréciée à l’étranger. Elle est de plus en plus tournée vers l’international et vers les doubles diplômes, soit dans des pays différents soit dans des disciplines différentes. Il faut encourager cette tendance et probablement rajouter une dimension marketing, communication et management.

Propos recueillis par Corentine Gasquet et Anne-Laure Béranger

 

Conseil national des ingénieurs et scientifiques de France : www.cnisf.org

Parcours de Julien Roitman

Diplômé de Supélec et d’une maîtrise en physique, Julien Roitman a travaillé presque toute sa carrière chez IBM, son dernier poste étant directeur général des opérations pour la France. Il a ensuite créé un réseau d’aide aux pôles de compétitivité (France compétitivité). Président des anciens de Supélec pendant trois ans, il vient de quitter ses fonctions pour rejoindre le CNISF comme président.

 

 

La magnétorésistance à effet tunnel à l’honneur

La Société Française de Physique vient de décerner le Prix Yves Rocard 2010 à l’équipe Patrick Alnot, Michel Hehn, Alain Schuhl  de l’Université Henri Poincaré- Nancy 1 et à Christophe Duret  et  Christophe Nicot de SNR Roulements (Nancy)  pour leur invention et le développement technologique d’ « Une nouvelle génération de capteurs magnétiques pour l’ASB de la société SNR ». Le jury a particulièrement apprécié le dynamisme des deux laboratoires de recherche et le partenariat réussi entre l’Université, le CNRS et l’Entreprise. Ce projet innovant est porté par deux équipes de recherche de l’Université Henri Poincaré de Nancy en partenariat avec la société SNR Roulements reconnue pour le succès mondial de l’ASB (« Active Sensor Bearing) mis sur le marché de l’automobile à la fin des années 90. Avec une production de 100 millions d’exemplaires, ce dispositif de 1ère génération basé sur un capteur magnétique à effet Hall permet de mesurer la vitesse de rotation de roues sans contact. Une deuxième génération permet de mesurer également une position, comme l’angle de rotation du volant. Précurseur dans le domaine mécatronique, l’entreprise, pour conserver son avance technologique face à ses concurrents,  a développé  une nouvelle génération de capteurs magnétiques basés sur la magnétorésistance à effet tunnel (TMR) à travers son projet CAMEL de « CApteur Magnétique à Effet tunneL » financé en partie par l’Agence Nationale de la Recherche (ANR) sous le label du Pôle de Compétitivité « Arve Industries », De tels composants ont une consommation électrique plus faible, une plus grande sensibilité, un meilleur rapport signal sur bruit, une plage en température plus importante s’étendant jusqu’à 150°C.Les inventeurs ont comparé ces capteurs TMR  protégés par 2 brevets à des capteurs GMR (Giant MagnetoResistance)  disponibles sur le marché (la magnétorésistance géante a été découverte en 1987 par A. Fert et P. Grünberg, qui ont été récompensés par le Prix Nobel en 2007). Parfaite illustration de la spintronique, un capteur TMR est une résistance électrique sensible au champ magnétique, composée de 2 couches magnétiques conductrices séparées par une barrière isolante de quelques nanomètres. Les principes physiques utilisés, totalement innovants, sont du domaine de la physique quantique et des nanotechnologies.

Un peu d’histoire

Tout a débuté en 2000, lorsque Nancy-Université a créé  une Equipe de Recherche Technologique (ERT) dédiée à l’étude des nanostructures métalliques, sous la responsabilité du Professeur Patrick Alnot, en lien avec le Laboratoire de Physique des Matériaux et le Laboratoire de Physique des Milieux Ionisés et Applications, deux unités mixtes de recherche aujourd’hui fusionnées au sein de l’Institut Jean Lamour, avec la participation des Professeurs Alain Schuhl et Michel Hehn. Dès sa création, l’ERT « Centre de conception de microsystèmes et microcapteurs magnétiques et acoustiques » a bénéficié du soutien de l’Unité mixte Thales/CNRS dirigée jusqu’en mars 2007 par Alain Friederich) et s’est inscrit dans la lignée des travaux de Albert Fert, membre de l’unité Thales/CNRS et Prix Nobel de Physique 2007. L’objectif était double : explorer de nouveaux champs d’études fondamentales, tout en contribuant à la réalisation de nouvelles applications concrètes.Une collaboration s’est alors engagée avec la société SNR Roulements, précurseur dans le domaine mécatronique, avec ses travaux sur les capteurs, le traitement du signal, et ses applications dans l’automobile. Ce partenariat a pu être mené de manière efficace, dans le cadre d’une Convention Industrielle de Formation par la Recherche (CIFRE), notamment par la thèse rédigée par le chercheur Grégory Malikowski. Avec l’aide de 2 ingénieurs de SNR Roulements, Christophe Nicot, aujourd’hui directeur de Midi Pyrénées Innovation) et Christophe Duret, expert en spintronique, elle a abouti à l’invention de cette nouvelle technologie brevetée par SNR  qui sera directement appliqué dans les secteurs de l’automobile, de l’aéronautique et, plus généralement, dans l’industrie.

Kaptitude, éditeur spécialisé de formations en ligne pour les laboratoires

Par la conception et le développement de ses solutions en e-learning, Kaptitude investit le champ de l’assistance à la diffusion de formations en interne. Les solutions proposées comprennent à la fois des contenus e-learning hautement pédagogiques, la mise à disposition d’une plate-forme technique paramétrable et la fourniture de services associés qui permettent la gestion complète de la formation : depuis sa programmation jusqu’à son évaluation, en passant par son organisation, son administration et son suivi en temps réel.Cet outil convivial et personnalisable offre la possibilité d’enregistrer un nouvel apprenant à tout moment, de l’inviter à suivre le parcours de formation qui lui est adapté et d’effectuer des relances régulières. C’est aussi un espace de dialogue qui permet d’informer, de mettre à disposition de la documentation et d’ouvrir des discussions en lien avec les formations. La plate-forme de Kaptitude propose également des outils de traçabilité et d’analyse utilisables en quelques clics, tels que le suivi de la progression et des résultats des apprenants, l’édition de certificats de suivi ou les extractions d’information. Editeur spécialisé, Kaptitude travaille en partenariat avec des acteurs reconnus afin de produire des contenus de formation vivants et interactifs, à haute valeur ajoutée et en prise directe avec les situations quotidiennes rencontrées dans les laboratoires. Ces parcours de formation abordent la prévention des risques chimiques, biologiques, la radioprotection ou encore le management de la qualité au laboratoire et sont actuellement élaborés en partenariat avec L’Institut Pasteur et l’Inserm.

Des outils informatiques pour une stratégie verte

Si la crise a parfois conduit au gel d’investissements  » durables « , l’année à venir pourrait être celle d’un redémarrage important, soutenu par l’entrée en vigueur en 2011 du bilan carbone obligatoire, imposé par le Grenelle II pour les entreprises de plus de 500 salariés. Au-delà de l’aspect réglementaire, certaines entreprises pourraient en profiter pour mettre en place de véritables politiques de réduction de leurs émissions de CO2. Reste à passer un dernier frein, culturel, celui-là. Les directions du développement durable sont souvent dirigées par des personnes ayant un réseau important au sein des entreprises, mais pas de culture du projet transversal ou de l’informatique décisionnelle.  » Le métier doit encore se structurer, confirme Cécile Vaesen, dirigeante du cabinet Respons. Et au-delà, c’est tout un champ d’activité qui reste à structurer, en normalisant les indicateurs et en généralisant les outils d’évaluation, de diagnostic et de gestion. « 

Pour aider les entreprises à respecter les réglementations, améliorer leur efficience et réduire leurs coûts, SAS, le spécialiste du décisionnel et des solutions de business analytics, étend sa solution SAS for Sustainability Management. Cette dernière permet en effet de mesurer, administrer et produire des rapports sur des indicateurs clés environnementaux, sociaux et économiques de façon à identifier des stratégies pour réduire les risques et maximiser la valeur pour les actionnaires. Les deux nouveaux logiciels qui y sont désormais associé, permettent :

  • le pilotage de la politique de développement durable :  » SAS Sustainability Reporting  » constitue une source de référence sur les performances de l’entreprise en matière de développement durable  basée sur des métriques de reporting généralement acceptées par l’industrie, notamment celles préconisées par le GRI (Global Reporting Initiative). Cette solution Web intègre des modules d’analyse prédéfinis pour améliorer la précision de prévision et de corrélation entre différentes métriques autorisant à la fois la capture automatisée et la saisie manuelle des données en ligne. La qualité du reporting du développement durable conditionne la planification d’entreprise et garantit une conformité supérieure aux exigences légales et réglementaires et l’obtention de résultats plus efficacement. Il est en effet impossible d’améliorer ces domaines sans les quantifier précisément. Ce nouveau logiciel a pour objectif de considérablement améliorer ces systèmes de mesure ;
  • la gestion de l’énergie et des émissions :  » SAS Energy and Emissions Management  » intègre les modèles de planification basés sur l’activité (activity-based capacity) et sur les ressources (resource planning) pour aider les entreprises à effectuer des choix pertinents entre les alternatives possibles en fonction des exigences prévisionnelles de ressources. Cette plate-forme intègre les facteurs d’émission de l’AMEE (Avoiding Mass Extinctions Engine). Ce prestataire de service international qui agrége tous les modèles, méthodes, standards et facteurs d’émission liés au dioxyde de carbone (CO2), aux gaz à effet de serre (GES), à l’énergie et à l’évaluation environnementale, répertorie toutes les données d’activité et de consommation (fuel, eau, déchets, etc.) et les convertit en équivalent carbone/GES. Ces services Web intègrent des outils de mesure, de calcul, de modélisation, de profilage et de transaction pour réduire les coûts et les délais de calcul et maximiser la précision des mesures.

L’association de l’AMEE et de SAS évite les tâches manuelles fastidieuses et propices aux erreurs consistant à agréger des données tierces de diverses provenances pour calculer les niveaux d’émission et les aide à promouvoir une conformité supérieure avec les standards internationaux reconnus.  » Ce partenariat réunit les outils et applications analytiques de SAS aux données dynamiques et globales de l’AMEE au sein d’une solution parfaitement intégrée de modélisation carbone et de support décisionnel, se félicite Gavin Starks, fondateur et CEO d’AMEE. Cette synergie entre nos cœurs de métier offre aux entreprises une solution robuste et flexible pour intégrer l’ intelligence carbone à leurs décisions quotidiennes. « 

Cette approche intégrale permet aux clients de SAS de réduire la complexité, les risques et les délais des activités de modélisation de la consommation énergétique et des productions d’émissions. La solution SAS va en effet bien au-delà des outils de recensement élémentaires en modélisant les activités, les processus et l’impact économique des activités opérationnelles d’entreprise. Seule une analyse précise des émissions permet d’envisager une politique performante pour les contrôler et les réduire.

GTM TP Lyon utilise une solution SaaS pour partager des fichiers volumineux

« Nous travaillons essentiellement sur de gros projets d’ouvrage d’art, via des appels d’offre classiques ou de conception et réalisation », explique Guillaume Lefebvre, Directeur  Commercial et Etudes de GTM TP Lyon (Vinci Construction France). Ces appels d’offre nécessitent la mobilisation d’un certain nombre d’acteurs tels que des bureaux de génie civil, des bureaux d’études, des architectes, des experts, des paysagistes, et d’autres spécialistes ponctuels. La multiplicité de ces intervenants engendre un nombre important de sociétés à gérer, dispersées géographiquement en France.« Nous devons concevoir le projet de A à Z dans un laps de temps réduit. Nous avions donc besoin d’avoir des outils performants pour fédérer les différents acteurs du projet et échanger des informations de manière efficace » commente Guillaume Lefebvre. Après avoir comparé plusieurs solutions, la Direction commerciale de GTM TP Lyon s’est tournée vers la solution iExtranet d’Oodrive estimant avoir sélectionné le meilleur rapport qualité / prix. « iExtranet répond parfaitement à notre besoin. Simple et très proche des environnements informatiques d’usage, cette solution est facilement intégrée au sein des projets, avec un prix tout à fait correct, qui ne dépend pas du nombre d’utilisateurs », ajoute-t-il.GTM TP Lyon utilise donc la solution de partage et de travail collaboratif iExtranet d’Oodrive pour résoudre leur problématique d’échanges et d’organisation des fichiers en interne, mais également avec des partenaires de Vinci Construction, voire même souvent avec de nouveaux partenaires externes. « Ces partages de fichiers d’une capacité importante posaient des problèmes d’échange via des boites e-mail classiques. iExtranet permet non seulement de partager des fichiers lourds de tous types, mais aussi de toujours travailler sur la dernière version du document conservée sur la plate-forme web », commente Guillaume Lefebvre.L’une des principales exigences de GTM TP Lyon était de trouver une solution simple d’utilisation. Les différents utilisateurs devaient pouvoir l’adopter très facilement et rapidement, qu’ils soient experts, ou plus souvent néophytes en informatique. Ils ne souhaitaient pas la mise en place d’une logistique lourde pour devoir former les différents utilisateurs géographiquement dispersés. iExtranet a répondu à leur attentes avec son interface multilingue, intuitive et familière, proche des interfaces bureautiques courantes.« Le principal atout de cette solution en mode SaaS est qu’elle est accessible de n’importe où. En effet, même si l’un des acteurs n’est pas dans son bureau, il suffit d’une connexion Internet pour avoir accès à la plate-forme web grâce à leur identifiant. Dans ce métier, nous ne sommes pas toujours derrière notre bureau : avoir accès en temps réel à l’information est un vrai gain de temps », souligne Guillaume Lefebvre.Il souligne également la possibilité de générer des envois de fichiers ou dossiers par e-mail qui permettent de transférer des documents très volumineux sans saturer les comptes de messagerie des interlocuteurs :  « Nous pouvons adresser des e-mails à des personnes qui ne font pas forcément partie du projet, sans qu’ils aient accès à l’ensemble des informations conservées sur la plate-forme iExtranet. Il s’agit d’une fonctionnalité intéressante pour transférer des informations en même temps à des interlocuteurs différents qui ont des droits d’accès variés. De plus, l’administrateur jouit d’une traçabilité efficace des échanges. Il peut savoir, grâce au suivi des partages, si le document a été consulté, quand et par qui, ce qui permet de limiter les retards de traitement des informations. »

Vers une amélioration des matériaux composites pour optimiser le procédé LCM

Aujourd’hui, les fabricants de pièces en composites avancés utilisent soit des couches de pré-imprégnés (prepegs) pour former le stratifié, soit des textiles secs infusés (procédé  » Liquid Composites Molding  » ou LCM). En général, les pré-imprégnés ont une meilleure rigidité, résistance mécanique et comportement en fatigue grâce a des résines durcies et des taux de fibres élevés, cela avec des fibres bien reparties dans une architecture organisée. Cependant, ce type de matériau souffre d’un cout élevé, d’une formabilité réduite, d’une mise en œuvre de fabrication compliquée, chère et longue, et d’une durée de stockage limitée.

Les technologies LCM parviennent à surmonter ces inconvénients mais le procédé LCM utilise des résines à faible viscosité pour l’infusion et souffre du désalignement des fibres du textile, source de performance mécanique médiocre et inacceptable pour nombre d’applications structurelles aéronautiques. C’est la raison pour laquelle le projet PréCarBi  (Pre-impregnated Carbon Binder Yarn Pre-form Composites) initialisé par ESI GmbH, il y a 3 ans,  a été monté afin d’améliorer les matériaux composites pour le procédé LCM.

Le consortium européen de recherche PréCarBi coordonné par ESI GmbH a réunit deux fabricants d’avions (Airbus et Eurocopter), un fournisseur de premier rang (FACC), trois fabricants de matériaux (Toho Tenax Europe, Sigmatex et Huntsman Advanced Materials GmbH), un éditeur de logiciels de simulation numérique (ESI Group) et quatre universités et instituts de recherche (Cranfield University, IPM Latvia, Université de Patras et SICOMP).

Prise en compte de 3 matériaux principaux

L’objectif scientifique du consortium PreCarbi était de développer des matériaux composites à base de fibres sèches activables permettant aux préformes d’être fabriquées et mises en forme à haute température, ou encore l’ajout local à haute température de mèches. La recherche issue du consortium est considérée comme une contribution importante aux technologies avancées d’infusion de résine liquide (Liquid Resin Infusion, LRI) pour venir concurrencer les technologies onéreuses et complexes des pré-imprégnés. Dans ce cadre, ESI  a procédé à l’analyse du formage, de l’infusion et de la mécanique de composants de l’industrie aérospatiale fabriqués par le procédé LRI.

Le projet PreCarBi a pris en compte trois matériaux principaux :

  • les nouveaux matériaux composites à base de fibres de carbone sèches activables élaborés par Tenax au cours d’un processus itératif pour obtenir les performances requises ;
  • des résines compatibles développées par Huntsman ;
  • des composites à base de fibres sèches activables convertis en préformes (en tissé ou sans ondulations) produits par Sigmatex et Airbus Operations GmbH.

De nombreux travaux supplémentaires de caractérisation et d’essai ont été effectués par d’autres partenaires de la recherche afin d’évaluer et de quantifier les améliorations à mesure que les nouveaux matériaux devenaient disponibles.

Test de diverses stratégies de drapage et d’injection

Par ailleurs, ESI a adapté les solutions de simulation de thermoformage et de fabrication de matériaux plastiques et composites (PAM-QUIKFORM et PAM-RTM)  à la simulation industrielle du drapage et du procédé LRI des composites a base de fibres sèches activables.

Ensuite, dans la deuxième partie du projet, les partenaires industriels ont testé les nouveaux matériaux en les appliquant à des composants industriels choisis, traditionnellement fabriqués en pré-imprégnés. À ce stade est intervenue une collaboration étroite entre ESI et les partenaires industriels afin d’aider à la conception numérique et à la validation des structures industrielles. Finalement, l’Université de Patras a travaillé au développement des outils d’analyse des coûts pour quantifier les réductions de coûts obtenues par rapport à la fabrication par pré-imprégnés.

Différentes stratégies de drapage et d’injection ont enfin été testées sur trois composants industriels de démonstration utilisant les nouveaux matériaux et la faisabilité de fabrication LCM a été analysée au cours du projet de recherche.

 » Les composites sont devenus le matériau de choix pour bon nombre d’applications structurelles aéronautiques avancées, mais la recherche doit se poursuivre pour identifier des procédés de fabrication plus économiques et des outils de simulation permettant d’optimiser leur fabrication et leur conception, a déclaré Dr. Anthony Pickett, directeur scientifique chez ESI GmbH. Le projet PreCarBi a apporté une contribution significative aux composites à base de fibres sèches activables qui aura un impact important sur la fabrication de pièces composites et plus globalement sur l’industrie aéronautique.  »

Des cellules photovoltaïques enroulables

En randonnée ou en haute mer, les cellules photovoltaïques enroulables peuvent s’avérer des producteurs d’électricité durables et flexibles. Attachées sur un sac à dos ou un kayak, elles permettent par exemple aux appareils de navigation et de communication de fonctionner indépendamment du réseau électrique.Un groupe de recherche de l’Université de Duisbourg-Essen (UDE) développe actuellement un nouveau concept photovoltaïque. Le Land de Rhénanie du Nord Westphalie et l’UDE soutiennent le projet à hauteur de 1,42 million d’euros pour les 5 prochaines années. L’équipe de recherche, sous la direction de Niels Benson, travaille en particulier sur le photovoltaïque hybride enroulable : « Le besoin en énergie mobile disponible augmente considérablement. Satisfaire à la « fringale énergétique » croissante de façon la plus durable possible est notre objectif ».La plupart des cellules photovoltaïques utilisées actuellement sont constituées de silicium cristallin rigide. La nouveauté est l’utilisation de semi-conducteurs organiques et à base d’oxyde métallique, qui possèdent potentiellement un haut rendement en tant que système purement organique et peuvent aussi être intégrés dans diverses applications mobiles malléables. Selon Benson, « un avantage réside dans le fait que ces substances ne nécessitent pas de hautes températures de fabrication pour utiliser des matériaux porteurs flexibles – une condition importante pour les cellules solaires enroulables ».La création du groupe de recherche renforce l’axe prioritaire de recherche en nanotechnologie et en particulier en génie nanoénergétique de l’UDE, implanté dans le Centre des techniques de nanoénergie (NETZ) et coordonné par le Centre de recherche pour la nanointégration de Duisbourg-Essen (CeNIDE). Source :Les bulletins électroniquesEn savoir plus :

  • Dr.-Ing. Niels Benson, chef de projet de recherche – Université de Duisbourg-Essen, Forsthausweg 2, D 47057 Duisburg – tél : +49 203/379-1058
  • Dr. Tobias Teckentrup – UDE – tél : +49 203/379-2817