La supervision est l’outil de demain

Leader européen des opérateurs de data center indépendants, TelecityGroup, dont le siège est situé à Londres, développe et gère des environnements sécurisés et hautement connectés, permettant l’hébergement des infrastructures techniques, Web et informatique en toute sécurité. Elle gère 24 centres de données localisés dans les principaux centres d´affaires européens.

Son troisième site en région parisienne, le bâtiment Condorcet à Aubervilliers, d´une surface clients de 3 400m2, offre une puissance de 6,4 MW. Il répond aux besoins des entreprises cherchant à localiser leur infrastructure critique dans un data center. Il a d´ailleurs reçu le trophée du « Meilleur site de colocation d´Europe » aux Data Center Europe Awards 2010. Ce site a été conçu conformément aux standards internationaux ISO27001:2005 pour la sécurité de l´information et ISO 14001:2004, qui assure un système de gestion environnemental efficace. Des principes de conception éco-énergétique ont été utilisés pour construire le bâtiment, ainsi que des technologies de climatisation par free cooling et des systèmes intelligents et sophistiqués de conditionnement d´air, afin de réduire la consommation énergétique. En outre, les multiples options de connectivité disponibles sur site sont enrichies par la connectivité à PaNAP et SFINX, qui offre aux clients des options de qualité de peering national et international et de connectivité Internet.

L’immeuble comporte un centre de supervision, un NOC (Network Operations Center), qui réunit un mur d´image constitué de 12 écrans de 52 pouces, dédiés chacun à des systèmes différents : 6 écrans pour la sûreté et à la vidéosurveillance, 1 écran pour la détection incendie, 3 écrans pour des applications d´exploitation des installations, et 2 postes de travail PcVue. Le premier poste est dédié aux infrastructures de distribution électrique alors que le second supervise la climatisation. Chaque poste dispose de 3 écrans : un écran avec synoptique (climatisation et distribution électrique) sur le mur d´images, et deux autres écrans sur les postes opérateurs (un pour la visualisation de détail des installations, et un écran déporté pour supervision au PC Sécurité, et qui reprend le synoptique général).

Un système très ouvert

« Nous avons choisi PcVue d’ARC Informatique pour deux raisons principales. La première c´est de fournir à notre client TelecityGroup un système ouvert, multi-protocole et évolutif dans les standards du marché, et capable de s´affranchir d´un constructeur de GTB et d´automates. La deuxième raison, c´est qu´avec PcVue il existe seulement deux points de conversion de protocole. Des passerelles directes de communication LON ou MODBUS collectent les informations de mesure, et ensuite les automates sont directement accessibles sur le réseau IP. Cette architecture, très peu hiérarchisée, est beaucoup plus fiable et rapide en traitement. Avec d´autres solutions du marché, il peut y avoir jusqu´à 4 couches de conversion avant d´arriver dans une base de données de type SQL » explique Hélène Gaury de l’intégrateur ETDE.

En ce qui concerne l´électricité, PcVue 9.0 supervise l´ensemble de l´installation, depuis les postes de transformation, jusqu´aux onduleurs, tableaux divisionnaires et compteurs électriques de chacune des baies de serveurs. Du côté de la climatisation, PcVue intègre la surveillance de toute la chaîne depuis les groupes de froid, les pompes, les roof top, jusqu´aux armoires de climatisation dans les salles d´hébergement.

Le logiciel DreamReport, partie intégrante de l´offre PcVue permet à TelecityGroup de fournir des reportings complets des installations, et en particulier la consommation électrique des serveurs exploités par chaque client et ceci de façon dynamique. 

Electron, Faraday et radicaux libres

Si l’électron est une particule élémentaire individuelle pour le physicien, en chimie les temps de vie des électrons libres sont trop faibles pour qu’ils se manifestent comme tels sauf aux temps ultracourts. L’électron « chimique » est ainsi toujours associé à un édifice atomique ou moléculaire bien plus grand mais auquel il confère sa réactivité chimique et biologique.

L’électrochimie permet en particulier d’additionner un électron (ou d’en retirer un) à un édifice et de changer sa réactivité. Cette discipline fondée par Michael Faraday porte le nom d’électrochimie Faradique. Elle permet de mesurer et comprendre comment les molécules se transfèrent des électrons au cours d’une réaction chimique ou biologique.

Un cas particulier est celui des molécules portant un nombre impair d’électron, les fameux « radicaux libres » que les cellules vivantes utilisent dans leurs mécanismes de défense ou comme messagers mais dont la prolifération, lorsqu’elle échappe aux systèmes de contrôle, peut entraîner des conséquences médicales graves (cancers, maladies auto-immunes, etc.) ou est à la base des maladies liées au vieillissement.

Pour accéder à la conférence en ligne : youtube.com/CSChimie  

Source : culturesciences.chimie.ens.fr/

Découvrez les formations Techniques de l’Ingénieur :

Masquants et neutralisants dans le traitement de l’air

La problématique des odeurs et de son ressenti est grandissante. Certaines études ont montré que la pollution odorante constitue le deuxième motif de plainte après le bruit, et cette importance donnée à l’odeur par les riverains est liée au fait que celle-ci est très souvent associée à la notion de toxicité, même si cela est sans grand fondement, les concentrations perçues par l’être humain étant très inférieures aux valeurs limites d’exposition existant pour les gaz toxiques Masquants et neutralisants dans le traitement de l’air [Masquants et neutralisants dans le traitement de l’air] [1]. Les règles générales sur l’acceptabilité des sensations odorantes qui peuvent être formulées sont les suivantes Masquants et neutralisants dans le traitement de l’air [Masquants et neutralisants dans le traitement de l’air] [2] :

  • toute odeur agréable devient désagréable à de très fortes concentrations ;
  • le caractère agréable ou désagréable d’une odeur dépend, pour une large part, de son contexte ;
  • les aversions pour les odeurs sont plus persistantes que les préférences ;
  • la tolérance vis-à-vis des odeurs désagréables diffère considérablement selon les individus.

Si des avancées scientifiques et technologiques ont permis d’améliorer la qualité des eaux que nous consommons et rejetons dans la nature, elles ont également engendré une augmentation sensible des nuisances olfactives liées à la collecte et au traitement des eaux usées. D’une part, les anciennes stations d’épuration sont rattrapées par le tissu urbain ; d’autre part, les nouvelles stations sont contraintes de s’implanter de plus en plus près des agglomérations. Par ailleurs, la modification de la structure des réseaux d’assainissement (de plus en plus longs) et parfois de la qualité des effluents (mélange de rejets industriels par exemple) favorise la formation de composés odorants dans les canalisations qui se dégagent ensuite au niveau des stations. En sus du problème des stations d’épuration, d’autres sources d’odeurs préoccupent les autorités. Les industries, mais également les exploitations agricoles ou avicoles, les CET (centres d’enfouissement techniques) ouverts à l’air libre, et d’autres types de structures, sont générateurs d’odeurs déplaisantes pour la population environnante. Même si, contrairement aux COV (composés organiques volatils), aucun texte de loi propre aux émissions d’odeurs n’existe à ce jour, il n’en reste pas moins un encouragement à tendre vers un rejet purifié, afin d’améliorer le confort du voisinage. En effet, selon le code de l’environnement, il y a pollution odorante si l’odeur est perçue comme une nuisance olfactive excessive. L’arrêté du 2 février 1998 relatif aux rejets des installations classées pour la protection de l’environnement (ICPE) définit le niveau d’une odeur comme étant le facteur de dilution à appliquer à un effluent pour qu’il ne soit plus ressenti comme odorant par 50 % des personnes constituant un échantillon de population. Cet arrêté ne fixe pas de valeur limite sur les pollutions odorantes, mais seulement des prescriptions générales. C’est donc le préfet qui décide au cas par cas et qui fixe par arrêté préfectoral, le débit d’odeur (produit du débit d’air rejeté (en m3 · h–1) par le facteur de dilution au seuil de perception) à ne pas dépasser. La loi du 30 décembre 1996 sur l’air et l’utilisation rationnelle de l’énergie stipule que les émissions olfactives excessives constituent une pollution atmosphérique et définit des plans régionaux pour la qualité de l’air en vue de répertorier, surveiller et maîtriser les sources de pollution atmosphérique et d’informer le public.

Cet article a pour objectif de discuter du mode de fonctionnement d’une solution palliative consistant à utiliser des produits dits « masquants et/ou neutralisants d’odeurs » pour éliminer des odeurs issues de sources diffuses. De nos jours, il existe une polémique sur l’action de ces produits, et peu d’études scientifiques ont été menées afin de répondre à un nombre certain de questions. Ces produits engendrent-ils réellement des réactions chimiques permettant de transformer et/ou d’éliminer les composés odorants dans l’air ? Ou agissent-ils simplement comme des parfums, en superposant une odeur censée être « agréable » à l’odeur dite « désagréable » ?

LIRE LA SUITE

Quel avenir pour la filière efficacité énergétique française ?

La volonté de considérer l’efficacité énergétique comme un élément de réflexion inévitable en amont d’une construction de bâtiment, à la suite du Grenelle, est aujourd’hui effective : il est vrai qu’une atteinte des objectifs du Grenelle nécessite une politique globale reposant sur l’activation combinée des leviers d’offre et de demande, mais aussi sur les incitations. Sur la demande, rationaliser les dispositifs d’incitations publiques pour passer d’une culture de moyens à une culture du résultat, généraliser les technologies et services de gestion active (notamment au travers de contrats globaux de type « bouquet de travaux » ou « contrat de performance énergétique ») sont des mesures à considérer. Sur l’offre, structurer et qualifier la filière du bâtiment dans son ensemble pour la mettre en situation de répondre aux nouvelles exigences est nécessaire. Identifier et professionnaliser les nouveaux métiers et pratiques l’est tout autant.

Le marché bute néanmoins sur la fragmentation de la filière, la non optimisation des dispositifs d’aide et un important besoin en formation. Plusieurs préconisations existent pour minimiser la portée négative de cette fragmentation :

  • mettre en place de contrats de performance énergétiques (impact potentiel significatif : gains annuels de 3 à 13 TWh) ;
  • introduire des financements conditionnés aux résultats : bouquets de travaux, objectif et contrôle de performance ;
  • développement du tissu de formation local par la création de lieux communs d’apprentissage ; mise en place de plates-formes de démonstration techniques à destination des lieux de formation ;
  • faciliter l’assurabilité des nouveaux produits et matériaux pour une meilleure pénétration des matériaux innovants, notamment issus des agro-ressources locales ;
  • adapter l’offre française concernant les équipements de chauffage performants ;
  • promouvoir la santé-environnement, notamment la qualité de l’air intérieur.

De nombreuses ruptures sont nécessaires, tant quantitatives, en particulier pour augmenter le nombre de logements anciens rénovés, que qualitatives pour améliorer la qualité énergétique des rénovations et ce dans un délai court.

la « territorialisation » des objectifs du Grenelle

L’enjeu consiste à ce que le Grenelle puisse se territorialiser. Les objectifs ont en effet été fixés à l’échelle nationale, mais chaque échelon local ou collectivité locale française doit les décliner au regard de ses spécificités et atouts. C’est la phase actuellement vécue par l’ensemble d’entre elles, cette phase étant complexe et longue. Ce processus prendra plusieurs années avant qu’elles ne s’approprient pleinement ces objectifs et de manière spécifique à leurs particularités. Elles ont aujourd’hui tendance à multiplier des actions avec une faible mutualisation, tant à l’échelle régionale que nationale.

La réussite du bâtiment passe nécessairement par l’adaptation très rapide et sans précédents de son mode de production local. L’objectif est très élevé dans la rénovation, car s’il subsiste une incertitude sur le rythme des rénovations, les 20 millions de logements construits avant 1980 devront être rénovés d’ici 2050, ce qui laisse supposer un rythme de rénovations de 500.000 logements par an pour une économie annuelle théorique de 7,5 TWh/an. Il sera notamment particulièrement important de créer des standards de rénovation et de créer des réseaux régionaux de compétences. A partir de là, plusieurs points clés ont été identifiés :

  • Les bouquets de travaux performants et les CPE : pour qu’une proportion conséquente des rénovations soient réalisées sur les logements les plus consommateurs d’énergie et que ces rénovations atteignent des niveaux de qualité thermique satisfaisants, il est important de promouvoir la réalisation de bouquets de travaux performants, d’industrialiser les solutions techniques qui y concourent et de professionnaliser la filière des installateurs qui les mettent en oeuvre.
  • Dans le grand tertiaire et le collectif résidentiel, la mise en place de contrats de performances énergétiques avec des objectifs quantitatifs de réduction de la consommation d’énergie permettra de réaliser des gains d’énergie supplémentaires résultant d’une meilleure gestion des systèmes de chauffage. Ces contrats offrent une garantie de résultats et limitent le possible « effet rebond » (appropriation de la performance accrue par une élévation du niveau minimal de confort exigé au détriment des économies d’énergie identifiées). Il semble important de les promouvoir.
  • La réalisation de ces rénovations et la mise en place de contrats de performance énergétique devrait générer 150 000 emplois et contribuer aux objectifs du Grenelle en économisant plus de 200 TWh par an, soit plus de 20 Mt de CO2 (4 % des émissions totales, 9 % de la cible totale du Grenelle).
  • La formation : Les référentiels nationaux doivent évoluer rapidement. Pour cela, il est nécessaire de rapprocher la formation des professionnels des lieux de réalisation et de démonstration en capitalisant sur les formations FEEBAT et CREPA. Cela passera par : i) le financement de plateformes de démonstration au sein des centres de formation sur des techniques clés, notamment les caméras thermiques, la filtrométrie, les équipements d’ENR (en priorité : chaudières bois, solaire thermique et pompes à chaleur), les solutions d’isolation par l’extérieur, des visites de chantiers démonstratifs mettant l’accent sur le traitement des ponts thermiques, l’étanchéité à l’air, la rationalisation due choix des équipements et de leur dimensionnement, les techniques de pose des nouveaux matériaux (freines-vapeur, isolants).

Ce n’est pas tout. La formation des bureaux d’études et des architectes doit également évoluer, chaque tissu régional devant adapter ses compétences en parallèle de l’augmentation de la demande de bâtiments performants : développer l’utilisation de logiciels de calcul de confort visuel, du confort acoustique, de la solarisation, développer l’utilisation des logiciels de calcul à l’étanchéité à l’air, des systèmes de ventilation double flux avec récupération de chaleur, maximiser l’utilisation des logiciels de simulation thermique dynamique, notamment tenant compte de l’apport solaire, encourager le rapprochement entre l’ingénierie fluide et l’ingénierie structure afin de proposer une offre globale de conception performante. Pour les bâtiments tertiaires ou résidentiels collectifs, la maquette numérique de conception, réalisation et exploitation devra être généralisée. Elle aura une triple fonction : simulation et de formation aux nouveaux procédés et nouvelles techniques, collaboration en temps réel entre les professionnels lors du chantier, support de gestion technique durable du batiment sur l’ensemble de son cycle de vie. Une politique volontariste pourrait de plus favoriser l’émergence d’une offre compétitive par l’industrie française des logiciels graphiques. Il sera également nécessaire de développer les formations d’accompagnement et de créer un nouveau « métier » de technicien de la rénovation énergétique à destination des collaborateurs d’architectes et de bureaux d’études (besoin évalué à 600 par an).

Il est donc crucial qu’émerge à terme une offre intégrée, par la création de lieux communs d’apprentissage, la difficulté « structurelle » étant le faible niveau de mutualisation des bureaux d’études. La Maîtrise d’Ouvrage doit également y être associée. L’accessibilité et la qualité de l’air feront partie des éléments de qualité essentiels des bâtiments à construire ou rénover. Par conséquent la politique de formation initiale et continue ne devra pas oublier les aspects sociaux et santé-environnement en ne se focalisant pas uniquement sur le thermique. Les objectifs du Grenelle visent essentiellement l’aspect thermique. Néanmoins, il est important de ne pas oublier l’aspect santé-environnement, notamment la qualité de l’air intérieur. La deuxième mouture du Plan National Santé-Environnement (PNSE 2), rendue publique en janvier 2009, reprend ces objectifs en étant structuré autour des inégalités environnementales. L’engagement volontaire des industriels des produits de construction porte notamment sur l’étiquetage des performances énergétiques et d’incidence santé des produits. Le couplage de l’étiquetage des performances des produits avec une optimisation de leur emploi, intégrée dès la phase de conception, via les outils de type maquette numérique sera un levier fort de qualité et de compétitivité de l’offre en construction neuve et en rénovation.

Par Pierre Thouverez

Sources : MEEDDM / CGDD, Ademe

Le marché français de l’efficacité énergétique est trop fragmenté

L’efficacité énergétique, une des révolution promise par le Grenelle de l’Environnement, est en tout cas devenue une source d’innovation sans fin. Aussi, l’occasion pour tout un tissu d’entreprises d’intégrer ce marché dont le volume financier ne cesse d’augmenter. Pour les industriels comme pour les hercheurs, la donne est la suivante : comment construire, rénover et gérer autrement les bâtiments tertiaire, industriel et résidentiel afin d’économiser l’énergie consommée et de lutter contre le réchauffement climatique ? Un challenge d’une immense difficulté. 

Au niveau national, le contexte est le suivant :

En comparaison avec d’autres secteurs, les réductions de consommations d’énergie et d’émissions de CO2 sont les plus attractives aujourd’hui dans ce secteur avec des coûts d’abattement de la tonne de CO2 pouvant être négatifs (les gains énergétiques actualisés font plus que compenser l’investissement initial).

Pour les bâtiments résidentiels, soit 30 millions de logements, plus de 2,2 milliards de m², 28 % des consommations d’énergie finale et 12 % des émissions de CO2. Compte tenu du taux de renouvellement du parc (~1 % par an), les efforts d’amélioration de la performance énergétique devront se concentrer sur la rénovation, et notamment la rénovation des 19 millions de logements construits en France avant la première réglementation thermique de 1975. Ces logements représentent 58 % du parc et plus de 75 % de la consommation d’énergie du secteur : leurs consommations en énergie primaire sont en effet deux à trois  fois plus élevées que celles des logements récents (330 kWh/m²/an avant 1975 contre environ 100 kWh/m²/an après 1975).

Pour les bâtiments tertiaires, soit 0,9 milliard de m² et 25 % de la consommation finale d’énergie du secteur. Les problématiques sont multiples et liées au type de bâtiments, à la nature de l’activité et donc à l’usage de l’énergie (chauffage et eau chaude, électricité à usage spécifique, etc.). Les actions d’amélioration de la performance énergétique doivent se concentrer sur les branches les plus consommatrices d’énergies :

  • bureaux (25% de la consommation d’énergie totale) ;
  • commerces (23%) ;
  • écoles (13%) ;
  • hôpitaux (12%) ;
  • cafés, hôtels et restaurants (10%).

Un tissu industriel diversifié

La filière efficacité énergétique des bâtiments française avec 310 000 entreprises et 1,3 millions de personnes est l’un des moteurs de la croissance. Elle est constituée d’un tissu industriel diversifié avec des groupes internationaux leaders sur toute la chaîne de valeur de l’efficacité énergétique dans le bâtiments et des PME et TPE présentes sur tout le territoire. Du fait de sa taille, la filière souffre néanmoins d’une forte fragmentation et d’une inertie dans le changement des pratiques, qui se manifeste particulièrement dans la formation aux nouveaux enjeux de l’efficacité énergétique dans le bâtiment.

Quoiqu’il en soit, elle possède des atouts incontestables, avec notamment des entreprises françaises leaders internationaux dans toute la chaine de valeur de l’efficacité énergétique dans les bâtiments :

  • produits de construction (Saint-Gobain, Lafarge, Vicat) ;
  • exploitation énergétique (Dalkia , Cofely,) ;
  • équipements (Schneider, Legrand) ;
  • du BTP (Vinci, Bouygues, Eiffage, ) ;
  • de l’ingénierie et de la mesure ( smartmetering) SPIE.

Aussi, la dynamique de rapprochement entre filières issue du Grenelle permettant des combinaisons entre PME et grands opérateurs pour gagner des contrats a donné un nouvel élan à tout le secteur. Enfin, la prise de conscience sur le territoire, avec des collectivités qui structurent leur action et initiatives de regroupements d’artisans, participe à cet élan.

Mais les choses ne sont pas si roses. Le contexte français révèle des lacunes qui n’ont rien de nouveau :

  • la fragmentation et l’atomisation du tissu ;
  • une formation qui évolue lentement, notamment en ce qui concerne les référentiels de l’Education Nationale ;
  • manque de réalisations BBC d’ampleur ;
  • un manque d’offre en prestation globale hors les majors du BTP ;
  • une Maîtrise d’Ouvrage publique non exemplaire et mal préparée ;
  • freins à l’usage de procédés innovants (agro-produits) par les procédures administratives d’agrément technique ;
  • foisonnement d’informations rendant difficile d’accès l’information qualifiée pour un tissu d’acteurs majoritairement composé d’artisans.

Un marché en plein essor… et subventionné

La combinaison des objectifs réglementaires issus du Grenelle de l’environnement et des aides accordées pour la rénovation énergétique des bâtiments devrait fortement dynamiser le marché. Le potentiel de croissance est important en cas de mise en oeuvre massive de ces solutions à horizon 2020 : cela représente un marché de 20 Md€ par an, 110.000 emplois nets et 82 TWh économisés annuellement.
Si on regarde vers l’avenir, le secteur français peut profiter de deux opportunités majeures : tout d’abord, la réalisation des rénovations et la mise en place des contrats de performance énergétique, susceptibles de générer près de 150.000 emplois à horizon 2020 et d’atteindre les objectifs du Grenelle en économisant plus de 200 TWh par an, soit plus de 20Mt de CO2. Ensuite, les exigences de qualification technique peuvent accélérer la structuration du secteur et améliorer son attractivité avec un effet à court terme.

Bien sûr, comme précédemment, le danger n’est pas loin. En effet, l’éparpillement des collectivités territoriales françaises risque de provoquer une fragmentation des initiatives. Plus culturellement, une difficulté de la part des agents privés et des collectivités à cibler les priorités pertinentes de rénovation de leur parc, ainsi qu’un manque de moyens financiers pour amorcer des travaux à temps de retour élevé représentent des freins potentiels importants, à ne pas négliger.

A l’heure actuelle, l’ambition pour la filière porte à la fois sur la rénovation du parc ancien (25 millions de logements) et sur les performances des logements neufs (3 millions de logements supplémentaires d’ici 2020). Le résidentiel qui constitue un gisement important d’économies d’énergies et d’émissions de CO2 à des coûts compétitifs, doit être une priorité pour l’Etat. Des solutions d’efficacité énergétique accessibles et efficaces doivent être mises en oeuvre pour diminuer significativement la consommation d’énergie et les émissions de CO2.

Dépollution et innovation, la recette de Pollutec

Innovation, optimisation des procédés, nouvelles techniques… le secteur de la dépollution, en pleine croissance, génère chaque année son lot d’innovations. Avec la nouvelle dimension environnementale qui s’impose aujourd’hui aux entreprises, notamment depuis el Grenelle, les enjeux deviennent de plus en plus importants. Voici notre sélection :

  • Un dégrilleur vertical

Le dégrilleur vertical de conception R et O Dépollution est un ensemble mécano soudé robuste composé d’un bâti en tubes profilés et en tôles pliées spécialement développé dans le but de réduire et de faciliter les opérations de maintenance et d’exploitation. Le godet de remontée des déchets est denté, forme qui lui confère une bonne adéquation avec la grille. Il est articulé sur un chariot, guidé dans deux glissières à l’aide de patin en PEHD 1000, qui permet sa descente au fond du canal ainsi que sa remontée. Les différentes actions du godet (ouverture, fermeture, montée et descente) sont réalisées à l’aide d’un vérin électrique et de sangles enroulées sur des poulies en INOX et mises en mouvement à l’aide d’un motoréducteur.
 
Dans le cas d’une quantité importante de refus de dégrillage, le dispositif peut être complété d’une vis de compactage et d’une presse hydraulique. Le fonctionnement du dégrilleur vertical de R&O est entièrement automatique. Pour se faire, plusieurs détecteurs de position sont montés à différents endroits du dégrilleur permettant ainsi la gestion des différents cycles de ce dernier (descente, montée et évacuation des déchets).
 
Un soin tout particulier est apporté aux problématiques liées à la maintenance et à l’exploitation : position de maintenance, capots démontables, dents amovibles, utilisation de sangles en polyester, déflecteur escamotable… Enfin, le dégrilleur est équipé d’un coffret électrique de commande avec automate et afficheur qui favorise simplifie et favorise l’exploitation. Ainsi, idéalement, le dégrilleur vertical R&O est destiné au dégrillage des eaux usées urbaines ou industrielles et peut être installé soit dans un canal d’approche soit dans un poste de relevage. Couplé à une presse hydraulique ou une vis de compactage, il permet également de résoudre le problème de stockage et d’évacuation des déchets.
En savoir plus sur ce produit

 
  • La première gamme d’enveloppes antimicrobienne

Dans les milieux administratifs ou territoriaux, où l’hygiène est une priorité, les fournitures de bureau, passant de mains en mains, véhiculent les microbes et constituent un facteur de contamination. C’est pourquoi Oxford et Elba ont créé la première gamme transversale d’enveloppes antimicrobiennes. La gamme Antimicrobial contient un principe actif qui réduit le niveau des bactéries jusqu’à 99% en deux heures et jusqu’à 99,99% en 24 heures. A base d’ions d’argent, cette technologie brevetée mise au point par BioCote et déjà largement utilisée dans le monde médical offre une protection permanente contre les bactéries, les moisissures et les virus pendant toute la durée de vie des enveloppes. Sont ainsi déjà proposées des pochettes de circulation du courrier intra-entreprise, des enveloppes et pochettes avec ou sans fenêtre ainsi que des pochettes radio imagerie médicale et des dossiers médicaux.

 
  • Première base de données EAU pour des empreintes environnementales EAU compatibles ISO

Quantis et ses partenaires vont être les premiers à développer une base de données de référence pour le calcul de l’empreinte en eau, s’appuyant sur la base de données Ecoinvent. La rareté croissante de l’eau peut avoir de graves conséquences, notamment au point de vue de la santé humaine, les stabilités sociales/politique, des écosystèmes, elle peut aussi constituer une source de risques pour les entreprises (CERES, CEO Water Mandate). L’approche d’Analyse de Cycle de Vie multi-critères, nécessaire pour pouvoir disposer d’informations complètes pour l’aide à la décision, tend à considérer de plus en plus cet indicateur d’empreinte en eau, requérant une complétude des données de référence existantes et leur régionalisation. Ce projet vise à élaborer les données de références nécessaires au calcul de votre empreinte en eau, à travers des partenariats avec des industriels, mais aussi Ecoinvent et compatibles avec la norme ISO.
Les domaines d’application rela&tifs à la mise en place de cetet base de données sont nombreux : administrations et collectivités, agriculture, agro-alimentaire, BTP et construction, chimie, parachimie, industries.
En savoir plus sur ce produit

 
  • Traitement des circuits d’eaux de refroidissement industriels à efficacité élevée

La société Mexel développe des émulsions respectueuses de l’environnement pour des applications industrielles. Elle lance cette année le Mexel 432, un produit biodégradable pour le traitement de l’eau des circuits de refroidissement des centrales électriques. Cette émulsion sans chlore agit au niveau moléculaire pour augmenter l’efficacité des circuits d’eau de refroidissement en maintenant leurs surfaces propres. Ceci permet de générer un gain de rendement qui engendre une diminution du CO2 émis par les centrales et autorise des économies substantielles de combustible pour les opérateurs. Le gain d’efficacité de l’unité traitée avec le Mexel 432 peut atteindre 1 à 3% grâce à un meilleur transfert de la chaleur dans le condenseur et à un perfectionnement du condenseur sous vide. Ainsi, pour une centrale électrique de 1.500 MW, la réduction des émissions est de 100.000 à 300.000 tonnes de CO2/an, de 50.000 à 150.000 tonnes de SO2/an et de 10 à 30 tonnes de NOx/an. Les économies de CO2 réalisées peuvent donner droit aux crédits carbones (CDM). Principe de fonctionnement Le Mexel 432 migre sur les surfaces et dépose un film moléculaire (10-8 mm) qui protège les équipements. Il est injecté en micro-dose (+/-5 ppm) pendant 30 minutes une seule fois par jour. Cette émulsion “tout en un”, non oxydante, tensioactive avec des propriétés dispersantes, empêche le micro- et macro-encrassement, le tartre, la corrosion et l’accumulation des boues (qui se trouvent dispersées). Elle a un effet répulsif sur les moules mais n’est pas toxique pour les mammifères. Elle est de plus biodégradable. D’une durée de vie supérieure à deux ans, l’émulsion Mexel 432 offre une solution globale pour la protection des circuits de refroidissement ouverts et semi-ouverts. Cette émulsion a été testée pour la première fois chez Socomine en 1994.
En savoir plus sur ce produit

 
  • Machine de traitement de DASRI pour petites structures médicales

La machine de traitement de déchets d’activités de soins à risques infectieux Ecodas T100 a été spécialement étudiée pour les petites structures médicales (laboratoires, cliniques, hôpitaux…). Elle offre une capacité de traitement de 10 à 20 kg par cycle de 30 minutes. Innovant et entièrement automatique, le procédé Ecodas combine broyage et stérilisation par vapeur d’eau à haute température, le tout dans une même enceinte fermée et compacte évitant ainsi toute manipulation intermédiaire. Le résultat final est constitué de broyats stériles assimilables aux déchets ménagers qui peuvent rejoindre la filière des déchets urbains. L’Ecodas T100 s’inscrit dans une stratégie de développement durable : d’une part, il est fabriqué en acier inoxydable recyclable et d’autre part, son procédé met en œuvre une technologie propre respectueuse de l’environnement (pas d’émission de fumée, aucun rejet atmosphérique polluant, pas de rejet chimique, pas de radiation) et permet l’élimination des déchets au plus près de la production.
En savoir plus sur ce produit

 

 

Captage et stockage du CO2 : des objectifs toujours plus élevés

Les rejets de CO2 dans l’atmosphère sont une préoccupation importante depuis des dizaines d’années. Les entreprises, dans leur ensemble, ont une responsabilité importante vis-à-vis de ces émissions. Le Grenelle, notamment, a permis de prendre les mesures de mise en place de processus de captage et de stockage du CO2 des entreprises. A partir de là, c’est une véritable filière qui se met en place, encore aujourd’hui.

La filière captage et stockage du CO2 regroupe l’ensemble des activités visant à capter le CO2 des sites industriels et à le transporter jusqu’à des sites de stockage géologique. La chaîne de valeur de la filière captage et stockage du CO2 est constituée de trois briques. Il s’agit du captage du gaz issu des grandes centrales thermiques et des unités industrielles, de son transport puis de son stockage. A noter que le CO2 transporté peut être utilisé à d’autres fins : il permet en effet de stimuler le rendement en pétrole ou en gaz d’anciens gisements. Ces trois étapes font également office de segments de marché.

Un marché de la capture et du stockage du CO2 de taille industrielle reste encore à construire : bien sûr, il se structurera dans les secteurs les plus fortement émetteurs de CO2, en forte croissance et au coût d’abattement faible. 17 industries (dans les domaines de la production d’électricité, des sous-produits de l’industrie, des fumées de l’industrie) sont directement visées par la filière. Les principales étant les centrales à charbon, largement en tête pour leurs émissions de CO2 (8.350 Mt/an), et les centrales au pétrole et au gaz. Ces centrales qui produisent de l’électricité génèrent à elles seules près de 42 % des émissions totales de CO2. Le second poste émetteur concerne les gaz d’échappement de l’industrie, en particulier des cimenteries, des raffineries, des aciéries et des industries autour de l’éthylène. En troisième position, viennent les sous-produits de l’industrie (ammoniaque principalement).

Au niveau national, les perspectives d’évolution de la filière sont plutôt encourageantes : il est vrai que la France dispose d’atouts conséquents : nombre d’acteurs de poids français sont positionnés tout au long de la chaîne de valeur, qui regroupe les activités de captage, de transport et de stockage du CO2. Cependant, la production électrique étant très peu carbonée en France comparativement à l’Allemagne par exemple, le marché local est restreint. Cela dit, la France possède des ressources en termes de recherche fondamentale et au niveau des industriels : Centres d’ingénierie et de recherche de pointe, présence de grands groupes sur l’ensemble de la chaîne de valeur : synergie et apprentissage accélérés, une avance technologique réelle des sociétés françaises en particulier dans le stockage de gaz naturel dans les aquifères, et un soutien au développement de l’offre (appels d’offre de l’Ademe, programmes cadre de R&D de l’UE, AIE…). L’absence de retour sur investissement en raison du prix du carbone trop faible, le peu de marché domestique constituent quant à eux les réelles faiblesses du contexte français.

Un marché à fort potentiel de croissance

La filière du captage et du stockage de CO2 est aujourd’hui émergente, mais recèle d’un fort potentiel de croissance car tous les scénarii de lutte contre le changement climatique s’y réfèrent. L’essor de la filière est cependant étroitement lié à l’implication des politiques publiques : les investissements ainsi que les mesures destinées à équilibrer l’écart majeur entre le prix du carbone et le coût des technologies est un des principaux enjeux avec celui de la réduction des coûts de captage. Le captage de 3 à 4 Gt de CO2 par an à horizon 2030 nécessite une forte montée en puissance du nombre de sites dédiés au captage et au stockage du gaz, soit entre 300 et 500, sachant qu’environ 20 petits pilotes seulement seront opérationnels vers 2010. A horizon 2030, si les objectifs de 3 à 4 Gt de CO2 stockés sont atteints, le marché mondial devrait peser entre 60 et 120 Md €.

Cet état de fait ouvre des opportunités :par exemple, il y a de la croissance à aller chercher à l’export, avec un marché mondial gigantesque. Aussi, la présence de grands groupes sur l’ensemble de la chaîne de valeur : synergie et apprentissage accélérés. Aujourd’hui, le seul bémol est l’insuffisante implication des pouvoirs publics dans le développement de la filière. Aujourd’hui, l’ambition française concernant le captage et le stockage du CO2 est claire. Il faut :

  • faire de la France le centre d’excellence mondial en ingénierie pour la filière ;
  • structurer une filière avec des acteurs français compétitifs à l’exportation ;
  • équiper ses installations les plus polluantes afin de réduire ses émissions de GES.

A partir de là, la filière captage et stockage du CO2 va devoir faire face aux enjeux suivants : tout d’abord, il s’agit de positionner la France comme chef de file de la filière de captage et de stockage du CO2 avec des entreprises et des organismes de recherches leaders. Ainsi, puisque la France possède d’ores et déjà des acteurs renommés sur l’ensemble de la chaîne de valeur, la structuration d’une filière française s’impose. En effet, il s’agit d’une condition sine qua non pour que les acteurs français soient en mesure de capter l’essentiel du marché lorsque ce dernier sera en phase de croissance exponentielle. Il est aussi indispensable de définir et mettre en oeuvre des stratégies d’alliance pour proposer des offres intégrées aux clients. Ces stratégies permettraient non seulement de répondre aux besoins existants sur l’ensemble de la chaîne de valeur mais aussi de dresser des barrières à l’entrée pour des potentiels concurrents. Des coopérations entre acteurs permettraient d’exploiter des synergies, d’optimiser l’offre et les coûts et de proposer à la demande un service unifié (construction, exploitation, maintenance). Enfin, dimensionner et adapter l’outil industriel français se révèle crucial. Cette adaptation est un pré-requis à la construction d’une filière pérenne : installation de pilotes de grande taille pour créer des économies d’échelle à l’international, sécurisation des procédés, optimisation des procédés de captage sont autant d’enjeux qui s’adressent aux acteurs français.

l’insuffisante implication des pouvoirs publics dans le développement de la filière

L’objectif de disposer d’une filière viable en 2020 a été adopté par l’UE en mars 2007. Il nécessitera un investissement compris entre 6 et 10 Md € pour construire une douzaine de prototypes à l’échelle industrielle (des unités de 400 mégawatts) d’ici à 2015. Cet objectif ambitieux est conforté par la décision du G8, début juillet, de soutenir le lancement de 20 projets expérimentaux de capture et stockage d’ici 2010. Une enveloppe de 10 Md $ au cours des prochaines années a été annoncée, témoignant ainsi de la volonté politique pour que la filière prenne forme.
En outre, pour que la filière CO2 se développe, il est également nécessaire de proposer aux industriels un mécanisme de financement qui sécurise leurs investissements. C’est chose faite en Europe depuis janvier 2008, car la Commission Européenne a annoncé que le CO2 capturé et stocké serait désormais considéré comme non émis, ce qui permet de valoriser les projets de capture et stockage dans le cadre du système des quotas d’émission.

Le marché du CO2, en donnant un prix à la tonne de CO2 non émise, est un outil fondamental pour encourager les investissements des industriels et des énergéticiens… à condition que la tonne de CO2 se maintienne à un prix supérieur au coût de la filière de capture, transport et stockage, ce qui dépend essentiellement de décisions politiques. Le prix de la tonne de CO2 peut être encouragé à la hausse par l’allocation de quotas plus contraignants, l’augmentation de l’amende en cas de dépassement du quota, l’intégration de nouveaux acteurs au système de quotas (comme les compagnies aériennes par exemple), la participation de nouveaux pays (tels que les Etats-Unis et la Chine).

Outre les problématiques purement technologiques et financières, deux autres enjeux vont rapidement apparaître : l’acceptation par le public, et plus particulièrement des populations situées à proximité des sites de stockage, et la réglementation : un cadre juridique et réglementaire pour le stockage est nécessaire afin de définir à long terme les responsabilités en termes du CO2 piégé.

Pour répondre à cette ambition, des actions doivent être entreprises en faveur des filières sur trois axes prioritaires :

Premier axe : Positionner la France comme leader de l’ingénierie de la filière de captage et de stockage :

  • orienter la recherche vers les procédés de rupture technologique (pré et oxycombustion) ;
  • spécialiser un pôle de compétitivité sur la valorisation du carbone (agro-alimentaire et biocarburants de 3ème génération), la formation et permettant de structurer un tissu industriel ;
  • réaliser des études d’impact sur le transport et le stockage à long terme ;
  • participer à plusieurs démonstrateurs européens ou mondiaux à l’échelle 1.

Second axe : Définir des stratégies d’alliance et des partenariats à l’international :

  • conforter les centres de compétences français dans les projets communautaires et/ou internationaux type ETP-ZEP, GCCSI Global Carbon Capture and Storage Institute, ou CSLF/IEA Carbon Sequestration Leadership Forum de l’AIE ;
  • maintenir la position de la France en amont de la R&D en favorisant le regroupement d’initiatives de captage + transport + stockage à travers des aides à l’expérimentation.

Troisième axe : Veiller au dimensionnement et à l’adaptation de l’outil industriel français

  • mettre en oeuvre une analyse des potentialités du marché domestique (application potentielle à l’industrie lourde) ;
  • donner une vision claire de la stratégie nationale de développement de la filière et du cadre juridique pour le stockage et le transport du CO2.

Par Pierre Thouverez

 

En savoir plus :

Enjeu sanitaire crucial pour l’Homme et son environnement, la Qualité de l’air intérieur et extérieur s’expose cette année dès l’entrée du salon. Ainsi l’ensemble des équipements et technologies d’analyse, de traitement, d’épuration, de ventilation et de filtration de l’air (dont la photocatalyse), accueillent les professionnels à la recherche de nouvelles techniques de traitement des pollutions, dans les domaines suivants :

  • Analyse – Mesure – Contrôle
  • Qualité de l’air intérieur : traitement de l’air intérieur, gestion des risques sanitaires, efficacité énergétique, climatisation/ventilation
  • Traitement de l’air extérieur : gaz/COV, particules- composés odorants
  • Transport et évacuation des gaz et fumées
  • Services, ingénierie, études et conseil…

Les COV… mais qu’est-ce que c’est ?

Un composé organique volatil (COV) est, par définition, constitué de carbone, d’hydrogène, d’hétéroatomes (azote, oxygène, chlore, soufre…) et possède une pression de vapeur saturante de 10 Pa (0,075 mm de Hg) à la température de 20°C et à la pression atmosphérique. On trouve ainsi dans cette classification l’ensemble des solvants, diluants, dégraissants, conservateurs, disperseurs… largement mis en œuvre dans l’industrie. Le méthane, par contre, n’est pas pris en compte. On parle alors de COV non méthanique (COVNM).

Les principales sources d’émission des COV sont les transports, l’industrie, la sylviculture et le résidentiel. En 2008, pour la France, les émissions annuelles étaient de 1.339 kt, chiffre en constante diminution et proche de 1.050 kt, qui, pour 2010, est la valeur cible définie après l’adoption des législations en conformité avec les traités internationaux (Rio, Kyoto…).

Les COV peuvent avoir une influence directe sur la santé humaine. La réglementation, pour les travailleurs, donne des valeurs moyennes ou limites d’exposition. Leurs impacts peuvent être indirects du fait du dérèglement du cycle de Chapman et la production d’ozone troposphérique préjudiciable aux personnes sensibles et/ou ayant des problèmes pulmonaires.

La détection par ionisation de flamme (FID) est la technique reine pour la mesure des COV dans les émissions gazeuses. Dans le cas de mélange, une séparation préalable est nécessaire par chromatographie en phase gazeuse (CPG) suivie d’une détection par FID ou d’une identification et d’une quantification par spectrométrie de masse (MS).

En termes de réglementations, il convient de noter l’arrêté du 2 février 1998, relatif aux prélèvements et à la consommation d’eau ainsi qu’aux émissions de toute nature des installations classées pour la protection de l’environnement soumises à autorisation. Dans les annexes II à VI, des listes de composés organiques, objets d’une réglementation spécifique en termes de concentrations et de flux massiques d’émission à l’atmosphère, sont précisées. L’arrêté du 29 mai 2000 porte modification de l’arrêté précédent. Actuellement, des textes par branches d’activités complètent ces principaux textes législatifs.

La réduction des émissions de COV met en œuvre des procédés de destruction/transformation et de transfert avec ou sans récupération. La figure ci-dessous donne les principales techniques classiquement utilisées.

original

Parmi ceux-ci figurent l’oxydation thermique ou biologique, la condensation, l’adsorption (charbon actif) ou le lavage des gaz (l’absorption). Le choix du traitement se fait en fonction du type de COV, de sa concentration et du débit des émissions. Des graphes permettent de définir la meilleure technologie utilisable. En outre, le coût et des paramètres plus subjectifs (sophistication, place disponible…) viennent compléter le choix final.

 

Par Pierre Le Cloirec, directeur de l’École Nationale Supérieure de Chimie de Rennes (ENSCR)

Pour en savoir plus

Le 29 octobre 2009, l’Agence française de sécurité sanitaire de l’environnement et du travail (Afsset) a proposé de mettre en place un étiquetage des matériaux de construction et des produits de décoration afin d’informer les consommateurs sur leur niveau d’émission en polluants. Objectif : préciser quels composés sont émis et en quelle quantité afin d’identifier plus clairement les articles les moins polluants. Dans ce cadre, elle a dressé une liste de 165 composés susceptibles d’être libérés dans l’air par ces produits et d’avoir des conséquences sur la santé. Cette proposition de l’Afsset rejoint la demande du législateur de soumettre les produits  » ayant pour objet ou pour effet d’émettre des substances dans l’air ambiant à un étiquetage obligatoire à partir du 1er janvier 2012  » (article 40 de la loi  » Grenelle 1  » du 3 août 2009). Le rapport de l’Afsset.

LE CLOIREC (P.). – Les composés organiques volatils (COV) dans l’environnement. 734 p. Tec & Doc, Lavoisier, Paris, (1998)

CITEPA – Inventaire des émissions de polluants atmosphériques en France, CITEPA /CORALIE / Format SECTEN, mise à jour mai 2008 et site web : http://www.citepa.org, (2009).

MASCLET (P.), Pollution atmosphérique. Ellipses: Paris, 2005; 213 p.

LE CLOIREC (P.), Les Composés organiques volatils (COV). Techniques de l’Ingénieur, Environnement 2004, G 1 835, 1 -10

POPESCOU (M.), BLANCHARD (J.M.), CARRE (J.) – Analyse et traitement physicochimique des rejets atmosphériques industriels. Tec & Doc, Lavoisier: Paris (1998)

&l

Dossier Pollutec : les nouveaux visages des techniques de dépollution

Cette année encore, le traitement des pollutions est un des thèmes centraux de l’édition 2009 du salon Pollutec Horizons. Traitement de l’eau, de l’air, des sols, mais aussi des déchets… Quelles innovations technologiques peuvent contribuer à changer la donne ? Quels nouveaux projets emblématiques ont vu le jour en 2009 ? Quels débats ont animé l’actualité ? Le point avec les Editions Techniques de l’Ingénieur.

 

Les temps forts de Pollutec

original Prix des Techniques Innovantes pour l’Environnement 2009 : l’audace récompensée
Mardi 1er décembre, les Prix des Techniques Innovantes pour l’Environnement organisés par l’Ademe et 5 titres de presse spécialisés dans l’environnement, ont récompensé 12 projets de recherche. Gros plan sur les lauréats et leurs projets. Voir le palmarès

3 questions à … Nordine Haddjeri : Quand Nheolis reinvente l’éolienne compacte
Lauréat du Gold EEP-Award 2009 remis sur le salon Pollutec, Nheolis a développé une éolienne compacte qui, grâce à un nouveau concept de voilure volumique à axe horizontal, augmente le rendement de l’appareil. Nordine Haddjeri, président et fondateur de la société revient sur cette technologie et sur ses atouts. (2 déc 2009)

CO2 supercritique : mais pour quelles applications industrielles ?
Parce qu’à l’état supercritique, le CO2 devient un solvant naturel permettant de diminuer l’utilisation de solvants chimiques, cette technologie ouvre de nouvelles applications. Oui mes lesquels ? Michel Perrut, président directeur général de Separex, a fait le point sur Pollutec. (1 déc 2009)

Et aussi…

Prix Entreprises et Environnement : le palmarès est… (1 déc 2009)
Pollutec : quels seront les temps forts de l’édition 2009 ? (3 nov 2009)

original

Traitement de l’eau

original   Spear, un outil en ligne pour évaluer la pollution des cours d’eau
Des chercheurs du Centre Helmholtz de recherche sur l’environnement (UFZ) à Leipzig viennent de mettre au point un calculateur permettant d’évaluer l’impact, à long terme, sur les cours d’eau de l’utilisation de produits phytosanitaires. Cet outil est gratuit et libre d’utilisation sur Internet.

Une méthode de dépollution par les plantes pour les rizières polluées au cadmium
Une équipe japonaise a mis au point une méthode de dépollution par les plantes, ou phytoremédiation, permettant de traiter les rizières polluées au cadmium via l’utilisation de certaines variétés de riz. (15 sept 2009)

Des dendrimères pour encapsuler des molécules et traiter les eaux
Créée en mars 2008, Colcom a mis au point un procédé permettant de créer des dendrimères puis de les utiliser pour détecter des bactéries dans l’eau, mais aussi pour traiter et filtrer les eaux. (21 juil 2009)

Dans les bases documentaires

[Base doc] Technologies de l’eau
[Rubrique Base doc] Techniques séparatives à membranes
[Rubrique Base doc] Bioprocédés appliqués à l’environnement
[Article Base doc] Extraction par fluide supercritique
[Article Base doc] Procédé d’oxygénation et de brassage pour le traitement biologique des eaux usées
[Article Base doc] Bioremédiation d’eaux contaminées par l’arsenic
[Article Base doc] Élimination du phosphore par filtres plantés de roseaux
[Article Base doc] Traitement des eaux par du chitosane : intérêts, méthodes et perspectives
[Article Base doc] Médicaments dans l’eau : présence, risques et potentialités de traitement

Et aussi dans l’actualité…

Une nouvelle technique de dépollution des eaux usées fondée sur une électrode bifonctionnelle (22 juin 2009)
Un réacteur biologique pour traiter le sulfate des effluents industriels (22 mai 2009)
Des poissons robots pour détecter les pollutions marines (31 mars 2009)

original

Des déchets à l’énergie

original   Déchets : Quelles stratégies, pour quels enjeux ?
La production mondiale de déchets a explosé depuis un siècle. Aujourd’hui, la problématique de leur traitement est un casse-tête. Comment faire face à ce surplus, tout en ayant une démarche durable et cohérente ? Ne faut-il pas remettre en cause notre vision du déchet, pour mieux appréhender une manière efficace et durable de le traiter ?

La NASA expérimente une nouvelle technologie de fabrication en mer de biocarburant algal
Des chercheurs américains ont mis au point une nouvelle façon de produire du biocarburant algal en traitant les algues directement en pleine mer. L’occasion de faire le point sur les biocarburants algaux. (28 mai 2009)

Les ordures pourraient chauffer la moitié de la Grande-Bretagne
La moitié des foyers britanniques pourraient être chauffés par du biogaz, issu de la fermentation de déchets organiques. De quoi prendre le relais lorsque le gaz de la Mer du Nord s’épuisera. (2 mars 2009)

Dans les bases documentaires

Base doc] Les déchets
[Rubrique Base doc] Valorisation et traitement des déchets
[Rubrique Base doc] Bioprocédés appliqués à l’environnement
[Article Base doc] Traitements biologiques anaérobies des effluents industriels
[Article Base doc] Techniques de réhabilitation des sites et sols pollués
[Article Base doc] Installation de traitement des déchets carbonés innovante
[Article Base doc] Valorisation énergétique de déchets graisseux en biocarburant

Et aussi dans l’actualité…

Entre les déchets et l’électricité, une torche à plasma (24 fév 2009)
Le buthanol, un biocarburant ? L’idée semble toujours faire recette (18 mai 2009)
La pyrogazéification, seule alternative à l’incinération ou l’enfouissement (23 fév 2009)

original

Traitement de l’air et captage de CO2

original   Pollution de l’air : l’importance de réduire les émissions de particules à la source
L’AFSSET a publié en mars dernier, un rapport sur la pollution de l’air par les particules fine et son impact sur la santé. Les résultats sont surprenants, notamment en ce qui concerne les impacts réels des pics de pollution.

L’IFP teste sa technologie de captage post-combustion du CO2 en Italie
L’Institut Français du Pétrole a signé un accord avec Enel pour tester une technologie de captage du CO2 en post-combustion sur la centrale thermique de charbon de Brindsi, en Italie. Explications. (1 sept 2009)

Un radar pour analyser le nuage de pollution au dessus d’une ville
Il s’agit en fait d’un instrument de mesure de la qualité de l’air qui peut également servir de radar à pollution au-dessus des villes. Le Dr Roland Leigh, chercheur à l’Université de Leicester, nous explique son principe. (2 avril 2009)

Taxe carbone : injuste pour les uns, permis de polluer pour les autres
Bien que partant d’un bon sentiment et malgré tous les ajustements qui ont été faits pour la rendre plus acceptable, la taxe carbone est un outil injuste et dangereux. (28 sept 2009)

Les COV… mais qu’est-ce que c’est ?
Littéralement composés organiques volatils, leurs rejets dans l’atmosphère contribuent à la dégradation de la qualité de l’air. Retour sur ces substances, les moyens de les détecter et les techniques pour réduire leur émission. (23 nov 2009)

Dans les bases documentaires

[Base doc] Air
[Rubrique Base doc] Traitement de l’air
[Article Base doc] Pollution atmosphérique
[Article Base doc] Surveillance de la qualité de l’air : le dispositif français
[Article Base doc] Bilan massique des émissions de COV
[Article Base doc] CO2 (dioxyde de carbone)
[Article Base doc] Traitement de l’air et climatisation
[Article Base doc] Traitement de l’air chargé en COV par adsorption-électrodésorption
[Article Base doc] Traitement sélectif de l’air industriel pollué en COV par un procédé hybride adsorption-ozonation

Et aussi dans l’actualité…

Une centrale britannique capture les émissions de CO2 (2 juil 2009)
Captage et stockage du CO2 : solution ou problème ? (23 juin 2009)
Chiffre clé : réduire de 70 % les émissions de gaz à effet de serre sauvera la banquise (22 avril 2009)
La forêt chinoise : un atout en danger ? (23 avril 2009)
Ensemencement des océans, agriculture regénératrice : à quel coût ? (2 mars 2009)

original

Traitement des sols pollués

original Un champignon pour dépolluer les sols contaminés ?
Podospora anserina, un banal champignon, est équipé d’une enzyme qui lui permet de résister aux composés aromatiques toxiques en les détruisant. Les chercheurs des universités Paris Diderot et Paris Sud pensent que cette caractéristique pourrait être exploitée pour décontaminer des sols contenant certains polluants persistants. Explications.

PCB-Axelera : un programme de recherche ambitieux au service de la dépollution des milieux aquatiques
Le programme PCB-Axelera a été engagé en décembre 2008 par le ministère de l’Ecologie. En charge du dossier sur le volet de la recherche appliquée : le pôle de compétitivité Axelera. Retour sur ce programme. (24 juin 2009)

33 propositions pour mieux encadrer les risques industriels
Que retenir de la table ronde du 3 juillet dernier ? Un consensus autour de la prévention des risques technologiques et du transport des marchandises dangereuses. La question des sols pollués reste en suspens. (17 juillet 2009)

Dans les bases documentaires

[Base doc] Sols
[Rubrique Base doc] Traitements des sols pollués
[Article Base doc] Sites pollués : contamination des sols et des nappes phréatiques
[Article Base doc] Bioremédiation des sols
[Article Base doc] Spectroscopie laser appliquée à l’analyse des sols pollués

Captage et stockage du CO2 : solution ou problème ?

Les procédés de captage et de stockage du CO2 se multiplient depuis quelques mois. Après la Norvège, pionnière de cette technologie en mer du Nord, et le Canada, où le projet de Weyburn, pharaonique, vise à emprisonner 1,8 million de tonnes de CO2 par an, c’est en France, dans les Pyrénées-Atlantiques qu’un projet massif de stockage du gaz carbonique va voir le jour. C’est une chaîne complète de captage et de stockage que la société Total va mettre en place sur le site de Lacq. S’il ne s’agit que d’un test, il marque néanmoins la volonté d’évaluer en conditions réelles les avantages et les inconvénients du captage et du stockage des gaz à effet de serre.

Pourtant, à peine lancé, le projet soulève déjà nombre d’interrogations. Ainsi, le coût de cette installation, mais également sa pertinence écologique posent question. François Moisan, directeur de la stratégie et de la recherche à l‘ADEME, attend de voir : « Il est encore trop tôt pour savoir quand la filière du captage et du stockage du CO2 arrivera à maturité. Il lui faut d’abord faire ses preuves, économiques et techniques. »

Quoi qu’il en soit, face à l’objectif des pays industrialisés de diviser par quatre les émissions de CO2 d’ici à 2050, le captage et le stockage du CO2 (C.S.C) est une piste sérieuse. L’idée est d’ailleurs assez simple. Il s’agit de limiter les rejets de CO2 dans l’atmosphère, le principal gaz à effet de serre, en le piégeant à la source : les fumées des centrales thermiques à charbon, à gaz ou à fioul, celles des cimenteries, des raffineries ou des usines sidérurgiques sont des sources importantes d’émissions de CO2.

Aujourd’hui, il existe trois principales techniques de captage, pour la plupart dérivées de celles mises en place dans l’industrie pétrolière et gazière. Il s’agit de :

  • La postcombustion est le procédé le plus usité. Il implique l’extraction du CO2 des fumées de combustion à l’aide de solvants.
  • La précombustion est une technique qui induit une transformation du combustible en gaz de synthèse dont est, dès le départ, soustrait le CO2.
  • La dernière technique, dite d’oxycombustion, résulte d’une combustion en présence d’oxygène, qui a tendance à concentrer le CO2.

Mais leur mise en pratique s’avère délicate. Le problème principal lié à ces techniques, notamment pour la post combustion, est leur coût qui demeure très élevé, et leur gourmandise d’un point de vue énergétique. Ainsi, le captage à lui seul représente près de 70 % du coût de la filière C.S.C. Au final, le coût d’un tel traitement est compris entre 60 et 100 euros pour une tonne de gaz carbonique économisée, ce qui est très cher (la viabilité économique se situe autour de cinq tonnes).

Les experts pensent tout de même que la standardisation des procédés pourrait aider la filière à diminuer ce prix lié au captage. L’étape suivante est le transport. Que ce soit par voie maritime ou par gazoduc, le gaz doit être comprimé, ce qui constitue une fois de plus une opération coûteuse.

Enfin, la problématique du stockage soulève également des questions. Trois possibilités sont envisagées, correspondant à trois types de sous-sols :

  • Stocker le gaz dans des gisements déjà exploités ou épuisés. Cette possibilité offre une capacité de stockage de l’ordre de 900 milliards de tonnes. Le seul problème réside dans la répartition très hétérogène de ces zones de stockage au niveau mondial.
  • Exploiter les milieux aquifères salins, présents dans les bassins sédimentaires qui se trouvent à plusieurs milliers de mètres sous la terre. Mais leur capacité de stockage reste mal connue. Elle est évaluée entre 400 et 10.000 milliards de tonnes.
  • Utiliser les veines de charbon non exploitées. Cette solution potentielle pourraient permettre de stocker environ 40.000 tonnes de CO2.

Comme pour le captage, le stockage soulève des interrogations. Ainsi, en ce qui concerne les aquifères salins, les chercheurs insistent sur la nécessité pour ces nappes salées d’une étanchéité parfaite, sous peine de contamination dramatique des nappes phréatiques d’où est tirée l’eau potable.

Les obstacles sont donc nombreux, mais selon le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC), la C.S.C permettrait de récupérer plus de 80 % du gaz carbonique produit par une centrale électrique, et plus d’un tiers des émissions d’origine humaine. Le test mené dans les Pyrénées permettra aux experts de répondre à certaines de leurs interrogations, et notamment en ce qui concerne la viabilité financière de cette méthode.

Enfin, comme pour les déchets nucléaires, le stockage du carbone doit faire face aux réticences populaires locales, comme c’est le cas sur le site de Lacq. « Au-delà des problèmes de coût et de validation scientifique, la filière doit aussi se préoccuper de son acceptabilité sociale », explique François Moisan.

P.T

Efficacité énergétique : le rôle clé des transformateurs électriques

L’Union européenne s’est engagée à augmenter son efficacité énergétique de 20 % d’ici à 2020. Dans ce cadre, les transformateurs électriques sont considérés comme un des produits clés à cibler, puisque les pertes associées aux 4,6 millions d’unités installées en Europe représentent 33 TWh/an. « Le potentiel d’économie d’énergie lié à ce type d’équipement à travers le monde est considérable. En Europe seulement, on estime que l’équivalent de plus de deux réacteurs nucléaires pourrait être économisé avec des technologies déjà éprouvées », explique Jean-Philippe Tridant-Bel, directeur de l’activité Energie chez Alcimed, société de conseil et d’aide à la décision spécialisée. 

L’Union européenne a d’ailleurs sélectionné les transformateurs électriques dans la liste des 10 produits prioritaires devant être réglementés pendant la période 2009-2011. Plusieurs possibilités existent pour diminuer leurs pertes :

  • utiliser des systèmes de récupération de la chaleur émise par les transformateurs ;
  • déployer des technologies de réseaux intelligents afin de contourner les transformateurs lors des creux de demande d’électricité ;
  • améliorer les matériaux utilisés pour confectionner le noyau des transformateurs. 

C’est cette dernière méthode qui semble susciter aujourd’hui le plus d’engouement. Les regards se tournent en particulier vers l’acier amorphe, une technologie dont l’énorme potentiel est largement reconnu à travers le monde. 

Le fort potentiel de l’acier amorphe

L’acier ou tôle amorphe a d’abord été utilisé à grande échelle aux Etats-Unis dans les années 80. Cependant, le marché a disparu suite à la dérégulation du marché américain de l’énergie à la fin des années 90. Le Japon l’a adopté peu après. Depuis, les principales zones de croissance sont situées en Chine et en Inde. En tout, ce sont plus de 2 millions de transformateurs à noyaux amorphes qui ont été installés dans le monde. Pour autant, ils ne représentent aujourd’hui que 5 % du marché annuel mondial et peinent à se développer, en particulier en Europe.

L’Europe se pose donc la question de son adoption et, à l’heure où les premières commandes à grande échelle sont en cours d’implémentation sur le continent, plusieurs paramètres décideront de l’avenir de noyaux de transformateur en acier amorphe. Celui-ci est certes plus cher à l’investissement que les technologies conventionnelles mais il permet de réaliser des économies grâce à l’énergie sauvée. Par conséquent, plus les pertes énergétiques seront considérées coûteuses, plus les noyaux amorphes seront jugés intéressants économiquement. L’évaluation du coût des pertes dépend de facteurs locaux tels que le coût de l’énergie, la durée de vie des transformateurs ou les taux de retour sur investissement attendus par chaque énergéticien. 

Pour compléter l’intérêt technico-économique, cette technologie devra également s’adapter aux exigences européennes en termes de bruit, de taille et de poids, qui peuvent être différentes des zones asiatiques où la technologie se développe aujourd’hui. Les derniers challenges sont industriels. En effet, le développement des transformateurs en acier amorphe repose, en aval, sur la capacité des industriels de la filière européenne à acquérir le savoir-faire nécessaire à leur construction et à adapter l’outil industriel continental. Les producteurs amont devront également rassurer sur leur capacité à fournir la matière première en quantité suffisante pour éviter tout risque de pénurie. 

« La compétition entre l’acier amorphe et le plus conventionnel acier à grain orienté est en train de se mettre en place. Les institutions européennes peuvent jouer un rôle important : une forte baisse des performances énergétiques minimales autorisées pourrait favoriser la technologie amorphe, qui n’a pas d’équivalent aujourd’hui à ce niveau », souligne Alexandre Graët, consultant chez Alcimed.

Par Marc Chabreuil

L’habitat : un enjeu énergétique fondamental

Epuisement des ressources pétrolières, dégradation du climat… Deux constats qui aujourd’hui ont de plus en plus d’échos, mais où tout reste à faire. « Nous sommes dans une société énergivore. Nous avons pris l’habitude de consommer une énergie peu chère, facilement transportable, et ceci depuis maintenant un peu plus d’un siècle, martèle Didier Roux, directeur recherche et développement chez Saint-Gobain. Cette situation est précaire, et nous sommes désormais confrontés à un nouveau défi celui de l’épuisement des ressources naturelles et en particulier des énergies fossiles. »

 

En effet, l’épuisement des ressources pétrolières est prévu pour le milieu de ce siècle. Il y a eu une industrie avant l’exploitation des ressources pétrolières, et il y aura une industrie après la fin de l’exploitation des ressources pétrolières. La question, aujourd’hui, est de savoir laquelle ? Ainsi, la problématique n’est pas de savoir si l’épuisement des ressources pétrolières est un drame, mais plutôt, la façon dont nous allons nous adapter.

Bien sûr, il y a le gaz et le charbon. Cependant, la courbe des ressources disponibles pour ces deux carburants fossiles est la même que pour le pétrole. Elle est juste décalée de quelques décennies. A l’échelle d’environ deux siècles, nous aurons épuisé les énergies fossiles dans leur totalité. Une transition vers d’autres formes d’énergie doit donc s’opérer. Mais ce n’est pas tout.

A cela, vient s’ajouter une deuxième problématique : celle du changement climatique. L’augmentation des températures et la consommation des énergies fossiles sont corrélées, cela est une évidence. Personne ou presque ne le conteste. La quantité de CO2 dans l’atmosphère est beaucoup plus élevée que par le passé, et cela est sans aucun doute lié aux activités humaines.

Cette augmentation de la concentration de CO2 atmosphérique a des répercussions négatives sur l’équilibre biologique de la terre, dont la principale, et la plus médiatisée, est l’augmentation des températures. « Des modèles récents prévoient une augmentation de 4,5 °C d’ici la fin du siècle », insiste Didier Roux.

Mais en quoi modifier notre habitat peut-il sinon changer la donne, du moins contribuer à ne pas aggraver la situation ?

L’habitat, un tiers de la facture énergétique mondiale

Un premier élément de réponse se trouve dans la manière dont se répartit notre consommation d’énergie aujourd’hui :

  • Un tiers est utilisé dans l’industrie pour fabriquer des produits manufacturés ;
  • Un autre tiers est utilisé pour les transports : voitures, avions, bateaux, trains ;
  • Le dernier tiers est utilisé pour chauffer l’habitat, au sens large.

Ces chiffres sont au premier abord surprenant. On s’attent à ce que l’énergie consommée par l’industrie et les transports soit beaucoup plus importante, proportionnellement, que celle consommée par l’habitat.

Maintenant, voyons à quoi sert cette énergie dans l’habitat. Selon Didier Roux, « 80 % sert à chauffer : eau chaude, fabrication de chaleur. Le reste est dédié aux appareils électriques et à la lumière. Or, si tous les bâtiments dans lesquels nous vivons et nous travaillons étaient aux normes de ce que ce que nous construisons aujourd’hui, c’est-à-dire aux normes RT 2005, la quantité d’énergie nécessaire au chauffage de tous les bâtiments existants serait diminuée de trois-quarts.

Ainsi, nous gaspillons énormément d’énergie. Environ 30 % de l’énergie totale consommée pour l’activité humaine, sert à chauffer des bâtiments qui ont été construits à une époque où l’on ne se préoccupait pas de l’énergie que l’on consommait », ajoute-t-il. D’où l’importance de l’efficacité énergétique des bâtiments ! En termes d’économies d’énergie, l’enjeu est tout simplement colossal.

Et ce d’autant plus, qu’au niveau industriel aussi bien qu’au niveau des transports, les économies d’énergie sont compliquées à mettre en place. Du côté des fabricants et des prestataires, la seule solution, hormis l’initiative personnelle, est la mise en place de consensus, de règles pour tous. Or, on sait que cela est compliqué. Parfois tout à fait impossible. Quant aux consommateurs, au-delà des déclarations d’intention, force est de constater qu’il est très difficile de les faire changer de comportement ou de mode de vie.

Changer les comportements sans changer le quotidien

De ce constat, Didier Roux tire une conclusion simple mais éloquente. « Si aujourd’hui, il fallait économiser 30 % de notre énergie et que l’on décidait d’arrêter de fabriquer des produits, notre quotidien serait profondément modifié. Le raisonnement est le même en ce qui concerne les transports. Mais si nous décidions d’économiser de l’énergie en améliorant l’efficacité énergétique des bâtiments, notre vie ne s’en trouverait pas changée, elle s’en trouverait améliorée. »

Pourtant, les efforts en ce sens ont mis du temps à trouver un écho, et c’est encore le cas aujourd’hui, bien que la prise de conscience collective vis-à-vis du changement climatique ait des retombées positives au niveau du secteur du bâtiment. Ces retombées positives se concentrent en une expression, objet de la recherche que mène actuellement de nombreuses entreprises : l’efficacité énergétique.

C’est d’ailleurs à partir de ce constat qu’un grand nombre de pays, les Allemands d’abord, puis un grand nombre de pays européens et mondiaux, ont décidé de mettre en place des processus de renouvellement de l’habitat, notamment ancien. La France a pris beaucoup de retard, mais a décidé de franchir le pas, à l’occasion du Grenelle de l’environnement notamment, ou des décisions historiques ont été prises. Mais tout le travail reste à faire, et il est colossal.

« En Europe, 70 % des habitations ont été construites avant 1970, dans des conditions où l’on ne se préoccupait pas de l’efficacité énergétique », rappelle Didier Roux. Il est vrai qu’à cette époque, la méconnaissance des enjeux climatiques, l’accès à une énergie fossile facile, peu coûteuse, ont donné lieu à des habitudes de consommation qui sont précisément celles qui sont désormais combattues, et jugées comme inconscientes par beaucoup.

Quoi qu’il en soit, l’habitat au sens large, individuel, collectif, les bâtiments d’entreprises, les bâtiments publics, administratifs, sont aujourd’hui concernés par la nécessité de consommer l’énergie différemment, et à termes, de trouver des modes de fonctionnement indépendants des énergies fossiles.

Par Pierre Thouverez

Efficacité énergétique : pourquoi ne cueillons-nous pas les fruits qui sont à portée de main ?

En tant que journaliste économique et de l’environnement, j’ai entendu un nombre incalculable de fois l’expression « cueillir les fruits qui sont à portée de main » pour parler de l’efficacité énergétique.

Ce dernier mois, j’ai contribué à la rédaction d’un rapport de l’Environmental Defense Fund sur les thèmes « innovation dans l’entreprise » et « environnement », à l’occasion de la conférence FORTUNE Brainstorm Green. Cela m’a permis de répondre à la question qui me taraude depuis des années : pourquoi ne cueillons-nous pas les fruits qui sont à portée de main ?

La réponse est que le monde des affaires ne fonctionne pas selon les principes classiques du libre marché. Il est beaucoup plus désordonné. Les émotions y rentrent en jeu. De même que la perfection humaine, et le fait que les entreprises ne sont que rarement, voire jamais, les machines bien huilées imaginées par l’économie classique. C’est la raison pour laquelle les entreprises qui pourraient facilement économiser de l’énergie et de l’argent en devenant plus performantes, ne le font pas.

La chasse au gaspillage

Prenons deux exemples. Le premier concerne l’hôtel. Les hôtels pourraient économiser des milliers de dollars chaque année en installant un système de clé à carte qui éteint automatiquement l’électricité lorsque le client quitte la chambre. Un hôtel de 616 chambres de la chaîne Westin à Pittsburgh a investi $120 000 dans un système de clé à carte qu’il a rentabilisé dans l’année. Après quoi, l’hôtel s’est trouvé libre de répercuter l’économie ainsi réalisée sur le prix des chambres, d’augmenter ses bénéfices ou de faire les deux.

Dans un monde où les marchés seraient vraiment concurrentiels, les autres auraient été obligés de suivre. Ce ne fut pas le cas. Ni à Pittsburgh ni ailleurs. Pourquoi cela ? Les propriétaires de l’hôtel semblent avoir eu peur que certains clients puissent ne pas aimer ne plus être maîtres de la température de leur chambre, ou trouver pendant quelques minutes une chambre légèrement plus froide en hiver ou plus chaude en été , le temps que le système se mette en route.

Même avec la possibilité pour les propriétaires de maintenir les chambres à 21 ou 22 °C à quelques degrés près, et pour les clients de profiter de prix revus à la baisse ou d’équipements plus importants. Au fait, les voyageurs en Europe et en Asie considèrent désormais le système de clé à carte comme une chose acquise. Comment les marchés expliquent-ils cela ?

Les économies d’énergie bénéficient à tous

Un second et meilleur exemple concerne les réseaux informatiques dans les entreprises. Ils gaspillent beaucoup d’énergie parce que les ordinateurs restent éclairés la nuit ou le weekend. Si vous travaillez dans un bureau, vous savez que les réseaux sont contrôlés par le département informatique qui veut un accès 24h/24, 7j/7, afin de traiter les virus et les problèmes de sécurité.

Peu lui importe de gaspiller de l’électricité car ce n’est pas lui qui paie la facture. Il a déjà assez de choses à s’occuper. C’est, une fois encore, un comportement humain. Certains logiciels permettent aux informaticiens de contrôler le réseau tout en économisant de l’énergie. Mais jusqu’à aujourd’hui, ces produits n’ont pas rencontré un large écho. Les personnes qui paient la facture d’électricité n’achètent pas de logiciels. Aux Etats-Unis, on appelle ça des «silos». La plupart des entreprises ont des silos et c’est une autre raison pour laquelle les solutions les plus simples ne sont pas mises en pratique.

Le rapport de l’Environmental Defense Fund met l’accent sur les meilleurs pratiques dans ces deux domaines et dans d’autres. Il donne également des pistes pour les politiques gouvernementales. Certains états américains, par exemple, remboursent les propriétaires des hôtels qui installent un système de clé à carte dans la mesure où au final, les économies d’énergies bénéficient à tous.

 

 

Source :

Marc Gunther réfléchit, écrit et communique sur l’entreprise et le développement durable. Il est un contributeur du magazine FORTUNE et l’auteur de «Faith and Fortune: How Compassionate Capitalism is Transforming American Business» (Crown Business, 2004). Lire son blog.

Les micropolluants vont constituer le sujet qui fâche dans les prochaines années

Techniques de l’ingénieur : Quelles sont les grandes problématiques auxquelles sont confrontés vos clients ?

François Morier : L’un des sujets importants est la DCO (demande chimique en oxygène) dite dure et le traitement complet et fiable de l’azote sous toutes ses formes. Les micropolluants vont constituer le sujet qui fâche dans les prochaines années. Nous rencontrons désormais moins de problèmes sur les métaux lourds et le phosphore. De plus en plus, la réutilisation de l’eau (re-use) est une préoccupation majeure de nos clients. Nous travaillons par exemple sur un projet stimulant d’arrosage d’un golf à partir d’un plan d’eau alimenté en eau traitée d’une industrie agro-alimentaire.

Quelles sont les nouvelles technologies qui se développent actuellement ?

Pour le prétraitement des effluents contenant de la pollution organique, le MBBR (moving bed biological reactor) permet d’obtenir des effluents rejetables dans le milieu urbain. Il reste assez rare mais il va se développer. Pour des problèmes plus poussés de DCO dure sur des petits débits, l’évapoconcentration est une solution intéressante, couplée à  la nanofiltration ou à l’osmose inverse, ce qui permet de recycler l’eau. C’est une technologie déjà bien établie qui va continuer à se répandre. Autre technologie, le bioréacteur à membrane, parfois complété par la nanofiltration, permet de résoudre des cas de pollution biodégradable en obtenant le plus souvent un rejet en milieu naturel. Dans le cas particulier d’une DCO dure, on peut aussi compléter par adsorption sur charbon actif.

Quelles sont les technologies vertes pour les traitements des effluents industriels ?

Il n’existe pas de technologie verte en tant que telle. Une approche dite verte consiste à réduire la consommation d’eau à la source, à réduire l’entraînement de matière dans la production des effluents et à réduire la consommation de réactifs chimiques, aussi bien dans la production que dans le traitement. Ensuite, on obtient des effluents à traiter et on trouve le meilleur compromis. Cette démarche est déjà relativement bien menée en France depuis une dizaine d’années. Aujourd’hui, on obtient le plus souvent un effluent résiduel du fait du niveau technologique de l’usine. Pour le réduire, il faudrait construire une nouvelle usine. Par exemple, si on a 10 km d’égouts dans une usine, ce sera difficile de s’assurer qu’aucune goutte d’eau ne pénètre à l’intérieur en cas d’orage. Dans une usine neuve, on aurait organisé un traitement décentralisé et on aurait mis en place des procédés sans eau. La désindustrialisation ne va pas dans le sens d’un ratio amélioré entre flux de pollution et flux de production. On doit gérer une pollution historique, alors qu’il faudrait des usines neuves.

Peut-on réduire les coûts ?

Le prix de l’eau d’apport ne baisse pas. Le coût de la destruction des déchets reste stable. Le coût des réactifs comme la soude ou la chaux dépend du coût de l’énergie, il ne baisse pas. En parallèle, on demande de plus en plus de suivi et d’analyses qui coûtent cher. Et cela va s’amplifier avec la réglementation à venir sur les micropolluants. On demande de nouvelles recherches et la réduction de substances dangereuses. Les industriels rencontrent des difficultés d’échantillonnage et d’analyse, avec des coûts élevés. L’investissement nécessaire peut être important. Lorsqu’on a quelques nanogrammes d’un produit dans une boue, c’est difficilement analysable. Il faut ensuite trouver un procédé pour traiter les effluents et prouver que ce procédé fonctionne.

Les établissements soumis à autorisation vont devoir réduire ou supprimer les rejets de substances dangereuses. Cela passe par une réduction à la source. C’est une problématique classique pour la chimie, mais cela va maintenant concerner tous les industriels, avec des répercussions sans doute inattendues. Par exemple, un industriel peut très bien rejeter un produit qu’il n’a pas acheté, comme des traces d’une substance présente dans l’eau d’appoint ou dans une matière première.

Quelles technologies permettront-elles de résoudre ce problème ?

On utilisera probablement des technologies classiques comme la séparation de flux en tête ou le charbon actif. Il y aura des cas où nous serons limités technologiquement. L’industriel devra faire remonter l’information au chimiste, qui devra remplacer son produit par un autre.

Cette réglementation va-t-elle dans le bon sens ?

La meilleure écologie pour une rivière, c’est l’absence d’industrie. Il existe une limite entre le bon sens et la désindustrialisation complète, qui ne va pas forcément dans le bon sens. Il faut étudier les situations depuis différents points de vue, environnemental mais aussi économique.

Propos recueillis par Corentine Gasquet

Parcours

De formation scientifique, François Morier est au service de Proserpol depuis plus de 30 ans. D’abord ingénieur procédé, il est désormais directeur général en binôme avec son président Jean-Pierre Jacque. Proserpol étudie et construit des stations de traitement et de recyclage d’effluents liquides industriels. Son point fort est la diversité des techniques utilisées : de l’échange d’ions pour recycler de l’eau ultra-pure à la valorisation de la biomasse par méthanisation.

&l

Des nanoparticules pour diagnostiquer la pollution

Ethera est une jeune société spécialisée dans la mesure de polluants chimiques présents dans l’air intérieur. Basée sur un savoir-faire en matériaux nanoporeux issu de recherches menées avec le CEA et le CNRS, sa gamme de kits Profil’air est particulièrement adaptée à la détection de faibles teneurs de polluants chimiques dangereux et cancérigènes.

Cette gamme est aujourd’hui disponible pour la mesure du formaldéhyde mais sera bientôt étendue aux autres polluants de l’air intérieur comme les Btex (benzène, toluène, ethyl-benzène et xylènes), les aldéhydes et la trichloramine. La version « Static » est entièrement dédiée à l’exposition statique (possibilité d’évaluer des expositions moyennes sur de longues durées, allant de quelques heures à plusieurs jours) tandis que la version « Dynamic » peut servir pour une exposition statique et/ou une exposition dynamique (possibilité de prélever sur des temps d’exposition courts, de quelques minutes à plusieurs heures).

Les kits Formaldéhyde comprennent tous un module de lecture optique et cinq badges pour exposition (statique ou dynamique) auxquels s’ajoutent cinq diffuseurs statiques pour le « Static » et un module d’exposition dynamique et un module de pompage pour le « Dynamic ». La sensibilité est de l’ordre du ppb (partie par milliards) Les kits Profil’air sont faciles à utiliser : la lecture optique directe de l’échantillon est instantanée après exposition (cf. changement de couleur du capteur, l’intensité de la couleur traduisant la concentration de polluants). Il n’est donc plus nécessaire de réaliser une analyse de l’échantillon en laboratoire.

Les promesses du photovoltaïque à concentration

Start-up spécialisée dans le domaine de l’énergie solaire, Héliotrop  qui a  installé à Cadarache, sur le site du CEA, sa première unité photovoltaïque à concentration (CPV ou Concentrated PhotoVoltaics), montée sur suiveur solaire (« tracker »), baptisée « 900 soleils » implantera un pilote de deuxième génération aux performances accrues (concentration de 1.024 soleils), au cours du quatrième trimestre 2010. Une ultime étape de tests avant la  commercialisation de cette technologie dès 2011 avec pour objectif un prix du kWh inférieur à 0,15 € et 20 % du marché mondial du CPV en 2015.

« Les modules CPV constituent une révolution dans le monde du photovoltaïque : la  technologie très haute concentration Heliotrop permet des coûts compétitifs et un rendement élevé, ce qui rapproche l’électricité solaire de la parité réseau dans les zones à fort ensoleillement » déclare Paul Bellavoine, Directeur Général de la société Heliotrop. « D’ici 5 ans, le marché mondial du CPV devrait peser 3 milliards d’euros et représenter 1 GW, soit plus de 10 % du marché du photovoltaïque ».

Le principe  du CPV qui est le fruit d’une collaboration avec le CEA-Liten, notamment ses équipes de l’INES et  une PME internationale de mécanique, en Vendée, est simple. « Grâce à des lentilles de Fresnel, nous concentrons l’énergie du soleil par 900 sur des cellules III-V triple jonction à haut rendement (37 %) , utilisées depuis quatre décennies sur les satellites  car elles permettent de capturer une partie plus large du spectre de la lumière du soleil» explique Jean-Edouard de Salins, Président d‘Heliotrop. « Chaque unité CPV Génération 1 génère une puissance de 7kW et l’installation de plusieurs centaines d’unités permet donc de créer des centrales solaires de puissance supérieure à 10 MW, l’équivalent de la consommation électrique d’une ville de plus de 15.000 habitants ».  Comparé au CSP (Concentrating Solar Power), le CPV offre une meilleure approche qualitative : un besoin d’eau beaucoup plus faible, une grande flexibilité dans la taille des centrales et un temps de réponse de retour à la production beaucoup plus faible après un passage nuageux.

Des modules CPV montées sur un suiveur solaire deux axes

Nécessitant un ensoleillement direct, les unités d’Heliotrop sont constituées de modules CPV montées sur un suiveur solaire deux axes (fonctionnement en boucle ouverte ou asservie avec capteur vectoriel), qui ajuste son orientation avec la trajectoire du soleil. Elles sont peu sensibles à la chaleur (leur sensibilité est 8 fois plus faible que les panneaux en silicium) et présentent l’avantage de respecter l’environnement : les modules CPV étant montés sur un tracker, donc surélevés, il est possible de partager le terrain avec une exploitation agricole (élevage ovin, culture maraichère, etc.). Ces unités qui sont conçues pour une durée de vie largement supérieure à 25 ans, montrée par des tests de vieillissement accéléré, nécessitent, à puissance égale, moins d’espace qu’une centrale photovoltaïque classique.

« Nos unités CPV contribuent à la baisse du prix des centrales solaires puisqu’une concentration de 900 soleils signifie 900 fois moins de matériau semi-conducteur nécessaire» assure Paul Bellavoine. « Et le rendement total du système dépassera les 27 %, soit environ 2 fois celui des panneaux silicium et 3 fois celui des couches minces» ajoute Jean¬Edouard de Salins. Mais, grâce aux progrès de la recherche, les systèmes à concentration atteindront d’ici quelques années un rendement de l’ordre de 50 %, c’est-à-dire que la moitié de l’énergie provenant des rayons du soleil sera convertie en électricité. 

La Haute Définition, l’avenir de la téléphonie d’entreprise

Comparée à d’autres domaines tels que l’image, le son ou encore l’informatique, il est surprenant de constater que la téléphonie fixe n’ait que très peu évoluée depuis la fin des années 70. Même si la France avait alors déjà déployé un réseau majoritairement numérique, la transmission de la voix repose toujours sur des principes vieux de près d’un siècle. Mais aujourd’hui, avec le développement de la VoIP, l’augmentation de bande passante et la puissance des processeurs, les réseaux évoluent vers de nouvelles technologies permettant aux utilisateurs de vivre une révolution équivalente à celle apportée par la télévision HD : celle de la téléphonie Haute Définition.

La voix sortant d’un poste de téléphone est souvent nasillarde

La téléphonie traditionnelle a longtemps été limitée à une qualité audio jugée acceptable en raison du coût lié au transport des informations sur le réseau. Ainsi, les ingénieurs du début du XXème siècle, alors tous masculins, avaient estimé que l’essentiel du spectre de la voix humaine est inclus dans une bande passante comprise entre 300 et 3.400 Hz, avec une distribution de l’énergie sonore essentiellement centrée autour de 800 Hz. Ils n’avaient alors constaté aucune altération notable du timbre de la voix lorsque les fréquences en dehors de cette bande étaient supprimées. A l’évidence, notre expérience quotidienne est tout autre : la voix sortant d’un poste de téléphone est souvent nasillarde et les voix féminines ou d’enfants, légèrement aigues, sont généralement peu reconnaissables. Si effectivement la voix humaine est capable de produire des sons d’une fréquence comprise entre 70 Hz (basse) et 2.000 Hz (soprano), celle-ci comporte de nombreux harmoniques qui lui donnent sa richesse et sa spécificité. Il faut savoir que l’oreille humaine est sensible jusqu’à des fréquences de 20.000Hz.

La téléphonie HD repousse les limites traditionnelles et permet de transmettre un registre de 50 à 7.000 Hertz avec une fréquence d’échantillonnage doublée et un codage sur 14 bits au lieu de 8bits, ce qui augmente la fidélité de la retransmission. En fait, la Haute Définition existe depuis près de 20 ans. Dès 1987, l’ITU (International Telecommunication Union) a standardisé la Haute Définition audio au travers du codec G722. Les radios ont commencé à utiliser, dès les années 90, le G722 sur les réseaux numériques pour fournir une haute qualité audio à leurs auditeurs lors d’événements extérieurs. Il existait également pour les détenteurs de lignes numériques, mais le coût élevé des équipements en a maintenu l’utilisation très confidentielle. Ce format de codage a été également choisi début 2007 par l’organisme de normalisation Européen ETSI comme format obligatoire pour les terminaux DECT de nouvelle génération et haute qualité audio. Enfin, il existe également d’autres codecs permettant de transmettre un son HD comme le Siren, iSAC, iPCM-wb…

Les interlocuteurs auront véritablement l’impression à côté les uns des autres

Nous considérons la téléphonie HD révolutionnaire car, il suffit d’en avoir fait une seule fois l’expérience pour se demander comment nous avons bien pu téléphoner avec les anciens standards pendant si longtemps. Cette différence sera particulièrement sensible tant que la téléphonie HD ne sera pas généralisée sur les réseaux des opérateurs, car pour que la qualité HD soit préservée, il faut que la voix soit véhiculée en HD de bout en bout. Ainsi, tant que les différents opérateurs n’auront pas déployé la voix HD sur leurs réseaux, ni effectué des interconnexions HD entre eux, une communication établie d’un opérateur à un autre n’aura qu’une qualité classique. Les utilisateurs vont donc constamment alterner entre des « conversations HD » et des conversations à la qualité commune.

Par l’élargissement de la bande de fréquences transmise, le son perçu sera beaucoup plus pur et les interlocuteurs auront véritablement l’impression d’être l’un à côté de l’autre, et même les uns à côté dans le cas de conférences téléphoniques. Toutes les nuances de la voix devenant sensibles, le confort d’écoute est incomparable. Il n’est plus nécessaire de crier dans son combiné, au contraire : il devient même possible de chuchoter les discussions les plus confidentielles. En définitive, la téléphonie HD ne fait que rétablir l’expérience naturelle de la conversation. C’est pourquoi nous sommes convaincus que goûter à la téléphonie HD, c’est ne plus pouvoir s’en passer !

Sans HD, les participants monopolisent leurs efforts à d’une part reconnaître leurs interlocuteurs et d’autre part, à les comprendre, les caractéristiques de chaque voix étant gommées par la suppression des informations au-delà de 4 000Hz. Grâce à la téléphonie HD, les utilisateurs pourront pleinement se concentrer sur le contenu de la conférence.

La HD audio est intégrée systématiquement dans les équipements téléphoniques récents

Les sons confus en téléphonie classique deviennent plus intelligibles. Par exemple il nous arrive fréquemment d’avoir des difficultés à distinguer des sonorités similaires, telles que les sons ‘S’ et ‘F’, notamment lorsque notre interlocuteur possède un accent linguistique, et bien souvent, nous lui demandons alors de répéter, ce qui n’est jamais très confortable lors d’échanges professionnels. La haute qualité audio de la téléphonie HD devrait également permettre de réduire l’isolement des personnes âgées pour lesquelles suivre une discussion en qualité commune était devenu simplement impossible. De plus, la sensation de proximité de l’interlocuteur procurée par la téléphonie HD sera sans aucun doute génératrice d’émotions !
L’expérience de la téléphonie va véritablement être transformée pour tous les utilisateurs.

Haute Définition est l’avenir de la téléphonie sur IP. D’ailleurs, la Haute Définition audio est aujourd’hui intégrée systématiquement dans les équipements téléphoniques récents ; c’est le cas pour Alcatel, Cisco, Siemens, Nokia, Polycom, Snom…et sur les réseaux VoIP d’opérateurs comme Keyyo, l’un des premiers sur le marché à avoir proposé une offre de téléphonie HD. Sur le même principe, les opérateurs mobiles annoncent également l’arrivée de la téléphonie HD sur leurs réseaux ce qui devrait enrichir d’une manière analogue l’expérience de téléphonie mobile. Cependant, le codec utilisé, le G.722.2, aura un rendu qui restera inférieur à celui de la téléphonie HD fixe.

Les prochaines évolutions, aidées par le renouvellement des terminaux qui accompagne l’arrivée de la téléphonie HD, seront pour une large part situées au niveau des services apportés à l’utilisateur : convergence, mobilité accrue, virtualisation, personnalisation, ouverture aux personnes handicapées…

par Silvère Baudouin, Directeur Général Adjoint de Keyyo
 

La numérisation 3D et la stéréolithographie… au service du chocolat

A l’occasion du centième anniversaire de la collection de sculptures antiques du musée Liebieghaus de Francfort, la galerie d’art a offert aux visiteurs la possibilité d’acheter des miniatures en chocolat de l’Athéna de Myron, certainement la statue la plus reconnaissable de la collection. La reproduction sucrée et de haute qualité a été réalisée grâce aux techniques de numérisation et de prototypage rapide.

La transformation de la statue d’Athéna grandeur nature qui mesure 1,73 m, en un ensemble de données 3D « minuscule » mesurant 7 cm puis la production d’une miniature en chocolat a exigé le savoir-faire de nombreux experts industriels. Le résultat final, un souvenir créatif et goûteux, est la démonstration du potentiel significatif de ces techniques high-tech de fabrication pour le développement de nouveaux produits et pour l’industrie alimentaire de manière générale.

La réalisation d’un maître-modèle qui puisse être utilisé pour créer un moule tout aussi détaillé est un projet qui a suscité l’intérêt de nombreuses industries. Le Pr. Dr. Vinzenz Brinkmann, conservateur de la collection d’antiquités du musée et spécialiste de renommée mondiale de la reproduction des œuvres d’art antiques, a chargé le groupe Alphaform, basé à Munich, de fabriquer un maître-modèle très détaillé de l’Athéna de Myron.

La réalisation du maître-modèle a fait appel à la numérisation en haute définition puis à la résine de stéréolithographie Somos NanoTool, un matériau ProtoComposite troisième génération de DSM Somos qui offre des propriétés de robustesse, de rigidité et de résistance aux températures élevées. De plus, les pièces ainsi réalisées présentent des parois latérales de qualité et une surface très lisse, des éléments critiques pour la reproduction de détails en haute définition sur un petit maître-modèle. Fortement chargé en nanoparticules non cristallines, NanoTool permet un traitement rapide et nécessite peu de finition, ce qui accélère la production des pièces.

Ralf Deuke, directeur de la production chez Alphaform, confirme : « pour ce projet nous avons préconisé le procédé additif stéréolithographique avec utilisation de NanoTool de Somos pour la production du maître-modèle. Bien que NanoTool soit généralement considéré comme le matériau de référence pour les applications à haute température et en tunnel à vent, l’un des domaines d’application qui se développe le plus rapidement est la conception de précision haut de gamme. Même si on prend en compte les tous derniers développements des technologies et matériaux d’impression 3D, NanoTool est en fait le seul matériau capable de reproduire les détails les plus fins. »

Le maître-modèle a ensuite permis à Clement Chococult de réaliser un moule en silicone de degré alimentaire approuvé par la US FDA qui a été utilisé par Bitter&Zart Chocolaterie, basé à Francfort, pour produire les miniatures en chocolat. Une réalisation qui met en évidence le potentiel de la fabrication additive dans de nouveaux secteurs industriels. 

Nouveau système de propulsion pour micro-objets

Un nouveau mode de propulsion pour micro et nano-objets métalliques a été mis au point par des chercheurs de l’Institut des sciences moléculaires (CNRS/ENSCBP/Universités Bordeaux 1 et 4). Ce procédé s’appuie sur le concept original de l’électrochimie bipolaire : sous l’effet d’un champ électrique, une des extrémités d’un objet métallique croît tandis que l’autre extrémité se dissout. Grâce à cette auto-régénération permanente, des objets se déplacent à des vitesses de l’ordre d’une centaine de micromètres par seconde. Publiés dans le Journal of the American Chemical Society, ces travaux permettent d’envisager des applications dans les domaines allant de la nanomédecine à la micromécanque.

Plusieurs approches sont actuellement explorées pour appliquer à des nano ou des micro-objets des mouvements directionnels contrôlés. Les scientifiques étudient notamment l’utilisation de molécules dites « carburants » qui, suite à leur décomposition, peuvent propulser un objet dissymétrique. Autres pistes de travail : reproduire les systèmes naturels en imitant le déplacement de bactéries ou la rotation de systèmes biologiques bien connus comme l’ATP synthase.

Pour la première fois, deux chercheurs de l’Institut des sciences moléculaires de Bordeaux, Gabriel Loget and Alexander Kuhn ont montré qu’il est possible de générer un tel mouvement via une approche originale appelée « électrochimie bipolaire ». Ces chimistes soumettent à un champ électrique des objets métalliques qui présentent alors une différence de charge aux extrémités : l’une un excès et l’autre un déficit. Cette polarisation est suffisamment importante pour que des réactions chimiques opposées d’oxydoréduction se produisent à chaque extrémité. Ainsi, d’un côté l’objet va s’oxyder et se détruire. De l’autre côté, en procédant à la réduction d’un sel métallique présent dans la solution, un dépôt de métal va se former, conduisant à la croissance de l’objet. In fine, ce procédé conduit à un auto-renouvellement de l’objet tout en induisant son déplacement. Le mouvement généré de cette façon est dirigé vers l’une des deux électrodes et la vitesse peut être contrôlée par la différence de potentiel appliquée entre les deux électrodes.

L’avantage de cette méthode est qu’aucun combustible classique n’est nécessaire pour provoquer ce mouvement. De plus, on peut envisager d’adapter ce micromoteur pour pousser d’autres objets dans une direction prédéfinie et de les faire complètement disparaître une fois qu’ils ont effectué leur tâche. Ce procédé original ouvre des perspectives dans des domaines d’application variés allant de la micromécanique à la nano-médecine. 

Data centers : utiliser l’air extérieur pour rafraîchir les serveurs ?

Dès le mois de septembre 2011, le fournisseur d’accès Internet Céleste pourra héberger les serveurs et les données des entreprises de toute l’Ile-de-France dans son nouveau data-center Marilyn, implanté au coeur du cluster de Marne-La-Vallée,  Il s’agira d’un nouveau type de centre informatique breveté car unique en terme de refroidissement. En effet, le data center fonctionnera en « free-cooling » total avec l’utilisation de l’air extérieur pour rafraîchir les salles de serveurs (il n’y aura pas de réseau d’eau glacée). Sa forme verticale sur 5 niveaux permettra une circulation de l’air très facile : l’air frais sera aspiré au niveau du sous-sol, refroidira les machines, et sera utilisé pour chauffer les bureaux. Le surplus d’air sera évacué par le toit. Cet effet de tirage naturel entrainera une optimisation des rendements aérauliques.
« Nous construisons aujourd’hui l’Internet vert » a déclaré Nicolas Aubé, président de Céleste, lors de la pose de la première pierre.

Le gain en consommation électrique totale est estimé à près de 35 %, soit une économie d’environ 6 GWh par an par rapport à un data center traditionnel. Cette économie  représente la consommation annuelle d’un bâtiment de bureaux classique de 150.000 m². Le rendement énergétique de Marilyn ou PUE (Power usage effectiveness) sera de 1,3, soit un PUE des plus bas.

Permettre une organisation optimisée du data center

L’architecture du site permettra par ailleurs une haute densité : 10 kVA par baie, c’est-à-dire 10 fois plus que dans les data centers actuels avec un refroidissement uniquement à l’air. Ces choix technologiques innovants conduiront à des coûts réduits et une plus grande fiabilité : en cas de coupure de la production de froid, le site reste au maximum à la température ambiante.
 
Outre les économies d’énergie, la disposition verticale permettra une organisation optimisée du data-center et une limitation des besoins de surface au sol. Cette caractéristique rendra ainsi possible une implantation en milieu urbain. Du coup, le coût unitaire au kVA de baie installée dans ce type d’installation sera divisé de moitié.

D’une capacité de 200 baies jusqu’à 10 kVA moyen par baie en première phase sur 800 m² de centre informatique, Marilyn est conçu avec un objectif de certification Tier IV. La chaîne électrique est totalement doublée (2N) : 2 transformateurs haute-tension, 2 onduleurs et 2 distributions électriques jusqu’aux serveurs des clients.

Analyse d’éco-efficience d’un polyamide bio-sourcé : un résultat surprenant

De nouveaux grades ont fait leur apparition dans la gamme de polyamide 610 de BASF. Trois nouveaux polyamides PA 610 renforcés avec des fibres de verre et un mélange de PA 610 et de PA 66 viennent aujourd’hui s’ajouter à l’Ultramid S3K Balance. Cette famille de polyamides est produite à partir d’une ressource renouvelable dont la teneur peut atteindre 63 % dans le produit. Elle offre, entre autres, des propriétés de résistance à l’hydrolyse (eau chaude et vapeur) et à la fissuration sous contrainte ainsi qu’aux produits chimiques comme les chlorures de calcium et de zinc.

L’acide sébacique, un dérivé d’huile de ricin, est l’une des matières premières qui entrent dans la composition d’Ultramid Balance. Ainsi plus de 60 % des polymères de base utilisés pour les produits de cette gamme proviennent de ressources renouvelables. Pour les clients qui accordent une grande importance aux produits bio-sourcés, cette résine est intéressante à bien des titres et pas seulement pour ses caractéristiques techniques. Toutefois, en règle générale, BASF recommande de procéder à une analyse d’éco-efficience avant d’utiliser des matériaux bio-sourcés pour remplacer les produits traditionnels. En effet, il ne suffit pas simplement de faire appel à des produits d’origine végétale c’est-à-dire non fossile donc bio-sourcé pour garantir un profil éco-efficient dans le produit fini.

Peu après le lancement de la toute première qualité d’Ultramid Balance, BASF a réalisé une analyse d’éco-efficience pour une application automobile type. Cette étude a consisté à comparer deux collecteurs d’admission automobiles ayant déjà parcouru 200.000 km. Comme la règle le veut, l’analyse d’éco-efficacité a porté sur tous les critères écologiques et économiques touchant à la production, l’application et l’élimination du produit. Un bilan complet de l’impact sur l’environnement et des coûts engendrés par des alternatives potentielles a ainsi été obtenu. L’Ultramid Balance renforcé avec des  fibres de verre a un impact environnemental légèrement plus favorable, mais engendre des coûts beaucoup plus élevés que le PA 6 classique. Pour un collecteur d’admission, la résine PA 6 standard représente par conséquent la solution la plus éco-efficace.

Un avantage écologique assez modeste

Ultramid Balance est un bon exemple de la façon dont le débat sur la performance, les coûts et la durabilité d’un plastique moderne peut être mené. Dans le cas du PA 610, l’acide sébacique utilisé pour la production est dérivé d’une ressource renouvelable. Cette provenance de la matière première procure un petit avantage écologique. Toutefois, contrairement à ce qu’on pourrait attendre, cet avantage ne repose pas sur l’origine végétale du carbone, mais, plutôt sur le poids de l’Ultramid Balance qui est beaucoup plus faible. Les installations nécessaires pour produire ce plastique de volume relativement faible engendrent des surcoûts assez élevés qui, d’un point de vue économique, contrebalancent l’avantage écologique somme toute assez modeste. Un autre facteur à prendre en compte dans le bilan est la volatilité du prix de l’acide sébacique. En effet, les ressources renouvelables font régulièrement l’objet de fluctuations de prix. Les récoltes sont parfois mauvaises et la demande excédentaire fait alors varier les cours du marché. Par conséquent, l’intérêt de cette matière plastique aujourd’hui ne réside pas dans le fait qu’elle soit fabriquée à partir de matière première renouvelable, mais qu’elle possède un excellent profil de performances. Ce profil la positionne largement au-dessus du PA 6 et du PA 66, à un niveau comparable à celui du PA 612 et du PA 12 lorsqu’on considère certaines propriétés-clés.

En dépit des discussions très controversées sur les coûts, les facteurs environnementaux ainsi que les exigences de performance, les développements de produits vont se multiplier. La gamme des matières plastiques continuera ainsi à se diversifier. Et avant de faire son choix dans ce large assortiment, le client devra bien réfléchir à quels produits accorder sa préférence.

Extraits  de la présentation du Dr. Matthias Scheibitz, Développement Produit Automobile Engineering Plastics Europe BASF SE, Ludwigshafen (Allemagne) 

Liaison 40 GbE longue distance : une première !

« La nouvelle technologie 40 Gigabits Ethernet est le gage de possibilités illimitées », se réjouit Jan Hof, Senior Director Field Marketing EMEA d’Extreme Networks à l’occasion de la commutation réussie du tout premier réseau 40 GbE longue distance entre le centre Sara  Computing and Networking Services d’Amsterdam et le Centre Européen de Recherche Nucléaire (CERN) de Genève. « En plus des applications en astrophysique, des solutions multimédia grand public ou encore l’industrie des jeux vidéo en plein essor, la connectivité 40 GbE augure d’avantages énormes pour la science et la recherche. En télémédecine, par exemple, la connectivité 40 Gb permet  l’échange en temps réel et sur de longues distances des grandes quantités de données générées par les scanners IRM 3D modernes. Un médecin basé à Amsterdam, à Washington ou à Pékin pourra partager les images haute résolution d’un microscope avec des milliers d’étudiants dans le monde. Un pathologiste européen pourra étudier et identifier à distance un échantillon d’organisme biologique dangereux prélevé sous les tropiques, sans délai et sans prendre le risque de le transporter ».

Un nombre croissant de projets de recherche implique de pouvoir transmettre rapidement d’importants volumes de données. C’est le cas, par exemple, du projet international Génome Humain ou encore de l’initiative JIVE de traitement des données brutes provenant de radiotélescopes du monde entier. Or, aujourd’hui, des liaisons haut débit à faible temps de latence permettent de transmettre ces données à des data centers centralisés, qui remplacent avantageusement les disques, plus lents et coûteux.

La connectivité 40 GbE offre également aux groupes de médias davantage d’options et de flexibilité pour un coût nettement plus abordable. En plus d’éliminer les frais élevés de transport de matériel et de disques, les distributeurs vont, en effet, pouvoir diffuser leurs films sur des écrans de cinéma en streaming HD et en qualité 4K stéréo.

Lors de cette commutation qui est une première mondiale, les images de synthèse d’une vidéo du « Big Bang » du projet d’astrophysique CosmoGrid ont été diffusées sur 15 écrans LCD haute définition. Ce test a été réalisé grâce à la technologie de commutation 40 GbE basée sur les standards d’Extreme Networks. « Cette liaison n’aurait pas pu être établie sans les commutateurs Summit X650 d’Extreme », confirme le Dr Paul Wielinga, responsable du Département réseau haute performance de Sara. « Pouvoir visionner à distance de gros volumes de données distribuées est l’un des principaux défis qu’il nous faut relever à l’heure des pétaoctets. Ce test a permis de démontrer la fiabilité du transfert de données stratégiques sur de longues distances à un débit de 40 gigabits en utilisant des commutateurs Ethernet standardisés, ceci à un prix très raisonnable. »

Les liaisons 40 Gbe haut débit étaient commutées au moyen des nouveaux modules VIM33 40G4X 40 Gigabit Ethernet d’Extreme Networks du commutateur Summit X650. Elles ont été établies par connexion lambda à 40 Gbit/s sur fibre optique entre les plates-formes NetherLight d’Amsterdam et CERNLight de Genève. Côté CERN, un autre commutateur Summit X650 assurait la transmission des données à huit serveurs, puis aux 15 écrans haute-résolution composant le mur vidéo. Chaque serveur générait deux flux de données à 2 Gbit/s à destination de 2 écrans, permettant d’obtenir un rendu à 22 images/sec et d’une résolution totale de 12 800 x 4 800 pixels. Pour les besoins du test, des données cosmologiques générées aux Pays-Bas par cinq supercalculateurs internationaux, dont le néerlandais Huygens de Sara Computing and Networking Services, ont été transformées en données visuelles au moyen d’un cluster de rendu graphique composé de 16 serveurs. Ces données sont actuellement stockées au centre Sara d’Amsterdam, sur 32 disques durs SSD rattachés à un même serveur de streaming.

« La connectivité 40 GbE depuis le cœur du réseau jusqu’aux commutateurs Top-of-Rack permettra de garantir les performances et la capacité de montée en charge attendues du réseau, dans un contexte où la densité de serveurs ne cesse d’augmenter dans les datacenters, du fait des initiatives de consolidation et de virtualisation. La connectivité 40 GbE au niveau des commutateurs Top-of-Rack est d’autant plus indispensable que les serveurs tendent désormais à supporter le 10 GbE en natif. Notre offre 40 GbE va permettre à nos clients de faire évoluer leur datacenter de manière économique pour accompagner la migration du réseau physique vers un réseau virtuel, puis vers le cloud », conclut Jan Hof. 

Un logiciel pour uniformiser les documents de chantier

Au début des années 2000, Icade et le groupe Klépierre  SEGECE  décident de lancer le projet de construction du centre commercial « Le Millénaire » à Aubervilliers. A quelques centaines de mètres du périphérique parisien, ce quartier commercial se destine à être une aire d’attractivité extrêmement dense : 130 boutiques, loisirs et services sur 56.000 m², 12.000 m² d’espaces verts et 20.000 m² de bureaux. Mené par Bouygues Bâtiment Ile-de-France, le chantier qui sera le plus grand centre commercial en construction en France, se déploie sur une superficie de 6,2 ha, soit l’équivalent de 8 terrains de football. Il a mobilisé à ce jour près de 80 entreprises tous corps d’état et a nécessité 8 grues, 5.000 tonnes d’acier et 50.000 m² de béton.

« Le Millénaire », qui ouvrira ses portes au public au mois d’avril 2011, sera une construction pilote exemplaire en termes de développement durable puisqu’il sera le premier centre commercial de cette taille à bénéficier des certifications HQE (Haute Qualité Environnementale) et BREEAM (BRE Environmental Assessment Method ou  méthode d’évaluation de la performance environnementale des bâtiments développée par Building Research Establishment) qui est le standard de référence en termes de construction durable et est devenu la méthode d’évaluation utilisée de facto pour décrire la performance environnementale d’un bâtiment.
 
Véritablement lancée en juin 2008, la construction d’un tel édifice demandait un traitement minutieux de l’avancée des travaux. Icade, société immobilière, donneur d’ordre du projet, a donc demandé à Bouygues Bâtiment Ile-de-France, de se conformer à une charte graphique bien précise. En effet, pour des raisons de gestion future des bâtiments, les sociétés immobilières doivent s’assurer, dès le début d’un projet, que les fichiers créés et utilisés revêtent une forme particulière afin d’être ensuite exploitables dans le cadre de la gestion de patrimoine (gestion des surfaces pour les contrats de nettoyage, de la répartition des charges collectives et particulières, de la gestion des contrats de maintenance…) mais aussi qu’ils permettent également de connaître les volumes des lots attribués ou, par exemple, la visualisation simple des plans globaux, lot par lot…

Une visualisation simple des plans globaux

Afin d’être en totale conformité avec la charte graphique souhaitée par Icade, Bouygues a décidé d’utiliser une solution mise en place par la société Iplus Concept : Project Managment. Le but étant de fournir à Icade un historique du chantier complet et en adéquation avec les normes de la société immobilière, à tout instant de la construction.
 
Iplus Concept, challenger français de l’éditeur américain Autodesk avec une gamme de logiciels diversifiés pour la CAO, l’Architecture, l’Electricité ou l’Ingénierie, a proposé à Bouygues Bâtiment Ile-de-France une solution de création, de gestion et de vérification des documents en conformité avec la charte graphique d’Icade (il s’agit d’un menu supplémentaire ajouté au logiciel de CAO « Intelliplus »). L’outil mis à disposition permet de contrôler la production de documents (plans, PDF, fichers Words, Excels et autres contenus numériques) conformes aux exigences d’Icade.

Iplus Concept a fourni une assistance aux différents partenaires, sous-traitants et bureaux d’études afin de les former à l’usage de l’outil Project Managment  ainsi que sur la nécessité du respect d’une charte graphique. La société leur indique également, lorsque c’est le cas, les raisons pour lesquelles les plans ne respectent pas les normes afin qu’ils soient modifiés en conséquence. Ce qui évitera à  Bouygues Bâtiment Ile-de-France tout risque de non-conformité découverte à la fin du projet.
 

Une grue haute précision

Clydeport exploite les principaux ports de la côte ouest de l’Écosse, dont Hunterston,  situé sur l’estuaire de la Clyde, dans le North Ayrshire, qui offre un site d’envergure internationale pour le transit du charbon en vrac. Ce port bénéficie de plusieurs atouts naturels : il possède l’un des canaux d’accès à la mer les plus profonds du Nord de l’Europe, il n’a pas besoin d’être dragué tous les ans et il peut accueillir les bateaux de toutes jauges jusqu’à 350.000 tonnes.

Anciennement dénommées Hunterston Ore Terminal, ces installations ont été bâties sur des terrains gagnés sur la mer à la fin des années 1970 par l’ex-British Steel Corporation, afin de décharger le minerai de fer et le charbon qui servaient de matières premières à l’aciérie de Ravenscraig (Motherwell). Cette dernière a fermé ses portes en 1992 et le terminal a été racheté par Clydeport, exploitant portuaire établi à Glasgow, pour la manutention du charbon.

La grue-portique à longue course d’Hunterston est l’une des plus imposantes de Grande-Bretagne mais, à plus de 30 ans d’âge, son système de pilotage commençait à manifester des signes de fatigue… Son fonctionnement, basé sur des freins mécaniques et des freins inverseurs de poussée, pouvait mettre les nerfs à rude épreuve par mauvais temps, souvent le lot de la région. De plus, les incidents et l’usure mécanique devenaient un problème récurrent, les roues ayant tendance à perdre de leur rotondité et les chemins de roulement à s’user. Or, les ports modernes exigent une efficacité absolue et l’indemnité de surestarie, c’est-à-dire la compensation payée à l’armateur d’un navire qui a été retenu au port au-delà du temps convenu par contrat,  peut atteindre des sommes considérables.

Pour redonner à la grue une vigueur nouvelle, Clydeport a décidé de moderniser complètement son système de pilotage et lancé pour cela un appel d’offres. Parmi les critères essentiels, il fallait, d’une part, pouvoir intégrer l’actuel système de pilotage embarqué Ward Leonard et, d’autre part, fournir un freinage à récupération d’énergie, via un module AFE (Active Front End) raccordé à l’alimentation secteur du quai. Dans le premier cas, il s’agissait de permettre au personnel technique de Clydeport de continuer à utiliser un système qui lui était familier et, dans le second, d’améliorer la maîtrise et le rendement énergétique du dispositif.

Le freinage régénératif autorise un maniement très ciblé, même par vents forts

L’appel d’offres a été remporté par T&M Machine Tools, un intégrateur de systèmes basé à Stockport. Tom Yates, détenteur de la société, a mis au point un système de commande bâti autour des variateurs Parker SSD AC890, dotés de la technologie AFE pour le freinage régénératif. « Les variateurs à courant continu dissipent normalement l’énergie du freinage à l’aide de résistances de freinage dynamique » commente Ton Yates. « Mais il est possible d’optimiser considérablement le fonctionnement des grues avec un module AFE. Dans ce cas, les variateurs sont branchés sur un bus commun à courant continu où s’alimente l’ensemble du système, le module AFE offrant un moyen propre et efficace de récupérer l’énergie de freinage du variateur et de la réinjecter directement dans le circuit électrique, en fonction des besoins ».

Chacun des pieds de la grue possède quatre moteurs électriques de 37 kW. La solution de pilotage développée par Tom Yates consiste à les répartir en 8 paires, toutes placées sous le contrôle d’un variateur AC890. 
Le panneau de commande lui-même a été construit pour Tom Yates par le département Systèmes de Parker SSD à Littlehampton, qui a également apporté un support technique complet à l’ensemble du projet de modernisation. Pour sa part, Tom Yates a collaboré étroitement avec Parker SSD pour mettre au point le système de freinage régénératif AFE, la récupération intégrale d’énergie permettant aux conducteurs de cette énorme grue de contrôler précisément par levier son déplacement transversal.  « Le freinage régénératif AFE permet de dissiper très rapidement une grande quantité d’énergie, ce qui autorise un maniement très ciblé, même par vents forts »  affirme Tom Yates.

La grue est capable de soulever jusqu’à 36 tonnes de charbon d’un coup, et d’élever sa charge à 30 mètres ou plus au-dessus du navire pour la déverser dans la trémie à quai. Celle-ci alimente à son tour un tapis roulant qui achemine le charbon hors du quai.  Dans ce métier où la vitesse est un facteur critique pour éviter la surestarie, le déchargement des navires du terminal d’Hunterston s’effectue à une cadence de plus de 2.000 t/h, ce qui garantit aux transporteurs des rotations rapides.  « Les conducteurs trouvent qu’ainsi rénovée, la grue est beaucoup facile à piloter et donc beaucoup plus rassurante, ce qui accélère nettement les déchargements. Ils peuvent ainsi la manœuvrer plus vite, certains de maîtriser exactement son mouvement transversal. Même par vents forts, la grue est capable d’acrobaties électroniques » confie T. Yates. « De plus, la nette diminution de l’usure mécanique simplifie les besoins d’entretien et éloigne les risques de pénalités. »

Preuve concluante du succès du projet, T&M Machine Tools vient de décrocher le contrat de modernisation d’une seconde grue.
 

Nouveau centre d’essais de résistance au feu des structures

Seul centre technique industriel en Europe dédié au secteur du béton, le CERIB (Centre d’Études et de Recherches de l’Industrie du Béton) vient d’inaugurer sur son site à Épernon (Eure-et-Loir) Promethee, un centre d’essais de résistance au feu des structures en cas d’incendie. Ce dispositif unique permet de maîtriser et de quantifier l’impact des différents efforts horizontaux (compression et traction), verticaux et de torsion appliqués à un élément de structure donné, et d’apprécier, dans cette configuration, son comportement et sa stabilité au feu. De plus, il est le seul à être capable de reproduire fidèlement les diverses interactions qui s’appliquent à l’ouvrage, notamment celles avec d’autres parties d’ouvrages non soumises à l’incendie, grâce au chargement multi-directionnel du corps d’épreuve.

Des essais à très grande échelle

Réalisés à échelle 1, les essais portent sur tout corps d’ouvrage : murs, chargés ou non, planchers, assemblages (poutre- poutre sur poteau, panne-panne sur poutre…), voussoirs de tunnel. Placés au sein d’une structure mécanique supportant l’ensemble des vérins hydrauliques de chargement, les corps d’épreuve sont soumis à des températures pouvant monter jusqu’à 1.320 °C selon plusieurs scenarii d’incendie (courbe ISO 834, courbe hydrocarbure, courbe hydrocarbure majorée), grâce aux 18 brûleurs développant une puissance totale de 16 MW. Suivant la nature de l’essai à réaliser et le type de corps d’épreuve, vérins et feu sont associés selon différentes configurations. Sur le plan horizontal, trois vérins de 120 t (compression) ou 60 t (traction) peuvent être combinés à 6 vérins transversaux (compression seulement) de 50 tonnes. Pour le chargement vertical, plusieurs portiques permettent de mettre en place une vingtaine de vérins allant de 5 à 300 tonnes.

Le pilotage de l’installation est défini en fonction des déformations du corps d’épreuve et de la rigidité des cellules adjacentes à celle soumise à l’incendie, rigidité définie par simulation numérique avant l’essai. Les efforts portés par les vérins sont donc calculés en temps réel, pendant l’essai, grâce à un calculateur prenant en compte les déformations instantanées du corps d’épreuve et la matrice de rigidité.

Les corps d’épreuve sont équipés de capteurs de déplacement (capteurs à fils) disposés sur une structure aluminium de référence. Ils permettent de mesurer la flèche du corps d’épreuve, et, couplés à des inclinomètres, assurent le recalcul des déplacements du corps d’épreuve. Le comportement du corps d’épreuve est enregistré grâce à une caméra à lentille orientable (90°) placée au bout d’un endoscope refroidi par un système eau/air.

Un atout de taille pour les industriels

Promethee permet un couplage fort entre la modélisation numérique et l’essai, en autorisant la prise en compte de l’impact de la rigidité des parties d’ouvrages froides non soumises à l’incendie sur les parties soumises au feu. Il permet de valider des modèles développés pour évaluer la tenue au feu des structures, notamment la validation des modèles d’adhérence acier/béton et la prise en compte du confinement global du corps d’épreuve, et d’évaluer des solutions constructives en situation réelle. Par ailleurs, la spécificité de certains essais, comme ceux sur les voussoirs, permet de développer aujourd’hui des collaborations avec de grandes entreprises du BTP, très désireuses d’analyser les comportements en cas d’incendie dans les tunnels.

Un outil de pointe au service de la communauté scientifique et technique

La recherche autour du feu a jusqu’à présent essentiellement porté sur une observation élément par élément. La recherche va maintenant pouvoir se concentrer sur l’évaluation de la structure dans son ensemble, prenant en compte les interactions entre les différentes cellules, soumises ou non à l’incendie. Promethee va fournir à la communauté scientifique internationale des données d’évaluation explicites des forces qui s’appliquent à l’intérieur de la construction. En testant les structures de manière répétitive et quantifiée, le laboratoire Promethee va au-delà de la seule modélisation ou des essais uniques tels que pratiqués par exemple à Cardington (Angleterre).

Une contribution forte à la normalisation européenne

Utilisé dans un contexte d’études pré-normatives, Promethee est légitime à orienter les travaux des Eurocodes. Sa compétence unique en Europe lui permet de répondre pleinement aux orientations données par le JRC (Joint Research Centre, rattaché à la Commission européenne), en particulier celles concernant le comportement des structures assemblées en conditions réelles d’incendie, incluant la phase de refroidissement, la modélisation d’évaluation des contraintes dans un tunnel en feu, ou encore les relations entre le comportement sous conditions de feu normalisé et sous conditions réelles d’incendie

Un laboratoire dédié à l’Ingénierie de la Sécurité Incendie

L’ingénierie de la sécurité incendie constitue une nouvelle philosophie de dimensionnement des structures qui est basée sur une approche à objectifs. Il ne s’agit plus d’appliquer des exigences forfaitaires sur des éléments de structures mais de mettre en œuvre des moyens de prévention et de protection adaptés à des risques incendie identifiés et répondant à un objectif fixé. Il s’agit donc d’une évaluation de la stabilité globale de la structure et non pas d’éléments isolés. Ces approches influent bien sûr sur les pratiques des essais de résistance au feu qui suivent des conditions préétablies d’incendie. Dans ce contexte, Promethee répond parfaitement aux principales recommandations de ce groupe de travail : il permet dévaluer les forces de réactions aux appuis et ses dimensions autorisent de tester des corps d’épreuve de 6 m de long et 4 m de haut (valeurs minimales).
 

Système de surveillance et de contrôle ferroviaire : l’heure du test

Le système européen de contrôle et de surveillance du trafic ferroviaire ou ERTMS (European Rail Traffic Management System) est un projet industriel développé par un certain nombre de grands équipementiers et constructeurs en étroite collaboration avec l’Union européenne, les actionnaires des réseaux ferrés et de l’industrie du GSM-R. Il a pour objectif l’harmonisation de la signalisation ferroviaire en Europe en remplaçant les systèmes propres à chaque pays par un système unique, ce qui permettra d’accroître la compétitivité du réseau ferré européen.

Un système ERTMS niveau 2 est constitué de deux briques de base :

  • le système européen de contrôle des trains TCS (European Train Control System) : il s’agit d’un système de gestion automatique du trafic ferroviaire, ou système ATP (Automatic Train Protection), destiné à remplacer les ATP nationaux existants. Il est spécifié pour différents niveaux qui dépendent de la manière dont les voies sont équipées et dont l’information est transmise au train ;
  • le GSM-R (GSM-Railways) qui est un standard de communication sans fil basé sur le GSM mais utilisant des fréquences spécifiquement réservées aux applications ferroviaires ainsi que certaines fonctions spécifiques ou avancées.

A Adalsbanan, en Suède, Banverket et Bombardier ont équipé une portion de la voie ferrée avec un système ERTMS niveau 2. Il s’agit de la première installation d’un système de niveau 2 capable de gérer des équipements tels ceux des passages à niveau. Dans un tel système, le conducteur de la motrice peut recevoir des informations relatives à la voie ferrée par le biais du réseau GSM-R. L’information reçue par le conducteur provient du centre de contrôle de Banverket par le biais d’un réseau IP connecté aux équipements de surveillance disséminés le long de la voie ferrée.

Ces équipements sont reliés au réseau IP de Banverket à l’aide des câbles en cuivre à paires torsadées du réseau existant et du prolongateur Ethernet DDW-225 de Westermo qui a contribué grandement à réduire le coût de l’installation en évitant l’utilisation de la fibre optique. Ce dernier utilise une technologie SHDSL permettant de véhiculer des données à un débit maximum de 5,7 Mbit/s pour les distances les plus courtes. Pour des débits inférieurs, la portée de la liaison peut atteindre 15 km. Toutefois, dans le cas de l’installation suédoise, la résilience et la fiabilité du réseau sont privilégiées par rapport à la bande passante. Le meilleur compromis entre la portée et le rapport signal sur bruit a été obtenu à 2,3 Mbit/s sur des distances comprises entre 2 et 7 km.

Les exigences élevées en termes de fiabilité plaident ici pour une solution de réseaux redondants. C’est la raison pour laquelle la National Rail Administration a créé deux réseaux individuels connectés afin de dupliquer l’information issue des équipements de contrôle. Ces réseaux sont complètement séparés et connectés au backbone du réseau principal par des routeurs distincts. Ainsi, même si un réseau est défaillant, le plein accès à la liaison est conservé grâce au réseau redondant. Qui plus est, le DDW-225 offre un certain nombre de caractéristiques permettant un contrôle optimal. La compatibilité avec les protocoles VLAN, QoS, SNMP, SSH, ainsi que des diagnostics étendus comptaient parmi les exigences de la Rail Administration.

La virtualisation bouleverse le marché des logiciels de CAO

L’éditeur de logiciels de CAO / DAO Iplus Concept donne raison à la société Gartner qui plaçait la virtualisation au cœur des technologies stratégiques pour 2010  et prévoyait une révolution de  l’industrie du logiciel comparable à la technologie Internet pour les réseaux. En effet, il y a quelques semaines, il proposait une version à la demande, en  mode connecté et/ou déconnecté, de son logiciel IntelliPlus OnDemand afin d’offrir à ses utilisateurs, réguliers ou ponctuels, une optimisation maximale de l’usage et de la gestion des licences de CAO IntelliPlus. Aujourd’hui, via son portail dwgondemand.com, il propose à des utilisateurs potentiels un test, pendant 10 jours, sans engagement, de ce premier logiciel de CAO en mode virtuel. La solution qui est intégralement utilisable en ligne et hors ligne, permet d’accéder en un instant au logiciel, sans téléchargement, en utilisant pour la première connexion, uniquement un identifiant et un mot de passe (les fois suivantes un icône sur le bureau permet d’y accéder).

Premier éditeur de logiciels de CAO au monde à proposer une telle solution, en faisant appel à une technologie innovante, Iplus Concept permet ainsi aux utilisateurs de se faire une idée plus précise du logiciel en version OnDemand et des avantages de la virtualisation de la CAO : pas  engagement (l’abonnement allant de 1 mois à 2 ans), évolution en fonctions de l’évolution du nombre d’utilisateurs, logiciel toujours à jour, sans avoir à payer d’abonnement ou de mise à jour, disponibilité partout, à tout moment, depuis n’importe quel PC, performance et vitesse d’un ordinateur surpuissant même avec un vieil ordinateur…

Totalement compatible avec le format DWG qu’il utilise comme format natif, IntelliPlus est un logiciel de conception assistée par ordinateur 2D et 3D qui est présenté comme une alternative à AutoCAD d’Autodesk, avec une interface et des habitudes de travail très proches mais à des prix extrêmement abordables. En effet, son moteur est la propriété d’IntelliCAD Technology Consortium, une organisation indépendante de programmateurs de logiciel qui développent la technologie d’IntelliCAD, les membres commerciaux du consortium ayant accès au code source, à la documentation et  à l’appui des concepteurs. Chacun d’eux utilise ainsi les avancées des autres pour faire évoluer le moteur du logiciel.

 Iplus Concept se positionne comme le challenger français de l’éditeur américain Autodesk. Avec une gamme de logiciels diversifiés pour la CAO, l’architecture, l’électricité ou l’ingénierie, il semble suivre une voie totalement différente de celle de son concurrent qui propose aux utilisateurs d’AutoCAD un programme d’abonnement de 1 à 3 ans  (Autodesk Subscription) pour disposer, entre autres, des dernières versions des outils de conception, de didacticiels en ligne et d’une assistance Web.

Par Marc Chabreuil

En savoir plus : ici et sur LogicielCAO.fr


Construire BBC en acier, c’est possible

La nouvelle agence de Soprema Entreprises, à Poitiers, construite en charpente métallique dans une démarche de certification « NF Bâtiments Tertiaires associée à une Démarche HQE », fera suite à un chantier réalisé à Brest par les équipes Soprema Entreprises. Il s’agissait du premier Bâtiment Basse Consommation d’énergie (BBC) en charpente métallique de type industriel en France. Il a été réalisé dans le cadre du projet de recherche Prebat-Acieco coordonné par le CTICM, avec l’aide financière de l’Ademe et en partenariat avec le CSTB, le CETE de Lyon et le LEPTIAB de La Rochelle.

Sur un terrain de 8.000 m2 de la ZAE Saint-Eloi à Poitiers, cette nouvelle construction qui offrira 783 m2 de bureaux et 634 m2 d’entrepôts, sera réalisée par Soprema Entreprises qui s’est associé sur ce projet à l’architecte Gérard Humeau, à Qualiconsult (assistance maître d’ouvrage) et au bureau d’études thermiques Enertek. Les travaux  qui ont démarré en septembre, doivent s’achever en avril 2011.

La construction métallique permet de réaliser des parois d’épaisseur raisonnable (300 mm au total) et fortement isolées (U=0,160 W/m2 en toiture et U=0,20 W/m2 en façade). Toutefois, le traitement de l’étanchéité à l’air dans la construction de ce type de bâtiments est une priorité pour atteindre un niveau thermiquement très performant.

La principale innovation présentée à travers ce projet est le traitement de la perméabilité à l’air de l’enveloppe par une barrière pare-air au nu extérieur de la paroi. Ce procédé développé par Soprema Entreprises qui a fait l’objet d’un brevet,  permet d’améliorer la qualité de l’enveloppe en atteignant une perméabilité à l’air de 0,3 m3/m2/h, soit 10 fois inférieure aux constructions respectant les niveaux de performance donnés par la RT 2005. Ce niveau de perméabilité est indispensable pour obtenir un Bâtiment Basse Consommation d’énergie (BBC) sans apport d’énergie renouvelable.

Cette technique fait appel à des modes constructifs de type industriel fiables et éprouvés :

  • en façade, le traitement de l’étanchéité à l’air par l’extérieur réalisé à l’aide du Sopratec III de Soprema évite tout percement de cette barrière par les différents lots techniques et assure la continuité au droit des refends et des dalles intermédiaires. Une fois mis en œuvre, le bâtiment est « hors d’eau-hors d’air » et l’habillage des façades peut être réalisé en toute fin de chantier, indépendamment des travaux intérieurs ;
  • en terme d’isolation, la solution Rockbardage Nu Energy en 150 mm d’épaisseur de Rockwool, permet une réduction significative des ponts thermiques ;
  • quant aux point singuliers, tels les acrotères, raccordements aux longrines ou aux menuiseries, ils sont parfaitement maîtrisés à toutes les étapes du projet : conception, plans et exécution.

Ce procédé constructif permet donc de conserver les qualités intrinsèques des ouvrages métalliques, c’est-à-dire une solution économique, la rapidité d’exécution, la minimisation des nuisances en cours de chantier, la souplesse de mise en œuvre ou de démontage. Thermiquement très performant, ce procédé offre également aux maîtres d’ouvrage une grande souplesse architecturale dans les volumes et le choix du parement de façades. D’ailleurs, sur le nouveau site de Poitiers, le bâtiment présentera plusieurs volumes qui se différencieront par les hauteurs, les aspects et les couleurs. Des bardages et vêtures d’aspect et de couleurs distincts habilleront cet ouvrage.

Dans un objectif d’optimisation énergétique, la nouvelle construction à énergie positive de Poitiers qui sera une vitrine du savoir-faire de l’entreprise et de ses solutions en terme de protection de l’environnement, présentera en avant- première le nouveau procédé de façades photovoltaïques développé par Soprema Entreprises. Les façades bien orientées seront mises à profit pour produire de l’énergie. Les panneaux photovoltaïques non cadrés seront fixés à une structure en aluminium rapportée sur les plateaux de bardage.

Pour les toitures, la priorité a été donnée aux terrasses plates qui représentent une solution constructive parfaitement adaptée à la réalisation d’un bâtiment Haute Qualité Environnementale et affichent un grand nombre d’atouts : grande performance thermique et acoustique, durée de vie, fonctionnalités multiples, intérêt économique, capacité de rétention d’eau aussi bien temporaire que définitive.

La maîtrise de l’énergie étant au cœur du projet, une étanchéité bitumineuse photovoltaïque sera installée sur la toiture de l’entrepôt (10 kWc de cellules souples amorphes Soprasolar Duo et 37 kWc de panneaux solaires rigides Soprasolar Fix).

La toiture-terrasse inaccessible des bureaux recevra une étanchéité végétalisée de type sédum et la terrasse accessible sera aménagée, mêlant végétalisation, panneaux photovoltaïques et platelage en lames de bois.

Nouvelle menace informatique pour les entreprises ?

Les AET (Advanced Evasion Techniques) sont l’équivalent d’un passe-partout permettant aux cybercriminels d’ouvrir les portes de tout système vulnérable comme un ERP ou un CRM. Elles sont en effet capables de contourner les systèmes de sécurité réseau sans laisser aucune trace.  Pour les entreprises, cela signifie qu’elles risquent de perdre des données confidentielles. Par ailleurs, on peut tout à fait imaginer que des cyber-terroristes s’appuient sur ces AET afin de mener des activités illégales pouvant avoir des graves conséquences. De nombreuses techniques d’évasion « classiques » sont connues mais Stonesoft, fournisseur innovant de solutions de sécurité réseau intégrées et de continuité de l’activité, annonce avoir découvert une nouvelle forme d’AET qui menace très sérieusement les systèmes de sécurité du monde entier. L’information a été remontée au CERT et aux ICSA Labs qui ont également validé son sérieux et son fondement.

La découverte a eu lieu dans les laboratoires de recherche de Stonesoft basés à Helsinki. Les experts ont ensuite envoyé des échantillons et remonté l’information à l’organisme de sécurité nationale finlandais (CERT)  ainsi qu’aux laboratoires ICSA (division indépendante de Verizon Business) qui testent et délivrent des certifications aux solutions de sécurité et aux équipements connectés au réseau. Le CERT-Fi, chargé  coordonner au niveau mondial les parades aux vulnérabilités identifiées, en collaboration avec les éditeurs de sécurité réseau,  a publié, début octobre quelques informations sur ces techniques avancées d’évasion et les met à  jour régulièrement.

Les vulnérabilités identifiées par Stonesoft touchent un grand nombre de technologie d’inspection du contenu. Pour contrer ces vulnérabilités, une collaboration permanente du CERT-Fi, de Stonesoft et des autres éditeurs de sécurité réseau est absolument essentielles. « Le CERT-Fi s’efforce de faciliter cette coopération » explique Jussi Eronen, à la tête du département Coordination sur les Vulnérabilités.

Juha Kivikoski, COO chez Stonesoft explique : «  Beaucoup de facteurs nous poussent à croire que n’avons  découvert que la partie émergée  de l’iceberg. La nature dynamique et indétectable  de ces techniques avancées d’évasions peut potentiellement bouleverser l’ensemble du paysage de la sécurité réseau. Le marché entre désormais dans une course sans fin contre ce nouveau type de menaces avancées et il semblerait que seules les solutions dynamiques pourront tirer leur épingle du jeu. »

« Stonesoft a découvert de nouvelles techniques de contournement des systèmes de sécurité réseau. Les laboratoires ICSA ont validé les recherches et la découverte de Stonesoft. Par ailleurs, nous pensons que ces techniques avancées d’évasion peuvent avoir des conséquences pour les entreprises touchées, comme entre autres la perte de données stratégiques et confidentielles »  déclare Jack Walsh, directeur des programmes IPS (Système de Prévention des Intrusions) chez ICSA Labs.

C’est à l’occasion du test de leurs propres solutions de sécurité réseau StoneGate face à des nouvelles attaques élaborées que les experts de Stonesoft ont découvert cette nouvelle catégorie de menaces. Les tests en conditions réelles et les données recueillies lors de l’expérience démontrent que la plupart des solutions de sécurité réseau n’ont pas su détecter ces AET et n’ont, par conséquent, pas pu les bloquer.

Stonesoft soutient l’idée que des pirates du monde entier sont peut-être déjà en train d’exploiter ces AET pour lancer des attaques élaborées et très ciblées.  Seuls quelques produits sont à même de fournir une protection contre ce phénomène, les entreprises doivent donc mettre en place un moyen de défense très rapidement.

Pour se protéger de ces techniques d’évasion dynamiques et en constante évolution, il est nécessaire de s’équiper de systèmes logiciels de sécurité capables de se mettre à jour à distance et d’être administrés de façon centralisée. Ces systèmes possèdent un avantage indéniable en termes de protection contre des menaces aussi dynamiques que les AET.
Cependant, la grande majorité des équipements de sécurité réseau dans le monde sont des solutions matérielles, pour lesquelles il est difficile voire impossible de se mettre à jour au même rythme que ces techniques d’évasion, qui mutent en permanence.  

Vers la simplification des interfaces graphiques

Australie : c’est ce qui est marqué sur le bon d’expédition d’une centrifugeuse de décantation d’Alpha Laval qui vient juste d’être placée dans une grande caisse en bois. Une fois arrivé et installé chez le client australien, le décanteur sera manipulé depuis un écran tactile 15 pouces de Beijer Electronics. Dans l´usine de production de Soborg, au Danemark, qui exporte beaucoup, Peter Blomberg, directeur automatismes depuis 3 ans chez Alfa Laval, explique que la fierté de la société est de produire des machines fiables, d´un bon rapport qualité-prix, d´une longue durée de vie mais aussi simples d’emploi : « Notre but est de rendre nos machines aussi intuitives à utiliser que les ordinateurs personnels et les téléphones portables actuels. » Les dernières interfaces graphiques utilisateur 2Touch à onglets, créées avec l´aide de Beijer Electronis iX Developer, sont en parfait accord avec cet objectif. « L´idée est que l´ensemble des informations soit être immédiatement disponible quand on en a besoin.» précise Peter Blomberg.

En appuyant avec le doigt sur n´importe quel onglet de l´écran, l´opérateur ouvre des menus pour visualiser les données de fonctionnement, ajuster les paramètres, prendre connaissance des alertes enregistrées ou encore changer la langue du menu. Durant la manipulation, des vignettes jaunes détaillent chaque choix. Sur l´écran, les icônes de démarrage, pause et arrêt utilisent le même langage symbolique que sur un lecteur DVD de salon. Quelques clics sur l’écran suffisent pour consulter le manuel électronique décrivant la machine ou pour voir une vidéo pédagogique. Peter Blomberg est clair sur les efforts accomplis en ce domaine : « Les solutions IHM  avec des boutons poussoirs de différentes couleurs et des messages en texte crypté sur des écrans démesurés appartiennent au passé.»

L´outil de développement iX Developer est bien structuré pour la configuration et la documentation. Une expérience approfondie de l’IHM n’est pas nécessaire pour créer une application basique en environnement Windows. Cela ne nécessite en fait que quelques minutes. Les projets existants peuvent être réutilisés. En plus, Beijer Electronics propose une gamme d´icônes et de modules pré-faits et testés. Les sociétés qui, contrairement à Alfa Laval, ne veulent pas créer d´icônes personnalisées peuvent profiter de cet ensemble standard de bibliothèques de composants. Peter Blomberg, qui, parmi d’autres choses, apprécie la capacité des graphiques vectoriels à créer des images claires et nettes quelle que soit l´échelle, précise : « Un important travail a été nécessaire pour personnaliser l´interface selon notre identité visuelle.»

Installation et entretien facilité par l’IHM

En plus des graphismes et de son système ouvert, l’iX est très flexible. Peter Blomberg note que la solution IHM fonctionne avec la plupart des systèmes de commande. C´est ce qui le différencie des concurrents qui ont été évalués et avec lesquels les liens entre l´IHM et les produits PLC (Programmable Logic Controller) étaient souvent très denses. « Bien que nous utilisions actuellement des contrôleurs de chez B&R, la flexibilité est pour nous cruciale. Les clients pourraient avoir des systèmes de commande existants ou encore demander d´autres marques de PLC ou d´ordinateurs industriels. » Le support d´OPC donne une liberté totale quant au choix du protocole de communication. C´est significatif dans les cas où les produits Alfa Laval sont intégrés avec l´équipement d´autres fournisseurs dans la même ligne de process. Passer d´un protocole à un autre est possible en temps réel.

Le tableau tactile des centrifugeuses de décantation ne fait pas que faciliter le travail de l´opérateur à travers l’aperçu du process. Le changement technologique est aussi avantageux pour les techniciens Alfa Laval. Peter Blomberg précise: « Les utilisateurs finaux sont satisfaits et on obtient en même temps des services d´installation et d´entretien simplifiés.» Actuellement, les ingénieurs Alfa Laval accèdent à toutes les fonctions et données grâce au tableau d´opérateur. Il n´est plus nécessaire comme ça l´était auparavant de connecter un ordinateur portable avec un câble pour effectuer un dépannage. Mettre à jour le logiciel système d’une machine est aussi facile que de connecter une carte mémoire sur le connecteur USB du tableau. La possibilité de pouvoir surveiller et contrôler à distance la machine ou une ligne de process via un modem est une valeur ajoutée supplémentaire. Peter Blomberg résume : « Avec cette solution IHM  actuelle au design plaisant et à la touche moderne pour les années à venir, nous avons atteint notre but. » Déjà plus de cinquante modèles de la nouvelle génération de décanteurs équipés de la nouvelle interface utilisateur ont été livrés à nos clients mais elles ne sont pas les seules machines équipées avec le 2Touch : « D´autres genres de machines parmi nos trois types de produits (machines de transfert de chaleur, de séparation et de gestion de fluide) seront mis à jour conformément à la nouvelle plate forme. »