Des hôpitaux gèrent la qualité et les risques en mode SaaS

En place depuis 2010 dans le cadre de la loi HPST (Hôpital, Patients, Santé, Territoires), les Agences Régionales de Santé (ARS), supervisent, entre autres projets, la modernisation du système de santé, et notamment la relance des systèmes d’information partagés de santé et le développement de l’usage des TIC dans les différentes structures. Deux acteurs majeurs de la santé, l’AP-HM  (Assistance Publique Hôpitaux de Marseille) avec quatre hôpitaux eux-mêmes multi-sites et multi-spécialités regroupant presque 16 000 utilisateurs sur toute la région PACA, et l’AP-HP (Assistance Publique Hôpitaux de Paris) avec le CHU Bicêtre, Béclère et Paul-Brousse regroupés sur une entité mutualisée, ont suivi cette orientation en choisissant le système de gestion de la qualité et des risques en mode hébergé SaaS (Software as a Service) de la société BlueKanGo, Blue MEDI.

Praticien hospitalier de l’AP-HM assurant la coordination des vigilances et des risques, le Docteur Jacques Ragni a mis en place,  via la plateforme BlueKanGo, le recensement et l’analyse des Évènements Indésirables Graves en Santé (EIGS). Il donne un exemple de la flexibilité du SaaS :
« Blue MEDI est présenté comme un système de signalement et de suivi des évènements indésirables de type 1. Ces systèmes sont alimentés par les déclarations des professionnels. Ils permettent la concrétisation de la culture déclarative mais connaissent encore une large sous-utilisation. Pour contourner ces difficultés, Blue MEDI a déployé à l’AP-HM un algorithme particulier ».

SaaS et le développement durable

Le choix de cette solution en mode SaaS s’explique aussi par la politique de développement durable de l’AP-HP et de l’AP-HM. En effet, le SaaS réduit les ressources matérielles informatiques, optimise l’infrastructure systèmes et réseaux et, par ses applications métier 100% Web, rationalise le bilan carbone lié aux activités d’un établissement. Plusieurs bénéfices sont retirés :

  • en favorisant la communication à distance, le SaaS rend les déplacements inutiles ;
  • les logiciels étant hébergés, l’installation de serveurs dans l’établissement n’est pas rendue nécessaire, permettant ainsi une économie d’électricité (les serveurs fonctionnent 24 heures sur 365 jours et sont très consommateurs d’énergie) mais aussi de carburant (par l’absence de déplacement de technicien de maintenance) ;
  • les données et logiciels n’étant plus stockés localement, les ordinateurs personnels (PC) n’ont plus besoin d’avoir de disques durs. À l’allumage, ils ouvrent un navigateur Internet avec des liens vers les applications et les données. Ils sont ainsi peu consommateurs d’électricité et leurs batteries dépassent des autonomies de 6 heures. Le bilan énergétique est diminué de 80% et favorise de ce fait la gestion de l’énergie.

Combiner ERP et BPM : un nouveau facteur de productivité

A l’heure de la reprise des projets ERP, notamment grâce à leur développement dans les entreprises du Middle Market, force est de constater que ces derniers s’enrichissent constamment en intégrant un ensemble d’outils à valeur ajoutée permettant de décloisonner et d’optimiser le traitement de l’information. Parmi ces derniers, se distinguent notamment les outils de workflow et de BPM. C’est finalement avec la démocratisation des solutions ERP et BPM que les notions de gestion et de circulation des documents, mais également de traçabilité ont commencé à prendre du sens.

Dans un premier temps, il convient de donner une brève définition du champ d’intervention des approches ERP et BPM. Un ERP ou progiciel de gestion intégré est un logiciel qui permet de gérer l’ensemble des processus opérationnels d’une entreprise, en intégrant l’ensemble des fonctions de cette dernière comme la gestion des ressources humaines, la gestion comptable, financière, mais aussi la vente, la distribution, l’approvisionnement, la production, le commerce électronique.
 
Le BPM (Business Process Management) est une approche consistant à modéliser informatiquement les processus métiers de l’entreprise, aussi bien dans leur aspect applicatif qu’humain. L’objectif de cette démarche est d’aboutir à une meilleure vue de l’ensemble des processus métiers de l’entreprise, de leur avancement et de leurs interactions. Le BPM permet la modélisation et la gestion informatique de l’ensemble des tâches à accomplir et des différents acteurs impliqués dans la réalisation d’un processus métier. Il offre, notamment, la possibilité de décrire le circuit de validation, les tâches à accomplir entre les différents acteurs d’un processus, les délais, les modes de validation et fournit à chacun des acteurs les informations nécessaires pour la réalisation de ses tâches affectées.

Combiner BPM et ERP

En raison des évolutions technologiques et comportementales majoritairement liées à la multiplication des échanges dématérialisés et de l’usage massif des systèmes de gestion, les entreprises cherchent aujourd’hui à s’appuyer sur des infrastructures combinant gestion des processus métier (BPM) et ERP.

Véritable enjeu de productivité pour les entreprises, l’intégration de ces systèmes leur permettra d’optimiser leurs processus de gestion, tout en connaissant le statut d’avancement de ces derniers (en validation, traité…). Les processus de gestion deviennent totalement dynamiques. BPM et ERP sont donc complémentaires dans les faits, mais souvent encore déployés indépendamment. On  constate néanmoins différentes initiatives qui tendent à donner plus de sens à la gestion de document.
 
Cette évolution a également été portée par différents secteurs d’activité, notamment les grands groupes industriels, les directions de production et les directions achats qui, de par la nature de leurs activités et leur organisation, recherchent constamment à améliorer leur processus de travail et à le structurer (gestion des autorisations, circuits d’approbation…).
 
Séduisante , cette unification de l’ERP et du BPM est pour autant un chantier complexe à mettre en œuvre et était historiquement  destinée aux grands comptes. Pour garantir la pertinence d’un déploiement de ce type, il est important de bien préparer en amont son projet et de l’aborder par le prisme fonctionnel et technologique. Véritable révolution sur le marché, l’approche de gestion unifiée, prônée par les DSI, devrait donc rapidement se démocratiser et passer d’un stade de projet à une réalité opérationnelle.
 
Il reste néanmoins à faire évoluer les mentalités, notamment celle des fournisseurs, et associer leur savoir-faire en amont du processus de développement afin de proposer des offres cohérentes et intégrées. Portées par la croissance des demandes émises sur le marché, on constate donc que nombre de plates-formes tendent désormais à réunir l’approche ERP et BPM. A n’en pas douter, cela devrait s’intensifier à court terme et devenir un pré requis dans les demandes des DSI.

Pi

Max Cohen est un jeune mathématicien surdoué qui pense comme Galilée que « la nature est un livre écrit en langage mathématique ». Il cherche partout des séquences prévisibles de chiffres, notamment dans l’analyse des valeurs de la Bourse. Vivant seul dans son appartement, il analyse la suite des décimales du nombre pi. Pour ce faire, il utilise un ordinateur qu’il a lui-même fabriqué et qui occupe la plus grande partie de son appartement.

Plusieurs personnes s’intéressent de près à ses recherches : son ancien directeur de thèse (ayant, lui, abandonné l’idée de trouver une séquence parmi les décimales de pi), une femme de Wall Street ayant accès à un matériel informatique très performant et un groupe de Juifs qui pensent que la Torah, lorsqu’on la représente avec des nombres à la place des lettres, contient le vrai nom de Dieu.

Réalisateur : Darren Aronofsky

Acteur :Sean Gulette

Date de sortie : 1998

 

Auteur : C.C.

Benchmarking : ajouter de l’intelligence à l’intelligence

Le benchmarking est le nouveau mot à la mode. Tout le monde en parle. Tout le monde pense en faire mais sait-on vraiment de quoi on parle ? Le benchmarking est certainement la meilleure démarche qui permette à une organisation d’apprendre de la performance des autres et de la sienne en les comparant tant du point de vue des approches managériales que des résultats. En effet, apprendre de ses réussites et de ses performances, et de celles des autres, est aussi important, sinon plus, que d’apprendre par apprentissage à partir de problèmes et d’échecs.

Réalisée auprès de 1 000 personnes appartenant à 70 pays différents, une étude de Bain & Compagny sur les tendances et les outils de management place le benchmarking devant la planification stratégique. 76% des répondants affirment d’ailleurs l’utiliser. Pourtant, en France, le benchmarking est encore très peu pratiqué. « J’enseigne le benchmarking depuis plusieurs années en troisième année de cycle universitaire. A chaque nouvelle promotion, à l’occasion de laquelle les étudiants passent une partie de leur temps en entreprise, je pose la même question : quelles sont vos entreprises qui font du benchmarking? D’année en année, j’ai les mêmes réponses : une étude comparative par-ci, une visite d’entreprise par-là…

Les vraies démarches projets de benchmarking rencontrées en dix ans de consulting se comptent sur les doigts des deux mains pour une population d’à peu près 1 000 entreprises. Quant à parler d’une démarche continue, implémentée dans un système de management, elle est encore plus rare », écrit Florent A. Meyer, auteur de l’ouvrage Pratiques de benchmarking – Créer collectivement du sens à partir du succès d’autres organisations. Consultant en systèmes de management pour les entreprises et également enseignant en excellence et performance durables, maîtrise des risques et innovation auprès de masters universitaires et d’écoles d’ingénieurs,  il est l’un des rares en France à avoir conduit une entreprise jusqu’au Prix Européen de la Qualité (EFQM), en passant par les certifications ISO 9001, OHSAS 18001, ISO 14001, SA 8000, le Prix Régional de la Qualité et le Prix Français de la Qualité.

Les raisons de cette faible utilisation du benchmarking sont multiples, selon lui : arrogance doublée d’un manque d’ouverture d’esprit de bon nombre de managers français, survalorisation de l’effort individuel durant les études, image négative de l’espionnage qui est associé à l’exercice, moralisme étriqué selon lequel « copier », c’est « voler », etc. Pourtant, « faire du benchmarking, ce n’est pas juste aller voir. Ce n’est pas copier bêtement. Ce n’est pas non plus expliquer doctement ou écouter passivement. Faire du benchmarking, c’est co-construire. Faire du benchmarking, c’est bien ajouter de l’intelligence avec l’intelligence. Existe-t-il une entreprise qui puisse se passer de cela aujourd’hui ? « , écrit Patrick Margaria, chef du projet « Progrès continu » chez EDF, dans la préface de Pratiques de benchmarking. Paradoxalement, écrit Florent A. Meyer, ce sont les meilleures organisations qui nécessiteraient le moins de s’améliorer, qui font le plus de benchmarking, alors que la myriade d’organisations médiocres qui auraient besoin de s’améliorer, en font le moins et même pas du tout. Ce sont à elles, à l’heure des remise en causes profondes des organisations et des stratégies d’entreprises, que l’ouvrage de Florent A.Meyer s’adresse.

 

 

Des films composites conducteurs issus de matériaux ligno-cellulosiques

Le bois dans la composition des matériaux conducteurs d’électricité ? Certains composés cellulosiques peuvent jouer ce rôle. Aujourd’hui à titre expérimental, des dérivés du bois sont utilisés pour réaliser des polymères qui peuvent servir pour élaborer des substrats souples, utilisables dans la fabrication de cellules photovoltaïques, de transistors organiques, d’oLED, d’antennes RFID, d’électrodes pour batteries, mais aussi en tant qu’encres conductrices dans les procédés d’impression flexographie et jet d’encre… Dans ce cadre, le projet Celloled du Centre technique du papier (CTP),  l’objet d’un partenariat avec Grenoble INP-Pagora, centre européen de formation des ingénieurs pour ces filières, appartenant au groupe Grenoble INP, s’intéresse à la valorisation des dérivés du bois avec, en perspective, une ouverture à de nouveaux marchés. Au centre de la recherche, le polypyrrole, reconnu pour ses qualités conductrices, est obtenu par polymérisation chimique du pyrrole. La polymérisation est amorcée par un oxydant, le persulfate d’ammonium. Les propriétés du polypyrrole sont améliorées par un dopant.

« Le greffage de carboxyméthylcellulose, de xylanes (poly¬mères de xyloses), de micro ou nano fibrilles de cellulose, permet d’obtenir un film conducteur qui présente de bonnes performances conductrices » affirmait, il y a quelques mois, Claudia Sasso, doctorante au CTP. Obtenu sous forme de poudres, il peut également servir pour former des films autoportants en mélangeant ces poudres à des micro-fibrilles de cellulose. Rien que des dérivés du bois ! » Aujourd’hui, Claudia Sasso a présenté les résultats de son travail de recherche dans le cadre d’une thèse de doctorat de Grenoble INP, spécialité Matériaux, Mécanique, Génie civil, Électrochimie, à Grenoble INP-Pagora, École internationale du papier, de la communication imprimée et des biomatériaux, intitulée  «Polymérisation du pyrrole avec des dérivés du bois et élaboration de films composites conducteurs issus de matériaux ligno¬-cellulosiques ».

Préparée dans le laboratoire LGP2 sous la direction de Naceur Belgacem, professeur, de Didier Chaussy, professeur, et de Davide Beneventi, chargé de recherche CNRS, de Grenoble INP-Pagora, cette thèse effectuée dans le cadre d’une bourse Cifre avec le Centre Technique du Papier, et supervisée par Elisa Zeno et Michel Petit-Conil, ingénieurs de recherche du CTP, traite de l’élaboration de composés de polypyrrole (PPy) et de dérivés de bois pour des applications dans le domaine de l’électronique organique.

Des dérivés ligno-cellulosiques ont été employés comme additifs dans un système où a eu lieu la polymérisation du pyrrole (Py). Ces agents on été additionnés grâce à leurs propriétés filmogènes pour la production de films autoportant. Ainsi, l’effet de l’ajout de carboxyméthylcellulose (CMC), de xylanes, de nano-fibrilles de cellulose (NFC) et de lignosulfonates sur les propriétés électriques et morphologiques du PPy a été évalué.

La concentration en additifs, la température et le temps de polymérisation sont les principaux paramètres considérés. Il a été montré que le xylane est le plus performant pour augmenter la conductivité de PPy. Ces particules de PPy ont été mélangées en milieu aqueux à différents agents filmogènes (CMC et NFC) afin de produire des films conducteurs autoportant. La contribution de ces liants sur les propriétés électriques, morphologiques et mécaniques des films élaborés a également été étudiée. 

Mean Green, le camion hybride le plus rapide au monde

Camion hybride, le Mean Green  a été fabriqué par une équipe de passionnés de Volvo Trucks  qui espère ainsi battre le record du monde de vitesse du kilomètre départ arrêté (le camion doit parcourir une distance de 1 000 mètres dans un sens, puis dans l’autre, la vitesse moyenne des deux courses étant la performance officielle). Boije Ovebrink, son pilote, champion de course de camions suédois, déclare : « Je pense même pouvoir dire que le Mean Green est le camion hybride le plus rapide au monde. »

Pour comprendre pourquoi Boije Ovebrink affirme sa conviction avec un tel aplomb, il faut remonter à novembre 2007. Le pilote suédois vient alors de battre son propre record du kilomètre départ arrêté établi en 2001 dans la catégorie des camions d’une cylindrée maximum de 16 litres. Il a accompli cette prouesse en atteignant une vitesse moyenne de 158,829 km/h au volant de son Volvo NH16 rouge, également connu sous le nom de « The Wild Viking ». A la suite de cet exploit, Boije Ovebrink rencontre Staffan Jufors, Président et CEO de Volvo Trucks, et lui dit : « Je souhaiterais fabriquer le camion hybride le plus rapide au monde. » Immédiatement, le projet est approuvé et la planification du projet de camion hybride est mise en place. Toutefois, une équipe de course de camions tchèque déclare alors avoir battu le record de Boije Ovebrink. Comme il est hors de question d’en rester là, au printemps suivant, Olof Johansson, ingénieur chez Volvo, se met sérieusement au travail. Il se lance dans la fabrication d’un camion capable de battre le record nouvellement établi et pouvant également recevoir le système hybride de course sur lequel portait initialement le projet. Ce camion est baptisé « Mean Green » toutefois l’équipe décide de ne pas le doter du système hybride aussitôt. « J’ai commencé à fabriquer ce camion à partir de deux demi-châssis destinés à la casse. Quant à la cabine VN américaine, elle provenait d’un véhicule d’essai de chocs mais était parfaitement intacte », explique Olof Johansson.

Une vitesse de pointe de 260 km/h

Pour établir un nouveau record, il est absolument essentiel de réduire le poids du véhicule. A titre d’exemple, l’essieu avant est usiné par des experts de l’usine de moteurs Volvo de Skövde, passant ainsi d’un poids de 100 kg à 57 kg. Les pignons de la première vitesse sont, pour leur part, supprimés de la boîte de vitesses, ce qui permet d’alléger le camion de quelques kilos supplémentaires. « J’ai entaillé les faisceaux électriques et retiré les câbles inutiles. Cela a permis de gagner près de 6 kg », explique Olof Johansson. Quant à Jonas Sandström, designer chez Volvo, il passe de nombreuses heures à travailler sur son programme de CAO afin de mettre au point la forme aérodynamique optimale. « Il est important que le flux d’air soit correctement dévié de la carrosserie. Notre camion est différent d’une Formule 1 dans la mesure où, par exemple, ses propriétés aérodynamiques lui permettent de fendre l’air plutôt que d’être plaqué à la surface de la route », explique-t-il.

A seulement quelques jours de l’épreuve fatidique, l’équipe apprend que la FIA, l’instance internationale régissant l’ensemble du sport automobile, a invalidé le résultat de sa concurrente tchèque. Il n’est pas question pour autant d’annuler la tentative de record programmée. Boije Ovebrink et l’équipe Volvo comptent bien surpasser leur record de 2007. Leur objectif est atteint le 9 juin 2010. Un nouveau record du monde du kilomètre départ arrêté est établi avec une vitesse moyenne aller-retour de 166 km/h et une vitesse de pointe de l’ordre de 260 km/h. Une fois cette prouesse réalisée, l’équipe se concentre à nouveau sur ce qui était l’objectif premier de l’ensemble du projet. « Olof Johansson s’est remis immédiatement au travail. Le jour même où l’équipe a décroché son nouveau record, il a sorti sa boîte à outils et a commencé à modifier le camion pour en faire ce qu’il est aujourd’hui, à savoir un véritable hybride. »

Un groupe propulseur hybride de 2 100 cv

Emprunté à un camion FH, le châssis a été abaissé à 750 mm, alors que sa hauteur minimale habituelle est de 850mm. Il en résulte une garde au sol de 12cm. Quant à l’emplacement des prises d’air, il  est inspiré des Formule 1 alors que les radiateurs sont montés en amont des roues arrière : l’un abaisse la température dans les échangeurs d’air de suralimentation, tandis que l’autre refroidit le moteur. Pour leur part, les pneus taille basse Goodyear qui ont été spécialement développés pour le Mean Green, offrent une adhérence maximum et ont été conçus pour pouvoir rouler à une vitesse maximum de 350 km/h.

Le camion est déjà équipé d’un moteur Volvo 16 litres classique D16G, implanté derrière la cabine pour une répartition optimale du poids du véhicule. D’une puissance initiale de 700 ch, il est associé à divers dispositifs dont un double turbocompresseur Volvo Penta, des injecteurs spéciaux (d’une capacité deux fois supérieure à ceux d’origine) et des pistons spécialement développés pour le Mean Green. Ce groupe propulseur, qui développe au final une puissance de 1900ch a été conservé. En revanche, la transmission automatique Powertronic allégée est remplacée par une version modifiée de la boîte de vitesses automatisée Volvo I-Shift afin que la transmission puisse interagir avec l’organe qui fait du Mean Green un véhicule hybride, à savoir son moteur électrique. « Ce moteur a permis d’accroître la puissance du véhicule de 200 ch et son couple de 1 100 Nm. Il en résulte une accélération extrêmement vive au démarrage et exempte du temps de réponse spécifique aux moteurs diesel. Ce camion est comparable à un bouchon de champagne, sauf au niveau du bruit. Durant les premières secondes, il émet seulement un léger sifflement jusqu’à ce que son moteur diesel, qui fonctionne avec un gazole à base de résine liquide renouvelable, commence à développer sa puissance. A ce stade, le camion a déjà atteint une vitesse de 60 km/h et je peux alors sélectionner le neuvième rapport », explique Boije Ovebrink.

Quand le Mean Green tentera-t-il de battre le record du kilomètre départ arrêté ? Au début du printemps prochain, dès que la neige aura fondu !

Des câbles au lieu de bras pour le robot DeltaBot

La conception du robot DeltaBot, basé sur une structure delta actionnée par câble, faisait, à l´origine, partie intégrante d´un projet de recherche avancé axé sur des robots à haute vitesse, conduit à l´Université de Waterloo (Canada). Une fois le projet terminé, le Dr Khajepour a reçu un nombre important de demandes de la part d’industriels pour son utilisation qui l’ont poussé à fonder la société AEMK Systems.

Les robots DeltaBot d´AEMK font appel à des câbles au lieu de bras de manipulation rigides pour réduire la force d´inertie et les coûts des équipements mécaniques. Grâce à sa conception simple et à ses possibilités d’évolution, le DeltaBot peut facilement s´intégrer dans des environnements d´automatisation existants. Il est capable de plus de 120 cycles « pick-and-place » à la minute. L´une des caractéristiques qui le distingue des autres robots delta, c´est sa grande capacité d´emport : alors que les robots delta se limitent à des charges inférieures à 3kg, le DeltaBot est capable de manipuler jusqu´à 20kg. Sa vitesse élevée, ses coûts de maintenance faibles et sa capacité d´emport importante en font une alternative industrielle très séduisante pour de nombreuses applications d´automatisation.

Des cycles de développements courts

Dès le début de la phase de recherche, le Dr Khajepour avait choisi Maple de Maplesoft comme principal outil du projet de robotique. Depuis, toutes les améliorations et optimisations ultérieures du système DeltaBot furent développées avec Maple et MapleSim. Cette solution de simulation et de modélisation physique qui, basée sur le calcul symbolique avancé, offre un aperçu de la structure du système, procure ainsi aux utilisateurs une grande souplesse pour développer rapidement des idées et en tirer des conclusions sur le comportement de l’équipement.

« La technologie Maplesoft fait désormais partie intégrante du développement continu du robot DeltaBot » confie le Dr Khajepour, Président et Fondateur d’AEMK Systems et professeur d´ingénierie mécanique à l´Université de Waterloo. « Elle nous a permis de réduire très sensiblement le temps de développement initial du robot, et nous continuons de bénéficier de cycles de développement plus courts pour améliorer nos produits ».

AEMK Systems utilise actuellement MapleSim pour la modélisation et la simulation HIL (Hardware-In-the-Loop) temps réel du système DeltaBot, dans le cadre de son programme de recherche et développement en cours. Lors de la conversion des équations du modèle en code source temps réel, les outils de génération de code dans MapleSim appliquent des étapes d´optimisation supplémentaires, ce qui améliore encore la vitesse de simulation et permet utiliser les résultats dans les systèmes temps réel. « Nous sommes en mesure de concevoir et tester les améliorations à apporter au DeltaBot. Nous pouvons être extrêmement réactifs face aux besoins  de nos clients et aux exigences de l´industrie en perpétuelle mutation ».

C’est quoi un ingénieur ?

Ingénieur… Un métier qui faisait rêver il y a quelques années encore, au même titre que médecin, pilote de ligne ou architecte. L’abondance d’information, pour ne pas dire de clichés, dont nous sommes inondés, et l’accélération du zapping d’un centre d’intérêt à l’autre, ont rendu assez floue la perception qu’a le grand public d’une profession dont les membres s’expriment très peu, trop peu, en particulier sur des sujets où ils auraient pourtant vocation à faire connaître leur vision des choses.

Alors « c’est quoi un ingénieur ? » Si on pose cette question à l’homme de la rue, il évoquera probablement un « spécialiste » ayant fait des études techniques plus poussées que la moyenne. D’autres risquent de se référer à une « caste de diplômés grande école », en mettant sans nuance dans le même sac les anciens élèves des écoles d’ingénieurs, de management ou d’administration.

La réalité est bien différente, et autrement diverse : « l’ingénieur, c’est celui qui fait que ça marche ».  De prépa en campus, il a fait l’apprentissage de l’effort, de la rigueur, de la synthèse et de la recherche de solution. Les ingénieurs constituent la colonne vertébrale de l’industrie et des services, publics ou privés, et leur contribution aux entreprises se manifeste jour après jour dans leur capacité à réfléchir, à utiliser leur bagage de connaissances pour innover et inventer, à oser entreprendre sur des sentiers encore peu fréquentés.

En fait, peu de métiers réunissent autant que celui d’ingénieur une richesse et une diversité  de facettes aussi complémentaires : maîtrise d’une compétence scientifique ou technologique, confrontation sur le terrain avec des problèmes concrets ou théoriques à résoudre en tenant compte de leurs incidences économiques et sociales, leadership des hommes et conduite des projets.

Dans ce domaine comme dans bien d’autres la France se distingue par « l’exception culturelle », avec son modèle unique de formation grande école d’ingénieurs, reconnu comme exceptionnel dans tous les sens du terme, mais sans équivalent dans le monde. Il en résulte une ambiguïté entre les diplômés pouvant prétendre légitimement au titre d’ingénieur mais se livrant à des activités complètement différentes, et ceux qui exercent professionnellement le métier d’ingénieur, qu’ils soient issus d’une grande école, de l’université ou formés sur le terrain.

Ces subtilités ne sont plus guère de mise dans la période de crise actuelle, où comme chaque pays la France est confrontée à des défis sans précédent dont l’enjeu est notre avenir politique, économique et social, et a besoin de tous ses talents. Or qu’on parle d’informatique, de télécom, d’alimentation, d’énergie, de transport, de climat ou de gestion des ressources naturelles, ces domaines ont tous en commun une dimension scientifique et technologique. Et là, les ingénieurs ont la compétence et le savoir-faire qui leur donne vocation à s’exprimer et à intervenir.

Il est grand temps pour les ingénieurs de faire savoir ce qu’ils savent faire.

Julien Roitman

Gaz de schiste : un moratoire, et après ?

En Ardèche, le potentiel d’exploitation de gaz de Schiste semble important. Mais l’exploitation de ce gaz n’a rien d’anodin. Selon le Député de l’Ardèche Pascal Terrasse, « l’objectif est d’exploiter un gaz non conventionnel dit « gaz de schiste » à partir d’une technique alliant un forage vertical puis horizontal et une fracturation de la roche. Cette dernière est réalisée grâce à l’injection de milliers de m3 d’eau à très haute pression, associés à un mélange de sables et d’additifs chimiques »
Autant dire tout de suite que l’Ardèche et ses kilomètres carrés de roches calcaires sont une bénédiction pour les pétroliers américains qui sont spécialisés sur le sujet et leurs collègues français.

Quels sont les inconvénients connus à ce jour ?

  • Un besoin en eau pour exploiter énorme : chaque puits peut être fracturé entre 15 et 20 fois, chaque fracturation consommant entre 7 et 28 millions de litres d’eau ;
  • Où sera pompée cette eau ? Le dispositif Grenelle 1et 2 ne devait-il pas préserver les ressources en eau ?
  • 600 produits dont la composition de certains est tenue secrète sont envoyés jusqu’à – 3000 m d’où pollution et danger pour l’écosystème ;
  • Un grand nombre de camions sur les routes (200 par jour) ;
  • Une pollution visuelle avec les installations au sol.

Les Etats-Unis se sont lancés dans cette extraction de gaz il y a une vingtaine d’année et elles représentant maintenant 20% de la production de gaz de ce pays. Mais les techniques utilisées le sont sans contrôle sur l’environnement, sur la santé, et sans réglementation car il faut savoir que c’est Georges Bush qui a autorisé la technique de la fracture hydraulique en l’exonérant de la loi sur la sécurité de l’eau potable…

La responsabilité du gouvernement

En France, trois permis exclusifs de recherche de mines d’hydrocarbures liquides ou gazeux ont été accordés le 1er mars 2010 par Jean-Louis Borloo ministre de l’écologie et du développement durable à la société américaine Schuepbach Energy LLC associée à Total et GDF-Suez :

Pour le Sud-Est, il s’agit des permis de :

  • Villeneuve de Berg pour des forages dans l’Ardèche ;
  • Montélimar pour des forages dans l’Ardèche, Drôme et le Gard ;
  • Nant  pour des forages en Lozère, Aveyron et Hérault.

Et plus particulièrement en Ardèche, ils concernent les cantons de Joyeuse, Les Vans, Largentière, Vallon Pont d’Arc, Villeneuve de Berg, Viviers, Bourg Saint Andéol, Rochemaure, Privas, Aubenas, Thueyts, Vals les Bains, Antraigues, Valgorge.

La mobilisation générale est alors décrétée contre ces projets, mais le gouvernement fait la sourde oreille. Il y a encore quelques jours, Nathalie Kosciusko-Morizet, la ministre en charge de ce dossier a répondu à une question au gouvernement du Député de l’Ardèche Pascal Terrasse en tentant de rassurer tout le monde  « Un moratoire n’est pas possible, le code minier ne le permet pas, mais vous pouvez compter sur ma vigilance pour que nous ne voyions pas en France le type de paysage désolé auquel une exploitation sans retenue et sans contrainte environnementale a conduit les Etats-Unis »

On sait que depuis, les choses ont évolué, puisque Nathalie Kosciusko-Morizet a décidé d’un moratoire de 6 mois sur l’exploitation et les recherches du gaz de schiste partout en France, indiquant que cette période sera mise à profit par une commission composée du conseil général de l’environnement et du développement durable pour établir un rapport et des conclusions qui permettront à NKM de prendre de nouvelles dispositions.

L’argumentaire de la Ministre sur le code minier est discutable : en effet, le Conseil des ministres du 19 janvier a décidé la présentation d’une ordonnance portant codification de la partie législative du code minier (ordonnance n°2011-91 du 20 janvier 2011).

En effet, la loi du 12 mai 2009 de simplification et de clarification du droit et d’allègement des procédures, a autorisé le Gouvernement à prendre une ordonnance afin de « moderniser et de simplifier les dispositions applicables aux exploitations minières en veillant à leur intégration dans l’environnement et à l’association des parties prenantes dans l’attribution des titres miniers ».

Reste aujourd’hui à vérifier que les bonnes intentions de Nathalie Kosciusko-Morizet soient vérifiées dans les faits, et on peut affirmer que seul un moratoire permettra de stopper ce qui a été lancé. S’il faut modifier le code minier (ce dont doutent beaucoup de spécialistes) que la Ministre engage les procédures pour le faire.
Mais les faits sont têtus et aujourd’hui, personne n’est rassuré du tout. Surtout, on ne voit pas bien comment Nathalie Kosciusko-Morizet va résister à des multinationales comme Total  alors même que Jean-Louis Borloo, son prédécesseur, à fait ce qu’il fallait pour autoriser ses extractions. Affaire à suivre donc.

M.X.

Virtualisation et plan de continuité d’activité pour la Fondation de France

Créée il y a plus de 40 ans, la Fondation de France a entrepris il y a 5 ans, une démarche de modernisation et d’audit de ses processus, avec une approche pragmatique : des process vers le SI, l’informatique aujourd’hui doit être au service des besoins métiers et des projets, en toute transparence pour les utilisateurs. Cette étude a abouti à 2 grands chantiers :

  • applicatif, correspondant à la refonte de l’ensemble des processus et procédures, en passant par la reconstruction de son système d’information, avec l’informatisation de certains domaines métiers et une augmentation de 40 à 120 applications et services applicatifs par exemple ;
  • technique avec la mise en cohérence et l’adaptation aux nouvelles technologies afin que l’infrastructure réponde aux nouveaux enjeux du système d’information.

L’audit de la situation et l’urbanisation du SI ont permis de réaliser une vue urbanisée et de l’architecture cible ainsi que la redéfinition du schéma de l’infrastructure, d’où sont ressortis plusieurs besoins fondamentaux : la gestion du risque et la dématérialisation, la virtualisation, … entrainant la nécessité d’une solution de stockage robuste et performante.

 D’importants besoins de stockage et de sécurité 

De par son activité de gestion d’argent des donateurs, la Fondation de France se doit de conserver tous les documents propres à ses activités de façon sécurisée, accessibles à la demande et en toute circonstance. Jusqu’à présent, les données étaient stockées sur les serveurs, avec le manque d’adaptabilité ainsi que la perte de place et de performances propres à ce type de stockage. En réduisant le nombre de machines physiques de 40 à 10, l’évolution vers la virtualisation augmentait le nombre de machines virtuelles de 50 à 150 et nécessitait une solution dont les performances et la capacité permettaient d’intégrer les nouvelles applications, les bases de données et les documents électroniques. 

Par ailleurs, la sensibilité des comptes et des projets gérés par la Fondation n’autorisent pas la prise de risque; les missions doivent continuer quelles que soient les circonstances, d’où la mise en place d’un plan de continuité/reprise d’activité s’appuyant sur une solution de stockage pour une redondance en toute sécurité.
 
Enfin, concernant les archives, il était indispensable de mettre en place une solution de dématérialisation afin de libérer des surfaces de stockage et de réduire les coûts de gestion (manipulation, transports, recherches). Le principe étant que les documents sont maintenant dématérialisés au fur et à mesure, que certains services comme les RH ou les libéralités ont entrepris des actions intensives de numérisation et que les cartons rapatriés des archives pour recherche sont systématiquement dématérialisés avant archivage définitif.

Des besoins dignes d’une grande entreprise

Forte de ces constats, la Fondation a lancé un appel d’offre afin de trouver le fournisseur pouvant répondre à ces différentes contraintes de volumétrie et de complexité, dignes d’une grande entreprise, avec une solution évolutive et adaptable à l’accroissement des besoins. En effet, si la Fondation de France est une structure de 140 personnes, c’est surtout une entreprise qui gère 1,6 milliard d’euros d’actifs financiers, d’actif immobilier, les comptes de 674 fondations et les dons de 521000 donateurs, une entreprise dont il ne fallait pas sous estimer les besoins. 
Dans cette optique, il s’agissait pour les candidats de présenter des références clients sur des projets similaires. « Des références clients que Pillar Data Systems nous a fourni volontiers, des clients prestigieux que nous avons rencontrés et qui nous ont fait part de leur satisfaction » précise Florence Delacour-LePetit, Directrice du Système d’Information. De la même façon, et parce que la Fondation est un organisme contrôlé entre autres par la cour des comptes, il lui est indispensable de justifier de ses choix fournisseurs, de leur pérennité et de leur déontologie. « Une « inquiétude » que Pillar a bien compris et sur laquelle le CEO de la société Mike Workman lui-même nous a rassuré » évoque Madame Delacour-LePetit.
 
Autant de critères relationnels, témoignant de la réactivité et même de la démarche offensive  de Pillar et de son partenaire RISE, intégrateur spécialiste du stockage, qui ont influencé le choix de la Fondation de France, en complément des critères techniques définis dans le cahier des charges.

Des critères techniques et économiques

Tout d’abord, la solution Pillar répondait aux différents critères définis par la Fondation, en terme de volumétrie et d’évolutivité, de simplicité de mise en œuvre et d’administration, ainsi que d’économie d’énergie, avec une diminution notable des besoins en climatisation, des critères importants du cahier des charges qui accompagnent une démarche générale de développement durable. Le besoin de stockage ayant été fait de façon prévisionnelle, de nouveaux besoins apparaissant, comme le stockage de la vidéo, par exemple, il s’agissait d’acquérir une solution pouvant s’adapter à l’augmentation des besoins par de simple ajout de volume de stockage. Ce qui est un des principes de base des solutions de Pillar, avec l’avantage de s’effectuer sans interruption de services et sans perte de performance.
 
Avec actuellement 1 baie de 11To, la Fondation a prévu une solution pouvant s’adapter à l’évolution des besoins. « Il s’agit d’un investissement lourd qui doit nous accompagner dans la continuité de notre projet informatique et renforcer la maturité de notre SI » précise Florence Delacour-LePetit « Nous ne devons pas ponctuellement faire tourner des applications mais répondre à de véritables problématiques métiers qui se construisent dans la durée ».
 
Une évolution transparente pour les utilisateurs qui apprécient la disponibilité des données et la facilité d’accès aux applications. Dans un projet de refonte complète, les collaborateurs doivent pouvoir s’appuyer sur des performances leur permettant d’appréhender les nouveaux outils et les nouvelles méthodes en toute sérénité.

La prochaine étape est l’acquisition d’une deuxième baie afin de mettre en place un véritable plan de continuité/reprise d’activités puis de faire face à l’augmentation des besoins de stockage et de virtualisation.

Les secrets d’une maintenance efficace

Rédigé simplement, « Le guide du parfait responsable maintenance » a pour objectif de donner aux responsables de maintenance les informations nécessaires à la mise en place d’une « gouvernance » de la fonction maintenance efficace. Mais, pour assurer une gouvernance efficace, rentable et de qualité, il faut, selon l’auteur – Jean-Paul Souris – savoir élaborer une politique de maintenance avant de la mettre en œuvre dans une stratégie opérationnelle  car la maintenance ne se réalisera d’autant plus que correctement que si elle a été bien conçue.

Un plan de maintenance qui est à la base d’une politique de maintenance, doit être en grande partie (mais pas en totalité), conçu autour d’actions préventives, voire proactives, et formalisé par des gammes de maintenance. Une base de données du type gestion de la maintenance  assistée part ordinateur (GMAO) est également indispensable pour enregistrer ces gammes, les planifier avec leurs ressources, mais également enregistrer les événements pour tout ce qui n’a pas été prévu (les pannes). La méthode AMDEC (Analyse des modes de défaillance,  de leurs effets et de leur criticité) est le principal outil pour concevoir un plan de maintenance  prévisionnel car il permet d’identifier les causes de défaillance potentielles en plus de celles qui ont été identifiées dans l’historique.  Le plan de maintenance qui est toujours prévisionnel, doit être mis en œuvre dans une organisation structurée au sein de l’entreprise et dont les scénarios sont très divers. La stratégie de déploiement peut être interne ou externalisée, ce qui nécessite une connaissance des conditions d’élaboration des cahiers des charges de consultation, l’élaboration des contrats et la mise en place d’une gouvernance efficace tournée vers la mesure des indicateurs d’activités ou des résultats définis dans le cadre du contrat.

Mais la seule manière de comprendre efficacement le fonctionnement de la maintenance est, affirme Jean-Paul Souris, de la présenter par des processus, d’où la méthodologie de développement présentée dans cet ouvrage. Cette description par les processus est indispensable pour l’établissement d’indicateurs. Par ailleurs, on constate fréquemment que des indicateurs sont mis en place alors qu’ils ne servent à rien car ils ne sont rattachés à aucun des processus cartographiés précisément…

Le métier de responsable de maintenance n’est pas un long fleuve tranquille : chaque jour, chaque mois, chaque année, surgissent des événements imprévus, des difficultés, des crises majeures. Chaque responsable maintenance est-il capable d’y faire face ? L’expérience montre que non, car le métier exige des connaissances, des compétences, des qualités humaines, ainsi qu’une expérience et une réelle volonté d’évolution d’apprentissage. Et Jean-Paul Souris sait de quoi il parle. Après avoir conduit une carrière de responsable qualité et maintenance dans de grands groupes en France et à l’étranger (Renault, Polymont, AlliedSignal…), il est, depuis 1997, consultant en organisation de la maintenance et Six Sigma pour de nombreuses entreprises (Air Liquide, EADS, PSA, Total, Gaz de France, Coca-Cola, Groupe Mars, Le Louvre, Bibliothèque nationale de France, Rhodia, Aéroport de Paris, Sanofi, BMS…).

Une chemise d’eau résistante à la corrosion marine grâce à un composite

Jusqu’à présent, la norme de l’industrie était d’utiliser des chemises d’eau en fonte, en alternance avec des plaques d’usure en cuivre, pour dissiper la chaleur intense générée dans les applications de tensionnement à fortes sollicitations. Cependant, en milieu marin, la corrosion par le sel engendrait des problèmes de maintenance et entrainait leur réparation ou des remplacements trop fréquents.

La nouvelle conception en composite permet aux embrayages et freins AquaMaKKs de Wichita Clutch  d’être refroidis soit avec de l’eau de mer, soit avec de l’eau à niveaux élevés de pH acide. Le matériau composite utilisé dans les nouvelles chemises d’eau a été développé par les ingénieurs Wichita en collaboration avec une entreprise partenaire. Plusieurs combinaisons de polymères ont été testées avant de sélectionner le mélange capable de satisfaire une exigence essentielle : obtenir un matériau aussi résistant que  la fonte d’origine en termes de contraintes. Il s’est trouvé que les essais de structure n’ont pas réussi à causer de défaillance dans des chemises d’eau composites de 36” de diamètre, même lorsque les pièces ont été soumises à une contrainte supérieure de plus de quatre fois sa charge maximale.

Afin de déterminer la longévité des chemises d’eau composites, des tests supplémentaires sont menés depuis deux ans par le laboratoire d’essais d’ingénierie de Wichita. Ils ont démontré que les chemises d’eau composites durent au moins aussi longtemps que celles en fonte, tout en offrant une résistance supérieure à la corrosion dans les applications en mer.

Des filetages métalliques moulés dans le matériau composite

En plus de la sélection du matériau, le défi technique le plus difficile à relever a été l’aménagement des orifices d’entrée et de sortie de la chemise d’eau composite. Au départ, comme les matériaux composites peuvent être moulés en forme de filetage, on pensait que les orifices d’eau pourraient être intégrés dans le matériau de base. Cependant cette configuration n’arrivait pas à assurer la robustesse requise. Finalement, les ingénieurs de Wichita Clutch  ont crée des filetages métalliques (mâles et femelles) moulés dans le matériau composite.

Tandis que des brevets sont en attente pour l’utilisation des matériaux composites, d’autres brevets ont déjà été publiés pour la configuration de la circulation de l’eau qui constitue le cœur de la chemise d’eau de Wichita Clutch. « La conception de circulation brevetée de la chemise d’eau assure un débit d’eau équilibré dans la chemise d’eau pour éliminer de manière efficace la chaleur générée par les matériaux de friction en contact avec l’alliage de cuivre » explique Mark Stuebe, Vice-président et Directeur général des marques dédiées aux embrayages et freins lourds (HDCB) du groupe Altra. « Le débit équilibré est calculé pour correspondre à la chaleur générée sur une surface de passage dans un multidisque. Pour un utilisateur, cela signifie qu’une unité Wichita refroidie par eau peut absorber plus de chaleur qu’une unité concurrente comparable lorsqu’elle reçoit une alimentation en eau de refroidissement suffisante ».

Des réductions de poids supérieures à 50%

De plus, étant donné que le matériau composite est un isolateur thermique, l’eau de refroidissement circulant à travers la chemise d’eau composite récupère une plus grande quantité de la chaleur de friction par rapport à une chemise d’eau en fonte. Par conséquent, les parties environnantes de l’unité restent à une température plus basse, aidant à prolonger la durée de vie en service.

En plus de leurs qualités anticorrosives, les chemises d’eau composites offrent l’avantage supplémentaire d’être plus légères, avec dans certains cas une réduction de poids d’au moins 50 % comparé aux modèles en fonte. Par exemple, la chemise d’eau en fonte AquaMaKKs de 36” pèse 170 kg, tandis que la chemise d’eau composite équivalente ne pèse que 43 kg.

À ce jour, les AquaMaKKs dotés des nouvelles chemises d’eau composites ont été fournis à Oil States Industries (Skagit-Smatco) et à la Division AmClyde de National Oilwell Varco, pour des applications d’amarrage et de positionnement en mer. Ils ont également été installés dans des applications de treuils de forage de pétrole et gaz.
 

Une messagerie électronique hybride en mode Cloud pour la FFGYM

D’un point de vue historique, la Fédération Française de Gymnastique est la doyenne des fédérations sportives. Elle mène des actions de développement de sports olympiques, de disciplines de haut niveau et de diverses autres activités. Pour les 2 000 structures de la FFGym, réparties sur tout le territoire français, la messagerie est un outil de travail absolument essentiel.
 
Bénéficiant auparavant d’une solution Exchange, la FFGym souhaitait homogénéiser son infrastructure de messagerie et bénéficier d’un haut niveau de support tout en optimisant le budget alloué. Concrètement, il était nécessaire de remédier à la disparité des adresses e-mail de l’ensemble des acteurs régionaux de la fédération. Seules quelques zones disposaient d’adresses électroniques rattachées au nom « FFGym ». Les autres possédaient pour nom de domaine celui de leur fournisseur d’accès à Internet. 
 
Or, il n’était pas envisageable d’attribuer à chaque utilisateur un compte de messagerie Exchange pour les raisons suivantes :

  • l’ensemble des fonctionnalités présentes dans l’offre Exchange ne correspondait pas à l’usage réel majoritairement constaté ;
  • le coût lié au nombre important de comptes utilisateurs aurait engendré un dépassement du budget dédié à ce poste.

Etant donné la diversité des accès aux comptes en termes de terminaux et de zones géographiques, la DSI devait disposer d’outils avancés, fiables et sûrs, sans avoir à se préoccuper ni de leur installation ni de leur maintenance. Il fallait conserver les messageries existantes Exchange, dotées de services collaboratifs, et proposer des comptes supplémentaires aux fonctionnalités plus basiques.
 
La messagerie hybride proposée par Alinto, éditeur de solutions de messagerie électronique de dernière génération, s’est présentée comme la solution la plus adéquate pour la FFGym. Associant sur une même plate-forme des comptes Exchange et Alinto Pro, cette messagerie permet la création de comptes POP/IMAP et de comptes Microsoft Exchange sur le même nom de domaine. Par ailleurs, cette solution répond parfaitement aux besoins exprimés : optimiser les coûts de revient, uniformiser les adresses e-mail des collaborateurs, s’adapter à un parc informatique hétérogène.
 
Grâce au déploiement de la messagerie hybride, la FFGym dispose dorénavant d’une messagerie hébergée en mode cloud. Sa souplesse autorise une gestion facile en matière de création et de modification des comptes. Chaque club affilié possède désormais une adresse email homogène, renforçant ainsi l’image professionnelle de la fédération. Les comptes sont sécurisés par un anti-virus et un anti-spam performants et reconnus. Ils bénéficient également d’une surveillance système 24/7/365 et d’un chiffrage SSL pour garantir la fiabilité et la disponibilité des services. La compatibilité avec de multiples accès autorise une connexion aux messages, agendas et contacts depuis un client de messagerie ou depuis le web-mail, lequel est entièrement personnalisé aux couleurs et logo de la FFGym.

Record mondial de rapidité pour une emballeuse sous film rétractable

Un des leaders européens des machines d’emballage sous film rétractable, LinkX Systems, a été contacté par une très grande multinationale spécialiste des surgelés pour concevoir et fabriquer une solution d’emballage sous film rétractable offrant la souplesse dont elle avait besoin pour ses lignes de production. Rockwell Automation a travaillé aux côtés des ingénieurs de LinkX pour mettre au point cette nouvelle machine. Le record à battre ? Une cadence minimum de 180 cartons par minute.

La machine fournie par LinkX est une assembleuse-emballeuse sous film rétractable à alimentation latérale de type Matrix. Avec un automate programmable ControlLogix d’Allen-Bradley au cœur de son installation d’automatisation à architecture intégrée, elle utilise un système de servocommande de précision à 10 axes reposant sur un servo-variateur Kinetix 6000 pour assurer un mouvement précis et reproductible, même lorsque la machine fonctionne à plein régime.

Pour cette machine installée sur le site de cette grande multinationale, la cadence maximale atteint désormais 300 cartons par minute, soit 60% de plus qu’avec les machines existantes. Cette solution qui utilise l’interface opérateur Allen-Bradley PanelView Plus 1000 d’Allen-Bradley,  intègre également d’autres équipements Rockwell Automation, tels que des variateurs de vitesse PowerFlex 40 et PowerFlex 4M et divers systèmes de commande basse tension.

« Dans cette machine, la solution de mouvement à servocommande fonctionne comme une came électronique. Elle crée un profil de mouvement qui réduit autant que possible les contraintes exercées sur les cartons emballés », explique David Hayward, directeur technique chez LinkX Systems. « C’est très important, car un carton ne peut subir qu’une certaine pression externe. Nous avons également doté la machine de fonctions d’ajustement juste à temps pour permettre à notre client de modifier rapidement et facilement le profil d’emballage. Il est ainsi possible de moduler le profil en fonction du produit, du lot et du volume. Le changement de taille qui doit être reproductible, peut être activé d’une simple pression sur un bouton. » « Cette augmentation de 60 % de la cadence est vraiment un plus pour nous, et la solution à servocommande Allen-Bradley joue un rôle crucial dans ces performances. La machine est en service sur le site du client qui parle déjà de s’agrandir », poursuit David Hayward.

E-payment : la France riposte avec Buyster

Une fois validé par la Banque de France, ce nouveau service d’e-payment devrait être disponible dans l’hexagone avant l’été 2011. Il sera proposé aux clients des trois opérateurs téléphoniques, soit un panel de plus de 50 millions de consommateurs. Eric Gontier, directeur général de Buyster, ne cache pas son ambition : « Nous voulons devenir le leader du paiement à distance via le mobile, et le numéro deux dans l’Internet fixe, en France », confie-t-il aux Echos. « Grâce à cette alliance, nous nous fixons l’ambition de devenir un acteur du paiement incontournable du e-commerce et le leader du m-commerce (m pour mobile) en France, marché à fort potentiel. D’ici à 5 ans, nous tablons en effet sur une part du m-commerce représentant 10 % du chiffre d’affaires du e-commerce pour un montant estimé à un peu plus de 6 milliards d’euros », ajoute-t-il. En 2010, en France, l’e-commerce pesait 31 milliards d’euros, soit une croissance de 24 %. D’ici 5 ans, il devrait dépasser les 60 milliards d’euros.
 
Buyster vs. Paypal 

Contrairement à PayPal, uniquement disponible à partir d’un ordinateur, Buyster est accessible à partir de n’importe quel terminal connecté : mobile, smartphone, tablette tactile, ou encore télévision. À condition toutefois d’avoir son téléphone mobile à proximité. De même, plus besoin de donner son numéro de carte bancaire. Seul son téléphone mobile et son code confidentiel Buyster suffisent. La démarche est simple, rapide et sécurisée selon les promoteurs : l’usager, quel que soit son opérateur, s’identifie en donnant son numéro de téléphone et un mot de passe, et reçoit par SMS un code à usage unique pour procéder au paiement.
Bien que PayPal possède une longueur d’avance sur ses concurrents,  Buyster part lui avec quelques atouts non négligeables. Aquarelle, Darty, Brandalley et RueDuCommerce sont parmi les commerçants en ligne lui faisant déjà confiance. Dès son lancement officiel, Buyster se verra proposé à leurs clients, aux côtés de Visa et MasterCard. Il en sera aussi de même pour les quelques 30 000 clients ayant choisi les plateformes de paiement Merc@net de BNP Paribaset Sips d’Atos Worldline.
En pleine croissance, le marché de l’e-payment ne devrait pas tarder à voir débarquer en France de nouveaux « Paypal-like ». Développé par Google, CheckOut, seulement disponible pour les acheteurs, devrait bientôt être accessible pour les vendeurs. Par ailleurs, l’arrivée d’Apple, via ITunes Store, sur le marché de l’e-payment est annoncée. Une rumeur qui reste à confirmer.
 

Déployer des applications d’entreprise sur les smartphones

Clients, consommateurs, partenaires et collaborateurs sont plus mobiles que jamais ; ils souhaitent désormais accéder instantanément à des applications Web, partout et tout le temps. La multiplication du type de mobiles disponibles sur le marché peut très vite se transformer en un véritable casse-tête pour les équipes informatiques qui doivent concevoir autant d’interfaces qu’il existe d’appareils différents. Tablettes, ordinateurs portables, mini PC et autres téléphones mobiles continuent à se développer et imposent toujours plus de contraintes au système d’information en termes de déploiement. Parmi les mobiles qui ne cessent de voir le jour, les smartphones sont rapidement devenus le standard et connaissent depuis 2008 un formidable développement. Ils méritent d’être qualifiés de « smart » (intelligent), car, outre leurs fonctions purement téléphoniques, ils disposent d’un système d’exploitation permettant d’exécuter un navigateur Web évolué, ainsi que d’applications installées en local. Comment l’entreprise peut-elle garder le rythme dans cette course technologique ? Avec l’essor des smartphones, il est possible de développer ses avantages concurrentiels en mettant à disposition des clients et employés une nouvelle génération d’applications d’entreprise mobiles.
 
Le monde de l’entreprise repose sur d’applications très globales ou au contraire hyper spécialisées, qui sont au cœur de l’activité et du fonctionnement des métiers. Souvent résultats de centaines d’années de travail, elles représentent désormais un véritable actif qu’il est crucial de valoriser et d’optimiser. Longtemps réduit à un très petit nombre d’applications au bénéfice d’un petit nombre d’utilisateurs, le mobile est aujourd’hui un moyen parfait pour étendre l’utilisation des applications existantes. 

Les applications Web ne sont pas conçues pour communiquer avec des smartphones

Le monde du mobile n’est pas celui du Web. Le Web s’est construit comme un canal très intégré présentant peu de passerelles avec d’autres canaux. L’utilisateur communique, effectue ses recherches, génère des contenus ou effectue des achats sans jamais quitter son navigateur. Le mobile est tout autre : c’est un canal de push/pull en quasi temps-réel. Un utilisateur peut, par exemple, recevoir une demande d’achat par SMS, se rendre sur une application permettant de vérifier les stocks, confirmer la commande par un email et recevoir enfin une confirmation par un message vocal. Ces capacités d’interactions et de rapidité vont de pair avec le caractère très personnel et intrinsèquement nomade du mobile. Le mobile répond parfaitement au besoin d’urgence, d’impulsivité, quand aucun accès rapide à un PC muni d’Internet n’est possible, quand l’action se fait pressante ou quand aucun support physique ou humain n’est disponible.
 
Le Web s’est construit sur des standards, aussi bien pour les terminaux eux-mêmes que pour les navigateurs (W3C, SOAP, etc.) qui permettent de bénéficier d’une puissante facilité de déploiement. Le mobile est tout autre : c’est un support particulièrement hétérogène, aux caractéristiques très disparates, mais qui permet de bénéficier de nombreuses avancées technologique telles que le GPS ou la photographie numérique. Se déployer sur le mobile est donc un savant compromis entre contournement des contraintes (usages, techniques…) et maximisation des opportunités. Cela passe principalement par :

  • offrir des services pouvant se déployer sur le plus grand nombre de smartphones ;
  • concevoir des interfaces et une ergonomie spécifiques ;
  • exploiter les fonctions avancées des smartphones.

Dans 90 % des cas, les applications Web n’ont pas été conçues dans le but de communiquer avec d’autres applications et encore moins d’être exploitées par d’autres interfaces utilisateurs, tel un smartphone. Il est fort probable que l’interface des applications professionnelles soit figée dans le code d’un langage de programmation spécifique. En COBOL par exemple, s’il s’agit d’une application patrimoniale, ou en J2EE, .NET, CGI, PHP ou toute autre technologie reposant sur un environnement HTML / Ajax, s’il s’agit d’une application Web. Dans tous les cas, un smartphone ne peut pas utiliser ce code en l’état. Cette limitation est principalement due à la taille de l’écran et à la façon dont l’utilisateur interagit avec l’application, que ce soit à l’aide des touches ou de l’écran tactile de l’appareil. Les images, champs, boutons, tableaux, zones de liste déroulante et menus doivent être soit complètement repensés, soit adaptés selon les objectifs. Les informations devront être réorganisées afin de garantir à l’utilisateur de smartphone une navigation de qualité. Les principaux sites Web et applications professionnelles sont le plus souvent étroitement liés à leur interface utilisateur. Par conséquent, la programmation d’une nouvelle interface sous-entend un lourd et coûteux effort de redéveloppement des processus et de la logique métier.

Convertir un site Web en application smartphone

Les mashups d’entreprise offrent une solution efficace à ce challenge. Grâce au découpage de parties de sites Web (« Web clipping »), une fonction particulièrement pratique des mashups d’entreprise, il est possible de capturer simplement différents éléments d’une application Web. Il est ensuite possible de les modifier, redimensionner ou réorganiser afin de les adapter à l’interface utilisateur d’un smartphone. Cette fonction permet donc de récupérer directement un site Web et de le convertir immédiatement en application smartphone. Cette technologie capture, en une seule opération, les principaux processus, la logique métier et l’interface utilisateur de l’application avec ses éléments graphiques. Cette solution évite donc un redéveloppement complet en privilégiant une adaptation simple de sites Web existants vers de nouvelles applications mobiles.
 
Grâce à son fonctionnement non intrusif, permettant de se connecter à la quasi-totalité des applications Internet, extranet, intranet ou patrimoniales, ainsi qu’à toute architecture orientée services (SOA), le serveur de mashups fournit des services et des API aux applications qui n’en disposaient pas, sans effort de développement.
 
Une fois les nouveaux services déployés, ils peuvent être consommés par des applications Web, des applications mobiles, des applications SOA (BPM ou workflow par exemple), ou toute autre application capable d’appeler des services Web. Le serveur de mashups capture les processus et la logique métier des applications existantes, puis les expose soit sous forme de widgets visuels ou sous forme de services Web. Cela permet de réduire de manière drastique les temps de développement habituels par l’intégration directe des actifs informatique jusque là isolés.

Avec les mashups d’entreprise, les développeurs peuvent choisir leur style d’application

Lors de la transformation d’une application existante dans un environnement smartphone, la cible peut être soit une application Web, soit une application native. Les deux solutions présentent des avantages et des inconvénients. Une application Web présente l’avantage d’être portable et donc utilisable dans un grand nombre de smartphones. Elle peut même, si besoin est, être accessible depuis un ordinateur classique. Elle est aussi facile à développer car elle s’appuie sur des environnements et des standards maîtrisés par les informaticiens. D’un autre côté, les applications natives sont parfaitement intégrées au système du smartphone et sont rapides (car les éléments visuels sont téléchargés à l’avance depuis un « AppStore »). Ce type d’application, certes performant, dépend du système d’exploitation et requiert un développement différent pour chaque plateforme.
 
Grâce aux mashups d’entreprise, les développeurs peuvent choisir leur style d’application. Ils peuvent décider s’ils vont redévelopper une interface native ou simplement redimensionner et réorganiser l’interface utilisateur Web existante. Grâce aux services Web fournis par le serveur de mashup (exécutés sur un serveur privé ou dans le Cloud), toutes les applications mobiles (natives et Web) seront directement connectées au système d’information. Le serveur de mashups peut, de même, alimenter d’autres applications d’entreprise et s’intègre facilement au réseau fédérateur d’une architecture orientée service (SOA). Le serveur de mashups génère dynamiquement plusieurs formats de sortie de façon à prendre en charge tous les types de d’applications consommatrices simultanément.
 
Proposer les applications d’entreprise sur tous les smartphones est donc désormais à la portée de toutes les entreprises. Une fois encore, les mashups montrent leur capacité à répondre à des enjeux stratégiques et contribuent à accroitre la productivité des collaborateurs. A ne pas en douter, nous devrions voir à court terme les applications d’entreprise mobiles envahir tous nos smartphones et faire de la mobilité une réalité opérationnelle dans un contexte professionnel.
 
 

Déployer le tolérancement inertiel dans l’industrie

Le tolérancement inertiel vise à garantir une excellente qualité des produits, tout en laissant le plus de liberté possible à la production. Il limite ainsi la variabilité dimensionnelle des pièces mécaniques. L’usage veut que l’on délimite la variabilité par un intervalle de conformité. Or cette approche centenaire est en passe d’être dépassée par le tolérancement inertiel, récemment normalisé, qui donne plus de liberté à la production, tout en garantissant une excellente fonctionnalité des produits assemblés.

Démarche de rupture dans l’approche de la qualité des produits, le tolérancement inertiel est une nouvelle façon de concevoir la conformité d’une caractéristique, une approche globale et cohérente de la spécification au contrôle pour garantir la qualité aux clients et un ensemble d’outils pour maîtriser les processus de production très innovants.

Contrairement aux approches traditionnelles, le tolérancement inertiel pousse à respecter le centrage sur la cible. Les outils de la maîtrise inertielle des processus (MIP) avec les cartes de contrôles inertielles très performantes, associées à des indicateurs de capabilité et un pilotage multicritère rendent très simple le pilotage sur la cible des processus, afin de garantir l’inertie maximale admise.

L’ouvrage « Améliorer la productivité – Déploiement industriel du tolérancement inertiel » a pour objectif de décrire de façon pragmatique l’ensemble de la chaîne inertielle, depuis la spécification des tolérances jusqu’au pilotage des machines, en passant par la maîtrise des moyens de mesures. Au sommaire : du tolérancement traditionnel au tolérancement inertiel, le tolérancement inertiel, une autre vision de la conformité, comment calculer une tolérance inertielle, la maîtrise inertielle de processus, le pilotage inertiel multicritère, le tolérancement inertiel total, la réception de lots en tolérancement inertiel, la validation d’un processus de mesure en inertiel

L’auteur de ce livre,  Maurice Pillet, est l’inventeur  concept de tolérancement inertiel . Certifié « Fellow » apics – CFPIM, ancien élève de l’ENS Cachan, professeur des universités. Directeur de recherche au Laboratoire SYMME de l’Université de Savoie, il enseigne au département QLIO de l’IUT d’Annecy. Il entretient depuis des années une collaboration étroite avec des entreprises de différents secteurs d’activité dans le domaine des méthodes et des outils de la qualité.
 

La scierie Moulin valorise sur place ses déchets de bois

Historiquement lié au métier de la scierie depuis 1916, le groupe Moulinvest a décidé de diversifier son activité en s’orientant vers les énergies renouvelables. Guidé par le développement durable, il présente un schéma complet, quasi unique en France, d’intégration et de complémentarité de ses activités. Dans les prochaines semaines, le groupe auvergnat réalisera ainsi sur le même site :

  • le sciage de résineux ;
  • la production de pièces de bois de construction ;
  • la réalisation de murs de bois massifs préfabriqués ;
  • la valorisation des connexes issus du sciage (écorces, plaquettes, sciure) via la production de vapeur et d’électricité par cogénération à partir de biomasse, et la production de granulés de bois pour le chauffage des collectivités et des particuliers.

La scierie Moulin compte parmi les cinq premières scieries françaises avec 1 000 articles à son catalogue et 71 000 m3 sciés à partir de 15 0000 m3 de grumes. Elle couvre le sciage de bois de charpente, le séchage, le rabotage, le taillage, le traitement du bois et la production de murs en bois massif. L’exploitation de la matière première est assurée par des artisans et des entreprises locales.

Une réduction importante des émissions de CO2

La moitié du bois scié produit chaque année 75 000 tonnes de déchets qui n’étaient jusqu’ici pas valorisés en interne, créant ainsi une dépendance vis-à-vis des tiers pour leur écoulement. La création de la nouvelle filiale Moulin Bois Énergie est née de ce constat. Dès le printemps 2011, une usine de 2 800 m2 comportant une unité de cogénération, devrait être opérationnelle et permettre de produire 27 000 MW d’électricité par an vendus à EDF et 60 000 tonnes de granulés de bois.

L’utilisation de la biomasse pour la production d’énergie et la fabrication de granulés de bois sont deux axes qui vont contribuer à la rentabilité de la scierie Moulin mais aussi à la gestion efficace de la forêt, à l’aménagement du territoire, au développement de l’emploi local et à la réduction de production de CO2.
Ainsi, dès le démarrage de l’activité de Moulin Bois Énergie, les émissions dues au sciage passeront de 13 kg eq C/m3 de sciage à seulement 8.

Dans ce contexte de développement, la scierie Moulin s’est mise à la recherche d’une solution logicielle capable de gérer son activité en tenant compte de ses attentes. José Brunet, directeur de production et Sébastien Rolly, directeur commercial, confient : « Nous avons été séduits par la souplesse d’Alpha Phoenix qui a su s’adapter aux contraintes liées à notre métier et évoluer en fonctions de nos besoins. Le choix de ce logiciel modulaire ERP (Entreprise Ressource Planning ou Progiciel de Gestion Intégré) nous a permis de nous structurer grâce à la mise en place d’une codification spécifique. Nous avons ainsi pu optimiser la gestion de nos équipes et de notre temps. Le module Alpha Report nous apporte un confort supplémentaire et nous permet l’édition de tous les états nécessaires au suivi de notre activité. Aujourd’hui la production est planifiée au plus juste et demain nous utiliserons Alpha Phoenix pour la constater. Nous opterons également pour une plus grande utilisation de l’EDI (Échange de Données Informatisées) afin d’aller vers encore plus de rationalisation. Le fait d’adresser des factures « numériques » nous permettra de rester cohérents avec notre implication dans le développement durable ».

Les photos de Nikki Graziano

Nikki Graziano, mathématicienne américaine et photographe, a monté le projet Found Functions qui mélange art et science. Le but de Found Functions est de superposer aux photographies des fonctions mathématiques correspondant aux formes et aux courbes des paysages. L’artiste ajuste ses modèles mathématiques jusqu’à ce que les graphes qu’ils décrivent s’alignent parfaitement aux reliefs photographiés.

Un travail artistique insolite qui change notre regard sur le monde en nous proposant d’observer la nature à travers le prisme des mathématiques.

Pour voir la galerie complète : Found Functions.

Auteur : C.C.

Les grandes tendances des produits de filtration non-tissés

Les nouvelles technologies de produits non-tissés qui seront présentées à Genève, lors du salon Index 11, en avril prochain, offrent des solutions viables qui répondent aux besoins de filtration par voie sèche ou humide. Mais,  « la difficulté pour les fabricants de non-tissés dans le secteur de la filtration consiste à trouver un équilibre entre le durcissement de la réglementation, les exigences de durabilité, la hausse des coûts et l’amélioration de la performance tout en allongeant la durée de vie des produits », a expliqué Pierre Wiertz, Directeur général d’Edana, association internationale représentant les non-tissés et industries associées.

Une récente tendance des techniques des non-tissés est l’incorporation de couches de nano-fibres non tissées dans les tissus de filtration. Grâce à leur charge électrostatique, ils assurent une meilleure perméabilité et les filtres fabriqués avec cette matière ont besoin de moins d’énergie pour faire circuler l’air.

Une nouvelle génération de médias composites a également vu le jour : chaque couche y a sa propre fonction, qu’il s’agisse d’assurer la solidité nécessaire, l’efficacité de la filtration, la capacité de récupération de la poussière ou des propriétés antibactériennes. La combinaison de différentes techniques dans un média composite ouvre la porte à de nouvelles applications garantes d’une meilleure performance.

42 000 m2 de fibres / m2 de média filtrant 

Les secteurs du transport, du chauffage, de la ventilation et de l’air conditionné constituent les marchés les plus importants en matière de filtration de l’air. « De nos jours, les consommateurs se préoccupent davantage de l’environnement, de leur santé et de leur confort personnel »  déclare Jean-Paul François, consultant chez Hollingsworth & Vose, un fabricant de papiers de spécialité et de médias filtrants non-tissés. « La sensibilisation de l’opinion publique a entraîné un recours accru aux climatiseurs et épurateurs d’air dotés de filtres HEPA (High Efficiency Particulate Air) capable de filtrer, en un passage, au moins 99,97 % des particules de diamètre supérieur ou égal à 0,3 µm2. Sophistiqués, ils ont donné naissance à une nouvelle génération d’aspirateurs équipés de pré-filtres et de post-filtres. La demande de systèmes de filtration avancés dans les voitures et les avions résulte également des exigences de confort accru de la part des consommateurs » a-t-il ajouté.

L’importance des médias filtrants non-tissés pour la fourniture d’eau potable pour tous va aussi croissant. Au fil des avancées technologiques, les médias filtrants à base de matériaux non-tissés voient leur compétitivité renforcée par rapport aux autres médias en ce qui concerne l’élimination des virus et bactéries, avec une amélioration des performances et des avantages en termes de coûts. Ahlstrom,  un concepteur et fabricant international de papiers non tissés et spéciaux, et Eureka Forbes, un leader reconnu dans le domaine de la purification de l’eau, ont lancé récemment un produit de purification de l’eau innovant, basé sur la gravité, qui inclut la technologie Disruptor.

« Cette technologie offre de nombreux atouts très recherchés par les concepteurs de filtre innovants. Pour la première fois, un filtre non-tissé peut concurrencer les membranes polymères  pour éliminer les endotoxines, virus, bactéries, matières colloïdales et acides organiques et ce, à des débits bien plus élevés et avec de très faibles pertes de charge », a déclaré Rodney Komlenic, Directeur des ventes chez Ahlstrom. La technologie brevetée Disruptor améliore la qualité de l’eau fraîche ou saumâtre en enlevant les contaminants submicroniques. Elle est basée sur l’utilisation de fibres électropositives de boehmite (AlOOH)  de 2 nm de diamètre et  250 nm de longueur sur une fibre structurelle de Microglass qui offrent un potentiel zéta >50 mV  à pH=7,2.  Le Disruptor qui contient, en poids, 32 % de charbon actif  pour améliorer le goût et l’odeur de l’eau en enlevant le chlore et les composés humiques, présente une excellente capacité de chargement due l’utilisation de plus de 42000 m2 de fibres / m2 de média filtrant. De très nombreuses poudres très fines peuvent ainsi être retenues sans l’utilisation des reliures ou des adhésifs qui occluraient la superficie.
 

Le point sur les gaz de schistes

Les shale gas sont des gaz contenus dans des roches sédimentaires argileuses très compactes et très imperméables, qui renferment au moins 5 à 10 % de matière organique. Ils font partie des gaz non conventionnels parce qu’ils ne peuvent pas être exploités avec les modes de production classiques. Ils sont aujourd’hui produits en grande quantité aux États-Unis où ils représentent 12 % de la production de gaz contre seulement 1 % en 2000. A part quelques pays qui n’ont pas de bassins sédimentaires, on peut trouver des shale gas à peu près partout. En Europe, le consortium Gash, auquel participe IFP Energies nouvelles, vise à établir d’ici 3 ans une cartographie des ressources européennes. Les réserves mondiales représenteraient plus de 4 fois les ressources de gaz conventionnel. De quoi, si on arrivait à les exploiter, changer la donne de la géopolitique gazière.
 
Le développement de la production aux Etats-Unis est dû en partie à l’amélioration des techniques d’extraction ces dernières années, en particulier le forage horizontal et la fracturation hydraulique des roches qui permet d’augmenter la perméabilité à proximité des puits, les fluides ne migrant pas naturellement dans les argiles. Les shale gas étant dispersés dans la roche imperméable, il faut forer de très nombreux puits et fracturer la roche. Généralement, la profondeur d’exploitation des shale gas est de l’ordre de 1 500 à 3 000 mètres de profondeur, soit de un à plusieurs kilomètres au dessous des aquifères d’eau potable.

Le puits produit quelques années puis est abandonné, et un nouveau puits est foré quelques centaines de mètres plus loin. La fracturation de la roche suppose par ailleurs d’injecter de 10 000 à 15 000 m3 d’eau à haute pression et du sable. Le faible coût des forages, un droit de propriété des particuliers étendu au sous-sol, une réglementation environnementale moins contraignante ainsi que des incitations fiscales, associées aux avancées technologiques, expliquent l’engouement outre-atlantique. 

 

 

 

 Forage horizontal et fracturation hydraulique 

 

La gestion des ressources en eau, premier impact environnemental

L’impact environnemental de ces techniques d’extraction n’est pas neutre, même s’il faut le relativiser en le comparant avec d’autres activités industrielles. Le premier impact concerne la ressource en eau dont la gestion doit intégrer 3 aspects majeurs :

  • la disponibilité de la quantité d’eau nécessaire au forage et à la fracturation : les données sont très variables d’un bassin sédimentaire à l’autre, et même à l’intérieur d’un même bassin. Cependant, l’ordre de grandeur de la quantité d’eau nécessaire à la réalisation d’un forage et à la fracturation hydraulique varie de 10 000 à 15 000 m3 (à titre de comparaison, la consommation d’eau d’une ville comme Paris est en moyenne de 550 000 m3 d’eau potable par jour) ;

  • le recyclage et le traitement de l’eau de fracturation : une partie de l’eau qui a été injectée pour réaliser la fracturation hydraulique est récupérée (20 à 70 %) lors de la mise en production du puits. Cette eau peut être soit traitée sur place au niveau du forage, soit être acheminée jusqu’à un centre de traitement. Ayant circulé sous forte pression dans les couches sédimentaires, elle est généralement chargée en sel et contient beaucoup d’éléments en suspension. Le traitement de l’eau consiste à éliminer les chlorures, les éléments en suspension ainsi que les métaux, les sulfates et les carbonates pour pouvoir la réinjecter lors de la fracturation hydraulique suivante. A noter que ce traitement (décantation, floculation, électrocoagulation) coûte moins cher que l’achat, l’acheminement et le stockage de la même quantité d’eau « pure ». Le fluide injecté lors de la fracturation hydraulique est formé par un mélange d’eau et de sable, avec des additifs chimiques (1 % maximum). L’injection de ce mélange sous forte pression (plus de 100 bars) va permettre la fracturation artificielle de la roche. Le sable injecté a pour but de maintenir les fractures ouvertes une fois la fracturation hydraulique effectuée, afin de former un drain pérenne par lequel le gaz va pouvoir être produit. Les additifs chimiques renforcent l’efficacité de la fracturation hydraulique ; leur composition peut varier selon les conditions géologiques. On peut les classer en 3 grandes catégories : les biocides qui réduisent la prolifération bactérienne dans le fluide mais aussi dans le puits, les produits qui favorisent la pénétration du sable dans les fractures et les produits qui augmentent la productivité des puits.  Ces produits fortement dilués sont couramment utilisés dans la vie courante, notamment dans les détergents, les cosmétiques ou les désinfectants. A la demande d’associations de consommateurs et des autorités américaines, de nombreux opérateurs ont publié la liste des produits présents dans le fluide de fracturation ;

  • la prévention d’éventuelles contaminations des aquifères d’eau potable par les fluides de forage : le développement très rapide de l’exploitation des gaz de schiste aux États-Unis depuis quelques années a donné lieu à quelques cas supposés de contamination des nappes phréatiques superficielles par des fluides de fracturation. Il semble cependant que ces cas soient imputables à un défaut de cimentation dans les parties supérieures du forage et non pas directement à l’exploitation des shale gas ou à la fracturation hydraulique. Les progrès réalisés dans le suivi et le contrôle de la fracturation hydraulique des couches riches en gaz de schistes (généralement à plus d’un kilomètre sous les nappes phréatiques) rendent le risque d’une mise en communication directe entre la couche exploitée et les nappes phréatiques très improbable.

Une emprise au sol réduite des installations d’exploitation 

Dans le cas des shale gas, les couches géologiques concernées étant très peu poreuses et imperméables, il faut forer un grand nombre de puits (plusieurs puits par km2 ). Ces installations, comme toute installation industrielle, ont une emprise au sol.

Il faut bien distinguer deux phases dans l’exploitation des gaz de schistes :

  • lors du forage et de la mise en production du puits (quelques semaines), l’activité autour du forage est très intense et nécessite la présence d’un derrick ainsi que d’une logistique lourde ;
  • une fois le puits en exploitation, la venue du gaz se fait naturellement par différence de pression sans nécessiter de pompe. En surface, il ne reste qu’une tête de puits et un gazoduc permettant d’évacuer le gaz.

Pour minimiser l’empreinte au sol mais surtout pour optimiser l’architecture et la productivité des puits horizontaux et diminuer leur coût, on regroupe les plateformes de forage sous forme de « cluster ». A partir d’une seule plateforme de forage, on peut forer 10 à 15 puits horizontaux. L’empreinte au sol des installations peut donc être réduite, rendant ainsi la remise en état des sites d’exploitation plus facile et moins onéreuse.

Le développement de cette technologie va encore prendre du temps

La gestion raisonnée de la ressource en eau (prélèvement, traitement et recyclage) ainsi que la remise en état des installations d’exploitation ne constituent ni un verrou technologique ni un frein aux futurs développements de nouveaux projets. Elles ont un coût qui est pris en compte lors des études économiques au même titre que les autres travaux. Mais cette gestion raisonnée de l’eau et du paysage est essentielle : elle est le garant d’une exploitation durable, acceptée par tous, des shale gas.
 
L’exploration des shale gas n’a commencé que récemment en Europe mais elle suscite beaucoup d’intérêt de la part des compagnies pétrolières. Les bassins les plus intéressants sont situés en Europe du Nord et de l’Est et plus au sud, notamment en France dans le bassin du sud-est. Total vient d’obtenir un permis d’exploration dans la région de Montélimar. Des permis ont aussi été pris en Suède par Shell, en Allemagne par ExxonMobil, en Pologne par presque tous les majors ainsi qu’en Lituanie.

Compte tenu des contraintes environnementales mais aussi d’une industrie parapétrolière moins développée qu’aux États-Unis, il faut s’attendre à des coûts de production plus élevés en Europe qu’aux États-Unis. L’intérêt économique de la production des shale gas, dans un cadre de développement durable et en accord avec les populations, reste donc à démontrer. Dans tous les cas, leur développement va prendre du temps et n’en est qu’à ses débuts.

R.V

Un lecteur de code à barres vient concurrencer les scanners laser

Spécialiste des systèmes de vision et d’identification industrielle, l’américain Cognex n’a pas hésité à investir plus de 10 millions de dollars en trois ans pour développer son nouveau lecteur de code à barres imageur, le DataMan 500.  « La technologie d’imagerie propriétaire que nous avons développée nous a permis de créer un produit capable de surpasser les scanners laser, facile à utiliser et qui va transformer le marché de la lecture des codes à barres », a déclaré Carl Gerst, directeur de la division Produits d’Identification de Cognex.

Le lecteur imageur DataMan 500 traite jusqu’à 1 000 images par seconde et lit 90 codes par seconde (quelle que soit leur orientation), les codes 2D tels que les codes Data Matrix et QR, ou encore les codes contenus dans une seule image.  S’appuyant sur la technologie de lecture de codes IDMax de Cognex, le lecteur est capable de lire les codes à barres 1D endommagés, déformés, flous, rayés, de faible hauteur ou faiblement contrastés… Ce que les scanners laser sont, eux, incapables de lire.
Simplicité d’utilisation et disponibilité d’outils d’intégration sont les clés du succès pour n’importe quelle application de lecture de code à barres. Plus facile à utiliser qu’un scanner laser, le DataMan 500 permet aux utilisateurs de voir ce que le lecteur voit et de passer en revue les images, que ce soit en direct, sur un écran ou ultérieurement, en consultant les images archivées. Ses fonctionnalités de visualisation et de retour sur « échec de lecture » facilitent considérablement la configuration de la lecture de codes, de même qu’elles accélèrent le diagnostic et la résolution de n’importe quel problème de lecture. Enfin, pour simplifier l’installation, le DataMan 500 utilise un seul câble PoE (Power over Ethernet) pour son raccordement Ethernet et son alimentation. Il offre également une interface RS-232 et plusieurs entrées-sorties.

 

Sans aucune pièce mobile, le DataMan 500 est conçu pour être plus fiable que les scanners laser. Il offre par conséquent de nombreux autres avantages, notamment le déclenchement et la mise au point automatiques. Il accepte également les optiques standard à monture C, et les options de focale variable.

Les avantages de l’optique liquide

L’optique liquide contient deux liquides : l’huile qui sert d’isolant et l’eau de conducteur. Les variations de tension induisent une modification de la courbure de l’interface entre les liquides qui, à son tour, entraîne un changement de la longueur focale de l’optique. L’optique liquide peut simplifier l’installation, la configuration et la maintenance, car il ne nécessite aucune intervention manuelle. En comparaison à d’autres mécanismes de mise au point automatique, l’optique liquide, extrêmement réactif, convient pour les applications dans lesquelles la distance de lecture varie d’une pièce à l’autre ou durant le changement des pièces. La focale réglable de l’objectif liquide confère au DataMan 500 une souplesse de profondeur de champ maximale, même pour les applications les plus rapides. Cette nouvelle technologie, éprouvée et déjà intégrée dans les lecteurs industriels de Cognex, offre ainsi une bonne qualité optique tout en consommant peu d’énergie.

 

 

Traçabilité des produits industriels par marquage chimique

Dans l’industrie automobile, par exemple, l’environnement règlementaire conduit à la traçabilité des matières, matériaux et des produits :

  • la Directive 2000/53/CE précise les objectifs de recyclage et de valorisation des Véhicules Hors d’Usage (VHU) : recyclage de 95 % des VHU en 2015 pour l’utilisation des matériaux recyclés dans des véhicules neufs ;
  • la Directive 2008/98/CE porte sur la responsabilité « producteur» : éco-conception des produits, hiérarchisation des déchets et libre circulation des produits mais pas des déchets ;
  • la réglementation REACH concerne la traçabilité des compositions.

Autant de contraintes réglementaires qui expliquent l’intérêt des industriels pour le procédé breveté mis au point par Tracing Technologies capable de marquer dans la masse tous types de polymères et de les retrouver intacts après vieillissement, y compris dans les matières sombres et noires. Ils y voient une solution pour :

  • l’identification des plastiques par catégorie ou grade de polymères afin de répondre aux nouvelles règlementations (REACH) ;
  • l’éco-conception des produits dès leur fabrication en vue  de leur gestion en fin de vie (tri, recyclage ou valorisation des matières premières secondaires) ;
  • la traçabilité des produits tout au long du cycle de vie ;
  • l’amélioration des méthodes de tri en fin de vie des produits avec une identification fine et homogène des produits sur les chaines de tri  (par exemple, tri automatique des polymères par nature de formulations mais aussi élimination des produits dangereux, toxiques ou non valorisables).

Positionné en amont du process de fabrication, ce procédé de Tracing Technologies s’applique à de nombreux secteurs (automobile, électronique, électrique, électroménager, emballage…) et aux produits sensibles et à forte valeur ajoutée.

Marquage pérenne des produits de couleurs sombres ou noirs

Tracing Technologies utilise des marqueurs chimiques à des doses très faibles (de l’ordre de quelques ppm) et d’une totale innocuité, pour marquer en surface ou dans la masse, des produits de toute nature : plastiques, cartons, papiers…, clairs, sombres ou noirs. Invisible à l’oeil, le procédé qui ne modifie pas les propriétés physiques (thermiques, couleurs…) ou chimiques des matières ou produits, permet une authentification des produits, des emballages et des suremballages. Un lecteur dédié permettra une authentification immédiate soit au cas par cas (contrôle qualité), soit dans une série de lectures, y compris à grande vitesse (tri).

Une démonstration de tri à grande vitesse sur un site industriel a permis de valider les principales caractéristiques: tri optimisé (1,5t / h), tri sélectif (plus de 95 % avec une vitesse de 3,5 m / sec), identification positive à 100 % pour toute particule, 10 000 à 100 000 mesures par seconde, identification des produits multicouches et insensibilité aux conditions d’ambiance et aux contaminants.
 
Le marquage de différents polymères a été réalisé avec succès (PP, HDPE, LDPE, PVC,  PET, PC, PA6 , ABS …), le procédé permettant la différenciation par grade (PE, PS, Polyester et PP), l’identification de multicouches, multi matériaux ainsi que l’impression sous encre.
 
Tracing technologies a relevé un véritable défi technologique en réussissant le marquage pérenne des produits de couleurs sombres ou noires. Il s’agit d’une contrainte majeure pour les industriels car ces nuances présentent la particularité d’absorber les radiations. L’entreprise a surmonté cet obstacle grâce à un procédé sans contact en réflectance, après sélection de traceurs pertinents, qui a été validé par le programme de recherche « TRITR@CE », regroupant des industriels de l’électroménager (Groupe Seb) et des transformateurs de matières plastiques (Plastic Omnium AE…).

Projet « TRITR@CE » (2007 – 2009) : validation pour les polymères

Piloté par le Pôle National de Traçabilité de Valence, ce projet qui réunissait un industriel leader du secteur automobile, un industriel leader du secteur électroménager et électronique, Tracing Technologies, l’ITECH (Lyon), l’ENSAM (Chambéry) et ARAMM /ARDI Matériaux (Lyon) avait pour objectif :

  • la validation du système « traceurs » sur des polymères ciblés ;
  • la réalisation de mélanges maîtres selon les procédures de fabrication des secteurs automobile, électrique, électronique et électroménager avec des matrices polymères ciblées, du polypropylène clair et noir et de l’ABS.

« TRITR@CE » a permis de démontrer, après vieillissement des éprouvettes, que :

  • le signal des marqueurs est retrouvé inchangé, y compris dans les matrices noires ;
  • le signal est quantifié.

Il a ainsi validé le procédé Tracing Technologies pour l’identification des polymères en fin de vie, la traçabilité des polymères marqués (REACH) et les recyclages multiples. Des industriels partenaires ont ainsi affirmé : « Les résultats obtenus sont tous positifs … Nous allons vers une démarche de normalisation… Les résultats montrent que l’application des traceurs est envisageable dans les pièces ABS ».

Un pilote industriel est en cours de réalisation dans le cadre du programme TRIPTIC de ANR sur une chaîne de tri de produits de recyclage. Un prototype de lecteur portable va également faire l’objet de miniaturisation pour des applications de sécurisation commerciale ou patrimoniale et de protection des marques.

Projet TRIPTIC (2010 – 2014) : vers l’industrialisation de systèmes de tri

Labellisé par les pôles AXELERA et PLASTIPOLIS, le projet TRIPTIC (Traceurs Répartis pour Identification des Polymères et Tri Industriel en Cadence) a pour objectif de récupérer la matière la plus pure possible après des opérations de démontage ou de broyage et tri (aujourd’hui, environ 8% des plastiques des VHU sont recyclés…). Comme les technologies actuelles ne permettent pas de trier les matériaux polymères en fonction de leurs formulations aussi bien qu’en fonction de leurs propriétés rhéologiques qui sont des paramètres importants pour leur valorisation, il est nécessaire d’utiliser une signature avec traceurs qui devraient être détectés par tri spectrométrique (Fluorescence X ou UV). Le tri avec traceurs devrait permettre de trier les polymères plus rapidement et avec une meilleure qualité.

TRIPTIC qui réunit l’INSA Lyon-IMP (partenaire coordinateur), l’ENSAM RECORD, Renault, POAES, Tracing Technologies, PST et le CEA-List et s’achèvera en 2013, comporte trois tâches expérimentales :

  • dispersion de quelques dizaines ou centaines de ppm de traceurs commerciaux dans des matrices représentatives d’enjeux industriels et économiques ;
  • optimisation de la détection spectrométrique (fluorescence X ou UV) ;
  • étude de l’industrialisation de systèmes de tri par fluorescence X et UV.

Ces tâches expérimentales sont associées à de la veille scientifique et à une analyse de cycle de vie qui permettra de connaître les impacts des technologies développées et, si besoin, de proposer des orientations pour les réduire. Une autre tâche a pour objectif d’étudier l’extension des technologies de tri à d’autres matériaux polymères et d’autres secteurs industriels tels que les secteurs des Equipements Electrique et Electroniques (EEE) et de l’emballage. La dernière tâche porte sur la diffusion des résultats pour élaborer une nouvelle normalisation (des discussions avec l’AFNOR sont amorcées) visant à développer le tri avec traceurs. Cette étude sera faite avec le souci permanent de développer des procédés respectueux de la santé et de l’environnement en conformité avec les spécifications de l’industrie. 

Un niveau record de protection contre les intrusions

NSS Labs est une organisation indépendante, leader mondial de la recherche et de la vérification des produits de sécurité. Ses analyses poussées apportent aux professionnels de l’informatique des données objectives dont ils ont besoin pour choisir le produit le mieux adapté à leur entreprise.

Pionnier dans les tests de systèmes de détection d’intrusion et de prévention avec la publication du premier test de ce type en 1999, NSS Labs a aussi évalué les pare-feu, la gestion des menaces unifiée, la protection contre les menaces, le cryptage, les pare-feux pour les applications Webn et d’autres technologies de manière régulière. La méthodologie de test de la société, dans des conditions d’environnement réel, est la seule à évaluer les produits de sécurité dans les conditions de menaces Internet réelles. Les tests NSS Labs sont considérés comme les plus poussés de l’industrie et leurs recommandations ainsi que leurs certifications sont très convoitées par les fabricants.

« Pour combattre les menaces en constante évolution à ce jour, les entreprises recourent à des solutions de sécurité qui peuvent être conçues pour leur environnement unique et leurs besoins spécifiques, c’est pourquoi nos processus d’évaluation sont significatifs ainsi que l’efficacité des ressources de prévention et de détection » précise Rick Moy, Président de NSS Labs, Inc. « L’IPS 3D 4500 de Sourcefire atteint le plus haut niveau de protection pour la seconde année consécutive. Ce dernier reste l’un des meilleurs choix pour les entreprises qui souhaitent tirer le meilleur profit de leur solution IPS » poursuit-il.

Ainsi, l’IPS (Intrusion Prevention System) de Sourcefire occupe la meilleure place en matière de détection et de prévention de tous les produits testés, et obtient la plus haute distinction avec la mention « Recommend » par NSS Labs. Le Sensor 3D4500 de Sourcefire, promu comme un IPS 2Gbps atteint 3,2Gbps de débit, ce qui équivaut à 161% de sa performance fournisseur. Il s’agit du pourcentage le plus élevé de tous les modèles IPS testés. Les résultats des tests de Sourcefire révèlent également :

  • 98% d’efficacité en matière de sécurité ;
  • 99% de détection des attaques ciblés initialisées ;
  • 98% de couverture pour les vulnérabilités reportées entre 2004 et 2010 ;
  • 100% de la couverture anti-évasion.  

Vers un Internet de nouvelle génération

Né d’un accord entre Alcatel-Lucent et l’INRIA scellant un partenariat de recherche commune pour développer les technologies des réseaux de communication du futur, ce laboratoire commun qui vient de célèbrer son troisième anniversaire, rassemble à ce jour plus de 50 chercheurs. Deux tiers d’entre eux sont issus de l’INRIA et d’Alcatel-Lucent Bell Labs, le dernier tiers étant constitué de doctorants et de chercheurs postdoctoraux (« postdocs ») spécifiquement recrutés.

Décloisonné, le laboratoire commun tire parti de l’environnement scientifique de 11 équipes de recherche INRIA réparties sur plusieurs sites (Rennes, Paris, Nancy, Lyon, Grenoble, Sophia Antipolis) et des équipe Bell Labs basées à Villarceaux (91), avec le soutien de la communauté de recherche des Bell Labs dans le monde.

Trois axes de recherche pour un Internet de nouvelle génération

Ses recherches portent sur les « réseaux autonomes ». En d’autres termes, il s’agit de voir comment automatiser au maximum l’exploitation des réseaux de télécommunication pour gérer la complexité, toujours croissante, des flux et communications échangés. L’objectif est de poursuivre l’essor des réseaux, tout en conservant un niveau de qualité irréprochable.

Les travaux du laboratoire poursuivent trois axes de recherche, chacun piloté par un binôme Alcatel-Lucent- I NRIA :

  • « High manageability » qui se consacre à l’automatisation des réseaux fixes ;
  • « Semantic networking » ou comment conférer au réseau la capacité de reconnaître automatiquement le type d’applications portées par les flux qu’il transporte et à en déduire les traitements appropriés pour offrir la qualité de service requise ;
  • « Self optimised Wireless networks » qui étudie l’optimisation distribuée des réseaux d’accès sans fil.

Déjà 10 brevets et des résultats significatifs

Les équipes ont d’ores et déjà obtenu des résultats majeurs en termes :

  •  d’algorithme distribué pour le réglage des puissances des canaux dans un réseau optique dynamique maillé à multiplexage en longueur d’onde ;
  •  d’application de la « théorie des échantillonneurs de Gibbs » pour diverses optimisation de réseaux cellulaires 3G/4G, et en particulier les réseaux à petites cellules (ce qui permettra, notamment, de maximiser le rapport débit offert aux utilisateurs/ énergie consommée) ;
  •  de méthodes de classification et de traitement des flux et d’adaptation automatique des paramètres de contrôle des noeuds de routage conduisant à une finesse et une pertinence accrues du contrôle de la qualité de service.

A ce jour, les équipes du laboratoire sont à l’origine de 10 brevets (déposés ou en cours de dépôt) et ont effectué plus de 50 publications dans des conférences et des journaux internationaux.

« Notre laboratoire commun avec Alcatel Lucent Bell Labs France est emblématique des partenariats stratégiques que nous mettons en place avec de grands industriels. Notre collaboration avec Alcatel-Lucent dépasse le laboratoire commun. Nous sommes aussi partenaire au sein de l’initiative Green Touch et de ICT Labs, autre bel exemple de collaboration, dont l’objectif est d’élaborer une communauté européenne de la connaissance et de l’innovation dans les domaines qui sont les nôtres », déclare Michel Cosnard, président- directeur général de l’INRIA.

 

L’impact de goutte de fluides à la loupe

Le processus d’impact de goutte se rencontre tant dans des applications industrielles variées que dans notre vie quotidienne. Une goutte de pluie sur une vitre, une goutte de peinture pulvérisée, une goutte d’encre éjectée d’une imprimante jet d’encre… mettent en jeu divers phénomènes physiques surprenants dépendant de la vitesse d’impact, du support impacté et de la nature du fluide. Maîtriser la forme finale de la goutte s’avère alors d’une importance capitale. Lors de l’impact, la goutte peut se rompre créant ainsi des petites gouttelettes et des éclaboussures, elle peut aussi rebondir sur le support ou encore, après étalement, se rétracter… Pour minimiser ces instabilités, il est possible d’agir sur les propriétés intrinsèques des fluides en introduisant notamment un seuil d’écoulement.

Afin de mieux cerner ces phénomènes, Alireza Saidi a préparé et soutenu une thèse de doctorat de Grenoble INP, spécialité Mécanique des fluides, Énergétique, Procédés, à Grenoble INP-Pagora, École internationale du papier, de la communication imprimée et des biomatériaux. Cette thèse « Impact de goutte de fluides à seuil » a été préparée conjointement dans le laboratoire de Rhéologie et le laboratoire LGP2 sous la direction d’Albert Magnin, Directeur de recherche du CNRS, et de Céline Martin, Maître de conférences de Grenoble INP-Pagora.

Dans cette étude, des gouttes millimétriques ont été générées sous leur propre poids au travers d’un capillaire. Leur comportement dynamique a été visualisé et caractérisé depuis la formation jusqu’à l’équilibre après l’impact et ce, sur une large gamme de vitesse d’impact. Juste avant l’impact, les gouttes perdent leur forme sphérique quand le seuil d’écoulement augmente. Elles deviennent alors de plus en plus allongées. Ainsi, dans des régimes à faible inertie, elles s’affaissent lors de l’impact, sous l’effet de la pression hydrostatique. Cette phase d’affaissement est gouvernée majoritairement par les propriétés d’interface du substrat. Dans des régimes à forte inertie, l’augmentation du seuil d’écoulement et des propriétés visqueuses du fluide inhibe les phases d’étalement inertiel et de retrait. Par ailleurs, les données expérimentales ont été corrélées avec des données théoriques issues de modèles d’impact de gouttes de fluides élasto-viscoplastiques, mettant en évidence l’implication des deux mécanismes à la fois visqueux et élastique dans le processus d’impact.
 

« Le Bilan Carbone est avant tout un outil »

Instantannés Techniques : Quelles est la place du Bilan Carbone dans le diagnostic gaz à effet de serre ?

Bertrand Swiderski : Le Bilan Carbone de l’ADEME fonctionne comme un véritable outil pour faire ces « diagnostics gaz à effet de serre ».

Le Bilan Carbone tel que proposé par l’ADEME est-il certifié ?

Pas du tout. C’est plutôt un outil franco-français, développé par l’ADEME. On pourrait dire que le seul défaut de cet outil est qu’il n’est pas international. Certains de nos clients nous demandent d’utiliser le GHG (GreenHouse Gas) Protocol, qui est un outil équivalent, fourni par l’ONU. C’est un outil beaucoup plus international, même s’il est moins ergonomique que le bilan carbone. Aujourd’hui, une entreprise française ayant des clients étrangers devra jongler entre les deux outils.

Utiliser la méthode Bilan Carbone nécessite une formation. Pour autant, s’agit-il d’un outil réservé aux experts ?

Oui. La formation est importante car elle permet de comprendre comment récupérer les données, et les utiliser dans l’outil. C’est clairement un outil destiné à des experts, même s’il se résume finalement à une table excel.

Quel est l’intérêt pour les entreprises d’entreprendre une évaluation « diagnostic gaz à effet de serre » ?

Le diagnostic gaz à effet de serre sur une activité industrielle, ou une activité tertiaire d’ailleurs, va permettre d’étudier les émissions de ces mêmes gaz à effet de serre. Ces émissions peuvent être liées à l’utilisation d’un bâtiment, ou d’un outil industriel. Le diagnostic gaz à effet de serre permet de mettre en valeur les émissions globalement, mais aussi à travers différents postes. C’est intéressant pour évaluer la stratégie pour l’entreprise en termes d’amélioration continue des résultats de ces bilans.

Quelle va être la typologie de votre clientèle, au niveau de la démarche ?

Certaines entreprises vont faire cette démarche après une demande explicite d’un client, cela représente une grande partie de notre clientèle. Après, certains de nos clients sont plus sensibles à cette démarche et demandeurs. Les aides allouées pour encourager la démarche ont aussi permis à certains de franchir le cap. L’obligation pour les entreprises de plus de 500 salariés d’effectuer ce bilan carbone est évidemment une raison supplémentaire. Aussi, certaines entreprises sont déjà dans une démarche d’affranchissement progressif vis-à-vis des énergies fossiles, vis-à-vis du développement du mix énergétique plus généralement.

Il y a donc clairement un aspect économique pour vos clients ?

La contrainte écologique marche bien, la contrainte économique marche mieux. Pour ces deux entreprises, le PNAQ a permis de transformer une contrainte en opportunité. Ces investissements deviennent rentables grâce à la location de quota. Depuis Kyoto, la France a mis en place le PNAQ (plan d’allocation national des quotas) : 1 100 entreprises ont un quota d’émissions de CO2. Quand elles dépassent ce quota, elles sont dans l’obligation d’acheter des crédits carbone, de compenser financièrement ce dépassement. La mise en place de PNAQ a eu beaucoup d’effets dans les entreprises. L’aspect économique est donc devenu un enjeu, de plus en plus important. Pour l’entreprise, la dépendance aux énergies fossiles devient non seulement pénalisante au niveau économique, via les crédits carbones, mais elle le devient également sur le plus long terme, car elles se raréfient dangereusement. Dans ce sens là, le Bilan Carbone est un outil de prospective intéressant.

Quelle va être la démarche pour les entreprises financièrement très pénalisées par la mise en place du PNAQ ?

Nos clients investissent fortement pour réduire leurs émissions. L’un de nos clients, qui entre dans la troisième année de mise en place du projet de réduction des émissions, a déjà fortement réduit ces dernières. Au bout de quatre ans, les résultats annuels pondérés sur ces quatre dernières années devraient être inférieurs aux quotas alloués. L’entreprise en question a investi dans une chaudière bois intégrale à la place du chauffage au gaz. Bien sûr, il s’agit d’une entreprise énorme, hyper consommatrice d’énergie. L’investissement était de quatre millions d’euros. Pour une autre entreprise, la solution est passée par la mise en place d’un dispositif de cogénération, afin de réduire fortement sa consommation de gaz, tout en produisant de la vapeur d’eau et de l’électricité.

Peut-on imaginer que le PNAQ s’applique, à terme, à toutes les entreprises ?

C’est l’idée… Pour les plus petites entreprises, la démarche mérite d’être adaptée. On semble se diriger vers une prise en compte d’une partie du diagnostic gaz à effet de serre pour établir des exigences cohérentes écologiquement et économiquement. Une ISO vient de sortir, avec trois scopes de résultats. Le Bilan Carbone comme le GHG permettent d’extraire des données selon ces trois scopes. On peut donc imaginer une taxation sur un de ces scopes là.

Quelle va être le suivi de la démarche « diagnostic à effet de serre » dans une entreprise, au-delà du dit diagnostic ?

Quand on établie un diagnostic gaz à effet de serre, on établie par la suite un tableau de bord, qui va mesurer l’évolution des émissions de CO2. Bien sûr, on va pondérer les émissions par rapport à la production de l’entreprise elle même. Quand les entreprises produisent moins, elles polluent moins. Le diagnostic se fait tous les deux ans.

Les entreprises s’intéressent également à l’empreinte carbone des produits qu’elles fabriquent…

Oui. Mais l’outil de l’ADEME ne permet absolument pas d’évaluer l’empreinte écologique d’un produit. Les entreprises craignent beaucoup la mise en place de l’étiquetage CO2. Maintenant, on parle plus d’étiquetage environnemental que d’étiquetage CO2. Du coup, elles font la démarche pour évaluer par quels biais elles pourraient réduire leurs émissions. Les transports de marchandise sont une source d’émission importante, donc nous sommes très sollicités sur ce type de réflexions. Sur le site de l’Afnor, on trouve les modalités de calcul de l’empreinte écologique d’un produit. On s’est rapproché d’une ACV (analyse du cycle de vie) simplifiée. Hormis le CO2 émis, elle prend en compte la consommation d’eau, rejets d’eau, émission de polluants…

Qu’est-ce qui a changé dans la démarche de vos clients depuis la mise en place de ces outils d’aide à l’évaluation des émissions polluantes ?

L’obligation pour les entreprises, la probabilité de la généralisation de ce type de démarche, fait évoluer les motivations de notre clientèle. Avant, nous étions destinés à des gens qui voulaient être vertueux, maintenant nous sommes plus dans une relation client / fournisseur.
Au-delà de la généralisation du bilan carbone pour les entreprises de plus de 500 salariés, quelles décisions du Grenelle jugez vous impactantes, au niveau des entreprises avec lesquelles vous collaborez ?
La collecte des déchets organiques obligatoires est une avancée énorme. Trois grosses usines se construisent autour de Paris rien que pour ça. Au niveau des industriels, la réflexion est complète, puisque traiter les déchets séparément est quelque chose de très nouveau. Toute une chaîne se met en place.

C’est plutôt positif…

C’est même une révolution. Après, il faut faire attention. Le Grenelle peut nous faire beaucoup de bien comme beaucoup de mal. Si rien ne change après les décisions du Grenelle, il risque d’y avoir une remise en cause de l’importance que l’on accorde à l’écologie.

Propos recueillis par P.T

EN SAVOIR PLUS :

Le bilan carbone obligatoire pour les entreprises :
Bilan Carbone obligatoire pour les entreprises de plus de 500 personnes. Le Parlement est allé plus loin que le Sénat en étendant l’obligation de réalisation du Bilan Carbone à toutes les entreprises de plus de 500 personnes quel que soit leur secteur d’activité (le texte du Sénat limitait l’obligation aux secteurs fortement émetteurs). Ce Bilan doit avoir été établi pour le 31 janvier 2012. Il est rendu public et doit être mis à jour au moins tous les trois ans (art.75).

Affichage environnemental et contenu carbone :
La loi Grenelle 2 prévoit aussi, en son article 228 des mesures qui devraient inciter de nombreuses entreprises, quelle que soit leur taille à s’intéresser à leur impact environnemental et en particulier, à leur empreinte carbone. Il s’agit des mesures concernant l’affichage environnemental des produits de grande consommation.
L’article 228 stipule notamment : À partir du 1er juillet 2011 « À partir du 1er janvier 2011 […] une expérimentation est menée […] afin d’informer progressivement le consommateur par tout procédé approprié du contenu en équivalent carbone des produits et de leur emballage […] qui sont imputables à ces produits au cours de leur cycle de vie.»

Un Bilan Carbone pour tous, tous pour un Bilan Carbone ?

Malheureusement, la réalité est bien plus complexe. Aujourd’hui, toute activité humaine, quelle qu’elle soit, engendre directement des émissions de gaz à effet de serre, même une compagnie d’assurances ou une crèche. Il faut en outre y rajouter des émissions « indirectes », liées aux produits ou services consommés pour « faire tourner la boutique », et qui peuvent facilement être bien plus importantes que les émissions directes. Commençons par le principal de ces gaz à effet de serre, le gaz carbonique. Il s’en dégage dans l’atmosphère dès que nous brûlons un produit contenant du carbone : du charbon, du pétrole, du gaz naturel, du bois…ou encore du plastique, qui n’est rien d’autre que du pétrole transformé. Nous allons donc trouver des émissions de gaz à effet de serre :

  • dès que l’on utilise une source d’énergie « fossile » (charbon, gaz, produits pétroliers), que ce soit pour se déplacer (en avion, en voiture, ou en bateau) ou pour se chauffer (les émissions du chauffage des logements et bureaux, en France, représentent des émissions supérieures à celles des voitures particulières). Le tableau donne une idée de la répartition des émissions, en associant les Kg équivalent carbone émis par tonne équivalent pétrole pour diverses énergies (1 tonne équivalent pétrole = 11.600 kWh = 42 milliards de Joules). Les énergies « fossiles » sont celles de gauche, du gaz naturel au coke de lignite (un charbon particulièrement riche en carbone). Pour les moyens purement électriques (hydroélectricité, éolien, nucléaire) les valeurs indiquées correspondent à la consommation de 11.600 kWh électriques (source ADEME, EDF) ;

  • lorsque l’on incinère des ordures contenant du plastique ;
  • pour produire de l’électricité en partant de combustibles fossiles (5% à 10% de l’électricité française est faite avec de tels combustibles, mais cette manière de faire représente plus de 80 % en Pologne ou…..au Danemark) ;
  • pour faire des matières premières (on utilise beaucoup d’énergie fossile pour produire de l’acier, du plastique, du verre, du ciment….) ;
  • dans l’agriculture, qui utilise de l’énergie (dans le tracteur), et qui engendre des émissions de gaz autres que du gaz carbonique, à travers l’élevage de ruminants (boeufs, moutons, chèvres) et l’utilisation des engrais ;
  • dans la putréfaction (par exemple la décomposition du papier en décharge).

Il résulte de cette énumération que n’importe quelle activité humaine, quelle qu’elle soit, engendre des émissions directes de gaz à effet de serre, ne serait-ce qu’à travers le chauffage de ses locaux (s’il est fait au gaz ou au fioul), et des émissions indirectes, qui sont fréquemment très supérieures aux émissions directes, et qui sont « incluses » dans les produits ou services en provenance de l’extérieur et nécessaires à l’activité, même si cette dernière est tertiaire.

Par exemple :

  • il faut chauffer les locaux, et cela engendre des émissions directes (gaz ou fioul) ou indirectes (électricité, avec la remarque ci-dessus) ;
  • toute activité consomme de l’électricité, qu’il faut produire. Cependant, selon la compagnie qui fournit l’électricité, les émissions liées à sa production peuvent varier du tout au tout (le tableau ci-dessous, qui montre les émissions liées à la production d’électricité, illustre bien ce propos. (Source : ADEME) ;

 

  • les transports qui sont nécessaires, que ce soit pour permettre aux salariés de venir travailler, pour livrer les marchandises ou les matières premières, ou pour les déplacements des salariés pendant les horaires de travail, émettent tous des gaz à effet de serre (en fait essentiellement du CO2), car ils consomment des produits pétroliers ;
  • il a fallu bâtir les locaux occupés par l’activité, et donc fabriquer les matériaux de construction, les transporter, et les assembler, et tout cela représente une consommation de combustibles fossiles importante, donc des émissions de gaz à effet de serre ;
  • il a éventuellement fallu fabriquer les matières premières utilisées pour l’activité, et cette fabrication a engendré des émissions de gaz à effet de serre ;
  • éventuellement, il a fallu construire les machines utilisées, ce qui a aussi nécessité d’utiliser de l’énergie pour produire les matériaux, les assembler, et les transporter ;
  • il peut y avoir des réactions chimiques, de l’évaporation de certains solvants, ou des fuites de certains gaz, qui conduisent à relâcher des gaz à effet de serre dans l’atmosphère ;
  • les déchets, ou les emballages des produits vendus, lors de la mise en décharge ou de l’incinération, émettent des gaz à effet de serre…

Comme il n’existe pas une entreprise qui n’utilise pas de moyens de transports pour faire venir ses salariés, ou ne consomme aucun produit manufacturé, fût-ce des feuilles de papier, dont la production a conduit à des émissions de gaz à effet de serre, il n’existe pas une entreprise qui n’exerce pas directement ou indirectement une pression sur le climat futur.

De ce fait, toute entreprise ou activité administrative ou associative peut légitimement s’intéresser aux émissions qu’elle engendre, directement ou indirectement. Comme le lieu d’émission des gaz à effet de serre est sans importance, toute réduction, que ce soit sur les émissions directes, ou sur les émissions induites, est bonne à prendre, et très souvent les émissions induites sont très supérieures aux émissions directes.

Et, bien entendu, il n’est pas possible d’agir et d’établir des priorités autrement qu’en mesurant l’importance respective des différentes sources d’émission, directes ou indirectes. Tout le monde peut agir, et ce n’est qu’avec la mesure qu’il est possible de savoir quelles sont les marges de manoeuvre et où elles se situent.

C’est dans cet esprit qu’a été mis au point, entre mi-2000 et fin 2003, pour le compte de l’ADEME et de la Mission Interministérielle pour l’Effet de Serre, une méthode permettant d’estimer à la fois les émissions directes et les émissions indirectes de gaz à effet de serre de toute activité industrielle ou tertiaire, intitulée le « Bilan Carbone ». Cet intitulé désigne tout à la fois :

  • une méthode de comptabilisation des émissions de gaz à effet de serre, compatible avec l’initiative GHG Protocol ;
  • un tableur Excel prêt à l’emploi pour effectuer le calcul des émissions, comparer entre elles les émissions d’une année sur l’autre, et évaluer le potentiel de diverses actions de réduction ;
  • le manuel d’utilisation du tableur ;
  • le document décrivant la mise au point de la méthode, qui explique notamment comment ont été choisies les valeurs par défaut utilisées dans le logiciel et les sources utilisées.

L’esprit général de la démarche est de partir de données facilement disponibles dans l’entité examinée pour parvenir à une bonne évaluation des émissions directes ou induites de l’activité. A long terme, l’objectif est bien sûr de généraliser ce Blian Carbone, puisqu’on voit bien que chaque activité humaine produit des GES, en quantité difficilement estimable sans cet outil.

J-M.J

Sources : ADEME, EDF, X-Environnement.

Taxe carbone : faut-il taxer l’électricité ?

La taxe carbone, parfois appelée « contribution climat-énergie », se fixe comme objectif de faciliter les actions de tous les décideurs devant réduire les émissions de gaz à effet de serre dues à l’énergie. Elle a ainsi vocation à s’appliquer aux usages diffus des énergies carbonées non soumises au régime européen des quotas de CO2, qui représentent en France les deux tiers des émissions.

Ce rappel, clairement exprimé par Michel Rocard [1] en ouverture de la conférence des 2/3 juillet 2009, semble devoir exclure l’électricité du champ de cet impôt, puisqu’elle est soumise au régime des quotas. De nombreuses voix s’élèvent cependant pour étendre à l’électricité l’application de l’impôt, au nom du développement durable et, surtout, du côté des écologistes, pour ne pas avantager le nucléaire.

Notons tout d’abord que l’imposition d’une taxe carbone à une énergie non carbonée (renouvelable ou nucléaire) serait difficilement explicable aux consommateurs sans de fortes contorsions sémantiques : c’est ainsi que l’on évoque le développement durable (les ressources en uranium, même si elles sont considérables, n’étant pas renouvelables) et l’expression « contribution énergie-climat » pour faire oublier que ce sont les énergies carbonées qui sont en cause dans la problématique du climat. On peut certes vouloir encourager la sobriété énergétique, au nom d’une éthique de société, et taxer toute énergie, quelle qu’elle soit, mais cela est un autre débat.

Un objectif à terme de 100 € la tonne de CO2

Il n’en demeure pas moins qu’une fraction de l’électricité est produite à partir d’énergies carbonées (charbon, pétrole et gaz) : près des deux tiers en Allemagne, au Royaume Uni et en Espagne, plus de la moitié dans l’Europe des 27, mais entre 5 et 10 % en France. Le régime européen des quotas n’a guère pénalisé ce secteur, la tonne de CO2 s’y négociant entre 10 et 20 €.

La mise aux enchères des quotas à partir de 2012 aura en principe pour effet de les pousser à la hausse, mais la plupart des spécialistes anticipent une hausse limitée [2],au moins jusqu’en 2020. L’effet sur le coût du MWh carboné resterait alors trop faible pour influencer les consommateurs (moins de 10 €/MWh pour une centrale à gaz à cycle combiné).

Il ne serait pas insensé d’étendre la taxe carbone aux électricités carbonées, en combinant cela à une politique tarifaire faisant payer plus cher l’électricité aux heures de pointe où la part des énergies carbonées est la plus élevée. A 100 € par tonne de CO2, objectif à terme proposé par Michel Rocard, l’augmentation du coût serait de 50 €/MWh pour le gaz et 100 €/MWh pour le charbon, à comparer à une fourchette actuelle de 50 à 60 €/MWh pour ces deux sources. Il faudrait bien évidemment sortir l’électricité carbonée du régime des quotas (ou inventer un système complexe de coexistence évitant de payer deux fois).

Tirer profit de l’électricité décarbonée

La France pourrait-elle adopter une telle taxe ? Il faudrait convaincre les autres pays européens de faire de même, faute de quoi les électriciens des pays non soumis à la taxe bénéficieraient d’un avantage indu et la France devrait arrêter ses propres centrales thermiques.

Mais il n’y a aucune chance pour que les pays largement tributaires des énergies carbonées (à commencer par l’Allemagne) acceptent un tel renchérissement de leur électricité. Et le marché européen unique de l’électricité interdit d’instaurer une taxe sur les importations

Ne faut-il pas dès lors inverser la question, et se demander comment la France peut valoriser, dans les secteurs d’utilisation diffuse de l’énergie (habitat et transport), l’avantage important que lui confère son électricité, décarbonée à plus de 90 % et, relativement, bon marché ?

  • Dans l’habitat, le chauffage électrique direct est intéressant dans les logements très bien isolés (il faut bien évidement regarder le « système isolation + chauffage » et comparer les bilans thermodynamiques et les coûts. Les pompes à chaleur sont un complément très utile, voire incontournable, à l’énergie solaire. Globalement l’ensemble isolation, énergies renouvelables et électricité permettent, avec des technologies disponibles aujourd’hui, de remplacer presque complètement les énergies fossiles de ce secteur.
  • Dans les transports, les progrès récents dans les batteries permettent d’entrevoir des voitures hybrides, rechargeables sur le réseau, et, dans certaines niches, des voitures tout électriques.

Dans ces deux secteurs, la France bénéficie d’un avantage considérable lié au fait que son électricité est très peu carbonée. Cet avantage sera encore accentué lorsque se développeront les systèmes intelligents permettant à chacun de limiter volontairement sa demande aux heures de pointe.

Maintenir une électricité bon marché va bien dans le sens de la protection du climat. Taxer cette source d’énergie, déjà fortement mise à contribution pour financer les électricités renouvelables, aurait en revanche un effet pervers.

 

Source :

Pierre Bacher , ancien élève de polytechnique, est l’auteur de « L’énergie en 21 questions » – édition Odile Jacob (2007), membre du conseil scientifique de Sauvons le Climat et éditorialiste à l’Espace Veille de Techniquesde l’ingénieur.

[1] Michel Rocard « Les enjeux de la conférence sur la contribution climat-énergie »

[2] Les mécanismes de fixation du cours des quotas sont complexes : équilibre de l’offre et de la demande, spéculation… On peut penser que l’adoption d’un système de quotas par les Etats-Unis aurait pour effet de tirer les prix vers le bas, ceux-ci disposant d’importantes capacités de réduction de leurs émissions. Idem pour le Brésil.

Les news «énergies» du mois de janvier

A l’international, 2011 redémarre à toute vitesse

Aux Etats-Unis, à l’occasion de la réception par Barack Obama du président chinois Hu Jintao, la compagnie d’énergie américaine Duke Energy et le groupe chinois ENN Group ont convenu de développer ensemble des « cités vertes » en Chine et aux Etats-Unis, illustrant les débuts d’une coopération entre les deux pays dans les cleantech qui ne se passe pas sans heurts. L’enjeu est crucial : la Chine a annoncé vouloir investir des centaines de milliards de dollars dans les énergies renouvelables, et son marché s’annonce colossal. Mais à côté de cette unité apparente se cache un véritable bras de fer : Washington veut freiner le protectionnisme chinois mais aussi se protéger contre l’arrivée massive d’éoliennes et de panneaux solaires chinois bon marché sur son sol. Pékin, de son côté, veut exactement le contraire.

Les énergies renouvelables concentrent l’innovation

Sur le continent américain toujours, les énergies renouvelables font le buzz en ce début 2011. Ainsi, c’est la compagnie aérienne brésilienne TAM Airlines, en partenariat avec Airbus, qui vient d’effectuer un premier vol d’une durée de 45 minutes sur un A320, équipé de réacteurs CFM56 alimentés par un biocarburant à base de Jatropha, un carburant composé pour moitié de biocarburant issu du Jatropha, une plante originaire du Brésil, l’autre moitié étant du kérosène aéronautique classique. Les études ont montré que l’utilisation de biocarburants aéronautiques fabriqués à partir de ce végétal pourrait réduire l’empreinte carbone globale du secteur de près de 80% par rapport au kérosène classique issu du pétrole. « Ce vol expérimental vient matérialiser la participation de TAM Airlines à un vaste projet dont le but est de développer la chaîne de production de biocarburant renouvelable élaboré à partir de la biomasse végétale, et créer une plate-forme brésilienne pour un biocarburant aéronautique durable », a déclaré Libano Barroso, Président de TAM Airlines.

L’Europe ignore t-elle son potentiel ?

Au niveau européen, c’est un rapport (réalisé par le Marine Board / ESF) sur les biotechnologies marines et leur potentiel au niveau continental qui interpelle. En effet, selon ce rapport, l’Europe pourrait être leader, au niveau mondial, en matière de biotechnologies marines.
En effet, les biotechnologies marines représentent actuellement un marché de 2,8 milliards d’euros à l’échelle mondiale, et pourraient potentiellement croître de 12 % par an si industriels et universitaires collaborent.
Depuis la fin des années 1990, des économistes cherchent à mesurer la valeur économique de la biodiversité ou des services écosystémiques rendus par cette diversité. La pêche étant une filière économiquement importante, les relations de la biodiversité marine à la pêche ont fait l’objet de nombreuses analyses économiques. Les auteurs ont conclu « que la perte de la biodiversité marine porte de plus en plus atteinte à la capacité des océans à fournir de la nourriture, maintenir la qualité de l’eau, et à se remettre des perturbations qu’il subit. Pourtant, les données disponibles suggèrent que – à ce point – ces tendances sont encore réversibles ».

Selon le rapport, à partir des ressources existantes, les biotechnologues marins sont capables de développer de nouveaux produits et services pouvant contribuer à une meilleure appréhension de futurs défis, tels que des ressources durables en nourriture et en énergie, le développement de nouveaux produits pharmaceutiques, et l’approvisionnement en nouveaux matériaux et procédés industriels : micro-algues pour le carburant, bio-polymères, bio-matériaux… Le rapport énumère les actions nécessaires comme suit :

  • Le développement de nouvelles stratégies de recherche et de programme de biotechnologies marines, cohérent aussi bien au niveau national et régional qu’au niveau européen ;
  • L’amélioration des technologies de transfert dans le but de renforcer la collaboration entre recherche universitaire et industrie ;
  • La garantie d’un accès juste et équitable aux ressources génétiques marines en support à l’innovation européenne de plus en plus importante dans ce secteur ;
  • La création d’une identité plus forte et le besoin de communiquer pour accroître la sensibilisation aux recherches sur les biotechnologies marines européennes.

Finance et climat : il est temps de se parler

Autre information surprenante, quoique : la disponibilité et l’accès à l’information sur le changement climatique demeurent insuffisants pour la plupart des principaux établissements financiers du monde. Une toute nouvelle étude réalisée par le Groupe de travail sur les changements climatiques du Programme des Nations Unies pour l’environnement (PNUE) et un institut allemand, le Sustainable Business Institute (SBI), en partenariat avec le ministère allemand de l’éducation et de la recherche, vient de démontrer que la disponibilité et l’accès à l’information sur le changement climatique demeurent insuffisants pour la plupart des principaux établissements financiers du monde. Les résultats de cette étude, compilés dans un rapport rendu public mardi et menée auprès de plus de 60 institutions financières des pays développés ou en développement, mettent en avant l’intérêt croissant de ces organismes, et des compagnies d’assurance, pour les secteurs liés à la protection de l’environnement et au changement climatique, et la nécessité pour elles d’être mieux informées sur les impacts physiques et économiques des évolutions climatiques, peut on lire dans un communiqué de presse. Paul Clements-Hunt, chef de l’Initiative financière du PNUE et l’un des auteurs du rapport, explique : « Jusqu’à présent, le rôle clé que les institutions financières du secteur privé et leurs dirigeants peuvent jouer pour accroître la résilience au changement climatique des économies et des sociétés a été, au mieux, négligé. La réduction rapide des émissions de gaz à effet de serre et l’adaptation aux effets inévitables au réchauffement climatique doivent pourtant aller de pair si nous voulons relever le défi climatique actuel. Cette étude est une première étape, pour que les institutions financières puissent commencer à jouer leur rôle plus important dans l’accélération du passage à une économie verte, résistante au climat ».

 

Renault, la DCNS… de grandes résolutions pour 2011

Bien sûr, l’actualité de ce mois de janvier en France concerne Renault, et les accusations d’espionnage portées par le constructeur français… Selon les informations parues dans la presse, l’espionnage concernerait notamment les nouvelle batteries développées par Renault. La firme au losange a évoqué, en ce début d’année, le développement de toutes nouvelles batteries, « utilisables à la maison ». En effet, Le Pdg de l’alliance automobile Renault-Nissan, Carlos Ghosn, a affirmé qu’une batterie rechargeable de voiture électrique pouvait servir au-delà de la durée de vie du véhicule, afin de stocker et fournir de l’énergie à usage domestique. Selon le Pdg, la durée de vie de la batterie est un faux problème, car « elle va à peu près au-delà de celle de la voiture », a-t-il expliqué devant des journalistes, évoquant une longévité d’une dizaine d’années, soit une existence plus longue que la durée d’utilisation moyenne d’une voiture.

Parallèlement, le japonais Nissan, partenaire de Renault, a commencé à livrer son modèle tout électrique Leaf aux États-Unis et au Japon, avant l’Europe début 2011. L’assemblage de la Leaf devrait en outre démarrer à Smyrna (Tennessee, États-Unis) à la fin 2012 et à Sunderland (Angleterre) au début 2013. Le constructeur nippon a enregistré 6.000 pré-commandes au Japon et 20.000 aux États-Unis.

Des sous-marins nucléaires au nucléaire sous-marin ?

Un autre secteur industriel important en France, celui de la marine : DNCS, leader européen du naval de défense, a créé l’événement en ce mois de janvier en présentant largement à la presse écrite et audiovisuelle son spectaculaire projet de centrale nucléaire sous-marine de petite capacité, Flexblue. La technologie Flexblue était développée dans le plus grand secret depuis quelques années par DCNS. La voilà aujourd’hui portée en pleine lumière par Patrick Boissier qui a déclaré : « Flexible Energy Blue, comme la mer et l’énergie, est un concept sans équivalent sur le marché qui permet d’apporter une source d’énergie sûre, continue, compétitive, qui n’émet pas de CO2, modulaire, un concept qui n’aurait pas d’impact sur le paysage et accessible par la plupart des pays ». Il s’agit d’un concept qui intègre des technologies déjà bien connues et parfaitement maîtrisées par la DCNS qui a construit les chaufferies des sous-marins nucléaires français et du porte-avions Charles de Gaulle.  » Sous-marins nucléaires, porte-avions, nous avons monté 18 centrales nucléaires ! « , explique Patrick Boissier. Flexblue utilise donc toutes les technologies éprouvées existant déjà chez DCNS, ne nécessitant pas de lourds investissements, ce qui devrait en toute logique permettre d’obtenir un produit capable de fournir de l’électricité à un coût compétitif. Affaire à suivre donc…

Juridique : poids-lourds encore plus lourds et obligations des DPE

Les infos juridiques : Promis cet été aux agriculteurs, le décret autorisant la circulation des 44 tonnes, contre 40 actuellement, est paru ce 18 janvier au Journal Officiel. La mesure sera généralisée aux autres secteurs fin 2012 dès la mise en place de l’écoredevance poids lourds. Annoncé fin avril 2010 par le Président Nicolas Sarkozy, suite à la manifestation des céréaliers à Paris, le passage de 40 à 44 tonnes des poids lourds vise à soutenir « la compétitivité des exploitations agricoles », avait alors expliqué le chef de l’Etat : « Cela aura un double effet : réduire les émissions des gaz à effet de serre et apporter un gain de productivité de 11 % sur le prix des matières premières agricoles. C’est 80 millions d’euros par an pour ces filières ». Rappelons que les émissions de GES des poids lourds restent toujours 10 à 100 fois plus élevées par rapport à un transport par mode ferroviaire ou fluvial. La fédération France nature environnement (FNE) a de nouveau dénoncé une mesure anti-Grenelle au profit des lobbies agro-alimentaires et routiers. Elle a réaffirmé son opposition à la généralisation des 44 tonnes qui, selon elle, ne favorise pas le report modal et craint une porte ouvert laissée aux méga-camions de 60 tonnes alors que le gouvernement avait fin juillet 2009 reculé sur leur expérimentation.

Autre obligation en ce début 2011, Toutes les annonces immobilières, y compris celles des particuliers, devront afficher les résultats du diagnostic de performance énergétique (DPE) à partir du 1er janvier 2011 et le non-respect de cette obligation nouvelle sera passible de sanctions judiciaires. « C’est une vraie révolution pour le marché immobilier car cette « valeur verte » va être un élément de négociation du prix de vente et inciter à faire des travaux d’économie d’énergie », a affirmé le secrétaire d’État au Logement Benoist Apparu. Pour le ministre de l’Écologie, Jean-Louis Borloo, cette mesure « est plus importante que le  » bonus-malus écologique » pour les voitures » en raison de l’importance de l’investissement lors d’un achat immobilier et du montant des dépenses énergétiques des ménages. Cette obligation d’affichage, instituée par la loi Grenelle 2 de juillet, « s’applique à tous les biens immobiliers au moment des ventes et des locations, lorsqu’ils sont soumis à l’obligation de réaliser un DPE à compter du 1er janvier 2011 », indique le projet de décret présenté en conseil des ministres.

Des contrats pour les bioénergies…

Global Bioenergies est aujourd’hui l’une des rares entreprises au monde, et la seule en Europe, à développer un procédé de conversion de ressources renouvelables en hydrocarbures. Après avoir franchi avec succès les premières étapes du développement de son procédé de bioproduction d’isobutylène, cette entreprise poursuit l’optimisation du rendement de son procédé, tout en se préparant à mener des tests sur des installations pilote. Parallèlement, Global Bioenergies cherche à répliquer ce succès aux autres molécules de la familles des alcènes gazeux (propylène, éthylène, butylène linéaire …), les molécules centrales de la pétrochimie, provenant aujourd’hui exclusivement du pétrole. 

Le 14 décembre dernier, Global Bioenergies a annoncé la signature avec un industriel américain d’un premier contrat portant sur une application particulière de son procédé de bioproduction d’hydrocarbures gazeux. Un premier résultat commercial qui valide la stratégie commerciale mise en place par cette entreprise qui prévoit l’établissement d’accords de licence spécifiques par applications. « La concession en amont de droits futurs sur nos procédés contribue à leur financement et permet d’en accélérer le développement. De tels accords représentent une bonne opportunité pour les industriels qui obtiennent des droits dans des conditions privilégiées en prenant part au risque de l’industrialisation. Nous prévoyons de signer plusieurs nouveaux accords industriels dès 2011 », a expliqué Marc Delcourt.
 

Zoom sur l’Allemagne

Chaque mois, les bilans thématiques d’IT vous proposent de découvrir comment nos voisins européens appréhendent les problématiques liées aux énergies renouvelables, notamment en termes de recherche. Ce mois-ci l’Allemagne, un exemple à suivre en termes d’investissements, de prise de conscience et d’implication étatique.

DESERTEC, quand la folie des grandeurs devient réalité

A l’étude depuis plusieurs années, le projet mondial DESERTEC, dans lequel ce sont investis de grands industriels allemands, vise à capturer l’énergie solaire et éolienne des déserts. Actuellement, DESERTEC s’intéresse à l’Afrique du Nord et au Moyen-Orient. L’électricité générée sera transportée via des lignes à haute tension ou des câbles sous-marins. Cependant, les chercheurs ajoutent que les câbles, systèmes et composants utilisés actuellement devront être adaptés au futur environnement de production. Le but est de s’assurer que les consommateurs reçoivent l’électricité d’une manière fiable, et avec le moins de pertes possibles.
 C’est pour cela qu’une équipe de recherche allemande étudie plusieurs solutions et travaille sur des composants capables de convertir l’énergie électrique avec un rendement élevé. L’équipe signale que l’on utilise de plus en plus le courant continu pour transporter l’énergie à plus de 500 kilomètres ou pour des câbles sous-marins. En effet, cette méthode assure une tension constante et une faible consommation, avec des pertes maximales de 7% à longue distance contre 40 % en courant alternatif. C’est en tout cas une voie de recherche essentielle pour mener à bien ce projet un peu fou, mais qui ne cesse de prendre une forme de plus en plus concrète.

Conscient de l’importance de projets comme DESERTEC, le Ministre fédéral de l’Environnement, Norbert Röttgen, soutient vivement la recherche sur les énergies renouvelables et augmente ainsi pour 2011 le budget dans ce domaine. « Afin de renforcer les énergies renouvelables, les entreprises et les scientifiques doivent plus s’investir dans la recherche et le développement. Pour ce faire, ils peuvent compter sur le ministère fédéral de l’environnement : nous allons augmenter de manière significative notre financement dans la recherche ». En 2010, près de 120 millions d’euros ont été attribués à ce champ d’étude ; en 2011 les fonds disponibles sont d’ores et déjà de 128 millions d’euros.

Les 184 nouveaux projets de recherche prévus concernent l’énergie éolienne, en particulier en mer, et l’énergie photovoltaïque (PV) en vue de réduire les coûts et d’améliorer son efficacité.



Las Allemands champions de l’investissement durable

En terme de recherche pure et d’innovation l’information de ce mois de janvier concerne les biocarburants… et les algues. En effet, les micro-algues constituent un enjeu d’avenir pour la production de biomasse et de biocarburants. Conscientes de l’intérêt de cette technologie, la France et l’Allemagne intensifient actuellement leurs efforts de R&D dans le domaine des algocarburants.

Une mission d’experts français en Allemagne a été l’occasion de faire un tour d’horizon des principales initiatives allemandes ainsi que d’établir les bases d’éventuelles collaborations franco-allemandes au niveau de ce secteur d’innovation technologique.

Ce document offre une analyse de l’approche allemande en matière de recherche sur les micro-algues en s’intéressant particulièrement aux études fondamentales sur leur biologie, aux développements technologiques liés à la construction de photobioréacteurs et aux premières applications industrielles. Il permet de faire un état des lieux des perspectives de la recherche sur les micro-algues qui devraient être renforcées en Allemagne dans les prochaines années.

Le congrès annuel E-Energy a été inauguré le 11 janvier 2011 à Berlin par le Ministre fédéral pour l’économie et la technologie, Rainer Brüderle. Cette manifestation, qui s’est tenue sur deux journées, a rassemblé plus de 300 experts de l’industrie, du monde de la recherche et de la société civile. Un des thèmes centraux a été la mise en place de réseaux intelligents (Smart Grids) en Allemagne. Grâce à l’utilisation des technologies d’information et de communication (TIC), la demande énergétique pourra être assurée à l’aide de sources d’énergie renouvelables et décentralisées. Les différentes utilisations possibles sont développées et testées dans 6 régions modèles E-Energy, avec chacune un accent technologique spécifique. Ces Smart-Grids sont à la fois une priorité pour la stratégie TIC et pour le concept énergétique du gouvernement.
 voici les six projets menés en régions :


  • La ville modèle de Mannheim :
200 utilisateurs ont la possibilité de participer aux tests des nouveaux moyens d’approvisionnement électrique. Depuis fin 2010, les ménages tests on a leur disposition un « majordome énergétique » qui est un système de gestion énergétique intelligent. Grâce au contrôle de leur consommation, les ménages font des économies et contribuent à la préservation des ressources énergétiques et de l’environnement ;
  • La région modèle eTelligence de Cuxhaven : 
Elle rassemble de gros consommateurs énergétiques industriels et communaux. Par exemple des entrepôts frigorifiques (40 000 présents en Allemagne) et les piscines s’alimentent en énergie seulement aux moments où les éoliennes sont en fonction. Ils agissent ainsi comme des tampons pour le réseau en absorbant l’excès de courant ;
  • La région modèle MeRegio de Karlsruhe/Stuttgart : 
Elle a décidé de focaliser ses efforts sur la minimisation des émissions. Une expérience est menée auprès de 1 000 clients afin de comparer les productions et besoins dans les plus petites cellules, c.à.d. les maisons ou les commerces. Le projet a déjà permis de se rendre compte que les utilisateurs sont très intéressés et prêts à accepter de nouvelles offres permettant d’adapter leur consommation ;
  • La région modèle régénérative du Harz :
Un nouveau système de prévision solaire et éolien a été mis en place. Il doit permettre à un grand nombre d’installations de production d’électricité et d’énergie décentralisées de s’adapter de manière optimale à la consommation ;
  • La région modèle E-DeMa Rhin-Ruhr :
20 microcentrales de cogénération ont été installées. En cas de besoin elles peuvent servir de petites centrales de production. Au sein de la place de marché E-DeMa, les opérateurs peuvent gagner de l’argent frais pour leur installation. Près de 1 000 accès TIC permettent aux opérateurs de participer activement aux échanges. Les clients actuels deviennent grâce à E-DeMa des « prosommateur », c.à.d. à la fois des producteurs et des consommateurs ;
  • La région modèle SmartWatts d’Aix-la-Chapelle (Rhénanie du Nord Westphalie) :
 le projet constitue un exemple d’organisation de l’approvisionnement communal. A l’aide de compteurs électriques intelligents, près de 500 consommateurs ont la possibilité de connaître la provenance et le coût de leur électricité. Chaque utilisateur peut alors optimiser sa consommation.

Par S.B

Sources : ADEME, CNRS, Bulletins électroniques, www.gouv.fr