Le Bilan Carbone, outil obligatoire

La prévention routière a rendu obligatoire le port de la ceinture de sécurité. La prévention environnementale, si on peut dire, institue l’obligation d’effectuer un bilan carbone pour que chacun comprenne la nécessité de modifier son comportement afin de préserver la Vie sur notre planète.
L’avant-projet de loi « Grenelle II » prévoit un Bilan Carbone obligatoire : « les entreprises de plus de 500 salariés, les personnes morales de droit public de plus de 250 personnes et les collectivités territoriales de plus de 50 000 habitants doivent réaliser, à compter du 1er janvier 2011, un bilan carbone destiné à réduire la consommation énergétique et favoriser le recours aux énergies renouvelables ».

Le bilan carbone est une quantification des émissions de gaz à effet de serre engendrés par les activités directes et indirectes. L’intérêt de cette démarche sur le plan collectif est évident : Lutte contre la pollution et ses dérivés. Sur le plan Individuel ou le plan de l’Entreprise concernée par cette obligation, analysons la rentabilité de ce partenariat social en comparant le coût de l’opération (ou avantages accordés) et les avantages obtenus.

Le coût  comprend 2 éléments :

  • Celui du Bilan à produire : Soit le bilan carbone est réalisé par un consultant externe ayant suivi la formation dispensée par l’ADEME soit l’entité fait former à la méthode une personne en interne. Le prestataire qui réalise le Bilan Carbone® s’engage à partager sa connaissance de l’outil logiciel et de la méthode avec un interlocuteur désigné de l’organisation. Ainsi, le Bilan Carbone® de l’entité pourra être recalculé en interne et de façon autonome d’année en année par la personne compétente. L’objectif est d’en faire un des indicateurs majeurs du management environnemental de l’entité, et un réel facteur d’amélioration continue du fonctionnement « énergétique » de l’organisation.

  L’ADEME procure gratuitement les droits d’utilisation de la méthode Bilan Carbone® en mettant à disposition le tableur et le manuel d’utilisation à toute entreprise ayant suivi son programme de formation à la méthode.  Le coût de la formation sur deux jours est de 2000€. La production de ce bilan demande généralement 5 à 20 jours de travail effectif pour une entreprise, 20 à 40 jours pour une collectivité. La réalisation de l’étude s’étale selon les cas sur une durée de 1 à 6 mois.

Ensuite, le prix de la prestation s’échelonne de 5 000 € à 15 000 € pour une entreprise, de 15 000 € à 30 000 € pour une collectivité, avant subvention de l’ADEME. La prestation, plafonnée à 15.000 € HT pour une Entreprise et à 30.000 € TTC pour une collectivité, est subventionnée à 50 % par l’ADEME (Agence De l’Environnement et de la Maitrise de l’Energie). 
 

  • La taxe carbone : Bien que déjà appliquée dans certains pays Européens, dont la SUEDE qui préside depuis le 1er Juillet 2009 l’Union Européenne, elle ne l’est pas en France, puisque jugée juridiquement non conforme. Abandonnée, ou tout du moins retardée. La procédure servant à son calcul reste à définir mais ce sont les niveaux d’émission d’équivalences CO2 qui seront sans doute retenus et on parle d’un tarif de l’ordre de 32€ la tonne ce qui rapporterait plus de 8 milliards de recette annuelles à l’Etat. Normalement, elle devait être à la charge des ménages et des entreprises. Au niveau français, Il avait cependant été évoqué qu’elle ne génère pas un supplément de recettes fiscales globales et soit compensée par une baisse d’autres prélèvements.

Quoi qu’il en soit, cela ne présume pas que chacun gardera sa charge fiscale initiale. Il est possible que ce qui est payé en plus par les uns soit redistribué aux autres. Dans ce cas, vérifier la neutralité fiscale globale de cette mesure serait un véritable défi…

 En SUEDE, où elle existe déjà, ce mécanisme récolte près de 10 % des ressources publiques du pays et la compensation a donné lieu à une hausse des allocations familiales et à des réductions d’impôts sur les bas revenus.

Les produits associés à ces coûts

Au-delà du fait que la lutte pour l’assainissement de la planète s’avère désormais tout autant indispensable que la lutte contre une maladie épidémique et que les stratégies permettant de contenir les émissions de CO2 sont conçues dans un objectif « sanitaire », en résultera-t-il des profits plus directs pouvant être constatés à court terme ?

Au niveau individuel, la taxe, nous l’avons évoqué, peut être envisagée comme un outil de soutien solidaire.
Au niveau des entreprise, le cout « bilan carbone et taxe » peut être considéré  comme le financement de services qui lui permettront de réaliser des choix pertinents en matière d’énergie, tels que :

  • Zoom sur les postes les plus exposés à l’augmentation du prix des énergies fossiles et simulations ;
  • Economies par l’optimisation de l’utilisation des moyens de transport et par modification de comportements  individuels et collectifs.

 Aussi, ce coût peut participer à anticiper les changements de la société, à travers les démarches entreprises :

  • Communiquer et sensibiliser, en interne et en externe, sur la démarche environnementale entreprise tant il parait évident que les donneurs d’ordre publics exigeront à terme de leurs fournisseurs cette attitude « citoyenne », parmi leurs critères ;
  • Se préparer à la pénurie annoncée des moyens énergétiques traditionnels ;
  • Mise en place d’actions prolongeant les conclusions du bilan carbone ;
  • Analyses de cycles de Vie de produits (éco-conception) ;
  • Mise en place d’une politique de « compensation carbone » pour les émissions incompressibles.

Aujourd’hui en France, ce sont les crédits carbones qui permettent d’exercer une pression financière sur les entreprises qui émettent plus de GES qu’elles n’en on la possibilité, en termes de quotas.    

Le bilan carbone est un instrument au service de l’efficacité de l’entreprise

Faire un bilan carbone ! Oui, mais comment et surtout pourquoi ? Et s’il s’agissait d’améliorer les performances de l’entreprise ? Gérald Lefebvre, expert qualité Eco6S, revient sur les bénéfices de cette démarche, les référentiels européens qui existent et les moyens de bien la valoriser. Autant de conseils qu’il approfondira et détaillera dans le cadre de la formation « Gaz à effet de serre – Etablir son bilan équivalent Carbone et réduire ses émissions » organisée par les Techniques de l’Ingénieur le 27 janvier 2010.

ETI : En ce temps de crise et après l’échec du sommet de Copenhague, qu’est-ce qui doit amener une entreprise à effectuer un bilan carbone ?

Gérald Lefebvre :  » Pour répondre à cette question, il faut revenir sur les bénéfices de cette démarche. Le bilan carbone, comme tout bilan, lorsqu’il est bien fait, permet tout d’abord de remettre en question les performances et l’efficacité de l’entreprise. En effet un bilan, réalisé selon la méthode d’analyse de cycle de vie tout au long de la chaîne de création de la valeur, est très efficace pour mesurer et analyser ses flux industriels, et donc, pour mesurer l’efficacité énergétique et écologique de ses procédés et produits.

Au delà, l’analyse des flux permet une analyse des coûts en énergie et en matière grâce aux inventaires réalisés pour le bilan. Cette analyse débouche sur une stratégie de réductions des coûts, d’optimisation de l’utilisation de l’énergie et des ressources, et sur une amélioration de la qualité écologique et économique du produit.

Enfin, il s’inscrit dans une démarche de développement durable qui reste, malgré tout, d’actualité. Dans 40 ans, la déplétion des ressources fossiles prépare une période de pénurie. Et à plus court terme, dans 5 à 10 ans, les positions de monopoles sur les mines, les métaux rares et plus largement les ressources rendront toute entreprise n’ayant pas adopté une stratégie d’indépendance et d’autonomie énergétique dépendantes des hausses de prix.

Dans quels cas de figure est-il fortement recommandé de faire un bilan carbone ?

En ce qui me concerne, je recommande très fortement de faire un bilan carbone pour analyser la dépendance des achats et des procédés de l’entreprise en ressources fossiles comme le pétrole, mais aussi vis-à-vis des métaux. En 2009, en Europe, un baril passant de 80 dollars à plus de 150 dollars a causé beaucoup de faillites ! Dans ce cas, la bonne démarche est d’insérer le bilan « carbone », avec d’autres indicateurs comme la pollution de l’eau ou l’utilisation d’énergie, dans la politique de management Qualité ISO9001 & Environnement ISO14001 et QSE (Qualité Sécurité Environnement) de l’entreprise.

Il existe d’autres cas de figure où faire un bilan carbone est fortement recommandé. Il s’agit des entreprises dont les produits touchent une clientèle très sensible aux indicateurs du développement durable, comme par exemple les collectivités ou encore des acheteurs dont les critères de choix intègrent le CO2. Autres groupes concernés : les entreprises de plus de 500 employés qui, depuis le Grenelle 2, doivent le réaliser, ainsi que les entreprises soumises aux règles des quotas CO2.
 
Je déconseille toutefois très fortement d’utiliser uniquement le « CO2 Equivalent », qui est un indicateur du réchauffement potentiel (à 100 ans), comme seul indicateur de performance environnementale. En effet, les dangers de transfert d’impacts de pollutions sont réels et nocifs ! Prenons un exemple. Une étiquette « Empreinte Carbone » sur une pomme « locale », issues de l’agriculture intensive, avec indice pesticide de 14, avec ou sans OGM, pourrait, avec ce seul indicateur, avoir une meilleure empreinte CO2 qu’une pomme biologique venue d’Espagne ! Ce qui ne manquera pas de créer une confusion énorme chez les consommateurs.

Il existe semble-t-il en Europe plusieurs méthodes pour calculer son bilan carbone. Comment s’y retrouver et comment choisir la bonne technique pour améliorer son efficacité ?

Tout d’abord, il faut retenir que la mesure et l’analyse des flux permettent un inventaire précis de l’efficacité énergétique, économique et écologique des produits et procédés. D’autre part, pour faciliter les comparaisons entre pays, l’Union Européenne a adopté une « nouvelle approche » (Directive IPPC et DD) consistant à mettre en place des référentiels industriels pour les MTD : Meilleures Technologies Disponibles. Ces référentiels sont des bases de comparaisons excellentes pour benchmarker son efficacité ! Beaucoup de ces technologies propres sont d’ailleurs référencées dans les bases des Techniques de L’Ingénieur et permettent de trouver des solutions très innovantes.

Concrètement, à toute ressource fossile en déplétion, l’on peut trouver une solution « renouvelable ». Certaines de ces solutions sont … dans l’espace, ou la gravité nulle rend possible bon nombre de recombinaisons physico-chimiques. Malheureusement, peu d’industriels ont une vision à la Kennedy du développement durable ! De fait, en pratique, lorsque la liste des solutions scientifiques et techniques est faite, l’arbitre suprême est toujours le calcul des retours sur investissement. Ce qui ne facilite pas les choses en temps de crise. La visibilité à court terme étant restreinte, la décision d’investir est d’autant plus difficile et souvent repoussée. Ce qui est très dangereux pour l’avenir…

Une fois ce bilan carbone réalisé, comment bien le valoriser ? Et d’ailleurs, est-ce un sésame ?

Un bilan carbone, c’est du T.E.M.P.S. C’est-à-dire, qu’on a pris le soin d’analyser les coûts Toxiques, Energétiques, de Matières, de Procédés et des Valeurs Durables (Sustainability Values tel le recyclage par exemple). Et le TEMPS, c’est de l’argent.

La valorisation des économies d’énergies, de matières et de procédés ne posent généralement pas de soucis ! En revanche, la valorisation des « Externalités » T et S Values, c’est-à-dire les investissements pour économies en toxiques et en valeurs Durables, est plus problématique, à cause des coûts d’investissement, qui ne sont généralement pas payés de retour à court terme ; des coûts réels de pollutions des toxiques qui ne sont pas taxées à hauteur des dégâts causés comme c’est le cas des pesticides ; des valeurs en développement durable qui ne sont pas forcément partagées par les acheteurs ; et enfin, en raison de la non protection ou exonération des entreprises « vertueuses » face à la productivité intensive et non basée sur une éthique « C.E ». On en revient à l’exemple de la pomme OGM et/ou avec pesticides qui sont des toxiques autorisés et de la pomme Bio (S-Valeur Durable non exonérée) que j’ai donné tout à l’heure.

La difficulté de valoriser les investissements n’est pas toujours du fait des entreprises ou des consommateurs qui ne sont pas prêts à payer le prix. Elle vient plutôt du fait que des produits « à bas prix et non éco-conçus » sont autorisés à venir concurrencer des « produits à plus forte valeur ajoutée en développement durable et ne sont ni régulés par des surtaxes, ni soumis à la règle « pollueur-payeur », ni contrôlés sur leurs méthodes et matériaux de fabrication. »

Propos recueillis par Anne-Laure Béranger

 

 

Formation Techniques de l’Ingénieur

27 janvier 2010 : Gaz à effet de serre – Etablir son bilan équivalent Carbone et réduire ses émissions.
Intervenant : Gerald Lefebvre, ECO6S, Expert qualité. 6 Sigma et développement durable

Le programme complet

 

Bilan quadriennal

Dans la gestion d’un site pollué, l’élaboration d’une stratégie efficace repose, entre autres choses, sur l’exactitude du schéma conceptuel. Ce dernier permet de faire figurer les sources, les voies de transfert, les milieux d’exposition et les récepteurs susceptibles d’entrer en contact avec les polluants. Ce schéma n’est pas statique. Il peut changer soit parce que l’information disponible n’était pas exhaustive au moment de sa création, soit parce que différents éléments constitutifs du schéma ont évolué au cours du temps (disparition, modification ou apparition d’une source, d’un vecteur de migration ou d’un récepteur). Par ailleurs, les concentrations dans les différents milieux (source, transfert, exposition) évoluent en fonction des mesures prises, de l’atténuation naturelle ou bien de facteurs annexes influençant les conditions de mobilisation ou de migration des polluants.

Parmi tous ces paramètres responsables du caractère dynamique du schéma conceptuel, il faut reconnaître que certains ne sont pas facilement prévisibles dès le départ. C’est pourquoi la maîtrise d’un site pollué fait appel à des processus de gestion itératif, progressif, évolutif et interactif. C’est aussi la raison pour laquelle, la politique nationale en matière de gestion des sites et sols pollués a rappelé l’importance de la surveillance des milieux au cours du processus et a réaffirmé la prépondérance de la mesure et de son interprétation dans les prises de décision. Le bilan quadriennal constitue en réalité le livrable qui acte de cette orientation.

Cette précaution donne à la stratégie de gestion le supplément de fiabilité permettant de recueillir l’assentiment et la confiance des parties prenantes. En effet, avec les nombreux facteurs d’incertitudes qui caractérisent les sites pollués, la confiance ne peut pas reposer seulement sur les avis d’expert et les modélisations numériques. Parmi ces nombreux facteurs d’incertitude, il faut noter : les lacunes dans la connaissance des événements à l’origine de la pollution, l’hétérogénéité du sous-sol, l’absence de visibilité directe des phénomènes souterrains, le caractère inexacte des sciences du sous-sol, l’utilisation de techniques de traitement récentes et non encore éprouvées en particulier in situ, la difficile quantification des phénomènes de transfert et d’atténuation naturelle.

La mesure et la surveillance des milieux garantissent donc la bonne appréciation des impacts et, de fait, du risque sur le long terme. Son interprétation permet d’identifier des signaux d’alerte et de prendre des mesures correctives en temps opportun. Les phénomènes en jeu étant lents, la surveillance s’opère sur une échelle de temps pluriannuelle. L’article revient sur les moyens et les objectifs du bilan et consacre une large part au retour d’expérience issu d’un cas concret récent…

Lire la suite

CO2 (dioxyde de carbone)

Effet de serre, réchauffement de la planète, fonte de la banquise ou de tel glacier… toutes ces expressions sont maintenant entrées dans le langage du grand public du fait de propos plus ou moins alarmistes transmis par les médias. Les principales molécules à effet de serre sont répertoriées et définies.
On trouve, avec leur valeur de contribution :

  • la vapeur d’eau pour 55 %, le dioxyde de carbone (CO2) pour 39 %,
  • le méthane (CH4) 2 %,
  • l’ozone (O3) 2 %,
  • le protoxyde d’azote (N2O) 2 %
  • ainsi que, dans une moindre part, les halocarbones (chlorofluorocarbones (CFC), fréon, perfluorométhanes) et l’hexafluorure de soufre (SF6).

Certains auteurs ne prennent pas en compte la vapeur d’eau et dans ce cas, bien sûr, les valeurs de répartition sont différentes. Dans ce présent dossier, nous nous intéresserons exclusivement au gaz carbonique dont l’augmentation dans l’atmosphère est due en grande partie à l’activité humaine…

Lire la suite

Il faudrait un organisme pour le climat aussi efficace que l’OMC

D’après une étude de l’association Entreprises pour l’environnement, le facteur 4 est techniquement et économiquement atteignable. Cela suppose un effort mondial dans trois grands domaines : les transports, le bâtiment et les énergies renouvelables. Le point avec Claire Tutenuit, déléguée générale d’EPE.

 

Techniques de l’ingénieur : Le facteur 4, sur lequel s’est engagée la France, consiste à diviser par quatre les émissions nationales de gaz à effet de serre calculé sur le niveau de 1990 d’ici à 2050. Est-ce possible et à quel prix ?

Claire Tutenuit : C’est possible techniquement et économiquement. Nous avons établi un scénario théorique avec un prix du CO2 qui pousse les acteurs à réduire leur consommation d’énergie, que ce soit au niveau des entreprises ou des consommateurs. Pour cela, il faudrait augmenter progressivement le prix du CO2 jusqu’à 400 euros la tonne en 2050. Condition importante de succès, il faut qu’il existe une certaine homogénéité au niveau mondial. Dans notre scénario, si les pays en développement commencent plus tard que les autres, tout le monde y perd. En effet, le développement urbain à base de carbone représente autant de patrimoine à décarboner. En termes de croissance, cela suppose une période de transition avec 20 ou 30 ans de développement ralenti, d’où la nécessité d’une aide financière de la part des pays riches.

Et pour les pays riches, quelles seraient les conséquences pour la croissance ?

Pour les pays riches, le risque pour la croissance est faible, loin de l’impact de la crise actuelle par exemple. Cela fonctionnerait comme une taxe, ce qui implique que cela circule au sein de l’économie.

Comment faire pour que l’effort soit homogène au niveau mondial ?

Les négociations de Copenhague vont aboutir à des engagements mais cela ne sera pas suffisant. Tout repose sur le fait que les pays agissent parce qu’ils croient que les autres vont aussi le faire. Cela suppose un certain degré de confiance et de contrôle mutuel. L’OMC (Organisation mondial du commerce) a réussi pour le commerce. Il faudrait un organisme aussi efficace pour le climat. Pour l’instant, cela n’existe pas. Le programme des Nations Unies pour l’environnement n’a pas de moyens régaliens.

Quelles sont les actions à mener en priorité pour atteindre le facteur 4 ?

Les trois grandes priorités sont le mix transports, le bâtiment et les modes de production de l’énergie. Concernant les transports, il faut que la moitié du parc mondial de véhicules soit décarbonée en 2050, et environ 80 % au niveau européen. Cela suppose un renouvellement massif.

Quels sont les freins technologiques dans le secteur des transports ?

Les voitures électriques coûtent encore chers et il faut résoudre l’enjeu du stockage de l’énergie. Concernant les véhicules à hydrogène, il existe aussi des freins car c’est un gaz léger dont on ne connaît pas bien les propriétés. Cependant ce ne sont pas des freins rédhibitoires.

Quels sont les freins concernant le bâtiment ?

Ce ne sont pas des freins technologiques mais surtout économiques. On préfère aujourd’hui acheter une maison plus grande qu’une maison bien isolée. C’est un problème comportemental et économique. D’une part l’énergie est peu chère et d’autre part l’inertie sur les bâtiments est très grande. La décarbonation ne peut se faire spontanément. Il faut des réglementations ou des contraintes financières adaptées. Cela suppose un changement de mode de vie, dans un premier temps plus contraignant. Mais c’est aussi créateur d’emplois. On estime à 400.000 les créations d’emplois nécessaires pour la rénovation des bâtiments.

Et concernant la production d’énergie ?

Les principaux enjeux sont le stockage et le captage de CO2. Au sujet des énergies renouvelables, les biocarburants de deuxième et troisième générations doivent être productibles et économiquement attractifs. Il faut aussi veiller aux conflits d’usage et ne pas attribuer des terres agricoles aux énergies nouvelles. Pour que le photovoltaïque soit compétitif, il faut atteindre un certain volume et recourir aux incitations. Le photovoltaïque pourrait constituer une filière industrielle au niveau mondial. Cela représente pour l’instant beaucoup d’importations en France, mais le Président de la République a lancé un signal fort pour encourager une filière nationale.

En-dehors de l’émission de gaz à effet de serre, quels sont les grands enjeux dans le domaine de l’environnement ?

L’eau est un sujet majeur au niveau mondial, mais moins en Europe. Le deuxième enjeu est la biodiversité, mais on est moins avancé au niveau scientifique pour définir les actions à mener. Concernant les produits chimiques, Reach est un pas très important, puisqu’il s’applique aussi aux importations. Il s’agit du premier effort de l’Europe pour exporter de la contrainte sur le reste du monde.

Quel rôle les ingénieurs ont-ils à jouer ?

Nous aurons besoin de beaucoup d’ingénieurs. Il va falloir mobiliser de la matière grise ! Il existe un grand problème de formation, il faut la réorienter dans le sens de l’environnement.

Propos recueillis par Corentine Gasquet

 

Entreprises pour l’environnement

Créée en 1992, EPE est une association d’une cinquantaine de grandes entreprises qui veulent mieux prendre en compte l’environnement dans leurs décisions stratégiques et dans leur gestion courante, dans le sens du développement durable.
Ce think tank publie des rapports, dont : « Scénarios de transition vers un monde économe en carbone en 2050 : quels enjeux pour l’industrie ? » (pdf)

 

 

Taxe carbone : injuste pour les uns, permis de polluer pour les autres

Les utilisations énergétiques représentent près de 85 % des émissions de gaz à effet de serre et, parmi celles-ci, le CO2 se taille la part du lion avec une contribution de 95 % [1]. Mais bien que partant d’un bon sentiment et malgré tous les ajustements qui ont été faits pour la rendre plus acceptable, la taxe carbone est un outil injuste et dangereux.

Tout d’abord, quelques ordres de grandeur : En 2004, les émissions mondiales de CO2 ont été de 26,6 milliards de tonnes (Gt). La France a contribué pour 0,39 Gt à ces émissions (1,5 %). À titre de comparaison les USA ont émis 5,8 Gt et la Chine 4,8 Gt. En 2004, un Français a émis 6,2 tonnes de CO2, un Américain 19,7 tonnes et un Chinois 3,7 tonnes. Au niveau mondial, l’émission moyenne était de 4,2 tonnes par habitant.

La réduction des émissions de CO2 doit se faire à l’échelle mondiale. Si la France cessait complètement, mais seule, d’émettre du CO2, il faudrait 15 mois pour que l’accroissement de la population mondiale efface la disparition de ces émissions. La première figure montre, pour la France, l’évolution des émissions globales de gaz à effet de serre, tous gaz confondus et la seconde l’évolution des émissions de CO2 par secteur d’activité. Les transports routiers et le résidentiel/tertiaire représentent, ensemble, presque 70 % des émissions de CO2 :

medium

 

medium

Quels sont les leviers ?

Il y a trois leviers possibles pour réduire les émissions de CO2 :

  • La technologie : les voitures d’aujourd’hui consomment et polluent beaucoup moins, à performances et service égal, que celles construites il y a 30 ans.
  • Les pouvoirs publics, grâce aux lois, normes et autres instruments règlementaires. Le bonus-malus pour l’achat de voitures neuves en est un exemple.
  • Le consommateur, qui est le décideur final. Il peut, par ses choix, plus ou moins émettre du CO2. Mais il est souvent plus guidé par le prix d’achat que par le coût de fonctionnement.

Il faut utiliser simultanément ces 3 leviers pour réduire les émissions de CO2 qui n’est pas, rappelons le, le seul gaz à effet de serre.

La taxe carbone : inefficace et injuste

La taxe carbone est injuste car elle va toucher principalement les personnes ayant les revenus les plus faibles. C’est le cas de celles obligées de prendre leur véhicule, souvent d’occasion et consommant beaucoup de carburant par rapport à l’équivalent neuf, pour se rendre à leur travail (habitants des banlieues et des campagnes).

De plus, les personnes à faible revenu sont souvent locataires et ne choisissent pas leur moyen de chauffage. S’il est au fioul ou au gaz, elles seront taxées. Que ce soit pour l’habitat ou les transports, beaucoup de personnes n’ont pas de solution de remplacement économiquement abordable.

Aussi, la taxe carbone est un permis de polluer pour les gens aisés. C’est l’équivalence des indulgences que l’on achetait il y a très longtemps pour effacer ses péchés. Le risque est grand que les gens pensent que puisqu’ils payent pour cela ils peuvent émettre du CO2 et aucun effort supplémentaire ne sera individuellement fait.

Le montant de la taxe étant faible, ils s’en tirent à bon compte. Pour les carburants, la TIPP représente un montant bien plus important que la taxe carbone et cette dernière sera noyée dans la taxe existante. Remarquons que la TIPP joue déjà un rôle important pour limiter l’usage de la voiture : si elle n’existait pas, le Français ferait beaucoup plus de kilomètres pour ses loisirs. Une augmentation importante du prix du baril de pétrole, comme celle qui s’est produite en 2008, peut par ailleurs rendre négligeable la taxe carbone sur les carburants.

La taxe carbone concerne principalement les transports et l’habitat. Elle va aussi toucher certaines PME avec le risque de disparition ou de délocalisation de leurs activités.

Heureusement l’électricité n’a pas été taxée puisqu’elle est produite, en France, pour 90 % sans émission de gaz à effet de serre (cf. éditorial de Pierre Bacher). De plus, cette industrie est déjà dans le régime à quotas de CO2. Il faut en effet ne pas confondre énergie et émission de CO2. Il n’y a aucune raison de taxer de l’énergie qui ne produit pas du CO2 : ainsi, il vaut mieux, pour un même usage, consommer 2 kWh de soleil que 1 kWh de pétrole si bien sûr le prix est approximativement à peu près le même.

L’optimum économique

Le CO2 non émis est celui qui est le moins cher. Le CO2 se négocie actuellement autour de 15 €/tonne, ce qui est un prix trop faible pour faire changer les habitudes, mais il est difficile de prendre une autre valeur sous peine de distorsion économique.

Mieux isoler une maison avec un peu de laine de verre ou baisser sa température de 1 °C lorsqu’on se chauffe avec du fioul ou du gaz naturel sont des actions qui permettent d’économiser du CO2 à un coût très bas. Ce n’est par contre pas le cas avec la promotion d’énergies renouvelables comme l’éolien (environ 40€ €/tonne de CO2 évitée) ou le solaire (environ 600 €/tonne de CO2 évitée).

Pour ce qui est de la mobilité, il ne faut pas croire que les transports en commun sont la solution universelle. Ils ne concernent que certaines villes. Si l’on prend par exemple le cas de la capitale, ils sont saturés aux heures de pointe et ne pourraient pas accueillir beaucoup plus de voyageurs. De plus, dans la plupart des gares de banlieue, il est difficile, impossible ou coûteux de garer son véhicule pour prendre les transports en communs. La taxe carbone sur les carburants va donc toucher de plein fouet des usagers captifs, souvent modestes. Quant à la redistribution, l’argent d’aujourd’hui reviendra peut être en partie demain. En attendant il faut l’avancer et voir son pouvoir d’achat diminuer.

La taxe carbone est d’autant plus injuste qu’elle va pénaliser des gens captif d’un système où ils n’ont pas les moyens d’investir pour émettre moins. À ce titre, le système du bonus-malus pour les voitures est beaucoup plus juste puisque l’on a le choix d’émettre beaucoup ou peu en toute connaissance de cause.

 

Références :

[1] CO2 emissions from fuel combustion, 2006, IEA, Paris
L’énergie, Edition 2007, DGEMP
Demain l’énergie, C.Ngô, Dunod, 2009
Our energy future, Resources, alternatives, and the environment, C.Ngô et J.Natowitz, Wiley, 2009

Christian Ngô collabore aux rubriques Energies, Chimie/Agroalimentaire et Biotechnologies. Il a fait de la recherche fondamentale en physique nucléaire pendant presque 20 ans à l’Université d’Orsay et au CEA/Saclay. En mai 2008, il a créé Edmonium Conseil. Lire son blog.

« Le Bilan Carbone est avant tout un outil »

Instantannés Techniques : Quelles est la place du Bilan Carbone dans le diagnostic gaz à effet de serre ?

Bertrand Swiderski : Le Bilan Carbone de l’ADEME fonctionne comme un véritable outil pour faire ces « diagnostics gaz à effet de serre ».

Le Bilan Carbone tel que proposé par l’ADEME est-il certifié ?

Pas du tout. C’est plutôt un outil franco-français, développé par l’ADEME. On pourrait dire que le seul défaut de cet outil est qu’il n’est pas international. Certains de nos clients nous demandent d’utiliser le GHG (GreenHouse Gas) Protocol, qui est un outil équivalent, fourni par l’ONU. C’est un outil beaucoup plus international, même s’il est moins ergonomique que le bilan carbone. Aujourd’hui, une entreprise française ayant des clients étrangers devra jongler entre les deux outils.

Utiliser la méthode Bilan Carbone nécessite une formation. Pour autant, s’agit-il d’un outil réservé aux experts ?

Oui. La formation est importante car elle permet de comprendre comment récupérer les données, et les utiliser dans l’outil. C’est clairement un outil destiné à des experts, même s’il se résume finalement à une table excel.

Quel est l’intérêt pour les entreprises d’entreprendre une évaluation « diagnostic gaz à effet de serre » ?

Le diagnostic gaz à effet de serre sur une activité industrielle, ou une activité tertiaire d’ailleurs, va permettre d’étudier les émissions de ces mêmes gaz à effet de serre. Ces émissions peuvent être liées à l’utilisation d’un bâtiment, ou d’un outil industriel. Le diagnostic gaz à effet de serre permet de mettre en valeur les émissions globalement, mais aussi à travers différents postes. C’est intéressant pour évaluer la stratégie pour l’entreprise en termes d’amélioration continue des résultats de ces bilans.

Quelle va être la typologie de votre clientèle, au niveau de la démarche ?

Certaines entreprises vont faire cette démarche après une demande explicite d’un client, cela représente une grande partie de notre clientèle. Après, certains de nos clients sont plus sensibles à cette démarche et demandeurs. Les aides allouées pour encourager la démarche ont aussi permis à certains de franchir le cap. L’obligation pour les entreprises de plus de 500 salariés d’effectuer ce bilan carbone est évidemment une raison supplémentaire. Aussi, certaines entreprises sont déjà dans une démarche d’affranchissement progressif vis-à-vis des énergies fossiles, vis-à-vis du développement du mix énergétique plus généralement.

Il y a donc clairement un aspect économique pour vos clients ?

La contrainte écologique marche bien, la contrainte économique marche mieux. Pour ces deux entreprises, le PNAQ a permis de transformer une contrainte en opportunité. Ces investissements deviennent rentables grâce à la location de quota. Depuis Kyoto, la France a mis en place le PNAQ (plan d’allocation national des quotas) : 1 100 entreprises ont un quota d’émissions de CO2. Quand elles dépassent ce quota, elles sont dans l’obligation d’acheter des crédits carbone, de compenser financièrement ce dépassement. La mise en place de PNAQ a eu beaucoup d’effets dans les entreprises. L’aspect économique est donc devenu un enjeu, de plus en plus important. Pour l’entreprise, la dépendance aux énergies fossiles devient non seulement pénalisante au niveau économique, via les crédits carbones, mais elle le devient également sur le plus long terme, car elles se raréfient dangereusement. Dans ce sens là, le Bilan Carbone est un outil de prospective intéressant.

Quelle va être la démarche pour les entreprises financièrement très pénalisées par la mise en place du PNAQ ?

Nos clients investissent fortement pour réduire leurs émissions. L’un de nos clients, qui entre dans la troisième année de mise en place du projet de réduction des émissions, a déjà fortement réduit ces dernières. Au bout de quatre ans, les résultats annuels pondérés sur ces quatre dernières années devraient être inférieurs aux quotas alloués. L’entreprise en question a investi dans une chaudière bois intégrale à la place du chauffage au gaz. Bien sûr, il s’agit d’une entreprise énorme, hyper consommatrice d’énergie. L’investissement était de quatre millions d’euros. Pour une autre entreprise, la solution est passée par la mise en place d’un dispositif de cogénération, afin de réduire fortement sa consommation de gaz, tout en produisant de la vapeur d’eau et de l’électricité.

Peut-on imaginer que le PNAQ s’applique, à terme, à toutes les entreprises ?

C’est l’idée… Pour les plus petites entreprises, la démarche mérite d’être adaptée. On semble se diriger vers une prise en compte d’une partie du diagnostic gaz à effet de serre pour établir des exigences cohérentes écologiquement et économiquement. Une ISO vient de sortir, avec trois scopes de résultats. Le Bilan Carbone comme le GHG permettent d’extraire des données selon ces trois scopes. On peut donc imaginer une taxation sur un de ces scopes là.

Quelle va être le suivi de la démarche « diagnostic à effet de serre » dans une entreprise, au-delà du dit diagnostic ?

Quand on établie un diagnostic gaz à effet de serre, on établie par la suite un tableau de bord, qui va mesurer l’évolution des émissions de CO2. Bien sûr, on va pondérer les émissions par rapport à la production de l’entreprise elle même. Quand les entreprises produisent moins, elles polluent moins. Le diagnostic se fait tous les deux ans.

Les entreprises s’intéressent également à l’empreinte carbone des produits qu’elles fabriquent…

Oui. Mais l’outil de l’ADEME ne permet absolument pas d’évaluer l’empreinte écologique d’un produit. Les entreprises craignent beaucoup la mise en place de l’étiquetage CO2. Maintenant, on parle plus d’étiquetage environnemental que d’étiquetage CO2. Du coup, elles font la démarche pour évaluer par quels biais elles pourraient réduire leurs émissions. Les transports de marchandise sont une source d’émission importante, donc nous sommes très sollicités sur ce type de réflexions. Sur le site de l’Afnor, on trouve les modalités de calcul de l’empreinte écologique d’un produit. On s’est rapproché d’une ACV (analyse du cycle de vie) simplifiée. Hormis le CO2 émis, elle prend en compte la consommation d’eau, rejets d’eau, émission de polluants…

Qu’est-ce qui a changé dans la démarche de vos clients depuis la mise en place de ces outils d’aide à l’évaluation des émissions polluantes ?

L’obligation pour les entreprises, la probabilité de la généralisation de ce type de démarche, fait évoluer les motivations de notre clientèle. Avant, nous étions destinés à des gens qui voulaient être vertueux, maintenant nous sommes plus dans une relation client / fournisseur.
Au-delà de la généralisation du bilan carbone pour les entreprises de plus de 500 salariés, quelles décisions du Grenelle jugez vous impactantes, au niveau des entreprises avec lesquelles vous collaborez ?
La collecte des déchets organiques obligatoires est une avancée énorme. Trois grosses usines se construisent autour de Paris rien que pour ça. Au niveau des industriels, la réflexion est complète, puisque traiter les déchets séparément est quelque chose de très nouveau. Toute une chaîne se met en place.

C’est plutôt positif…

C’est même une révolution. Après, il faut faire attention. Le Grenelle peut nous faire beaucoup de bien comme beaucoup de mal. Si rien ne change après les décisions du Grenelle, il risque d’y avoir une remise en cause de l’importance que l’on accorde à l’écologie.

Propos recueillis par P.T

EN SAVOIR PLUS :

Le bilan carbone obligatoire pour les entreprises :
Bilan Carbone obligatoire pour les entreprises de plus de 500 personnes. Le Parlement est allé plus loin que le Sénat en étendant l’obligation de réalisation du Bilan Carbone à toutes les entreprises de plus de 500 personnes quel que soit leur secteur d’activité (le texte du Sénat limitait l’obligation aux secteurs fortement émetteurs). Ce Bilan doit avoir été établi pour le 31 janvier 2012. Il est rendu public et doit être mis à jour au moins tous les trois ans (art.75).

Affichage environnemental et contenu carbone :
La loi Grenelle 2 prévoit aussi, en son article 228 des mesures qui devraient inciter de nombreuses entreprises, quelle que soit leur taille à s’intéresser à leur impact environnemental et en particulier, à leur empreinte carbone. Il s’agit des mesures concernant l’affichage environnemental des produits de grande consommation.
L’article 228 stipule notamment : À partir du 1er juillet 2011 « À partir du 1er janvier 2011 […] une expérimentation est menée […] afin d’informer progressivement le consommateur par tout procédé approprié du contenu en équivalent carbone des produits et de leur emballage […] qui sont imputables à ces produits au cours de leur cycle de vie.»

Un Bilan Carbone pour tous, tous pour un Bilan Carbone ?

Malheureusement, la réalité est bien plus complexe. Aujourd’hui, toute activité humaine, quelle qu’elle soit, engendre directement des émissions de gaz à effet de serre, même une compagnie d’assurances ou une crèche. Il faut en outre y rajouter des émissions « indirectes », liées aux produits ou services consommés pour « faire tourner la boutique », et qui peuvent facilement être bien plus importantes que les émissions directes. Commençons par le principal de ces gaz à effet de serre, le gaz carbonique. Il s’en dégage dans l’atmosphère dès que nous brûlons un produit contenant du carbone : du charbon, du pétrole, du gaz naturel, du bois…ou encore du plastique, qui n’est rien d’autre que du pétrole transformé. Nous allons donc trouver des émissions de gaz à effet de serre :

  • dès que l’on utilise une source d’énergie « fossile » (charbon, gaz, produits pétroliers), que ce soit pour se déplacer (en avion, en voiture, ou en bateau) ou pour se chauffer (les émissions du chauffage des logements et bureaux, en France, représentent des émissions supérieures à celles des voitures particulières). Le tableau donne une idée de la répartition des émissions, en associant les Kg équivalent carbone émis par tonne équivalent pétrole pour diverses énergies (1 tonne équivalent pétrole = 11.600 kWh = 42 milliards de Joules). Les énergies « fossiles » sont celles de gauche, du gaz naturel au coke de lignite (un charbon particulièrement riche en carbone). Pour les moyens purement électriques (hydroélectricité, éolien, nucléaire) les valeurs indiquées correspondent à la consommation de 11.600 kWh électriques (source ADEME, EDF) ;

  • lorsque l’on incinère des ordures contenant du plastique ;
  • pour produire de l’électricité en partant de combustibles fossiles (5% à 10% de l’électricité française est faite avec de tels combustibles, mais cette manière de faire représente plus de 80 % en Pologne ou…..au Danemark) ;
  • pour faire des matières premières (on utilise beaucoup d’énergie fossile pour produire de l’acier, du plastique, du verre, du ciment….) ;
  • dans l’agriculture, qui utilise de l’énergie (dans le tracteur), et qui engendre des émissions de gaz autres que du gaz carbonique, à travers l’élevage de ruminants (boeufs, moutons, chèvres) et l’utilisation des engrais ;
  • dans la putréfaction (par exemple la décomposition du papier en décharge).

Il résulte de cette énumération que n’importe quelle activité humaine, quelle qu’elle soit, engendre des émissions directes de gaz à effet de serre, ne serait-ce qu’à travers le chauffage de ses locaux (s’il est fait au gaz ou au fioul), et des émissions indirectes, qui sont fréquemment très supérieures aux émissions directes, et qui sont « incluses » dans les produits ou services en provenance de l’extérieur et nécessaires à l’activité, même si cette dernière est tertiaire.

Par exemple :

  • il faut chauffer les locaux, et cela engendre des émissions directes (gaz ou fioul) ou indirectes (électricité, avec la remarque ci-dessus) ;
  • toute activité consomme de l’électricité, qu’il faut produire. Cependant, selon la compagnie qui fournit l’électricité, les émissions liées à sa production peuvent varier du tout au tout (le tableau ci-dessous, qui montre les émissions liées à la production d’électricité, illustre bien ce propos. (Source : ADEME) ;

 

  • les transports qui sont nécessaires, que ce soit pour permettre aux salariés de venir travailler, pour livrer les marchandises ou les matières premières, ou pour les déplacements des salariés pendant les horaires de travail, émettent tous des gaz à effet de serre (en fait essentiellement du CO2), car ils consomment des produits pétroliers ;
  • il a fallu bâtir les locaux occupés par l’activité, et donc fabriquer les matériaux de construction, les transporter, et les assembler, et tout cela représente une consommation de combustibles fossiles importante, donc des émissions de gaz à effet de serre ;
  • il a éventuellement fallu fabriquer les matières premières utilisées pour l’activité, et cette fabrication a engendré des émissions de gaz à effet de serre ;
  • éventuellement, il a fallu construire les machines utilisées, ce qui a aussi nécessité d’utiliser de l’énergie pour produire les matériaux, les assembler, et les transporter ;
  • il peut y avoir des réactions chimiques, de l’évaporation de certains solvants, ou des fuites de certains gaz, qui conduisent à relâcher des gaz à effet de serre dans l’atmosphère ;
  • les déchets, ou les emballages des produits vendus, lors de la mise en décharge ou de l’incinération, émettent des gaz à effet de serre…

Comme il n’existe pas une entreprise qui n’utilise pas de moyens de transports pour faire venir ses salariés, ou ne consomme aucun produit manufacturé, fût-ce des feuilles de papier, dont la production a conduit à des émissions de gaz à effet de serre, il n’existe pas une entreprise qui n’exerce pas directement ou indirectement une pression sur le climat futur.

De ce fait, toute entreprise ou activité administrative ou associative peut légitimement s’intéresser aux émissions qu’elle engendre, directement ou indirectement. Comme le lieu d’émission des gaz à effet de serre est sans importance, toute réduction, que ce soit sur les émissions directes, ou sur les émissions induites, est bonne à prendre, et très souvent les émissions induites sont très supérieures aux émissions directes.

Et, bien entendu, il n’est pas possible d’agir et d’établir des priorités autrement qu’en mesurant l’importance respective des différentes sources d’émission, directes ou indirectes. Tout le monde peut agir, et ce n’est qu’avec la mesure qu’il est possible de savoir quelles sont les marges de manoeuvre et où elles se situent.

C’est dans cet esprit qu’a été mis au point, entre mi-2000 et fin 2003, pour le compte de l’ADEME et de la Mission Interministérielle pour l’Effet de Serre, une méthode permettant d’estimer à la fois les émissions directes et les émissions indirectes de gaz à effet de serre de toute activité industrielle ou tertiaire, intitulée le « Bilan Carbone ». Cet intitulé désigne tout à la fois :

  • une méthode de comptabilisation des émissions de gaz à effet de serre, compatible avec l’initiative GHG Protocol ;
  • un tableur Excel prêt à l’emploi pour effectuer le calcul des émissions, comparer entre elles les émissions d’une année sur l’autre, et évaluer le potentiel de diverses actions de réduction ;
  • le manuel d’utilisation du tableur ;
  • le document décrivant la mise au point de la méthode, qui explique notamment comment ont été choisies les valeurs par défaut utilisées dans le logiciel et les sources utilisées.

L’esprit général de la démarche est de partir de données facilement disponibles dans l’entité examinée pour parvenir à une bonne évaluation des émissions directes ou induites de l’activité. A long terme, l’objectif est bien sûr de généraliser ce Blian Carbone, puisqu’on voit bien que chaque activité humaine produit des GES, en quantité difficilement estimable sans cet outil.

J-M.J

Sources : ADEME, EDF, X-Environnement.

Taxe carbone : faut-il taxer l’électricité ?

La taxe carbone, parfois appelée « contribution climat-énergie », se fixe comme objectif de faciliter les actions de tous les décideurs devant réduire les émissions de gaz à effet de serre dues à l’énergie. Elle a ainsi vocation à s’appliquer aux usages diffus des énergies carbonées non soumises au régime européen des quotas de CO2, qui représentent en France les deux tiers des émissions.

Ce rappel, clairement exprimé par Michel Rocard [1] en ouverture de la conférence des 2/3 juillet 2009, semble devoir exclure l’électricité du champ de cet impôt, puisqu’elle est soumise au régime des quotas. De nombreuses voix s’élèvent cependant pour étendre à l’électricité l’application de l’impôt, au nom du développement durable et, surtout, du côté des écologistes, pour ne pas avantager le nucléaire.

Notons tout d’abord que l’imposition d’une taxe carbone à une énergie non carbonée (renouvelable ou nucléaire) serait difficilement explicable aux consommateurs sans de fortes contorsions sémantiques : c’est ainsi que l’on évoque le développement durable (les ressources en uranium, même si elles sont considérables, n’étant pas renouvelables) et l’expression « contribution énergie-climat » pour faire oublier que ce sont les énergies carbonées qui sont en cause dans la problématique du climat. On peut certes vouloir encourager la sobriété énergétique, au nom d’une éthique de société, et taxer toute énergie, quelle qu’elle soit, mais cela est un autre débat.

Un objectif à terme de 100 € la tonne de CO2

Il n’en demeure pas moins qu’une fraction de l’électricité est produite à partir d’énergies carbonées (charbon, pétrole et gaz) : près des deux tiers en Allemagne, au Royaume Uni et en Espagne, plus de la moitié dans l’Europe des 27, mais entre 5 et 10 % en France. Le régime européen des quotas n’a guère pénalisé ce secteur, la tonne de CO2 s’y négociant entre 10 et 20 €.

La mise aux enchères des quotas à partir de 2012 aura en principe pour effet de les pousser à la hausse, mais la plupart des spécialistes anticipent une hausse limitée [2],au moins jusqu’en 2020. L’effet sur le coût du MWh carboné resterait alors trop faible pour influencer les consommateurs (moins de 10 €/MWh pour une centrale à gaz à cycle combiné).

Il ne serait pas insensé d’étendre la taxe carbone aux électricités carbonées, en combinant cela à une politique tarifaire faisant payer plus cher l’électricité aux heures de pointe où la part des énergies carbonées est la plus élevée. A 100 € par tonne de CO2, objectif à terme proposé par Michel Rocard, l’augmentation du coût serait de 50 €/MWh pour le gaz et 100 €/MWh pour le charbon, à comparer à une fourchette actuelle de 50 à 60 €/MWh pour ces deux sources. Il faudrait bien évidemment sortir l’électricité carbonée du régime des quotas (ou inventer un système complexe de coexistence évitant de payer deux fois).

Tirer profit de l’électricité décarbonée

La France pourrait-elle adopter une telle taxe ? Il faudrait convaincre les autres pays européens de faire de même, faute de quoi les électriciens des pays non soumis à la taxe bénéficieraient d’un avantage indu et la France devrait arrêter ses propres centrales thermiques.

Mais il n’y a aucune chance pour que les pays largement tributaires des énergies carbonées (à commencer par l’Allemagne) acceptent un tel renchérissement de leur électricité. Et le marché européen unique de l’électricité interdit d’instaurer une taxe sur les importations

Ne faut-il pas dès lors inverser la question, et se demander comment la France peut valoriser, dans les secteurs d’utilisation diffuse de l’énergie (habitat et transport), l’avantage important que lui confère son électricité, décarbonée à plus de 90 % et, relativement, bon marché ?

  • Dans l’habitat, le chauffage électrique direct est intéressant dans les logements très bien isolés (il faut bien évidement regarder le « système isolation + chauffage » et comparer les bilans thermodynamiques et les coûts. Les pompes à chaleur sont un complément très utile, voire incontournable, à l’énergie solaire. Globalement l’ensemble isolation, énergies renouvelables et électricité permettent, avec des technologies disponibles aujourd’hui, de remplacer presque complètement les énergies fossiles de ce secteur.
  • Dans les transports, les progrès récents dans les batteries permettent d’entrevoir des voitures hybrides, rechargeables sur le réseau, et, dans certaines niches, des voitures tout électriques.

Dans ces deux secteurs, la France bénéficie d’un avantage considérable lié au fait que son électricité est très peu carbonée. Cet avantage sera encore accentué lorsque se développeront les systèmes intelligents permettant à chacun de limiter volontairement sa demande aux heures de pointe.

Maintenir une électricité bon marché va bien dans le sens de la protection du climat. Taxer cette source d’énergie, déjà fortement mise à contribution pour financer les électricités renouvelables, aurait en revanche un effet pervers.

 

Source :

Pierre Bacher , ancien élève de polytechnique, est l’auteur de « L’énergie en 21 questions » – édition Odile Jacob (2007), membre du conseil scientifique de Sauvons le Climat et éditorialiste à l’Espace Veille de Techniquesde l’ingénieur.

[1] Michel Rocard « Les enjeux de la conférence sur la contribution climat-énergie »

[2] Les mécanismes de fixation du cours des quotas sont complexes : équilibre de l’offre et de la demande, spéculation… On peut penser que l’adoption d’un système de quotas par les Etats-Unis aurait pour effet de tirer les prix vers le bas, ceux-ci disposant d’importantes capacités de réduction de leurs émissions. Idem pour le Brésil.

Les news «énergies» du mois de janvier

A l’international, 2011 redémarre à toute vitesse

Aux Etats-Unis, à l’occasion de la réception par Barack Obama du président chinois Hu Jintao, la compagnie d’énergie américaine Duke Energy et le groupe chinois ENN Group ont convenu de développer ensemble des « cités vertes » en Chine et aux Etats-Unis, illustrant les débuts d’une coopération entre les deux pays dans les cleantech qui ne se passe pas sans heurts. L’enjeu est crucial : la Chine a annoncé vouloir investir des centaines de milliards de dollars dans les énergies renouvelables, et son marché s’annonce colossal. Mais à côté de cette unité apparente se cache un véritable bras de fer : Washington veut freiner le protectionnisme chinois mais aussi se protéger contre l’arrivée massive d’éoliennes et de panneaux solaires chinois bon marché sur son sol. Pékin, de son côté, veut exactement le contraire.

Les énergies renouvelables concentrent l’innovation

Sur le continent américain toujours, les énergies renouvelables font le buzz en ce début 2011. Ainsi, c’est la compagnie aérienne brésilienne TAM Airlines, en partenariat avec Airbus, qui vient d’effectuer un premier vol d’une durée de 45 minutes sur un A320, équipé de réacteurs CFM56 alimentés par un biocarburant à base de Jatropha, un carburant composé pour moitié de biocarburant issu du Jatropha, une plante originaire du Brésil, l’autre moitié étant du kérosène aéronautique classique. Les études ont montré que l’utilisation de biocarburants aéronautiques fabriqués à partir de ce végétal pourrait réduire l’empreinte carbone globale du secteur de près de 80% par rapport au kérosène classique issu du pétrole. « Ce vol expérimental vient matérialiser la participation de TAM Airlines à un vaste projet dont le but est de développer la chaîne de production de biocarburant renouvelable élaboré à partir de la biomasse végétale, et créer une plate-forme brésilienne pour un biocarburant aéronautique durable », a déclaré Libano Barroso, Président de TAM Airlines.

L’Europe ignore t-elle son potentiel ?

Au niveau européen, c’est un rapport (réalisé par le Marine Board / ESF) sur les biotechnologies marines et leur potentiel au niveau continental qui interpelle. En effet, selon ce rapport, l’Europe pourrait être leader, au niveau mondial, en matière de biotechnologies marines.
En effet, les biotechnologies marines représentent actuellement un marché de 2,8 milliards d’euros à l’échelle mondiale, et pourraient potentiellement croître de 12 % par an si industriels et universitaires collaborent.
Depuis la fin des années 1990, des économistes cherchent à mesurer la valeur économique de la biodiversité ou des services écosystémiques rendus par cette diversité. La pêche étant une filière économiquement importante, les relations de la biodiversité marine à la pêche ont fait l’objet de nombreuses analyses économiques. Les auteurs ont conclu « que la perte de la biodiversité marine porte de plus en plus atteinte à la capacité des océans à fournir de la nourriture, maintenir la qualité de l’eau, et à se remettre des perturbations qu’il subit. Pourtant, les données disponibles suggèrent que – à ce point – ces tendances sont encore réversibles ».

Selon le rapport, à partir des ressources existantes, les biotechnologues marins sont capables de développer de nouveaux produits et services pouvant contribuer à une meilleure appréhension de futurs défis, tels que des ressources durables en nourriture et en énergie, le développement de nouveaux produits pharmaceutiques, et l’approvisionnement en nouveaux matériaux et procédés industriels : micro-algues pour le carburant, bio-polymères, bio-matériaux… Le rapport énumère les actions nécessaires comme suit :

  • Le développement de nouvelles stratégies de recherche et de programme de biotechnologies marines, cohérent aussi bien au niveau national et régional qu’au niveau européen ;
  • L’amélioration des technologies de transfert dans le but de renforcer la collaboration entre recherche universitaire et industrie ;
  • La garantie d’un accès juste et équitable aux ressources génétiques marines en support à l’innovation européenne de plus en plus importante dans ce secteur ;
  • La création d’une identité plus forte et le besoin de communiquer pour accroître la sensibilisation aux recherches sur les biotechnologies marines européennes.

Finance et climat : il est temps de se parler

Autre information surprenante, quoique : la disponibilité et l’accès à l’information sur le changement climatique demeurent insuffisants pour la plupart des principaux établissements financiers du monde. Une toute nouvelle étude réalisée par le Groupe de travail sur les changements climatiques du Programme des Nations Unies pour l’environnement (PNUE) et un institut allemand, le Sustainable Business Institute (SBI), en partenariat avec le ministère allemand de l’éducation et de la recherche, vient de démontrer que la disponibilité et l’accès à l’information sur le changement climatique demeurent insuffisants pour la plupart des principaux établissements financiers du monde. Les résultats de cette étude, compilés dans un rapport rendu public mardi et menée auprès de plus de 60 institutions financières des pays développés ou en développement, mettent en avant l’intérêt croissant de ces organismes, et des compagnies d’assurance, pour les secteurs liés à la protection de l’environnement et au changement climatique, et la nécessité pour elles d’être mieux informées sur les impacts physiques et économiques des évolutions climatiques, peut on lire dans un communiqué de presse. Paul Clements-Hunt, chef de l’Initiative financière du PNUE et l’un des auteurs du rapport, explique : « Jusqu’à présent, le rôle clé que les institutions financières du secteur privé et leurs dirigeants peuvent jouer pour accroître la résilience au changement climatique des économies et des sociétés a été, au mieux, négligé. La réduction rapide des émissions de gaz à effet de serre et l’adaptation aux effets inévitables au réchauffement climatique doivent pourtant aller de pair si nous voulons relever le défi climatique actuel. Cette étude est une première étape, pour que les institutions financières puissent commencer à jouer leur rôle plus important dans l’accélération du passage à une économie verte, résistante au climat ».

 

Renault, la DCNS… de grandes résolutions pour 2011

Bien sûr, l’actualité de ce mois de janvier en France concerne Renault, et les accusations d’espionnage portées par le constructeur français… Selon les informations parues dans la presse, l’espionnage concernerait notamment les nouvelle batteries développées par Renault. La firme au losange a évoqué, en ce début d’année, le développement de toutes nouvelles batteries, « utilisables à la maison ». En effet, Le Pdg de l’alliance automobile Renault-Nissan, Carlos Ghosn, a affirmé qu’une batterie rechargeable de voiture électrique pouvait servir au-delà de la durée de vie du véhicule, afin de stocker et fournir de l’énergie à usage domestique. Selon le Pdg, la durée de vie de la batterie est un faux problème, car « elle va à peu près au-delà de celle de la voiture », a-t-il expliqué devant des journalistes, évoquant une longévité d’une dizaine d’années, soit une existence plus longue que la durée d’utilisation moyenne d’une voiture.

Parallèlement, le japonais Nissan, partenaire de Renault, a commencé à livrer son modèle tout électrique Leaf aux États-Unis et au Japon, avant l’Europe début 2011. L’assemblage de la Leaf devrait en outre démarrer à Smyrna (Tennessee, États-Unis) à la fin 2012 et à Sunderland (Angleterre) au début 2013. Le constructeur nippon a enregistré 6.000 pré-commandes au Japon et 20.000 aux États-Unis.

Des sous-marins nucléaires au nucléaire sous-marin ?

Un autre secteur industriel important en France, celui de la marine : DNCS, leader européen du naval de défense, a créé l’événement en ce mois de janvier en présentant largement à la presse écrite et audiovisuelle son spectaculaire projet de centrale nucléaire sous-marine de petite capacité, Flexblue. La technologie Flexblue était développée dans le plus grand secret depuis quelques années par DCNS. La voilà aujourd’hui portée en pleine lumière par Patrick Boissier qui a déclaré : « Flexible Energy Blue, comme la mer et l’énergie, est un concept sans équivalent sur le marché qui permet d’apporter une source d’énergie sûre, continue, compétitive, qui n’émet pas de CO2, modulaire, un concept qui n’aurait pas d’impact sur le paysage et accessible par la plupart des pays ». Il s’agit d’un concept qui intègre des technologies déjà bien connues et parfaitement maîtrisées par la DCNS qui a construit les chaufferies des sous-marins nucléaires français et du porte-avions Charles de Gaulle.  » Sous-marins nucléaires, porte-avions, nous avons monté 18 centrales nucléaires ! « , explique Patrick Boissier. Flexblue utilise donc toutes les technologies éprouvées existant déjà chez DCNS, ne nécessitant pas de lourds investissements, ce qui devrait en toute logique permettre d’obtenir un produit capable de fournir de l’électricité à un coût compétitif. Affaire à suivre donc…

Juridique : poids-lourds encore plus lourds et obligations des DPE

Les infos juridiques : Promis cet été aux agriculteurs, le décret autorisant la circulation des 44 tonnes, contre 40 actuellement, est paru ce 18 janvier au Journal Officiel. La mesure sera généralisée aux autres secteurs fin 2012 dès la mise en place de l’écoredevance poids lourds. Annoncé fin avril 2010 par le Président Nicolas Sarkozy, suite à la manifestation des céréaliers à Paris, le passage de 40 à 44 tonnes des poids lourds vise à soutenir « la compétitivité des exploitations agricoles », avait alors expliqué le chef de l’Etat : « Cela aura un double effet : réduire les émissions des gaz à effet de serre et apporter un gain de productivité de 11 % sur le prix des matières premières agricoles. C’est 80 millions d’euros par an pour ces filières ». Rappelons que les émissions de GES des poids lourds restent toujours 10 à 100 fois plus élevées par rapport à un transport par mode ferroviaire ou fluvial. La fédération France nature environnement (FNE) a de nouveau dénoncé une mesure anti-Grenelle au profit des lobbies agro-alimentaires et routiers. Elle a réaffirmé son opposition à la généralisation des 44 tonnes qui, selon elle, ne favorise pas le report modal et craint une porte ouvert laissée aux méga-camions de 60 tonnes alors que le gouvernement avait fin juillet 2009 reculé sur leur expérimentation.

Autre obligation en ce début 2011, Toutes les annonces immobilières, y compris celles des particuliers, devront afficher les résultats du diagnostic de performance énergétique (DPE) à partir du 1er janvier 2011 et le non-respect de cette obligation nouvelle sera passible de sanctions judiciaires. « C’est une vraie révolution pour le marché immobilier car cette « valeur verte » va être un élément de négociation du prix de vente et inciter à faire des travaux d’économie d’énergie », a affirmé le secrétaire d’État au Logement Benoist Apparu. Pour le ministre de l’Écologie, Jean-Louis Borloo, cette mesure « est plus importante que le  » bonus-malus écologique » pour les voitures » en raison de l’importance de l’investissement lors d’un achat immobilier et du montant des dépenses énergétiques des ménages. Cette obligation d’affichage, instituée par la loi Grenelle 2 de juillet, « s’applique à tous les biens immobiliers au moment des ventes et des locations, lorsqu’ils sont soumis à l’obligation de réaliser un DPE à compter du 1er janvier 2011 », indique le projet de décret présenté en conseil des ministres.

Des contrats pour les bioénergies…

Global Bioenergies est aujourd’hui l’une des rares entreprises au monde, et la seule en Europe, à développer un procédé de conversion de ressources renouvelables en hydrocarbures. Après avoir franchi avec succès les premières étapes du développement de son procédé de bioproduction d’isobutylène, cette entreprise poursuit l’optimisation du rendement de son procédé, tout en se préparant à mener des tests sur des installations pilote. Parallèlement, Global Bioenergies cherche à répliquer ce succès aux autres molécules de la familles des alcènes gazeux (propylène, éthylène, butylène linéaire …), les molécules centrales de la pétrochimie, provenant aujourd’hui exclusivement du pétrole. 

Le 14 décembre dernier, Global Bioenergies a annoncé la signature avec un industriel américain d’un premier contrat portant sur une application particulière de son procédé de bioproduction d’hydrocarbures gazeux. Un premier résultat commercial qui valide la stratégie commerciale mise en place par cette entreprise qui prévoit l’établissement d’accords de licence spécifiques par applications. « La concession en amont de droits futurs sur nos procédés contribue à leur financement et permet d’en accélérer le développement. De tels accords représentent une bonne opportunité pour les industriels qui obtiennent des droits dans des conditions privilégiées en prenant part au risque de l’industrialisation. Nous prévoyons de signer plusieurs nouveaux accords industriels dès 2011 », a expliqué Marc Delcourt.
 

Zoom sur l’Allemagne

Chaque mois, les bilans thématiques d’IT vous proposent de découvrir comment nos voisins européens appréhendent les problématiques liées aux énergies renouvelables, notamment en termes de recherche. Ce mois-ci l’Allemagne, un exemple à suivre en termes d’investissements, de prise de conscience et d’implication étatique.

DESERTEC, quand la folie des grandeurs devient réalité

A l’étude depuis plusieurs années, le projet mondial DESERTEC, dans lequel ce sont investis de grands industriels allemands, vise à capturer l’énergie solaire et éolienne des déserts. Actuellement, DESERTEC s’intéresse à l’Afrique du Nord et au Moyen-Orient. L’électricité générée sera transportée via des lignes à haute tension ou des câbles sous-marins. Cependant, les chercheurs ajoutent que les câbles, systèmes et composants utilisés actuellement devront être adaptés au futur environnement de production. Le but est de s’assurer que les consommateurs reçoivent l’électricité d’une manière fiable, et avec le moins de pertes possibles.
 C’est pour cela qu’une équipe de recherche allemande étudie plusieurs solutions et travaille sur des composants capables de convertir l’énergie électrique avec un rendement élevé. L’équipe signale que l’on utilise de plus en plus le courant continu pour transporter l’énergie à plus de 500 kilomètres ou pour des câbles sous-marins. En effet, cette méthode assure une tension constante et une faible consommation, avec des pertes maximales de 7% à longue distance contre 40 % en courant alternatif. C’est en tout cas une voie de recherche essentielle pour mener à bien ce projet un peu fou, mais qui ne cesse de prendre une forme de plus en plus concrète.

Conscient de l’importance de projets comme DESERTEC, le Ministre fédéral de l’Environnement, Norbert Röttgen, soutient vivement la recherche sur les énergies renouvelables et augmente ainsi pour 2011 le budget dans ce domaine. « Afin de renforcer les énergies renouvelables, les entreprises et les scientifiques doivent plus s’investir dans la recherche et le développement. Pour ce faire, ils peuvent compter sur le ministère fédéral de l’environnement : nous allons augmenter de manière significative notre financement dans la recherche ». En 2010, près de 120 millions d’euros ont été attribués à ce champ d’étude ; en 2011 les fonds disponibles sont d’ores et déjà de 128 millions d’euros.

Les 184 nouveaux projets de recherche prévus concernent l’énergie éolienne, en particulier en mer, et l’énergie photovoltaïque (PV) en vue de réduire les coûts et d’améliorer son efficacité.



Las Allemands champions de l’investissement durable

En terme de recherche pure et d’innovation l’information de ce mois de janvier concerne les biocarburants… et les algues. En effet, les micro-algues constituent un enjeu d’avenir pour la production de biomasse et de biocarburants. Conscientes de l’intérêt de cette technologie, la France et l’Allemagne intensifient actuellement leurs efforts de R&D dans le domaine des algocarburants.

Une mission d’experts français en Allemagne a été l’occasion de faire un tour d’horizon des principales initiatives allemandes ainsi que d’établir les bases d’éventuelles collaborations franco-allemandes au niveau de ce secteur d’innovation technologique.

Ce document offre une analyse de l’approche allemande en matière de recherche sur les micro-algues en s’intéressant particulièrement aux études fondamentales sur leur biologie, aux développements technologiques liés à la construction de photobioréacteurs et aux premières applications industrielles. Il permet de faire un état des lieux des perspectives de la recherche sur les micro-algues qui devraient être renforcées en Allemagne dans les prochaines années.

Le congrès annuel E-Energy a été inauguré le 11 janvier 2011 à Berlin par le Ministre fédéral pour l’économie et la technologie, Rainer Brüderle. Cette manifestation, qui s’est tenue sur deux journées, a rassemblé plus de 300 experts de l’industrie, du monde de la recherche et de la société civile. Un des thèmes centraux a été la mise en place de réseaux intelligents (Smart Grids) en Allemagne. Grâce à l’utilisation des technologies d’information et de communication (TIC), la demande énergétique pourra être assurée à l’aide de sources d’énergie renouvelables et décentralisées. Les différentes utilisations possibles sont développées et testées dans 6 régions modèles E-Energy, avec chacune un accent technologique spécifique. Ces Smart-Grids sont à la fois une priorité pour la stratégie TIC et pour le concept énergétique du gouvernement.
 voici les six projets menés en régions :


  • La ville modèle de Mannheim :
200 utilisateurs ont la possibilité de participer aux tests des nouveaux moyens d’approvisionnement électrique. Depuis fin 2010, les ménages tests on a leur disposition un « majordome énergétique » qui est un système de gestion énergétique intelligent. Grâce au contrôle de leur consommation, les ménages font des économies et contribuent à la préservation des ressources énergétiques et de l’environnement ;
  • La région modèle eTelligence de Cuxhaven : 
Elle rassemble de gros consommateurs énergétiques industriels et communaux. Par exemple des entrepôts frigorifiques (40 000 présents en Allemagne) et les piscines s’alimentent en énergie seulement aux moments où les éoliennes sont en fonction. Ils agissent ainsi comme des tampons pour le réseau en absorbant l’excès de courant ;
  • La région modèle MeRegio de Karlsruhe/Stuttgart : 
Elle a décidé de focaliser ses efforts sur la minimisation des émissions. Une expérience est menée auprès de 1 000 clients afin de comparer les productions et besoins dans les plus petites cellules, c.à.d. les maisons ou les commerces. Le projet a déjà permis de se rendre compte que les utilisateurs sont très intéressés et prêts à accepter de nouvelles offres permettant d’adapter leur consommation ;
  • La région modèle régénérative du Harz :
Un nouveau système de prévision solaire et éolien a été mis en place. Il doit permettre à un grand nombre d’installations de production d’électricité et d’énergie décentralisées de s’adapter de manière optimale à la consommation ;
  • La région modèle E-DeMa Rhin-Ruhr :
20 microcentrales de cogénération ont été installées. En cas de besoin elles peuvent servir de petites centrales de production. Au sein de la place de marché E-DeMa, les opérateurs peuvent gagner de l’argent frais pour leur installation. Près de 1 000 accès TIC permettent aux opérateurs de participer activement aux échanges. Les clients actuels deviennent grâce à E-DeMa des « prosommateur », c.à.d. à la fois des producteurs et des consommateurs ;
  • La région modèle SmartWatts d’Aix-la-Chapelle (Rhénanie du Nord Westphalie) :
 le projet constitue un exemple d’organisation de l’approvisionnement communal. A l’aide de compteurs électriques intelligents, près de 500 consommateurs ont la possibilité de connaître la provenance et le coût de leur électricité. Chaque utilisateur peut alors optimiser sa consommation.

Par S.B

Sources : ADEME, CNRS, Bulletins électroniques, www.gouv.fr

 

Les news « informatique » du mois de janvier

Alors que l’intérêt grandissant pour les Green ITs a entrainé la multiplication de solutions logicielles pour le monde de l’entreprise comme pour les particuliers, aidée en cela par une législation encore balbutiante, une jeune start-up française s’est intéressée en parallèle à la mise en place d’une solution matérielle, avec la conception d’un ordinateur éco-construit et peu gourmand en énergie, optimisé en réseau. D’autres se sont intéressés à réduire drastiquement l’impact écologique des « data centers », les centres de données, amenés à se multiplier, indispensables à la pérennisation du « cloud computing ».

L’avènement des « logiciels verts »

Les solutions logicielles vertes commencent à pulluler, proposant essentiellement deux types de service aux entreprises, dans des formules gratuites ou payantes, avec ou sans accompagnement :

  • un audit de la consommation électrique ;
  • un audit concernant l’empreinte Carbone.

40 % des ordinateurs seraient allumés 24h/24. Prenons le Avob Energy Saver, de la société Avob, « une des références françaises de la réduction de la consommation électrique des postes de travail. », selon le site « GreenIT.fr ». Non seulement il se propose d’éteindre les postes indûment allumés les soirs et weekend, comportement apparemment très répandu :http://www.greenit.fr/article/energie/40-des-ordinateurs-allumes-24-heures-sur-24-3452
Ce logiciel permet aussi de moduler la puissance du processeur d’un ordinateur en l’adaptant aux besoins de l’utilisateur, en ayant une approche dynamique de la consommation nécessaire, et non linéaire. Le système informatique devient alors moins gourmand, ne tournant plus constamment à plein régime.

Ils ont l’ambition de réaliser 10 millions de chiffres d’affaires à 3 ans, en investissant le marché américain, selon la Tribune : http://www.latribune.fr/green-business/l-actualite/20101222trib000585558/les-logiciels-verts-d-avob-gagnent-du-terrain.html
En effet, « contrairement à la France où le kWh électrique est peu émissif (80% d’énergie nucléaire) et bon marché, les Etats-Unis produisent leur électricité essentiellement à partir de sources primaires carbonées (pétrole, gaz, charbon). Par ailleurs, le prix du kWh y est plus cher. Les entreprises sont donc motivées pour réaliser des économies d’énergie. », toujours selon GreenIT.fr.

Carbon Hub

Dans le créneau « bilan Carbone », Carbon Hub, concepteur de logiciels de gestion environnementale permettant de maîtriser et de réduire l’impact environnemental des emissions de CO2 des entreprises et des collectivités locales, tout en réduisant les coûts initiaux, se démarque des autres acteurs de ce marché en mettant l’accent sur ses fonctions collaboratives, alors que longtemps les bilans se faisaient à l’aide… de fichiers Excel. Ronan Kerouedan, co-fondateur de Carbon Hub, insiste sur le fait que ce qui intéresse les entreprises et les collectivités, « c’est voir ce que font les autres et obtenir du contenu de qualité, échanger sur ce qui marche, sur ce qui ne marche pas, savoir combien ça coûte, quel fournisseur contacter, connaître les délais… ». Ces logiciels ont quelques beaux jours devant eux car c’est un marché appelé à se développer, les entreprises et les collectivités étant bientôt toutes dans l’obligation de mesurer leurs émissions de carbone, c’est en tout cas ce que laisse augurer une législation encore légère, mais chaque jour un peu plus restrictive.

Le « Pay As You Save », réponse inventive à une législation jugée trop faible

La France et l’Angleterre sont les deux pays les plus en avance dans le domaine législatif, bien qu’on puisse trouver ces lois faméliques comparées à leurs déclarations d’intentions. L’abandon de la Taxe Carbone, remplacée par les CEE… On constate d’abord qu’il n’existe pas de taxe carbone en France, pourtant prévue pour début 2010, avec un montant initial de 17 € la tonne de CO2, redistribués par la suite sous forme de crédits d’impôts, mais le projet fut enterré par la suite. Ce sont les certificats d’économie d’énergie (CEE) qui font désormais office de taxe carbone. (en savoir plus : http://www2.ademe.fr/servlet/KBaseShow?sort=-1&cid=96&m=3&catid=15024
On récompense ici les efforts des entreprises ayant mis en place des actions qui génèrent des économies d’énergie par l’obtention d’un certificat, les autres pouvant alors soit acheter ces certificats et ainsi financer et valorisant indirectement les efforts de rénovation énergétique des bons élèves, soit payer une surtaxe à l’état. Le coût de la pénalité est de 0,02 €/kWh cumulé accumulé (cumac) maximum et les certificats, qui ont leur propre marché, se négocient entre 0 et 0,02 €/kWh cumac.
On peut aussi souligner la création du concept de « Responsabilité sociale des entreprises » (RSE). La définition de la Commission européenne de la RSE est la suivante : « Un concept qui désigne l’intégration volontaire par les entreprises de préoccupations sociales et environnementales à leurs activités commerciales et leurs relations avec leurs parties prenantes ». Peu efficiente jusque là et dans l’état actuel des choses, il lui manque le corps et les applications pour que ce ne soit pas qu’une simple déclaration d’intention.

Greenwashing ?

On a souvent accusé certaines entreprises se servant de ces logiciels, parfois à juste titre, d’ « écoblanchiment » (en anglais, « greenwashing »), c’est à dire de se racheter une image plus verte, plus respectueuse de l’environnement auprès du grand public, instrumentalisant ainsi cette orientation en en faisant un coup marketing, ayant avant tout une approche économique et à court terme .
« La communication paie. Le Top10 des sociétés les plus “responsables” est constitué de très
grandes multinationales qui investissent des sommes colossales en communication. », toujours selon le site GreenIT.fr.

« Pay as you save »

C’est dans l’idée de responsabiliser les entreprises, tout en se rendant attractifs et en profitant de la frilosité législative que certains concepteurs de logiciels ont mis en place le modèle économique alternatif du « Pay As You Save », plutôt que de rester sur une licence annuelle.
Ce principe est assez limpide, comme l’explique Christelle Kerouedan, co-fondatrice de Carbon Hub : « nos clients nous rémunèrent uniquement s’ils parviennent à réduire leurs émissions de CO2 ». Ces éditeurs de logiciels, dont Carbon Hub et Avob font partie, prennent donc une commission sur l’argent ainsi économisé, système de rémunération moins statique et plus engageant que la simple licence, alors que nombre de logiciels jouent uniquement la carte de la stratégie de réduction des coûts, mettant en avant la diminution de la facture mais sans réelle valeur ajoutée, laissant de côté la nécessaire sensibilisation des utilisateurs et le pilotage de la réduction (laissant le logiciel faire « tout » le travail), oubliant aussi le recyclage des machines, l’allongement de la durée de vie des postes…

Alt, l’ordinateur éco-conçu

C’est fort de ce constat qu’une jeune entreprise française, Meta IT, localisée en région Aquitaine, a décidé de s’implanter dans ce vide relatif, en devenant le premier fabricant français d’informatique responsable. Bien que les concepteurs disent eux-mêmes qu’il serait un non-sens de parler d’ordinateur écologique, tout depuis la conception jusqu’à la réduction des impacts à la production, en passant par la diminution de la consommation en fonctionnement, ainsi qu’une plus grande maîtrise du cycle de vie, font de Alt une alternative originale et crédible aux ordinateurs classiques, tout du moins pour une utilisation professionnelle de gestion et de bureautique.

Une puissance appelée de 107 W en moyenne pour un ordinateur de bureau

En se concentrant sur cette utilisation bureautique, les concepteurs ne sont pas tombés dans le piège d’une inutile surenchère de la performance. En le débarrassant de tous les « gadgets superflus », cet ordinateur, n’est tout d’abord constitué que de quatre pièces en aluminium, constituant la « carcasse » au design épuré, de cinq pièces électroniques (pas de Wifi, ni de lecteur CD) ainsi que la connectique (elle aussi en aluminium), limitant dès sa conception son impact écologique. Son alimentation de faible puissance, sa faible consommation d’énergie (la puissance appelée en fonctionnement est de 107W en moyenne pour un ordinateur de bureau, 81W pour un ordinateur plus économe en énergie, et de 40W en moyenne pour les portables, selon une étude diligentée par Enertech pour le compte de l’Ademe, et selon Meta IT) leur ont permis de se débarrasser du ventilateur, très énergivore et soumis à l’usure mécanique car, selon les concepteurs, « l’alimentation spécifique de Alt est de 30 W avec un rendement de 90%, ce qui engendre seulement une perte d’énergie de 2 à 3 W », donc un échauffement très minime.

Sa durée de vie se voit allongée, tant par la robustesse de ses composants que par l’optimisation de leur utilisation. Il est d’autre part facilement réparable, (coûts de maintenance réduits ),le très petit nombre de pièces le composant, permettant le remplacement rapide et à moindre frais de la pièce défectueuse plutôt que l’onéreux retour en atelier, ce qui laisse présager là aussi une durée de vie supérieure à la normale. Autre point remarquable, Alt est assemblé localement et il est livré sans emballage.

Un ordinateur optimisé pour fonctionner en réseau

Le Alt de Meta IT, pris à l’unité, est évidemment moins performant qu’un ordinateur récent dans la même gamme de prix, se concentrant sur les fonctionnalités standards utiles en bureautique (traitement de données, navigation internet…) mais, comme le précise Michael Gil de Muro, l’un des concepteurs, « le fonctionnement et le coût global sont optimisés en réseau ».Il fonctionne naturellement sous Windows ou Linux, mais « l’efficacité énergétique maximale est atteinte en réseau, plusieurs Alt avec un serveur Meta IT utilisant une technologie hybride (entre le réseau classique et le réseau de terminaux) basée sur l’emploi de serveurs peu énergivores en grappe (cluster). ». Lorsqu’il y a un pic de charge, celle-ci est donc redistribuée sur toutes les unités du réseau. Cela simplifie aussi grandement les mises à jour, la maintenance, les sauvegardes, et sécurise un peu plus les données. Il est donc destiné avant tout aux entreprises et aux collectivités.

Cette utilisation en terminal léger le rend donc idéal pour du « cloud computing » (la carte mère dispose d’un boot PXE). Il est à noter que l’implantation dans des bâtiments à haute performance énergétique et le retrait de la climatisation deviennent envisageables grâce à la réduction de la consommation électrique (l’extinction automatique soir/week-end de série, le 0W réel à l’arrêt), et à la réduction de l’enveloppe thermique des ordinateurs et des serveurs.

Le « Cloud-computing » et les centres de données

Le Cloud-computing est un concept d’externalisation des capacités de stockage, de calcul, et des logiciels (traditionnellement localisés sur le poste d’un utilisateur) sur des serveurs distants, les centres de données, la communication serveurs / ordinateurs étant assurée par internet.
Les experts estiment que les taux de croissance annuels devraient avoisiner les 40%, nouvelle grande tendance annuelle dans le monde des Technologies de l’Information et des Communications.
L’existence même du Cloud-Computing est, on le comprend, intimement liée à celle des Centre de Données, amenés à grandement se multiplier.

Les Data-centers pointés du doigt

Outre leur multiplication, les « data centers » sont particulièrement énergivores et polluants contribuant à tripler les émissions de gaz à effet de serre imputables à l’industrie de l’informatique et des télécommunications d’ici 2020. La consommation électrique du secteur atteindra alors 1963 Mds kWh.

L’Uptime Institute, Think Tank créé à l’initiative de plusieurs acteurs du secteur des centres de données, note que les infrastructures (qui comprennent le système de refroidissement et les équipements qui assurent l’alimentation électrique) consomment autant d’énergie que les serveurs hébergés dans le centre de données, que les centre de données sont sous-exploités, le taux de charge de travail moyen des serveurs serait de 20 %,l note aussi que la consommation électrique des serveurs pourraient diminuer (liée à l’inégalité des périodes d’activités).

La course à l’efficacité énergétique : le data center d’Hewlett Packard

Wynyard, dans le nord-est de l’Angleterre, choisie pour la clémence et la fraicheur de son climat, abritera le nouveau data center des américains d’HP, d’une surface d’environ 33 500 m². Le système de refroidissement, permettant de conserver une température ne dépassant jamais les 24°C, est composé de huit larges ventilateurs de 2,1 mètres de diamètre pour insuffler l’air extérieur dans l’enceinte du complexe. L’air, filtré, circule sous les serveurs. Lorsque l’air extérieur est trop frais, l’air chaud rejeté par les équipements informatiques est récupéré et mixé à l’air extérieur afin de réguler la température de l’air insufflé ensuite dans le data hall ».Cette méthode de refroidissement, devrait permettre à HP de réduire sa facture d’électricité de 2,6 M£ chaque année.
Les baies de serveur, blanches plutôt que noires, réfléchiront la lumière réduisant à priori de 40% l’éclairage intérieur. Ce système est complété par un réservoir d’une capacité de 80.000 litres, permettant « de stocker l’eau de pluie qui est ensuite utilisée pour maintenir le taux d’humidité entre 40 et 60% dans les data halls. Après filtrage, cette eau est vaporisée dans l’air stocké dans le plenum lorsque le taux d’humidité de celui-ci est trop faible.

Le « Power Usage Effectiveness »(PUE), indicateur mis au point pour mesurer l’efficience énergétique d’un data center, est calculé en divisant le total de l’énergie consommée par celui-ci par le total de l’énergie utilisée par l’équipement informatique (serveur, stockage, réseau). Le résultat est supérieur ou égal à 1. Un PUE le plus proche possible de 1 est préférable. Le centre de Wynyard dont le PUE est de 1,16, est donc l’un des data centres les plus efficaces énergétiquement parlant dans le monde. Pour se faire une idée, la plupart des data centers dans le monde flirtent plutôt avec un PUE de 2.

Mais Greenpeace explique dans son rapport « Make It Green » que la course à l’efficacité énergétique à laquelle se livrent les grandes entreprises du secteur telles que Microsoft, Google ou HP n’est qu’une solution partielle au problème de la réduction globale de l’impact écologique de cette industrie. Elle estime que d’un point de vue écologique, il est au moins aussi important de s’intéresser aux sources d’énergie utilisées pour alimenter les data centres qu’aux moyens mis en oeuvre pour diminuer leur consommation énergétique.

Les réponses logicielles et matérielles aux problématiques du développement durable et de l’éco-responsabilisation n’en sont qu’à leurs prémices. Elles doivent accompagner et susciter un changement de mentalité. Gageons que l’initiative de la start-up française « Meta It fera florès », et qu’elle entrainera dans son sillage une multitude d’autres initiatives innovantes. Jusqu’à arriver à un parc privé informatique plus vert, muni de logiciels verts? Il y a urgence, car le parc privé est en constante augmentation (surinformatisation dans les pays développés, taux de pénétration en augmentation dans les pays « émergents », dont l’Inde et la Chine).

M.R

Sources : ADEME, Les Bulletins électroniques, La Tribune, Greenit.fr

Une découverte qui ouvre la voie du transistor multifonctions

Aujourd’hui, les composants microélectroniques sont fabriqués à base de couches de semi-conducteurs déposées sur un substrat de silicium. Afin de poursuivre l’accroissement périodique des performances des composés microélectroniques au-delà de 2020, des solutions technologiques alternatives sont à l’étude. Les chercheurs travaillent de plus en plus sur les oxydes de métaux de transition (cuivre, titane, manganèse, fer, cobalt, nickel…) qui présentent des propriétés physiques intéressantes comme la supraconductivité la magnétorésistance, la thermoélectricité, la multi-ferroïcité, ou encore la capacité photo-catalytique.

Parmi les oxydes des métaux de transition, le titanate de strontium (SrTiO3) est très étudié. C’est un isolant, mais il devient bon conducteur en le dopant (en créant quelques lacunes d’oxygène par exemple). Les interfaces entre le SrTiO3 et d’autres oxydes (LaTiO3 ou LaAlO3) sont conductrices, même si les deux matériaux sont isolants. En plus, elles présentent de la supraconductivité, de la magnétorésistance, ou de la thermoélectricité avec de très bons rendements à température ambiante. Seulement voilà : les interfaces entre oxydes sont très difficiles à réaliser.

Des mémoires non volatiles ou des circuits transparents

Une découverte inattendue vient de faire sauter ce verrou technologique. Elle est due à une équipe internationale pilotée par les chercheurs du Centre de spectrométrie nucléaire et spectrométrie de masse (Université Paris-Sud 11/CNRS) en collaboration étroite avec des chercheurs du Laboratoire de physique des solides (Université Paris-Sud 11/CNRS), de l’Unité mixte de physique CNRS/Thales associée à l’Université Paris-Sud 11 et de l’Institut d’électronique fondamentale (Université Paris-Sud 11/CNRS). Ces chercheurs viennent, en effet,  de réaliser un gaz d’électrons métallique  bidimensionnel à la surface de SrTiO3. Il s’agit d’une couche conductrice de 2nm d’épaisseur environ, obtenue en cassant un morceau de titanate de strontium sous vide. Ce procédé, très simple, est peu coûteux. Les éléments qui constituent le SrTiO3 sont disponibles en grande quantité dans les ressources naturelles et c’est un matériau non toxique, contrairement aux matériaux les plus utilisés aujourd’hui en microélectronique (les tellurures de bismuth). En outre, des gaz d’électrons métalliques bidimensionnels pourraient probablement être créés de façon similaire à la surface d’autres oxydes de métaux de transition.

La découverte d’une telle couche conductrice (sans avoir à rajouter une couche d’un autre matériau) est un grand pas en avant pour la microélectronique à base d’oxydes. Elle pourrait permettre de combiner les propriétés intrinsèques multifonctionnelles des oxydes de métaux de transition avec celles du métal bidimensionnel à sa surface. On peut songer, par exemple, au couplage d’un oxyde ferroélectrique avec le gaz d’électrons à sa surface, pour faire des mémoires non volatiles, ou à la fabrication de circuits transparents sur la surface des cellules solaires ou des écrans tactiles.

Les expériences de photoémission résolue en angle (ARPES) qui ont servi à mettre en évidence le gaz d’électron métallique bidimensionnel ont été réalisées au synchrotron SOLEIL, à Saint-Aubin (France) et au Synchrotron Radiation Center de l’Université du Wisconsin (Etats-Unis).
 

Nouvelle technologie composite pour un siège automobile sans métal

En collaboration avec Faurecia, l’un des leaders mondiaux de l’équipement automobile dont la maison mère se trouve à Nanterre, en banlieue parisienne, BASF a mis au point un dossier de siège basé sur de nouvelles techniques de plasturgie. Le troisième partenaire de cette équipe de développement, la société Performance Materials Corporation (PMC) est, quant à elle, implantée à Camarillo, en Californie (États-Unis). Cette dernière développe et fabrique des matériaux, des composants et des sous-ensembles à base de thermoplastiques renforcés de fibres continues (CFRT  ou Continuous Fiber Reinforced Thermoplastic).  Ces matériaux composites offrent un rapport résistance/poids et rigidité/poids très élevé qui leur permet d’améliorer les performances structurelles d’applications très diversifiées.

Depuis le dernier prototype du siège qui avait été exposé fin 2009 au Salon de l’Auto de Los Angeles, le concept a été optimisé. Faurecia le commercialisera sous le nom de SUSCO 1.5 (abréviation de « Sustainable comfort » ou confort durable) mais, selon l’équipementier, les premiers modèles de série n’arriveront que dans quatre ans environ.

Un logiciel d’IAO prédit le comportement de composants à fibres

L’idée de base était de remplacer l’armature métallique existante par une pièce monobloc en matière plastique, qui permettrait de limiter la quantité de mousse et d’habillage. Effectivement, le dossier SUSCO 1,5 pèse environ 20 % de moins que celui d’un siège automobile classique et s’amincit d’environ 30 mm, un atout important pour l’allègement. Grâce aux possibilités offertes par ce matériau composite, il allie le confort à un design moderne et haut de gamme, aux parois minces, qui augmente la liberté de création et l’impression d’espace.

La structure du dossier se compose de couches de matières plastiques renforcées de fibres continues, qui, dans un second temps, sont surmoulées d’un nouveau grade Ultramid que BASF a spécialement élaboré pour ce projet. Ce nouveau grade de polyamide BASF offre des propriétés mécaniques particulièrement choisies, qui lui procurent des caractéristiques sur mesure permettant de l’associer à des structures à fibres continues.

Dans ce projet, l’expertise des matériaux et techniques ainsi que le savoir-faire en matière de construction et de production industrielle de sièges sont associés. Comme pour d’autres pièces automobiles complexes, la mise au point du renforcement par des fibres continues passe d’abord par la simulation du comportement en cas d’accident (résistance au crash). BASF a pu aider Faurecia grâce à Ultrasim, son logiciel de simulation qui, pour l’occasion, a fait l’objet d’une extension particulière afin d’intégrer les données relatives aux matières plastiques renforcées de fibres continues. En effet, ce logiciel d’IAO est désormais capable de prédire avec fiabilité le comportement, en cas d’accident, de composants présentant une anisotropie (des fibres) et une teneur en fibres très élevées.

 

Jean-Pierre Cariou récompensé pour ses travaux sur le LIDAR

Créé pour récompenser chaque année un ingénieur français dont l’innovation appliquée à l’industrie constitue une rupture technologique et commerciale reconnue, le Prix de l’Ingénieur Inventeur – Prix Chéreau-Lavet a été décerné Jean-Pierre Cariou, Ingénieur de l’Institut d’Optique Graduate School de l’Université d’Orsay, et Docteur en Astronomie et Techniques Spatiales de l’Université Paris VII.

Dès 1986, Jean-Pierre Cariou a embrassé une carrière de recherche au sein de l’Onera, au Département d’Optique Théorique et Appliquée. Puis lors, ses domaines de compétence et de recherche sont les capteurs lasers destinés aux applications aéroportées et spatiales. Les équipes qu’il encadre, concentrent leurs recherches sur la technologie LIDAR (Light Detection And Ranging)  qui exploite les capacités du laser pour la télédétection atmosphérique. Les performances techniques du procédé offre en effet une alternative aux solutions préexistantes, notamment à celles utilisant les seuls radars classiques. Les LIDARS développés par Jean-Pierre Cariou trouvent naturellement une destination commerciale dans des laboratoires scientifiques où la précision des caractéristiques atmosphériques qu’ils offrent rencontre les attentes de la recherche.

La télédétection laser appliquée à des marchés commerciaux d’envergure mondiale

Les travaux conduits à l’Onera nourrissent la conception d’une technologie unique exploitant la complémentarité entre radars et lidars et permettent d’envisager son application à de véritables marchés commerciaux. Le pas sera franchi avec  la rencontre entre Jean-Pierre Cariou et les fondateurs de la société Leosphere, Alexandre et Laurent Sauvage.

Créée en 2004, Leosphere procède de la conviction que les technologies LIDAR ont atteint un seuil de maturité tel que son développement industriel et commercial est désormais inscrit à l’agenda. Puisqu’il s’agit alors de s’adjoindre les services des meilleurs spécialistes mondiaux, Leosphère se rapproche de l’Onera et des équipes de Mr Cariou. Le produit de cette collaboration sera le Windcube, concentré de technologies destiné à l’analyse atmosphérique.

L’enjeu économique est d’offrir une prestation de pointe à des marchés en quête de solutions nouvelles. Qualité de l’air, de l’atmosphère, topographie, cartographie des vents pour l’industrie de l’énergie éolienne… Les déclinaisons commerciales du Windcube sont multiples et variées. Mais l’actualité récente fournit un exemple emblématique des enjeux pratiques et commerciaux de cette  technologie. En avril 2010, c’est grâce à Wincube qu’a pu être suivi le panache de cendres volcaniques craché par le volcan islandais Eyjafjallajokull.. Il a permis, d’une part, la détection, l’identification et la mesure des couches de cendres et, d’autre part, la mesure de la vitesse et la prévision de la trajectoire du nuage. C’est à l’avenir à cette expertise que l’on devra une gestion optimale des contingences atmosphériques qui ne manqueront pas d’affecter le trafic aéronautique mondial.

Roitman, Président de l’Association Marius-Lavet, Président des Ingénieurs et scientifiques de France, conclut : « cette année encore, le Prix de l’Ingénieur Inventeur – Prix Chéreau-Lavet met en lumière les parcours exemplaires d’inventeurs acquis à l’idée que l’innovation technologique doit être conduite jusqu’à ses finalité ».
 

Jeudis du CNRI : le programme 2011

Le CNRI (Centre National des Risques Industriels) a pour vocation de fédérer des initiatives sur le thème de la prévention des risques industriels et leurs conséquences sur l’environnement. Ainsi, l’appui aux entreprises et collectivités, l’ingénierie de projets innovants, et la communication font partie du champ d’action du CNRI. Mais ce n’est pas tout.

La mission fédératrice du CNRI inclut également une action d’animation. Celle-ci consiste à organiser des colloques, à participer à des salons et à animer des conférences.Les Plans de Prévention des Risques Technologiques (PPRT).
Le Centre National des Risques Industriels organise des actions de sensibilisation sur des thématiques diverses et variées, toutes étroitement liées à la prévention des risques industriels.

Colloques ou cycles de conférences, les Jeudis du CNRI offrent l’opportunité d’être plus pertinent encore dans la connaissance et par là même dans la prise en charge d’actions quotidiennes au service des entreprises, des collectivités, mais aussi des salariés et des citoyens. Ils permettent d’accaparer des outils, des méthodes et de trouver des interlocuteurs ; autrement dit, de ne pas être isolé face aux problèmes posés.
 

Le programme des Jeudis du CNRI pour 2011 : 

Les Plans de Prévention des Risques Technologiques (PPRT)

(7 avril 2011)

  • Des catastrophes technologiques majeures, Feyzin – Bhopal – AZF, rappellent périodiquement que certaines installations industrielles sont susceptibles d’être à l’origine d’accidents mettant en jeu la vie et la santé des riverains. La catastrophe d’AZF a entraîné une réflexion approfondie qui a débouché sur la loi n° 2003-699 du 30 juillet 2003. Cette loi relative à la prévention des risques technologiques et naturels et à la réparation des dommages prévoit l’élaboration de plans de prévention des risques technologiques (PPRT). Leur objectif est de résoudre les situations difficiles en matière d’urbanisme héritées du passé et mieux encadrer l’urbanisation future. Les PPRT concernent les établissements SEVESO à « hauts risques » dits AS. Un total de 421 PPRT concernant 670 établissements industriels sont à élaborer. Occasion de conflits mais aussi de dialogues locaux, les PPRT questionnent notre relation au risque en cherchant à résorber les situations héritées du passé. Ce Jeudi du CNRI sera l’occasion de faire le point sur l’élaboration de ces PPRT ; de voir comment ils s’organisent entre les différentes parties prenantes.

Conduite de changement : comment gérer les risques RH et le management des compétences ?

(13 octobre 2011)

  • Les entreprises qui obtiennent de manière pérenne de bons résultats ont en commun deux caractéristiques : d’une part, une capacité des managers et des équipes à anticiper les besoins pour répondre aux évolutions de l’environnement et de la stratégie de l’entreprise ; d’autre part, une volonté affirmée de développer et d’adapter en permanence leur capital humain. La fonction RH se modernise, repense son positionnement et sa contribution aux enjeux de l’entreprise, cherche à optimiser son organisation. Ce Jeudi du CNRI sera l’occasion de traiter de ce sujet d’actualité ; de faire en sorte de mettre en lumière ensemble des éléments de méthode, de bonnes pratiques et des outils pour mieux anticiper les risques et ainsi prévenir. Chef d’entreprise : quels sont vos risques et vos responsabilités ?

Chef d’entreprise : quels sont vos risques et vos responsabilités ?

(8 décembre 2011)

  • Homme-orchestre aux compétences multiples, le chef d’entreprise est sans doute la personne la plus exposée, socialement, financièrement, éthiquement et juridiquement, de son organisation. Dans des entreprises de plus en plus complexes, réticulées en organisation clients-fournisseurs en constante évolution dans un cadre juridique lui-même multiple, comment rester maître et informé de ses risques et de ses responsabilités ? Du domaine technique au domaine social, du domaine environnemental à celui de la santé, ce jeudi du CNRI sera l’occasion de faire le point sur ce qui change, mais également sur ce qui, de manière regrettable, ne change pas !

Pour en svoir plus et participer aux Jeudis du CNRI, rendezv-vous sur le site du CNRI

P.T

Un robot défie les champions du Jeopardy

Créé par Merv Griffin, aussi créateur de La Roue de la fortune, le célèbre jeu télévisé Jeopardy est diffusé depuis le 30 mars 1964, aux États-Unis. Son nom vient du verbe anglais « to jeopardize » (mettre en péril), puisque les joueurs en fin de jeu mettent en péril leurs gains pour gagner plus ou tout perdre. À partir de réponses, trois candidats doivent trouver la question correspondante, chaque bonne réponse rapportant une somme mais chaque erreur la faisant perdre. Les candidats s’affrontent selon leur rapidité à buzzer pour répondre.

IBM a décidé de participer à cette émission avec son système informatique Watson, du nom du fondateur d’IBM, Thomas J. Watson, qui  rivalisera, en direct, avec deux des champions de Jeopardy les plus reconnus et célèbres les 14, 15 et 16 février prochain.

Watson a été développé au cours de ces quatre dernières années par une équipe de scientifiques d’IBM qui ont entrepris de relever un grand défi : construire un système informatique qui rivalise avec la capacité humaine à répondre à des questions posées dans un langage naturel, tout cela avec vitesse, précision et confiance en soi. Le jeu Jeopardy constitue un défi ultime puisque les indices du jeu impliquent d’analyser le sens subtil des mots, l’ironie, les devinettes et bien d’autres complexités dans lesquelles l’être humain excelle alors que l’ordinateur est traditionnellement dépassé.
 
Lorsque les scientifiques d’IBM se sont lancés dans ce projet, d’autres membres de la communauté scientifique tenaient cette tâche pour irréalisable. Les scientifiques d’IBM, eux-mêmes, avouaient que ce défi s’avérait réellement ardu mais, au cours de l’automne 2010, ils sont parvenus à des résultats remarquables, lorsque Watson a effectué plus de 55 « sessions d’entrainements » contre d’anciens participants du Tournoi des Champions Jeopardy.

Au delà du jeu, des applications potentielles 

La capacité de Watson à comprendre le sens et le contexte du langage humain, à traiter rapidement l’information afin de trouver des réponses précises à des questions complexes, constitue un formidable potentiel pour transformer la manière dont les ordinateurs aident les gens à accomplir différentes tâches dans leur vie professionnelle et personnelle. Cette technologie pourrait être appliquée dans des domaines tels que la santé pour un diagnostic précis des patients mais aussi afin d’améliorer les centres d’assistance en ligne, apporter aux touristes et citoyens des informations spécifiques sur les villes, un service client rapide via téléphone, et bien plus encore.
 
Tout comme Deep Blue, le superordinateur d’IBM qui avait battu le champion du monde d’échecs en titre en 1997, Watson offre une évolution considérable quant à la capacité des systèmes des technologies de l’information à identifier les comportements, développer un instinct critique et accélérer la prise de décision en dépit d’une complexité intimidante. Mais alors que Deep Blue constituait une énorme réalisation dans l’application de la puissance informatique à un jeu bien défini et limité informatiquement, Watson relève un challenge infiniment ouvert et surpasse les limites bien définies de formules mathématiques d’un jeu tel que les échecs. Watson est capable d’opérer dans l’ambiguïté, le domaine hautement contextuel, presque sans limite du langage et du savoir humain.
 
La technologie brevetée Watson exploite le processeur Power 7 d’IBM  qui, avec 1,2 milliard de transistors sur le chip,  affiche des super caractéristiques intéressantes : 4, 6 ou 8 cœurs par socket, une fréquence d’horloge de 3,0 à 4,14GHz et jusqu’à 4 threads par cœur ! Une puissance encore dopée par un cache L3 eDRAM intégré (32Mo).
 

La cartographie au service des processus métiers

Vinci Energies, l’une des quatre branches principales du groupe Vinvi, est une entreprise décentralisée dotée de nombreux réseaux de partenaires qui dispose d’une présence terrain forte avec près de 800 PME fédérées. Elle offre des services liés aux technologies des énergies et de l’information aux producteurs et distributeurs d’énergie, aux opérateurs des transports et des télécommunications, aux  industriels et collectivités locales. Afin d’orienter ses actions de développement business ou d’acquisition future, elle a choisi d’utiliser la plate-forme LBS (Location Base Services) de GeoConcept et l’intelligence de la cartographie qui permet, au sein de l’annuaire du groupe, de visualiser et d’identifier à l’aide d’une carte les différents partenaires métiers.

Cette initiative qui propose aux collaborateurs l’utilisation d’un service de géocodage, est la première étape dans l’intégration globale de l’outil cartographique au sein d’une plate-forme orientée services. Celle-ci permettra d’optimiser les différents processus métier et sera progressivement étendue à l’ensemble de l’écosystème de partenaires.

Les LBS sont des services basés sur la localisation et permettent d’intégrer des informations géographiques dans les applications métiers d’entreprises ou d’organisations. Ils vont bien sûr au delà du simple affichage de cartes. Ils ont pour mission d’envoyer de l’information riche, utile et en temps réel aux usagers à travers des services d’optimisation ou de géocodage, qui vont de la reconnaissance d’adresses sur une carte ou un annuaire, au calcul d’itinéraire en passant par l’affichage cartographique d’information métier ou encore le reporting.

La mise en place et l’intégration d’une première plate-forme orientée services dans une structure décentralisée comme Vinci Energies a dû, pour être couronnée de succès, prendre en compte un certain nombre de contraintes. En effet, l’adoption par les utilisateurs finaux d’un tel outil doit avant tout passer par un niveau de performance et de disponibilité irréprochable. C’était un des facteurs-clés identifié par Jean-Christophe Damez-Fontaine Directeur des Systèmes d’Information de Vinci Energies qui déclare à ce sujet : « Dans un Groupe comme le nôtre, proposer un tel type de service implique forcément un niveau de performance élevé qui nous apportera la légitimité au moment de mettre en place de nouvelles applications cartographiques qui viendront enrichir nos systèmes et nos processus métiers»

Prochaîne étape: l’optimisation des tournées

Ces facteurs clés de succès, auxquels il faut ajouter le temps de réponse, l’ergonomie et le rendu graphique, permettent d’évaluer la qualité unitaire du service avant de le proposer à l’ensemble des partenaires ou de l’étendre à d’autres processus métiers. Bien sûr, l’interopérabilité est également un point crucial. La LBS Platform choisie par Vinci Energies est utilisée de façon transparente dans les systèmes hétérogènes de l’entreprise et de ses partenaires. Cette capacité à s’interfacer au sein de différentes plates-formes est un avantage majeur au moment de l’implémentation du service ou de son élargissement. Autre élément concourant à l’adoption de la solution GeoConcept, la prise en compte du développement des outils de mobilité qui permettent la diffusion et l’utilisation de LBS en mode Web 2.0 ou en mode embarqué (smartphones, netbook).

L’utilisation de la solution LBS Platform par Vinci Energies a permis d’augmenter la qualité et la richesse des réponses aux clients et a surtout enrichi l’offre du Groupe en proposant aux équipes un outil en mesure de répondre rapidement à leurs demandes quotidiennes. Vinci Energies vient ainsi de franchir avec succès la première étape dans la construction de sa plate-forme orientée services. L’intérêt, l’utilité et la force de l’information géographique sont désormais établis au sein du Groupe qui envisage d’étendre le concept à l’optimisation de tournée, autre application privilégiée de la cartographie. Avec ce type de solution, véritable outil d’aide à la décision, le Groupe pourra réaliser des économies substantielles, tout en gagnant du temps dans l’optimisation et l’organisation des tournées quotidiennes de ses techniciens et collaborateurs. 

Deux ans pour réhabiliter un ancien dépôt pétrolier

D’une superficie de 35000m2, l’ancien site pétrolier d’Ebanges, à proximité de Thionville, a été contaminé lors de son exploitation. Des reconnaissances précises de la pollution des sols et de la nappe qui ont été réalisées par le bureau d’étude URS, ont, en effet,  permis de mettre en évidence:

  • une pollution des sols par des hydrocarbures totaux, des BTEX (Benzène, Toluène, Ethyl-benzène et Xylènes) et des HAP (Hydrocarbures Aromatiques Polycyclique), également sous forme de goudrons ;
  • une pollution de la nappe phréatique par des HCT, des BTEX et des HAP sur la quasi totalité du site. Cette pollution était présente principalement sous la forme d’une phase dissoute.

Pour faire face à ce problème environnemental, Biogenie Europe, spécialiste de la dépollution des sols, a été missionné pour l’excavation d’environ 100 000m3 de sols, le tri, le traitement en Biopile Ex-situ de 50 000m3 de sols pollués et le traitement de la nappe polluée par des contaminants dissous.

La stratégie de réhabilitation  de Biogenie Europe repose sur:

  • la mise en place d’une barrière étanche ancrée dans le substratum argileux ;
  • la mise en place d’un dispositif de traitement de type Biopile Ex-Situ ;
  • la mise en place d’un dispositif de traitement des eaux de la nappe de 60 m3/h reposant sur du pompage en fond de fouille, de la filtration sur charbon actif et des réinjections préférentielles pour recirculation.

L’objectif de ce chantier qui s’achèvera en 2012, est de se mettre à l’abri de la contamination de la nappe présente à l’extérieur et à l’amont du site traité. Pour ce faire, des sondages ont été réalisés afin de valider sur toute la façade amont du site, la cote du substratum argileux. Dès validation, des terrassements ont été entrepris afin de construire une plate-forme à une cote définie permettant l’intervention d’une trancheuse automatisée. La barrière étanche a été mise en place par une trancheuse et selon la technique du soilMixing (mélange in-situ des sols avec un ciment CLK). Cette technique a permis de mettre en place, en 3 semaines, 530 mètres linéaires de paroi molle (perméabilité de 10 -9) à environ 8m de profondeur par rapport au terrain naturel.

Télégestion des équipements de traitement des sols

Le traitement des terres polluées repose sur le système du Biotertre dynamique (ou Biopile Ex-Situ), un procédé qui consiste à mettre en place les conditions de biodégradation optimales pour les souches bactériennes endogènes. Ce dispositif a imposé de mettre en place un module de ventilation dûment dimensionné et d’apporter aux sols des agents fertilisants et structurants nécessaires.

Biogenie a construit pour les besoins du projet, deux plates-formes de traitement étanches d’une surface d’environ 4000 m2 chacune, équipées d’une géomembrane en PEHD et d’un double système de protection en géotextile antipoinçonnement.

Tous les équipements de traitement de sols sont suivis à distance via un dispositif de télégestion permettant de détecter les anomalies potentielles et d’intervenir sur le schéma de pompage et de réinjection éventuel mais aussi de valider les temps de fonctionnement de l’unité, la température des effluents gazeux aspirés, les durées de fonctionnement des pompes.

Le traitement de la nappe sera assuré par un pompage en fond de fouille, un traitement des effluents par filtration sur charbon actif et réinjection séquencée des eaux sur des tranchées afin d’assurer une recirculation des eaux sur le site. Alimenté par 6 pompes d’épuisement de 10 m3/h chacune, le traitement des eaux est assuré par une installation de grosse capacité (60 m3/h, 24/24 et 7j/7j) composée de 2 bacs tampons pour décantation des fines et par 2 filtres à charbon actif de gros débits.
 

Compositadour, une plate-forme technique dédiée aux matériaux composites

En dépit du ralentissement de l’économie mondiale, l’industrie des composites continue de progresser. Evalué à 60 milliards d’euros en 2008, elle pourrait atteindre les 85 milliards en 2013. Le secteur de l’aéronautique est particulièrement concerné. A titre d’exemple, si les composites représentaient 7 % du poids de l’Airbus A320 dans les années 1980, ils atteindront 53 % du poids du futur A350. Les acteurs de la filière, y compris les sous-traitants, seront nécessairement impactés et des opportunités sont à saisir. Les entreprises travaillent à réduire les cycles de conception et automatiser la production, pour rester compétitives. Le développement et la maîtrise des procédés de mise en forme des matériaux composites sont essentiels au maintien des activités manufacturières françaises et européennes dans la compétition internationale. Les activités développées au sein de la nouvelle plate-forme technique dédiée  aux matériaux composites, Compositadour,  y contribueront.

Cet équipement structurant du pôle de compétitivité Aerospace Valley participe à la dynamique du plan régional « composites et matériaux avancés ». Il s’inscrit dans les objectifs du Centre Aquitain des Métiers qui coordonne la structuration d’une offre de formation répondant aux besoins des industriels, pour développer des compétences nécessaires à l’utilisation des composites et des matériaux avancés. Il est le résultat d’un fort engagement de fondateurs – inspirateurs réunissant :

  • des collectivités territoriales : le Conseil général des Pyrénées-Atlantiques, le Conseil régional d’Aquitaine, l’Agglomération Côte Basque Adour qui participent au financement ;
  • des industriels :  Dassault Aviation, Daher Socata, EADS Composites Aquitaine, Coriolis Composites, qui en partagent le pilotage ;
  • des organismes de formation : ESTIA, AFPI et le lycée des métiers de l’aéronautique Jean Taris.

Les 4 missions de Compositadour

Compositadour dont la gestion et l’exploitation est confiée à l’ESTIA, est un centre d’excellence sur les process de production de pièces composites, plus spécifiquement les process automatisés, d’abord pour les secteurs de l’aéronautique, puis pour les autres filières industrielles. Son activité reposera sur 4 piliers principaux :

  • la recherche et le développement : initier, en partenariat avec les principaux acteurs
  • industriels, des programmes de R&D sur la conception, la qualification de matériaux composites et l’industrialisation de leur fabrication ;
  • la formation d’opérateurs et de techniciens pour le compte d’acteurs de la filière sur les aspects drapage, RTM, infusion et ajustage. Une partie du programme de formation pourrait être assurée par l’UIMM ;
  • le transfert de technologie afin d’accompagner des sous-traitants de capacité à évoluer sur la maîtrise des process de production (drapage, RTM, infusion) ou de parachèvements (usinage, détourage, perçage, assemblage voire réparation, peinture) de pièces composites ;
  • des prestations de services mutualisées notamment dans le domaine du contrôle non destructif.

 L’équipement « clé » : une cellule robotisée 8 axes de placements filamentaires

Sur plus de 2000 m2, Compositadour met en oeuvre des équipements très innovants, pour favoriser l’appropriation des technologies des composites et des procédés automatisés par les entreprises (conception,  simulation, fabrication, polymérisation, parachèvement, essais et caractérisation). Equipé de l’ensemble des moyens nécessaires au développement de pièces en matériaux composites, il permet de mettre en œuvre plusieurs procédés de fabrication pour :

  • le drapage : une table de découpe, une table outillage drapage (x12 postes), un dévidoir, un laser de projection 3D, des outillages individuels ;
  • le RTM / Infusion : un piston injecteur basse pression, une  presse chauffante 1m x 1m et une cuve de mise sous vide ;
  • le détourage, ajustage, assemblage : des tables aspirantes, du matériel pneumatique portatif (perceuses, détoureuses, scies vibrantes, ponceuses, meuleuses, riveteuses,…) ;
  • la polymérisation : un autoclave 1300 X 2500 mm (1000X1 500 mm utiles) sous 13 bar et 450°C ;
  • les contrôles et essais : un équipement portatif de CND par ultrasons et une machine de traction 5000 DaN ;
  • l’informatique : 12 stations de CAO équipées de CATIA V5 , CPD, DELMIA, CADFiber, CATFiber.

Toutefois, l’équipement « clé » est une cellule robotisée de placements filamentaires, développée par la société Coriolis Composites, qui procure des gains de productivité très importants. Cette cellule 8 axes de placement de fibres, avec rail Kuka 12m de course utile et positionneur 6 tonnes, est dotée d’une tête de placement de fibres équipée d’un laser industriel de haute puissance permettant la mise en œuvre de composites à matrice thermoplastiques

IMPALA, premier programme collaboratif de R&D

Au niveau de la recherche et développement l’objectif est d’accueillir et d’initier, en partenariat avec les principaux acteurs industriels, des programmes sur la conception, la qualification de pièces composites de formes complexes et l’industrialisation de leur fabrication, notamment autour de la technologie de placement de fibres robotisé. L’enjeu est l’intégration pour la production de pièces composites d’une technologie robotisée, non industrialisée à ce jour, et permettant de :

  • développer une solution économique et de gagner de manière significative en productivité par rapport aux process manuels ;
  • valider les caractéristiques des systèmes de placement de fibres montés sur des bases robots pour la production de pièces ;
  • développer les capacités de drapage sur des pièces de géométrie complexe (rampes, courbures et passages d’angle, …) et de taille réduite ;
  • optimiser et développer les matériaux utilisés pour les technologies de production robotisées.

Un premier programme collaboratif de R&D, baptisé IMPALA, a été labellisé par les pôles de compétitivité Aerospace Valley et Emc2. Il démarre au  cours du 1er trimestre 2011. Autour de Compositadour, Dassault Aviation, Daher Socata, Composites d’Aquitaine, Coriolis Composites, l’ESTIA et l’Ecole Centrale de Nantes, ce programme a pour objet de développer des fonctionnalités innovantes pour la mise en œuvre de matériaux composites thermoplastiques et fibres sèches, par des robots utilisant des lasers de type industriel. 

La géothermie, écotechnologie d’avenir ?

Ecotechnologie en devenir, la géothermie a pour objectif d’exploiter la chaleur du sous-sol à des fins énergétiques, en faisant appel à différentes techniques, permettant ainsi la production de chaleur, de froid et même, dans certains cas, d’électricité. Locale, renouvelable, disponible à tout moment, propre, non polluante et peu coûteuse en fonctionnement, l’énergie géothermique s’impose aujourd’hui comme une véritable option du développement durable. Face à ces différents bienfaits, le gouvernement prévoit dans le cadre du Grenelle de l’environnement, une multiplication par 6 à horizon 2020 de la production de chaleur à partir des différents types de géothermie. A cette même échéance, le Grenelle de l’environnement prévoit également que 20 % de l’électricité produite dans les DOM soit d’origine géothermique afin d’atteindre, à un coût acceptable pour la collectivité, l’objectif plus général de 50 % d’énergie renouvelable dans les DOM.

En qualité d’établissement public de référence sur les sciences de la Terre, la géothermie s’inscrit logiquement et de longue date dans les prérogatives du BRGM. D’ailleurs, en participant activement au développement des réseaux de chaleur géothermique dans le Bassin Parisien à la fin des années 1970, le BRGM fut l’un des premiers acteurs à mener des travaux de recherches en la matière. Face au nouvel essor pris par cette écotechnologie ces dernières années, le BRGM a créé un département consacré à ce sujet en 2007. Le département Géothermie du BRGM couvre à présent l’ensemble des domaines de la géothermie : pompes à chaleurs, réseaux de chaleur, électricité dans les îles volcaniques, systèmes géothermiques non conventionnels. « Ce département a pour vocation de mener différentes activités de R&D, de développer la connaissance de la ressource géothermique et d’apporter en tant qu’expert son appui aux politiques menées par les pouvoirs publics autour de la géothermie », précise Romain Vernier, Directeur du département Géothermie du BRGM ». Parallèlement, le BRGM dispose d’une filiale CFG Services qui intervient notamment dans l’ingénierie de projets de géothermie profonde (mise en place, entretien et maintenance des projets de géothermie) », poursuit-il.

La géothermie, réponse écologique aux besoins de chauffage ou de refroidissement

A court terme, les pompes à chaleur géothermiques représentent ainsi les perspectives de croissance les plus importantes de cette technologie. Le Grenelle de l’environnement fixe d’ailleurs pour objectif ambitieux d’équiper 2 millions de foyers de pompes à chaleur d’ici 2020. Ces pompes à chaleur, associées à des échangeurs souterrains, permettent de répondre aux besoins de chauffage ou de refroidissement de bâtiments individuels, de bâtiments du petit tertiaire ou du petit collectif, partout en France. « Afin d’améliorer encore la performance de ces systèmes et plus largement de concevoir une géothermie parfaitement adaptée tant à la rénovation qu’aux bâtiments basse consommation du futur, le BRGM a mis en place une plate-forme de tests des échangeurs géothermiques à Orléans », explique Romain Vernier, Directeur du département Géothermie du BRGM.  Les réseaux de chaleur géothermique ont de leur côté pour vocation d’exploiter des ressources de chaleur plus profondes et plus chaudes pour alimenter directement des réseaux de chaleur urbains, ainsi que pour des usages industriels ou agricoles. A titre d’exemple, l’aéroport de Paris-Orly va ainsi très prochainement chauffer une partie de ses installations par ce système de géothermie. Cette opération s’ajoute à la trentaine d’autres opérations de ce type qui existe déjà dans le Bassin Parisien. « Tout l’enjeu sur lequel se penche aujourd’hui le BRGM, consiste à développer ce type de géothermie en identifiant de nouvelles couches géologiques de notre sous- sol contenant cette ressource énergétique et en précisant les précautions techniques nécessaires pour leur exploitation durable », précise Romain Vernier.

La géothermie, productrice d’électricité dans les régions volcaniques

Le recours à la géothermie pour la production d’électricité nécessite au préalable de s’appuyer sur une ressource géothermale de plus de 100°C et même, si possible, 150°C. Or, en France, le contexte insulaire volcanique de certains départements d’outre-mer rend cette production d’électricité par géothermie particulièrement prometteuse. « La centrale de Bouillante en Guadeloupe, détenue par Géothermie Bouillante, une filiale du BRGM et d’EDF, constitue une première capacité de production pour les DOM volcaniques français. Dans les DOM, la géothermie représente l’énergie renouvelable réellement susceptible de contribuer à une production d’électricité à un prix compétitif, souligne Romain Vernier. À terme, elle pourrait contribuer pour près de la moitié à l’objectif des 50 % d’énergies renouvelables dans la consommation d’énergie des DOM en 2010. Fort de ce constat, le BRGM relance avec l’ensemble des partenaires locaux l’exploration de la ressource géothermale sur les îles et mène des travaux complémentaires, notamment sur la gestion durable de la ressource géothermale, la maîtrise des impacts environnementaux et sur les utilisations secondaires de la géothermie telle que la production de froid ».

La géothermie, source massive de production d’électricité de demain ?

Parallèlement à son investissement dans les systèmes de géothermie plus traditionnelle, le BRGM contribue actuellement au développement des systèmes de géothermie de nouvelle génération, dits Enhanced Geothermal Systems (EGS). « Le principe consiste à fracturer des roches chaudes à plusieurs kilomètres de profondeur pour y faire circuler un fluide à partir duquel sera produite l’électricité, explique Romain Vernier. Le BRGM mène des recherches théoriques et appliquées sur ce sujet, en s’appuyant pour les aspects expérimentaux sur le démonstrateur de recherche de Soultz sous-Forêts ». Ce démonstrateur, le premier au monde exploitant la technologie des EGS, ouvre la voie au développement de la production d’électricité géothermique en dehors des régions volcaniques, avec des objectifs de production ambitieux pour 2050.
 

 

Théorie des Contraintes et amélioration des performances

Parmi les principales démarches citées pour améliorer les performances des entreprises industrielles on trouve le Lean, le Six Sigma et la Théorie des Contraintes (la Theory Of Constraints ou TOC en anglais). Cette dernière est la moins connue pour différentes raisons, la principale étant probablement qu’elle ne vient pas d’un industriel (Toyota pour le Lean et Motorola ou General Electric pour le Six Sigma). Cette école de pensée a été développée par Eliyahu Goldratt dans les années ’70 et s’est faite connaître notamment à travers un bestseller vendu à plusieurs millions d’exemplaires : « Le But ».  Elle part du postulat que, désormais, toutes les usines sont déséquilibrées. A tout moment il y a des ressources surchargées (les goulots ou contraintes) et des « non-goulots ». Les règles de gestion doivent être repensées en conséquence.

Pour éviter les confusions nous considérerons ici que le « Lean » est l’approche développée par Toyota (citons, par exemple, « Le modèle Toyota » de Jeffrey Liker, vraisemblablement l’ouvrage de référence du moment). Il s’agit alors d’une traque à long terme des sources de gaspillages, d’un processus d’amélioration continue alimenté par tous les collaborateurs. D’autres composantes se sont révélées plus récemment, comme, par exemple, leur mode de management et leur manière de gérer leur Recherche, Développement et Industrialisation.

Lean et Théorie des Contraintes : un cocktail gagnant

Quand Lean et Théorie des Contraintes sont combinés par l’entreprise, les progrès s’avèrent beaucoup plus rapides et toujours associés à une dynamique de croissance sans laquelle les gains obtenus se transforment en pure réduction de coût souvent assortie de licenciements. Le Lean chasse les gaspillages et la TOC identifie les contraintes sur lesquelles agir pour accroître le chiffre d’affaires. Ainsi la conjugaison des deux permet d’atteindre un cercle vertueux par lequel l’entreprise devient continuellement plus efficace en éliminant les dépenses ajoutées et génère simultanément de la charge supplémentaire pour les capacités dégagées par les améliorations de productivité.

Prenons l’exemple d’une unité de production de tôles en acier. L’usine est grande (plus de 1 000 personnes) et comprends plusieurs étapes de production : aciérie, coulée continue, laminage, traitements thermiques et de surface, découpe puis contrôles. Le cycle initial de production est de 30 jours.

Première étape : augmenter le chiffre d’affaires

Dans un premier temps, l’analyse de l’usine doit permettre de localiser le ou les goulots. Dans ce type d’industrie de process, l’identification de la contrainte reste facile car les encours s’accumulent devant les goulots. Dans le cas évoqué, il s’avère que ce sont les fours de traitement thermique qui sont les goulots : le chiffre d’affaires est donc déterminé par ces équipements. Il faut impérativement concentrer, sur cette partie de la production, les efforts d’amélioration des différents services contributeurs.
Ainsi, sans investir et en appliquant des solutions simples mais partagées, le débit des fours a été augmenté de plus de 20% par :
l’amélioration de la maintenance curative et préventive de ces goulots en leur donnant la priorité par rapport aux autres équipements ;
– la réduction du temps de changement de série en comprimant les temps de refroidissements par l’utilisation de « tôles martyres » froides ;
– la baisse du nombre de changements de série en revoyant les règles d’ordonnancement et en intégrant les séquences de passage sur ces fours dès la planification du moyen terme.

Deuxième étape : rythmer l’usine au « son » du goulot

Dans un second temps, les flux de l’usine doivent être mis sous contrôle et pilotés en fonction de la capacité des goulots, en suivant l’approche préconisée par la Théorie des Contraintes dite « Tambour – Tampons – Corde » (ou « Drum – Buffer – Rope » en anglais) :
– optimisation de l’ordonnancement des goulots pour maximiser leur production pendant leur temps d’ouverture ;
– mise en place d’un stock tampon devant ces ressources et seulement ces ressources afin qu’elles ne connaissent pas d’arrêt de production dû à la défaillance d’un équipement non-goulot (donc non critique) en amont ;
– adaptation en conséquence des règles de lancement en production, pour vider le reste de l’usine de la majorité de ses encours.

En pratique, on constate que cette nouvelle gestion des flux permet de réduire de l’ordre de 50% les cycles et les encours. Dans le cas présenté, l’application du Management Par la Contrainte fait passer les cycles de 30 jours à 15 jours, dont 6 d’attente dans le stock tampon situé devant les fours (les goulots).

Troisième étape : orienter les actions de progrès

Une fois ce système en place, il est impératif d’observer en continu le contenu de ce stock de sécurité. Cela passe par l’identification des arrivées des lots de production les plus en retards, la recherche des causes associées et leur élimination. Appliquée à notre exemple, cette démarche a mis en évidence deux activités dont les dysfonctionnements généraient les plus forts retards sur le goulot. Il s’agissait :

  • d’une vieille machine à cisailler qui avait régulièrement des pannes de plusieurs jours ;
  • d’échantillons qui se retrouvaient retardés lors des analyses dans le laboratoire métallurgique du fait de l’inexistence d’un rudiment de gestion des priorités.

Ces points rapidement traités (en 3 semaines et pour un investissement de 9 000 €), le stock tampon a pu être réduit d’une journée pour atteindre 5 jours. Mais surtout, en résolvant ces deux « petits problèmes secondaires », qui étaient en réalité les plus pénalisants pour l’usine, le cycle global de fabrication a également gagné 1 jour en passant de 15 à 14 jours. Ce processus d’amélioration continue, orienté par l’analyse du stock tampon, est ensuite régulièrement reproduit jusqu’à suppression de toutes les autres causes de retard.
Ceci représente une facette peu connue de la Théorie des Contraintes : ne nullement ignorer les « non-goulots » (qui sont peut-être 90% des ressources d’une usine !), mais les intégrer sous un angle innovant par rapport aux autres approches, en regardant non pas leur performance intrinsèque mais leur impact sur la performance globale de l’entreprise.

Focaliser les énergies et trouver de la croissance pour éviter les licenciements

Tout cela met en évidence deux atouts clés de La Théorie des Contraintes et du Management par les Contraintes : orienter les actions de progrès sur les éléments qui péjorent la performance globale du système permettant d’obtenir très rapidement des gains conséquents et avoir une approche qui induit de la croissance évitant ainsi le redoutable amalgame « le Lean est un processus de licenciement continu ».

Dans le cas évoqué, il suffisait de produire plus pour vendre plus ce qui actuellement n’est pas le cas de la plupart des sociétés européennes. Toutefois, le raisonnement demeure le même si l’entreprise à un déficit de commande mais l’analyse relève d’autres aspects de la TOC appelés le « Throughput World » et les « Thinking Processes ». Il se pourrait par exemple que l’entreprise se trouve dans la situation suivante : un manque de commandes parce que les produits n’intègrent pas les dernières modes ou fonctionnalités attendues par les clients.
En regardant, non plus uniquement le processus de production, mais l’ensemble de la chaîne de valeur de l’entreprise, la TOC va mettre en évidence l’existence d’un goulot au niveau du processus d’industrialisation et un engorgement de l’ingénierie. L’application de la démarche en 3 étapes présentée précédemment permettra de dégoulotter cette activité, de lancer plus rapidement de nouveaux produits … et d’augmenter les ventes.

Une même approche pourrait être appliquée auprès des fonctions commerciales si elles présentaient un goulot, si l’efficacité commerciale déterminait les ventes.

par Philip Marris, Fondateur et Directeur Général de Marris Consulting, 

 

Le gaz, passerelle vers un transport neutre en CO2

Le constructeur suédois de camions Volvo Trucks considère le gaz comme l’alternative au pétrole la plus envisageable pour alimenter les moteurs diesel. Le gaz possède en effet un immense potentiel et constitue une passerelle vers une utilisation plus répandue du biogaz, combustible respectueux de l’environnement. « Le gaz nous offre une opportunité unique de nous atteler de manière adéquate au problème le plus urgent : la réduction des émissions de dioxyde de carbone », déclare Lars Martensson, directeur des affaires environnementales chez Volvo Trucks.

Dans l’industrie du transport, qui dépend à 97 % du pétrole, il est aujourd’hui indispensable de trouver des carburants alternatifs. L’une des options que beaucoup d’experts considèrent comme la plus prometteuse est le gaz naturel.  « Le gaz naturel fait partie des différentes options envisageables. Il peut s’avérer plus efficace que le pétrole car son utilisation génère moins d’émissions de dioxyde de carbone », déclare Magnus Swahn, président de Conlogic, cabinet-conseil qui travaille sur le développement de solutions logistiques durables. En effet, la combustion du gaz naturel qui se compose principalement de méthane, émet un taux de dioxyde de carbone de 30 à 50 % inférieur à celui du pétrole et un taux d’oxyde d’azote environ 40 % inférieur. De plus, à la différence du pétrole, le gaz naturel ne rejette ni soufre, ni métaux lourds ou cendres dans l’atmosphère.

Toutes les réserves de gaz naturel présentes sur Terre n’ont pas encore été recensées mais celles qui ont été découvertes sont bien plus importantes que les réserves de pétrole cartographiées sur la planète. Le passage au gaz naturel pourrait nous libérer de notre dépendance au pétrole, et permettrait de réduire considérablement l’impact de l’industrie du transport sur l’environnement. « Toutefois, si la combustion intervient avec un rendement énergétique plus faible dans un moteur quatre temps, cet avantage est réduit à néant », souligne Magnus Swahn. Le constructeur suédois de véhicules commerciaux Volvo a conscience de ce fait : « Le rendement énergétique du moteur diesel dépasse de 30 à 40 % celui des véhicules actuels alimentés au gaz et utilisant la technologie à allumage par bougie, selon le cycle d’Otto », explique Lars Martensson, directeur des affaires environnementales chez Volvo Trucks.

Objectif : 80 % de biogaz vert et 20 % de biodiesel vert

Le méthane-diesel, utilisation combinée du gaz et du diesel, est une technologie énergétique porteuse d’énormes espoirs pour Magnus Swahn. L’énergie principale provient du méthane, mais une petite quantité de gazole fait office de « bougie d’allumage sous forme liquide » afin d’enflammer le gaz. De plus, l’utilisation du gaz liquéfié à la place du gaz comprimé permet de bénéficier d’une autonomie bien plus importante.  « Cette solution est extrêmement séduisante. Elle offre toute l’efficacité énergétique du moteur diesel associée aux faibles émissions du méthane. J’apprécie vraiment cette association », déclare-t-il.

Il y a trois ans, Volvo Trucks a présenté sept camions, tous exclusivement conçus pour fonctionner avec un carburant alternatif. La technologie méthane-diesel faisait partie des approches sur lesquelles Volvo Trucks avait décidé de concentrer ses efforts continus de développement. « Un camion fonctionnant au gaz et exploitant l’efficacité énergétique du moteur au méthane-diesel est un réel atout car il peut tout aussi bien fonctionner uniquement au diesel, explique Lars Martensson. C’est à la fois très pratique et rassurant, puisque les infrastructures délivrant du gaz dans les stations-service ne sont pas encore omniprésentes. » Cependant, même le gaz naturel est un carburant fossile limité, et le fait de remplacer une énergie fossile par une autre n’est pas la plus clairvoyante des stratégies, d’après les critiques. Lars Mårtensson rétorque que nous devons considérer le gaz naturel comme une passerelle vers une production largement répandue de biogaz, carburant non fossile pouvant être récupéré à partir de déchets ménagers par exemple.

Le gaz naturel et le biogaz sont tous deux principalement constitués de méthane : les deux gaz sont donc totalement compatibles l’un avec l’autre, et peuvent être mélangés tout à fait librement. La grande différence repose sur l’effet quasi-neutre du biogaz sur l’environnement, c’est-à-dire que les émissions de dioxyde de carbone générées par sa combustion proviennent du dioxyde de carbone présent dans l’air ambiant, qui a été piégé dans les plantes au cours du processus naturel de la photosynthèse. Par conséquent, la combustion du biogaz n’augmente pas la quantité de dioxyde de carbone déjà présente dans l’air.

Au cours de l’année 2010, Volvo Trucks a effectué des tests de terrain avec des moteurs au méthane-diesel alimentés avec du carburant composé à 70 % de gaz, le reste étant constitué d’un mélange de biodiesel, c’est-à-dire du diesel fossile mélangé à du diesel vert, issu de matières premières renouvelables. « L’objectif est de fonctionner avec 80 % de biogaz vert et 20 % de biodiesel vert utilisé comme agent de combustion. Cela permettra de diminuer de 80 % les émissions de dioxyde de carbone par rapport au diesel traditionnel », conclut Lars Martensson.

La dématérialisation fiscale accessible aux PME et TPE ?

Transmettre par e-mail et sous forme PDF ses factures à ses clients est une source d’économie alléchante. L’émetteur économise les frais d’affranchissement et reporte les coûts d’impression sur le client. Cette pratique est valable pour des clients « particuliers » mais, entre entreprises, elle est dangereuse car elle déroge au cadre de dématérialisation défini par le Code Général des Impôts (articles 289 bis et 289-V).

La dématérialisation des factures entre les entreprises est avant tout un sujet fiscal. En effet, la facture remplit trois rôles. C’est d’abord un document commercial. Ensuite c’est une pièce comptable centrale qui détermine le chiffre d’affaire et le résultat (donc l’impôt). Enfin, et surtout, c’est un document fiscal à la base de la collecte de la TVA. Et cela tant pour l’émetteur de la facture que pour son destinataire.

Les règles pour dématérialiser des factures entre entreprises diffèrent de celles avec des particuliers qui ne déduisent pas la TVA ni ne sont imposés sur leur bénéfice. Entre entreprises, l’envoi d’un PDF par e-mail est une bombe à retardement fiscale pour les deux parties car l’identité de l’auteur du PDF et l’intégrité de son contenu ne sont pas garanties. L’administration fiscale peut donc mettre en cause les montants de TVA et redresser l’émetteur de la facture, comme son client, sur les montants de TVA mais aussi sur leur impôt.

Pour autant les gains de la dématérialisation sont évidents et considérables pour les entreprises : réduction des coûts opérationnels (moins de papier, d’impressions, de manipulations, de courriers…), réduction de l’empreinte carbone de l’entreprise, contribution au développement durable, gains de temps et de fiabilité dans la transmission des factures (traçabilité), fiabilisation des données échangées… Surtout, dans le cadre de la dématérialisation à valeur légale qui permet la suppression totale du support papier tant par l’émetteur de la facture que par son destinataire.

Pas de coût de mise en œuvre

Pour répondre à la demande croissante des entreprises de dématérialiser leurs factures, Qweeby lance une offre de dématérialisation fiscale de factures par voie e-mail conforme à l’art. 289 V du CGI  adaptée à toutes les entreprises. Facile à mettre en œuvre, opérationnelle immédiatement, totalement en mode SaaS (Software as a Service), c’est-à-dire sans coûts de mise en œuvre et paiement à la consommation, la solution Qweeby, compatible avec tous les outils de gestion commerciale et de facturation, apporte à l’émetteur de la facture comme à son destinataire le respect du cadre fiscal de la dématérialisation : authentification du PDF par signature électronique, intégrité dans le temps du PDF par archivage dans un coffre fort électronique à valeur légale et transmission par un e-mail tracé.

La dématérialisation se réalise directement sur le poste de travail de l’émetteur sans requérir la moindre connexion à un site Internet ou la réalisation d’opérations fastidieuses. Il suffit à l’émetteur de remplacer l’adresse postale de son client par une adresse e-mail de transmission. Le PDF émis par l’outil de facturation est récupéré directement par la solution Qweeby qui le propose à l’émetteur pour l’apposition de la signature électronique. Dès la signature validée, la solution Qweeby transmet automatiquement, sans intervention manuelle, la facture signée à la plateforme Qweeby qui la dépose sur le coffre fort électronique à valeur probatoire de l’émetteur (et du destinataire lorsque ce dernier en possède un) et l’achemine de manière tracée par voie e-mail au destinataire indiqué dans le facture.

Trois clics et la saisie du code de signature suffisent pour que la facture soit dématérialisée fiscalement et transmise en totales sécurité et traçabilité à son destinataire. Le respect du cadre légal rend les
impressions papier et l’archivage matériel totalement inutiles : le fichier électronique (PDF avec signature) constitue l’archive légale de la facture pour les deux parties (émetteur et destinataire). Qweeby permet également à l’émetteur de mettre en œuvre la dématérialisation fiscale de facture avec des grands donneurs d’ordres tels qu’Auchan France.

Une solution composite innovante à partir de déchets de production recyclés

Remplacer le métal a longtemps été un défi des composites renforcés en fibres de verre afin de réduire les coûts, la complexité et le poids. Parallèlement à ces atouts, la résistance aux chocs et aux intempéries a également été améliorée. Forts de ces résultats, 3B-the fibreglass company s’est associé à Reprocover, une société locale belge, pour développer une gamme de produits moulés pour les égouts, le drainage et l’approvisionnement à partir d’un compound thermodurcissable renforcé de 50 à 60 % en fibre de verre Advantex.

L’avancée technologique de Reprocover repose sur un procédé spécifique de broyage et de mélange des matériaux recyclés et sur l’étude de la géométrie des différents composants de chaque produit dans le but d’optimiser le ratio résistance à la charge/poids. « Le concept créé par Reprocover illustre parfaitement comment, grâce au remplacement du métal par les composites renforcés en fibre de verre, de nouveaux marchés et applications peuvent bénéficier des avantages que sont la légèreté, la souplesse de conception, la résistance à la corrosion et la facilité de transformation. Par ailleurs, ces produits affichent une stabilité dimensionnelle dans une large gamme de températures (de – 40 °C à 70 °C) et offrent également une résistance chimique aux sels et détergents.

Ainsi, ils ouvrent de nouvelles opportunités aux marchés liés à l’approvisionnement des eaux d’égouts et des services publics », déclare Dr. Eric Martin, Responsable des produits thermoplastiques chez 3B. « Nous sommes engagés dans le développement de solutions éco-responsables de renforcement en fibre de verre. Recycler nos déchets de fibre de verre est un élément essentiel de notre stratégie de développement durable. Ce partenariat avec Reprocover nous permet de poursuivre la réduction de notre impact environnemental » poursuit-il.

Ludo Debergh, fondateur et Directeur de Reprocover, ajoute: « La fibre de verre tient une place importante dans la gamme de produits de Reprocover. Elle y apporte une rigidité élevée et une résistance remarquable à la charge. Par exemple, notre plaque d’égout de 315 mm de diamètre peut facilement supporter une lourde charge sans subir aucun dommage. Travailler avec des matériaux recyclés à 90 % permet de réduire le coût d’un facteur de 5 par rapport aux solutions en fonte existantes tout en fournissant une adhésion supérieure à l’asphalte et au béton ».

Les regards et les grilles d’égouts homologués par les autorités belges responsables de l’eau, sont les premières gammes de produits du portefeuille de Reprocover. « De nouvelles applications possibles sont déjà identifiées pour l’encastrement de système d’approvisionnement des services publics (eau et gaz), visibles sur les trottoirs. Étant donné toutes les pièces en métal qui pourraient être remplacées, il est certain que les opportunités sont immenses et les bénéfices tout aussi significatifs. » 

Réaliser des finitions en utilisant le thermoformage

Leader de la conception et de la fabrication de prototypes, l’’entreprise américaine Stratasys a mis au point le procédé de fabrication rapide de prototypes qui permet de créer, à partir de programmes de CAO 3D, des modèles fonctionnels et des petites séries, en thermoplastiques industriels hautes performances PPSU ou polyphenylsulfone.  « Parce que le PPSU est un plastique dur et résistant, l’étape de polissage et de finition est difficile si elle est effectuée traditionnellement » explique Jesse Hanssen, Ingénieur Application chez Stratasys. Une autre méthode traditionnelle de finition pour obtenir une surface lisse est le fraisage. « Néanmoins, ce procédé annihile un bon nombre d’avantages » poursuit Jesse Hanssen. « De plus, pour préparer l’usinage, nous avons besoin de temps pour la programmation et l’initialisation des machines. L’usinage nécessite aussi qu’un opérateur supervise le process ».

Pour simplifier ces opérations de finition longues et coûteuses, Stratasys a sélectionné le film APTIV fabriqué avec le polymère Peek Victrex de Victrex Polymer Solutions qui présente toutes les propriétés du polymère  mais dans un format flexible. Avec le nouveau procédé de finition par thermoformage de l’entreprise, une fine couche de film APTIV est appliquée sur la surface des pièces en PPSU. « Le film épouse parfaitement tous les contours de la pièce la dotant ainsi d’une surface totalement lisse » affirme Jesse Hanssen. « Nous avons choisi le film APTIV parce qu’il préserve les propriétés mécaniques, thermiques et chimiques du PPSU tout en apportant de la valeur à la pièce ».

De par sa nature thermoplastique, les films APTIV présentent un grand avantage par rapport aux films thermodurcissables. En effet, ils peuvent être transformés aisément pour obtenir des formes très variées et ce même en utilisant des procédés conventionnels de thermoformage. Aussi, lisser la surface d’une pièce par thermoformage de film APTIV est une opération simple qui ne requière que peu de modification par rapport à un procédé de thermoformage standard. « En effet, pour l’essentiel le film est thermoformé directement sur la pièce qui sert de moule » rajoute Jesse Hanssen qui complète: «Une fois que la pièce PPSU est fabriquée, elle est installée dans une machine de formage sous vide et recouverte d’un film APTIV enduit d’un adhésif silicone. Le film est chauffé à 140-160°C et plaqué sur la pièce PPSU dès qu’il a atteint son point de formage. Avec la chaleur, le film se détend et durcit. Dès lors, on procède rapidement à la mise sous vide jusqu’au refroidissement. Ainsi, le film va totalement adhérer à la pièce jusqu’à en épouser parfaitement toutes les formes la rendant totalement lisse. »

Parmi leurs principaux avantages des films APTIV, on notera qu’ils présentent des propriétés mécaniques très stables dans des environnements à hautes températures. Ils sont aussi très peu sensibles à l’humidité. Parmi les autres bénéfices, on constate leur résistance à la rupture, à la perforation,  à l’usure (autolubrifiant avec une surface particulièrement lisse et une faible émission de particules) et à la déchirure (le coefficient PV Limite est de 145Mpa m/mn sans utilisation de lubrifiants). Par ailleurs, ces films résistent à la plupart des solvants classiques, aux acides, aux agents lessiviels et oxydants, aux hydrocarbures, aux sels et à la vapeur d’eau. Ils conservent leurs propriétés même après 2 000 h d’exposition à la vapeur d’eau à 200°C. Une des propriétés les plus soulignées est leur rigidité et leur résistance à la fatigue.

 

Véhicules propres de l’année 2011 : et les nominés sont…

Les émissions de dioxyde de carbone (CO2) des véhicules toujours en baisse

Les lauréats du palmarès des véhicules les moins émetteurs de CO2 présentent comme en 2010 des émissions inférieures à 90 g CO2/km. Pour les véhicules Diesel, la Smart Fortwo arrive en tête avec 86 g CO2/km. Pour les véhicules « essence », ce sont les véhicules hybrides de Toyota Auris et Toyota Prius qui sont aux premières places avec 89 g CO2/km.

À l’occasion de cette 10e édition de son Car Labelling, l’ADEME a réalisé un rapide bilan des progrès accomplis.

Pour les modèles « essence » :

  • En 2002, le véhicule le plus performant émettait 118 g CO2/km.
  • En 2010, les émissions sont de 89 g CO2/km, une baisse que l’on doit en partie à l’arrivée sur le marché des véhicules hybrides.

Pour les modèles Diesel :

  • En 2002, un véhicule de 81 g CO2/km figurait au palmarès.
  • En 2010, à 86 g CO2/km, cette performance n’a toujours pas été égalée et témoigne de la marge de progrès possible.

En 2010, six constructeurs (trois en 2009) ont d’ores et déjà atteint l’objectif de la réglementation européenne – soit une émission inférieure ou égale à 130 g CO2/km – initialement prévu pour 2015 : FIAT avec 122 g, suivis de Toyota avec 127 g. Renault et PSA arrivent en troisième position avec 129 g.
La moyenne européenne des émissions de CO2 a baissé de 45 g en 15 ans mais surtout de 20 g en 5 ans, et de 3 g en 2010. La France se situe au 2e rang avec 130 g CO2/km derrière le Portugal.

En France, le dispositif du bonus/malus, première mesure du Grenelle de l’Environnement, a eu un fort impact sur l’évolution du marché et sur les bons résultats de la France en matière d’émission moyenne de dioxyde de carbone (CO2) des véhicules particuliers. La prime à la casse ou « super bonus » dont le dispositif s’est arrêté fin 2010 a également été particulièrement bénéfique sur les résultats des ventes.

 Près de 80 % des ventes de véhicules en classes vertes  

Cette année, l’offre de véhicules émettant moins de 100 g CO2/km (classe A de l’étiquette énergie/CO2) a très nettement progressé ; 56 modèles sont à ce jour proposés contre 20 en 2010. 80 % des véhicules achetés en 2010 appartiennent aux classes vertes A, B et C (jusqu’à 140 g CO2/km). En 2007, ils ne représentaient que 50 % des ventes.

Les ventes de GPL ont fait un bond en 2010 et représentent 3,4 % des véhicules neufs immatriculés

Entre 2009 et 2010, les ventes de GPL ont triplé ; 75 600 véhicules ont été vendus en 2010. La part de marché du GPL atteint ainsi 3,4 % des véhicules neufs immatriculés. Ce rebond s’explique notamment par le bonus de 2 000 € accordé lors de l’achat de ce type de véhicule et un prix du carburant attractif. Plus de la moitié des ventes (54 %) concerne le modèle Dacia Sandero. L’arrêt du Bonus en 2011 va cependant freiner ce développement.

Les ventes de Diesel sont en légère hausse

Malgré un net recul constaté en 2009 (- 7 %), les ventes de Diesel remontent légèrement en 2010 (+ 0,4 %), dû à l’augmentation constante du prix du baril de pétrole et de la recherche d’un carburant moins cher.

Particules fines, oxydes d’azote, hydrocarbures imbrûlés, dioxyde de carbone (CO2)… sont coûteux en matière d’impact environnemental et sanitaire  

À l’échelle planétaire, le dioxyde de carbone (CO2) – gaz à effet de serre dont la durée de vie, longue de 150 ans – joue un rôle important dans le changement climatique. À l’échelle locale, régionale, les particules fines, les oxydes d’azotes, les hydrocarbures – polluants atmosphériques dont la durée de vie est courte de quelques heures à quelques jours – ont un impact environnemental et sanitaire aujourd’hui scientifiquement démontré ; les conclusions des travaux les plus récents sur les impacts sanitaires de la pollution atmosphérique en Europe montrent notamment que diminuer davantage les niveaux de particules fines dans l’air des villes européennes entraînerait un bénéfice non négligeable en termes d’augmentation de l’espérance de vie et de réduction des coûts pour la santé (APHEKOM – mars 2011).

La directive européenne 2009/33/CE monétise les impacts énergétiques, environnementaux et sanitaires liés à la gestion des véhicules durant toute leur durée de vie. Ces coûts externes sont estimés à :

  • 87 € le kilogramme de particules ;
  • 4,4 € le kilogramme d’oxyde d’azote ;
  • 1 € le kilogramme d’hydrocarbures imbrûlés ;
  • 0,03 € le kilogramme de CO2.

En connaissant les émissions émises à l’échappement, on peut calculer le coût externe de ces dernières (CO2 + polluants) sur la durée de vie du véhicule soit 200 000 kilomètres.

L’évaluation effectuée par l’ADEME selon cette méthodologie sur la base des données (valeurs mesurées à l’homologation et destinées à satisfaire les seuils exigés par la norme Euro) disponibles sur le site européen cleanvehicle.eu montre que le coût externe des véhicules neufs est aujourd’hui largement imputable aux seules émissions de dioxyde de carbone (CO2). La sévérisation des normes européennes a en effet permis une réduction drastique des émissions de polluants locaux et des coûts externes des véhicules, en particulier Diesel : un facteur 3,5 entre Euro 2 (1997) et Euro 5 (2011).

(Source : ADEME)

 

À lire aussi :

Les 10 véhicules essence les moins polluants

Une voiture zéro émission de CO2 en gestation aux Mines d’Alès

DIAPORAMA – La supercar hybride C-X75 de chez Jaguar, bientôt produite

Un dépoussiéreur électrostatique doté d’un système de télésurveillance

Un dépoussiéreur électrostatique (ESP) est un dispositif de captation de particules qui élimine les particules d’un flux gazeux grâce à la force d’une charge électrostatique induite : le champ électrique collecte la poussière sur des plaques de récupération. Des systèmes automatiques de nettoyage des plaques et d’évacuation des particules collectées en cours de fonctionnement, permettant théoriquement aux ESP de rester en fonction pendant des années. Etant donné que les ESP permettent de collecter des particules très fines, sèches, abrasives ou corrosives, ils constituent souvent la meilleure solution pour cette industrie. Cependant, les ESP doivent faire face à 2 phénomènes qui diminuent leur efficacité. Le premier est l’effet d’étincelle : il s’agit d’un court-circuit entre les plaques à l’intérieur de l’ESP (aucun dépoussiérage n’est possible au cours de cette période). Le second est l’effet « back corona » : des ions positifs sont produits dans la couche de poussière et peuvent être reémis dans les gaz.

En intégrant la toute dernière alimentation pulsée Coromax, un système haute tension qui diffère des alimentations CC traditionnelles, l’ESP mis en oeuvre par FLSmidth, l’un des leaders mondiaux de la technologie du dépoussiérage électrostatique, réduit  l’effet d’étincelles ainsi que, du fait de l’absence de courant, l’effet « back corona ». En effet, Coromax offre un contrôle unique des particules électriques, qui se trouvent chargées au cours d’impulsions de 75 microsecondes à 140 kV, alors que la tension moyenne est de 40 kV. Les courants peuvent également être contrôlés.

Piloté par un microprocesseur, le système de contrôle déclenche des commandes de la haute tension,  permettant ainsi de répondre rapidement à des variations ou des conditions anormales et d’assurer un niveau réduit d’émissions en sortie, même dans des conditions difficiles. Le dépoussiéreur électrostatique permet d’atteindre des niveaux d’émission inférieurs à 5mg/Nm3.

Il est capital d’informer l’utilisateur final

Grâce à l’utilisation de systèmes à impulsions Coromax, les ESP existants peuvent être améliorés sans en augmenter les dimensions, tout en réduisant leur consommation énergétique alors que les nouveaux ESP installés peuvent bénéficier de dimensions réduites par rapport à leurs homologues équipés d’alimentation CC traditionnelles.

« Dans le cas d’un système de contrôle aussi avancé, il est capital d’informer l’utilisateur final. C’est ce que font les produits HMS », explique Deepa Kirubakaran, pour FLSmidth en Inde. Les produits HMS permettent en effet la communication de toute l’information relative au statut de l’équipement et au système de contrôle d’émission en temps réel. « Nous avons choisi HMS, parce qu’il s’agit d’un produit standard, très facile à intégrer et très compact. Le point majeur est que l’on peut traiter tous les signaux avec un seul module », ajoute Deepa Kirubakaran qui a retenu une version Java de la passerelle Série-vers-Profibus, une version Java de la passerelle périodique au passage de Profibus et une version de Java de la passerelle Série-vers-Modbus RTU.

Umesh Sakle de UL Electrodevices qui assure la distribution de HMS Industrial Networks en Inde, explique: « cette passerelle, Anybus Communicator, permet de connecter pratiquement n’importe quel dispositif d’automation doté d’une interface série aux différents réseaux bus terrain ou Ethernet industriels. Elle assure la conversion entre le protocole série du dispositif d’automation et le réseau industriel choisi. De plus, elle est compatible avec tous les automates programmables des principaux fabricants, et ne nécessite quasiment aucune programmation ! Une autre fonctionnalité très utile du Communicator est sa fonction Sauvegarde/Restauration. Une fois que vous avez mis au point la configuration série pour un réseau donné, vous pouvez facilement réutiliser cette configuration pour un autre Communicator destiné à un réseau industriel différent ».

« Cette implantation est un succès. Nous pouvons faire appel aux solutions HMS pour nos futurs projets », conclut Deepa Kirubakaran.

 

Quand l’application de la Théorie des Contraintes double la productivité

Situé dans la banlieue de Strasbourg, le Technicentre de Bischheim est le plus ancien centre de maintenance TGV de la SNCF. Comptant plus de 1000 salariés, il a pour mission d’assurer l’entretien lourd des rames TGV Sud/Est et Atlantique. Il assure aussi la réparation de pièces complètes comme les bogies (châssis situés sous la voiture où sont fixés les essieux) ou les portes automatiques. En 2006, le Technicentre de Bischheim se trouve en première ligne pour le lancement du TGV Est. Il a pour mission de réaliser la transformation des rames aux couleurs du nouveau design Christian Lacroix. Afin de respecter les délais, la direction du Technicentre décide de lancer un programme d’amélioration de sa performance industrielle inspiré de l’industrie automobile et baptisé Bischheim à Grande Vitesse (BGV). En 2007, à mi chemin de l’objectif de performance fixé, elle a fait appel à Marris Consulting, société de conseil en management focalisée sur les activités industrielles, pour accélérer la démarche et assurer de manière pérenne son déploiement uniforme dans tous les ateliers de l’usine.

Un gain de plus de 30 jours sur le délai d’immobilisation

En appliquant les principes de la Théorie des Contraintes (TOC ou Theory Of Constraints), Marris Consulting a aidé la direction du Technicentre à fixer un objectif global commun, en cohérence avec l’attente de son client : réduire le temps d’immobilisation des rames pour rénovation. La première étape a consisté à reconstituer dans le détail le parcours d’une rame et du flux logistique des pièces détachées neuves ou réparées afin d’en identifier les goulots d’étranglement. Avec l’assistance de Marris Consulting, le site à mis en place des cellules de management spécialisées sur les méthodes et sur l’ordonnancement, et les a doté de procédures, de modes de travail et d’outils nouveaux. Ainsi, le Technicentre a pu améliorer considérablement l’organisation et l’enchainement des opérations, ainsi que le passage de relais entre les différents ateliers. Impliqués dans la réalisation du projet commun, Bischheim à Grande Vitesse, les chefs d’ateliers ont pu coordonner leurs efforts et ajuster le rythme de travail. Par exemple, des pièces démontées de la rame sont aujourd’hui traitées au fil de l’eau, et non plus en un lot unique une fois l’opération de démontage totalement achevée. Ces ajustements ont permis de passer de plus de 70 jours par rame à 38 jours, alors même que les travaux à effectuer sur une rame augmentaient de 25 000 heures à 37 000 heures pour les nouvelles rames TGV Atlantique.

Mobiliser et communiquer

Pour Bruno Maggioli, Directeur Industriel du Technicentre de Bischheim et Chef du projet Bischheim à Grande Vitesse, la réussite d’un tel projet s’appuie sur une démarche volontaire de tous, la capacité à mettre toutes les énergies au service d’un objectif global fédérateur, ainsi qu’une bonne communication à tous les niveaux. Durant toute l’année 2008, les consultants de Marris Consulting ont été présents dans les ateliers aux côtés des chefs d’équipes, pour les aider à diffuser les messages et à mobiliser leurs équipes. En parallèle, une opération importante de rénovation des locaux industriels a été conduite, afin de fournir aux salariés des conditions de travail favorables à l’obtention de la performance recherchée. Enfin les moyens dédiés à une communication adaptée avec tous les salariés ont permis à chacun de s’approprier la démarche et de s’engager dans un processus d’amélioration de la productivité devenue naturelle, continue et durable.

Une démarche pérenne et reproductible

A l’échelle nationale, le projet Bischheim Grande Vitesse fait aujourd’hui figure de bon exemple à suivre. Deux ans après sa mise en œuvre, les améliorations de productivité sont toujours au rendez-vous. La communication continue de jouer un rôle essentiel pour faire appel à la bonne volonté de tous et permettre à chacun de mesurer le chemin qui a déjà été parcouru, notamment grâce à des albums photos qui présentent l’avant et l’après de chaque avancée. Pendant trois ans, le Technicentre de Bischheim a bénéficié d’un accompagnement régulier par les consultants de Marris Consulting, pour l’aider à s’approprier pleinement la démarche puis à l’étendre à d’autres activités. La direction du Technicentre réfléchit déjà à l’adaptation du projet Bischheim à Grande Vitesse aux nouveaux défis qu’elle doit relever. En effet l’arrivée des rames TGV à deux niveaux, et le besoin de son client SNCF de réduire encore la durée d’indisponibilité des rames, conduira à réaliser les maintenances au fil de l’eau quelque que soit le modèle et non plus par séries du même modèle.
 
M.C

Premier méso-centre à architecture hybride Linux-Windows !

Après le calculateur Romeo2 de Bull installé en 2006, l’Université de Reims Champagne-Ardenne s’est dotée, cette année, d’un supercalculateur bullx baptisé Clovis. D’une puissance de 6 Téraflops, il vient décupler la puissance de calcul du Centre de Calcul de Reims. Au-delà de cette simple acquisition, l’Université, Bull et Microsoft ont signé un partenariat ouvrant l’accès de Clovis à un maximum d’utilisateurs, tant universitaires qu’industriels, grâce à un environnement hybride Ces derniers pourront indifféremment accéder à de puissants moyens de calcul à travers un environnement Linux, historiquement privilégié par les scientifiques experts en calcul haute performance, ou Microsoft Windows HPC Server 2008 R2, qui répondra mieux aux attentes des entreprises de la région en offrant un environnement Windows familier et accessible aux non spécialistes.

Selon Michaël Krajecki, Professeur, directeur du centre de calcul régional de Champagne-Ardenne Roméo, « Support de la recherche académique en Champagne-Ardenne, le méso-centre de calcul de Champagne-Ardenne se positionne en véritable intermédiaire entre les grands centres nationaux et les équipements internes des laboratoires de recherche et des PME-PMI de la région Champagne-Ardenne. L’adoption d’un environnement hybride, en partenariat avec Bull et Microsoft, renforce l’accessibilité du supercalculateur Clovis à tous ». Muriel Barthelemy, Ingénieur Commercial HPC, Microsoft France complète : « Nous nous félicitons que l’Université de Reims Champagne-Ardenne soit le premier méso-centre à proposer une architecture hybride Linux – Windows. Cette ouverture permettra aux PME de la région de se retrouver dans un environnement familier et simple d’utilisation, ce qui encouragera sans nul doute davantage d’utilisateurs de devenir clients de ce centre de calcul. Le travail en collaboration des équipes de l’Université, de Bull et de Microsoft donnera lieu à un retour d’expérience que d’autres organisations attendent avec intérêt ».

Composé de 36 serveurs lames bullx mais aussi d’un serveur SMP bullx supernode et d’un serveur bullx R425 E2 équipé de GPU, ainsi que d’un nœud de visualisation, Clovis et ses 516 cœurs de processeurs Intel Xeon sont au service de nombreux domaines de recherche. Les trois thèmes concernent :

  • les mathématiques et l’informatique : pour développer de nouvelles approches permettant d’exploiter au mieux les architectures parallèles actuelles. Ces travaux se situent en amont des deux thèmes de  recherche suivants ;
  • la physique et les sciences de l’ingénieur : applications du calcul scientifique en mécanique des fluides, processus au niveau des particules atmosphériques, procédés de mise en forme des matériaux, bio-mécanique pour le sport et la santé… ;
  • la modélisation des systèmes moléculaires complexes : pour des objets très divers, tels que surfaces d’électrodes, protéines, grains de glace atmosphériques, molécules organiques, complexes minéraux… La proximité de la plateforme de calcul et de chimistes théoriciens à Reims a favorisé un fort développement de ce domaine.

Outre ses ressources de calcul, le Centre met à la disposition des industriels et chercheurs un accompagnement dans l’utilisation des outils de calcul intensif ainsi qu’une expertise sur des domaines scientifiques et techniques avancés, leur permettant de bénéficier des dernières technologies. C’est un avantage fort dans un milieu économique compétitif, où modélisations et simulations permettent de réduire les couts ainsi que la durée de développement des nouveaux projets.  

Un polyamide va faire son entrée sous le capot moteur

Les températures dans le compartiment moteur augmentent continuellement en raison de la tendance actuelle à rechercher davantage d’efficacité énergétique dans les véhicules. Pour y parvenir, les constructeurs tentent notamment d’augmenter la suralimentation du moteur. Grâce à l’apport d’une plus grande quantité d’air, la puissance du moteur peut être déplacée à un point de fonctionnement permettant une moindre consommation en énergie. On fait appel à des turbocompresseurs, lesquels font augmenter la pression et la température dans le compartiment moteur et notamment dans les pièces en contact avec l’air de suralimentation.

Ainsi, sur un moteur diesel suralimenté par exemple, la température de service de la zone comprise entre le turbocompresseur et le refroidisseur d’air de suralimentation s’élève à 200°C et  peut atteindre 230°C en pointe. Parallèlement, les constructeurs automobiles, soucieux d’alléger les véhicules, veulent remplacer le métal par le plastique, et ce, au meilleur coût possible. Il n’existait jusqu’à présent aucune solution acceptable d’un point de vue économique, capable de concurrencer pour des applications nécessitant une résistance à de hautes températures les matières plastiques hautes performances.

Les chercheurs de BASF ont trouvé une solution avec la création d’Ultramid Endure, un nouveau grade de polyamide (PA) renforcé avec des fibres de verre. Ce polyamide présente une excellente résistance au vieillissement thermique alliée à la très bonne aptitude à la transformation du PA 66.. Grâce aux propriétés de ce nouveau matériau, il devient possible d’utiliser le plastique pour produire, à un coût raisonnable, les pièces sous le capot moteur soumises à un air très chaud et donc de contribuer de façon significative à un allègement du véhicule.

Une forte endurance thermique grâce à de nouveaux stabilisants

Le nouvel Ultramid Endure résiste facilement à des températures de  220°C en continu et de 240 °C en pointe. Cette résistance à de hautes températures permet d’élargir le spectre des applications des polyamides. L’avancée réalisée en matière de résistance au vieillissement thermique est à mettre sur le compte de la technologie de stabilisation innovante conçue par BASF. La formation d’une couche superficielle de protection permet au matériau d’être durablement épargné des dégradations issues d’oxydation, et ce même à des températures pouvant atteindre 220°C.

L’effet de cette technologie est particulièrement reconnaissable sur les surfaces vieillies. Sur les PA 66 traditionnels, l’oxygène réussit à creuser des interstices à travers la couche superficielle pour finalement pénétrer en plus grande quantité et détériorer de plus en plus le matériau au coeur.  L’Ultramid Endure se caractérise par une surface qui fait barrière aux agressions grâce à ce nouveau processus de stabilisation et de protection. Même soumis à une température de 220°C pendant quatre mois, le matériau reste stable et ne présente qu’une mince couche de suie en surface.

Les pièces sous le capot moteur sont souvent assemblées par soudage. Leur faible teneur en fibres de verre peut causer un point faible au niveau de la soudure, notamment après vieillissement. Le nouveau procédé de stabilisation protège le polymère et renforce également ce point potentiellement faible. Les cordons de soudure résistent très bien à des températures d’utilisation continue élevées. On ne constate aucune fissuration au niveau de ces joints même au bout de 1000 h d’utilisation à 220°C. La résistance du cordon de soudure reste excellente.

Grâce à cette technique de stabilisation, l’Ultramid Endure conserve un excellent taux de résistance lors des essais sur le long terme et ce même au bout de 3000 h à 220 °C, ce qui n’est pas le cas des PA 66/6 ni même des thermoplastiques plus résistants comme les PPA dont les taux déclinent au bout d’une période d’essai relativement courte.

Le comportement au vieillissement et surtout les propriétés du matériau soumis à une sollicitation thermique prolongée sont les deux éléments clés dans le dimensionnement des pièces. Parmi ces propriétés, on s’attachera aux taux de ténacité et de résistance, lesquels, s’ils sont suffisamment élevés, permettent de réduire l’épaisseur des parois sans affecter la fiabilité de la pièce. L’Ultramid Endure réalise là aussi d’excellentes performances avec une contrainte à la rupture à 220 °C largement supérieure à celle des produits comparables.