Venez recharger votre voiture électrique… chez des inconnus !

L’angoisse de la panne sèche (de courant) arrive en pôle position des angoisses des détenteurs de voitures électriques (EV). Xatori, une start-up basée à Palo Alto, au cœur de la très écologiquement consciente Silicon Valley, se propose de créer un réseau d’utilisateurs actifs de EV, mettant leurs prises domestiques à la disposition des conducteurs qui auraient besoin de recharger leur batterie, ou de ceux qui se trouveraient hors de portée des quelques stations publiques dédiées. Elle a sorti l’application iPhone « Plugshare » (« partage de prise » en anglais) qui permet aux conducteurs et aux propriétaires de « prises » de les localiser ou d’offrir leur électricité.

L’existence de cette application est intimement liée à la possibilité qu’offrent les nouvelles générations de EV de pouvoir se recharger sur des prises secteurs (220V, 16A ou 10A pour la Renault Twizy, dont la charge complète ne devrait pas prendre plus de 3h30), permettant ainsi de transformer tout lieu en une borne électrique de dépannage. L’application n’ est néanmoins pas encore vraiment disponible en Europe, bien que les développeurs y travaillent.

Même si l’intérêt d’adhérer à Plugshare est évident pour les détenteurs de EV, leur donnant accès à la base de données des lieux en permettant la recharge, cette application n’est absolument pas dénuée d’intérêt si vous n’en possédez pas, les concepteurs mettant l’accent sur l’aspect d’appartenance à une communauté éco-sensible, et sur la rencontre enrichissante avec un utilisateur qui pourra vous parler de son véhicule de manière forcément plus désintéressée qu’un revendeur ou qu’un constructeur.

M.R.

Le bruit en voiture, réduit grâce à la piézoélectricité

Qui n’a jamais été agacé par le ronron, voire le grondement incessant accompagné de son lot de vibrations d’une voiture avalant les kilomètres sur l’autoroute, lorsque l’on est passager, et que par exemple l’on ne peut s’entendre qu’avec la plus grande difficulté ?

« Adaptronics Alliance », fruit des efforts communs de 11 des 57 Instituts constituant la Fraunhofer-Gesellschaft (Allemagne), un des plus grands organismes de recherche scientifique au monde, s’est donné pour objectif de réduire ce bruit à l’aide de céramique piézoélectrique, considérée comme un matériau intelligent.

La piézoélectricité est la capacité qu’ont certains matériaux à se polariser électriquement lorsqu’ils sont sous l’action d’une contrainte mécanique et réciproquement, ce qui signifie qu’un matériau ayant cette propriété convertit l’énergie mécanique en électricité, et inversement qu’ils se déforment sous l’impulsion d’un champ électrique. Le bruit audible à l’intérieur d’une voiture provient essentiellement de la mauvaise absorption des vibrations du châssis  par des composants en caoutchouc, qui ne sont pas adaptés à cette fonction. Ce sont sur ces vibrations, converties en bruit dans l’habitacle, sur lesquelles la piézoélectricité peut influer.

Des composants en céramiques PZT (Titano-Zirconate de Plomb), céramiques de synthèse qui ont des propriétés piézoélectriques, pourraient donc être utilisés en lieu et place de ces composants en caoutchouc, absorbant et transformant les vibrations en énergie électrique, électricité qui peut de plus avoir son utilité. La voiture-test mise au point par « Adaptronics Alliance » donne des signes très convaincants, selon les concepteurs, et laisse entrevoir d’autres applications prometteuses, notamment dans l’ingénierie mécanique et dans l’industrie électronique.

 

Un fabricant de textile change d’ERP mais pas de serveur

Depuis 1994, Tricotage des Vosges, dernier fabricant de chaussettes sous marque propre à fabriquer entièrement en France, a dû faire face à de nombreuses évolutions qui ont profondément modifié son système d’information : distribution de marques, rachats, consolidation… Dans ce contexte, la DSI, représentée par François Curé, Directeur Général, a dû déployer une infrastructure pour répondre à ces différents changements organisationnels. Ainsi, dès 1994, l’accès à un Progiciel de Gestion Intégré (PGI) s’est imposé comme une priorité stratégique afin de gérer l’intégralité des opérations menées par le groupe (commerce, production, administration, finance…). L’un des pré-requis consistait également à intégrer un PGI compatible avec l’environnement IBM Power i (System i – AS/400).
 
Plusieurs évolutions se sont alors enchaînées. Un premier déploiement de l’ERP commercialisé par Eurinfo a été réalisé en 1994, puis a été remplacé en 1999 par la solution Movex, éditée à l’époque par Intentia. Suite au rachat d’Intentia par Lawson, le groupe Tricotage des Vosges a dû, à nouveau, rechercher une nouvelle solution de gestion. En effet, Lawson avait annoncé la fin du maintien et du support de l’application sous AS/400. 

Déploiement de la paie suivi de la finance

En complément de cet aspect technologique, le groupe Tricotage des Vosges devait également prendre en compte une nouvelle problématique organisationnelle : le rachat de la société Olympia et la création de la société New Olympia en 2010. Cette marque vient s’ajouter aux gammes Bleu Forêt Diagonal et Bleu Forêt Premium, conçues et commercialisées par Tricotage des Vosges.
 
Il était donc nécessaire de garantir une migration en douceur vers un nouvel ERP et de préparer l’avenir en déployant une solution évolutive, à même d’accompagner le groupe dans son développement et dans son challenge organisationnel (que se soit pour Bleu Forêt ou pour Olympia). C’est dans ce contexte qu’Eurêka Solutions, éditeur de solutions de gestion dédiées à l’environnement IBM Power i, a été sélectionné. Tous les modules sont concernés par cette migration. La paie a représenté le premier déploiement réalisé, suivi de la finance.
 
En s’appuyant sur Eurêka Solutions, Tricotage des Vosges a pu accéder à un environnement de gestion de dernière génération lui permettant de conserver son environnement  IBM Power i – AS/400, et ce dans des délais extrêmement courts. Au niveau de l’ergonomie et des fonctionnalités, il est désormais possible d’accéder au progiciel via une interface graphique, tout en conservant la compatibilité avec l’environnement natif du serveur IBM Power i.  Enfin, les collaborateurs peuvent utiliser  tout un ensemble de ressources (reporting, outils de personnalisation, …), synonyme d’optimisation de la qualité, de la productivité et des performances.
 
 « Eurêka ERP répond parfaitement à nos besoins et, au travers de cette solution, nous allons pouvoir faire évoluer notre infrastructure parallèlement à notre stade de développement. Il se positionne comme un partenaire stratégique de notre croissance », conclut François Curé.

M.C

Dépollution d’un site industriel en 4 étapes

Implantée en zone industrielle sur la commune de Châteauneuf-en-Thymerais (Eure et Loire), la société Surmétaux était spécialisée dans le traitement chimique et électrolytique de l’aluminium (oxydation anodique). Le site n’étant plus en activité depuis le 4 septembre 2003, sa mise en sécurité a été exigée par l’arrêté préfectoral le 22 juillet 2009 mais le chantier de dépollution confié à la société Vidam n’a démarré qu’en juin 2010.

À l’arrivée sur le site, les équipes de Vidam ont constaté que les déchets et les produits dangereux (acides, bases, solutions métalliques, boues de traitement et de décantation, eaux de rinçage souillées, matériaux et emballages souillés, fuel, transformateurs souillés au PCB…) n’avaient pas été enlevés et étaient encore entreposés sans précaution particulière. Il était donc impératif de procéder à la mise en sécurité du site pour la santé et la sécurité des habitants, notamment des enfants qui en avaient fait un terrain de jeu.

La mise en sécurité de ce site s’est déroulée en 4 grandes phases :  mise en sécurité des zones de travaux, gestion des déchets du site, vidange, curage et nettoyage des cuves et réservoirs, nettoyage des sols et curage des réseaux.

Phase 1 : mise en sécurité des zones de travaux

Avant d’entamer les travaux, il a été nécessaire de sécuriser la toiture. Deux solutions ont été proposées : la pose d’un filet de protection (une solution exclue du fait des risques liés à la pose du filet) et le démontage de la toiture. Pour mener à bien cette phase, les tôles qui menaçaient de tomber ont été écartées puis elles ont été démontées et réparties en 3 typologies pour favoriser leur valorisation :

  • les plaques en verre ont été évacuées vers un centre d’enfouissement ;
  • les tôles fibrociment ont été éliminées en centre de traitement ;
  • les tôles métalliques ont été laissées sur site pour une valorisation de la partie ferraille.

Puis est intervenue la mise en sécurité de la chaîne de traitement, rétention, fosses et station de détoxication. Il s’agissait d’enlever l’ensemble des polluants chimiques et dangereux du cœur de l’ancien outil de production. L’opération a consisté à nettoyer, pomper, curer et racler l’ensemble des bacs, fosses et cuves du site. Dans un premier temps, les eaux de rétention présentes en surface ont été pompées. Puis, les bacs ont été nettoyés à la haute pression et les eaux de nettoyage ont été récupérées pour être traitées.

Afin de rendre accessible la rétention pour le nettoyage, les techniciens de VIDAM ont du sortir les bacs de traitement à l’aide de deux pelleteuses. Chaque bac a été nettoyé (gratté et lavé à la haute pression) avant d’être stocké sur site pour être ferraillé. À l’issu de l’opération de nettoyage, la rétention a été sécurisée par la pose d’un grillage de 1,20m.

Phase 2 : gestion des déchets du site

La phase de gestion des déchets a débuté par l’identification préalable des déchets présents sur site. Pour ce chantier, les analyses ont été effectuées dans le laboratoire du centre de traitement Antipol, à Fontenay-le-Comte. Une codification spécifique a été établie pour référencer les déchets, les identifier et les évacuer vers les filières de traitement adaptées.

Les déchets conditionnés ont été regroupés dans une zone de  stockage avant d’être évacués petit par petit vers les filières de traitement et de valorisation. Un registre de stock des déchets était tenu par le responsable du chantier qui gérait la fréquence des enlèvements et définissait les lots à charger. C’est également lui qui complétait les Bordereaux de Suivi de Déchets sur les volumes évacués.

Pour le contrôle des PCB dans les transformateurs, un échantillon de diélectrique a été prélevé en vanne basse des deux appareils et les échantillons ont été acheminés vers un laboratoire d’analyse afin de déterminer la concentration en PCB et PCT. Ils ont ensuite été orientés vers une plateforme spécialisée afin de détruire le pyralène et les carcasses métalliques souillées.

Phase 3 : mise en sécurité des cuves et des réservoirs

L’intervention sur les cuves devant être faite avec la plus grande sécurité pour exclure tous risques de blessures et d’explosions, diverses mesures de sécurité sont mises en place comme le port d’un analyseur 4 gaz en continu et oxygénomètre, l’utilisation de divers équipements de protections individuels…

Les cuves et réservoirs rencontrés sur le site étaient de types très différents et avaient contenu des produits eux aussi très différents :

  • une cuve de soudes : ne pouvant pas accéder au trou d’homme, les techniciens de Vidam ont débuté l’opération par la réalisation d’une ouverture dans la cuve Les sels de fond de cuve ont été récupérés pour être acheminés vers un centre de traitement ;
  • une cuve d’acide sulfurique : les techniciens de VIDAM ont préalablement transférés l’acide présent dans la cuve avant de nettoyer les parois puis de l’éliminer sur un centre de traitement ;
  • une cuve d’acide chlorhydrique : étant transportable en l’état, elle a donc été éliminée dans son intégralité ;
  • des bassins de traitement : ils ont été pompés et nettoyés à la haute pression.
  • deux décanteurs : présents sur le site, ils ont été vidés et nettoyés. La sécurisation a été réalisée par la pose d’un grillage sur l’ensemble du décanteur
  • la cuve à fuel : le repérage de la cuve a été réalisé par sondage du sol. La cuve trouvée avait une capacité de 50m3. Après déblaiement de cette dernière, le trou d’homme a été ouvert avec du matériel antidéflagrant. La cuve a été nettoyée et dégazée par l’équipe Vidam avec l’émission d’un certificat de dégazage. Conditionnés en transicuves, les déchets de fuel, de boues hydrocarburées et les eaux de nettoyage ont été acheminés pour être valorisés sur le centre de traitement. Enfin, la cuve a été extraite du sol pour être ferraillée. Comme souvent sur ce type de site, la cuve trouvée était percée et le sol en fond de fouille présentait une source de pollution potentielle. Après constat de l’ADEME, les effluents ont été pompés et un prélèvement de terre a été effectué pour déterminer la pollution.

Phase 4 : nettoyage des sols et curage des réseaux

Cette phase a finalisé le chantier en rendant les derniers éléments exempts de pollution résiduelle. Tous les regards sur le site et sur les trottoirs aux abords du site ont été ouverts pour être curés. Enfin, pour clôturer le chantier, le nettoyage des sols s’est opéré sur une superficie totale d’environ 1 600m2. Les déchets ont été triés, les ferrailles ont été stockées sur place, les déchets souillés stockés en benne (caillebotis, tuyaux pvc..), les tâches au sol grattées manuellement et l’ensemble des sols balayés. Les matériaux solides souillés, trouvés sur le site, ont été conditionnés dans une benne pour être éliminés en centre de traitement.

Au total, le chantier qui aura mobilisé 8 personnes pendant 9 semaines, aura permis de traiter 1 395 tonnes de déchets.
 

La foudre sous haute surveillance

Actuellement, sur certains sites, les paratonnerres sont équipés de compteurs électromécaniques qui permettent de détecter le passage d’un courant de foudre mais rarement d’en connaître son intensité.

Connaître l’intensité du courant de foudre qui a circulé dans une descente de paratonnerre nécessite la mise en place d’un compteur électronique dateur, ce qui augmente le prix de l’installation de protection. Les nouvelles prescriptions de la Norme NFC 17-102 de janvier 2009 obligent, entre autres, de mettre en place deux conducteurs de descentes par paratonnerre à dispositif d’amorçage. Les compteurs n’enregistrent donc pas la totalité du courant capté par le paratonnerre car ils ne sont placés que sur l’une des deux descentes.

Pour répondre à cette problématique de sécurité, le RodCheck de Hélita, la marque commerciale du pôle Foudre d’ABB France, permet d’un simple coup d’œil d’évaluer l’amplitude du courant auquel le paratonnerre aura été soumis. Il équipera en série dès le premier trimestre 2011, l’ensemble des paratonnerres à dispositif d’amorçage de la gamme Pulsar qui a fait l’objet, en 1985, d’un dépôt de brevet conjoint CNRS/Hélita.

Indication visuelle à partir d’un impact de 25 kiloampères

Avec cette nouvelle technologie RodCheck, le paratonnerre Pulsar renforce et améliore la sécurité des sites et des personnes, en répondant précisément à une interrogation légitime : le paratonner a-t-il été fortement agressé et nécessite-t-il d’être vérifié ?

Les paratonnerres de la gamme Pulsar ont été testés en laboratoire et supportent un courant de foudre de 100 kiloampères en ondes 10/350 microsecondes. Cependant, il convient de vérifier les installations après le passage d’un courant de foudre important. Partant de ces constatations, les ingénieurs du laboratoire de recherche Hélita ont cherché et trouvé le moyen d’indiquer visuellement et directement sur le paratonnerre si celui-ci a subi un impact supérieur à 75 kiloampères.

L’indicateur visuel que constitue le RodCheck est une enveloppe en silicone résistant aux ultraviolets, montée directement sur l’éclateur externe du Pulsar. Cette enveloppe maintient en place une bague en plastique de couleur rouge, laquelle bague commence à apparaître suite au passage d’un courant de 25 kiloampères et apparaît en totalité pour un courant de 75 kiloampères. Cette indication visuelle de l’amplitude du courant de foudre capté par le paratonnerre permet de justifier une action de vérification complète de celui-ci.

Alerte par SMS de l’imminence d’un coup de foudre

Autre innovation majeure dans la gamme de paratonnerre à dispositifs d’amorçage :  l’arrivée du paratonnerre intelligent Pulsar 60 RodLinks, fruit de trois années de recherche des ingénieurs de Soulé Hélita ainsi que d’une année d’essais sur un site particulièrement exposé, le Pic du Midi, à 2880 mètres d’altitude.

Monté sur un mât support qui sert également de shunt de mesure du courant, le RodLinks réunit à l’intérieur d’un même produit les fonctions de protection d’un paratonnerre à grand rayon d’action (Pulsar 60), d’un compteur-dateur de coups de foudre, d’un générateur de test de son électronique ainsi que d’un détecteur d’orage. Il communique toutes ses informations et reçoit des ordres de programmation par SMS. Il ne nécessite donc pas de matériel de programmation ou d’affichage spécial à connecter sur le paratonnerre. Un simple téléphone portable de type GSM permet la programmation et la réception des informations qu’il envoie.

Ce paratonnerre prévient à l’aide d’un SMS de l’imminence possible d’un coup de foudre sur le site où il est installé. Cette alerte foudre est déclenchée par la mesure du champ électrique naturel existant sous un nuage orageux et auquel le paratonnerre est soumis. Le RodLinks a été développé sur la base de l’électronique d’un paratonnerre Pulsar qui fonctionne et tire son énergie du champ électrique naturellement présent par temps d’orage. Il était donc simple pour les ingénieurs du Pôle Foudre ABB, de détecter à l’aide du coffret électronique RodLinks le démarrage de l’électronique du Pulsar et d’en informer par l’envoi d’un SMS le ou les gestionnaires du site. Lorsque le champ électrique redevient faible, l’orage s’étant éloigné, un SMS de fin d’alerte foudre est émis.

Tous les paramètres du foudroiement transmis par SMS

En cas de foudroiement du paratonnerre, le RodLinks enregistre les paramètres du courant de foudre, ainsi que la date de l’événement, et les garde en mémoire. Il enregistre les paramètres du courant de foudre : temps de montée et de descente de l’impulsion, sa polarité ainsi que la valeur du courant de crête en kiloampères. La globalité de ces informations mises en mémoire sont transmises par SMS en même temps que le message de fin d’alerte foudre.

Toutes les fonctions du RodLinks sont programmables comme, par exemple, le niveau du champ électrique d’alerte foudre. Ce paramètre permet d’ajuster l’envoi du message d’alerte en fonction du lieu d’implantation et du besoin d’anticipation sur un éventuel coup de foudre. La périodicité du test de l’électronique interne au paratonnerre est également programmable avec une périodicité variable d’une semaine à plusieurs mois. À l’issue d’un test de l’électronique, le résultat de ce test est envoyé par SMS. Un test régulier permet de s’assurer du parfait fonctionnement du paratonnerre et donc de sa fiabilité sur la zone qu’il protège.

Le RodLinks peut transmettre l’ensemble de ses informations vers trois numéros de téléphones gardés en mémoire. Il précise également à chaque transmission son lieu d’implantation (latitude et longitude) ainsi que son numéro de série. 

Oncle Petros et la conjecture de Goldbach

Christian Golbach, mathématicien prussien du XVIIIe énonce dans une lettre à Euler : « Tout nombre supérieur à 2 peut être écrit comme une somme de trois nombres premiers ».
 Depuis plus de deux siècles, les mathématiciens n’ont jamais réussi à démontrer cette conjecture.

Dans le polar des nombres premiers d’Apostolos Doxiadis, un mathématicien consacre sa vie à cette conjecture, s’éloignant de sa famille et de la communauté. Sur fond historique (Hardy, Turing, Ramanujan…), le roman réussit le pari de faire l’unanimité dans les communautés mathématique et littéraire anglo-saxonnes.

L’éditeur anglais d’Apostolos Doxiadis offre même une récompense d’un million de dollars à toute personne qui résoudra la conjecture de Goldbach !

Auteur : Apostolos Doxiadis
Editeur : Christian Bourgois

Pour en savoir plus sur les sciences fondamentales, allez dans la rubrique Mathématiques fondamentales des Techniques de l’ingénieur.

Auteur : C.C.

Nouveau concept d’automatisation globale d’un entrepôt

A l’origine, CPU faisait référence au processeur « Central Processing Unit » qui a permis de miniaturiser les ordinateurs tout en augmentant en permanence leur performance. Savoye a repris ce sigle pour un concept futuriste de préparation de commandes à l’unité ou au carton complet : le Compact Picking Unit. Le parallèle n’a rien d’anodin. Le concept Savoye permet, en effet, d’accélérer et d’optimiser les processus de traitement dans un entrepôt mais aussi de réduire sensiblement sa surface.

Le Compact Picking Unit associe dans une offre globale un logiciel de gestion d’entrepôt et de lancement automatique et dynamique, un système de préparation « goods-to-man » et un système d’automatisation de l’emballage. Mais le CPU ne vise pas uniquement une augmentation de la performance en préparation de commandes. Il impacte aussi le rangement après réception, le réapprovisionnement et le slotting, permettant une baisse de plus de moitié du nombre de mouvements de stock internes à l’entrepôt. « C’est parce qu’il a été pensé de façon globale que le CPU permet un réel changement du paradigme. Le nombre d’heures de non picking dans les entrepôts dépasse souvent les 60 %. C’est au niveau de l’ensemble du schéma de flux qu’il faut travailler », explique Jean-David Attal, Directeur du Développement de Savoye.

Pour mettre au point son concept qui s’adresse aux entrepôts de taille moyenne ou importante, réalisant de 5 000 à 50 000 lignes de commandes par jour, Savoye a comparé les performances de quatre organisations d’entrepôt :

  • l’entrepôt manuel avec chariot et système de préparation vocale ;

  • l’entrepôt avec préparation à gares ;

  • l’entrepôt associant gares et systèmes goods-to-man ;

  • l’entrepôt équipé du système CPU.

Les résultats de cette analyse a conduit au système CPU qui aboutit aux résultats suivants :

  • au moins 70% des commandes réalisées en moins de 30 min entre le lancement de la commande et l’arrivée sur le quai d’expédition ;

  • la surface de l’entrepôt réduite de 40 % (dont une surface de picking divisée par 3 à 4) ;

  • les  coûts de fonctionnement diminués de 30 à 40 % ;

  • les mouvements de stock internes en moins (rangement, réapprovisionnements, réallocations…) réduits de 60 %.

La performance commence dès la réception avec une mise en stock des articles sur convoyeur depuis les quais (ou un réapprovisionnement par palettes complètes pour les articles à fort volume). Les mouvements de stock internes sont donc beaucoup moins nombreux et plus courts. Elle se confirme avec la préparation de commandes à poste fixe, sans déplacement et avec une ergonomie inégalée, permettant d’atteindre 300 à 500 lignes/ h / opérateur. La qualité est également au rendez-vous : l’opérateur n’a qu’un seul produit à la fois face à lui et le système fait un contrôle pondéral en temps réel au poste de picking, pour chaque ligne préparée. (le pilotage du système par Savoye permet d’atteindre cette rapidité de préparation, non seulement pour une petite partie des lignes, mais pour l’ensemble de l’activité, de 500 à 5 000 lignes / h). Jean-David Attal y voit les prémices d’un changement qui dépasse les considérations économiques : « L’entrepôt devient une arme commerciale. CPU permet de traiter la plupart des commandes en une demi-heure, et donc d’accepter plus tard des commandes, qui seront chargées et livrées le jour même ou le lendemain. Vu sous cet angle, il n’est pas seulement un outil pour l’entrepôt, mais devient surtout une arme permettant de prendre des parts de marché grâce à l’amélioration de la qualité de service ». Sans compter que moins de surface, c’est aussi moins d’énergie et de matières premières pour sa construction et son fonctionnement, moins de chauffage, moins d’éclairage, moins de chariots élévateurs pour les déplacements dans l’entrepôt…  De plus, l’utilisation de machines d’emballage Savoye permet de réduire le nombre de camions sur les routes (20% en moins avec la Jivaro qui adapte le colis à la hauteur des produits) ou le volume de carton employé (20% en moins avec la découpe de la PAC 600).

Les investissements dans la mécanisation sont certes plus importants, mais l’investissement dans le bâtiment est plus faible. « L’investissement système est plus important qu’avec un concept classique de convoyeur à gares et, a fortiori, qu’une préparation manuelle des commandes. Mais il est relatif quand on le met en perspective avec une nette diminution de la surface, donc de l’investissement immobilier (ou du loyer, selon le mode de financement de l’entrepôt). Au total, l’entrepôt tout équipé ne coûte que 0 à 20% de plus que dans le cadre d’un entrepôt totalement manuel. La baisse des coûts opérationnels justifie largement cette différence d’investissement. Le CPU s’inscrit dans les attentes des décideurs d’aujourd’hui : qu’une commande soit vite préparée et reparte vite de l’entrepôt, sans mouvements de manutention inutiles, avec un retour rapide sur investissement. Mais aussi il préfigure l’entrepôt du futur, de taille réduite et économe en énergie » conclut Jean-David Attal qui rappelle que l’automatisation des tâches et l’ergonomie des machines apportent, en outre, un plus grand confort aux opérateurs.

Jeudis du CNRI : prévention des risques technologiques

Des catastrophes technologiques majeures, Feyzin – Bhopal – AZF, rappellent périodiquement que certaines installations industrielles sont susceptibles d’être à l’origine d’accidents mettant en jeu la vie et la santé des riverains. La catastrophe d’AZF a entraîné une réflexion approfondie qui a débouché sur la loi n° 2003-699 du 30 juillet 2003. Cette loi relative à la prévention des risques technologiques et naturels et à la réparation des dommages prévoit l’élaboration de plans de prévention des risques technologiques (PPRT). Leur objectif est de résoudre les situations difficiles en matière d’urbanisme héritées du passé et mieux encadrer l’urbanisation future. Les PPRT concernent les établissements SEVESO à « hauts risques » dits AS. Un total de 421 PPRT concernant 670 établissements industriels sont à élaborer. Occasion de conflits mais aussi de dialogues locaux, les PPRT questionnent notre relation au risque en cherchant à résorber les situations héritées du passé.

Ce Jeudi du CNRI sera l’occasion de faire le point sur l’élaboration de ces PPRT ; de voir comment ils s’organisent entre les différentes parties prenantes.

Ce colloque labellisé « Semaine de l’industrie » est gratuit mais l’inscription obligatoire sur www.cnri.fr.
 

Au programme :

[9 h 20] Ouverture du colloque
• Présentation de la journée
• Film de l’INERIS :
Plan de prévention des Risques Technologiques (PPRT)

9 h 45 Première table ronde
Laurent LEVENT : Chef du BRTICP – Ministère de l’écologie,
du développement durable, des transports et du logement
PPRT : mise en oeuvre et actualité
Pierre VIALTEL : Responsable HSE Groupe – RUBIS Terminal
PPRT : retour d’expérience d’un industriel
Philippe PRADERE : Directeur industriel – STCM
Témoignage d’une entreprise non SEVESO touchée par un PPRT
Gérard PERROTIN : Administrateur de l’association AMARIS
et maire-adjoint de Salaise-sur-Sanne
Point de vue de l’association des maires
Mathieu REIMERINGER : Responsable de l’unité
Résistance des Structures – INERIS
Vulnérabilité des bâtiments et des infrastructures

12 h 30 Fin des travaux de la matinée

14 h 15 Deuxième table ronde
Gérard BERNE : Responsable du Pôle Gouvernance et Consommation
Durable – DREAL Rhône-Alpes / Secrétariat du SPIRAL
CLIC : comment mieux répondre aux attentes
Guillaume CHANTELAUVE : Délégué adjoint
Appui à l’administration – INERIS
Pratiques de l’association et de la concertation
Raymond BOZIER : Vice-président de l’association
Respire La Rochelle
Les enjeux de la citoyenneté face au PPRT
Yvan RAZAFINDRATANDRA : Avocat à la Cour
Mise en place de PPRT au sein d’une plate-forme industrielle

16 h 45 Conclusion de la journée par la DREAL Centre

Ce colloque aura lieu dans les locaux de l’ENSI de Bourges (88 bd Lahitolle – Bourges).

Voir le programme complet des jeudis du CNRI pour 2011

L’ombre en fuite

Washington. Adie Klarpol, une jeune artiste désillusionnée, est engagée par une compagnie d’informatique pour travailler sur un système expérimental, « la Caverne ». Ce simulateur d’univers virtuels en 3D permet de revisiter, entre quatre murs, les chefs-d’œuvre de l’art.

Beyrouth. Taimur Martin, professeur d’anglais, est pris en otage par des fondamentalistes islamistes. Seul dans un cachot, il n’a que sa mémoire et son imagination pour s’évader.

Un simulateur d’univers virtuels, un cachot: deux pièces dissemblables, toutes deux ouvertes à toutes les transformations, l’une par la magie de l’informatique, l’autre par la ténacité de l’esprit humain. Deux univers a priori inconciliables dont Richard Powers, avec son sens renversant du romanesque, tire une polyphonie grandiose.

Auteur : Richard Powers

Editeur : Le Cherche Midi, 244 pages

Pour en savoir plus sur toutes les technologies de Réalité Virtuelle, voir la rubrique Réalité Virtuelle des Editions Techniques de l’Ingénieur

Auteur : C.C.

Techniques de l’ingénieur à Alger pour le salon de l’Innovation et la semaine nationale de la recherche

ETI présent à Alger, pour la deuxième semaine de la recherche scientifique du 12 au 17 mars, sous la tutelle du ministère de la recherche, de l’enseignement supérieur et du transfert technologique. Se tient en parallèle, le salon de l’innovation, à l’interface entre recherche et transfert technologique au Riad El Feth, El-madania, Alger.
A distance des préoccupations politiques, cette semaine met à l’honneur la chimie, dans le cadre de l’année internationale de la chimie et c’est au CERIST qu’a eu lieu l’inauguration de l’évènement. Les interventions du directeur du CERIST, Monsieur Adache du directeur général de la recherche scientifique et du développement technologique (RSDT), Hafid Aouraga recontextualisent la recherche scientifique en Algérie. Notamment en ce qui concerne la chimie, et les sciences fondamentales.
Il a rappelé un fait majeur cette année dans le monde de la recherche scientifique et technique en Algérie : la stratégie d’équipement du réseau national d’un portail qui centralise toutes les ressources documentaires du ministère.
En rapportant que l’Algérie a occupé en 2010 le 4e rang en Afrique en ce qui concerne le nombre de publications de recherche (contre le 8e rang en 2008) et en citant des publications de références (citées plus de 6000 fois), le directeur est fier d’annoncer la place émergente de la recherche scientifique en Algérie et d’annoncer que la semaine de la recherche scientifique permet également de propulser des valeurs nationales.
Suite à ce discours de bienvenue, le rendez-vous a été fixé au salon de l’innovation, à la salle Omnisport d’Alger (Riad El Feth) à partir du 13 mars à 14h.

Au coeur des problématiques de partage de connaissances et de transfert d’information, l’équipe des Techniques de l’Ingénieur a souhaité être présent pour cet évènement scientifique francophone.
Nous invitons, à cette occasion, tous les Algérois, étudiants, ingénieurs, acteurs de l’innovation à venir nous rencontrer et assister aux différents ateliers (présentation de l’étendue des bases documentaires, démonstration du site, découverte des services associés : actualité, emploi, formation).

Programme de l’évènement, jour après jour :Dimanche 13 mars : Ouverture, autour de l’année de la chimie.
Lundi 14 mars : L’innovation technologique au service du développement
Mardi 15 mars : Journée de l’entrepreunariat.
Mercredi 16 mars : journées portes ouvertes sur les institutions de recherche
Jeudi 17 mars : célébration de la journée nationale du chercheur.

Retrouvez le stand des Editions Techniques de l’Ingénieur, emplacement 43 au RIAD EL FETH, El-madania, Alger.

L’assaut des bots

Créée en 2009 par le Collège de France avec le soutien de l’Institut National de Recherche en Informatique et en Automatique (INRIA), la chaire « Informatique et sciences numériques » accueille chaque année un nouveau titulaire spécialiste reconnu d’un domaine (langages de programmation, sécurité et analyse de protocole, robotique, …). Pour l’année académique 2010-2011, c’est Martin Abadi qui a été nommé.

Né en 1963 à Buenos Aires, il a fait ses études à Stanford University où il obtint son doctorat en informatique en 1987. Chercheur, le plus souvent dans des laboratoires industriels, il est depuis 2006 « principal researcher » à Microsoft Research Silicon Valley. Il a aussi enseigné à Berkeley, à Stanford et à l’University of California, Santa Cruz, où il est actuellement professeur. Sa recherche porte principalement sur la sécurité informatique, sur les langages de programmation et sur les méthodes de spécification et preuve formelle. Il s’est intéressé, par exemple, au développement de la théorie des langages de programmation orientés objet et à la conception et l’analyse des protocoles de communication sécurisés sur Internet.

Le 10 mars dernier, en prélude à l’enseignement sur la sécurité informatique qui démarrera la semaine suivante, le Professeur Martin Abadi  a, dans le cadre de la « Leçon inaugurale », donné une conférence sur le thème « L’assaut des bots »  dont voici de larges extraits.

  

Bot et botnets

 « Une partie considérable du spam provient de vastes réseaux d’ordinateurs contrôlés par des attaquants, presque toujours à l’insu de leurs propriétaires. Ces réseaux sont appelés botnets, et chacun des ordinateurs est un bot (pour robot). Les botnets sont utilisés aussi dans d’autres buts criminels ou politiques, comme l’attaque massive par déni de service (denial of service) contre l’Estonie en 2007. L’usage des botnets amplifie le pouvoir des attaquants et leur permet de mieux masquer leur identité.

Un botnet peut compter des dizaines de milliers de bots, voire plus. Au total, on a estimé qu’il y aurait des dizaines de millions de bots, peut-être 100 millions ou 150 millions, déjà en 2007. Même si on ne peut pas trop faire confiance à de tels chiffres, ils donnent une idée de l’énormité du problème, ou du moins de l’inquiétude qu’il suscite. Souvent les membres du botnet communiquent par des messages chiffrés, en utilisant des méthodes cryptographiques analogues à celles qui protègent les réseaux militaires et les réseaux bancaires, que nous étudierons plus en détail pendant le cours. Par ce biais, le spam et les botnets nous fournissent une application inattendue de la cryptographie moderne.

Cet aspect des botnets nous permet déjà de présenter certains des personnages de notre drame. En cryptographie, nous parlons souvent de deux personnes fictives, Alice et Bob, qui souhaitent communiquer. Nous parlons aussi d’Eve, qui veut écouter leurs messages (eavesdrop), et de Mallory, qui est prête à tout, même à se faire passer pour Alice ou Bob. Ces prénoms humains peuvent nous faire ressentir une certaine sympathie envers Alice et Bob, et en tout cas servent à motiver les problèmes de communication mieux que les lettres A, B, E et M.

On suppose parfois qu’Alice et Bob sont honnêtes et bienveillants, et qu’ils se font mutuellement confiance. Ce n’est pas nécessairement le cas. Les mécanismes de sécurité ne sont pas toujours là pour protéger les bons des méchants. Ainsi, dans les communications au sein d’un botnet, Alice et Bob sont des bots qui conspirent pour envoyer du spam, ou pire.

Le travail des bots est typiquement coordonné par des ordinateurs, maîtres ou relais, qui se chargent de commander le réseau (Command & Control). Ce ne sont pas toujours les mêmes qui commandent, ou ils ne restent pas toujours aux mêmes adresses sur Internet, sinon il serait trop facile de décapiter un botnet. Parfois, une partie du contrôle des botnets est décentralisée, en utilisant les techniques pair-à-pair (P2P). Il a même été suggéré de monter des botnets sur Skype, un système P2P bien connu de téléphonie chiffrée par Internet.

Quand l’ordinateur devient aussi un bot

Contre ces astuces et subterfuges des botnets, nous disposons de techniques de plus en plus puissantes pour détecter et comprendre leurs activités, pour les bloquer et parfois pour les détruire. Par exemple, nous pouvons déceler des similarités et des régularités dans les actions des bots, pour ainsi les reconnaître, en déduire leurs alliances, et mieux dépister et comprendre leurs attaques. Cela exige des calculs de grande échelle, qui analysent des milliards d’événements sur Internet, en traitant des téraoctets (1012 octets) de données. Cela s’accompagne aussi d’efforts juridiques qui visent à démanteler les structures de contrôle de botnets, mais qui restent généralement inefficaces contre la formation de nouveaux botnets, quelquefois à partir des mêmes bots.

Chacun des bots est un ordinateur dont la sécurité a été compromise, grâce à des failles dans son logiciel, à des erreurs de ses usagers, ou aux deux. Les moyens de réduire un ordinateur à l’esclavage sont assez variés, parfois bêtes et méchants, parfois spectaculaires.

Par exemple, un usager peut recevoir une carte postale électronique avec des voeux de Noël ou une proposition amoureuse tentante. Si cette carte postale porte le nom de fichier ILoveYou.exe, elle contient un programme plutôt qu’une image, et ce programme se lance quand l’usager clique dessus. Le programme peut alors contacter les maîtres d’un botnet, puis suivre leurs ordres. L’ordinateur devient ainsi un bot.

Une image JPEG ou un fichier PDF peut être corrompu

Mais l’ordinateur reste vulnérable, même si le nom de fichier est ILoveYou.jpg ou ILoveYou.pdf, indiquant de traiter la carte postale comme une image de type JPEG ou PDF. En effet, des erreurs dans le logiciel d’affichage des images peuvent permettre à l’attaquant de contourner les mécanismes de défense de l’ordinateur. Même des erreurs apparemment minuscules et anodines peuvent s’avérer catastrophiques. Nous verrons comment plus tard. Par exemple, en 2004, une image JPEG corrompue pouvait lancer des programmes sur Windows. Plus récemment, en 2010, des failles dans la gestion des fichiers PDF sur les IPhones et les IPads permettaient de prendre le contrôle de ces téléphones et de ces tablettes. Parfois, de telles failles sont de vieilles erreurs, réparées dans des versions plus récentes du logiciel que l’usager n’a pas encore installées. Peut-être l’attaquant a-t-il même découvert ces erreurs en comparant les différentes versions du logiciel !

Pour l’instant, retenons qu’un problème relativement modeste et banal, comme celui du spam, mène non seulement à des questions d’apprentissage automatique et de cryptographie, mais aussi au problème plus général de la correction des programmes (le logiciel se comporte-t-il conformément à ses spécifications ?). Ce problème, auquel Turing s’attaquait déjà en 1949 dans son article « Checking a large routine », a été traité avec ténacité depuis, souvent en suivant des approches à base de logique formelle ; même s’il n’est pas encore résolu, nous avons beaucoup avancé.

Retenons aussi que les usagers jouent un rôle délicat et essentiel en sécurité. Ces usagers constituent souvent le maillon le plus faible de la chaîne. Par exemple, ils choisissent souvent des mots de passe faciles à deviner. Dans une étude récente, on constatait qu’un usager sur cent se servait tout simplement du mot de passe « 123456 », ce qui est déjà mieux que « 12345 », un autre choix très fréquent. De même, les usagers semblent enclins à lancer à peu près n’importe quel programme, surtout si ce programme est gratuit et amusant.

La sécurité, un problème social

Pourtant, nous ne devons pas trop blâmer ces usagers, car la donne actuelle ne les incite pas nécessairement à prendre les bonnes précautions. Par exemple, revenons à l’usager qui reçoit un fichier ILoveYou.jpg, ILoveYou.pdf ou ILoveYou.exe. Supposons qu’il puisse se procurer un logiciel sûr qui, entre autres choses, traite correctement les fichiers JPEG et PDF, et aussi cloisonne l’exécution des fichiers EXE pour en limiter les effets fâcheux. Il lui faut d’abord faire l’effort d’installer ce logiciel, qui peut d’ailleurs être moins plaisant à utiliser que le précédent . Il lui faut parfois aussi payer l’auteur de ce logiciel. Tout ceci ne l’encourage pas à se donner du mal. De plus, la sécurité accrue du nouveau logiciel est difficile à prouver et ne présente pas nécessairement un bénéfice direct évident pour l’usager.

Son ordinateur n’enverra pas de spam à d’autres, mais lui-même en recevra tout autant. Est-ce motivant ? Il semblerait que non.

En somme, il ne suffit pas d’inventer des techniques astucieuses. Il faut que ces techniques soient faciles à utiliser correctement. Il faut aussi que, du point de vue de ceux qui peuvent les mettre en place, elles en valent la peine.

La sécurité ne doit pas être envisagée seulement comme un problème individuel, mais aussi comme un problème social. En ceci, elle ressemble assez à la santé. Les maladies de chaque individu (ou de chaque ordinateur) créent un danger pour les autres. »

 

Des innovations majeures pour la mécanique

Dans le « Best of Veille » de novembre dernier, les spécialistes du Cetim ont sélectionné les innovations technologiques et les informations stratégiques susceptibles à terme de bouleverser l’industrie mécanique. Pour la première fois, la gestion des données via le cloud computing est à l’affiche. Un rappel pour les entreprises qui auraient pris du retard en matière de services informatisés délivrés via Internet et facturés à l’usage.

–  Intégrer le cloud computing dans la stratégie informatique
Le cloud computing est défini par le cabinet Forrester comme « une capacité informatique standardisée (services, logiciels ou infrastructure) fournie via Internet, en self-service et facturée à l’usage ». Dans cette approche, on distingue trois modèles de services :

  • SaaS (Software-as-a-Service), qui propose des applications que l’utilisateur peut utiliser à distance et souvent facturables au temps passé ;
  • IaaS (Infrastructure-as-a-Service), qui propose l’utilisation de puissance de calcul et/ou système de stockage à distance. Il s’adresse à toutes les entreprises qui souhaitent bénéficier de solutions de stockage sécurisées ou qui pourraient avoir besoin de puissance de calcul pour leurs applications ;
  • PaaS (Platform-as-a-Service), qui propose une plate-forme pour créer et déployer des applications et des services. Il s’adresse plutôt à des éditeurs de solution et prestataires de services qui souhaitent développer des solutions cloud.

– Soudage métal-composite
Lockheed Martin Corporation, société américaine de construction aéronautique, a déposé une demande de brevet concernant un procédé d’assemblage métal-composite. Le matériau composite est pré-percé en vue d’être fixé sur le support métallique. Après positionnement des pièces à assembler, les perçages, de forme conique par exemple, sont destinés à être remplis de métal pulvérisé « à froid » (procédé Cold Spray). La jonction peut ensuite être renforcée en utilisant par exemple le soudage par friction-malaxage. La jonction peut être ponctuelle ou linéaire, et la géométrie des perçages est libre, sous réserve de constituer un point d’ancrage.

– Adhésif réversible
Du côté du secteur automobile, General Motors a mis au point un adhésif puissant, basé sur une adhésion moléculaire de type Velcro, qui peut être désassemblé par une faible force de pelage s’il est chauffé au-dessus de la température de transition des polymères (68°C). Le système adhésif est constitué de deux polymères à mémoire de forme avec des « crochets » et des « boucles » moléculaires sur les surfaces. Le collage s’effectue en quelques minutes sous chauffage et pression, formant des liaisons hydrogène très résistantes. La force d’adhésion est de 700 N/cm2, soit sept fois plus que celles des adhésifs de type gecko. Le collage et décollage peuvent être répétés plusieurs fois (rétention d’adhérence de 70 % après deux cycles).

– Modélisation et simulation de muscles pneumatiques
L’université de Yonsei, en Corée du Sud, a développé un modèle numérique permettant de résoudre le problème de non-linéarité des muscles pneumatiques et de déterminer les performances. Il a en particulier été employé pour des applications d’assistance à la motricité sur prothèse de hanche. Les composants pneumatiques présentent des avantages de flexibilité, de faible poids et de faible demande d’énergie.

– Micro-générateur vibratoire pour l’alimentation de capteurs
Le micro-générateur vibratoire PMG7, développé par Perpetuum Ltd, est le premier capable de transmettre une grande quantité de données de différents types depuis un équipement industriel (température, spectre vibratoire…). L’unité peut être utilisée pour alimenter des capteurs, des microprocesseurs et des émetteurs pour la surveillance de machines, sans batterie ni câblage. Le micro-générateur transforme en énergie électrique l’énergie cinétique liée aux vibrations de la machine. Il fonctionne à partir d’une accélération de 25 milligrammes. Plusieurs versions sont disponibles pour des excitations à 50, 60, 100 ou 120 hertz. Le système peut générer jusqu’à 5 mégawatts, ce qui permet la transmission de 6 kilo-octet de données au maximum toutes les quelques minutes, ou une plus petite quantité de données plusieurs fois par seconde. Pesant 190 grammes, ce micro-générateur peut être fixé au bâti de la machine par vis ou aimant.

– Limiteur de couple à transmission sans fil
Les limiteurs de couple sont couramment employés pour garantir la sécurité des machines tournantes et des opérateurs. Leur rôle consiste à interrompre la transmission de couple entre le moteur et le reste de la chaîne cinématique en cas de surcharge, ce qui permet d’éviter les avaries. Le fournisseur allemand Mayr commercialise un capteur sans fil (EAS-Sensor) directement intégré au limiteur de couple avec son alimentation. En cas de surcharge, le capteur détecte le mouvement de désengagement. La transmission des données se fait par onde radio.

– Véhicules à air comprimé
Le moteur à air comprimé de la société française MDI atteint une autonomie de 200 kilomètres, par la production d’air comprimé par réchauffement de l’air ambiant pendant la marche. Et le moteur peut être rechargé en quatre heures par le compresseur embarqué ou en deux minutes dans une station service. Le véhicule à air comprimé intéresse les transports urbains, aéroports, parcs professionnels. En Suisse, Catecar SA lancera en mars 2011 la fabrication d’un modèle compact, l’Airpod, d’une masse inférieure à 500 kilogrammes. Le partenariat inclut MDI, l’Ecole Polytechnique fédérale de Lausanne (Suisse) pour le développement des stations de recharge et Bobst SA (Suisse) pour le conseil dans la fabrication et des professionnels de la commercialisation d’automobiles. 

Une chaire en hydrologie urbaine

Les travaux de la Chaire de recherche et d’enseignement, « Hydrologie pour une Ville Résiliente », porteront sur une meilleure prévision des phénomènes pluvieux pour une gestion efficace des eaux pluviales en zone urbaine.

En effet, les grandes métropoles demeurent particulièrement vulnérables aux phénomènes pluvieux intenses, comme le rappellent régulièrement es événements dramatiques. Le changement climatique devrait d’ailleurs en renforcer la fréquence. Même lors d’événements pluvieux moins extrêmes et plus fréquents, il est nécessaire de gérer les flux de ruissellement et de polluants afin de limiter leurs rejets dans les milieux récepteurs, en les stockant ou en les traitant. À cet effet, il convient de disposer de données de précipitations à une échelle très fine pour obtenir les modélisations et les prévisions hydrologiques les plus précises possible.

Pour y parvenir, la Chaire vise à utiliser et exploiter l’innovation technologique que représente le radar hydrométéorologique de 3 centrimètres de longueur d’onde (dite « bande X ») et doté d’une double polarisation. Cette technologie multiplie par dix la résolution des mesures de précipitation par radar et va ainsi rendre possible le développement d’outils d’aide à la décision, au service d’une gestion prédictive efficace des eaux pluviales et de leurs impacts aux échelles des quartiers et des villes.

La Chaire associera les savoir-faire des deux partenaires. D’une part, pour l’École des Ponts ParisTech, celui des chercheurs du laboratoire Eau Environnement et Systèmes Urbains (LEESU) dont une grande partie des recherches portant sur le cycle de l’eau et des polluants dans la ville et l’amélioration de leur gestion, sont menées dans le cadre de nombreuses collaborations nationales et internationales appelées à se renforcer avec la création de cette chaire. D’autre part, pour Veolia Eau, les équipes d’ingénieurs et de chercheurs de Veolia Environnement, dont la Direction Recherche et Innovation qui réunit  850 chercheurs et développeurs. Ceux-ci apportent, dans leurs domaines de compétences, des solutions novatrices concrètes, qui répondent aux quatre enjeux majeurs identifiés par le groupe : gérer et préserver les ressources naturelles, limiter les impacts sur les milieux naturels,  préserver la santé et le cadre de vie et  développer des sources d’énergie alternatives. 

Quand le transport-logistique fait rimer écologie et économie

L’objectif du Grenelle de l’Environnement fixe à 20% la diminution des émissions de CO2 du  transport et de la logistique d’ici 2020. En effet, en France où 81% des échanges commerciaux sont assurés par les poids-lourds, les transports sont à l’origine d’environ 26% des émissions de gaz à effet de serre. Autant dire que ce secteur se trouve confronté à un véritable défi qui consiste à optimiser l’empreinte environnementale (1l de gasoil consommé émet 2,68kg de CO2) et la réduction des coûts, annonce des révolutions technologiques, de nouvelles organisations et la génération d’outils et de matériels compétitifs et sobres en énergie.

Trois entreprises, Renault, Michelin et Frigoblock, qui veulent réconcilier écologie et économies, profiteront du salon, Eco Transport & Logistics qui se tiendra à Paris, à la fin mars, pour dévoiler leurs dernières innovations et solutions concrètes  à l’attention des chargeurs et des prestataires. 

Kangoo Z.E., une véritable rupture technologique

Depuis plusieurs années déjà, les équipes du groupe Renault travaillent sur les outils d’une mobilité durable à l’attention des professionnels du transport et de la logistique. « Au salon Eco Transport  & Logistics, Renault dévoilera aux chargeurs et aux prestataires le nouveau véhicule utilitaire électrique Kangoo Express ZE disponible d’ici l’automne 2011. Grâce à une nouvelle génération de batterie Li-ion placée sous le plancher, le véhicule possède les mêmes performances de charge (650kg) et de volume utiles (jusqu’à 3,5m3) qu’un Kangoo thermique. Avec une autonomie de 160km et un temps de charge de 6 à 8h, il développe une puissance de 44kW (60ch), un couple de 226 Nm et une vitesse de pointe de 130 km » précise Fabien Goulmy, directeur de gamme commerciale Fourgonnettes de la direction des véhicules utilitaires Renault..

Les pneumatiques, source d’économies 

Reconnu pour ses innovation, Michelin accompagne également ses clients pour optimiser le coût de gestion de leurs matériels grâce aux propriétés de ses pneumatiques. Avec sa participation au salon Eco Transport & Logistics, Michelin illustrera cette culture d’entreprise :  « L’empreinte environnementale d’un pneumatique poids lourd est générée à 95% lors de son usage. En roulage, le pneumatique consomme un tiers du carburant utilisé par un moteur. Pour une entreprise de 50 véhicules par exemple, le choix de bons pneumatiques et leur gestion maîtrisée représentent une économie annuelle de 480t de CO2 et de 180 000€ sur le poste carburant », explique Olivier Faure-Vauris, directeur marketing PL/GC France chez Michelin. Des démonstrations sur le bénéfice environnemental issu de la bonne gestion des pneus animeront le stand Michelin à travers quatre étapes : « Choix d’un pneumatique qui délivrera ses performances tout au long de son utilisation, recreusage, rechapage Michelin Remix soit une remise à neuf du produit, suivi d’un second recreusage. Chaque recreusage prolonge de 25% la vie d’un pneumatique et s’accompagne d’une réduction de la consommation de 2l/100 km.

La production de froid revisitée

Fabricant et distributeur de solutions de réfrigération destinées au secteur des transports, Frigoblock créera aussi l’événement avec sa nouvelle technologie de matériels électriques hybrides entraînés par génératrice. Novatrice, l’énergie pour la production de froid est alimentée par le seul moteur du véhicule et lors de ses phases de décélération. « Doublement de l’efficacité énergétique avec débit d’air variable assurant une homogénéité de température en tout point du chargement sans stratification, consommation de carburant divisée par 2 pour la production de froid, gains de poids et aérodynamiques qui représentent un potentiel d’économies supplémentaires sur la consommation », indique Pierre-Louis Dumas, directeur général Distribution France chez Frigoblock.
 
Comparée à un groupe conventionnel, la technologie Frigoblock permet une réduction de 7,7t de CO2 par an sur la seule production de froid. Ces gains sont enrichis par d’autres innovations qui concourent elles aussi au bénéfice environnemental : « Emploi du réfrigérant R410A, diminution des déchets de maintenance, réduction de l’usure des freins du véhicule grâce au système hybride et certification Piek qui garantit, de série, sans investissement et poids supplémentaires, un niveau sonore inférieur à 60dbA ». Idéales pour les livraisons urbaines, ces performances sont à l’origine d’un certificat d’économie d’énergie « Groupe frigorifique haute efficacité énergétique » dont la validation est en cours.
  

Un spécialiste de la logistique automobile virtualise ses applications métiers

Le groupe CAT assure l’intégralité des besoins en logistique automobile à travers le monde. L’année dernière, ses clients lui ont confié la livraison de plus de 2,1 millions de véhicules neufs et la distribution de près de 30 millions de colis et pièces de rechanges. Au regard de son activité logistique, le groupe CAT a positionné l’outil informatique au centre de ses préoccupations stratégiques. Dans le cadre de l’évolution de son système d’information, le groupe a choisi de s’appuyer sur une solution de virtualisation des applications qui lui permettrait de rationnaliser ses coûts de fonctionnement tout en optimisant son infrastructure IT. 
 
Après avoir étudié les différentes offres du marché, le groupe CAT a sélectionné la solution AppliDis Fusion 4 de Systancia pour ses fonctionnalités avancées, sa simplicité d’utilisation et de mise en œuvre, et son accessibilité financière. La mise en œuvre de cette infrastructure, réalisée en collaboration avec l’intégrateur Dotgreen, concerne différents projets internes avec chacun leurs enjeux spécifiques.

Un premier pan du projet (Business Process Outsourcing) a consisté à mettre en place une gestion externalisée du traitement des règlements fournisseurs et des litiges, avec un prestataire externe. Dans ce contexte, il a fallu mettre à la disposition de ce prestataire, des applications métiers au travers d’un faible débit Internet. De même, il a fallu assurer une sécurisation totale du réseau du groupe CAT.
 
Les projets suivants visent à accompagner le groupe CAT, dont les applicatifs sont en pleine évolution, vers de nouvelles solutions. Celles-ci devant s’affranchir des contraintes télécoms, la solution AppliDis de Systancia s’est à nouveau imposée, permettant au groupe d’éviter un investissement coûteux dans de nouvelles infrastructures.
 
Au total, plus de 25 applications sont ou vont être virtualisées via AppliDis Fusion de Systancia, sur plus de 200 sites à travers le monde, dans 23 pays différents avec un accès au service 7 jours sur 7 et 24 heures sur 24.
 
Pour le Groupe CAT, « la facilité d’utilisation a été un critère important dans la sélection de l’outil au regard du caractère complexe de nos projets. La solution AppliDis a permis de publier les applications en un temps record : moins de trois mois pour le projet Business Process Outsourcing et un mois pour la gestion de la paie et du personnel. »  

Un grossiste-répartiteur pharmaceutique choisit le picking vocal

Composé de trois sociétés distinctes, d’une soixantaine d’agences, le réseau CERP est un des principaux répartiteurs pharmaceutiques en France. Secteur extrêmement compétitif, la répartition de produits pharmaceutiques repose sur un service de proximité particulièrement réactif. Une pharmacie qui passe une commande dans la matinée est livrée l’après-midi. Les commandes transmises dans l’après-midi sont livrées avant l’ouverture de l’officine le lendemain matin. CERP travaille ainsi selon les principes du « juste à temps ».

Afin de pouvoir mieux répondre à ces exigences, le répartiteur pharmaceutique CERP Bretagne Nord a décidé de remplacer son système de préparation de commande papier par une solution radio vocale. Il a opté pour la solution 3iV Crystal de Zetes, qui utilise pour ce projet le moteur de reconnaissance MCL-Voice développé par MCL Technologies, une division de Zetes Industries SA. Celui-ci présente l’avantage de ne pas exiger d’enregistrement préalable du profil vocal de l’utilisateur et sera exécuté sur des terminaux MC3190 de Motorola. La solution sera installée dans toutes les agences de la société, comptant plusieurs centaines d’opérateurs. Par ailleurs, lors du prélèvement, chaque produit sera également scanné de manière individuelle à l’aide d’une bague de lecture de codes datamatrix. Cette étape a été intégrée à des fins de contrôle et pour répondre aux exigences liées à la traçabilité des produits pharmaceutiques en France.

La mise en place de la technologie vocale, très novatrice dans le monde de la répartition, permet aujourd’hui à la CERP Bretagne Nord de préparer les commandes en « voice picking ». Le système adresse les consignes de préparation en vocal puis le préparateur prépare les lignes de commandes et acquitte ses actions avec la voix. La bague de lecture 2D permet de flasher les articles pour contrôler la préparation et enregistrer les références de lot et les dates de péremption des articles préparés.

 « Le choix du vocal permettra de maintenir le niveau de productivité exigé par nos impératifs de préparation tout en diminuant les erreurs. Nous savions que les équipes Zetes étaient spécialisés dans le vocal et qu’elles connaissaient les exigences de notre secteur. C’est donc pour ces raisons que nous avons fait appel à ces équipes. Nous examinons actuellement avec Zetes un déploiement dans un plus grand nombre d’agences appartenant au Groupe », précise Daniel Galas, Président de CERP France et Directeur Général de la CERP Bretagne Nord.

 

Le Model-Based Design réduit de 81% le temps de développement d’un moteur

Fabricant japonais de moteurs d’essuie-glace, Mitsuba, produit actuellement 20 000 à 30 000 systèmes d’essuie-glace à moteur à inversion par mois. Un produit plus difficile à concevoir qu’un système traditionnel à cause de la complexité de ses commandes.

Le processus de développement a impliqué un travail de reprise car le processus précédent reposait sur un cahier des charges sur papier et du code écrit à la main. C’est dans les dernières phases du développement que l’équipe de Mitsuba a détecté la majorité des erreurs, conduisant à un surcoût en temps et en dépenses pour les résoudre. 
 
Pour pallier ce problème, Mitsuba a utilisé conjointement l’approche Model-Based Design, une méthodologie servant à spécifier, concevoir, simuler et valider en temps réel  les systèmes physiques et les algorithmes associés (loi de commande, gestion des défauts…) et les produits MathWorks pour modéliser, simuler et vérifier les commandes, ainsi que pour en générer automatiquement le code de production. L’équipe a utilisé Simulink pour modéliser les structures de contrôle,  les fonctions et les harnais de tests dans le respect du cahier des charges.

90 % de papier en moins au stade de la revue 

 Grâce à Simulink et SimMechanics, Mitsuba a pu créer un modèle du système intégrant le mécanisme de liaison d’essuie-glace, le bras d’essuie-glace et le montage de l’ensemble. En conduisant des opérations de débogage et de test tout au long de la simulation, en amont de l’étape de prototypage matériel, la société est parvenue à développer, vérifier et tester son système en seulement trois semaines, alors qu’il avait prévu un délai de seize semaines. Qui plus est, en utilisant des modèles créés par Simulink et Stateflow en guise de spécifications système, Mitsuba a terminé le processus de revue de la conception dans un temps réduit de 10 % à celui initialement prévu, et a réduit de 90 % le volume de papier nécessaire au stade de la revue.
 
« En dépit du fait que nous débutions avec Model-Based Design et les produits MathWorks, nous avons constaté de nettes améliorations en termes de rapidité de développement et de qualité des produits », déclare Takao Arai, ingénieur au département de génie électrique Mitsuba. « Model-Based Design nous a permis d’identifier et de résoudre des problèmes au stade des spécifications des exigences et des premières conceptions, nous évitant ainsi d’y être confrontés tardivement à la fin du développement sur le modèle physique. Aujourd’hui, nos revues de conception sont maintenant plus rapides, et nous pouvons identifier les défauts et problèmes dès la phase des spécifications des exigences de manière plus efficace. Nous avons réduit les reprises et avons pu développer un module de commande de grande qualité en seulement 20 % du temps qu’il nous aurait fallu auparavant. »
 
 Aujourd’hui, Mitsuba qui utilise désormais comme standard le Model-Based Design pour tous ses nouveaux projets, y compris les produits de commande de moteur pour véhicules hybrides et électriques, réutilise des composants de ce système d’essuie-glace et le modèle de référence dans le cadre d’autres projets en cours.  

« Les fluides supercritiques proposent une chimie fondamentalement différente »

Instantanés Techniques : quels fluides supercritiques sont concernés par la dépollution et le recyclage des déchets ?

Christophe Joussot-Dubien : Essentiellement le dioxyde de carbone et l’eau supercritiques. L’eau supercritique est, pour l’instant, essentiellement utilisée en laboratoire avec relativement peu d’applications industrielles. Il n’en demeure pas moins que l’application la plus envisagée portera sur le traitement d’effluents aqueux. L’eau supercritique va ainsi permettre de procéder à des réactions d’oxydation. On va traiter de l’eau contenant des matières organiques qui, étant soumises à 500 degrés celcius et 250 bars en présence d’oxygène, vont être totalement oxydées en CO2. Ce qui va permettre d’obtenir, au final, de l’eau pure.

En fait, il existe plusieurs types d’application : soit, vous avez de l’eau polluée et on pourra envisager d’utiliser de l’eau supercritique. Soit c’est de l’eau qui va être utilisée comme solvant. Les japonais utilisent cette technologie-là dans le secteur de la micro-électronique, où il y a besoin d’eau très pure. Ils recyclent leur eau et la remettent en tête d’usine, via un procédé d’eau supercritique qui permet d’enlever toutes les traces de contaminations organiques.

Est-ce que cela concerne aussi les déchets toxiques ?

Oui, bien sûr, cela concerne les déchets toxiques purs. Dans ce cas-là, on utilise l’eau comme solvant. Ce mélange est ensuite amené dans des conditions supercritiques pour réaliser l’oxydation. C’est ce qu’on fait au CEA pour certains effluents contaminés qui sont des solvants organiques toxiques sans filière : on les injecte dans l’eau supercritique pour obtenir une destruction ultime de la matière. Cela peut aussi être fait pour d’autres déchets industriels spéciaux. À la fin de l’opération, la réaction étant assez rapide, – elle dure moins de quelques minutes –, on va se retrouver avec de l’eau pure sans produire de fumées difficiles à traiter. On aura ainsi cassé toutes les molécules organiques potentiellement toxiques.

Quels types d’industries sont concernés ?

Pour l’instant, à ma connaissance, il n’y a pas d’industries qui utilisent ce type de procédé à grande échelle. Mais cela pourrait concerner à terme des industries produisant des composés très toxiques, comme les industries chimiques et pharmaceutiques.

Pourquoi ces procédés ne sont-ils pas encore utilisés dans l’industrie ?

Parce que cela représente une rupture technologique, sans équivalent. De même, à l’heure actuelle, les entreprises préfèrent traiter les déchets toxiques au travers d’incinérations, de traitements thermiques plus classiques. Toutefois, l’incinération pose le problème du traitement des fumées : une fois les déchets incinérés, il faut s’assurer que les fumées n’émettent pas de composés potentiellement partiellement dégradés toxiques, et la tâche n’est pas toujours aisée. Dans l’eau supercritique, la réaction est une combustion « froide », qui évite la production de ces composés partiellement oxydés. Cela permet ainsi de s’affranchir complètement du post-traitement. On sort d’une phase de vapeur quasiment-froide, qui n’a pas de composés organiques volatiles, toxiques ou non. En revanche, le cœur du réacteur, qui est à 250 bars et 500-600 degrés, est lui plus délicat à maîtriser. C’est la raison pour laquelle aujourd’hui les outils de démonstration de laboratoire prédominent sur la phase de production industrielle.

Le CO2 supercritique est-il plus utilisé ?

Oui, car les conditions d’utilisation sont plus simples. Le premier avantage est que son point critique est plus bas (Tc = 37°C et Pc = 74 bar). En outre, le CO2 SC n’entraîne pas de problèmes de corrosion, contrairement à l’eau supercritique. C’est une technologie beaucoup plus mature, mais mature dans d’autres secteurs que la dépollution et le recyclage : l’agroalimentaire, qui l’utilise depuis plusieurs dizaines d’années, mais aussi l’extraction de produits végétaux, la pharmacie (l’extraction de principes actifs), et dans certaines applications matériaux. Des usines traitent ainsi des milliers de tonnes de matières par CO2 supercritique par an, avec des installations importantes.

Concernant la dépollution, on est en train de travailler actuellement sur la substitution du CO2 dans le recyclage, le nettoyage. Mais là aussi, cela reste au stade de laboratoire. Le niveau de maturité est le même que pour l’eau supercritique, bien qu’il ne s’agisse pas des mêmes verrous à franchir. En effet, le CO2 supercritique est un solvant apolaire : quand on veut procéder à une dépollution, souvent il faut lui adjoindre un co-solvant ou un tensio-actif pour favoriser l’efficacité du traitement. Cela peut concerner du nettoyage de tissus, de vêtements… Le secteur nucléaire aussi est concerné, pour la dépollution de matières plastiques, d’objets souillés dans lequel on va substituer un fluide supercritique au traitement aqueux. Ce nettoyage-là se fait pour concentrer les radio-éléments sans générer de flux aqueux secondaires importants.

Mais là aussi, on est beaucoup plus sur de la R&D, car il faut mettre au point des tensio-actifs adaptés au milieu CO2 supercritique. L’idée avec les fluides supercritiques est de pouvoir utiliser le CO2 supercritique en remplacement de solvants chlorés, tels que le trichloroéthylène. Les fluides supercritiques proposent une chimie fondamentalement différente, mais là aussi, il faut franchir des barrières assez importantes par rapport aux technologies éprouvées.

Vous pensez que ces barrières tomberont quand ?

Les mentalités évoluent, et les réglementations aussi. Les choses avancent, et nous ne sommes pas les seuls à avancer car les procédés traditionnels ont eux aussi fait des progrès importants. Nous devons encore progresser dans nos technologies supercritiques car la mise en œuvre de ces procédés supercritiques, – il faut le reconnaître –, est quand même relativement lourde : il faut monter en pression, en température… Quand on parle de dépollution, de décontamination, il faut que ce soit le plus versatile possible, car le déchet ne doit pas coûter cher à traiter. Tous ces éléments mis ensemble, on doit pouvoir essayer de gagner encore des gains d’efficacité, sans augmenter les coûts d’investissement ni de fonctionnement.

Pensez-vous que les industriels soient conscients des avantages que les fluides supercritiques peuvent apporter par rapport à la chimie traditionnelle ?

Je pense que les gens sont de plus en plus sensibilisés à cette approche qui consiste à dire que les nouveaux procédés que l’on met en œuvre, peuvent être radicalement différents. Mais à la condition qu’ils ne coûtent pas plus chers, et qu’ils permettent de préserver l’environnement, aux deux sens du terme : le milieu environnemental et les travailleurs. Cela ne peut se faire que si c’est à coût équivalent.

Vous avez parlé des réglementations. Concernant Reach, est-ce que certains industriels s’intéressent aux fluides supercritiques pour obtenir des produits dans des conditions exemptes de composés chimiques dangereux ?

Oui, il y a une vraie volonté de faire de la substitution. Après, pour que l’opération soit efficace, il faut parfois rajouter des fractions de tensio-actifs et  – c’est là que la R&D prend tout son sens – il faut veiller à ce que ces composés soient respectueux de l’environnement. Mais si vous mettez 0,1 % d’un tensioactif dans du CO2 supercritique, cela fera toujours moins en masse que des centaines de litre de solvants organiques chlorés. À nous de trouver les bons cocktails, qui soient les moins nocifs possible et les plus efficaces.

Concernant les fluides supercritiques et le recyclage des déchets ?

Les fluides supercritiques permettent de fluidifier les huiles usagées, notamment les huiles usagées de moteurs. L’opération s’effectue en solubilisant l’huile dans du CO2 supercritique, et ensuite via un procédé de séparation membranaire, l’huile est régénérée. L’idée est de réutiliser ces huiles usagées en les épurant, en enlevant les métaux présents dans l’huile après son utilisation dans un moteur. La démonstration à l’échelle industrielle reste à faire.

L’eau supercritique, quant à elle, peut être utilisée en oxydation partielle pour décomposer des polluants organiques. Ces techniques sont tout à fait envisageables, mais là encore nous sommes dans une approche de marché de niche, et plutôt au stade de laboratoire.

Des études existent sur le recyclage de fibres de carbone issues des matériaux composites. L’idée étant de séparer la résine de la fibre, pour pouvoir recycler la fibre. La difficulté, toutefois, réside dans le fait que les fibres récupérées ne sont pas des fibres intègres, l’opération ayant consisté à broyer la pièce initiale. Des programmes de laboratoire étudient les avantages de l’eau supercritique dans ce cadre-là, pour casser les polymères. Les japonais aussi réfléchissent au devenir des polymères : une fois utilisés dans des composites, ceux-ci pourraient être hydrolisés dans l’eau supercritique pour régénérer des monomères, et de nouveau être réutilisés en polymérisation.

D’autres pays s’intéressent-ils à cette chimie verte ?

Le Japon, les États-Unis et l’Allemagne. Historiquement, les allemands possèdent un grand savoir-faire en termes de procédé sous haute pression. C’est en Allemagne qu’on retrouve les fabricants des machines supercritiques les plus connues. Ce savoir-faire les a amenés à avoir une communauté scientifique assez compétente dans les domaines supercritiques, et notamment dans le traitement de la biomasse, la gazéification dans l’eau supercritique. Les américains aussi s’intéressent de près aux mises en œuvre de tensio-actifs, de solvants, de co-solvants pour le CO2 supercritique, le dégraissage ainsi que le nettoyage.

Propos recueillis par Carole Hamon

Découvrez la formation Techniques de l’Ingénieur : FLUIDES SUPERCRITIQUES

Un simulateur au service de la gazéification

Des scientifiques du National Energy Technology Laboratory (NETL) ont développé un outil de simulation, à l’aide des ordinateurs très performants des laboratoires d’Oak Ridge et d’Argonne, permettant la réduction des coûts et du temps nécessaires à la construction d’installations de gazéification, à l’échelle industrielle. Le Clean Coal Power Iniative, branche du NETL développée conjointement avec le gouvernement américain, prévoit à l’aide de ce système de mettre en place ces installations de gazéification du charbon capable d’utiliser jusqu’à 90 % du carbone contenu, tout en minimisant l’impact sur le coût de l’électricité produite.

La gazéification est un processus thermo-chimique découvert au XIXe siècle qui permet de convertir tout type de matière organique carbonée (charbon, résidus de pétrole, biomasse, déchets municipaux, boues d’épuration…), grâce à l’apport contrôlé d’un agent de gazéification (air ou vapeur) en un gaz de synthèse essentiellement constitué, d’hydrogène et de monoxyde de carbone, communément appelé « syngas », et qui constitue ainsi une alternative crédible au traitement des déchets. Une fois traité et purifié, ce gaz peut servir de combustible en lieu et place du gaz naturel, il peut aussi être une source d’électricité plus propre à l’aide d’une turbine à gaz, créant de l’énergie mécanique à partir de l’énergie cinétique de sa combustion.

Enfin le procédé Fischer-Tropsch, très performant en termes de rendements mais nécessitant de lourds investissements, permet la transformation du monoxyde de carbone et de l’hydrogène en hydrocarbure, à l’aide d’une catalyse dont le catalyseur est souvent le fer ou le cobalt.

M.R.

La supply chain passe au vert

Rendez-vous annuel des décideurs de la supply chain, l’Observatoire de la Supply Chain de BearingPoint a pour but d’analyser chaque année les pratiques, l’organisation et l’évolution des métiers de la supply chain. Pour sa quatrième édition, l’étude détaille les avancées significatives des secteurs d’activité représentatifs de l’économie, en termes de supply chain verte. Elle poursuit les investigations menées en 2008, qui avaient mis en avant la prise de conscience des décideurs sur le sujet. L’étude quantitative a été conduite entre 2010 et 2011 par Novamétrie auprès d’environ 600 décideurs européens (Allemagne, France, pays scandinaves…) occupant des fonctions au sein des directions Supply Chain, Développement Durable ou Industrielles. En parallèle, une quarantaine d’entretiens qualitatifs ont été menés auprès de dirigeants de grandes entreprises innovantes. 

Intérêts économiques et environnementaux convergent

L’étude de 2008 avait montré que les réglementations environnementales – REACH, DEEE (directive sur les Déchets d’Équipements Électriques et Électroniques), RoHS (Restriction of Hazardous Substances Directive)– déterminaient les entreprises à engager des actions de supply chain verte. Fin 2010, signe de maturité, c’est l’amélioration de l’image de marque de l’entreprise et l’impulsion des Comités de Direction qui sont les deux raisons principales mises en avant. Désormais, les entreprises perçoivent clairement la convergence des enjeux environnementaux et économiques : la majorité des sociétés interrogées déclare que la supply chain verte représente un véritable levier de performance économique (à 70%), source de bénéfices largement mesurables (à 56%). Pour 47% d’entre elles, le retour sur investissement est, de plus, inférieur à 3 ans. Enfin, 80% de celles qui ont mesuré leur empreinte carbone en ont retiré des pistes d’amélioration immédiate.

Un engagement environnemental sur le long terme

Une fois cette convergence assurée, il semble logique que l’engagement environnemental soit conçu sur le long terme, l’impact de la crise n’ayant rien remis en question : 66% des entreprises interrogées affirment ainsi que la crise n’a pas eu d’impact négatif sur les projets engagés ou prévus. Ceux-ci ont même été accélérés dans la plupart des cas. Autre signe qui ne trompe pas, les critères de mesure de la performance de la supply chain deviennent verts. Par exemple, deux importants indicateurs de pilotage sont aujourd’hui le taux de recyclage des emballages et le rejet des émissions de CO2. L’étude montre ainsi que plus de la moitié des entreprises européennes s’inscrivent dans cette démarche avec 77% des entreprises scandinaves utilisant des critères verts.

Des actions vertes, de la conception au recyclage

Pour les auteurs de l’étude, l’éco-conception est désormais incontournable. À leurs yeux, « certainement plus de 80% de l’impact environnemental d’un produit est déterminé lors de sa conception ». En pratique, l’étude souligne de fortes disparités en Europe : 55% des entreprises scandinaves entreprennent des programmes d’éco-conception contre seulement 15% pour les sociétés allemandes. Côté achats, les deux tiers des entreprises ont entrepris une politique d’achat verte auprès de leurs fournisseurs. Elles s’orientent vers des fournisseurs aux processus certifiés qui consomment peu de matières, avec des émissions et des pollutions maîtrisées et dont la traçabilité des matières premières est assurée. Là encore, on observe une réelle disparité entre les entreprises européennes ayant entrepris des démarches d’achats vertes : 80% pour les scandinaves et allemandes, 55% pour les françaises et anglaises.

Le vert s’inscrit aussi dans les démarches Lean : les modifications de processus visent notamment à réduire la consommation d’énergie et de matières premières. La logistique verte se développe également afin de trouver des solutions alternatives à la route et, par là même, réduire les consommations de carburant, optimiser le remplissage des camions et utiliser les emballages d’expédition au minimum. Enfin, des initiatives existent dans le pilotage des flux de seconde vie des produits. L’industrie automobile se positionne ainsi sur la réparation de ses propres produits et le marché de l’occasion depuis longtemps.

 

 

Des robots quadripèdes tout terrain

Imaginez une mule mécanisée capable de négocier un terrain rocheux, glisser sur la glace, se rire de la boue, se faufiler dans les sous-bois et grimper des pentes raides. Elle peut voir et éviter des obstacles, résister aux coups et aux chutes, suivre un homme ou s’en tenir à un parcours prédéfini, tout en transportant une charge de 50 kilos. Ce qui ressemble à une créature de roman de science-fiction existe bel et bien : il s’agit d’un robot évolué à quatre pattes appelé BigDog, qui a déjà été testé dans la campagne du Massachusetts, aux États-Unis.

Avec l’aide d’un financement de la DARPA (Defense Advanced Research Projects Agency ou agence pour les projets de recherche avancée de défense), dépendante du Pentagone, BigDog et son successeur de deuxième génération, LS3 (abréviation de Legged Squad Support System), ont été conçus et construits par Boston Dynamics, une petite entreprise de pointe à Waltham, dans la banlieue de Boston. La société emploie une équipe de 70 techniciens, ingénieurs et scientifiques, et est spécialisée dans la construction de systèmes robotiques doués de la mobilité, l’agilité, la dextérité et la vitesse des animaux et des êtres humains. Ses robots associent des systèmes de commande dynamiques de pointe et des conceptions mécaniques avancées. Son fondateur, Marc Raibert, ancien professeur au MIT, envisage une large gamme d’applications pour ses robots agiles, du transport de provisions aux missions de reconnaissance, de sauvetage et de lutte contre l’incendie en milieu accidenté.

Selon Marc Raibert, dans une dizaine d’années, les petits robots intelligents seront aussi banals que les jeeps : « Près de la moitié des terres émergées sont inaccessibles aux véhicules à roues et à chenilles. Mais hommes et animaux peuvent se déplacer presque partout à pied. » D’où l’idée de construire un robot qui se meut comme une créature vivante, qui détecte ce qui l’entoure, et qui peut courir, marcher et même sauter par-dessus les obstacles. «  Un tel robot à équilibrage automatique dynamique requiert des commandes informatiques de pointe et des conceptions structurelles et mécaniques avancées »  , explique Marc Raibert. « Il y a eu quelques robots à pattes dans le passé, mais BigDog et LS3 sont largement en avance en termes de comportement sur terrain accidenté et dans toutes sortes de conditions réelles ».

 Le robot Petman testera des vêtements de protection chimique

 Développé par une équipe d’ingénieurs et de chercheurs de Boston Dynamics, Bell Helicopter, AAI Corporation, Carnegie Mellon, the Jet Propulsion Laboratory, and Woodward HRT, LS3 devrait entrer dans sa phase de test à la mi-2012, au terme de trente mois de développement. Ce sera une version améliorée de BigDog : il aura une plus grande capacité de charge utile (près de 200 kg) et un rayon d’action à pied de 32 kilomètres en 24 heures avant ravitaillement. Il sera capable d’obéir à des ordres simples donnés par un homme, tels que « suis moi » ou « attend », qui peuvent être communiqués via un appareil portable. Si BigDog est muni de capteurs dans ses pattes pour détecter le terrain, son successeur, plus autonome,  pourra voir et s’orienter grâce à un GPS, un lidar, et un système informatisé de vision.

Les vérins hydrauliques, qui commandent les pattes des robots de Boston Dynamics, sont l’un des composants-clés assurant que ceux-ci se déplacent dans pratiquement n’importe quel environnement durant des heures. C’est en partie grâce à Trelleborg Sealing Solutions, qui a fourni à l’équipe de Marc Raibert des joints compacts haut de gamme en mélange de polytétrafluoroethylène (PTFE) pour les articulations de BigDog. « Les joints toriques normaux se détériorent rapidement et fuient. Nous avons donc proposé des joints résistants hautes performances qui répondent à leurs besoins », explique Don Esterly, l’un des responsables techniques de Trelleborg Sealing Solutions. « Ce chien mécanique marchant et courant était un projet inhabituel étant donné que ce type de joints est plus couramment utilisé pour le train d’atterrissage des avions et pour les équipements industriels », reconnaît-il.

Ce projet unique a poussé les deux entreprises à collaborer plus étroitement. Trelleborg fournit des joints haut de gamme pour le LS3 à venir et pour le dernier robot de l’entreprise, une créature humanoïde nommée « Petman ». Elle sera utilisée par l’armée américaine pour tester des vêtements de protection chimique. « Nous avons mis au point Petman, de la planche à dessin au robot qui marche, en huit mois seulement », affirme Marc Raibert.

Sur le tapis roulant du laboratoire, la dernière création de l’entreprise court déjà, déroulant son pied à partir du talon, comme un être humain.  

Un TMS dope le taux de service de France Air

Pour France Air, leader français de la conception et de la distribution de matériel aéraulique pour les bâtiments et les cuisines professionnelles, le service client est un véritable engagement. Dans cette optique, le spécialiste de la conception et distribution de systèmes de traitement d’air (ventilation, filtration, chauffage…) poursuit l’optimisation de son système d’information en recherchant la solution la mieux adaptée pour chaque « métier » de l’entreprise : logistique, comptabilité, transport… « Pour chaque activité, nous faisons le choix de solutions « best of breed » », indique Olivier Davoine, Directeur Supply Chain France Air. S’agissant du transport, la PME a choisi la solution DDS Shipper du leader français du TMS (Transport Management System), DDS Logistics.

L’organisation logistique France Air repose sur une plate-forme centrale à Beynost (12 000 m2) près de Lyon  et 13 comptoirs régionaux répartis dans toute la France. Ce schéma permet la distribution des produits fabriqués par ses fournisseurs, principalement dans l’hexagone et l’Europe de l’Ouest. Quotidiennement, 400 livraisons sont réalisées à destination de ses clients installateurs dans toute la France. Près de 80% de ces flux sont constitués de messagerie, monocolis et d’express. Des accords nationaux ont été passés avec de grands transporteurs pour ces flux. « Pour les lots, camions complets et livraisons directes des fournisseurs aux clients, nous devons affréter avec la complexité des points de livraisons sans cesse différents en fonction des chantiers », précise Olivier Davoine.

La mise en place de DDS Shipper permet désormais de gérer l’ensemble des flux aval et directs fournisseurs. La solution calcule les tarifs, affrète les transporteurs, envoie les ordres de transport, de groupage, édite le document en automatique… Interfacée en EDI avec ses plus importants transporteurs, France Air peut avoir une vision pertinente du trafic et des expéditions. La solution permet également de mesurer leur taux de service : « Avec DDS Shipper, nous avons une vision globale sur les prix et les prestations des transporteurs, la vérité des chiffres. Nous mesurons le respect de leurs engagements, sur le délai le plus court. Entre nos calculs et ceux des transporteurs, il pouvait y avoir une différence sensible. »

Outre l’automatisation des tâches, certaines fonctions, à l’instar de la « prise de rendez-vous » et « l’édition d’étiquettes codes-barres », s’avèrent désormais des avantages de poids dans le service client et la relation avec les transporteurs. La première permet de signifier au transporteur un impératif fort d’horaires sur la livraison : « Pour l’installation de matériels sur un chantier d’immeuble, des rues peuvent être bloquées. La fonction va donc alerter le transporteur sur le fait qu’il doit intervenir dans un créneau horaire défini », précise Olivier Davoine. La seconde fonction permet aux transporteurs de gagner du temps et de réduire les risques d’erreur de livraison. Posées sur le colis, au moment du chargement, des étiquettes avec code-barres, directement lisibles par les transporteurs, permettent de renseigner le type de flux (messagerie, express…), tout en intégrant le plan de transport avec les différentes étapes pour arriver à destination… « Avec ce système, les transporteurs n’ont plus à ré-étiqueter les colis sur leurs plateformes. Ils savent exactement quel chemin doit parcourir la marchandise. Cela leur fait gagner du temps et évite les erreurs. Certains transporteurs nous ont même proposé des rabais si l’on adoptait ce système avec eux », confie Olivier Davoine.

La prochaine étape concernera la mise en place du module Contrôle Factures. Une nouvelle brique pour améliorer le service client.
 

Une mousse de mélamine pour une acoustique optimale au théâtre

Suspendu entre les deux tours de la Phase 1 de Fusionopolis, un complexe de recherche et de développement situé dans le parc d’affaires One North de Singapour, le théâtre Genexis est l’oeuvre des cabinets d’architecture Arup et Woha. Sa structure totalement inédite, de forme ovoïde, lui a valu d’être récompensée par le prix « Design of the Year 2009 » au concours President’s Design Award. Il contient 560 fauteuils qui peuvent être agencés selon différentes configurations ou complètement retirés afin d’accueillir des conférences ou des événements professionnels.

L’acoustique de la salle et le confort d’écoute sont optimisés par l’utilisation de la mousse de spécialité Basotect de BASF, qui assure une insonorisation efficace. Les panneaux ignifuges de Basotect sont recouverts de molleton noir et installés derrière quelque 400 000 billes de bois qui épousent les murs incurvés du théâtre.

La mousse de mélamine Basotect participe à la qualité et à la clarté du son de ce théâtre design puisque, grâce à ses alvéoles ouvertes et à la finesse de sa structure expansée, elle absorbe le phénomène d’écho créé par les multiples répercussions du son sur les surfaces. Écho pouvant amplifier les sons jusqu’à couvrir la musique ou le discours, et perturber ainsi l’écoute du public. « Par son alliance intéressante de propriétés d’isolation thermiques et acoustiques, et compte tenu de la structure très particulière de ce théâtre aux murs lourdement doublés, Basotect était la solution la plus adaptée à ce projet par sa souplesse et sa légèreté, et la plus avantageuse aussi », indique S. Y. Ong, Directeur Général de VI-SON Acoustics, fournisseur des systèmes acoustiques du théâtre Genexis.

La mousse thermodurcissable Basotect offre un certain nombre de propriétés : sa matière de base la rend difficilement inflammable et abrasive, et elle peut s’employer jusqu’à 240°C en conservant ses propriétés sur une large fenêtre de températures. Du fait de sa structure alvéolaire ouverte, elle est légère (9g/l), insonorisante, flexible même à basse température et thermiquement isolante. En Asie, on retrouve Basotect dans de nombreux projets architecturaux, dont le Centre National Aquatique et le Grand Théâtre Hefei (Chine) ainsi que des stations de la ligne 9 du métro de Séoul (Corée). 

De l’énergie solaire pour extraire du pétrole ?

Alors que l’industrie pétrolière utilise habituellement le gaz pour l’extraction de l’or noir dans leurs champs pétrolifères, l’entreprise américaine GlassPoint, basée à Fremont en Californie, a eu l’idée de le remplacer par de l’énergie solaire, énergie captée par une centrale solaire thermique pour le moins originale.

Ces centrales se composent le plus souvent de plusieurs rangées de miroirs orientables et pilotables, faisant face à la course du soleil et concentrant les rayons du soleil sur un seul et même foyer, contenant de l’eau qui se trouve alors échauffée jusqu’à former de la vapeur. C’est cette vapeur qui permet l’extraction du pétrole, vapeur qui est le plus souvent obtenue à l’aide des gaz naturels.

La centrale imaginée par GlassPoint, dont le projet pilote, encore modeste, vient de voir le jour en janvier dans le comté de Kern (Californie), région concentrant 85 % des 43 000 puits de l’état et représentant 10 % de la production nationale, a la forme d’une très grande serre, dont la structure sert de support à de légers miroirs (ils sont habituellement lourds pour pouvoir résister au vent et aux tempêtes). Elle est gardée sous une pression plus élevée que celle de l’atmosphère, empêchant la poussière de rentrer et de salir les miroirs, et un robot les nettoie tandis que l’eau usée est récoltée puis réutilisée.

Ce procédé reste moins cher que d’utiliser le gaz naturel, tout en bénéficiant d’un meilleur bilan carbone, d’après GlassPoint. La vapeur produite coute 25 % moins cher que l’utilisation du gaz, sachant qu’une partie du prix du pétrole est forcément liée au prix de son extraction. La centrale pilote ne permet pas encore de prendre toute la mesure de l’économie réalisée, ainsi que de la réduction de l’impact écologique de cette technique, mais elle laisse augurer de futurs bons résultats pour ses futures grandes sœurs, de taille moins modeste.

Une solution de pointage en temps réel par téléphone mobile NFC

Filiale du groupe international Vebego, Carrard Services est aujourd’hui l’un des principaux acteurs français dans les métiers de la propreté. Pour certains de ses clients, la société a décidé de mettre en place une solution optimisant le processus de contrôle des prestations réalisées, à déployer à terme pour l’ensemble de ses salariés. Elle a donc lancé un benchmark afin d’étudier les différentes solutions existantes sur le marché. Partenaire de SFR pour tout ce qui touche à la télécommunication fixe et mobile, l’entreprise s’est tournée vers un conseiller qui lui a présenté la solution SaaS2B Remote Badging de P&T Consulting, qui est d’autre part une filiale de EPT Luxembourg.

Ce qui a retenu l’attention de Sébastien Biaudet, Directeur Informatique de Carrard Services, c’est tout d’abord l’étendue fonctionnelle de l’application. Le fait que le service soit proposé en mode SaaS (Software as a Service), avec un véritable modèle économique de paiement à l’usage, a été l’un des principaux arguments. Ainsi, ne nécessitant qu’un investissement de démarrage limité, l’un des atouts de SaaS2B Remote Badging est de permettre une montée en charge progressive du service, en fonction de son utilisation réelle sur le terrain.

Au-delà de l’aspect intuitif en termes d’utilisation, la plate-forme SaaS2B est appréciée par Carrard Services pour la sécurité qu’elle garantit. En effet, les données transitant via la plate-forme SaaS2B sont hébergées dans un data center au Luxembourg, filiale du groupe P&T, garantissant un fort niveau de sécurisation des données. « D’autre part, le fait que la plate-forme SaaS2B puisse être potentiellement déployée à l’international, nous intéresse également à long terme dans le cadre de notre stratégie de développement », ajoute Sébastien Biaudet.

Sécurité des salariés et service aux clients

Carrard Services a pu étudier différents modes de pointage depuis des pointeuses GPRS installées chez ses clients jusqu’à une solution de pointage par  téléphone mobile NFC. C’est cette dernière solution qui a été retenue par Carrard Services .

Chaque agent est équipé d’un téléphone mobile compatible NFC, enrichi d’une application spécialement conçue pour les besoins métier. Les clients sont identifiés par un badge NFC. Lors de son arrivée et de son départ, l’agent passe le badge à proximité du téléphone mobile. Les informations de début et de fin de tâche sont transmises à la plateforme SaaS2B, qui génère des alertes en cas d’anomalie de planning constatée. Les premiers retours des clients finaux et des utilisateurs sont positifs.

« De plus, l’ouverture de l’application qui, grâce à la communication par web-services s’accorde parfaitement avec les applications existantes, a été déterminante dans notre choix », commente Sébastien Biaudet. « En effet, pour nos clients il s’agit d’une grande avancée car nous sommes désormais en mesure de leur proposer plus de service et de sécurité pour les employés. En terme de service, nous avons aujourd’hui une démarche proactive vis-à-vis de nos clients lorsqu’un employé ne vient pas sur site par exemple, et c’est important aux yeux de nos clients. D’autre part, nous innovons également en termes de sécurité des salariés sur site, qui parfois sont amenés à travailler tard le soir dans les entreprises », déclare Sébastien Biaudet.

 

Des protections en silicone accroissent la fiabilité des faisceaux de câbles

Leader mondial de la connectique et des systèmes d’interconnexion aéronautique et défense, Amphenol a souhaité développer de nouveaux colliers de fixation P-Clamps pour les faisceaux de câbles les plus sensibles. La société a repris la même conception que ses colliers hautes performances d’origine fabriqués avec le polymère thermoplastique Victrex Peek . En revanche, un changement de dureté du silicone de protection des colliers a été opéré afin de réduire l’usure et le risque d’endommagement des câbles critiques comme les lignes de transmissions RF ou fibres optiques. « Pour ce type de faisceaux de câbles, utiliser une protection en élastomère plus souple associée au polymère thermoplastique Victrex Peek permet d’améliorer considérablement les performances globales et d’augmenter la durée de vie des nouveaux colliers de fixation P-Clamps comparativement à la génération précédente », affirme Tony Padula, Product Manager chez Amphenol. Et de poursuivre « Nous avons choisi ce thermoplastique pour sa résistance aux températures élevées et à la corrosion, et ses propriétés mécaniques et électriques. »

Les P-Clamps traditionnels maintiennent ensemble des câbles et/ou des fils électriques exerçant des forces inégales qui peuvent potentiellement causer des dommages importants et dégrader les performances électriques et/ou les impédances. La nature souple du silicone associée à la conception mécanique simple solutionne ces problèmes par leur action de protection autour des câbles.

Limitant ainsi les abrasions ou les pincements de fils, cela limite aussi considérablement l’usure des faisceaux. Cela est particulièrement important avec des câbles coaxiaux hautes performances, ou des câbles en fibres optiques ou/et hyperfréquences, particulièrement fragiles car pouvant se rompre durant les seules manipulations à l’installation. « Une fois intégré, l’élastomère souple va permettre d’assurer qu’il n’y a pas d’interruption de transmission de données ou de signaux », précise Tony Padula.

La capacité à lier correctement le silicone souple avec le polymère Victrex Peek est le résultat de plus de trente ans de développement technologique continu sur le surmoulage. Amphenol a développé son propre procédé de surmoulage du silicone pour fabriquer ces colliers à hautes performances, qu’on trouve également dans un large éventail d’applications dans la construction navale, l’industrie et la construction ferroviaire. Le point fort du procédé de surmoulage d’Amphenol réside dans la qualité de la liaison entre le collier plastique et son coussin de protection en élastomère silicone. Contrairement à ceux des colliers métalliques, les coussinets ainsi surmoulés ne peuvent pas se désolidariser ou glisser de leur support et réduisent le risque d’usure par abrasion des éléments fixés. En outre, leur tolérance en compression permet d’utiliser une même taille de collier pour différents diamètres de tubes ou faisceau de câbles. « Le process ne demande pas d’usage d’adhésif et le lien est ainsi plus fiable et plus cohésif », explique Tony Padula. « C’est pourquoi l’élastomère ne va pas se détacher du polymère, protégeant ainsi l’ensemble de toutes défaillances en cas de fortes vibrations ou de forts voltages. Le procédé scelle la protection en silicone au plastique. »

Fabriqué avec la même conception mécanique simple d’utilisation que les précédents P-Clamps hautes performances, les P-Clamps LDG sont équipés d’un système de verrouillage qui facilite et accélère leur montage. La fonction lock-open les maintient en position ouverte et la fonction lock-closed les maintient en position fermée. Pour insérer un faisceau de câbles ou une conduite dans le collier, au lieu de le tenir dans une main et d’insérer le faisceau ou la conduite de l’autre, le monteur peut ouvrir le collier, procéder à l’insertion et le refermer, le collier restant en place. Il lui suffit ensuite de solidariser l’ensemble à l’aide d’une vis. Libérant une de ses mains, le système facilite la vie de l’installateur. « Les nombreux tests démontrent que l’utilisation des P-Clamps LDG réduit les temps d’assemblage de 30% comparativement à des équipements traditionnels », rajoute Tony Padula. « La conception permet aussi de réduire les dommages causés au moment du montage. »

 

Atelier 62

Aux forges, atelier 62, réputé le plus dur de la Régie, le charron-forgeron-tonnelier normand asservit sa carrure et sa puissance à l’industrie automobile triomphante. L’existence de cet homme et de sa famille au moment clé du basculement d’un monde à l’autre et la restitution d’un temps fort de l’histoire du travail, dans toute sa violence, composent les deux veines du récit.

Voix d’enfance et voix d’usine mêlées, Atelier 62 n’est pas le travail d’une historienne, mais l’œuvre d’un écrivain, dont l’écriture empathique restaure un humble et ses semblables dans la dignité de leur travail et de leur vie.

Auteur : Martine Sonnet
Editeur : Le temps qu’il fait, 240 pages

Pour en savoir plus sur la mise en forme des métaux, voir la base documentaire Mise en forme des métaux des Editions Techniques de l’Ingénieur

Auteur : C.C.

Fabrication d’engrais verts à partir des résidus de méthanisation

Aujourd’hui, les digestats qui ne sont pas ou peu transformés, sont gérés comme des déchets (épandage ou enfouissement) ou très faiblement valorisés (compost) ce qui freine et limite le développement de la méthanisation en France. Associé aux unités de méthanisation, le procédé Enoferti développé par Akaeno, société d’ingénierie environnementale spécialisée dans la conception, la mise au point et la réalisation de solutions de bio méthanisation et de traitement de l’eau, optimise leur rentabilité.

Combinaison de plusieurs process technologiques spécifiques, le procédé Enoferti qui a fait l’objet d’un dépôt de brevet auprès de l’Institut National de la Propriété Industrielle, permet de fabriquer, à partir des résidus ultimes ou digestats de méthanisation, à une échelle industrielle, des engrais minéraux verts tels que le phosphate diammonique (DAP), des engrais minéraux binaires PK et des engrais minéraux azotés. Ces engrais qui répondent aux besoins spécifiques des sols agricoles et sont produits sans émission de gaz à effet de serre, sont normés et s’avèrent en tous points identiques aux engrais chimiques. De plus, fabriqués sur les sites de méthanisation à proximité des centres agricoles de production et de transformation, ce qui limite également les émissions de CO2 liées aux flux logistiques, ils diminuent la dépendance aux importations des produits nécessaires à la fabrication de tous les engrais minéraux.

« Le processus de méthanisation génère deux produits, le biogaz riche en méthane qui est valorisé en énergie et les résidus ultimes ou digestats qui, jusqu’à présent, étaient conditionnés avant d’être restitués aux sols via l’épandage, l’enfouissement ou le compostage. Avec cette nouvelle technologie, Akaeno, libère la méthanisation de ces contraintes. Ce procédé ouvre aux industriels de l’agro-alimentaire et aux acteurs du monde agricole de nouvelles perspectives environnementales pour le traitement de leurs déchets organiques »  déclare Isabelle Motte, Présidente de la société Akaeno.

Suppression des coûts liés à l’élimination des digestats

En rendant optionnels les plans massifs d’épandage et/ou d’enfouissement des digestats, la solution Enoferti répond aux problématiques des régions en excédents structurels et participera à la protection des nappes phréatiques ainsi qu’à une meilleure gestion des sols. Elle permettra également de favoriser le développement des filières de l’élevage pour tous les agriculteurs qui ne disposent plus des surfaces d’épandage nécessaires à leur expansion.

Cette solution améliore également la rentabilité des unités de méthanisation : les coûts, auparavant associés à l’élimination des digestats se transforment en produits via la commercialisation des engrais verts. Les régions agricoles qui disposent d’excédents d’engrais peuvent commercialiser leurs surplus et répondre aux besoins agronomiques des régions déficitaires.

Ce procédé industriel permet une plus grande liberté d’implantation géographique des unités de méthanisation qui ne sont plus dépendantes d’utilisateurs de réseaux de chaleur ni des contraintes réglementaires liées aux plans d’épandages. Aussi, la société Akaeno intègrera-t-elle ce procédé à tous les projets d’unités de bio-méthanisation qu’elle développe actuellement pour le compte de ses clients et de son actionnaire, le groupe SPTI.

La production française de biogaz : aujourd’hui et demain

Réalisée par le cabinet Ernst & Young pour le compte de l’Ademe et du distributeur de gaz naturel GrDF, l’étude du marché de la méthanisation et des valorisations du biogaz prend en compte les évolutions de contexte intervenues depuis 2004 tels que la revalorisation d’un tarif d’achat de l’électricité issue du biogaz (2006) et de l’avis favorable de l’AFSSET (aujourd’hui Agence nationale de sécurité sanitaire) sur l’injection de biogaz épuré dans les réseaux de gaz naturel (2008). Basée sur près de 40 entretiens avec des professionnels de la filière, elle dresse un état des lieux de la production et de la valorisation du biogaz ainsi que les perspectives d’évolution d’ici 2020.

En 2008, la France recense 481 sites de production de biogaz, dont 301 installations de stockage des déchets non dangereux (ISDND) et 180 installations de méthanisation. Ces dernières produisent près de 300 millions de m3 de biogaz en 2008, soit près du quart de l’énergie primaire issue de biogaz, les trois quart s étant fournis par les ISDND. Une grande partie du biogaz issu de la méthanisation est valorisée en électricité ou chaleur.

Les installations de méthanisation appartiennent à 90% aux secteurs de l’industrie et de l’épuration urbaine où elles ont connu une forte croissance depuis les années 1950. Le secteur des déchets ménagers, qui concentre peu d’acteurs, et le secteur agricole, qui se caractérise par des installations de méthanisation de petite taille, viennent renforcer le développement de la méthanisation en France depuis le début des années 2000. L’étude constate également l’émergence de la mutualisation des investissements dans des projets centralisés regroupant des déchets de diverses origines (agricoles, agroindustriels, ménagers).

Sans modification majeure du contexte politique et économique, l’étude anticipe un équilibrage entre les installations de méthanisation et les installations de stockage pour la production de biogaz. Ainsi à l’horizon 2020, 6 TWh seraient captés par les installations de stockage et 5,5 TWh seraient produits par les installations de méthanisation, soit pour cette dernière une multiplication par trois en 10 ans.

Pour atteindre cet objectif, l’étude Ademe-GrDF met en avant trois facteurs qui conditionneront le développement de la méthanisation :

  • la rentabilité des installations, qui pourra être augmentée notamment grâce à la revalorisation du tarif d’achat de l’électricité et à la création d’un tarif d’achat de biométhane ;
  • un retour d’expérience positif des secteurs qui investissent actuellement dans la méthanisation (celui des ordures ménagères en particulier) ;
  • une simplification des démarches administratives.

Si le développement global de la méthanisation dépend largement des politiques publiques, chaque secteur est spécifique et présente des perspectives différentes :

  • dans le secteur des ordures ménagères, 15 installations supplémentaires devraient voir le jour d’ici 2015. Le marché devrait ensuite croître de 1 à 3 installations par an jusqu’en 2020. Il s’agira principalement d’ordures ménagères résiduelles, et non de biodéchets collectés à la source, pratique moins développée ;
  • le secteur agricole, qui est encore au stade embryonnaire, devrait connaître une croissance de 5 à 20 unités par an en moyenne d’ici 2020. Toutefois, le dynamisme des acteurs de cette filière permettrait un développement beaucoup plus soutenu si les mesures financières incitatives mises en place étaient complétées ou renforcées ;
  • le secteur industriel étant soumis à de nombreux facteurs macroéconomiques, il est plus difficile d’évaluer son potentiel de développement. L’étude anticipe néanmoins une croissance de 1 à 5 installations par an d’ici 2020 ;
  • le secteur des stations d’épuration devrait connaître une croissance de 2 à 5 installations par an d’ici 2020, principalement sur des unités de petite taille.

Quant à la valorisation énergétique du biogaz, la tendance restera à la cogénération, technologie maîtrisée et connue des opérateurs de l’énergie, avec le développement probable de l’injection dans les réseaux de gaz naturel et l’émergence de la valorisation carburant, actuellement observé à l’échelle européenne.
 

Les compteurs de gaz vont être plus intelligents

À l’image des compteurs électriques voici quelques années, le relevé de la consommation de gaz commence également à évoluer, passant des compteurs mécaniques traditionnels à de nouvelles solutions électroniques sophistiquées intégrant des fonctions telles que le relevé automatique des compteurs (AMR). STMicroelectronics, un des premiers fournisseurs de circuits intégrés pour applications de relevés de consommation, évalue à environ 500 millions le nombre de compteurs de gaz mécaniques aujourd’hui en service dans le monde, et les principaux fournisseurs de gaz préparent actuellement des programmes de renouvellement de leurs parcs de compteurs par des modèles électroniques plus précis, plus fiables et plus efficaces.

STMicroelectronicset le japonais Omron, un des leaders mondiaux des technologies d’automatisation, annoncent leur collaboration afin de fournir une solution complète de capteurs pour mesurer et réguler le débit du gaz des compteurs de gaz électroniques. Ce capteur de mesure du débit que les deux sociétés ont développé est un composant clé pour la solution clé-en-main de compteurs de gaz intelligents que développe ST. Dans ces compteurs, des capteurs miniaturisés et des microcontrôleurs ultra-basse consommation sont associés pour collecter des données plus précises et plus fiables et les transmettre aux systèmes hôtes, lesquels fourniront aux particuliers des informations en temps réel sur leurs habitudes de consommation et les coûts associés, en vue de les aider à minimiser l’utilisation de ressources non-renouvelables.

Au cœur de cette coopération se trouvent un transducteur propriétaire développé par Omron et le circuit frontal analogique associé, conçu par ST. Ces technologies ont été intégrées dans un sous-système autonome complet. Le capteur de débit ainsi obtenu, qui intègre des technologies de micro-détection thermique MEMS (microsystèmes électromécaniques) de pointe, est intrinsèquement compensé pour des variations de température et de pression, tandis qu’un circuit embarqué compense la variation de la composition de gaz multiples. Ce capteur résiste à la poussière, conformément aux standards internationaux applicables aux compteurs de gaz.

Monté sur un circuit imprimé de petites dimensions (7,2 x 8,6 cm), le capteur de mesure de consommation de gaz assure un haut niveau de précision avec une très basse consommation, intègre des circuits de commande de moteurs pour le contrôle de vannes, ainsi qu’une protection contre les effets des vibrations et de la température. Le circuit imprimé comprend un microcontrôleur ST ultra-basse consommation avec 32 Ko de mémoire Flash et un circuit de commande d’affichage à cristaux liquides, un capteur de température, un accéléromètre et une horloge temps réel ainsi que des systèmes de commande de moteur et de gestion de l’alimentation.

« Alors que la demande pour des compteurs de gaz plus intelligents commence à décoller, cette collaboration avec Omron nous permettra de répéter le succès obtenu sur le marché des compteurs électriques intelligents » déclare Benedetto Vigna, Group Vice President et Directeur Général de la division MEMS Sensors & High Performance Analog de STMicroelectronics, ajoutant que ce kit de mesures permettra aux fabricants de compteurs de réduire considérablement leurs coûts d’achat et d’accélérer la mise sur le marché de leurs produits.