La physique quantique au service de la cryptographie

Des chercheurs de l’Université Libre de Bruxelles (ULB) ont conçu un nouveau type de générateur de nombres aléatoires, pour des communications sécurisées et d’autres applications, qui est cryptographiquement sûr et dont le caractère aléatoire est certifié par les lois de la physique quantique. Bien que les événements qui nous entourent puissent sembler fortuits et inopinés, aucun d’entre eux n’est réellement aléatoire au sens où on ne pourrait pas les prédire même avec suffisamment d’information. Le vrai hasard, en effet, est presque impossible à trouver. Cette situation est une source constante de préoccupation pour les cryptographes qui doivent utiliser de longues suites de nombres aléatoires comme « clefs » pour coder et décoder des données et messages sensibles.En pratique, ils font appel à divers algorithmes mathématiques appelés  » générateurs de nombres pseudo-aléatoires  » pour tenter de s’approcher de l’idéal. Mais ils ne peuvent jamais avoir la certitude que le système est invulnérable à des adversaires ou qu’une suite en apparence aléatoire ne soit pas, en fait, prévisible d’une manière ou d’une autre.

Une méthode certifiée par les principes de la physique quantique
Stefano Pironio et Serge Massar de l’ULB, Laboratoire d’Informatique quantique-Faculté des Sciences, en collaboration avec une équipe de chercheurs européens et américains, viennent cependant de démontrer une méthode qui permet de produire une suite de nombres dont le caractère aléatoire peut être certifié par les principes de la physique quantique (leurs résultats dans dont parus dans la revue Nature du 15 avril). » Au sens strict, l’aléatoire véritable n’existe pas en physique classique, explique Stefano Pironio. C’est-¬à-dire, le résultat de tout processus basé sur la physique classique peut au bout du compte être déterminé si suffisamment d’information sur les conditions initiales est disponible. Seuls les processus quantiques sont véritablement aléatoires. Et encore, il faut pouvoir s’assurer que le système est réellement quantique et débarrassé de tout bruit  » pseudo-aléatoire  » classique. « En physique quantique, la théorie de la matière et de l’énergie aux échelles les plus petites, les propriétés d’un objet (comme la position d’un électron ou la polarisation d’un photon) peuvent être fondamentalement indéterminées. Bien que la probabilité qu’propriété particulière prenne une valeur ou une autre puisse être calculée à l’avance, cette propriété ne prend une valeur bien définie qu’au moment où elle est mesurée – et cette valeur est intrinsèquement aléatoire. En théorie, on pourrait donc obtenir une suite de nombres aléatoires en faisant une séquence de mesures quantiques indépendantes les unes des autres. » Mais comment pouvez-vous être certain que ce dispositif produise vraiment des nombres aléatoires ?, demande Serge Massar.  L’appareil pourrait connaître une défaillance inattendue et non-détectée. Les nombres qu’il produit pourraient continuer à vous sembler aléatoires, mais à cause de la défaillance, être en fait complètement prévisibles par un adversaire ingénieux. Ou pire encore, au lieu d’un générateur quantique authentique, quelqu’un aurait pu vous vendre un dispositif avec une mémoire remplie de nombres générés à l’avance. La sortie d’un tel appareil serait probablement considéré comme aléatoire au regard de tous les tests existants. Mais quelqu’un possèderait malgré tout une copie de tous les nombres « .

L’idée de départ : une invention de John Bell, en 1964
Les chercheurs de l’ULB cependant ont conçu une procédure qui garantit la présence de mesures quantiques réellement aléatoires, générées seulement – et exclusivement – à un endroit et un temps donnés. Leur proposition repose sur une invention faite par le physicien John Bell en 1964 pour tester une des hypothèses centrales de la physique quantique : le fait que deux objets puissent se trouver dans une condition étrange appelée « intrication », dans laquelle leurs états sont tellement interdépendants que si une mesure est faite pour déterminer une propriété d’un objet (mesure qui donnera bien sûr une valeur aléatoire), alors la propriété correspondante de l’autre objet est instantanément déterminée , même si les deux objets sont séparés par une distance si grande qu’aucune information ne peut se propager entre eux après qu’une mesure ait été faite sur le premier objet.De nombreux physiciens, y compris Albert Einstein, trouvèrent cette notion inacceptable, argumentant plutôt qu’un tel processus doit faire intervenir des variables cachées qui donnent aux objets des propriétés bien déterminées avant la mesure. Faute de quoi, une mesure purement locale sur l’objet 1 devrait avoir un effet instantané, non-local, sur l’objet 2. Un phénomène qu’Einstein rejetait comme « une action fantomatique à distance ».

Vers un tout nouveau type de générateur de nombres aléatoires
Pendant 30 ans, la question resta ouverte sans possibilité convaincante de la tester expérimentalement. Puis, Bell proposa une méthode révolutionnaire impliquant d’évaluer les corrélations entre des mesures faites sur deux objets lorsque les appareils de mesures sont tournés suivant plusieurs orientations différentes. Bell montra mathématiquement que si les objets ne sont pas intriqués, leurs corrélations doivent nécessairement être inférieures à une certaine valeur, exprimée comme une « inégalité ». S’ils sont intriqués, par contre, le taux de corrélations peut être plus élevé, « violant » donc l’inégalité. Au cours des dernières décennies, différents types de test de Bell ont confirmé la violation de ces inégalités, et donc le caractère non-local de la physique quantique. » Le point important est que la violation d’une inégalité de Bell est possible uniquement si on mesure des systèmes véritablement quantiques « , explique Stefano Pironio.  » Par conséquent, si nous observons une violation d’une inégalité de Bell entre deux systèmes isolés, nous pouvons être sûrs que notre appareil a produit de l’aléatoire authentique et ceci indépendamment de toute imperfection expérimentale ou détail technique. Mais pour transformer cette intuition de départ en quelque chose de concret, nous devions quantifier la quantité d’aléatoire réellement produite et déterminer si cet aléatoire est sûr dans un contexte cryptographique. » C’est le problème théorique que Stefano Pironio et Serge Massar ont abordé avec leurs collègues. Ils ont établi un lien quantitatif entre la violation des inégalités de Bell et la quantité d’aléatoire produite dans une expérience, ouvrant ainsi la voie à un tout nouveau type de générateur de nombres aléatoires à la fiabilité et à la sécurité sans précédent.

Pour la première fois, l’aléatoire véritable a été produit dans une expérience
L’article dans la revue Nature rapporte une démonstration expérimentale de cette idée, réalisée à l’Université de Maryland. Cette expérience est la première à violer une inégalité de Bell avec des systèmes séparés par une distance significative sans manquer aucune détection, une condition nécessaire pour appliquer ces résultats théoriques. Les expérimentateurs ont placé deux atomes uniques, chacun dans une enceinte complètement isolée et séparée de l’autre par 1 m. Ils ont ensuite intriqués ces atomes en utilisant une méthode désormais familière basée sur des photons uniques voyageant entre les atomes. Chaque fois qu’ils obtenaient un état intriqué, les chercheurs tournaient chaque atome sur leur axe et prenaient une mesure de la lumière émise par ceux-ci. Les valeurs recueillies étaient ensuite utilisées pour générer un nombre binaire.Les chercheurs ont effectué plus de 3000 intrications consécutives au cours d’un mois environ, ce qui leur a permis de confirmer la violation d’une inégalité de Bell et de générer à travers le processus une suite de 42 nombres binaires aléatoires et secrets avec une confiance de 99 %. En conséquence de quoi, ils écrivent dans Nature « nous pouvons, pour la première fois, certifier que de l’aléatoire véritable a été produit dans une expérience sans aucun modèle détaillé du dispositif ». Autrement dit, la conclusion ne repose que sur le fait d’avoir réussi à intriquer et mesurer des objets quantiques, mais aucunement sur la manière particulière dont l’intrication a été obtenue. » Le taux de génération de bits aléatoires est extrêmement faible « , commente Chris Monroe, qui dirigea l’équipe expérimentale.  » Mais nous nous attendons à des améliorations de plusieurs ordres de grandeur dans les prochaines années au fur et à mesure que nous intriquons plus efficacement des atomes, peut-être en utilisant des systèmes quantiques implantés dans des puces à semi-conducteurs . Dans le futur, conclut-il, de tels systèmes pourraient être déployés pour un type plus sûr de cryptage des données. »

R et D : panorama et tendances d’une fonction en transformation

Premier constat de l’enquête de PricewaterhouseCoopers sur « l’innovation et la performance de la RetD » élaborée fin 2009 sur la base d’une trentaine entretiens qualitatifs avec des responsables et dirigeants R&D complétés par des analyses d’experts de PricewaterhouseCoopers, l’innovation dans l’entreprise connaît une véritable transformation. La R&D est désormais au cœur de l’organisation et des dispositifs pour profiter de la reprise économique est en pleine rationalisation.Les dirigeants sont convaincus que l’innovation sera un facteur clé de la capacité de l’entreprise à rebondir après la crise. Si les budgets RetD n’ont pas diminué (+ 8,1 % au niveau européen en 2009 selon le Centre de Recherche de la Commission européenne), la crise a conduit les fonctions RetD à reconsidérer leur processus d’innovation particulièrement en matière de sélection de projets. « Les départements RetD sont contraints à intégrer plus fortement l’efficacité opérationnelle au cœur de leur approche. Ceci les conduit à optimiser leur portefeuille de projets et à adopter des organisations qui favorisent la réactivité et l’agilité face aux incertitudes des marchés » déclare Jean-Christophe Saunière, associé, PricewaterhouseCoopers.La rationalisation se traduit par une réorientation des efforts dans le domaine de l’innovation incrémentale (amélioration linéaire des produits ou services) et de l’innovation de productivité. Les deux tiers des responsables interrogés dans le cadre de l’enquête estiment que leurs investissements répondent à un objectif d’optimisation de leurs produits existants. La quasi-totalité des acteurs souhaite développer en priorité des produits pour leur base client ou leur marché existant.Par ailleurs, la RetD s’ouvre à son écosystème au sein de l’entreprise et confirme sa collaboration avec des partenaires externes. En interne, la RetD se rapproche des fonctions proches du marché (marketing, vente et stratégie). Cette nouvelle place de la RetD au sein de l’entreprise est néanmoins freinée par la difficulté à mutualiser les ressources, la complexité des processus de décision ou encore des enjeux de capitalisation et de partage des connaissances. Vis-à-vis de l’externe, tous les acteurs interrogés s’accordent à reconnaître le développement des stratégies d’Open Innovation. Les entretiens menés par PricewaterhouseCoopers révèlent néanmoins des difficultés à la mise en oeuvre de ces stratégies. Pour plus de la moitié des sociétés, la gestion de la propriété intellectuelle porte le risque le plus critique. La sécurité des données, les difficultés culturelles et les enjeux de gouvernance sont également cités. Selon Jean-Christophe Saunière, « la mise en place d’une stratégie d’Open Innovation doit avant tout reposer sur des objectifs stratégiques clairs, un modèle de gouvernance cohérent et une gestion efficace de la propriété intellectuelle ». Le développement des outils collaboratifs permettra de répondre en partie à ces enjeux d’organisation. Les responsables R&D identifient à ce titre deux leviers, qui devraient être particulièrement impactant dans les années à venir : l’émergence de communautés de recherche, internes ou élargies ainsi que le développement de mode de collaboration interactive.

Ressources humaines et indicateurs de performance : deux enjeux majeurs des responsables RetD
Le premier enjeu des responsables RetD réside dans la gestion et la fidélisation de ses talents.Pour plus de la moitié des entreprises interrogées, les équipes RetD sont recrutées au sein de leur secteur d’activité. Elles ont traditionnellement une logique « sédentaire » avec une faible mobilité vers les autres fonctions ou au sein du secteur dans lequel elles évoluent. La diversification des talents est citée par les acteurs comme un enjeu clé d’une meilleure efficacité. Selon Jean-Christophe Saunière « les entreprises ont mis en place des démarches pour favoriser la mobilité des collaborateurs en interne, à l’international ou par le biais de logiques de collaboration avec leur environnement. Mais ces efforts sont encore trop faibles compte tenu de l’importance de cet enjeu. L’ouverture à de nouveaux profils est encore trop peu pratiquée ». Le deuxième enjeu des dirigeants RetD est celui des indicateurs de performance. Selon l’enquête de PwC, le revenu issu des nouveaux produits est l’indicateur le plus fréquemment utilisé par l’ensemble des entreprises. Néanmoins cet indicateur est un outil d’appréciation de la performance passée. Il se prête mieux à des industries à cycle long et n’est pas adapté à un pilotage dynamique de la RetD. Le « Time to market », la satisfaction client, le pilotage par le ROI ou le nombre de brevets déposés sont également couramment utilisés mais ne permettent pas d’apprécier et de piloter de manière réactive les leviers de création de valeur de la R&D. Selon Jean-Christophe Saunière « la RetD doit se redéfinir comme un centre de profit. Plusieurs pistes sont à explorer pour identifier la valeur de la contribution de la RetD à l’entreprise par exemple la valorisation des brevets dans le produit fini, le nombre de brevets exploités par rapport au nombre de brevets déposés ou encore l’apport en valeur des partenariats. Cela nécessitera un changement culturel important, mais indispensable pour mesurer la performance de la fonction au sein de l’entreprise. La RetD a déjà entamé sa mutation. L’enjeu est aujourd’hui d’intensifier son intégration au sein même de l’entreprise pour jouer à plein un rôle moteur dans la sortie de crise ».

LRP La Palette Rouge mise sur le vert

LRP (Logistic Packaging Return LPR), qui a retrouvé son nom d’origine LRP La Palette Rouge, a mené ces dernières années une réflexion en termes de développement durable et engagé différentes démarches en ce sens. Il a réalisé, sous le contrôle de l’ADEME, un bilan carbone pour évaluer les émissions de gaz à effet de serre générées par son activité au niveau européen (fabrication, gestion des dépôts, déchets, transports, etc.). L’objectif est tout à la fois d’anticiper les évolutions réglementaires, d’initier une démarche développement durable, et de comparer les émissions de différents systèmes de gestion de palettes (location- gestion et échange) et les matériaux utilisés pour la fabrication de celles-ci (bois et plastique).Les conclusions de cette étude sont claires : la palette en bois gérée en pool émet moins de gaz à effet de serre que le système d’échange de palettes ou la palette plastique :

  • par rapport au système d’échange : la gestion en pool émet environ 50 % de gaz à effet de serre en moins, grâce à une meilleure organisation du transport ;
  • par rapport à la palette plastique : l’écart est beaucoup plus important encore. En effet, le plastique est fabriqué à base de pétrole et la fabrication d’une palette plastique est, de plus, très énergivore.  » On parle souvent des palettes plastiques et de leurs avantages écologiques en évoquant la possibilité de les recycler. Ceci est totalement erroné car on ne tient pas compte de l’énergie nécessaire pour fabriquer une palette plastique « , explique Torsten Wolf, Président de LPR. La fabrication d’une palette plastique émet près de 20 fois plus de gaz à effet de serre que celle d’une palette bois ! L’étude le démontre : le bois est le seul matériau avec un bilan carbone à zéro. Un arbre absorbe autant de gaz à effet de serre pendant sa croissance que le bois de la palette en émet pendant toute sa durée de vie. A une condition : le bois utilisé pour la fabrication des palettes doit provenir d’une exploitation forestière durable ! « 

Forte de ce constat, La Palette Rouge a engagé une démarche pour faire certifier PEFC (Programme for the Endorsement of Forest Certification) ses activités La Palette Rouge est aujourd’hui la seule société du secteur de la location-gestion de palettes à avoir obtenu cette certification qui est valable pour 5 ans. Elle lui permet d’offrir une prestation qui garantit des palettes fabriquées à partir de bois issu de forêts gérées de façon durable. On entend par gestion forestière durable, une utilisation et une exploitation des forêts qui respecte et favorise le maintien de la biodiversité et de leur capacité de régénération. L’objectif est de  » maîtriser les effets écologiques, économiques et sociaux des activités humaines sur les forêts et d’en préserver les ressources. »

Même les prestataires sont impliqués

L’obtention de la certification PEFC répond à un processus rigoureux. Le bois doit provenir d’une forêt certifiée. Une chaîne de contrôle est mise en place dès la récolte et à toutes les étapes, de la chaîne de transformation jusqu’au produit final pour s’assurer de l’application des règles PEFC. L’adhérent est tenu d’adapter la gestion de ses approvisionnements et sa chaîne de fabrication à ces exigences. Torsten Wolf résume :  » Concrètement, une palette locative est certifiée PEFC si son bois provient d’une forêt certifiée PEFC, passe entre les mains d’un scieur certifié PEFC, d’un fabricant certifié PEFC et enfin d’un loueur de palettes certifié PEFC. « La Palette Rouge a dû revoir ses processus internes et mettre en conformité son réseau de prestataires. Les fabricants de palettes LPR ont tous été invités à adhérer au programme PEFC.  » Nous avons largement contribué à la récente vague de certifications chez les fabricants de palettes « , explique Torsten Wolf. Les bois de réparation utilisés dans son réseau de dépôts font eux aussi l’objet d’un contrôle strict.  » Nous avons mis en place des procédures internes de suivi et d’audit des fabricants et des dépôts. À tout moment, nous pouvons valider la conformité avec les exigences PEFC, insiste Torsten Wolf. La gestion durable du bois de palettes, beaucoup en parlent dans notre secteur sans aller jusqu’au bout de la démarche. La Palette Rouge ouvre la voie. Nous sommes les premiers à être certifiés PEFC. Désormais, les clients de LPR peuvent bénéficier d’un transfert de crédit PEFC pour les palettes mises à leur disposition « , souligne-t-il.Après la fabrication, le transport des palettes est le deuxième poste qui pèse dans le bilan carbone. La Palette Rouge privilégie de plus en plus l’aménagement de centres de traitement de palettes à proximité ou au sein même des sites de ses clients pour limiter les distances parcourues. Priorité également à la mutualisation des transports. LPR dispose d’une cellule transport qui lui permet d’identifier, en étroite collaboration avec ses clients, les opportunités de mutualisation des transports. Un même transporteur peut ainsi livrer des palettes d’un dépôt LPR vers l’usine du client, y charger des produits finis et approvisionner, lors de son retour au dépôt, un entrepôt de la grande distribution situé à proximité.  » L’objectif est de réduire au maximum les retours de camions à vide, pour nous comme pour nos clients « , explique Torsten WolfLa Palette Rouge implique ses prestataires dans sa démarche. Outre la certification PEFC obtenue par un bon nombre d’entre eux sur son initiative, des plans d’action sont mis en place afin de réduire les émissions de gaz à effet de serre au niveau local. Organisation des dépôts, efficacité des moyens de transport, consommation d’énergie… tout est pris en compte. Certains prestataires investissent ainsi dans l’énergie solaire ; d’autres renouvellent leurs chariots élévateurs avec des modèles moins gourmands en énergie ou commencent à utiliser des biocarburants.

Par Marc Chabreuil

La première OLED flexible d’éclairage au monde

Depuis 2007, les chercheurs et les équipes de développement de produits de GE Lighting à Cleveland, en partenariat avec Konica Minolta Holdings, Inc., Konica Minolta Technology Center, Inc. et le Centre de recherches mondial de GE à Niskayuna (New York), travaillent ensemble sur la technologie des diodes électroluminescentes organiques (OLED). Le partenariat technologique de GE avec Konica Minolta a permis aux ingénieurs de GE de profiter de la technologie film mince de Konica Minolta qui joue un rôle important dans le développement d’OLEDs hautes performances.Konica Minolta a été la première société à développer des matières phosphorescentes bleues. En 2006, elle a combiné cette matière avec la conception de film à plusieurs couches et des technologies de design optiques pour développer des OLEDS blanches. L’expérience de Konica Minolta dans la fabrication de matériel photosensible et des revêtements, a permis le développement d’un procédé de revêtement hautement automatisé en rouleau utilisant des films considérés comme indispensables pour prolonger la durée de vie des systèmes d’éclairage OLED. Cette approche, semblable à l’impression d’un journal, est moins coûteuse que la méthode conventionnelle d’évaporation qui forme des couches une par une sur un substrat en verre (les quelques produits électroniques organiques disponibles sur le marché sont issus de procédés de traitement conventionnel par lot et à des coûts relativement élevés).

Les OLEDs, légères et peu énergivores
Konica Minolta voit l’éclairage par la technologie OLEDs comme l’une de ses nouvelles activités parmi les plus prometteuses. En conséquence de quoi il a commencé la construction d’une ligne pilote en novembre dernier, en vue d’une capacité de fabrication en série, qui sera complétée durant l’automne 2010. L’année prochaine, une usine utilisant le procédé de fabrication en rouleau permettra la production à haute cadence de systèmes très performants et à un moindre coût. Elle permettra à GE de commercialiser des panneaux de différentes tailles sur une base de 75 x 150 mm, ce qui devrait entraîner une explosion du marché des OLEDs qui sont à la fois sans mercure, légères, peu énergivores et fonctionnement avec un variateur. GE a travaillé avec certains concepteurs d’éclairage renommés, d’architectes et de graphistes, y compris Fisher & Kennedy, pour s’assurer que ses premières solutions OLED constituent une réelle solution d’éclairage. Selon Sheila Kennedy, Responsable de Kennedy & Violich Architecture, Ltd., « la technologie OLED présente un nouveau matériel d’éclairage qui fait appel à nos sens, notre créativité et notre environnement. Imaginez une source de lumière blanche, efficace sur le plan énergétique, qui peut être produite avec une faible empreinte carbone et qui peut être utilisée pliée dans des structures d éclairage légères ou intégrée dans les surfaces d une architecture».Marc CHABREUIL

La qualité au centre des projets de développement informatique

Plus que jamais, s’appuyer sur des infrastructures informatiques pérennes et robustes constitue un élément stratégique pour les entreprises comme pour les administrations. L’on constate pourtant que nombre d’entreprises déplorent une qualité médiocre des développements réalisés et investissent des sommes considérables pour pallier à cette problématique. Ce constat est particulièrement évident lorsque qu’il s’agit d’une application stratégique, pouvant impacter fortement les performances ou la qualité de service d’une entreprise. En ce sens, le pilotage de la qualité doit s’imposer comme une donnée incontournable. Ce processus complexe doit être mené tout au long du cycle de développement afin de porter ses fruits et d’éviter les dérives. Il est donc important d’apporter aux entreprises et aux administrations la réponse la plus efficace possible afin de piloter et d’optimiser la qualité des développements informatiques.

Des critères technologiques et organisationnels

A ce stade, il est nécessaire d’associer un certain nombre de paramètres complémentaires afin de donner du sens à ces projets de pilotage. Il est en effet primordial de prendre en compte des critères purement technologiques, mais également organisationnels et relatifs à la gestion de projet. C’est en prenant en compte toutes ces données que l’on peut garantir un pilotage de la qualité.En pilotant la qualité d’un projet en temps réel et en continu, il est donc possible d’éliminer les erreurs et les problèmes qui vont à la fois impacter fortement le fonctionnement de l’application et contribuer à biaiser les développements futurs. L’objectif est d’identifier, au plus tôt, les problèmes de développement afin de limiter leurs impacts techniques et financiers ! N’oublions pas que revenir sur un développement dans le temps est particulièrement chronophage et consommateur de ressources humaines et financières.Piloter la qualité d’un projet informatique revient donc à prendre en compte de nombreux paramètres complémentaires : la maintenabilité, la fiabilité, l’évolutivité, la sécurité, la transferabilité et l’efficacité de la solution ou des développements. De plus, il est important de s’appuyer sur des faits concrets issus de l’analyse automatique du code source de l’application, de son architecture et des résultats des tests pour proposer des axes d’amélioration qui répondent aux enjeux du projet ou aux problèmes perçus.L’on notera également que le pilotage de la qualité doit permettre aux entreprises de structurer leur approche du développement et de mettre en place des règles de qualité plus strictes pour tous les nouveaux développements. Le management est en effet une composante clé à ne pas sous-estimer. Enfin, n’oublions pas que pour être efficace, le pilotage de la qualité doit être intuitif et lisible par différentes populations (technique et management). Les résultats doivent être restitués sous forme de tableaux de bord, proposant une vision claire et compréhensible avec des analyses qualitatives et quantitatives complètes. Cela permet alors de partager la vision de la situation entre tous les acteurs du projet.Il est donc crucial de piloter la qualité d’un projet informatique dès son lancement. En mettant en place un tel dispositif, les entreprises éviteront les traditionnelles dérives souvent constatées et proposeront un cadre de développement normalisé, qui leur permettra de gagner en productivité et en qualité. Par Marc Rambert, président et co-fondateurs de Kalistick

La transitique, élément clé de la chaîne logistique

Stocker dans un centre de distribution de seulement 2.300 m² quelque 1.200 jeux vidéo différents et préparer quotidiennement 400 envois représentant 4 000 cartons a exigé la conception et la mise en œuvre d’un concept de transitique offrant un encombrement minimal et une productivité maximale. Plusieurs concepts de convoyage ont été appliqués.Tout ce qui a une place et un nom dans l’univers du jeu numérique, du dernier jeu sorti à l’accessoire comme la pochette de console pour ceinture, se retrouve ici à portée de main dans le centre de distribution de Game, à Paris Saint Denis. Sur 2.300 m², pas moins de 1.200 articles, tous bien rangés sur deux étages, attendent d’être expédiés très rapidement vers des clients particuliers ayant commandé via le site Internet et l’un des 200 magasins français de Game du groupe Game Group Plc, leader européen dans la vente au détail de jeux vidéo et d’ordinateur.Les jours de pointe, pas moins de 400 envois, représentant 4.000 cartons, peuvent quitter le centre de distribution de Saint-Denis, principalement sous forme de palettes de cartons d’un poids unitaire maximal de 20 kg. La préparation des commandes commence dès 7h00. Le dernier camion sort du centre de Saint Denis à 16h30 pour que tous les produits commandés avant midi puissent arriver à destination avant le lendemain midi.

Un encombrement minimal et une productivité maximale
Le concept de transitique du centre de distribution, conçu et installé par Game et l’intégrateur de système Actemium, filiale du groupe Vinci Energies, constitue un élément clé de la chaîne logistique. « La réussite du projet est le fruit d’une collaboration efficace dans la recherche et la mise en œuvre de solutions de haute technicité permettant un encombrement minimal et une productivité maximale » précise Rémi Guigas, Responsable d’Affaires chez Actemium. « Les solutions de convoyage Interroll ont contribué idéalement à la réalisation du concept de transitique de faible encombrement que nous avons développé en partenariat avec Actemium », complète Thierry Roche, Directeur logistique Game à Paris.L’architecture des lignes de préparation de commandes du centre de distribution Saint Denis repose sur des sections de convoyage Interroll équipées de RollerDrives EC100 (rouleaux moteurs) et de rouleaux de manutention de Séries 1.700 et 1.100. Les deux concepts de convoyage sont mis en œuvre : d’une part, des sections de convoyage sans entraînement pour la préparation des commandes au rez-de-chaussée et au premier étage (mezzanine) et, d’autre part, des sections de sortie sans pression d’accumulation entraînées par des RollerDrives EC100 pour les cartons étiquetés et préparés prêts à l’envoi. Ceux-ci sont ensuite transférés vers la zone d’expédition, où ils sont directement chargés sur un convoyeur télescopique munis de rouleaux de manutention Interroll jusque que dans les camions.La zone de préparation des commandes du rez-de-chaussée prépare principalement les gros volumes des tous derniers jeux destinés aux magasins Game, tandis que toute la gamme de produits est préparée pour l’expédition au premier étage. On y retrouve également un département spécifiquement consacré aux commandes Internet.Pour faire face à la croissance du marché en dépit de l’espace limité offert par le centre de distribution, Game a réussi à optimiser ses déchets de manière impressionnante. Ainsi, les cartons à jeter ne sont plus empilés dans des conteneurs à claire-voie mais acheminés vers un broyeur de carton grâce à trois sections de convoyage à bande suspendues au plafond. Pour le changement de direction, chacune de ces lignes déchets dispose d’une courbe à bande Interroll intégrée permettant une économie d’espace. Game récupère ainsi astucieusement la place consacrées aux conteneurs à claire-voie, tire profit de l’espace jusqu’à présent inexploité grâce aux lignes de déchets installées en hauteur (les cartons vides étant jeté vers le haut d’un simple geste de la main) et peut se débarrasser des cartons passés par le broyeur de manière plus compacte.Dans le cadre d’une optimisation des performances, ce centre devrait fusionner avec deux autres unités pour donner naissance à un centre de distribution plus important, sur un seul site, en fonction du projet d’extension planifié par Thierry Roche.Marc CHABREUIL

Sécurité accrue des véhicules roulant au CNG grâce à un polycétone

En quête d’améliorations significatives, un équipementier coréen, leader des systèmes moteurs, fait désormais appel à un polycétone de Victrex Polymer Solutions pour des pièces utilisées dans les soupapes d’admission de ses régulateurs de gaz naturel comprimé (CNG), jusqu’alors fabriquées en métal.Les précédentes envolées des prix des produits pétroliers, les faibles prix du gaz naturel comprimé (CNG ou Compressed natural gas) et les contraintes environnementales ont entraîné une forte demande en carburants alternatifs. Un contexte qui fait du CNG une solution de plus en plus attractive et de plus en plus utilisée, notamment en Allemagne où 800 stations sont déjà équipées de pompes CNG. Répondant aux attentes écologiques des automobilistes, les automobiles au CNG apparaissent comme des voitures populaires et sûres. Toutefois, cette solution technologique présente des particularités. Notamment les différences de pression auquel le gaz naturel comprimé est soumis. Alors que le CNG est stocké dans le réservoir sous 200 bar, sa pression, lors de la combustion, monte jusqu’à 600 bar. Par ailleurs, placé dans le réservoir, le régulateur doit contrôler continuellement la pression du gaz dont la température oscille entre -40°C et 120°C tout en préservant ses propriétés et sa fonctionnalité. Enfin, soumises à des mouvements rapides, les soupapes doivent résister à cette combinaison de contraintes sous peine de risques de fuite élevés. Connaissant ces conditions de fonctionnement, un équipementier coréen a, dès la phase de conception, cherché un matériau susceptible de résister dans le temps à des charges importantes et ne risquant pas de se fragiliser aux basses températures. Il lui est apparu que seul le polymère VICTREX PEEK de Victrex Polymer Solutions (une division de Victrex plc) est capable de supporter cet environnement car les polycétones ne perdent de leur rigidité qu’à des températures encore plus élevées que la plage de fonctionnement des soupapes. De plus, ils sont résistants à l’humidité contrairement à d’autres polymères comme les polyamides. Autres avantages : leur haute résistance chimique et à la fatigue démontrée par des essais de 5000 heures à plus de 150°C. Enfin, l’entreprise coréenne a choisi ce matériau pour sa forte résistance à l’usure, un atout compte tenu des charges dynamiques auxquelles les pièces sont soumises.En plus de satisfaire pleinement aux exigences technologiques des véhicules au gaz naturel, le VICTREX PEEK est également tout à fait adapté pour répondre aux conditions requises pour les systèmes fonctionnant au gaz de pétrole liquéfié GPL (propane/butane – aussi appelé GPLautogaz) ainsi que pour ceux alimentés biocarburants. L’équipementier automobile va, dans un proche avenir, utiliser le VICTREX PEEK pour des rampes de distribution de carburant. En effet, les matériaux traditionnels offrent des performances insuffisantes en termes de combinaison de résistance aux très hautes températures et à l’utilisation de nouveaux carburants tels le FAM A (50 % de toluène, 30 % d’isooctane , 15 % diisobutylène et 5 % de méthanol), ou le FAM B (84,5 % de FAM A, 15 % de méthanol et 0,5 % d’eau) ou des nouvelles huiles nécessaires au traitement des gaz d’échappement comme, par exemple, le AdBlue (une solution d’urée synthétique, dans de l’eau) de Total.Marc CHABREUIL

Presque 20 millions d’abonnés au haut débit ou très haut débit

Fin 2009, la France comptait 19,69 millions d’abonnements haut et très haut débit sur réseaux fixes supportant l’accès à Internet. L’Arcep a publié en mars les chiffres provisoires du haut et très haut débit en France, qui seront définitifs début mai. Le haut débit reste très largement majoritaire et en hausse, avec 19,4 millions d’abonnements, contre 17,6 millions fin 2008. L’ADSL représente 95 % du haut débit. Les 5 % restant sont principalement des clients du câble. Le dégroupage total est en hausse et concerne près d’un abonné sur trois (6,41 millions contre 6 millions fin septembre).Le très haut débit, qui correspond à un débit crête descendant supérieur à 50 Mbit/s et à un débit crête remontant supérieur à 5 Mbit/s, reste limité. Ainsi, au 31 décembre, l’Arcep estime le nombre d’abonnements en fibre optique à 290.000. 70.000 sont des abonnements FTTH, c’est-à-dire jusqu’aux abonnés ou jusqu’aux immeubles. 220.000 abonnements correspondent à des accès en fibre optique avec terminaison en câble coaxial.A noter que ces chiffres devraient fortement évoluer dans les trimestres qui viennent. Le numérique constitue en effet un axe clé du grand emprunt, avec un investissement prévu de 2 milliards d’euros pour l’équipement en très haut débit.  En savoir plus

  • Observatoire du haut et du très haut débit sur réseaux fixes – marché de détail – 4e trimestre 2009 (résultats provisoires, Arcep)
  • Fibre optique : l’Arcep plaide pour un déploiement multifibre (Article IT)
  • Fibre optique : le grand malentendu (Tribune)
  • La fibre optique en entreprise oui… mais pas à n’importe quel prix (Tribune)
  • Technologies DSL : passé, présent et futur (Base doc)
  • Systèmes numériques à haut débit du réseau d’accès (Base doc)

   

Le marquage par micropercussion au service de la chirurgie

La DRASS (Direction Régionale des Affaires Sanitaires et Sociales) autorise les industriels à intervenir en tant que sous-traitants dans la stérilisation des Dispositifs Médicaux Réutilisables (DMR), les CHU devant se concentrer sur l’activité de soin et n’ayant pas toujours les moyens financiers nécessaires pour mettre en place en interne tous les équipements et les procédures nécessaires. Par rapport à une solution interne, l’externalisation permet aux CHU de réduire significativement leurs coûts de stérilisation. C’est ce qu’à fait le CHU de Caen qui a confié cette mission à Omasa France (Air Liquide Santé).Contrairement à ses concurrents, Omasa France propose des prestations sur mesure : chaque praticien peut configurer à la demande le contenu des boîtes d’instruments stérilisés qu’il va recevoir. Le site de Caen gère quasiment tous les instruments et accessoires chirurgicaux du CHU de CAEN, soit, quotidiennement, plus de 10.000 instruments, avec plus de 500 références différentes, le pic d’activité étant dans la nuit. Chaque soir, les instruments utilisés dans la journée au CHU sont livrés chez Omasa où ils sont passés dans des autolaveurs, puis conditionnés en sachets, conteneurs ou double enveloppes, et stérilisés par autoclavage, puis sont retournés au CHU le matin.Pour lutter toujours plus efficacement contre les maladies nosocomiales et pour déterminer les responsabilités en cas d’infection, les hôpitaux se dotent pour la plupart de systèmes de traçabilité des dispositifs chirurgicaux. Il est ainsi possible de savoir où se trouve un dispositif à un moment donné et quelle a été son utilisation. De même, pour chaque patient, les instruments qui ont été utilisés pour un opéré sont répertoriés, avec leurs étapes de stérilisation, de stockage… Toutes ces informations sont gérées en temps réel dans l’ERP de l’hôpital. La traçabilité des instruments permet aussi d’optimiser les approvisionnements, les stocks, leur durée de vie …

Un marquage durable
La traçabilité au sein de l’unité d’Omasa France de Caen est totale : chaque instrument est scanné avant d’être conditionné ; à tout moment on sait exactement quel instrument a été stérilisé, à quelle date, etc… Le CHU a bien entendu accès à toutes ces informations. A ce jour, ce sont 3.000 instruments qui ont été marqués avec la solution Medrix ID de Technifor et il en reste encore autant à traiter.Compatible avec un environnement stérile (la machine a été totalement cartérisée en inox, tous les fils étant rentrés dans le carter), Medrix ID est une solution de gravage par micropercussion qui présente l’avantage de marquer durablement l’instrument, sans l’altérer, puisqu’il ne provoque qu’un déplacement de matière, le poids de l’instrument avant et après marquage étant rigoureusement identique. Le marquage, qui est assuré par une tête de marquage de 3mm de diamètre pouvant réaliser de 10.000 à 15.000 inscriptions sans être affûtée, est particulièrement résistant : à titre d’exemple, des instruments du CHPL (Centre Hospitalier Privé de la Loire) à Saint Etienne, qui ont été gravés il y a 5 ans, restent aujourd’hui parfaitement lisibles.Medrix se distingue également par son ergonomie plus simple. Un système de bridage, constitué d’un levier qui fait monter et descendre une genouillère pour bloquer l’instrument, a été spécialement conçu pour faciliter le travail de l’opérateur. Les informations à marquer (un code Data Matrix et une référence alphanumérique sont inscrits sur tous les instruments, sur de petites surfaces planes, hors de la zone invasive de l’instrument) sont ensuite saisies soit à la main, soit sont entrées à partir d’une base de données.  » Nous avons apprécié l’autonomie de la solution Medrix ID. Un ordinateur n’est pas nécessaire, elle fonctionne seule, avec une douchette de relecture Cognex. Son ergonomie facilite également la formation des agents. C’est maintenant beaucoup plus simple que la solution que nous avions auparavant « , estime Sylvie Siri, Responsable de l’unité de Caen.Par Marc Chabreuil

Premier diplôme universitaire en ligne interactif « Matériaux composites »

Dans le cadre de sa stratégie de cours numériques et de rapprochement avec les entreprises, l’Université de Corse a ouvert un Diplôme Universitaire de formation de techniciens supérieurs et d’ingénieurs dans le domaine des matériaux composites. Il s’agit de la seule formation en matériaux composites proposée en France aux professionnels et étudiants désireux de se spécialiser dans ce domaine très recherché par les entreprises concernées par les enjeux de la résistance et la légèreté des matériaux (aéronautique, ferroviaire, automobile, matériaux de construction, matériaux utilitaires, structure des habitats …). Ces cours interactifs ont été élaborés avec la société Cybel qui est la spécialiste des formations en ligne dans ce domaine pour le groupe EADS.Ce diplôme universitaire interactif en ligne de 300h, qui offre un suivi pédagogique permanent, en relation constante avec des tuteurs, propose 2 filières :

  • une filière études, niveau ingénieur ; avec ses 19 modules de formation sur les caractéristiques, les notions de conception, le comportement des matériaux et les procédés de mise en œuvre associés, elle vise à assurer aux apprenants une acquisition des connaissances de base sur les matériaux composites afin de leur permettre de discuter avec les spécialistes matériaux des spécificités des matériaux composites et d’utiliser les méthodes développées en production et en conception, et à leur permettre de contribuer ainsi à l’amélioration de la productivité ;
  • une filière production, niveau technicien supérieur : avec ses 13 modules de formation sur les constituants, la construction mécanique, le comportement, la mise en œuvre et la réparation, elle a pour objectif d’assurer aux apprenants (personnels d’atelier niveau : 2 ans après un CAP-BEP ou 3 ans après la 3è) une acquisition progressive des connaissances de base sur les matériaux composites afin de leur permettre de se situer dans le contexte des matériaux composites grâce aux informations générales sur le domaine et de situer l’importance de leur intervention dans l’appareil de production de pièces en matériaux composites, grâce à la compréhension et l’intégration des moyens mis à leur disposition en atelier.
Certifiée RAQ2, ISO 9 002 et JAR 145, la société Corse Composite, qui développe et fabrique des éléments de fuselage, trappes, escaliers et pièces aérodynamiques en matériaux composites pourAirbus (entre autres pour l’A380), Dassault Aviation, Snecma et Latécoère, offrira des stages gratuits en fin de formation.Marc CHABREUIL

La cryolyophilisation au secours des archives des Charentes Maritimes

Bien connue des industriels de l’agroalimentaire, la cryolyophilisation à l’azote liquide consiste à congeler un produit brutalement à cœur par de l’azote liquide (-196 °C) puis à le soumettre au vide et à une montée progressive en température dans des lyophilisateurs. AAD Phenix, filiale du groupe Samsic, spécialisée dans le nettoyage après sinistre, a décidé d’utiliser ce procédé pour sauver les archives entreposées dans les sous-sols de la Maison du département Conseil Général des Charentes Maritimes, inondées par 2 mètres d’eau de mer lors de la tempête. Ce sont quelques 24.000 boîtes de documents représentant 3 km linéaires qui seront ainsi traitées. « Il faut congeler très vite, notamment pour éviter l’apparition des moisissures et des bactéries. On va transporter les documents dans des containers isothermes jusqu’à notre centre permanent de traitement des archives à Bourges où ils seront stockés dans une chambre froide. Les documents seront alors enfournés sur des étagères dans un lyophilisateur. On va « tirer au vide », c’est-à-dire baisser la pression. L’eau va alors passer directement de l’état solide de glace à l’état gazeux, sans passer par une phase liquide qui pourrait encore endommager le papier », explique Olivier Revert, directeur du pôle sinistres industriels et risques majeurs. « Il nous fallait trouver un fournisseur d’azote capable de mettre en place dans l’urgence un réservoir de 5.000 litres à La Rochelle, sur le parking de la Maison du département. Messer a fait preuve d’une réactivité, d’une capacité d’adaptation, et d’une force de proposition qui ont fait la différence. Il a mis en place une solution personnalisée en quelques jours ». Messer, qui vient de renforcer ses moyens de production en azote en démarrant sa nouvelle unité de séparation des gaz de l’air de Saint-Herblain (Loire-Atlantique), d’une capacité de 300 tonnes/jour, fournit également la glace carbonique nécessaire au transport des archives surgelées sous température dirigée. Un produit qu’AAD Phenix utilise pour le nettoyage cryogénique, devenu incontournable pour la rénovation d’outils de production après sinistre. Cette technique consiste à projeter des particules de glace ou neige carbonique (CO2 solide à -78°C) par un flux d’air comprimé sur une surface à nettoyer. L’association du froid intense et du choc mécanique provoque le détachement de la salissure de son support. La glace carbonique se sublimant instantanément après avoir assuré le nettoyage, reste un déchet pur et plus facile à traiter.A La Rochelle, les bacs à glace carbonique numérotés permettent d’identifier les lots d’archives pour conserver à terme leur classement. « Nous nous sommes attachés à proposer des solutions complètes pour faire face à l’urgence et aux besoins spécifiques de la situation en fournissant non seulement de la cryogénie mais aussi des outils de traçabilité » explique Gwennaël Le Goff, Responsable des Ventes Messer sur le grand Sud Ouest. Marc CHABREUIL

L’attestation de conformité des installations électriques étapes par étapes

Le décret n° 2010-301 du 22 mars 2010 qui modifie le décret n° 72-1120 du 14 décembre 1972 relatif au contrôle et à l’attestation de la conformité des installations électriques intérieures aux règlements et normes de sécurité en vigueur, fait globalement progresser la sécurité des installations électriques. Il concerne, à la fois :

  •  les installations électriques extérieures (éclairage public, éclairage des lieux accessibles au public, système de signalisation, feux tricolores, antenne pour signaux téléphone, système audiovisuel, central téléphonique, système de surveillance, radars, système d’accès extérieurs, mobilier urbain et édicule, station de pompage,…) ;
  • et les installations de production d’électricité (photovoltaïque, éolien, cogénération…) d’une puissance inférieure à 250 kVA.
Une décision gouvernementale d’autant plus attendue que le Consuel (Comité national pour la sécurité des usagers de l’électricité) avait tiré la sonnette d’alarme en insistant sur la dangerosité de nombreuses installations photovoltaïques (lire l’article « Photovoltaïque : trop d’installations dangereuses« ).L’attestation de conformité (AC) est un document Cerfa (Centre d’enregistrement et de révision des formulaires administratifs) rempli par l’installateur qui atteste avoir respecté les règles de sécurité en vigueur relatives à l’installation en aval du point de livraison (pour les installations à puissance limitée : après le disjoncteur de branchement). Accompagnée d’un dossier technique, l’attestation est envoyée au Consuel. A réception de ces documents, cet organisme reconnu d’utilité publique, après étude du dossier, vise l’attestation de conformité en procédant ou non à un contrôle sur site. Cette attestation de conformité visée est exigée par le gestionnaire du réseau public de distribution d’électricité pour le raccordement de l’installation au réseau.

L’attestation de conformité, étape par étape
Nous nous limiterons, ici, aux attestations de conformité pour les installations de production d’électricité pour qui une AC est nécessaire par point de livraison, type de production d’énergie (photovoltaïque, éolien, cogénération) et installateur. Si l’installation de production est composée d’un matériel raccordé sur un circuit d’alimentation (exemple : chaudière électrogène), l’attestation de conformité est obligatoire si le circuit d’alimentation est créé ou modifié.L’obtention d’une attestation de conformité est un processus qui se déroule en 4 étapes :Etape 1 : achat de un ou plusieurs formulaires d’attestation de conformité par courrier ou sur Internet.Etape 2 : envoi de l’attestation de conformité à l’installateur qui la retourne, une fois rédigée, à la Délégation régionale du Consuel concernée par le département du chantier. Le formulaire d’attestation de conformité doit être accompagné d’éléments techniques complémentaires comprenant notamment le schéma unifilaire, des caractéristiques techniques de l’installation (le dossier technique peut être téléchargé sur www.consuel.com) et, pour les établissements à réglementation particulière (Etablissement Recevant du Public, Établissement Recevant des Travailleurs, etc.) du rapport d’un organisme d’inspection mandaté par l’exploitant ou l’employeur.Etape 3 : contrôles sur site ou non par le Consuel, dans un délai de 20 jours à compter de la réception du dossier par la Délégation régionale. Deux cas de figure existe.S’il s’agit d’installations sur des bâtiments à usage d’habitation ou assimilés :– pour une installation objet d’une attestation de conformité achetée au tarif  » non-professionnel « , un contrôle est systématiquement réalisé dans un délai de 20 jours.– pour une attestation de conformité achetée au tarif  » professionnel « , Consuel décide de réaliser ou non un contrôle en fonction des résultats des contrôles précédents pour l’installateur concerné.Pour les établissements soumis à réglementation particulière, si le contrôle par l’organisme d’inspection relève des anomalies, un contrôle peut être réalisé par Consuel après réception d’une levée de réserve établie par l’installateur et approuvée par l’organisme d inspection.Etape 4 : visa des attestations de conformitéEn l’absence de contrôle sur site, ou en cas de contrôle sur site ne relevant aucune non-conformité, l’attestation est visée et retournée au demandeur ;En cas de non-conformité(s) relevée(s) sur site par Consuel, l’installateur devra adresser une levée de réserves, et si l’installation présente un risque majeur pour la sécurité, un règlement pour contrôle renouvelé (contrôle réalisé dans les 20 jours après réception de ces éléments).Dans le cadre de pluralité d’installateurs, les attestations de conformité établies par chaque installateur sont visées simultanément lorsque les conditions sont réunies pour l’ensemble des intervenants.

Montage inédit de tuiles photovoltaïques

L’ensemble des toits des entrepôts de Saint Charles International, jusqu’alors en fibrociment, seront recouverts par plus de 95.000 tuiles solaires innovantes. Au total, une surface de 70.000 m², soit l’équivalent de 10 terrains de football devra être équipée de cellules photovoltaïques. Le chantier durera 30 mois, jusqu’à fin 2011. Pourtant, dès le début de cette année, la centrale photovoltaïque de Perpignan commencera à fonctionner.La production d’électricité sera progressive et permettra à terme d’éviter l’émission de 1560 tonnes de CO2 par an. L’objectif de cette méga-centrale (55 millions d’Euros) de Solaire France est une production d’énergie supérieure à 9 MW qui permettra de couvrir environ 10 % de la consommation de la ville de Perpignan et de son agglomération, ce qui représente les besoins d’environ 12.000 habitants.L’originalité de ce chantier réside en un montage des tuiles photovoltaïques inédit. Habituellement, les cellules solaires sont montées côte à côte sur les toits mais, dans ce cas particulier, les tuiles solaires se chevauchent comme des tuiles classiques, ce qui permet une longévité accrue et plus d’esthétisme. Le plus difficile est de rendre la toiture ainsi conçue parfaitement étanche afin de protéger tous les éléments techniques et d’assurer la fiabilité de l’installation. En effet, cette méthode de construction nécessite jusqu’à trois couches de tuiles photovoltaïques qui doivent être parfaitement assemblées de manière à garantir l’imperméabilité de la structure

Assurer l’étanchéité de l’ensemble
Les profilés d’étanchéité standards ne pouvant pas satisfaire à ces exigences spécifiques, Maagtechnic a donc été chargée par la société Solaire France d’élaborer un nouveau concept. Un seul profilé d’étanchéité ne permettant pas d’assurer une parfaite étanchéité de la toiture, une solution en deux parties a donc été envisagée. Maagtechnic a développé un profilé d’étanchéité possédant une bande autocollante unilatérale qui, une fois collé le long des arêtes des tuiles, assure l’étanchéité latérale et résiste au vieillissement ainsi qu’aux intempéries. Cependant, l’opération la plus délicate était d’assurer l’étanchéité des jonctions entre les diverses tuiles superposées. Différentes idées et ont été examinées et les meilleurs résultats ont été obtenus avec un joint moulé dont la forme ressemble à une ancre. Cette forme originale garantit une parfaite étanchéité et permet en plus un montage rapide et un positionnement précis des tuiles photovoltaïques. Les joints moulés fabriqués à partir d’un mélange d’EPDM (éthylène-propylène-diène monomère) souple (env. 30 shore A) ont été testés sur un toit d’essai normalisé, prévu à cet effet. Les conditions-test prévoyaient une inclinaison de toit de 3° et une dépression de 850 Pa. Plusieurs essais et des adaptations mineures ont abouti à l’optimisation des profilés et des joints moulés. La fabrication en série a pu démarrer au terme d’une brève période de développement.

Marc CHABREUIL

Complément ou alternative à la RFID : le bouton à mémoire CMB

Depuis déjà plusieurs années, des sociétés situées dans des secteurs très divers, et notamment les forces armées américaines, utilisent le bouton à mémoire CMB (Contact Memory Button). Ce dernier, conforme à la norme US DoD Mil-STDS-810F, présente de nombreux avantages. Il est insensible aux impulsions, aux interférences électromagnétiques et aux radiations. Par ailleurs, il résiste à la traction, à la tension, au cisaillement, à l’humidité, aux ambiances salines, à la graisse, aux poussières, aux acides, aux solvants, aux basses et hautes températures, aux vibrations, aux chocs… Enfin, il fonctionne quels que soient les environnements extérieurs ou intérieurs. De plus, d’une durée de vie d’un siècle, il conserve les informations pendant 35 ans sans aucune utilisation et accepte plus de 1 million de cycles en lecture/écriture.

Vers une diversifications des applications
Autant d’atouts qui ont incité les sociétés MacSema et Titanox Industrie, dans le cadre de leur nouvelle division « Identification et Traçabilité », à diversifier les applications du CMB vers les secteurs industriels où il peut apporter de nombreux avantages en matière de traçabilité, de gestion des configurations (calibrage, identification…) et de suivi de la maintenance. D’un diamètre de 7,56 à 28,6 mm pour un poids de 0,17 à 5 grammes, le CMB qui est un élément électronique passif, doté d’une mémoire propre non volatile EEPROM, permet à chaque opérateur de lire, d’écrire, de modifier et de stocker des informations sur site grâce à sa mémoire comprise entre 256 bytes à 2 gigabytes selon le modèle (Micro, Mini et Mega). Un simple contact sur le bouton mémoire via le cordon de liaison équipé d’un port USB ou d’un port série RS232 suffit pour transférer les données vers un PC, un assistant électronique personnel (PDA) ou un lecteur de codes à barres.Après s’être identifié (jusqu’à 3 niveaux d’accès, pour un niveau de sécurité très élevé des données), l’opérateur obtient en quelques secondes, toutes les informations contenues dans le bouton à mémoire. Il peut ensuite les compléter ou les modifier et les sauvegarder (manuels, schémas, graphiques, photographies…) quel que soit le format utilisé : XML, PowerPoint, Word, Exel…).Préconisé par Airbus, dans le cadre de son programme A350, pour le suivi des équipements en zone non-pressurisée et en back-up des tags RFID en zone pressurisée (contrainte de taille ou d’environnement), le CMB peut être collé sur les pales hélicoptères, les fûts de déchets chimiques ou nucléaires qui sont ainsi clairement identifiés et datés (après leur enfouissement, les informations demeurent lisibles pendant un siècle), les rotors, les pompes hydrauliques, les boîtes de vitesse, les équipements électroniques… et partout où la surveillance qualitative et sécurisée d’un équipement mobile ou non se révèle indispensable. Enfin, lors des opérations de maintenance, la lecture des CMB permet de gérer la configuration, de contrôler si les pièces sont d’origine, si la maintenance a bien été réalisée et à quelle date, les réparations éventuelles…Par Marc Chabreuil

Un nouveau système pour convertir les cartes 2D en 3D

Résultant, en partie, de la collaboration de Navteq et de Microsoft visant à accélérer la collecte, la création et le stockage de données cartographiques et de visuels en 3D, le nouveau système de collecte de données cartographiques Navteq True permet de superposer des images et des données en 3D pour créer une représentation numérique plus détaillée. Cette plate-forme qui permet de convertir les cartes numériques 2D en 3D, repose la combinaison de technologies de collecte inégalées en termes de portée et de qualité :

  • un lidar rotatif : la gamme lidar de Navteq repose sur un système rotatif propriétaire saisissant plus de 1,5 million de points de données 3D/sec. Il s’agit d’une réelle avancée par rapport aux autres systèmes lidar qui sont limités à 14.000 points de données/sec. Les lasers rotatifs ont une portée supérieure d’environ 120 m et une vitesse de collecte plus élevée, ce qui permet à Navteq de collecter les informations des panneaux autoroutiers tout en respectant les limitations de vitesse signalées, et de lire avec précision les informations des bornes kilométriques de petite taille. Alors que les autres systèmes lidar utilisent des lecteurs optiques dotée d’une seule ligne de balayage qui offrent un angle de collecte de 90°, les 64 lasers rotatifs de Navteq collectent des images LIDAR à 360°. Parmi les autres fonctionnalités de ce système figurent la génération automatique d’attributs, tels que la hauteur d’un pont ou la largeur d’une voie, au centimètre près, et la possibilité d’identifier l’envers des objets pour obtenir des dimensions plus précises en mode 3D par rapport à celles obtenues à l’aide de sources telles que les vues aériennes ;
  • un système combiné d’appareils photographiques panoramiques et haute résolution : Navteq True se distingue par son utilisation d’appareils photo à angles multiples et panoramiques. Cette association améliore non seulement la collecte, mais également l’efficacité du traitement et de la commercialisation des données. Les appareils photo panoramiques permettent d’obtenir une image émersive d’un site pour élaborer des plans de rue. L’association simultanée d’appareils photo à angles multiples améliore le degré de précision, notamment lors de la collecte en route du contenu d’un menu affiché à l’extérieur d’un restaurant ;
  • la localisation GPS et IMU (Inertial Measurement Unit, unité inertielle) : Navteq True utilise ces deux outils clés pour affiner en permanence la géolocalisation du véhicule. L’ajout d’unités inertielles (IMU) conditionne la collecte optimale d’attributs complexes, tels qu’une courbe et une pente, qui exigent un niveau de géolocalisation extrêmement précis.
Le système Navteq True a été conçu pour intégrer tous ces composants au sein d’une seule unité, ce qui améliore la synchronisation des ensembles de données collectées tout en simplifiant leur déploiement à grande échelle et leur utilisation par les géographes de Navteq.

Des paysages urbains toujours plus réalistes
« Les conclusions des études effectuée auprès des utilisateurs indiquent que ces derniers appréhendent très différemment les repères visuels selon qu’ils marchent ou conduisent. Ceci a beaucoup contribué au design du produit Enhanced 3D City Models » déclare Frank Pauli, Vice-président du département Contenus et produits cartographiques pour la zone EMEA chez Navteq, leader mondial des cartes numériques, des informations routières et des données de géolocalisation pour les solutions de navigation embarquées. « Notre objectif est de comprendre comment les utilisateurs traitent les informations visuelles afin de développer une navigation plus intuitive, tant pour les conducteurs que pour les piétons. »Enhanced 3D City Models en Europe ajoute des textures et des couleurs, offrant ainsi un rendu plus authentique des paysages urbains et permettant aux utilisateurs des systèmes de navigation de s’orienter plus facilement dans les environnements inconnus. Avec Enhanced 3D City Models, les applications peuvent intégrer intelligemment le niveau de détail approprié pour répondre à des besoins spécifiques d’orientation et de guidage.Conçu à partir des attributs clés de la cartographie de haute de précision de Navteq, ce produit autorise la création en temps réel d’animations 3D utilisables pour la navigation. Par exemple, les immeubles en arrière-plan peuvent rester transparents, tandis que seuls les éléments importants pour la prochaine manœuvre s’affichent dans un rendu texturé. Les développeurs système disposent d’une large palette d’options de personnalisation pour adapter des fonctionnalités comme les textures visuelles, l’angle de la caméra, et amener ainsi une différenciation au sein des produits et entre les marques.De plus, l’approche de Navteq permet, très facilement, d’intégrer les autres contenus visuels et cartographiques de l’entreprise dans Enhanced 3D City Models afin de rendre la navigation encore plus performante.Ces nouveaux contenus permettent aux applications d’intégrer intelligemment le niveau de détail approprié pour répondre à des besoins spécifiques d’orientation et de guidage, et de signaler, par exemple, les ponts, les tunnels et les marquages au sol ou les trottoirs et les passages piétons. En accédant uniquement aux informations visuelles les plus pertinentes, à un niveau de rendu adéquat des textures et ce au moment le plus approprié, les utilisateurs ne sont pas distraits par une surcharge d’informations.Marc CHABREUIL

« Dans la recherche, les nanotechnologies se diffusent dans tous les segments »

;Techniques de l’ingénieur : Qu’est-ce que le programme de l’ANR sur les nanotechnologies et nanosystèmes ? Depuis quand existe-t-il et comment s’intègre-t-il dans le paysage de la recherche sur les nanotechnologies en France ?

Didier Théron :  » L’histoire du programme est le fruit d’une succession d’étapes qui commencent en 1998, aux Etats-Unis, quand démarrent les premières initiatives pour soutenir les recherches sur les nanotechnologies. Un an plus tard, en France, apparaît le premier programme de recherche dans ce domaine, le RMNT pour Réseau Micro et Nano Technologies, suivi trois ans après, par l’ACI pour Action Concertée Incitative. Ces deux programmes coexisteront jusqu’en 2005, date à laquelle ils fusionnent pour former le R3N pour Réseau National de Recherche en Nanosciences et Nanotechnologies, puis PNANO lors de la création de l’ANR.

Parallèlement, en 2003, le ministère de la Recherche avait mis en place une infrastructure pour les nanotechnologies, c’est-à-dire des salles blanches et des équipements, afin de coordonner ces moyens au niveau national et permettre à toute la communauté scientifique française d’en bénéficier. Un an plus tard, cinq centres de compétences, appelés C’Nano, voient le jour (lire l’article « C’Nano, un réseau pour le développement des nanosciences« ). Ils couvrent le territoire national et leur objectif est de fédérer la recherche fondamentale en nanosciences. A peu près dans le même temps, des pôles de compétitivité fortement impliqués dans les nanotechnologies apparaissent. Parmi ceux-ci figure le Minalogic, mais aussi le pôle Solutions Communicantes Sécurisées.

Aujourd’hui, PNANO existe toujours, mais sous une autre appellation. De P3N en 2009, il est devenu P2N en 2010.

Pourquoi ce passage de 3 à 2 N ?

Cette évolution découle de la réorganisation du budget de l’ANR. Les programmes non thématiques, qui représentaient l’année dernière, 33 % du budget global des appels à projets de l’agence, pèsent désormais 50 % de l’ensemble. De fait, les recherches les plus fondamentales sur les nanotechnologies ont intégré les programmes non thématiques. Ce qui explique le passage de 3 à 2 N. Dans le même temps, nous avons réorienté P3N pour soutenir les projets de recherche plus appliquée, réalisés en collaboration avec des industriels. Ce n’est pas un impératif, mais c’est une recommandation.

A qui s’adresse P2N 2010 et, en moyenne, combien de temps dure un projet que vous financez ?

P2N s’adresse à tous les organismes qui font de la recherche sur les nanotechnologies. C’est-à-dire aussi bien des laboratoires de recherche publics, que privés. En moyenne, les projets que nous finançons courent sur trois ans.

Quel est le profil des entreprises dont vous financez les projets et avez-vous une politique volontariste dans ce domaine ?

Nous rencontrons essentiellement deux types d’entreprises. Des grands groupes et des entreprises plus petites qui peuvent être des start-ups. Pour être plus précis, en 2009, sur un total de 45 projets, ceux que nous avons retenus impliquent 13 grands groupes, 8 PME et 3 start-ups.

Nos seuls critères d’évaluation sont ceux de l’excellence scientifique et le fait que les projets s’inscrivent dans les orientations scientifiques que nous avons fixées, au préalable, avec les membres de notre comité scientifique sectoriel qui inclut des représentants des grandes et moyennes entreprises, des grands centres de recherche académiques et de la société civile.

Vous n’avez aucune action spécifique en faveur des PME ?

Si. Elles bénéficient d’un taux de financement plus élevé de leur projet que les grands groupes. 45 % de leurs dépenses éligibles sont prises en charge par le programme, contre seulement 30 % pour les grands groupes, comme dans l’ensemble des programmes de l’ANR.

Quel sera votre budget en 2010 et quel est le montant moyen des aides que vous allouez ?

Cela dépendra du nombre de projets que nous retiendrons et de leur budget après consolidation. D’après notre expérience au cours des années précédentes, le montant moyen des subventions que nous allouons s’élève à 700.000 euros. Mais ce n’est qu’une moyenne. Les projets s’échelonnent de 500.000 à 1,5 million d’euros et il est possible que nous ayons, cette année, des projets plus importants. Nous pourrons dresser ce bilan à la fin de l’année 2010. A titre indicatif, en 2009, nous avons distribué une enveloppe de 34 millions d’euros pour 45 projets. En 2010, le budget total des appels à projets de l’ANR est de 630 millions d’euros dont 50 % reviennent aux programmes thématiques.

Les nanotechnologies demeurent, quoi qu’il en soit, un domaine stratégique pour la recherche en France ?

Oui. C’est un programme important pour l’ANR mais aussi dans la politique de recherche nationale.

Quelle est la place de la recherche fondamentale dans l’ensemble des subventions allouées par le programme PNANO ?

Elle varie relativement peu. En 2008, elle représentait 65 % des subventions, soit 26 millions d’euros sur 40 millions, tandis qu’en 2009, elle en représentait 62 % avec 21 millions sur 34 millions. Dans ce domaine, ce qui est intéressant au-delà des chiffres, c’est de constater que les industriels s’impliquent de manière croissante dans la recherche fondamentale.

Et côté thématiques, y-a-t-il des évolutions ?

Oui. Nous constatons une légère baisse du thème « composants pour les micro systèmes », même s’ils restent les plus nombreux. Même chose pour les matériaux. En 2009, ils représentaient respectivement 40 % et 30 % des projets retenus. En revanche, nous avons assisté à un fort recul des biosciences. Leur part est passée de 20 à 15 % en 5 ans. Cette évolution s’est faite au profit du pôle instrumentation, métrologie et modélisation dont la part est passée de 7 à 19 % sur la même période. Il faut toutefois prendre ces chiffres avec précaution, car un nombre significatif de projets de recherche sur les nanotechnologies sont présentés dans d’autres programmes. En 2008, nous avions évalué que le programme sur les nanotechnologies finançait directement 59 % des projets proposés dans ce domaine et que le reste se trouvait ailleurs, notamment pour 13 %, dans le programme non thématique. Ce qui semble attester que les nanotechnologies se diffusent aujourd’hui dans tous les segments.

Le débat public sur les nanotechnologies qui vient de se clore a révélé l’existence de fortes inquiétudes concernant l’impact des nanotechnologies sur l’environnement. Financez-vous des projets qui tentent de répondre à ces questions ?

Nous avons introduit ce thème dès 2006. Certes, la part de ces projets dans nos financements reste faible, mais elle augmente régulièrement. En 2006, ils représentaient 1 % du total de notre budget, alors qu’en 2008, ils atteignent les 4 %. Nous finançons, dans ce cadre, aussi bien des projets ayant trait à l’étude des risques pour la santé, notamment sur le lieu de travail, que ceux relatifs à l’impact sociétal.

Dans ce domaine, il faut également mentionner une initiative européenne récente. Celle-ci vise à fédérer les projets des différentes agences de recherche sur les risques inhérents aux nanotechnologies afin d’aboutir à une programmation conjointe via des appels à projets européens. L’ANR est membre de ce projet et a déposé une proposition en ce sens en 2009 avec l’Allemagne, la Suisse, l’Autriche, la Belgique, la Grèce et l’Espagne. Nous attendons un retour au cours de l’année 2010 pour un démarrage effectif en 2011.  »

 

En savoir plus

Didier Théron est responsable du programme Nanotechnologies et Nanosystèmes à l’Agence Nationale de la Recherche depuis décembre 2009. Après un doctorat à l’Ecole Polytechnique Fédérale de Lausanne en 1989, il est entré au CNRS et travaille aujourd’hui à l’Institut d’Electronique, de Microélectronique et de Nanotechnologies à Villeneuve d’Ascq sur des composants avancés pour l’électronique. De 2004 à 2008, il a coordonné le réseau national des Grandes Centrales de Technologies (RENATECH) du CNRS dont le rôle est de mettre à la disposition des chercheurs une infrastructure compétitive au niveau mondial en micro-nanofabrication.

Le programme Nanotechnologies Nanosystèmes (P2N) s’est fixé quatre objectifs en 2010 :

– explorer et progresser dans le domaine de la structuration de la matière et exploiter ces propriétés remarquables dans des fonctions de traitement de l’information et de la communication ;

– progresser dans le domaine des procédés technologiques, de l’instrumentation et de la simulation ;

– explorer le concept de micro et nanosystèmes « intelligents » pour des applications à fort impact sociétal comme la santé, l’énergie et l’environnement ;

– assurer un développement responsable des nanotechnologies et des nanosystèmes au travers de leurs dimensions sociales, culturelles et économiques.

Les axes thématiques de cet appel à projets sont :

– nouveaux matériaux et technologies de fabrication ;
– nanoélectronique-nanophotonique-NEMS ;
– instrumentation-modélisation-simulation ;
– nanotechnologies et nanosystemes pour l’environnement et l’énergie ;
– nanotechnologies et nanosystemes pour la santé ;
– dimensions sociales, culturelles et économiques des nanotechnologies.

Propos recueillis par Anne-Laure Béranger

Un nouveau pas vers l’électronique moléculaire

En électronique, le comportement d’un circuit logique est dit binaire car il est caractérisé par deux états : l’état 0, qui représente la valeur off et l’état 1, qui représente la valeur on. L’électronique moléculaire vise à réaliser les opérations élémentaires de circuits logiques comme le passage d’un état à l’autre (isolant ou conducteur, par exemple), à la manière d’un interrupteur, au sein de molécules ou d’architectures moléculaires individuelles. Pourquoi utiliser des molécules ? Pour accéder au stade ultime de la miniaturisation de la taille des circuits électroniques, ce qui suscite actuellement un effort de recherche considérable, dans le contexte plus général des nanosciences.Aujourd’hui, il existe de nombreux exemples de molécules capables de se comporter comme un interrupteur moléculaire. Un des enjeux des recherches dans le domaine de l’électronique moléculaire est de mesurer directement la variation de conductance (passage de l’état isolant à conducteur dans un fil ou une jonction moléculaire unique comportant une fonction de commutation. Cette mesure est incontournable pour envisager l’insertion de ces molécules dans des dispositifs.Un moyen de réaliser la mesure est de préparer une mono-couche de molécules auto-assemblées (SAM), déposées sur une surface d’or, voie de synthèse particulièrement adaptée puisqu’elle permet d’accéder aux propriétés électroniques de molécules en utilisant des techniques de microscopie à champ proche. Si la préparation de SAMs a été largement développée, un défi majeur consiste à réaliser maintenant, au sein de telles couches, des mouvements moléculaires capables de conduire à une commutation des propriétés électriques de la molécule immobilisée sur la surface.

De nouvelles perspectives en termes d’ingénierie des architectures moléculaires

Deux articles récents ont décrit des SAMs à base de systèmes conjugués (un tel système est constitué d’un squelette carboné comportant une alternance de liaisons simples et doubles ce qui induit une délocalisation électronique : oligophénylènes comportant un groupe azobenzène). L’irradiation de la monocouche à l’aide d’une lumière de longueur d’onde appropriée provoque un mouvement moléculaire (photo-isomérisation trans/cis de l’azobenzène). Ce mouvement engendre le repliement de la molécule entraînant ainsi une réduction de l’épaisseur de la SAM et l’augmentation du courant tunnel à travers la molécule. Une variation d’un facteur 30 du courant entre l’état « off » (trans-azobenzène) et l’état « on » (cis-azobenzène) a ainsi été mesurée par microscopie à force atomique.Dans le cadre d’un projet ANR PNANO (Programme National en Nanosciences et Nanotechnologies) , en collaboration avec l’équipe de Dominique Vuillaume de l’ l’Institut d’Electronique, de Microélectronique et de Nanotechnologie (CNRS / Université Lille 1), le groupe Systèmes Conjugués Linéaires de l’UMR du Laboratoire Chimie, Ingénierie Moléculaire d’Angers (CNRS / Université d’Angers), a synthétisé de nouvelles séries de systèmes conjugués photo-commutables à base d’oligothiophènes comportant des groupes azobenzènes. La caractérisation de ces systèmes a permis de montrer que l’ingénierie moléculaire de tels systèmes conjugués photo-commutables, permet d’augmenter d’un facteur 100 le rapport « on/off » qui atteint maintenant des valeurs très élevées de l’ordre de 3500.Ces résultats ouvrent de nouvelles perspectives en électronique moléculaire tant en ce qui concerne l’ingénierie des architectures moléculaires actives que la conception de nano-dispositifs dérivés de ces systèmes conjugués.

Une nouvelle formation en alternance à la gestion et la prévention des risques

L’Ecole Nationale Supérieure d’Arts et Métiers – Institut Arts et Métiers ParisTech de Chambéry et l’ITII 2 Savoies (Institut des Techniques d’Ingénieur de l’Industrie) ouvriront en septembre prochain un diplôme d’ingénieur en gestion et prévention des risques. Il se préparera en alternance, après un DUT ou un BTS, en contrat d’apprentissage ou en formation continue. Délivré par l’ENSAM, ce diplôme est habilité par la Commission des Titres d’Ingénieur.En matière de prévention des risques, cette formation d’ingénieur est unique dans la mesure où elle se déroule par alternance. Trois projets seront menés en entreprise et contribueront à l’attribution du diplôme : analyse des risques, changement concerté et projet ingénieur. L’un des trois se fera si possible à l’étranger. Associant les composantes techniques, économiques et humaines, ces projets s’inscriront dans une démarche de progrès en matière de gestion et de préventionAu programme des cours, outre les sciences fondamentales de l’ingénieur, l’enseignement abordera des axes spécifiques :

  • les problématiques de base des risques environnementaux et technologiques, avec acquisition de méthodologies et outils associés permettant d’avoir une approche curative mais aussi préventive ;
  • l’approche produit : innovation, démarche d’éco-conception ;
  • les fondamentaux des risques professionnels, avec acquisition des méthodologies et des outils associés d’ergonomie globale ;
  • le management de l’entreprise avec mise en place de systèmes de management intégré qualité- sécurité- environnement, les outils de gestion économique, la communication et l’animation professionnelle (sensibilisation aux approches psycho-¬sociologiques de l’individu et du groupe).
L’ingénieur en gestion et prévention des risques exerce dans tous les secteurs. Il pilote les démarches d’évaluation des risques et assure une veille stratégique en matière de législation et de règlementation ainsi que le déploiement de la prévention au sein de l’entreprise (produits et process), Il a également pour responsabilités la prévention des risques industriels (protection des infrastructures, des biens manufacturés), des risques technologiques et environnementaux ainsi que des risques professionnels (sécurité et santé de l’homme au travail). Marc CHABREUIL

Une plateforme logistique « verte » de 3ème génération

L’un des plus importants opérateurs d’immobilier logistique durable au monde avec 6 millions de mètres carrés de plateformes logistiques dans le monde, Gazeley a lancé ce concept en 2002. Depuis, la société continue à investir dans les technologies renouvelables et durables, afin d’assurer la pleine mise en œuvre de ses meilleures pratiques dans tous les bâtiments qu’elle aménage. Par exemple, la récupération des eaux de pluie ou des installations fonctionnant au biocarburant sur l’ensemble de ses parcs logistiques permet à ses clients de réduire considérablement leurs coûts opérationnels. Parmi les réalisations de Gazeley, G. Park Blue Planet sur le site de Chatterley Valley, dans le North Staffordshire (Royaume-Uni) est considéré comme l’une des plateformes logistiques les plus écologiques au monde. D’un montant de 63 millions d’Euros, ce bâtiment de 35.500 m² a décroché la mention « exceptionnel » lors de la phase de conception par la certification environnementale BREEAM (BRE Environmental Assessment Method ou la méthode d’évaluation de la performance environnementale des bâtiments développée par le BRE). « Il s’agit de la plus haute distinction récompensant les qualités d’un projet immobilier en matière de développement immobilier durable. G.Park Blue Planet a obtenu une note globale de 85,49 %, se distinguant particulièrement dans les catégories « gestion », « santé et bien-être », « eau », « énergie » et « pollution ». Avec ce site, nous avons créé un modèle de développement à la pointe de la technologie. Non seulement le projet minimise l’impact environnemental mais il génère également des gains d’énergie et de consommation d’eau de 300 000 € par an, soit 39 % de réduction par rapport à un bâtiment classique », souligne Jonathan Fenton-Jones, directeur du développement durable de Gazeley.

Un bâtiment durable intégré au tissu social et urbain environnant
Cette réalisation vient d’être récompensée pour sa « Performance Environnementale » lors de la 6ème édition des Trophées de logistique 2010 du Journal de la Logistique. Sélectionné parmi 14 autres candidats, acteurs reconnus dans l’immobilier logistique, Gazeley est la première entreprise à avoir été primée dans la toute nouvelle catégorie « performance environnementale », qui vient d’être créée cette année. Les membres du jury, des professionnels du monde la logistique, ont retenu comme points forts :
  • premier bâtiment certifié « exceptionnel » selon le référentiel environnemental BREEAM ;
  • dépassement des objectifs des projets de loi du Gouvernement britannique sur le changement climatique fixés pour 2020 et 2050 ;
  • 100 % de l’électricité et du chauffage proviennent de sources renouvelables ;
  • 49 % d’économies sur l’éclairage (apport maximum de lumière naturelle et éclairage économe couplé à un système de détection de présence dans les bureaux);
  • 68 % d’économies en matière de chauffage (inertie thermique de l’enveloppe dépassant de 25% les exigences réglementaires sur les postes isolation, traitement des ponts thermiques, ventilation naturelle et système de mur solaire sur la façade sud, permettant le réchauffement de l’air tampon avant passage dans le bâtiment ;
  • 60 % d’économies d’eau (récupération des eaux pluviales pour usage dans les bureaux).
Grâce à l’installation de panneaux photovoltaïques intégrés à la couverture (15 % de la surface), à un système de récupération de l’énergie cinétique des camions entrant dans l’entrepôt par un système de plateaux convertisseurs produisant de l’électricité sur site, de panneaux solaires thermiques pour les besoins de chauffage sanitaire et, dans le courant de l’année, une micro-centrale électrique par combustion de biomasse, ce site produira suffisamment d’énergie pour alimenter 3 100 foyers.Par ailleurs, Gazeley a fait le choix de matériaux « écologiques » avec des revêtement de sol en marmoleum (linoleum enrichi de calcaire et colophane), à base de matériaux naturels et au procédé de production sobre en énergie, des bois certifié FSC (Forest Stewardship Council), des tuiles issues de matériau recyclé et des moquette à base de fibres recyclées (à hauteur de 80 %).Enfin, 52 % du site est dédié aux espaces verts, aménagés avec des essences locales, et la conception partagée des espaces extérieurs permet d’offrir aux riverains des sentiers pédestres, des liens vers les chemins de halage bordant le site ou encore la préservation des habitats naturels environnants.Marc CHABREUIL

Transgreen : un nouveau plan solaire pour la Méditerranée

Il y a quelques mois, le lancement du projet allemand Desertec, qui vise à utiliser, entre autres, les ressources solaires du Sahara pour fournir de l’électricité à l’Europe, voit le jour. Le Ministère Fédéral Allemand de l’Environnement, de la Protection de la Nature et de la Sureté Nucléaire, finance à ce moment deux études pour évaluer le potentiel en énergie renouvelables de toute la zone MENA (Middle East and North Africa), les besoins attendus pour 2050 en eau et en énergie de ces pays, et la faisabilité d’une connexion par un réseau électrique entre l’EU et le MENA. A l’heure actuelle, plus d’une quinzaine d’investisseur se sont ralliés au projet. Parmi eux, l’américain First-Solar, l’italien Enel ou encore le français Saint-Gobain.A terme, le projet Desertec permettrait de fournir les pays du MENA en électricité, et environ 15 % de la consommation européenne. Aujourd’hui, c’est le projet français Transgreen, auquel sont déjà associés EDF et RTE, et qui sera discuté lors de la réunion des 43 pays composant l’UPM (Union pour la Méditerranée).Concrètement, Transgreen vient compléter Desertec, et pas le concurrencer, répètent les partenaires méditerranéens. A l’horizon 2020, le but avoué est de fournir 20 GW d’électricité, dont 5 auront vocation à être exportés vers l’Europe. Mais plus que ça, l’enjeu fondamental est de permettre à des pays africains de vendre une ressource naturelle inépuisable, et d’en profiter également

Un défi technique dont les réponses sont toujours attendues
Transgreen, comme Desertec, fait face à des défis technologiques jamais relevés jusqu’à présent. Il s’agit notamment de transporter l’électricité d’Afrique en Europe. A l’heure actuelle, une seule voie câblée, qui passe sous le détroit de Gibraltar, établit cette connexion, avec une capacité de 1.400 MW. Les études menées pour le projet Desertec évaluent à environ 4 à 5 % les pertes électriques pour 1.000 kilomètres de ligne. Cet état de fait vient accroître le coût de l’énergie, sans oublier les coûts propres de production.Le projet Transgreen, aujourd’hui, est encore en gestation, comme le confirme un conseiller auprès de l’UPM : « des scientifiques travaillent sur ce projet, mais nous en sommes encore aux balbutiements, d’autant plus que la Méditerranée étant un écosystème fragile, il faudra prendre toutes les précautions environnementales nécessaires pour faire passer autant de câbles sous les eaux ».Rendez-vous donc au mois de mai lors de la réunion des membres de l’UPM au Caires. On en saura alors peut-être un peu plus sur les solutions envisagées pour réaliser le câblage entre l’Europe et l’Afrique. Il sera également intéressant de voir dans quelle mesure ce projet Transgreen vient compléter (et non concurrencer) Desertec.P.T

Le centre de RetD d’Alcan s’ouvre aux entreprises extérieures

Basé à Voreppe près de Grenoble, le centre de RetD de Alcan Engineered Products, une unité de Rio Tinto, autrefois réservé exclusivement aux activités du groupe, prévoit désormais de soutenir d’autres entreprises industrielles à développer des solutions de pointe. « Le développement de nouveaux produits et solutions aluminium nécessite une expertise considérable dans de multiples domaines : la métallurgie des procédés et produits, la caractérisation des matériaux, la mise en forme, l’assemblage et le traitement de surface », explique Didier Albert, Directeur du Développement des Ventes d’Alcan CRV Services. Les propriétés de l’aluminium en font un matériau de choix pour de multiples industries, qui pour la première fois peuvent bénéficier de l’expérience et l’expertise d’Alcan pour concevoir, modéliser et tester de nouvelles applications et soutenir leur développement.»De l’échelle nanométrique à l’échelle macroscopique, de l’assistance technique jusqu’au prototypage métallurgique, Alcan CRV Services permettra aux entreprises de concevoir et produire des matériaux rentables et adaptés à leurs besoins. Outre des modules de formation qualifiante et l’accès à d’importantes ressources bibliographiques, les solutions proposées destinées à permettre aux entreprises de mettre en œuvre tous les éléments de leurs programmes de RetD incluent :

  • La caractérisation et l’analyse de matériaux : le Centre de Voreppe fait bénéficier ses clients de la complémentarité entre son panel d’équipements expérimentaux et sa connaissance des microstructures sur les alliages d’aluminium. La capacité à interpréter les résultats de caractérisation intègre les diverses interactions entre les procédés (coulée, transformation, mise en œuvre), les analyses chimiques et l’expertise du dosage d’éléments d’addition (certification Cofrac) pour concevoir et tester efficacement les propriétés recherchées, de l’échelle macrostructurale jusqu’à l’échelle nanométrique, et modéliser les conditions de la mise en œuvre industrielle.
  • L’aide à la conception et modélisation des matériaux : en combinant une connaissance approfondie de la métallurgie physique et mécanique des alliages, des demi-produits et des composants et en exploitant les moyens expérimentaux de caractérisations et de simulation numérique unique en Europe, le Centre aide ses clients à maîtriser les propriétés des alliages et des produits, qu’il s’agisse de fonderie, de laminage ou de filage, pour répondre aux besoins des applications les plus exigeantes. Il est également capable de modéliser la conception des produits et des systèmes structuraux, et de procéder aux simulations numériques nécessaires à l’optimisation des performances en fonction des spécifications.
  • La production de prototypes métallurgiques : la fonderie pilote permet de modéliser, concevoir et maîtriser, dans des conditions économiques optimales, la coulée de lingots-échantillons pour une évaluation rapide de compositions chimiques innovantes, puis de lingots de format industriel. De l’échelle macroscopique avec un laminoir-pilote, une ligne de traitement de surface et de revêtement organique, une machine de traction et une presse Morane triple-effet, jusqu’à l’échelle microscopique avec un microscope électronique en transmission, les équipements réunis au sein de Voreppe sont soutenus par des techniciens et ingénieurs pour concevoir et tester les procédés de laminage, filage, lubrification et parachèvement
  • Le traitements thermiques : pas moins de 8 types de traitements sont mis à la disposition des clients du Centre (mise en solution, trempe, maturation, revenu, réchauffage, détente, homogénéisation et recuit), pour optimiser les précipités, figer les microstructures, contrôler l’évolution des matériaux après trempe, déformer les métaux à chaud… Les moyens de pointe du Centre comprennent un four de grande capacité et des fours modulables de petite capacité, une maquette semi-industrielle de trempe et des systèmes de régulation qui, outre un suivi très précis des cycles thermiques, permettent de mener des études comparatives entre la température réelle des pièces et les consignes de four, générant ainsi des données précieuses pour la transposition industrielle des résultats.
  • Les essais mécaniques : le laboratoire d’essais mécaniques de Voreppe dispose de moyens de caractérisation pour les essais statiques, de fatigue et de mécanique de la rupture. Le savoir-faire du laboratoire s’appliquent aux systèmes de mesure et de suivi de fissure, par « compliance » COD et optique, par chute de potentiel et de déformations, notamment en 3D sans contact. Une machine de 250 t permet également de pratiquer des essais de caractérisation statique et dynamique sur structures.
  • La mise en forme : l’exploitation effective de la formabilité des alliages d’aluminium requiert un ensemble d’expertises complémentaires pour adapter la géométrie des pièces, choisir l’alliage et son état métallurgique, et définir la gamme d’emboutissage. La première expertise donne la forme générale de la structure, les suivantes permettent de conformer, par rétreint et/ou par expansion, les contours définitifs de la pièce emboutie et à adapter la géométrie de l’outillage en fonction des limites de formabilité de l’alliage choisi. La corrélation entre la connaissance de la métallurgie physique et les propriétés des demi-produits et produits finis permet d’identifier l’alliage le mieux adapté aux impératifs de mise en forme et ainsi sa capacité à supporter les efforts d’emboutissage.
  • L’assemblage : le Centre de Voreppe est un pionnier des technologies d’assemblage, du soudage (à l’arc, par résistance par points, par friction-malaxage), jusqu’au brasage, au collage et à l’assemblage mécanique. Particulièrement adapté aux soudages critiques utilisés dans les applications pour le transport, le soudage par fusion, comme le soudage à l’arc, assure la qualité du joint soudé ainsi que sa reproductibilité. Le soudage par résistance par points produit des soudures de qualité structurale, permettant d’atteindre des durées de vie industrielle. Le soudage par friction-malaxage (Friction Stir Welding) est une technologie innovante, développée en grande partie, sur les alliages d’aluminium, par les experts du Centre .
  • Les traitements de surface : les ateliers de traitements de surface et revêtements organiques disposent de 3 outils principaux qui permettent de sélectionner, tester et maîtriser les procédés améliorant les performances des matériaux (aspect, dureté) en fonction des applications clients. Une ligne batch automatisée permet de tester une large variété de traitements de préparation de surface, d’oxydation anodique, de coloration électrolytique, etc. De conception très modulaire, la ligne pilote de traitement sur bande aluminium est capable de reproduire de nombreux procédés industriels de traitement en continu sur bande. Enfin, une ligne pilote de revêtement organique permet de cuire les laques et vernis et d’effectuer des enductions au rouleau comme la lubrification.
Marc CHABREUIL

SGH : comment Merck gère le passage de l’ancien au nouveau système

Depuis le 20 janvier 2009, l’Union européenne a adopté le système général harmonisé de classification et d’étiquetage des produits chimiques (SGH) dans le cadre de son règlement sur la classification, l’étiquetage et l’emballage. Objectif de cette nouvelle réglementation : adopter des critères uniformes pour la classification des dangers et uniformiser le contenu et le format des étiquettes et des fiches de données de sécurité utilisées partout dans le monde. En Europe, ces nouvelles règles de classification et d’étiquetage devront être obligatoirement appliquées au 1er décembre 2010 pour les nouveaux produits utilisant des substances pures et au 1er juin 2015, pour ceux impliquant des mélanges.Mais rien n’empêche les industriels, sur la base du volontariat, d’appliquer ces règles avant ces dates butoir. Et concrètement, afin de pouvoir gérer sans précipitation le passage au nouveau système, c’est ce que beaucoup devront faire. Dans ce cas, l’étiquetage et l’emballage des substances doivent être conformes au nouveau système. Par contre, la fiche de données de sécurité doit faire mention des deux classifications. Mais ce n’est pas tout. Afin de fluidifier la gestion des stocks, étiquetés et emballés avant les dates butoir du 1er décembre 2010 et du 1er juin 2015, une période de transition de deux ans est prévue. Pendant ce laps de temps, ces produits n’auront donc pas besoin d’être réétiquetés et réemballés. Par ailleurs, du 1er décembre 2010 au 1er juin 2015, même si le nouveau système est obligatoire, les substances pures devront être classées conformément aux deux systèmes : le nouveau et l’ancien. Et ces deux classifications seront mentionnées dans la fiche de données de sécurité.Autant d’éléments qui, mis bout à bout, induisent une certaine gymnastique de la part des fabricants de produits chimiques, ceux-ci étant obligés de jongler avec deux systèmes de classification et d’étiquetage : l’ancien et le nouveau. Comment bien gérer cette période de transition ? Que faut-il faire ? Quels sont les écueils à éviter ? Jean-Pierre Caquet, chef produits-affaires réglementaires au sein du groupe Merck Chimie SAS revient sur le cas de son entreprise pour en tirer quelques conseils incontournables. Il détaillera toutes ces questions dans le cadre du rendez-vous du risque chimique du 10 et 11 juin 2010 à Paris intitulé  » SGH/CLP : classification et étiquetage des risques chimiques « , organisée par Techniques de l’Ingénieur en partenariat avec Quick-FDS (voir l’encadré).

S’y mettre tôt
Bien que les échéances s’échelonnent graduellement dans le temps,  » il est impératif de s’y mettre tôt, martèle Jean-Pierre Caquet. Car il n’y a pas de corrélations exactes entre l’ancien et le nouveau système et cela prend beaucoup de temps d’ajouter de nouvelles informations et de créer des passerelles. « Il est vrai qu’il s’agissait pour Merck, d’un chantier de grande ampleur. Au total, le fabriquant utilisent 20.000 produits différents. Et malgré le fait que la gestion des FDS et des étiquettes soit intégralement automatisées et reliées entre elles dans une base de données, il a fallu plus d’une année au groupe pharmaceutique et chimique pour donner à ce projet son rythme de croisière.  » Pourtant nous avions anticipé, souligne Jean-Pierre Caquet, puisque nous avions commencé à y réfléchir au cours de l’année 2008, alors que le règlement n’était pas encore adopté. Mais, au début, nous avons été confrontés à des problèmes de logiciel et de bugs qu’il a fallu résoudre. Ensuite, il a fallut prendre le temps nécessaire pour transformer l’ancien système afin qu’il puisse faire les bonnes correspondances avec le nouveau. « 

De la rigueur
Plusieurs chantiers ont été ainsi menés de front. En amont, toutes les substances ont été reclassées et les FDS réactualisées par la cellule de collecte d’information sur les dangers et les règlements afin de mentionner les deux classifications et d’intégrer, en plus, les exigences de REACH. Ce faisant, il a fallut mettre à niveau tous les autres systèmes, notamment les mesures de stockage et les procédures de routage. » Prenons l’exemple de l’eau de javel dont la classe de danger a changé, commente Jean-Pierre Caquet. Dans le nouveau système, c’est un produit plus dangereux. En tant que tel, il doit donc être stocké et routé d’une autre manière. Autant d’informations qu’il a fallut mettre en relation les unes avec les autres afin que l’ensemble soit parfaitement cohérent. « A cela s’ajoute les modifications concernant l’étiquetage (pictogramme, phrases mentionnant les dangers) qu’il a également fallut mettre en relation avec les substances. » Afin de réduire le risque d’erreur, nous avons mis en place des procédures très strictes. Car dans la masse, l’erreur ne se voit pas. Ce n’est que dans la pratique qu’elle apparaît avec des conséquences plus ou moins graves. « 

Ancien étiquetage d’un produit chimique © Merck

Nouvel étiquetage d’un produit chimique © Merck
 

Procéder graduellement
Afin de minimiser l’impact des erreurs pouvant survenir, le groupe pharmaceutique et chimique a choisi de procéder par étape. La première a consisté à choisir un petit groupe de personnes pour tester le programme informatique mis au point sur quelques produits. Une fois le nombre d’erreurs proche de zéro, le système a été implémenté en test, en parallèle à l’ancien. Objectif : vérifier si, à plus grande échelle, des erreurs pouvaient survenir. Ce n’est qu’après avoir constaté qu’il n’y avait plus de problème, que le nouveau système est venu remplacer progressivement le précédent.

Faire des essais
Chez Merck, les premières substances conformes aux nouvelles règles de classification et d’étiquetage sont sorties en mars 2009. Mais cela ne concernait que 10 à 15 produits afin de pouvoir déceler très rapidement les erreurs et incohérences.  » Si le système n’est pas au point en amont, l’informatique ne servira pas à grand chose, explique Jean-Pierre Caquet. D’où l’utilité de faire des tests à différents stades de l’évolution du projet, en commençant par des produits faciles, c’est-à-dire des produits non dangereux et avec peu de pictogrammes. Ensuite, on peut intégrer des substances plus complexes à traiter, mais il faut régulièrement faire des vérifications. Car un simple bug peut coûter une journée de travail. « Avec cette démarche, l’objectif de Merck est clair : passer progressivement de l’ancien système au nouveau afin d’être prêt en temps et en heure.

Du temps et de l’argent
Au final, même si le fabricant de produits chimiques et pharmaceutiques ne précise pas son budget, ce chantier a représenté un coût substantiel : à la fois en temps hommes, pour adapter les données et le système logiciel, et en équipement pour acheter des logiciels et de nouvelles étiqueteuses. » Cela peut représenter un budget conséquent, admet Jean-Pierre Caquet, surtout lorsque l’on adapte son système à la fois aux exigences du SGH et de REACH. Mais sur le long terme, nous réaliserons des économies car nous n’aurons plus qu’un seul type d’étiquette à éditer. «  Formation Techniques de l’IngénieurToutes ces questions seront approfondies dans le cadre du rendez-vous du risque chimique du 10 et 11 juin 2010 à Paris intitulé  » SGH / CLP : classification et étiquetage des risques chimiques « , organisée par Techniques de l’Ingénieur en partenariat avec Quick-FDS. Pour plus d’information, cliquez ici.Autres formationsRéglementation risque chimique : ce qui change avec REACH, SGH / CLP et les FDSAutres liens utilesINRS : dossier étiquetage des produits chimiques Par Anne-Laure Béranger

REACH : l’actualité de janvier à mars 2010

Au cours du premier trimestre 2010, voici huit événements qui ont marqué l’actualité de Reach et de l’Agence européenne des produits chimiques.

Agenda : la journée des parties prenantes de l’ECHA aura lieu le 19 mai
Etes-vous prêt pour les échéances de 2010 ? Ce sera le thème de la quatrième journée des parties prenantes qui aura lieu le 19 mai en Finlande. 500 participants sont attendus pour des conférences et des entretiens en face à face. La participation est gratuite et cet événement pourra également être suivi en streaming sur Internet.
En savoir plus sur cet événement sur le site de l’ECHA
Deux commissaires en visite à l’ECHA (25 mars)
Le vice-président de la Commission européenne Antonio Tajani et le commissaire européen à l’environnement Janez Potocnik étaient en visite à l’ECHA le 25 mars. Ils ont annoncé être arrivés à un accord concernant les critères déterminant les substances toxiques, bioaccumulatives et persistantes. Ils ont affirmé que 106 substances très préoccupantes devraient être incluses d’ici à 2012 dans la liste candidate à l’autorisation, qui en contient actuellement 29.
Lire le communiqué de l’agence
L’Afsset recommande un volet nano dans Reach (24 mars)
Dans son rapport sur l’exposition des consommateurs aux nanomatériaux manufacturés, l’Afsset recommande d’appliquer le principe de précaution. Pour cela, elle préconise notamment de rendre obligatoire la traçabilité, de mettre en place un étiquetage et d’aller jusqu’à l’interdiction de certains produits. La traçabilité des nanomatériaux passe par une obligation de déclaration par les industriels et une révision de Reach pour prendre en compte les nanomatériaux manufacturés de manière spécifique et quel que soit leur tonnage.
A lire sur le site de Techniques de l’ingénieur Nanomatériaux : l’Afsset recommande la prudence
Instructions pratiques pour former un recours (10 mars)
Le guide Instructions pratiques pour former un recours vise à aider les entreprises et autres parties intéressées qui souhaitent introduire un recours contre certaines décisions de l’ECHA.
En savoir plus sur le site de l’ECHA
Nouvelle consultation publique sur huit substances très préoccupantes (8 mars)
L’ECHA propose d’ajouter huit substances très préoccupantes (SVHC) à la liste candidate aux substances soumises à autorisation. Les commentaires doivent être communiqués d’ici au 22 avril 2010. Ces substances sont potentiellement cancérigènes, mutagènes et/ou toxiques pour la reproduction. Il s’agit du trichloréthylène, de l’acide borique, le tétraborate de sodium anhydre, l’heptaoxyde de tétrabore et de disodium hydraté, le chromate de sodium, le chromate de potassium, le dichromate d’ammonium et le dichromate de potassium.
La liste des consultations publiques en cours sur le site de l’ECHA
L’ECHA publie son rapport d’évaluation (1er mars)
En 2009, l’agence a reçu 406 dossiers d’enregistrement complets, contre 10 en 2008, et a entrepris l’évaluation de 35 d’entre eux (27 contrôles de conformité et 8 examens de proposition d’essais). 14 contrôles de conformités ont abouti. Dans sept cas, une lettre a été envoyée au déclarant et dans sept autres cas, le dossier a été bouclé sans autre action.Le rapport de l’ECHA met également en avant les difficultés rencontrées dans les dossiers. L’Agence renvoie vers le Guide pour l’identification et l’énumération des substances sous REACH.
Le rapport – Les guides
Avis sur trois substances (28 janvier)
Le comité d’évaluation des risques de l’ECHA a rendu un avis sur les propositions de classification et d’étiquetage en Europe de trois substances chimiques comme étant cancérigène, mutagène ou toxique pour la reproduction. Cet avis sera transmis à la Commission pour une décision finale. Les substances concernées sont :– indium phosphide (cancérigène et toxique pour la reproduction)– di-tert-butyl peroxide – DTBP (déjà classifié pour certains risques physico-chimiques, mutagène)– trixylyl phosphate (toxique pour la reproduction).
Plus d’informations
Consultation publique pour trois substances (18 janvier)
En janvier une consultation publique a été lancée pour harmoniser la classification et l’étiquetage de trois substances chimiques : le white spirits, le fuberidazole et le thiacloprid. La consultation est terminée mais l’avis n’a pas encore été rendu.
Pour connaître les consultations en cours
C.G. Les précédents articles sur l’actualité de REACH
  • Actualités de novembre – décembre 2009
  • Actualités du 20 août au 31 octobre 2009
  • Actualités du 15 juillet au 20 août 2009
  • Actualités du 15 juin au 15 juillet 2009

3S Photonics lance des pompes laser vertes

Dans les nouvelles générations de réseaux optiques, Metro ou D-WDM, l’amplificateur optique est un consommateur majeur d’énergie. Le besoin en amplificateur de plus en plus puissant, pour des liaisons FTTx ou des applications transpondeurs à haut débit (40 ou 100Gb/s) utilisant des lasers de pompe classiques, a un impact significatif et négatif sur la consommation d’énergie, la fiabilité et les coûts. Pour garantir la fiabilité requise des pompes laser actuellement utilisées dans ces amplificateurs, des systèmes de refroidissement sont utilisés. Les besoins en énergie qui en découlent et la dissipation de chaleur ont un impact majeur sur la conception, l’exploitation et le coût des amplificateurs optiques.Les lasers de pompe nouvelle génération de 3S Photonics sont conçus pour minimiser la consommation d’énergie et les coûts, tout en conservant une fiabilité optimale. L’intégration de ses propres puces laser dans l’ensemble de la gamme permettent d’obtenir une puissance optique en sortie de fibre très élevée ou une consommation considérablement réduite, en fonction de la priorité définie lors de la conception. Le résultat final est un coût de fabrication et d’exploitation plus faible, que ce soit pour les applications utilisant des amplificateurs EDFAs ou Raman.Ainsi, la gamme de produits 3S Photonics comprend des modules laser de pompe refroidis, semi-refroidis ou non refroidis :– les séries de modules 1999 HPM et 1999 CHP refroidis produisent des puissances optiques en sortie de fibre pouvant aller jusqu’à 720 mW, avec une réduction de la consommation d’énergie jusqu’à 20 % par rapport aux produits concurrents ;– la série 1999 HEP est un module semi refroidi (à 45°C) délivrant des puissances jusqu’à 450 mW. Il nécessite jusqu’à 50 % moins d’énergie pour fonctionner.– pour une plus grande économie, les pompes non refroidies 1999 HPU délivrent des puissances optiques jusqu’à 400 mW et une réduction de la consommation d’énergie de 80 %.Ce gain provient de l’utilisation d’une puce laser qualifiée sous-marine 1999 LCv2, fabriquée dans l’usine française de Nozay (Essonne) qui est intégrée dans un boitier hermétique Butterfly à 14 broches, incorporant un stabilisateur de longueur d’ondes à base de réseaux de Bragg sur fibre optique (FBG). » Au vu de la demande croissante de technologies vertes, et compte tenu de la pression constante, dans tous les secteurs d’activités, sur les coûts, la mise à disposition de pompes permettant des réductions de consommation d’énergie pouvant atteindre 80% contribuera à la révolution verte, enjeu majeur dans le secteur des télécoms, a déclaré Yannick Bailly, Directeur marketing de 3S Photonics. En outre, la réduction significative des coûts d’équipement et d’exploitation associés induit un véritable scénario gagnant-gagnant pour l’environnement et pour l’économie. »Par Marc Chabreuil

La RFID révolutionne la logistique dans la bijouterie

Le ré-étiquetage de 800.000 articles avec des étiquettes RFID et l’utilisation de lecteurs RFID sur mesure ont permis à l’entreprise CLEOR de gagner en productivité, notamment en magasin où les inventaires se font maintenant sans aucune manipulation des bijoux exposés en vitrine.Dans le secteur de la bijouterie où les articles et les étiquettes sont très petits, réaliser un inventaire ou contrôler la réception d’articles devient vite une opération chronophage. « Nos étiquettes nécessitaient parfois plusieurs lectures avant de parvenir à lire le code barre. De plus, la valeur même des stocks implique la réalisation d’inventaires tournants réguliers en boutique qui contraignait nos vendeurs à manipuler les bijoux dans les vitrines et à les replacer après chaque lecture du code barre. Nous comptons en moyenne 10.000 bijoux par magasin et le temps d’inventaire n’était pas neutre », confie Aurélien Sénéchal, Directeur Général Délégué Opérationnel de CLEOR.Le temps perdu en inventaire n’étant pas passé à la vente, l’équipe dirigeante se tourne alors vers la technologie RFID. « Lors de nos veilles concurrentielles, nous avons découvert la RFID et nous avons compris qu’il était possible d’intégrer dans des étiquettes une puce et une antenne RFID pour permettre une lecture sans contact » précise Aurélien Sénéchal. Après des premiers tests réalisés dans le show room, le projet se formalise et l’idée germe d’équiper la centrale de stockage et les magasins de plateaux et de lecteurs RFID afin de faciliter l’entrée et la sortie en stock tout au long de la chaîne logistique.Grâce au marquage RFID présent en entrepôt, cette solution permet ainsi l’encodage des puces sur le site de distribution, la vérification de la cohérence de l’information, et le contrôle de l’activation de la puce RFID. Avec un taux d’encodage des tags RFID de 99.6%, les imprimantes B-SX5 de Toshiba assurent une excellente impression des étiquettes pour le marquage individuel des bijoux, facilitant et accélérant par la suite les étapes d’inventaire et de gestion des stocks.Une fois le fournisseur d’étiquette sélectionné, il s’agissait de trouver le bon prestataire pour la mise en place et la personnalisation de la solution. Un appel d’offres est lancé et la société Frequentiel se détache alors du lot. Rapidement, elle va proposer une solution adaptée à CLEOR. « Outre la réalisation de l’interface logicielle entre le système RFID et le système d’information CLEOR, une de nos valeurs ajoutées sur ce projet a été notre capacité à designer et fabriquer des raquettes et des antennes RFID sur mesure» explique la direction de Frequentiel qui poursuit « Nous avons conçu une raquette sur mesure, légère, fine et pas trop longue pour permettre une manipulation dans une vitrine et nous l’avons adaptée sur le Workabout Pro de Psion Teklogix, que nous considérons comme le lecteur mobile le plus performant du marché à l’heure actuelle. Résultat : 100% de lecture lors des tests et en un temps record! ».

Un inventaire en 4 heures au lieu de 4 jours
Le ré-étiquetage des 800 000 produits en stock peut alors commencer et c’est Toshiba Tec qui est choisi. Les étiquettes restent très petites pour conserver leur côté esthétique et intègrent une antenne RFID et une puce dans laquelle est implémenté un identifiant unique. Grâce à cette étiquette, la logistique de CLEOR est totalement bouleversée. Une performance qui a valu à CLEOR et Frequenciel de recevoir le trophée « Roi de la supply Chain 2010 » organisé par Supply Chain Magazine.A présent, en centrale de stockage comme en magasin, la réception d’un colis ou son expédition, ne nécessite plus de manipuler les bijoux. « Généralement, nos bijoux sont regroupés par lots physiques d’une centaine d’articles. Avant, nous devions sortir chaque bijou pour scanner son étiquette. A présent, l’opérateur lit instantanément les 100 articles, soit en les disposant sur un plateau de lecture RFID, soit avec son PDA muni de son antenne RFID » précise Aurélien Sénéchal. Il en va de même pour l’inventaire tournant. « Nous ne touchons plus aux vitrines pour inventorier nos produits.Il suffit de passer l’antenne du PDA au milieu de la vitrine : à chaque nouveau produit lu, un bip est émis par sécurité. La précision et la vitesse sont impressionnantes d’autant que nous imposons dorénavant des normes de merchandising très strictes pour la réalisation de nos vitrines. » Et l’utilisation de la RFID ne se limite pas aux opérations logistiques puisque même les clients peuvent bénéficier de cette productivité lors de leur passage en caisse.Les magasins ont basculé vers ce nouveau système dès novembre 2009 (soit à peine 8 mois après le début du projet). « Nous avons constaté une hausse de la productivité très importante, » se félicite Frequentiel. « En théorie, un inventaire qui exigeait 4 jours avec la méthode classique, pourra prendre seulement 4 heures ! Cela répond parfaitement aux attentes de notre client qui souhaitait permettre à ses vendeurs de se libérer des tâches rébarbatives et peu productives comme les inventaires. Ce premier projet, unique en France, ouvre la voie à une nouvelle génération de vitrines intelligentes » confie Aurélien Sénéchal.Marc Chabreuil

Les systèmes CRM, une composante essentielle de la performance des entreprises

Développer son activité commerciale est incontestablement la priorité de toute entreprise. Néanmoins, force est de constater que l’accès à de nouvelles opportunités d’affaires n’est qu’une composante de la performance commerciale. Il convient, en effet, de ne pas oublier ses clients existants, qui contribuent largement à garantir la pérennité de l’entreprise. Oui mais voilà, pour bien connaître ses clients, il est fondamental de pouvoir accéder à des données à forte valeur ajoutée. En ce sens, la technologie et, plus particulièrement, les systèmes CRM (Customer Relationship Management) jouent un rôle stratégique. Véritables entrepôts de données, ils doivent permettre aux entreprises de connaître l’un de leurs principaux actifs : leur base client.Construire des relations avec ses clients est un défi, particulièrement lorsque l’entreprise en possède de nombreux qui communiquent avec elle de différentes manières. Les outils CRM doivent permettre aux entreprises de mieux connaître leurs clients et de prendre les bonnes décisions. L’analyse de chaque client, à titre individuel, est donc indispensable afin de développer avec lui une relation durable, personnalisée et ainsi lui proposer une offre adaptée. L’historique de ses achats, ses moyens de communication habituels, entre autres, sont donc autant d’informations nécessaires au développement de relations à long terme. Souvent disséminées dans l’entreprise, ces informations doivent impérativement être consolidées dans une plate-forme collaborative afin d’être exploitables.Les applications de CRM doivent donc permettre de déployer une infrastructure servant à nouer une relation de long terme avec le client et ayant pour effet de lever les barrières entre fournisseur et client. Chacun peut alors anticiper les actions de l’autre et y répondre rapidement.

Certaines plateformes de CRM disposent d’un paramétrage « métier »
Ainsi, l’entreprise devra considérer l’approche CRM comme une véritable stratégie visant à instaurer des relations individualisées. Cette stratégie passe par le développement d’une infrastructure informatique dédiée, permettant le déroulement de processus bien définis et mieux contrôlés.Il convient également de noter que les outils de CRM semblent se diffuser largement au sein des PME, qui peuvent désormais proposer une relation client de grande qualité, comparable à celle délivrée par les grands groupes. Cela s’explique, notamment, par le lancement d’infrastructures plus packagées et simples à déployer. En effet, l’un des freins lié à l’approche CRM résidait principalement dans la difficulté d’intégration des outils. Cette donnée est aujourd’hui révolue.La CRM en plus de ses fonctions classiques, permet d’intégrer des fonctions telles que le suivi de projet, le suivi du SAV et du support Client. L’on notera enfin, que même les administrations commencent à déployer, dans leurs systèmes d’information, des outils de gestion de la relation administrés qui ne sont ni plus ni moins que des plates-formes de CRM disposant d’un paramétrage « métier » et intégrant les spécificités de leurs activités.Le CRM est donc une brique essentielle du système d’information qui vient fédérer un ensemble de données clients. Véritable mémoire de l’entreprise et outil de pilotage, il offre à ses utilisateurs la possibilité de s’appuyer sur des indicateurs à forte valeur ajoutée qui permettent de proposer une plus grande qualité de service et d’apporter une réponse adaptée aux attentes spécifiques de chaque client.

Par Henri Stuckert, Président d’Eureka Solutions

Une filière de recyclage des bétons intégrés économe en eau

Un partenariat tripartite organise en Aquitaine une nouvelle filière de recyclage des « bétons de retour » qui, à la fois, permet des économies d’eau et évite les pertes de béton dues au délayage mais exige une logistique complexe. Cemex Bétons Sud-Ouest, Cemex Granulats Sud-Ouest et Roy TP viennent de signer une convention qui organise, pour la première fois en Aquitaine, une filière de recyclage des bétons non utilisés sur les chantiers, dits « bétons de retour », à l’exception des bétons à base de billes de polystyrène et les chapes fluides à base d’anhydrite.

Alors que les bétons de retour servaient uniquement à des opérations de remblaiement, la nouvelle filière de recyclage des bétons intégrés leur assure une seconde vie. Ils seront transformés en granulats puis commercialisés aux entreprises de travaux publics pour être utilisés en applications routières (sous-couches de formes ou de fondations dans les structures de chaussées). Au total, plus de 50 000 tonnes estimées de granulats de ce type seront produites chaque année. Ce mode de recyclage a un double avantage. Il valorise un sous-produit de l’activité béton prêt à l’emploi en lui redonnant une nouvelle vie après transformation. C’est également une source considérable d’économie de ressources naturelles non renouvelables : les granulats issus de l’opération sont autant de matériaux qui ne sont pas extraits dans des carrières.

En fonction des possibilités techniques de chaque unité de production de Cemex Bétons, les bétons de retour sont stockés soit dans des bennes spécialement conçues (béton moulé), soit dans des bassins d’essorage (béton délayé), soit sur des aires de durcissement (béton gerbé). Dans un deuxième temps, les bétons durcis et les bétons essorés sont évacués par l’entreprise Roy TP vers ses propres sites et ceux de Cemex Granulats (Saint-Sever et Labatut). Sur ces sites, les 2 entreprises concassent et mélangent ces produits pour les transformer en granulats (diamètres de 0/80 mm, 0/60 mm ou 0/20 mm). Ces granulats recyclés sont ensuite commercialisés aux entreprises de travaux publics.

« Les bétons de retour étaient jusque là uniquement traités suivant la méthode du délayage-essorage avec un apport d’eau », explique Pierre Chianta, directeur de l’Agence Aquitaine CEMEX Bétons Sud-Ouest. « Cette nouvelle filière permet non seulement des économies d’eau mais aussi d’éviter les pertes de béton dues au délayage. Nous atteignons ainsi des volumes suffisants pour que l’ensemble du processus devienne économiquement viable ».

La société Roy TP assure la mise à disposition de 18 bennes de stockage et le transport du béton durci et essoré depuis les unités de production jusqu’aux sites de stockage et traitement. L’ensemble du processus nécessite une logistique en flux tendu et adaptée à la production aléatoire des retours de béton. L’entreprise doit être en mesure d’intervenir sur les unités de production dès que les bennes sont prêtes à être évacuées. Cette étape étant fonction des volumes des bétons de retour, elle est difficilement planifiable. L’agent technique de production de Cemex Bétons déclenche les opérations d’évacuation auprès de l’entreprise Roy TP, fait respecter le protocole de remplissage des bennes et veille aussi à ce que l’essorage des bétons soit optimal pour faciliter leur transport.

Ce nouveau système de collecte a nécessité plusieurs types d’investissements : la réalisation de 18 bennes empirol (Roy TP), la création de plateformes adaptées à l’usage des bennes et l’augmentation des installations d’essorage sur les unités de production. Dans un premier temps, 10 centres de production sont équipées, dans Les landes et en Pyrénées Atlantiques.

Marc CHABREUIL

Les tubes en polyester renforcé de fibres de verre pour remplacer le béton ?

En chantier depuis 2007 et installée à Montoir-de-Bretagne, en Loire-Atlantique, la nouvelle centrale à cycle combiné de GDF SUEZ qui sera mise en service cette année, desservira près de 250.000 foyers. D’une capacité de production de 430 MW, elle alimentera en électricité le sud de la Bretagne. La technologie retenue est celle de la turbine à gaz 9FB General Electric.Gaz de France/Suez a ainsi confié la réalisation de l’installation à General Electric, l’entrepreneur principal, qui forme un consortium avec Tecnicas Reunidas, société d’ingénierie espagnole spécialisée dans l’industrie gazière et pétrolière. Pour évacuer la chaleur nécessairement produite par le cycle, de l’eau froide est prise dans la mer, puis dirigée vers un bassin de rétention qui alimente le circuit de refroidissement des turbines et des auxiliaires. Ce sont les conduits de prise de l’eau que Tecnica Reunidas a commandé à APS France.Les canalisations installées, de marque Flowtite, présentent de multiples avantages. Tout d’abord, elles sont moins chères de 20 % que les solutions béton à âme en tôle. Ensuite, elles sont 10 fois plus légères qu’un tuyau fonte, âme tôle, donc plus facile à manipuler et à installer. Enfin, ce matériau présente des caractéristiques hydrauliques bien supérieures, constantes dans le temps, grâce au « liner » interne extrêmement lisse, composé de résine flexible. Ces systèmes de tuyauterie PRV sont également insensibles à la corrosion et ont fait la preuve de leur résistance aux environnements acides. Pour terminer, ils sont dimensionnés pour un fonctionnement en continu de 50 ans.

Assemblement sur place par lamination
L’installation a consisté en la mise en place de 4 conduites de DN1400 mm, avec une partie immergée, et une partie aérienne. Quatre conduites de prise d’eau étaient nécessaires pour satisfaire aux besoins du circuit de refroidissement, alimenté par deux pompes de 18.000 m3/h de débit. Elles sont toutes sous vide et fixées sur des pieux, en bordure de la mer. Installées pendant les périodes de marée basse, elles ont d’abord été préfabriquées en usine, puis assemblées sur place par lamination à cause des dimensions finales des ensembles (plus de 30 mètres de long et pratiquement 6 de largeur).Pour assurer une connexion parfaite avec les pieux en béton existants, une tolérance de seulement 1 cm sur les trois axes était autorisée. Situés dans l’embouchure de la Loire, une zone fortement soumise aux marées, les tuyaux doivent résister à des amplitudes de hauteur du niveau de la mer de 4 ou 5 mètres. Dans les plus forts coefficients de marée, la mer arrive à mi-longueur du tuyau ; une forte résistance à l’environnement salin, et aux contraintes de pression (poids de l’eau) était donc impérative. « La capacité d’APS France à réaliser une installation sous vide a été déterminante pour l’obtention du contrat, indique Ricardo Martinez, Chef de projet chez Tecnicas Reunidas. Toutes les lignes d’entrée fonctionnent en effet par aspiration de l’eau par dépression. Dans ce cas, il fallait une résistance au vide, car en cas de soucis, on pompe sans eau et on crée une dépression absolue. Le tuyau doit alors résister et ne pas se contracter sur lui-même. »Marc CHABREUIL

Le polyamide s’attaque aux deux roues

Pour la moto la plus sportive et la plus puissante de BMW, le groupe allemand Mahle a conçu et fabrique un système d’admission d’air à filtre intégré avec un polyamide de BASF d’une extrême stabilité dimensionnelle.Dans l’industrie automobile européenne, les collecteurs d’admission d’air en polyamide sont désormais relativement courants. Ce n’était pas le cas dans le secteur de la moto où ces composants se différencient notamment par la longueur réduite des tubulures et un encombrement restreint. Les usines de Stuttgart et Öhringen du groupe allemand Mahle ont franchi le pas en mettant au point et en fabriquant un système d’admission d’air à filtre intégré en Ultramid B3WGM24 HP, un grade de polyamide BASF dimensionnellement stable. Cette « boîte à air » dotée de conduits d’admission dont la longueur s’ajuste par électronique et qui combine légèreté et efficacité, est destinée à la moto la plus sportive et la plus puissante de BMW, la nouvelle S 1000 RR.Composée de 3 éléments moulés par injection, cette boîte à air est constituée d’une partie supérieure et d’une partie inférieure soudées l’une à l’autre. La commande destinée à faire varier la longueur du conduit, ce qui permet d’optimiser la courbe de couple sur une large plage de régimes, est fixée à la partie inférieure avant l’étape de soudage. « Comme la précision dimensionnelle des éléments du boîtier joue sur l’exactitude du réglage des tubulures d’admission, il est essentiel que les pièces en matière plastique ne subissent aucune déformation », explique Nicole Berg, planificatrice de production chez Mahle. Les caractéristiques de soudage du matériau revêtent également d’une grande importance, car le peu de place disponible n’offre qu’une très petite surface de soudure. En outre, la teneur minérale de la résine contribue à réduire considérablement le bruit. Marc CHABREUIL

Le Sénat vote contre le bisphénol A dans les biberons

La Sénat a adopté à l’unanimité mercredi 24 mars une proposition de loi visant à interdire la « fabrication, l’importation, l’exportation et la mise sur le marché à titre gratuit ou onéreux de biberons produits à base de bisphénol A ». Les sénateurs ont cependant écarté l’ambition de départ qui consistait à interdire le BPA dans tous les récipients alimentaires.Appliquant le principe de précaution, les sénateurs ont été sensibles à la liste des effets nocifs imputés au BPA qui ne cesse de s’allonger en raison des perturbations endocriniennes qu’il génère. Rappelons que ce composé chimique a la capacité de s’extraire spontanément, à très faibles doses, des plastiques et des résines, d’autant plus facilement qu’il est chauffé, notamment au four à micro-ondes. Libéré dans les aliments et les boissons, il peut ensuite se retrouver dans l’organisme humain (sang, tissus gras, placenta, liquide amniotique, lait maternel…). La vente de biberons contenant du BPA sera suspendue jusqu’à ce que l’Afssa (Agence française de sécurité sanitaire des aliments) publie de nouveaux résultats. Rappelons qu’elle avait rendu un avis positif en mai 2008, estimant que le bisphénol A ne présentait pas de risque pour le consommateur à condition de respecter la dose journalière tolérable (DJT). A la suite de différents « signaux d’alerte », l’agence a décidé de lancer une nouvelle étude sur le sujet.

Des mesures pour diminuer l’exposition humaine
Dans un deuxième article, la proposition de loi précise qu’un rapport devra être rendu par le gouvernement présentant « les mesures déjà prises et celles envisagées pour diminuer l’exposition humaine à ces produits », dans les deux mois suivant la publication par l’Inserm (Institut national de la santé et de la recherche médicale) de son expertise collective sur les perturbateurs endocriniens, et au plus tard le 1er janvier 2011. Cette proposition de loi doit maintenant être inscrite à l’ordre du jour à l’Assemblée nationale. Roselyne Bachelot, ministre de la Santé, s’est déclarée « plutôt favorable » avec deux réserves : un risque de contentieux européen et international et la nécessité de prouver l’innocuité des produits de substitution. C.G. Texte de référence
  • La proposition de loi : www.senat.fr
Dans l’actualité
  • Ça chauffe pour le bisphénol A
  • Plastiques alimentaires : les biberons sous le coup d’une interdiction
  • Pourquoi faut-il interdire le BPA dans les plastiques alimentaires ?
Dans la base documentaire
  • Bisphénol A ou diphénylolpropane (DPP)