Une plate-forme PLM pour gérer les 10 millions de pièces d’un navire

La construction des car-ferries et ferries à passagers, des méthaniers et des paquebots de croisière de Meyer Werft GmbH nécessite la gestion de plus de 10 millions de pièces différentes en conception et logistique. Comparé à d’autres secteurs industriels, ce gigantisme implique des exigences élevées en matière de fonctionnalités et de performances du système PLM (Product Lifecycle Management ou gestion du cycle de vie des produits).Meyer Werf qui possède les installations de production les plus modernes dans l’industrie de la construction navale, recherchait une solution PLM de nouvelle génération capable de générer des gains d’efficacité en termes de conception et de production, d’améliorer la qualité, de réduire les coûts et de stimuler sa capacité d’innovation (lire l’article L’usine numérique et la simulation). Un projet qui va entraîner une véritable transformation de son métier.Déjà utilisateur de la solution Catia de Dassault Systèmes pour la conception virtuelle de produits, Meyer Werft, avait lancé un appel d’offres mondial et retenu, au début de l’année dernière, la plate-forme V6 de Dassault Systèmes et l’expertise d’IBM Global Business Services pour le conseil, la mise en œuvre et l’intégration de la nouvelle plate-forme PLM. Le partenariat avec IBM concerne la définition et l’élaboration des processus de tous les projets de développement menés par Meyer Werft. » Afin de rester le chantier naval le plus innovant et le plus efficace au monde, le PLM joue un rôle moteur en nous permettant de gérer plus efficacement la complexité croissante de nos navires, précise Lambert Kruse, Managing Director de Meyer Werft. Notre choix en faveur de la solution V6 a été dicté par plusieurs facteurs clés, notamment l’alliance performante de la technologie 3D et d’une infrastructure PLM, mais il a également été guidé par la volonté de partenariat et d’ouverture d’IBM et de DS. « Partenaire de Meyer Werft, IBM GBS est chargé de tirer parti du potentiel de la solution PLM V6 appliquée aux processus et à l’infrastructure informatique de Meyer Werft. Ainsi, sera-t-il responsable de la gestion du projet ainsi que de la conduite du changement organisationnel. En outre, les consultants IBM vont élaborer, en collaboration avec Meyer Werft, une architecture durable intégrant efficacement le PLM V6 aux applications et processus existants, mettant ainsi à profit leur expérience de l’architecture orientée services (AOS ou SOA ou Service Oriented Architecture). Avec la V6, Meyer Werft va être en mesure de mettre à la disposition d’un large public en interne, un accès en ligne intuitif à la définition en 3D et aux données produits détaillées de ses navires, du stade de la conception à celui de la production. » Meyer Werft construit de magnifiques navires d’une extrême complexité, mobilisant une main-d’œuvre qualifiée et expérimentée en conception, construction et livraison, dans un grand nombre de disciplines. Notre plate-forme PLM V6 redéfinit la simplicité d’emploi et couvre un plus large éventail de disciplines, autorisant ainsi la collaboration basée sur des expériences 3D réalistes, en améliorant par conséquent la compréhension et la communication entre tous les acteurs impliqués « , conclut Bernard Charlès, Directeur Général de Dassault Systèmes. Par Marc Chabreuil

Quand SharePoint joue la carte de la gestion de contenu d’entreprise

vec la sortie de la version 2010, la plateforme Microsoft SharePoint, déjà largement adoptée par les entreprises et administrations, renforce considérablement ses fonctionnalités de gestion de contenu. Pour Ziad WAKIM, Vice Président Solutions d’Ever-Team, éditeur de logiciels intégrés d’ECM, loin d’être une concurrente, elle se positionne comme un véritable ambassadeur de la mise en œuvre d’une gestion de contenu à valeur ajoutée et permettra aux fournisseurs de solutions d’envisager de nombreuses solutions métier innovantes.La plateforme Microsoft SharePoint se positionne désormais comme une brique stratégique dans la plupart des entreprises. Force est de constater que depuis le lancement de la version 2007, les acteurs économiques et les administrations se sont massivement tournés vers cette solution afin de répondre à leurs différents besoins en matière de travail collaboratif mais également de gestion de contenu. Cette tendance semble s’accentuer au regard de l’émulation liée à la sortie de SharePoint 2010 qui renforce considérablement ses fonctionnalités d’ECM (Enterprise Content Management). SharePoint 2010 devrait donc se positionner comme un véritable ambassadeur de la mise en œuvre d’une gestion de contenu à valeur ajoutée au sein de l’entreprise.En évangélisant les entreprises sur les avantages liés à la gestion de contenu et en proposant des fonctionnalités fondamentales, SharePoint se positionne donc en partenaire des fournisseurs de solutions ECM. En effet, ces derniers peuvent alors s’appuyer sur une plateforme robuste et évolutive pour proposer des solutions permettant de gérer les projets ECM les plus complexes et les processus métiers qui y sont associés.

« Construire de nouvelles offres directement sur la plateforme »
Il n’existe donc pas de compétition mais plutôt une réelle complémentarité et de vraies opportunités de développement pour les éditeurs du marché. La gestion de contenu à très forte valeur ajoutée sera désormais le sésame des fournisseurs qui pourront apporter des réponses métiers à leurs clients.Il est donc fondamental de profiter du socle fonctionnel de gestion de contenu mis à disposition par Microsoft SharePoint et de le valoriser en proposant de nouvelles offres construites directement sur la plateforme. Celles-ci apporteront une véritable richesse métier telles que la dématérialisation, la gestion des dossiers d’affaires ou encore la conformité réglementaire. Il ne s’agit donc pas de se limiter à proposer de simples connecteurs à SharePoint mais de répondre à des besoins métiers en s’appuyant sur un référentiel unique et consolidé, et une expérience utilisateur commune fournies par SharePoint.Dans ce contexte, de nombreuses solutions métier innovantes peuvent être envisagés : rapprocher le contenu non structuré du métier, optimiser les processus de traitement du document, aborder les aspects liés à la conformité au travers de l’archivage à valeur légale ou à valeur probante…L’un des enjeux sera, par exemple, de pouvoir accéder et de déposer directement dans la plateforme SharePoint des documents directement depuis les applications métiers utilisées quotidiennement par les utilisateurs : les applications de gestions (ERP, …) bien sûr, mais également les outils de messagerie ou le poste de travail de l’utilisateur.Les projets de dématérialisation et d’amélioration de la productivité des processus métiers (dossiers d’affaires, gestion du courrier, traitement des sinistres, …) pourront désormais s’appuyer directement sur le référentiel SharePoint, évitant le risque d’un silo documentaire par métier. Enfin, sur le plan de la conformité, SharePoint 2010 permet aux solutions d’archivage électronique à valeur probante ou à valeur légale de se positionner de façon efficace en aval de SharePoint afin de répondre aux contraintes règlementaires et normatives. Bien entendu, de nombreuses autres offres devraient également émerger dans les prochaines années. La plateforme SharePoint 2010 devrait donc largement positionner la gestion de contenu comme un must have pour les entreprises. A n’en pas douter, nous devrions rapidement voir de nouveaux projets.ECM se développer ou évoluer à court terme. Les fournisseurs de solutions de gestion de contenu qui sauront valoriser cette plateforme au travers d’une dimension métier auront donc de beaux jours devant eux. Ziad WAKIM, Vice Président Solutions d’ Ever-Team

L’information scientifique et technique au coeur d’i-expo 2010

I-expo, le salon de référence de l’information stratégique, de la veille et de l’intelligence économique, ouvrira cette année ses portes du mercredi 9 juin au jeudi 10 juin 2010, dans le Hall 5.1 de la Porte de Versailles à Paris. Destinée aux acteurs du secteur de l’information scientifique et technique depuis les chercheurs, les bibliothèques, les cellules de veille en IST, les dirigeants de PME innovantes, en passant par les éditeurs, les producteurs de bases de données scientifiques ou de brevets, les portails de revues, les archives ouvertes, les agences d’abonnement, les moteurs de recherche, les développeurs d’outils collaboratifs… , l’édition 2010 du salon propose de nombreuses nouveautés. Parmi celles-ci, une plus grande surface d’exposition, des villages thématiques, un espace Piazza, des rendez-vous d’affaires ainsi qu’un programme de conférences plénières gratuites et d’ateliers dont le fil conducteur est, cette année, « l’Information et le Numérique : l’heure des choix ».

Un thème qui sera décliné dans les conférences plénières gratuites par une série de débats :

  • Quelle société de l’information ? ;
  • Abondance, confiance et indépendance de l’information ;
  • Réagir aux tranformations de l’innovation ;
  • Les nouveaux enjeux de la communication scientifique ;
  • Où va la veille ? ;
  • De la gestion de l’information à la gestion des connaissances.

Et dans les ateliers-formations du GFII (éligibles à la formation permanente), par les thématiques suivantes :

  • L’information presse sur media mobile ;
  • L’archivage numérique ;
  • Les nouveaux modes d’accès à l’information ;
  • De la veille à l’analyse ;
  • La gestion des ressources électroniques ;
  • La veille en temps réel ;
  • Entreprises 2.0 et réseaux sociaux ;
  • De la veille à l’intelligence marketing.

Retrouvez sur le site i-expo, la présentation détaillée des conférences consacrées à l’IST et à la veille. Au delà, i-expo prend en 2010 un caractère encore plus international en accueillant le Global Information Industry Summit, organisé par la Software and Information Industry Association, en partenariat avec le GFII.

Pour plus d’information : http:/www.i-expo.net

Photovoltaïque : trop d’installations dangereuses

Le parc photovoltaïque de France et d’Outre-mer poursuit son évolution. Entre la fin du mois de septembre 2009 et la fin décembre de cette même année, celui-ci a progressé de 54 %. Par ailleurs, 91 % des systèmes photovoltaïques en service sont des installations de moins de 3 kW qui représentent 44 % de la puissance installée.

En 2009, sur les 2.341 installations photovoltaïques existantes, dont 1.241 dans les DOM, CONSUEL (COmité National pour la Sécurité des Usagers de l’Electricité), organisme reconnu d’utilité publique depuis 2004 sous tutelle de la Direction générale de l’énergie et du climat, a constaté que 37 % d’entre elles, soit 864, sont non-conformes. Un constat plutôt encourageant si on compare ce chiffre à celui de 2008 où 45 % des installations contrôlées, soit 630, présentaient des non-conformités. Mais il faut préciser que la situation entre la métropole et les DOM est très inégale. On note en effet 21 % de non-conformités dans les DOM contre 51 % en métropole. Quels facteurs expliquent une telle disparité ?

Dans les départements d’Outre-mer, les attestations de conformité visées par CONSUEL, organisme accrédité par le COFRAC, sont exigées systématiquement par le gestionnaire de réseau de distribution d’électricité lors du raccordement. Ce qui incite les quelques installateurs locaux à une plus grande vigilance sur le respect des règles d’installation qui sont dictées par le guide UTE C 15712. Ces contrôles ont aussi un effet pédagogique et permettent aux installateurs de mieux maîtriser les règles de sécurité. En métropole, la situation est très différente et s’explique par la diversité de qualification des entreprises, mais aussi par l’absence d’un contrôle obligatoire.

Les 1.241 installations contrôlées en France l’ont été sur la base du volontariat. Mais quel serait le taux de non-conformités si le processus de l’attestation de conformité était rendu obligatoire ? Conscient de cette situation, le ministère de l’Ecologie, de l’Energie, du Développement Durable et de la Mer a décidé de modifier le décret du 14 décembre 1972 rendant obligatoire, dans le logement, l’attestation de conformité pour toute installation électrique neuve et de l’étendre aux installations de production notamment photovoltaïques. Reste à espérer que les pouvoirs publics publieront rapidement ce décret modifié.

En attendant, cette situation représente un vrai danger pour les particuliers, et les installateurs le savent bien. Parmi les 864 installations non-conformes, 72 % présentaient un risque d’électrocution et les 28 % restant présentaient un risque d’incendie. Les principales non-conformités rencontrées lors des contrôles concernaient l’absence d’étiquette d’avertissement, des prises de terres distinctes non interconnectées, une valeur de la prise de terre incorrecte, une mise en œuvre incorrecte (connexions, type de câble, etc.), l’absence de parafoudre dans les zones kérauniques supérieures à 25 ou dans les bâtiments avec paratonnerre, et une section inadaptée du circuit entre l’onduleur et le réseau. Du chemin reste à faire.

Par Marc Chabreuil

Le Lean, avons-nous manqué quelque chose ?

Qui, dans l’industrie, peut aujourd’hui s’offrir le luxe d’ignorer le Lean, interrogeait l’Usine Nouvelle en janvier 2009. Elaborée dans l’industrie automobile par Toyota au lendemain de la seconde guerre mondiale, la démarche Lean vise l’optimisation des processus en diminuant les sources d’inefficacités et de gaspillages. Elle est applicable dans tous les secteurs d’industrie (y compris pharmaceutique ou agroalimentaire) et à toutes les activités (production, organisations de service, fonctions support). Plébiscitée en période de croissance, cette approche est aujourd’hui questionnée à la lumière de la crise économique. La question posée est cependant moins de savoir si la démarche Lean reste applicable dans un contexte de crise que celle des adaptations incontestablement nécessaires.

Dans un marché en croissance comme celui que nous avons connu jusqu’en 2008, cette approche semble tout à fait cohérente. L’augmentation de l’activité absorbe au fur et à mesure les gains de productivité, qu’ils concernent la production ou d’autres fonctions.

Il en va autrement dans un contexte de crise, caractérisés par la stagnation voire la baisse de l’activité. Dans une première période, les entreprises ont, d’une certaine façon, éludé le problème, en affectant les gains de productivité réalisés à la réduction des coûts. Ainsi, elles pouvaient maintenir leur rentabilité dans un contexte de marché plus tendu. Dans certains cas, l’objectif de réduction des coûts est devenu la principale motivation de mise en œuvre des méthodes Lean, sinon la seule. Il s’agit d’une perspective à court terme, tournée vers un résultat immédiat qui s’est souvent traduit par la compression des effectifs.

Un principe gagnant-gagnant

Au bout du compte, les entreprises qui se sont engagées dans cette voie sont aujourd’hui doublement confrontées à une impasse. Pour la plupart, ces gains de performance reposent en effet sur l’implication des équipes liées à la production. Chacun, à son niveau, et c’est l’un des principes fondateurs du Lean, est sensé contribuer à l’amélioration globale de la production par ses suggestions et par son action.

Chez Toyota par exemple, chaque collaborateur fait environ une suggestion par mois, contribuant ainsi à l’amélioration continue de l’entreprise. Pour qu’un tel système fonctionne, chaque contributeur doit pouvoir y trouver son compte, en termes de maintien ou d’amélioration de sa situation professionnelle. Les méthodes Lean reposent avant tout sur un principe gagnant-gagnant. Et c’est précisément cet équilibre qui se trouve remis en cause par la perspective des réductions d’effectifs, vécue comme une sanction.

Cet équilibre n’est pas seulement nécessaire au maintien d’un bon climat social dans l’entreprise. Sa remise en cause affecte également l’une des valeurs fondatrices commune à tout type d’entreprise, quelle que soit sa taille ou son secteur d’activité. Il s’agit de sa volonté de progresser. Car lorsque la démarche Lean est utilisée pour la réduction des coûts et des effectifs, toute l’entreprise adopte mécaniquement une position purement défensive, comparable à celle de l’assiégé en infériorité numérique. Il ne s’agit plus d’aller de l’avant mais juste de tenir une position, survivre. L’utilisation du Lean dans le seul objectif de réduire les coûts aboutit ainsi à une position paradoxale, changer sans changer. Les gains de productivité sont utilisés pour maintenir l’entreprise en l’état; elle produit la même quantité avec des moyens humains réduits. Les pratiques demeurent, mais le sens et l’objectif sont perdus.

Si le phénomène n’était limité qu’aux entreprises françaises, il pourrait peut-être s’expliquer par une traduction imparfaite du mot Lean qui en anglais, ne signifie pas maigre mais sans superflu, comme celui d’un marathonien. Ce ne devrait absolument pas être un corps mal nourri qui de surcroît craint pour son avenir.

Un projet qui donne envie à tous d’y contribuer

Parce qu’elle est le résultat d’un processus d’amélioration continu dans tous les compartiments de l’entreprise (ateliers, services de support, R&D, ventes, management), la mise en œuvre des méthodes Lean ne peut se satisfaire d’objectifs à court terme. Elle doit au contraire s’appuyer sur une stratégie crédible d’absorption sur le long terme des gains de productivité réalisés, par la conquête de nouveaux marchés, la dynamisation des ventes, l’augmentation de la qualité du service, etc. Le mot-clé ici est  » perspectives « . Il s’agit de dessiner, à l’échelle de l’entreprise, une perspective d’absorption des gains de productivité qui ne passe pas par la réduction des effectifs. Il faut un projet crédible et mobilisateur.

Ce genre de perspective ne peut être fourni que par un projet industriel ambitieux, inscrit dans la durée (une ou plusieurs décennies) et qui mettrait l’entreprise à l’abri de la volatilité du marché. Au service d’un tel projet, la démarche Lean doit naturellement être étendue au delà de son champ traditionnel d’application, l’atelier ou l’usine de production. C’est l’ensemble des acteurs de la chaîne qui se trouve impliqué dans la recherche de gains de productivité, l’identification des bonnes pratiques et des idées innovantes. La mise en œuvre du Lean produira d’autant plus d’effets positifs qu’elle sera mise au service d’une vision d’avenir crédible, motivante et partagée par tous. Nous oublions trop souvent que « le modèle Toyota » est un modèle de forte croissance et que c’est pour cela que tous les collaborateurs ont envie d’y contribuer.

Par Philip Marris, fondateur et Directeur général de Marris Consulting, et Michel Prud’homme, Consultant Manager secteur Industrie Automobile chez Marris Consulting&

« la Clairière », premier immeuble collectif passif dans l’habitat social

Avec ses partenaires, en particulier BASF et EDF, le Foyer Rémois vient d’inaugurer à Bétheny l’immeuble « la Clairière », qui met en œuvre des solutions existantes optimisées au travers de leurs applications les plus performantes. Une réalisation qui vise à obtenir les labels « Bâtiment Basse Consommation Effinergie » et « PassivHauss ».Deux ans avant l’entrée en vigueur des recommandations du Grenelle de l’Environnement sur les performances énergétiques des bâtiments, « la Clairière » est le premier habitat collectif qui vise à la fois le label « Bâtiment Basse Consommation Effinergie » et le label « PassivHaus ». Cette réalisation consommera moins de 15 kWh/m² par an pour son chauffage, soit une performance énergétique supérieure de 70 % aux objectifs imposés par la RT 2005, la réglementation actuellement en vigueur, et une anticipation sur les exigences de la nouvelle RT 2012 et du label « Bâtiment Basse Consommation Effinergie » qu’elle préconise. En effet, ce n’est qu’en 2012 que tous les bâtiments neufs devront se rapprocher des performances énergétiques de « la Clairière ».Par ailleurs, son seuil de consommation global en énergie primaire pour l’eau chaude, le chauffage, la ventilation et les auxiliaires ne devra pas dépasser 65 kWh/m² et par an (seuil région) pour être également labélisé « BBC Effinergie ». En fin de chantier, il a également fallu valider un test d’étanchéité à l’air (« Blowerdoor Test ») fixant l’exigence requise en valeur à maximum, soit 0,6 vol/h pour le taux de renouvellement d’air sous une différence de pression de 50 Pascals. Au total, la consommation maximale correspondante en énergie primaire est fixée à 120 kWh/m² par an pour le chauffage, l’eau chaude, la ventilation, les auxiliaires et l’électricité domestique.Ce bâtiment conçu par BCDE architecture, accompagné en phase chantier par le cabinet de conseil en efficacité énergétique LUWOGE consult, pour le maître d’ouvrage et bailleur social, le Foyer Rémois, intègre depuis la conception une réflexion technico-économique et une expertise en efficacité énergétique. Quatre solutions ont été associées pour une performance énergétique optimale.

  •  Le respect de l’architecture bioclimatique couplée à une toiture végétalisée : il ajoute à la fois un gain écologique et un aspect esthétique appréciable intégrant parfaitement le projet à son environnement.
  • Une isolation optimale avec la pose en façade de systèmes d’isolation thermique par l’extérieur. Elle est assurée par un système de la société Sto fabriqué à partir de plaques de billes de Neopor de BASF transformées par Placoplatre, l’entreprise locale SAPE étant chargée de la pose. «la Clairière» s’appuie ainsi la solution d’isolation thermique haute performance Cellomur Ultra. Naturellement de couleur gris argenté, les panneaux en PSE sont réalisés avec les billes de polystyrène graphité expansible Neopor, un matériau en polystyrène graphité expansible, qui permet d’augmenter de plus de 15 % les performances thermiques des panneaux par rapport à un PSE classique. « L’obligation de résultat nous a conduit à approfondir les interfaces de construction » explique Laurent Debrix, architecte en charge de « la Clairière » (BCDE Architecture). « Un bâtiment ainsi isolé par 30 cm de Cellomur Ultra ne doit présenter aucun pont thermique entre le volume chauffé et le volume froid. Le « manteau isolant » doit être parfaitement étanche et les particularités présentées par les châssis de baies ou les modénatures de façade ont pu être absorbées par la facilité de découpe du matériau ». « Obtenir de telles performances thermiques implique un soin extrême pour la découpe et l’assemblage des panneaux » complète Patrice André, directeur de l’entreprise SAPE qui souligne 4 points particuliers : l’utilisation d’une machine à fil chaud pour réaliser les feuillures au niveau des fenêtres et les découpes en biais au niveau des appuis; la protection de la façade du soleil par un filet sur l’échafaudage lors de la mise en œuvre des panneaux; une fixation collée avec des renforts mécaniques au niveau des linteaux des fenêtres et du rail bas; compte tenu de la largeur des panneaux; et une logistique adaptée aux grandes dimensions des panneaux.
  • Une ventilation assurée par un système de VMC (ventilation mécanique contrôlée) double-flux Dee-Fly micro-watt (basse consommation) avec un échangeur thermique à haut rendement (jusqu’à 90 % des calories de l’air extrait sont récupérées et transmises à l’air neuf entrant). Destiné à assurer la ventilation permanente des logements, ce système se compose d’un ventilateur d’extraction installé en toiture, d’un ventilateur d’insufflation en sous-sol et d’un échangeur thermique haut rendement placé en volume chauffé. L’ensemble est complété par un puits canadien qui fournit une géothermie efficace et permet un apport de fraîcheur et confort en été.
  • Une production d’eau chaude sanitaire assurée par des panneaux solaires installés sur le toit du bâtiment qui est également recouvert d’une couche végétale qui permet la récupération de l’eau de pluie et forme une barrière naturelle contre l’humidité et le froid.
Pour sa part, EDF contrôlera les apports énergétiques (le puits canadien, les capteurs solaires et les calories récupérées par la ventilation double-flux) et celui des équipements électriques liés à la consommation collective et individuelle par la pose et le relevé d’informations de sous-compteurs (eau chaude sanitaire, éclairage, chauffage d’appoint des salles de bain et électroménager). Toutes ses données sont rapatriées par liaison Internet vers le centre R&D d’EDF. Une caméra thermique mesurera la thermographie du bâtiment afin de s’assurer du bon traitement des ponts thermiques. La somme de toutes ces solutions énergétiques doit conduire à une économie de 80% sur le chauffage, à condition de bien utiliser les systèmes mis en place Pour ce faire, EDF accompagne le Foyer rémois dans l’approche sociétale au travers des réunions avec les locataires entrants puis au coup par coup (sensibilisation à la maîtrise de la demande d’électricité, remise de lampes basse consommation, sensibilisations aux économies d’énergies et formation aux bonnes pratiques). Les performances annoncées de « la Clairière » suivent l’expérience de la Cité-jardin «les Aquarelles» et préfigurent l’industrialisation du processus à travers le projet de « la 12ème Escadre d’Aviation ». Ces trois programmes ouvrent l’ère des éco-cités en combinant l’ingénierie de la Cité-jardin et les technologies de l’immeuble passif.  Marc CHABREUIL

La plus grande éolienne au monde sera construite en Norvège

http://www.bulletins-electroniques.com/actualites/62535.htmENOVA, l’organisme public norvégien pour la promotion des énergies renouvelables et de l’efficience énergétique, a annoncé le 12 février 2010 apporter son soutien financier à la construction d’un prototype d’aérogénérateur (communément appelé éolienne) sur la côte sud-ouest du pays. Ce projet est porteur de deux innovations.Premièrement, l’aide d’ENOVA ouvre la voie à la construction en Norvège de la plus grande éolienne au monde. La turbine sera munie d’un rotor à pales d’un diamètre de 145 mètres pour une hauteur de 162,5 mètres. Au-delà de ses dimensions, son innovation réside dans l’augmentation de la capacité de génération d’électricité et la diminution des coûts d’exploitation. Ceci est obtenu par une réduction du poids de la turbine et du nombre de parties mobiles ainsi que par l’ajout d’un système de générateur sans engrenage. Le prototype d’éolienne, d’une puissance de 10 MW, soit trois à quatre fois la capacité actuelle, sera érigé à Oygarden dans le Hordaland.Testée onshore au cours des deux prochaines années, cette nouvelle technologie sera commercialisée dans quatre ans pour des utilisations en haute mer, sur mât fixe ou flottant encré au fond marin. Les perspectives d’installations flottantes en font une technologie d’avenir pour l’électrification des plateformes pétrolières et gazières offshores mais aussi pour le raccordement des fermes éoliennes aux réseaux électriques continentaux. La technologie est développée conjointement par Sway AS et Smartmotor AS. La société Sway AS est elle-même détenue par Statoil, Lyse, Inocean og Eystein Borgen.
Miser sur l’éolien offshore
La deuxième innovation réside dans l’ampleur de l’aide accordée par ENOVA. Le projet pilote de démonstration a été rendu éligible dans le cadre du programme Génération d’électricité marine renouvelable initié en février 2009. Les premières aides furent d’abord accordées à des projets portant sur l’énergie des vagues et des courants. Mais le projet Sway recevra pour sa réalisation une aide à l’investissement d’une toute autre ampleur: 137 millions de couronnes norvégiennes (17 millions d’euros) pour un coût total d’environ 400 millions (50 millions d’euros). Cette aide directe est la plus importante jamais accordée par ENOVA à une technologie en développement. ENOVA SF a été créé en 2001 sous le statut d’entreprise publique détenue par le Ministère de l’Energie et du Pétrole. Les ressources financières d’ENOVA proviennent d’un Fonds Energie sous sa gérance et qui est alimenté par un prélèvement sur les tarifs de distribution de l’électricité (1 øre par kWh). Sway AS avait préalablement reçu en 2005 le soutien financier du Conseil Norvégien de la Recherche (Forskningsrådet), Statkraft, Shell Technology Norway et Lyse, pour le développement du prototype.La société Sway avait obtenu le permis de construire et d’exploitation en novembre 2009 suite à la procédure d’autorisation conduite par l’autorité norvégienne de régulation de l’énergie (Noregs vassdrags- og energidirektorat, NVE) en application de la Loi sur l’Energie. Cette autorisation était toutefois conditionnée par l’obtention de l’aide d’ENOVA. Le gouvernement norvégien est également en train de préparer une stratégie nationale ainsi qu’une loi sur les énergies renouvelables en mer. La future loi assurera la supervision par l’Etat du développement de ces énergies et mettra en place un régime de concessions comparable à celui des activités pétrolières et gazières.Enfin, le projet est à mettre en perspective avec la signature par la Norvège le 2 février 2010 de la Déclaration de la Mer du Nord (North Sea Declaration) préalablement adoptée en décembre 2009 par neuf pays (Belgique, Danemark, France, Allemagne, Irlande, Luxembourg, Pays-Bas, Suède et Royaume-Uni). La Déclaration vise à instaurer une collaboration étroite entre les pays côtiers de la Mer du Nord pour la coordination du développement des infrastructures et des politiques en matière d’énergie éolienne offshore. Elle vise en particulier à la construction d’un réseau électrique sous-marin (supergrid) qui servira en priorité à interconnecter les pays producteurs d’énergies renouvelables dans ces eaux. Cet accord politique appelle à l’adoption d’ici la fin 2010 d’un plan de travail stratégique sous la forme d’un « Memorandum of Understanding of the North Seas Offshore Grid Initiative ». En savoir Plus– Communiqué de presse, ENOVA, 15 février 2010 – http://naring.enova.no/sitepageview.aspx?articleID=3835– Société Sway AS, http://sway.no/ avec vidéo de présentation de la technologie Sway – http://sway.no/index.php?id=35– Projet de Loi sur les énergies renouvelables en mer, Ot.prp. nr. 107 (2008-2009) – http://redirectix.bulletins-electroniques.com/OeVPv– Communiqué de presse, Ministère norvégien de l’Energie et du Pétrole, 2 février 2010 – http://redirectix.bulletins-electroniques.com/UPQvfRédacteur : Catherine Banet – Doctorante à l’Université d’Oslo, Faculté de Droit – Institut Nordique pour le Droit de la Mer, Département du Droit du Pétrole et de l’Energie – [email protected]Origine : BE Norvège numéro 92 (9/03/2010) – Ambassade de France en Norvège / ADIT – http://www.bulletins-electroniques.com/actualites/62535.htm 

Le Poste de Travail Web

Quels seront demain les interfaces de travail des utilisateurs et les portails « nouvelle génération » ? « Le poste de travail Web » répond à ces questions mais traite aussi des concepts de poste de travail, d’activité interactive et des aspects pratiques de la mise en œuvre au travers de retours d’expérience et de recommandations. Sans oublier les questions techniques et ergonomiques que soulève inévitablement la mise en œuvre d’un portail.Apparue dans les années 2000, la première génération de portail n’avait alors pas tenu toutes ses promesses. Mais la situation a eaucoup changé ces dernières années. De nouvelles plates-formes techniques plus simples et plus complètes telles que Microsoft Sharepoint et Liferay sont apparues et le niveau de maturité des systèmes d’information s’est considérablement accru.Co-écrit par 4 experts du Groupe SQLI, Arnaud Deslandes, Jean-Claude Grosjean, Médéric Morel et Guillaume Plouin, « Le poste de travail Web – Portail d’entreprise et accès au Système d’Information » a pour ambition de traiter à la fois les concepts de poste de travail, de situation de travail ou d’activité interactive et les aspects pratiques de la mise en œuvre au travers de retours d’expérience et de recommandations.

Destiné aux développeurs et architectes
Il aborde également des questions techniques et ergonomiques que soulève inévitablement la mise en œuvre d’un portail. Il permet de comprendre ce que seront demain les interfaces de travail des utilisateurs et les portails « nouvelle génération ».
  • Préfacé par Karim Manar, Sharepoint, Search & Groove Product Manager, Microsoft France, ce livre s’articule en 5 parties autonomes :la première partie traite du poste de travail, de son ergonomie et de la mutation en cours des interfaces utilisateurs ;
  • la seconde présente les portails en mettant l’accent sur leurs aspects collaboratifs ;
  • la troisième, plus technique, porte sur les innovations apportées par les approches Web 2.0 ;
  • la quatrième analyse la place et le rôle du portail dans le système d’information de l’entreprise.
  • la dernière traite de la mise en œuvre d’un projet « portail » depuis le choix de la plate-forme technique jusqu’au déploiement.
« Cet ouvrage s’adresse aussi bien aux développeurs et architectes qui y trouveront des recommandations issues de nombreux retours d’expérience, qu’aux maîtres d’ouvrage en informatique qui pourront se familiariser avec les concepts, les spécificités et le vocabulaire de ce type de projet ou encore qu’aux décideurs qui souhaitent comprendre les enjeux liés au déploiement d’un portail d’entreprise » précise Médéric Morel, Directeur de Sqli Consulting, une société de services spécialisée dans les NTIC, les nouvelles offres SAP et la Business Intelligence.

L’INRIA réorganise ses dispositifs de transfert de technologies

Impliquée depuis sa création dans le transfert de technologies innovantes vers le monde économique et la société, l’INRIA a décidé de réorganiser cette activité.  » Notre objectif est de diversifier le plus possible les opportunités de partenariats et d’accompagner dans la durée ce transfert, explique Michel Cosnard, Président-Directeur-Général de l’INRIA. Il s’agit également de mieux structurer nos actions. De moins s’investir dans des réponses ponctuelles à un problème par exemple, mais de privilégier les partenariats stratégiques avec les industriels afin de les accompagner dans leur développement. Dans ce même esprit, nous voulons également mieux adresser les PME et leurs besoins en ressources technologiques. « Résultat, depuis environ un an, l’INRIA s’est appliqué à revisiter son dispositif de transfert, qui, insiste Bruno Sportisse, directeur du transfert et de l’innovation au sein de l’institut de recherche, reste un  » processus de transformation d’un objet de recherche en un objet ayant une valeur économique pour la société.  » Celui-ci se structure désormais autour de trois axes.

Privilégier les partenariats stratégiques
Le premier consiste à recentrer la recherche partenariale avec les grandes entreprises autour de quelques accords stratégiques structurants. Ce qui implique la mise en place d’une relation pérenne puisque les deux partenaires s’engagent sur une feuille de route de plusieurs années, mais aussi un pilotage conjoint des programmes de recherche industrielle et la mobilisation de plusieurs équipes au sein de l’INRIA. Ce type de relation peut également aboutir, comme dans le cas du partenariat avec Alcatel-Lucent sur l’Internet du futur, à la création d’un laboratoire virtuel commun et à des actions stratégiques communes.Un engagement très structurant pour l’institut puisque ce faisant, il le conduit à privilégier certaines thématiques de recherche qu’il juge porteuses ou stratégiques, à coordonner ses efforts en interne pour y répondre et à se positionner sur ces domaines pour les quelques années à venir. Dans cette perspective, quatre grandes thématiques ont été identifiées :
  • l’Internet du futur sur laquelle il collabore avec Alcatel-Lucent Bell Labs, Thomson et France-Télécom/Orange Labs ;
  • le calcul intensif sur laquelle il poursuit son partenariat avec EDF R&D ;
  • Les systèmes embarqués avec STMicroelectronics ;
  • et l’édition de logiciels.
Mieux accompagner la croissance des entreprises créées
Située à l’autre bout de la chaîne de l’innovation, la création d’entreprises reste un axe très fort du dispositif de transfert technologique de l’INRIA. Son bilan dans ce domaine est d’ailleurs assez éloquent. L’institut de recherche a en effet participé, au cours des 20 dernières années, à la création d’une centaine de spin-off via sa filiale INRIA-Transfert et I-Source Gestion, un fonds de capital investissement spécialisé dans le financement de l’amorçage d’entreprises innovantes dans les STIC. Mais cela ne suffit plus. « Nous devons renouveler ce dispositif, commente Bruno Sportisse, pour faire en sorte qu’INRIA-Transfert, qui devient IT-Translation, accompagne davantage la croissance de l’entreprise innovante qui vient d’être créée. » Comment ? Grâce à deux leviers :
  • Le premier consiste à apporter des moyens financiers à l’entreprise dès son démarrage, c’est-à-dire en phase de pré-amorçage, grâce à un nouveau fonds baptisé IT2i qui sera doté d’un budget d’environ 10 millions d’euros. Objectif : donner toutes les chances à ces sociétés de se développer, de parfaire leur technologie, d’aller au bout de leurs ambitions stratégiques au lieu d’être à la recherche, en permanence, de nouveaux clients ou de nouveaux investisseurs qui finissent par mettre en minorité les fondateurs dans le capital de leur entreprise.
  • Le second vise à soutenir les fondateurs de ces entreprises dans leur processus de création en leur proposant l’aide de personnes plus aguerries à la gestion d’un entreprise. Objectif : favoriser le développement d’une culture managériale et marketing.
Optimiser le transfert vers les PME
Enfin, dernier axe et non des moindres, l’INRIA s’est fixé comme objectif d’optimiser et d’amplifier le transfert de technologies vers les PME innovantes. Pour y parvenir, l’institut a multiplié les initiatives. Tout d’abord, il s’est attaché à identifier les secteurs sur lesquels émergeaient de fortes demandes en matière de technologies logiciels afin de rendre ses thématiques de recherche plus lisibles. 5 grands marchés ont ainsi été retenus : l’édition logicielle et les logiciels embarqués ; les télécoms, les réseaux et le multimédia ; l’aéronautique, l’espace et la défense ; le développement durable, l’énergie et les transports terrestres ; la santé et les biotechnologies.Il s’emploie également à développer les occasions de rencontre entre le tissu industriel d’une région, les acteurs locaux de l’innovation comme les pôles de compétitivité et le centre de recherche INRIA de cette même zone géographique. Premier exemple de ces synergies à voir le jour : le plateau INRIA de Lille qui a été inauguré en février 2010 et qui devrait être le premier d’une longue série.Dans cette même perspective, l’INRIA lancé fin 2009, un autre outil d’animation et d’identification des PME innovantes : le Club des PME partenaires de l’INRIA.Autre dispositif : le lancement d’un programme de pré-amorçage à destination des PME qui s’engagent, sur le long terme (3 à 4 ans), dans un travail de recherche avec les équipes de l’INRIA, sur un projet dont la finalité est de favoriser la croissance de l’entreprise. Ce sont ces petits laboratoires, baptisés I-Lab, qui sont dotés de moyens financiers et humains, dont un ingénieur qui est chargé de mener à bien ce projet. A ce jour, 3 I-Labs ont été lancés dont un avec la PME Idées 3 com, spécialisé dans la création de galerie marchande virtuelle.  » L’objectif de ce programme n’est pas de limiter ses moyens à ceux alloués par l’INRIA, précise Michel Cosnard. Mais bien au contraire de les élargir en y associant les régions qui sont très intéressées par ce dispositif.  » A-L B

Un super-adhésif pour un assemblage polyamide / aluminium

L’utilisation d’un silicone liquide pour l’assemblage étanche d’un carter d’huile en polyamide et d’un bloc moteur en aluminium se traduit par une diminution de 20 à 25 % du coût d’un carte. Par rapport à leurs homologues en métal, les cartes d’huiles en matière plastique offrent des avantages en termes de poids et de coût. Ces avantages sont encore plus évidents dans les véhicules à moteur, lorsque l’on remplace le joint rigide par un joint adhésif approprié. Le fait d’utiliser moins de vis pour l’assemblage se traduit par une économie de 20 à 25 % sur le coût de revient d’un carter.Les deux entreprises chimiques BASF et Wacker ont réussi à développer un système bi-composant parfaitement adapté : l’adhérence est tellement forte entre le silicone liquide Elastosil 76540 A/B de WACKER et l’Ultramid A3HG7 Q17, un polyamide 66 GF35 spécial de BASF, que l’intégrité du joint de carter d’huile est garantie dans toutes les conditions d’essais habituelles. La combinaison de ces deux matériaux permettrait également de remplacer les joints rigides couvre-culasses et des séparateurs d’huile.

S’affranchir des contraintes géométriques
Inpro Innovationsgesellschaft mbH à Berlin a procédé à des essais comportant notamment une immersion prolongée dans de l’huile et dans des gaz de carter (un condensat présent dans le carter moteur des motorisations à essence), ainsi que des chocs thermiques sur une plage comprise entre – 40 et +150 °C. Ces tests ont prouvé qu’aucune autre combinaison adhésif / matière plastique ne présentait un tel degré d’adhérence lors d’un assemblage avec une pièce en l’aluminium.Cet adhésif de la gamme Elastosil est un élastomère silicone bi-composant RTV (Room Temperature Vulcanizing), réticulant à température ambiante, particulièrement adapté pour éviter durablement toute fuite entre le carter d’huile en Ultramid et le bloc moteur en aluminium. De plus, il permet de s’affranchir des contraintes géométriques au niveau de l’interface carter / bloc moteur puisque aucune force ne s’exerce en compression lorsque l’on utilise un joint réticulable in-situ. Marc CHABREUIL

75 nouveaux projets financés par l’Etat et les collectivités locales

Une nouvelle génération de seringue « intelligente », des parfums moins agressifs pour la peau, des cultures de microalgues pour la production de bioénergies… Les innovations que devraient générer le neuvième appel à projets (lire notre article du 22/10/09) concernent de nombreux secteurs, le plus souvent en lien avec l’environnement, l’énergie ou la santé. Au total, 75 projets collaboratifs de R&D ont été retenus, sur un total de 226 dossiers présentés. Par l’intermédiaire du fonds unique interministériel (FUI), l’Etat financera à hauteur de 91 millions d’euros ces projets. Les collectivités locales en soutiendront une partie pour un montant de 58 millions d’euros. Sur ce total, les PME devraient bénéficier de 30 millions d’euros d’aide. Labellisés par un pôle de compétitivité, les projets satisfont notamment à des critères comme :

  • être collaboratif et rassembler au moins deux entreprises et un laboratoire ou organismes de recherche public ou de formation ;
  • viser le développement d’un ou de nouveaux produits ou services à fort contenu innovant conduisant à une mise sur le marché cinq ans après la fin du programme de R&D ;
  • présenter des retombées économiques pour le territoire que ce soit en termes d’emplois, d’investissements, de structuration d’une filière ou d’anticipation de mutations économiques.
Après neuf appels à projets depuis 2005, 813 dossiers ont été sélectionnés, représentant 4,3 milliards d’euros de dépense R&D dont 1,6 milliard par l’Etat et les collectivités locales. Le dixième appel à projets sera prochainement lancé, avec des résultats programmés pour juillet 2010. En savoir pluswww.minefe.gouv.fr

De l’importance d’une eau de process bien refroidie

L’usine française Meple SA (groupe familial canadien IKO) de Tourville la Rivière compte parmi les sites industriels européens les plus flexibles de la profession dans la fabrication de produits d’étanchéité pour toitures/terrasses et couverture. Cette unité de production largement automatisée est par ailleurs certifiée ISO 9001 (version 2000) par BVQI pour son système d’assurance qualité.Pour refroidir les produits bitumés après enduction, de l´eau froide est nécessaire en permanence. L´installation précédente, vieillissante, créait des soucis de légionelle dans la tour aéroréfrigérante qui était maintenue à un régime trop chaud, de l’ordre de 28°C. Pour accroître la productivité et avoir la possibilité de lancer de nouvelles productions en utilisant de nouvelles matières comme les films polyuréthane, Meple voulait disposer d´une eau à température ajustable de 18 à 28 °C et supprimer la tour de refroidissement.Le groupe CIAT a été choisi par Meple pour la fourniture le matériel nécessaire à cette nouvelle installation qui comporte trois sous systèmes :

  • un groupe d´eau glacée, PowerCIAT LX, de 900 kW de puissance qui assure la production du froid dès que la température extérieure est supérieure à 12 °C. Il offre une large plage de fonctionnement : de -15 ou -8 °C à 41 °C ou 50 °C suivant le fluide calorifique utilisé. Il se distingue par une efficacité énergétique excellente due à l´utilisation de fluides à haut rendement (R134a ou R407C), aux échangeurs optimisés à volume de fluide réduit, aux compresseurs performants, à la régulation de puissance en continue et au séparateur d’huile à 3 étages ;
  • un échangeur de chaleur, qui permet une séparation physique entre le circuit process (eau chargée et régime variable) et le circuit primaire de refroidissement ;
  • un module aéroréfrigérant « Free Cooling » de type Vextra, qui prend le relais du groupe froid dès que les températures extérieures sont inférieures à 12 °C. Il est alors inutile de faire tourner les compresseurs alors qu´il suffit d´utiliser le froid extérieur. Vextra permet de fournir ces besoins résiduels de façon économique, sans faire appel au circuit frigorifique, uniquement à partir de ventilateurs qui vont permettre d´utiliser l´air froid extérieur comme source frigorifique. Il est équipé d´un module de contrôle AEROConnect, en communication permanente avec le régulateur Connect du groupe froid. Les moto-ventilateurs du module Free Cooling sont utilisés en fonction des besoins et des conditions climatiques afin de toujours privilégier la production en mode « Free Cooling ». De 30 à 65 % de la puissance nominale du groupe sont alors fournis. L´efficacité énergétique atteint dans ces conditions un EER de 26 (puissance frigorifique délivrée divisée par la puissance électrique consommée). Dans le cas de l´installation de Meple, l´aéroréfrigérant consomme 34 kW quand le groupe froid consomme 184 kW.
« La consommation énergétique de l´installation est bien maîtrisée avec le système Vextra, c´est un point très important. De plus, la parfaite maîtrise de la température d´eau refroidie, a contribué à beaucoup réduire les rebuts de production. Nous avons également beaucoup gagné en souplesse de production » conclut Mr Andrejewski, le directeur du site. Marc CHABREUIL

Des lecteurs de codes à barres source de productivité

Qu’il s’agisse de lecteurs MP3, de graveurs DVD ou ordinateurs portables, la tendance actuelle est aux appareils de plus en plus petits et fins avec, pour conséquence, des cartes de circuits imprimés super-miniaturisées. La place disponible pour l’étiquette code à barres tend donc à diminuer alors que le nombre d’informations à stocker (code de lot, identifiant fournisseur, référence du produit, numéro de série, etc.) augmente à cause des exigences accrues de traçabilité des produits. Un problème auquel a été confronté Beyonics, fabricant de circuits imprimés pour équipements électroniques.Dans son usine, Beyonics utilise divers testeurs (circuits et fonctions) avec différentes configurations de lecteurs qui, dans la plupart des cas étaient en mauvais état et ne pouvaient pas lire les codes 2D. Par ailleurs, plusieurs testeurs exigeaient un câblage sur mesure et nécessitaient une configuration spéciale pour communiquer avec des protocoles différents. Pour satisfaire ces exigences et limiter au minimum les conséquences d’une migration, Beyonics a décidé d’adopter des codes d’identification Data Matrix 2D et a choisi les lecteurs DataMan de Cognex.  » Nous ne souhaitions pas modifier le câblage ou la programmation de l’installation. La rédaction d’une nouvelle documentation aurait été un cauchemar… Les nouveaux lecteurs fixes devaient donc être prêts à l’emploi. Cela a été le cas avec le DataMan 100 de Cognex « , explique un ingénieur chez Beyonics, qui ajoute :  » nos anciens lecteurs présentaient des taux de lecture inacceptables. Les opérateurs devaient alors souvent recharger les cartes et les machines de montage en surface restaient à l’arrêt jusqu’à l’intervention manuelle. Après installation des lecteurs DataMan 100, le rendement de la production a augmenté d’environ 10 %.  » Au vu des résultats, Beyonics a également remplacé ses douchettes par des produits de la série DataMan 700 :  » Comme le DataMan 750 utilise les mêmes outils logiciels de configuration que la série DataMan 100, nous n’avons donc pas eu besoin de nous former à un nouveau produit. De plus, il s’agit d’un appareil antistatique, conforme aux spécifications de la norme IEC 61340, à la différence de nos anciennes douchettes qu’il fallait envelopper dans une pochette antistatique, ce qui n’était ni très commode, ni conforme à la norme. »Par Marc Chabreuil

Multiplication des masters en développement durable

Selon une étude du Boston Consulting Group (BCG), 450 milliards d’euros devraient être générés d’ici 2020 dans les domaines d’activités de l’économie verte et permettre la création de plus de 600.000 emplois, en particulier dans les secteurs de la construction, des transports et des énergies renouvelables. Pour répondre à ces futurs besoins du marché du travail, les écoles créent de nouveaux masters, professionnels ou spécialisés, en développement durable.Confrontées non seulement à une concurrence très dure mais aussi à des enjeux environnementaux de plus en plus contraignants, les entreprises ont pris conscience de l’importance de la maîtrise de l’information et de leur responsabilité sociétale, et recherchent des spécialistes capables de répondre à ces nouvelles exigences. Cette double compétence en intelligence économique et développement durable, elles la trouveront chez les titulaires du nouveau master professionnel né du rapprochement de l’Université de Versailles Saint-Quentin-en Yvelines (UVSQ) et l’Ecole Européenne d’Intelligence Economique (EEIE) : « Intelligence Economique et Développement Durable ». Ce diplôme de Master 2 universitaire qui sera lancé en septembre 2010, est proposé en option et compte environ 150 h de cours dédiés. Ainsi, les élèves de l’EEIE qui choisiront cette option, auront plus de 600 heures de cours dans l’année.

Une double compétence
Selon Benoît de Saint-Sernin, Directeur de l’EEIE : « Nous sommes au début de l’économie verte. Dans ce contexte, les cadres doivent être capables de gérer de grandes quantités d’informations souvent inédites, de protéger leurs inventions et d’avancer des solutions légales ou réglementaires auprès des autorités européennes afin d’encadrer cette nouvelle économie. C’est la fonction même de l’intelligence économique ! Grâce à ce rapprochement entre une très grande université et une école spécialisée, nous jouons pleinement notre rôle de formateur : préparer au mieux l’avenir ».Afin de répondre à la demande croissante de scolarité en parallèle d’une activité en entreprise (un tiers de la promotion bénéficie de ces contrats spécifiques), l’EEIE a aménagé l’organisation de ses cours et les cadres pourront retourner à temps plein dans leurs entreprises à partir du 1er avril 2011.Pour sa part, l’UVSQ propose un ensemble complet de formations « professionalisantes » dans le domaine de l’environnement et du développement durable : 5 licences professionnelles, 11 masters professionnels, 3 masters recherche. En apprentissage pour la plupart, ces formations préparent les nouvelles générations à réfléchir, décider et agir sur les changements environnementaux et sociétaux.

Une expertise très demandée sur le marché de travail du BTP.
Pour répondre aux demandes de projets et de travaux exigés par les nouvelles réglementations concernant la préservation de l’environnement et les économies d’énergie, les entreprises du BTP réclament de plus en plus des spécialistes dans ces domaines. Pour elles, l’Ecole Supérieure d’Ingénieurs des Travaux de la Construction de Caen (ESITC Caen) a décidé de créer un nouveau Mastère spécialisé en éco-matériaux et développement durable. Cette formation, labélisée CGE, sera dispensée à partir du septembre 2010.L’ESITC Caen), grande école d’ingénieurs spécialisée en BTP, mise déjà depuis quelques années sur la spécialisation de ses ingénieurs dans le domaine du développement durable, à travers l’axe recherche proposé à ses élèves ingénieurs de 5e année et la formation continue. « Forts de cette expérience, explique Hélène Grimault-Duc, directrice de l’ESITC Caen, nous avons créé le Mastère Spécialisé en éco-matériaux et développement durable afin de proposer aux ingénieurs, architectes, urbanistes, maîtres d’ouvrage ou autres professionnels proches de l’acte de la construction, une formation qui procure une expertise de haut niveau, très demandée sur le marché de travail ». Le cursus du MS de niveau bac+6 et d’une durée de 1 an, dont 6 mois en entreprise, comprendra 7 modules : développement durable, construction durable, matériaux de construction, éco-matériaux, économie de la construction, choix contextuel des matériaux et principes constructifs, ainsi qu’une mission en entreprise. Les diplômés se positionneront comme des référents au niveau national et international pour mettre en œuvre la démarche du développement durable pour la construction dans tous les secteurs du bâtiment et des travaux publics. Ils seront également capables de participer à la conception de nouveaux bâtiments économes en énergie et à faible impact environnemental, ainsi qu’à l’élaboration de matériaux de construction alternatifs et innovants.  Marc CHABREUIL

Vers la simulation du procédé d’infusion pour de grandes pièces en composite

Actuellement, les pièces aéronautiques en composite sont fabriquées principalement par un procédé de dépose de bandes pré-imprégnées en raison de la grande rigidité, de la résistance et du comportement en fatigue des résines durcies et des matériaux à teneur en fibres élevée. Néanmoins, les inconvénients de cette technologie sont le coût élevé des matériaux, les contraintes géométriques de mise en forme, la complexité, le coût et le temps de fabrication, et la durée de vie réduite des matériaux. En conséquence, des technologies alternatives basées sur le procédé LCM (Liquid Composites Molding) de fibres sèches font leur apparition. En effet, le but à long terme est de développer des technologies d’infusion pouvant concurrencer les pièces composites pré-imprégnées. Toutefois, les procédés de fabrication ne sont pas encore entièrement industrialisés et reposent aujourd’hui sur des prototypages coûteux du fait du manque d’outils de simulation validés.

Vers une chaîne complète de simulation…

L’objectif scientifique du consortium INFUCOMP est de bâtir une chaîne complète de simulation spécifique à la fabrication de grandes pièces composites pour l’aérospatiale utilisant le procédé d’infusion de résines liquides LRI (Liquid Resin Infusion) et dédiée aux solutions requises par l’industrie aérospatiale européenne. Cette simulation minimisera le recours aux procédés « d’essais-erreurs », longs et coûteux et permettra la fabrication de pièces de haute qualité, plus rapidement et à un coût moindre. Ce projet d’un montant de 5 millions d’euros sur 4 ans va contribuer positivement à un usage plus répandu des composites textiles dans le secteur aéronautique, à une réduction des coûts, à une amélioration des performances, à une augmentation des charges utiles et à une réduction des émissions de carburant. Bien que la recherche projetée porte sur les applications aérospatiales, ces résultats pourront être adaptés à d’autres secteurs.

Une solution de prototypage virtuel de A à Z

L’approche technique utilisée pour la réalisation du projet INFUCOMP a pour but d’obtenir une solution de prototypage virtuel de A à Z, de la conception de la préforme à la fabrication LRI, et d’optimiser le processus pour prédire les déformations de la pièce finale et ses performances mécaniques. Un intérêt plus poussé sera porté au procédé d’infusion. Ce projet couvrira toutes les méthodes communes de type LRI d’usage répandu, actuellement utilisées dans l’industrie aérospatiale, et débouchera sur des technologies autorisant la fabrication économique de structures composites à hautes performances, intégrées et de grande taille. Pour permettre d’atteindre ces objectifs, le programme de recherche européen Framework VII soutient financièrement les 14 partenaires du projet. Le consortium sera dirigé par ESI, pionnier des solutions de prototypage et de fabrication virtuels, de pair avec des partenaires leaders de l’industrie et de la recherche dans les domaines de l’aérospatiale et de l’aéronautique. La solution complète de simulation développée au cours du consortium INFUCOMP s’achèvera avec l’intégration d’un outil logiciel d’estimation des coûts de fabrication fourni par l’Université de Patras.  » Le projet INFUCOMP est un élément essentiel d’un ensemble de solutions pour le développement de matériaux composites intégrés, et représente une opportunité unique de faire évoluer la simulation dans le domaine des matériaux composites et de développer de nouveaux outils en collaboration avec des partenaires leaders de la recherche et de l’industrie aérospatiale « , a déclaré le Dr. Anthony Pickett, directeur scientifique d’ESI GmbH.

Par Marc Chabreuil

Conversion directe de l’énergie lumineuse en énergie mécanique

La lumière a déjà été utilisée pour déplacer des gouttes sur des surfaces solides photosensibles ou grâce à sa capacité à transférer de la chaleur au liquide sur lequel elle est focalisée. Ces approches ne permettent néanmoins que des déplacements simples et à faible vitesse (1 à 10 µm.s-1). C’est en exploitant la possibilité de modifier localement la tension de surface d’une interface eau/huile sous excitation lumineuse, que des chercheurs du département de chimie de l’Ecole Normale Supérieure de Paris (ENS/CNRS/Université Pierre et Marie Curie), de l’Institut de Physique de Rennes (CNRS / Université de Rennes 1) et de l’Université de Kyoto ont mis au point une nouvelle technique pour déplacer, le long de trajectoires variées, des gouttes d’huile flottant sur l’eau avec une vitesse d’environ 300 µm.s-1.Les molécules dites tensioactives ont la capacité de modifier la tension superficielle de la surface d’une solution. Certaines d’entre elles peuvent voir leur polarité modifiée en fonction de la longueur d’onde de l’éclairement. Pour les molécules utilisées dans cette étude, la polarité augmente sous éclairement UV et diminue sous éclairement bleu. A ces variations de polarité induites par la lumière correspondent des modifications de la tension de surface du liquide dans lequel est dissout le tensioactif photosensible. En introduisant ce type de molécules dans un bain d’eau sur lequel flotte une goutte d’huile, il est alors possible de créer une variation locale de la tension interfaciale eau/huile en illuminant partiellement la goutte avec de la lumière UV et/ou bleue.La création d’une variation locale de la tension interfaciale induit alors un déplacement du liquide tangentiellement à l’interface. Ainsi, lorsque la goutte est placée sous irradiation partielle, ce mouvement interfacial du liquide induit un déplacement de la goutte : celle-ci fuit la lumière UV et est attirée par la lumière bleue. Ce phénomène capillaire qui dépend de la longueur d’onde d’illumination a été baptisé « effet chromocapillaire ».La goutte est donc animée d’un mouvement piloté par la longueur d’onde de l’illumination : il devient possible de la manipuler avec un motif lumineux composé de deux longueurs d’onde (UV et bleu). A la manière d’une pince optique macroscopique, la goutte est piégée au centre d’un disque de lumière bleue (attraction) entouré d’un anneau de lumière UV (répulsion). La goutte peut ainsi être déplacée à volonté à une vitesse de l’ordre de 300 µm.s-1, ce qui est environ 30 fois plus rapide que les mouvements observés traditionnellement sur des surfaces solides photosensibles. Cette nouvelle méthode de conversion directe de l’énergie lumineuse en énergie mécanique ouvre de nouvelles perspectives pour les systèmes photostimulables, le déplacement de liquide en milieu confiné (microfluidique) et la manipulation sans contact d’échantillons fragiles ou dangereux.

Les sciences et technologies du numérique en manque de réflexion éthique

(Article publié le 28/02/2010 sur Vivagora.org) Droit des robots, atteinte à la vie privée, nouvelle médecine assistée par ordinateur, cyborg et transhumanisme, informatique émotionnelle, manipulations mentales, addiction à l’informatique ou guerre numérique… la liste des risques que les Sciences et technologies du numérique (STN) font peser sur la société s’allonge jour après jour. Pour défricher ce terrain, le Comité d’éthique du CNRS (Comets) et l’Institut de recherche en informatique et automatique (INRIA) viennent chacun de publier un rapport sur le sujet (lire l’article Plus d’éthique pour les STIC). Ils proposent la création d’un Comité d’éthique en STN afin de  » mieux identifier les incidences éthiques des recherches menées dans le domaine, de sensibiliser les chercheurs à ces enjeux, de s’assurer que les recherches menées satisfont aux critères éthiques. «  » Les deux organismes ont pris conscience que ces recherches ont un impact considérable sur l’évolution de notre société  » explique Jacques Bordé, ancien directeur de recherche au CNRS et membre du groupe de réflexion sur l’éthique de la recherche en STN du Comets.  » Au début du travail du Comets, on s’est rendu compte que la réflexion éthique sur la société numérique en général était encore très peu développée. La première étape, qui fait l’objet du rapport du Comets, a consisté à identifier les domaines susceptibles de soulever des questions éthiques. La suite du travail sera de mener une réflexion plus spécifique liée à la recherche dans chacun de ces domaines. « 

La responsabilité des chercheurs
 » Très peu de chercheurs en STN, ou de décideurs du CNRS se posent des questions éthiques sur l’impact de leurs travaux, poursuit Jacques Bordé. De nombreux responsables de recherche répondent en toute sincérité que les programmes qu’ils pilotent ne concernent que les performances techniques et scientifiques et ne soulèvent donc aucune question éthique.  » Si le groupe de réflexion du Comets constate que les chercheurs montrent souvent une certaine insouciance due à une foi dans une science a priori forcément bénéfique pour l’humanité, il relève aussi la facilité avec laquelle ils renvoient entièrement les responsabilités quant aux conséquences de leurs recherches sur ceux qui mettront, finalement en application leurs travaux : classiquement les industriels pour les produits et les politiques pour les régulations. Cette frilosité du monde scientifique se double bien souvent d’une naïveté qui idéalise la solution technologique. La communication se fait mal ? Il suffit de passer de nouveaux tuyaux, plus larges, plus rapides… Une idée largement dénoncée par Dominique Wolton, directeur de recherche au CNRS, qui affirme que  » le progrès technique ne suffit pas pour créer un progrès de la communication humaine et sociale.  » Internet nous aide-t-il à mieux nous comprendre ? Rien n’est moins sûr…Si la réflexion éthique examine en premier lieu la finalité première d’une découverte, elle doit aussi envisager si possible les différentes utilisations qui peuvent en être faites. Le chercheur est alors souvent le premier à pouvoir imaginer ces usages alternatifs, leurs dérives potentielles, et éventuellement reprendre sa recherche pour minimiser les applications néfastes. Par exemple, si les chercheurs avaient anticipé que la gratuité sur Internet entraînerait une prolifération des spams, peut-être auraient-ils conçu Internet différemment ? … Lire la suite de l’article sur Vivagora.orgPar François Rebufat

Quand l’informatique s’oriente vers des solutions métier

Historiquement adressée de manière transversale, l’informatique s’oriente désormais massivement vers une approche plus fonctionnelle et métier. En effet, même les grands généralistes du secteur tendent à « verticaliser » leurs offres pour proposer des solutions toujours plus proches des préoccupations de leurs clients. La spécialisation sur des secteurs d’activités tend ainsi à devenir un facteur différenciateur important pour les professionnels de l’édition comme pour les SSII et intégrateurs. Mais, à ce stade, il convient de savoir déchiffrer et analyser les offres présentées en ne se laissant pas enchanter par le doux chant des sirènes du marketing. Ainsi, sous des solutions packagées alléchantes se cache parfois une boîte vide ou tout au moins une approche plus transversale que verticale… Il est donc fondamental de bien déchiffrer les annonces de lancement d’offres et de valider les expertises sectorielles des fournisseurs de technologies et de leurs partenaires. Mais, au-delà de la technique elle-même qui peut plus ou moins bien répondre aux attentes métiers des entreprises, la notion de paramétrage et d’intégration au sein du SI s’impose également comme une donnée stratégique synonyme de réussite du projet. Notons également que les intégrateurs doivent jouer un rôle de conseil important et parfaitement maîtriser les enjeux business de leurs clients. De plus, il est fondamental qu’ils tiennent compte des contraintes réglementaires et des spécificités d’organisation. Etre un bon développeur et un ingénieur chevronné est donc un élément incontournable mais insuffisant pour aligner le système d’information à une stratégie guidée par le métier. Dans ce contexte, les professionnels de l’édition comme de l’intégration déploient de nouvelles stratégies pour répondre à ces besoins. Un premier pan visible de ces nouvelles organisations est le recrutement d’un nouveau type de collaborateurs. En effet, les entreprises recherchent des profils associant à la fois connaissances techniques et expertise sectorielle. Ainsi, consultants et chefs de projets experts sur des secteurs d’activités sont aujourd’hui chassés par l’ensemble des entreprises qui se livrent une bataille financière et de séduction pour incorporer dans leurs équipes ces profils si rares et convoités. Mais devant la pénurie de candidats potentiels, on assiste de plus en plus à des recrutements de collaborateurs non informaticiens. Les éditeurs privilégient dès lors la connaissance « métier » qui sera intégrée aux « road maps » produit ou aux développements d’offres de service.Notons de plus qu’au niveau de la formation de nombreuses initiatives sont menées, aussi bien au niveau des études supérieures que de la formation professionnelle. Pour cette dernière, de nombreux cabinets spécialisés dans la formation de cadres sur des secteurs donnés ont d’ailleurs spécialement développé des cursus adaptés à des populations techniques. Cela doit leur permettre d’intégrer les données sectorielles indispensables à la mise en production de projets associant ingénierie et données métiers. Ces cabinets permettent de former un nouveau type de collaborateurs et de développer leur employabilité. Poussé par les entreprises désireuses de s’appuyer sur des SI intégrant leurs enjeux spécifiques, le paysage IT entre donc dans une révolution culturelle. Se positionner comme un expert métier impose des investissements importants pour les professionnels de l’industrie IT. En effet, au-delà des efforts initiaux qu’ils doivent consentir pour répondre aux attentes des DSI, il est également nécessaire de maintenir un niveau d’expertise métier dans un environnement changeant, notamment du fait des nouvelles réglementations. Cette donnée doit être intégrée par l’ensemble des intervenants qui sont contraints à la fois de mener une veille constante des changements opérés et maintenir à jour leur niveau de connaissance.Par Julien Victor, Directeur Associé du groupe Effisoft

Composites : comment produire durablement en France

Faire face à la concurrence mondiale sans délocaliser, offrir de meilleures conditions de travail pour les salariés, devancer les réglementations environnementales.Tout cela passe par la réorganisation des chaînes de production et une démarche complète d’industrialisation et de robotisation. Les entreprises du secteur des composites qui ont franchi le pas, ont rapidement dégagé des marges de progrès et renoué avec la compétitivité, notamment face aux pays émergents.Avec seulement 3.000 robots installés chaque année dans les industries manufacturières et 146 robots pour 10.000 travailleurs, la France se situe loin derrière l’Allemagne (12.000 robots) ou même l’Italie (6.500). Sans parler du Japon avec une progression annuelle de son parc de 35.000 unités. Pourtant, la robotisation constitue une solution pour produire durablement en France et, dans le cas des composites, de réduire les émissions de COV, voire de devancer les exigences actuelles en matière d’environnement et d’assurer ainsi au site une conformité aux réglementations pérenne.« La création de zones en vase clos, dont le fonctionnement est essentiellement assuré par des machines robotisées, permet de maintenir les salariés à l’écart des zones à risques et de réduire de trois quarts la taille des ateliers », déclare Claude Chouet, Responsable commercial de MATRASUR Composites, constructeur, intégrateur et distributeur français qui propose son expérience et savoir-faire dans la conception d’équipements destinés à la fabrication de pièces en composites

Retrouver la compétitivité
Une démarche de réorganisation et de robotisation d’une chaîne de production, rentabilisée en moins de trois ans, apporte des avantages économiques directs avec une diminution des coûts de production, une réduction drastique des consommations d’énergies (division des coûts énergétiques par 4 ou 5) pour la ventilation et le chauffage des ateliers, une qualité de production régularisée… C’est la combinaison de ces facteurs qui permet aux entreprises de retrouver de la compétitivité, face notamment aux pays émergents.Ce fut le cas d’une société française de fabrication de baignoires pour qui, comme si la concurrence des industriels asiatiques et de Moyen-Orient ne suffisait pas, se trouvait face à 3 problèmes majeurs: une obsolescence de son outil de production, une surface des ateliers limitée et une implantation en zone urbaine conduisant à des contraintes réglementaires et environnementales draconiennes. Autant dire que la tentation de délocaliser sa production était forte.Pourtant, elle a opté pour l’automatisation et la robotisation à 100% de sa production : projection simultanée de résine et de fibre de verre, thermoformage et convoyage automatiques, manutention, pose d’inserts, projection, découpe et convoyage robotisés… Résultat, l’industrialisation apportée par MATRASUR Composites a permis de réduire le temps de fabrication (une baignoire toutes les 2 min 15 s), alors que la main d’œuvre et la surface de production ont été réduites de 50 % tout en maîtrisant mieux la qualité.

Un gain de temps et de main d’œuvre
Autre exemple, celui d’un fabricant de piscine qui voulait implanter un nouveau site de production alors qu’il ne disposait que d’une surface limitée et était contraint de faire appel à une main d’œuvre sans expérience du produit. Là encore, le recours à la robotisation (projection robotisée de démoulant, de gelcoat avec changement de couleur, de barrière-coat et, simultanément de résine et de fibre de verre) a permis de réduire de 37 à 13 heures la main d’oeuvre nécessaire pour produire une pièce, ce qui correspond à une économie annuelle de 1,267 million d’euros.Et cet investissement de 1,15 million d’euros s’est également traduit par une réduction de 12 % de la quantité de matières premières et par une diminution des coûts énergétiques annuels de 30.000 € grâce à une réduction de 80 % des surfaces chauffées et ventilées. Au total, la réduction des coûts de la main d’oeuvre et de l’énergie ainsi que l’amortissement se sont traduits par un gain de 899.000 € au niveau du bilan annuel pour un volume de production identique à celui du précédent atelier (1.760 piscines par an). « Bien que la culture d’entreprise ne soit pas naturellement tournée vers l’industrialisation, les sociétés doivent se tenir prêtes pour opérer de tels changements. Même les PMI qui préféreront sans doute procéder par étapes afin d’atteindre leur but et assimiler progressivement ces changements. Nous leur proposons des méthodes de production alternatives à plus ou moins court terme », conclut Claude Chouet.  Par Marc Chabreuil

Nephelios, le premier dirigeable à panneaux solaires

Voler sans polluer, en totale autonomie et en puisant son énergie dans l’air et le soleil, un rêve qui devient réalité avec le premier dirigeable solaire qui s’apprête à traverser la Manche. Cent ans après la traversée de la Manche en avion par Louis Blériot, le Nephelios, le premier dirigeable solaire au monde, effectuait son premier vol d’essais en dépit de conditions météorologiques difficiles. Moins d’un mois plus tard, le 3 janvier dernier, un second vol de 2 h 30 était couronné de succès. Une nouvelle étape avant la traversée de la Manche prévue à partir du mois de mai prochain.Le Projet Sol’R s’est constitué au début de l’année 2008 autour de trois étudiants, après leur rencontre avec un passionné de dirigeables, Stéphane Rousson. Aujourd’hui l’équipe compte environ 50 personnes investies dans la construction d’un dirigeable solaire. Plusieurs Grandes Ecoles (EPF, ESSEC, INSA Lyon et Arts et Métiers Paristech) ainsi que des lycées techniques (Lycée Timbaud, Lycée Doisneau et CFA de la FDM d’Evry) ont participé à la réalisation technique du projet qui a bénéficié de l’aide de nombreux organismes comme l’Ademe et industriels dont Messer, qui fournit l’hélium.D’un volume de 350 mètres cubes, le Nephelios (22 m de long et 5,5 m de diamètre) est le premier dirigeable habité au monde entièrement propulsé par l’énergie solaire. Il transporte un pilote et des équipements de recherche scientifique, permettant des avancées technologiques cruciales pour l’avenir du dirigeable et du transport aérien.

Un rendement de 6 %
Le défi technique était énorme. A commencer par le choix des panneaux solaires disposés sur la partie supérieure de l’enveloppe en toile recouverte de polyuréthane pour l’étanchéité. Ceux-ci ont dû répondre à un cahier des charges précis : poids, surface, solidité, étanchéité… Ce sont des panneaux de la société Global Solar distribués par Euro-Line Inc qui ont été choisis. Offrant un rendement de 6 %, ils présentent l’avantage d’être souples, légers et facilement démontables. L’énergie solaire recueillie (2,4 kW) alimente un moteur électrique disposé derrière la nacelle de pilotage, laquelle est dotée de deux hélices bipales.Hormis la propulsion solaire, écologique particulièrement silencieuse, les équipes techniques du projet Sol’R travaillent également à ce que le Nephelios soit une référence en termes de manœuvrabilité et d’autonomie énergétique.Aujourd’hui, le Nephelios trouve tout son intérêt car les aéronefs, qui ont volé bien avant les avions, suscitent de nouveau un intérêt. Leurs qualités (charge utile et efficacité énergétique inégalées) prennent une nouvelle dimension dans le contexte actuel de raréfaction des ressources naturelles. Ces dirigeables « nouvelle génération » ouvrent alors des perspectives dans de nombreux domaines (télécommunications, observation aérienne et tourisme) tout en répondant aux enjeux du développement durable pour le transport aérien. Marc CHABREUIL

Une résine haute température permet le moulage par injection bi-matière

Pour créer une nouvelle pompe à faible débit destinée à son tout dernier distributeur de café, Vitality Foodservice avait, à l’origine, prévu d’utiliser une résine standard pour le corps rigide de la pompe  » Bump « , une pièce très difficile à mettre au point, avec des spécifications et des exigences drastiques Cependant, la haute température du moule nécessaire à la transformation du silicone liquide provoquait une déformation de la résine. De même, le surmoulage nécessitait deux moules d’injection, ce qui ajoutait des coûts d’investissements, de main d’œuvre et des dépenses en immobilisations. La société a rapidement opté pour la résine polyéthérimide (PEI) Ultem 1 000 haute température de SABIC Innovative Plastics, qui présente une conformité à la norme sur les contacts alimentaires de la U.S Food & Drug Administration (FDA) et de l’Union Européenne (UE), une température de transition vitreuse à 217°C et une grande rigidité. Pour créer la pompe  » Bump  » constituée de deux pièces, le mouleur de Vitality, Dymotek, utilise le moulage par injection bi-matière et expose la résine Ultem à un rayonnement ultraviolet avant de la surmouler, afin de renforcer l’adhésion du silicone. La résine Ultem 1000 étant traitée à une température de 180° C, la chaleur polymérise le silicone très rapidement et crée une liaison durable. Cette méthode réduit le temps de cycle à une minute, ce qui représente une économie de plus de deux minutes par rapport à une autre résine qui était envisagée.Un autre aspect important avec l’application de la technologie de surmoulage du silicone sur la résine Ultem a été l’intégration de composants. De nombreux éléments fonctionnels, tels qu’une chambre de pompage flexible avec un robinet d’admission, un cône d’étanchéité de la soupape d’évacuation, un joint de buse et une fenêtre translucide pour un indicateur lumineux, ont été intégrés dans le corps de pompe. En outre, la liaison parfaite et pérenne entre les matériaux empêche l’oxygène de pénétrer dans le système, et contribue à garantir la fraîcheur et la saveur optimale du café.La rigidité et la stabilité dimensionnelle de la résine Ultem assurent également la tolérance de cotes des pièces moulées, ce qui aide la pompe  » Bump  » à fournir de façon constante et régulière un débit de 0,4 ml à chaque course. Par Marc Chabreuil

Des filtres constitués de nanofilaments réduisent les prix

http://www.bulletins-electroniques.com/actualites/62417.htmLes nanotechnologies font couler beaucoup d’encre, notamment en France à l’occasion du débat public. Mais, si ces technologies peuvent faire peur, elles permettent également de nombreuses applications très intéressantes. La technique de production de filtres développée par la société Filton AB et l’institut de recherche Swerea IVF en est un excellent exemple.A quoi peut en effet servir une toile de nanofilaments ? Réponse de Kent Pettersson, président de Filton :  » à réduire la consommation d’énergie du système de ventilation.  » Grâce à une nouvelle technique pour le filage de filaments nanométriques, que l’on peut à peine distinguer dans l’air, on peut produire des filtres à air particulièrement efficaces. Les chercheurs ont réussi à mettre au point un système qui piège efficacement la poussière, les virus ou d’autres types de particules indésirables, au travers duquel l’air passe facilement. C’est l’avantage principal de ce nouveau filtre, la résistance à l’écoulement de l’air étant amoindrie, la consommation d’énergie est réduite d’autant. Le système de ventilation consommerait environ 20 % en moins. Une telle diminution de la consommation d’énergie est un enjeu de taille puisque cela représente 70 % du coût total du système de ventilation. Ce type de filtre peut être utilisé dans tous types d’installations : bureaux, industries, aspirateurs ou encore véhicules.

Prototype pour fabrication du nanofiltre. © http://www.bulletins-electroniques.com/actualites/62417.htm

Le nouveau nanofiltre est produit grâce à une technique d’électrotissage. Un champ électrique, couplé à la force centrifuge extrait des fibres polymères d’une solution. Les filaments se déposent sur un substrat plastique poreux. Le tissu de nanofilaments seul serait en effet beaucoup trop fin et fragile. La technique consomme, de plus, peu de matériau : un gramme de nanofibre suffit à produire un mètre carré de filtre. L’enjeu des tests en cours est de rendre les longs filaments de polymères les plus fins possible, sans qu’ils ne se scindent en gouttes microscopiques. Des paramètres comme la concentration de ploymères dans la solution, l’intensité du champ électrique ou encore la vitesse de rotation de l’appareil restent à ajuster. Les nanofilaments obtenus actuellement ont un diamètre de 200 nanomètres, une taille qui pourrait encore diminuer.A l’automne, le système sortira de sa phase en laboratoire et sera testé dans des conditions d’utilisation réelles. La difficulté sera alors pour le tissu filtre de résister aux conditions de température et d’humidité variables sans se déchirer. Par ailleurs, il faudra observer l’évolution de l’efficacité du filtre sur une longue période d’utilisation. Si tout se passe comme prévu le filtre devrait être lancé sur le marché en début 2011. Le coût du filtre sera légèrement supérieur à celui d’un filtre traditionnel mais le prix total devrait être tout de même réduit, grâce aux économies d’énergie. Pour en savoir plus : Le site de l’entreprise : http://www.filton.seSources :– Journal NyTeknik du 27 janvier 2010 : http://redirectix.bulletins-electroniques.com/UvTU8- http://redirectix.bulletins-electroniques.com/lkvT8Rédacteur : Antoine Baudoin, [email protected], [email protected]Origine : BE Suède numéro 12 (2/03/2010) – Ambassade de France en Suède / ADIT – http://www.bulletins-electroniques.com/actualites/62417.htmDossier Techniques de l’Ingénieur : Nanotechnologies : quel potentiel, quelles limites ?Guide Techniques de l’ingénieur : Le guide 2010 des nanotechnologies

Quelles stratégies pour une informatique verte ?

Il existe une variété de technologies qui permettent de tendre vers une informatique verte : la virtualisation est l’une d’entre elle, au même titre que la conception de matériels consommant moins d’énergie et nécessitant moins de refroidissement. L’optimisation des processus et des infrastructures existantes peuvent également entraîner non seulement un environnement plus écologique, mais aussi une amélioration des résultats.Examinons ici la façon dont les organisations peuvent développer une stratégie d’informatique verte, grâce à une meilleure visibilité des actifs informatiques existants et une meilleure connaissance de l’état de l’infrastructure informatique.Il existe de nombreuses opportunités de dégager de la valeur en concevant et en mettant en œuvre une politique verte au sein d’un système de technologie de communication et d’information.

Un secteur a fort impact sur l’environnement
Les systèmes ICT (Information and communication Technologies) représentent généralement près de 25 % de la consommation directe d’électricité dans les bâtiments à usage commercial. En fait, dans les bâtiments ou locaux inefficaces énergétiquement, ayant une densité élevée de matériel informatique, ce chiffre peut même atteindre 60 à 70 %. A l’échelle mondiale, ils représenteraient 2 à 2,5 % du total mondial des émissions de carbone, soit l’équivalent de l’industrie aéronautique mondiale. Ce chiffre pourrait même encore augmenter. Car si rien n’est fait, l’usage des technologies de l’information pour réduire l’impact de l’activité des hommes sur leur environnement pourrait encore alourdir le bilan de l’informatique. A termes, ce secteur pourrait représenter 5 à 6 % des émissions de carbone et tendre vers des taux à deux chiffres. Résultat : l’empreinte carbonique du secteur de l’ICT devrait tripler au cours de la période allant de 2002-2020.

De multiples leviers
La réalisation d’une ICT verte est une première étape très viable et à forte valeur dans toute stratégie d’informatique verte. L’impact d’une ICT plus écologique est multiple : empreinte physique moindre (c’est-à-dire des centres de données plus petits et plus modernes), empreinte carbonique moindre (des appareils mis à niveau), réduction des frais de chauffage/ refroidissement, conformité avec les réglementations gouvernementales et bonne commercialisation.Il convient de noter que d’un point de vue holistique, l’informatique verte n’est pas une simple réduction de la consommation directe d’énergie. Pour un ordinateur individuel, par exemple, 60 à 80 %, voire plus, de l’empreinte carbonique du cycle de vie de l’appareil sont dus, en fait, à la fabrication de l’appareil. Les équipements informatiques et l’électronique grand public consomment beaucoup d’énergie et de matières lors de leur fabrication, ont de courtes durées de vie et deviennent des déchets toxiques à la fin de leur vie utile.L’optimisation des ressources d’une ICT verte passe par une réflexion sur le processus de l’ICT de bout en bout et par la garantie d’identifier les opportunités de capture de la valeur, lors de chaque phase de leur cycle de vie.

Les méthodes
Pour obtenir un système ICT vert, il existe différentes méthodes :
  • l’amélioration de l’existant en optimisant l’utilisation des actifs informatiques actuels et en mettant en place des stratégies rigoureuses de gestion des actifs ;
  • la consolidation des serveurs et des centres de données, le stockage dans des installations et équipements plus efficaces ;
  • la mise en œuvre de nouvelles technologies, comme la virtualisation, afin d’améliorer l’utilisation de tous les actifs matériels.
En général, une combinaison de tout ce qui précède est nécessaire pour atteindre des résultats satisfaisants. Ceci passe par la mise en place d’un plan qui identifie les sources d’opportunités, définit les défis majeurs et les facteurs de succès, et mesure de façon ponctuelle l’avancement vers l’objectif défini. Généralement, ce type de plan requiert une approche  » top down « , ainsi que la conduite et la supervision de la mise en œuvre par des cadres supérieurs. La première étape représente généralement les efforts et les coûts les moins importants et peut engendrer un résultat substantiel, en très peu de temps. Elle peut souvent être pilotée à partir de la DSI.En résumé, l’ICT verte génère différents avantages qui peuvent créer une valeur substantielle. Elle génère, au bas mot, une évaluation des ressources informatiques existantes et de leur utilisation, ainsi qu’une optimisation de l’efficacité des actifs.Par Abdel Kander, directeur général de BDNA Europe et Richard Hodges, fondateur de GreenIT

Conférences JEC Paris 2010 : les éco-composites à l’honneur !

Les forums JEC se dérouleront dans le cadre du JEC Composites Show, du 13 au 15 avril 2010 à la Paris Porte de Versailles. Douze conférences et forums, dont trois porteront sur des thèmes totalement inédits, se succèderont pendant ces trois jours.   Au programme :  

Six forums utilisateurs industriels
  • Aéronautique : Maîtriser le coût des structures aéronautiques – Jeudi 15 avril – 10h30 / 13h00
  • Automobile : Répondre à une réglementation environnementale toujours plus stricte – Mardi 13 avril – 14h30 / 17h00
  • Construction et Génie Civil : Les composites s’imposent – Mardi 13 avril – 10h30 / 13h00
  • Marine : Améliorer la qualité et abaisser les coûts de production – Jeudi 15 avril – 10h30 / 13h00
  • Transport ferroviaire et routier : Réduire les coûts et les émissions de CO2 – Jeudi 15 avril – 14h30 / 17h00
  • Energie éolienne : Une qualité et une fiabilité améliorées au prix du marché – Jeudi 15 avril – 14h30 / 17h00
 

3 forums multisectoriels
  • Recyclage et gestion du cycle de vie (nouveau) : Recyclage et gestion intégrée du cycle de vie – Mardi 13 avril – 10h30 / 13h00
  • Biomatériaux : Mettez-vous au vert ! – Mercredi 14 avril – 14h30 / 17h00
  • Automatisation : Réduire le coût de fabrication des pièces en composites – Mercredi 14 avril – 10h30 / 13h00
 

3 Conférences Techniques
  • Conception des composites : Apprendre à maîtriser la conception des composites – Mercredi 14 avril – 10h30 / 13h00. En partenariat avec l’université de Stanford
  • Simulation des composites (nouveau) : Comment optimiser les procédés de simulation en conception et en fabrication – Mercredi 14 avril – 14h30 / 17h00. En partenariat avec ESI Group
  • Développement des composites (nouveau) : Les défis du processus de développement des structures en PRFC – Mardi 13 avril – 14h30 / 17h00. En partenariat avec le centre de recherche aérospatiale allemand DLR
  En savoir plus
  • Pour consulter le programme complet et vous inscrire, allez sur www.jeccomposites.com/jec-forums/
  • Ou contactez : Martine Vesco, JEC Conferences and Forums Manager – ([email protected]).

La photosynthèse, source d’énergie électrique

La photosynthèse est le processus par lequel les plantes convertissent l’énergie solaire en énergie chimique. En présence de lumière visible, le dioxyde de carbone (CO2) et l’eau (H20) sont transformés en glucose et en dioxygène (O2) dans une série complexe de réactions chimiques. Les chercheurs du Centre de recherche Paul Pascal (CNRS) ont mis au point une biopile qui fonctionne à partir des produits de la photosynthèse – le glucose et l’O2 – et qui est composée de deux électrodes modifiées avec des enzymes. Cette pile a été insérée dans une plante vivante : dans le cas présent un cactus. Grâce à des électrodes très sensibles à l’O2 et au glucose, les chercheurs ont réussi à suivre l’évolution de la photosynthèse in vivo, en temps réel. Ils ont pu observer l’augmentation du courant électrique lorsque qu’une lampe est allumée et une diminution lorsque celle-ci est éteinte. Par ces expériences, les chercheurs ont aussi pu observer pour la première fois l’évolution du glucose en temps réel lors de la photosynthèse. Cette méthode pourrait offrir de nouvelles pistes dans la compréhension des mécanismes de la photosynthèse. 

Diagramme de la biopile : les deux électrodes sont modifiées avec leurs bioélectrocatalystes respectifs et résident dans la même solution. À l’anode, les électrons sont transférés du glucose vers la glucose oxydase (GOx), de la GOx vers le polymère I et du polymère I, vers l’électrode. À la cathode, les électrons sont transférés de la cathode vers le polymère II, du polymère II vers la bilirubine oxydase (BOD) et de BOD vers l’O2 © Flexer, Mano; Anal Chem, 2010, 82, 1444-1449
Les chercheurs ont ainsi montré qu’une biopile implantée dans un cactus pouvait générer une puissance de 9 μW/cm2. Le rendement étant proportionnel à l’intensité de l’éclairage, une illumination plus intense accélère la production de glucose et d’O2 (photosynthèse). Il y a donc plus de combustible pour faire fonctionner la biopile. Dans un futur lointain, ce dispositif pourrait éventuellement offrir une nouvelle stratégie pour transformer l’énergie solaire en énergie électrique d’une façon écologique et renouvelable. Mais au-delà de ce résultat, l’objectif initial de ces travaux est la mise au point d’une biopile pour des applications médicales. Elle fonctionnerait alors sous la peau de façon autonome (in vivo) en puisant l’énergie chimique du couple oxygène-glucose naturellement présent dans les fluides physiologiques. Elle pourrait ainsi alimenter des dispositifs médicaux implantés, tels que, par exemple, des capteurs autonomes sous-cutanés mesurant le taux de glucose chez les patients diabétiques. 

Le gouvernement chinois publie une étude des sources de pollution

http://www.bulletins-electroniques.com/actualites/62358.htm

Lors d’un récent discours, le vice-ministre de la Protection de l’environnement Zhang Lijun, a fait savoir que le gouvernement a terminé son premier recensement sur les différentes sources de pollution du pays. Cette étude, basée sur des données de 2007, a duré deux ans et mobilisé plus de 570.000 employés.

Elle a permis d’examiner près de 6 millions de sources de pollution regroupées en quatre grandes catégories : pollution industrielle, agricole, ménagère et les installations de traitements de la pollution.

Première constatation, l’étude confirme que les problèmes d’émissions des matières polluantes industrielles se concentrent plutôt dans des secteurs d’activité restreints et des régions isolées.

Dans les régions économiquement développées et fortement peuplées, les émissions des quatre principaux polluants se retrouvent en très fortes teneurs, à savoir dans les premiers rangs à l’échelle nationale. Il s’agit de la demande chimique en oxygène (DCO [1]), des rejets en ammoniaque, d’anhydride sulfureux et d’oxydes d’azote.

Prendre des mesures contre la pollution venant de l’agriculture

Les oxydes d’azote émis par les véhicules motorisés représentent 30% du volume global des rejets et polluent gravement l’air des agglomérations urbaines. Mais surtout, l’étude montre l’agriculture comme étant la principale source de pollution. En effet la pollution de l’eau serait principalement attribuée à l’émission de déchets agricoles, dont la demande chimique en oxygène est supérieure à celle des déchets industriels. Près de 43,7 % de la demande en oxygène est attribuée aux activités agricoles.

Le vice-ministre estime donc qu’il est indispensable de prendre des mesures contre cette pollution provenant de l’agriculture pour résoudre le problème de pollution de l’eau en Chine, dans un objectif d’agriculture moderne et durable.

A partir de ce premier recensement, le gouvernement se donne un an pour étudier les résultats et mettre en place un plan quinquennal afin d’équilibrer le développement économique et la protection de l’environnement. Alors que le pays s’attend à connaître des niveaux de pollution records bien plus tôt que prévu, certains ministères étudient notamment la possibilité de créer une taxe environnementale.

[1] La demande chimique en oxygène (DCO) est la consommation en oxygène par les oxydants chimiques forts pour oxyder les substances organiques et minérales de l’eau. Elle permet d’évaluer la charge polluante des eaux usées.

Source :
http://www.bulletins-electroniques.com/actualites/62358.htm

Le premier magasin à énergie positive

D’importantes économies d’énergie liées aux performances du bâtiment et des équipements techniques intérieurs, couplées à une production d’énergie photovoltaïque sur la toiture font du magasin Leroy Merlin de Valence un bâtiment à énergie positive.Depuis 2008, Leroy Merlin a engagé, avec l’aide du bureau d’études Diagobat, des études énergétiques et environnementales avancées. Destinées à améliorer les performances et la qualité environnementale de des futurs bâtiments, ces recherches posent les bases de nouveaux standards de construction, dans une approche de coût global (investissement, exploitation, maintenance) et d’impact environnemental.Ainsi, les avancées enregistrées dans la construction du magasin de Valence permettent à Leroy Merlin d’être précurseur sur les objectifs de la loi Grenelle 1 à travers un bâtiment répondant déjà aux exigences de la réglementation énergétique 2020, telle qu’elle est envisagée à ce jour. Cette démarche va être poursuivie sur le parc des bâtiments existants au rythme des aménagements et investissements planifiés. Afin de construire à l’avenir des magasins toujours plus respectueux de l’environnement, Leroy Merlin France étudie :

  • un renforcement de l’insertion dans le site via les façades et espaces verts ;
  • un meilleur traitement des déchets ;
  • une sélection précise de matériaux de construction sains et durables ;
  • une gestion de la qualité acoustique, thermique, visuelle et sanitaire des magasins.
Les recherches menées par Leroy Merlin France sur le volet énergétique ont permis d’appliquer, à Valence, des solutions innovantes, parfois inédites, en matière d’économie d’énergie. Ainsi, les matériaux constituant les menuiseries et l’isolation du bâtiment conduisent à une performance de l’enveloppe supérieure de 33 % à la réglementation thermique actuelle.Pour parvenir à un tel résultat, des recherches poussées ont été menées sur la réduction des ponts thermiques (points de jonction structurels du bâtiment) et la résistance thermique des matériaux isolants a triplé pour atteindre une épaisseur d’isolants allant jusqu’à 20 cm.

Toit photovoltaïque et 3 éoliennes
Les équipements techniques intérieurs (chauffage, ventilation, rafraîchissement et éclairage) vont permettre d’afficher une consommation énergétique conventionnelle inférieure de 25 % à celle exigée par la réglementation thermique actuelle. Grâce à ses 5.785 m² de cellules polycristallines reliées à des onduleurs, cette installation assurera une production électrique annuelle de 780 MWh couvrant 115 % de la consommation conventionnelle du magasin, et conférant ainsi au bâtiment une étiquette de Bâtiment à Energie Positive. Toutes les sources d’éclairage du magasin ont été repensées en faveur de solutions moins consommatrices d’énergie :
  • les tubes fluorescents utilisés en magasin consomment 4 à 5 fois moins que les lampes à incandescence, et durent 12 à 15 fois plus longtemps. Ainsi, à Valence, les tubes T5 installés seront changés tous les 5 ans, contre 3 ans en moyenne auparavant.
  • en zone décoration, les luminaires fonctionneront en 49 W, contre 80 W précédemment, soit 37,5% d’économie d’énergie. Même démarche en zone utilitaire, où des luminaires 35 W remplaceront les 58W de fonctionnement installés jusqu’à présent.
  • une solution de mise en veille de la sécurité a été validée avec le bureau de contrôle, permettant de désactiver l’éclairage d’ambiance. ;
  • les enseignes des magasins Leroy Merlin France sont désormais équipées de LED, pour une consommation énergétique divisée par cinq et une durée de vie multipliée par 3 ;
  • la démarche a été poussée jusqu’aux blocs de sécurité situés au-dessus des issues de secours, qui sont eux aussi équipés de LED.
Par ailleurs, le parking du magasin de Valence accueille 3 éoliennes qui alimentent l’éclairage extérieur des chalets de jardin.Du point de vue énergétique, la conception du magasin de Valence marque une étape significative dans la démarche durable de Leroy Merlin France. Pour autant, l’enseigne poursuit cette démarche en se concentrant sur les éléments perfectibles afin d’implanter à l’avenir des magasins répondant aux critères de l’appellation Haute Qualité EnvironnementalePar Marc Chabreuil

Les news Informatique / Electronique / Télécoms de février

Un supercalculateur européen passe la barre du pétaflops

Réactualisé tous les six mois, le Top 500 des supercalculateurs vient d’être publié le 14 novembre dernier. Premier européen à passer la barre du pétaflops (soit 1 million de milliards d’opérations par seconde) sur le test Linpack, utilisé pour le classement de ce Top 500, Tera 100 y occupe la 6ème place derrière deux supercalculateurs chinois, classés 1er et 3ème, deux américains, 2ème et 5ème, et un japonais qui prend la 4ème place. Précisons que la puissance maximale théorique de tous les processeurs de Tera 100, dite « puissance crête », est de 1,25 pétaflops. Quant à son efficacité de 83,7%, elle est à ce jour la plus grande des supercalculateurs de sa catégorie. Fruit d’un partenariat entre le CEA et Bull, Tera 100 est un supercalculateur généraliste conçu pour être opérationnel 24 heures sur 24 pour le programme Simulation de la Direction des Applications Militaires (DAM) du CEA. « Il s’agit d’une machine exceptionnelle qui ouvre d’ores et déjà la voie au développement de la prochaine génération de supercalculateurs européens, celle des systèmes exaflopiques qui devraient voir le jour à l’horizon 2020 », précise Jean Gonnord, chef du projet Simulation Numérique et Informatique au sein de la DAM du CEA.

MANON comme Modélisation et Analyse Numérique Orientées pour l’énergie Nucléaire

MANON, tel est le nom d’un nouveau laboratoire de recherche conventionné entre le Laboratoire Jacques-Louis Lions (UPMC/CNRS) et la Direction de l’Energie Nucléaire du CEA. Inauguré courant décembre, ce laboratoire commun, qui élargit une collaboration scientifique déjà ancienne entre ces deux unités, a pour ambition de favoriser des travaux de recherche en modélisation, simulation numérique et optimisation des systèmes complexes rencontrés dans l’industrie du nucléaire civile. D’une durée de quatre ans renouvelable, cette collaboration va porter sur l’amélioration des outils numériques utilisés actuellement. Elle permettra surtout d’élaborer des méthodes numériques plus performantes afin de mieux modéliser les phénomènes physiques qui se produisent dans de nombreuses applications relatives au fonctionnement d’une centrale nucléaire.

SALSAT, la télémédecine innovante

Né de la volonté du ministère de l’Industrie, du ministère de la Santé, de la région Rhône-Alpes, du Conseil Général de l’Isère et de la Métro de Grenoble (communauté d’agglomération), SALSAT (Santé Lien Social Autonomie Technologie) est un projet qui consiste à développer de nouveaux services de santé fiables, au fonctionnement sécurisé et respectueux de la confidentialité des données de santé à caractère personnel. Fruit d’une collaboration des acteurs académiques, industriels et du secteur de la santé qui représentent l’ensemble des maillons de la chaîne de valeur, des capteurs jusqu’aux utilisateurs professionnels de santé en contact quotidien avec les patients, SALSAT a été labellisé à la fois par le pôle de compétitivité Minalogic et par le cluster des technologies de la santé de la région Rhônes-Alpes I-CARE. Disposant d’un montant de 3,8 millions d’euros, ce projet, dont la coordination est assurée par OPEN, la 10ème SSII française, a pour objectif de contribuer à la sécurisation des personnes en perte d’autonomie dans le cadre du maintien à domicile et en mobilité, en développant des services de télésanté, télémédecine et téléassistance médicalisée répondant aux contraintes économiques propres à ce marché. Plus d’un million de personnes âgées, malades et handicapées, sont potentiellement concernées par SALSAT.

ZOOM sur la Chine

Peut-on se servir d’une bactérie pour stocker des données ? Oui !

Aldrin Yim, étudiant chercheur de l’université chinoise de Hong Kong, travaille actuellement sur un projet de biostockage des données ayant comme support la bactérie Escherichia coli. Le biostockage existe depuis une dizaine d’années. Il consiste à stocker et crypter des informations à l’intérieur d’organismes vivants.

En 2007, une équipe de chercheurs de l’Institut des sciences du vivant de Keio, au Japon, étaient parvenus à intégrer l’équation « E=MC2 » dans l’ADN d’une bactérie, Bacillus subtilis, et à la stocker de façon pérenne. L’objectif est donc de parvenir à utiliser des organismes très simples, se reproduisant à l’identique, pour conserver des informations sur le très long terme. Les bactéries se reproduisant en permanence sont donc d’excellents candidats. La technique consiste à extraire l’ADN des cellules de la bactérie, le transformer grâce à l’utilisation d’enzymes afin d’y intégrer des informations cryptées, puis à replacer l’ADN modifié dans une nouvelle cellule.

Une bactérie génétiquement modifiée destinée à être utilisée comme support de stockage pourra donner naissance à d’autres bactéries qui partageront ses gènes, et véhiculeront ainsi les mêmes informations. La conservation des données serait assurée dans le temps, dans l’hypothèse où l’ADN ne subit pas de mutation ou d’altération au cours de la réplication.

Afin d’augmenter la capacité de stockage de ces bactéries, l’équipe hongkongaise a mis au point une méthode de compression des données, divisant celles-ci en chapitre avant de les distribuer dans des cellules bactériennes. Cette technique permet également aux chercheurs de cartographier l’ADN de la bactérie, facilitant la localisation des données. « Un seul gramme de cette bactérie peut stocker l’équivalent des données contenues dans 450 disques durs de 2000 Go », rapporte l’équipe de chercheurs. Le stockage concerne le texte, mais avec un code suffisamment élaboré il serait même possible de stocker des images, de la musique et de la vidéo. Une application possible serait ainsi d’insérer dans un produit végétal des informations relatives à ce dernier, sous la forme d’un « bio code-barre ». Selon le professeur Chan Ting Fung, qui supervise les recherches de l’équipe, « on peut par exemple encoder dans une tomate des informations sur les règles de sécurité » à observer lors de la culture de celle-ci.

Communication en espace libre : les Chinois en avance

La Chine a annoncé le succès de tests réalisés sur un nouveau système de communication optique en espace libre (Free-Space-Optics, FSO). D’une vitesse de 7,5 Gb/s, ce système s’étendant sur une distance de 40km est fabriqué conjointement par Université de Wuhan, la Beijing Institute of Track and Telecommunication Technology (BITTT) et une entreprise de technologie spatiale.

En 2008, un système de même type, utilisant la technique de multiplexage en longueur d’onde avec une vitesse de transmission moindre de 2.5 Gb/s pour une distance de 16 km, avait été validé par la même équipe. Lors de l’expérience réalisée en septembre 2010, les équipes de scientifiques ont multiplexé trois signaux de 2,5 Gbps sur un seul signal de 7,5 Gbps afin de transmettre les données selon la technique de Dense WDM (DWDM). Les tests ont été réalisés à la fin du mois d’août 2010 au lac de Qinghai. Selon les chercheurs chinois, les images transmises étaient claires et stables.

Les technologies de communication optique en espace libre sont principalement utilisées dans les secteurs de l’aéronautique, de l’aérospatiale et de la navigation marine, en permettant d’établir une liaison de communication optique entre l’espace-air-terre pour les satellites, les astronefs et les avions. En 2000, la société Lucent a réalisé un système commercial de communication en espace libre d’une vitesse de 10 Gb/s pour une distance de 5 km mais il n’y avait pas jusqu’à présent, selon M. Aiyong, directeur de recherche du programme, de tels systèmes dépassant 20 km de distance et la vitesse de 7 Gb/s.

A l’occasion de ces tests, des technologies telles que le DWDM en espace libre, le suivi et la capture de faisceaux laser à grande vitesse, l’émission de signaux à haute précision et la réception de lumières laser de haute sensibilité ont été validées par les scientifiques chinois.

Tests sur un réseau OFDM de 1040 km à 1 Tb/s

La Chine a expérimenté avec succès un réseau informatique basé sur une technologie OFDM (Orthogonal Frequency Division Multiplexing), pouvant atteindre une vitesse de transmission de 1 Tb/s sur une distance de 1040 km. Ces tests, réalisés par l’Institut de Recherche en Communication de Wuhan (centre de la Chine) et le Laboratoire National Clé de Réseaux et de Technologies de Télécommunications en Fibre Optique, ont été validés par le Ministère chinois de l’Industrie et des Technologies de l’Information.

Destinée à résoudre les problèmes de surcharge dont souffrent de plus en plus les réseaux informatiques chinois, cette technologie permet d’accroitre fortement le nombre d’utilisateurs et la vitesse de transmission. Sur un réseau OFDM à 1 Tb/s, 100 millions d’utilisateurs potentiels peuvent se connecter pour une vitesse de transmission 25 fois plus rapide qu’un réseau à fibre optique à 40 Gb/s qui ne peut accueillir que 40.000 utilisateurs.

Le précédent record mondial, pour un réseau du même type à haut débit, à large capacité et à longue distance, fut établi sur un réseau informatique à 1Tb/s sur une distance de 600 km. Le Laboratoire National Clé de Réseaux et de Technologies de Télécommunications en Fibre Optique a été créé dans le cadre de la recherche sur la nouvelle génération de réseaux informatiques initiée par le Ministère chinois de la Science et de la Technologie en 2007 et renforcé en 2009.

Un commutateur facile à utiliser ? ça existe

Raritan a présenté aujourd’hui son nouveau produit expreZo, un commutateur KVM compact et simple à utiliser, conçu pour les PME, afin de simplifier la gestion des serveurs et leur donner la possibilité d’accéder et de contrôler de multiples serveurs à l’aide d’une console unique.
Ce commutateur donne aux entreprises l’opportunité de gérer les salles de serveurs rapidement et facilement. De même, il permet de prendre en charge les problèmes susceptibles de compromettre la disponibilité des serveurs de l’entreprise.
Le commutateur expreZo, disponible en modèles à 8 ou 16 ports, se connecte aux ordinateurs via leurs interfaces PS/2 et/ou USB et est compatible avec les systèmes d’exploitation Windows®, Linux®, Mac® OS9/OSX et Sun® Microsystems. Le commutateur est prêt à l’emploi, avec une fonction d’auto-configuration et un affichage convivial. ExpreZo propose la résolution d’affichage la plus importante du marché, atteignant 2 048 x 1 536 pixels, et son affichage intégré constitué de menus intuitifs permet une navigation rapide et efficace. Enfin, pour suivre la croissance de l’entreprise, le commutateur peut être interconnecté pour prendre en charge des milliers de serveurs.

Tester les applications mobiles…

Les Smartphones et les tablettes sont en passe de redéfinir entièrement l’Internet mobile. Cette tendance perturbatrice, caractérisée par la mobilité des contenus et des différents équipements, soulève une question urgente et cependant irrésolue : les réseaux sont ils prêts à supporter les exigences de fiabilité et de performance de ces services de pointe ? Pour aider les services de télécommunications et les vendeurs à tester les choses les plus exigeantes, c’est-à-dire les données et les applications sur l’internet mobile, Spirent dévoile le Spirent TestCenter HyperMetrics neXt.
Les réseaux doivent être préparés à gérer un trafic complexe dû à plusieurs millions d’abonnés fixes ou mobiles utilisant des myriades d’appareils connectés, avec une grande qualité de service et une grande qualité d’expérience. Par exemple, la coupe du monde de football, les Jeux Olympiques ou tout autre grand événement mondial peuvent engendrer une énorme impulsion dans le streaming vidéo et les applications multimédia vers les appareils mobiles. Avec le Spirent TestCenter HyperMetrics neXt, les services de télécommunications peuvent tester la capacité de leurs serveurs à fournir ces services à des millions d’abonnés sans qu’il y ait la moindre coupure de service ou le moindre souci de qualité.

«Alors qu’ils se préparent à la croissance exponentielle du trafic sur l’internet mobile, les fournisseurs de services de télécommunications se doivent de garantir une capacité de données suffisante aussi bien que des applications performantes» nous explique David Emberley, directeur de recherche au service ‘Telecommunication Infrastructure’ chez IDC. HyperMetrics neXt, fonctionnant grâce la toute dernière technologie de processeur Intel combinée à l’architecture Spirent TestCenter Cloud More, est la solution la plus performante, extensible et à faible consommation disponible pour les tests d’applications et de réseaux. Elle permet aux ingénieurs de test de valider le support pour d’avantage de services de pointe et d’avantage d’abonnés, de maximiser le retour sur investissement et l’utilisation des ressources de test, et d’étendre la couverture de test sans pour autant étendre le nombre d’équipements de test. L’architecture Cloud More est le point de départ des capacités de pointe de ces nouveaux modules. Il utilise le système informatique élastique d’origine pour optimiser les différents tests tout en traitant les données parallèlement, y compris en mettant en commun les ressources à travers tous les ports de tests quel qu’en soit le nombre. Les bancs d’essai construits sur l’architecture Cloud Core fournissent une combinaison exceptionnelle d’extensibilité des performances et du réalisme, et sont idéaux pour tester les systèmes IP convergents, comme les cloud data centers et les réseaux mobiles 3G/4G/LTE. «Les applications comme par exemple Facebook, YouTube ou les vidéos en streaming peuvent avoir un impact majeur sur l’internet mobile,» nous dit Jeff Schmitz, vice président de la section Networks and Applications à Spirent. «Pour pouvoir délivrer ces différents services, les fournisseurs doivent garantir les performances depuis le Cloud data center, à travers les réseaux mobile à large bande puis jusqu’à l’application, et ce sur une très large gamme d’appareils employés par les utilisateurs. La nouvelle solution Spirent a été créée spécifiquement pour mesurer avec précision les performances de l’internet mobile avec un réalisme à l’échelle.»

Par S.B.

Code CIP13 : feu vert pour le secteur pharmaceutique

Au 1er janvier 2011, les médicaments à usage humain devront obligatoirement être identifiés par un code Datamatrix (code 2D) contenant des données sanitaires permettant une délivrance sécurisée des médicaments ou leur retrait rapide du marché en cas de nécessité. En plus des informations obligatoires devant figurer sur l’étui du médicament (code CIP13, date de péremption et numéro de lot), devra également figurer à terme, un numéro de série unique pour résoudre les problèmes de contrefaçon. L’ensemble de ces informations devra être archivé par le fabricant, afin d’en assurer le contrôle au point de vente. Pour le secteur pharmaceutique en attente d’une solution stratégique pour l’intégration du code CIP13 (code 2D Datamatrix) garantissant le maintien de leur productivité, ZetesInterscan, la filiale française du Groupe Zetes, spécialiste des solutions et services d’identification automatique des biens et des personnes, propose la solution 3iMC Pharm. » 3iMC Pharm est le seul produit du marché à cumuler une architecture ouverte et toutes les fonctions essentielles répondant précisément à l’ensemble des besoins d’intégration du code CIP13 sur lignes de production : le marquage Datamatrix et la sérialisation, son contrôle et son archivage, selon le modèle préconisé par l’EFPIA, et ce, à des cadences dépassant 400 étuis/min », commente Pascal Longchambon, responsable du Département UAS (Unattended Automated Systems), service spécialisé dans le développement de solutions métiers automatisées, au sein de ZetesInterscan. « La solution 3iMC Pharm est opérationnelle et a déjà été déployée avec succès sur plusieurs sites industriels, soit sur des lignes existantes, soit sur de nouvelles lignes intégrant directement les bonnes fonctionnalités.  » Les solutions que proposent Zetes pour le secteur pharmaceutique, tant sur le marquage des médicaments que sur leur traçabilité tout au long de la chaîne, jusqu’au patient, ne constituent pas uniquement une réponse ponctuelle, limitée dans le temps, aux besoins de l’industrie pharmaceutique. La solution 3iMC Pharm, est d’ores et déjà compatible avec les évolutions de la norme : sérialisation et centralisation des données au sein de chaque laboratoire. « En effet, au-delà du passage obligé à une traçabilité améliorée et maîtrisée des médicaments sur le territoire français, cette nouvelle forme d’identification des médicaments vise à devenir le standard pour tous les pays d’Europe car, pour combattre efficacement la contrefaçon, l’Europe entière devra adopter un langage commun », explique Djaffar Ferrat, Country Manager de ZetesInterscan.

Image : ©ZetesInterscan. Avec une cadence dépassant 400 étuis codés en CIP13 par minute, 3iMC Pharm maintient la productivité des lignes de production pharmaceutiques.
Par Marc Chabreuil

Débat sur les nanotechnologies : conclusion ou confusion ?

Alors que les débats autour des nanotechnologies, organisés dans toute la France, avaient donné lieu à de vives perturbations, c’est dans une atmosphère plus apaisée que la réunion de clôture s’est tenue hier soir. Jean Bergougnoux, président de la Commission Particulière du Débat Public (CPDP) consacrée aux nanotechnologies, a tout d’abord insisté sur la volonté de la commission, tout au long du processus, d’élargir au maximum le champ du débat (lire le dossier Nanotechnologies : quel potentiel, quelles limites ?). Tout en rappelant que sept ministères [1] étaient signataires de la saisine au départ, il a tenu à préciser qu’il « déplorait l’absence du Ministère de l’Intérieur et du Ministère de la Justice ». En effet, la CPDP a tenu à préciser que les compétences relatives à ces deux entités rendaient leurs implications dans le débat nécessaires, tôt ou tard.

Jean Bergougnoux a ensuite, pendant une trentaine de minutes, résumé quelle avait été la stratégie de la Commission pour mener à bien sa mission, en justifiant celle-ci point par point. Ainsi, tout en prenant en compte les critiques ( » il y a déjà plus de mille produits sur le marché, ce débat arrive trop tard « ,  » toutes les décisions sont déjà prises, ce débat n’est qu’une opération de communication « , le président de la CPDP s’est évertué à rappeler l’indépendance et la neutralité de la Commission, tout en répondant aux grandes questions soulevées lors des débats.

La méconnaissance du grand public

Tout d’abord, la Commission a souligné la méconnaissance globale du grand public vis-à-vis des nanotechnologies, qui rend le débat souvent compliqué. Aussi, au sujet du moratoire global, exigé par plusieurs associations, notamment Les Amis de la Terre et France-Nature-Environnement, Jean Bergougnoux a répondu sans détour, opposant deux arguments de poids :

  • le potentiel économique lié à l’exploitation des nanotechnologies (un marché évalué à 1.000 milliards d’euros pour 2015) ;
  • le temps nécessaire pour que la recherche scientifique évalue les impacts exacts des nanotechnologies. Ainsi,  » l’arrêt des recherches nous exposerait à un grave péril dans un monde où les nanotechnologies continueront, quelles que soient nos décisions, à se développer « .

Ceci dit, Jean Bergougnoux a longtemps insisté sur la problématique des risques, d’un bout à l’autre de la chaîne de production. Pour les travailleurs, les recommandations de l’AFSSET semblent faire l’unanimité. En ce qui concerne les consommateurs, cela est plus complexe. Pour exemple, l’alimentation. Intervenant dans le débat, Patrick Lévy, Président du groupe santé-environnement du MEDEF a affirmé qu’il n’y avait « pas d’application nano dans l’alimentaire et dans le contact alimentaire « .

Au final, il se trouve que la silice alimentaire et l’argile nanométrique sont les deux seules nanoparticules présentes dans l’alimentation et les emballages alimentaires, et cela depuis de nombreuses années. Charles Perrin, de la CLCV, a ajouté que « certains frigos possèdent des nanoparticules anti-bactériennes », ce qui alors rend le contact alimentaire plus que probable. Ainsi, le moins que l’on puisse dire, c’est que rien n’est clairement tranché. La même confusion entoure le domaine des cosmétiques. Ces approximations participent à la crainte du grand public vis-à-vis du manque de connaissance et de recul sur les nanos.

Principe de précaution et enjeux économiques

Ressort alors le principe de précaution. José Cambou a affirmé ainsi que  » la voix des scientifiques n’a pas été concordante durant les débats. D’autre part, nous manquons de tests, et nous n’avons pas les outils nécessaires pour le moment « .
Fût alors abordé le problème de la recherche en France et spécifiquement celui des études sur la toxicité (et l’écotoxicité) potentielle de certaines particules nanos.

Après qu’un professeur en toxicologie ait pris la parole pour mettre en avant la formation en France à ce niveau, Dominique Olivier (CFDT) rectifia : « la situation est inacceptable. Le règlement européen Reach a mis 15 ans à être mis en place. Nous avions à l’époque alerté sur les besoins en matière de recherche toxicologique. Aujourd’hui, devant la pénurie en termes de personnel et de moyens, nous sommes sûrs d’une chose. Nous n’avons pas tiré les leçons du passé ». Le silence des industriels par rapport à leurs projets en cours a également été soulevé et caractérisé comme un frein évident et un signe des disparités en matière de transparence au sein des différents acteurs.

Autre problématique abordée, celle de l’étiquetage : à ce sujet là également rien n’est tranché. Tout le monde est d’accord sur la pertinence d’un étiquetage précis permettant de lister les nanoparticules présentes dans un produit. Mais les avis divergent sur les travaux préalables (on a parlé de NanoReach !) à effectuer pour rendre cet étiquetage possible.

Réparation humaine, surveillance et écoute : la nécessité des barrières éthiques

Ainsi, on voit que le débat est loin d’être terminé. Après s’être arrêté sur les potentialités des nanotechnologies en termes de médecine, et notamment en ce qui concerne la recherche contre le cancer, a été évoqué le problème de l’éthique en tant que préalable aux avancées en matière de réparation humain et de surveillance. Alex Türk, président de la CNIL, a ainsi mis en garde l’auditoire, en prenant l’exemple des modalités de surveillance offertes par les nanotechnologies, à savoir la possibilité d’être écouté et filmé par des appareils extrêmement miniaturisés.

En prenant l’exemple du film La vie des autres, ou la Stasi surveille continuellement les faits et gestes du héros, Alex Türk déclarait qu’  » il y avait une possibilité d’insurrection contre la Stasi. Ici, il n’y a aucune possibilité d’insurrection contre l’infiniment petit « . Parallèle osé mais saisissant. D’où la nécessité, qui elle ne fait pas débat, de fixer un cadre éthique préalable à l’application des nanotechnologies à l’intérieur de certains champs. Même si, comme l’a souligné hier le Professeur Berger, cancérologue, à propose de la réparation humaine :  » il faut veiller à ne pas faire de l’éthique avec des fantasmes « .

Enfin, Gérard Toulouse, professeur à l’ENS, a résumé admirablement l’enjeu autour des nanotechnologies dans l’Hexagone :  » La confiance dans les nanotechnologie dépend des moyens qu’on donnera à la recherche publique pour faire son travail « .

Revenant sur les divisions autour des nanotechnologies, il a conclu  » il y a la nécessité d’un débat en France sur la fuite en avant technologique « . A peine terminé, le débat ne fait donc que commencer ?

Pierre Thouverez

 

[1] Les sept ministères concernés :

    • Ministère de l’écologie, de l’énergie, du développement durable et de l’aménagement du territoire ;
    • Ministère de l’économie, de l’industrie et de l’emploi ;
    • Ministère du travail, des relations sociales ;
    • Ministère de l’agriculture et de la pêche ;
    • Ministère de l’enseignement supérieur et de la recherche ;
    • Ministère de la défense nationale ;
    • Ministère de la santé et des sports.

&