L’usine numérique et la simulation

Dassault Systèmes et Sogeti High Tech viennent de publier en commun un livre dont l’objectif est d’expliquer comment une entreprise peut augmenter ses bénéfices en utilisant des techniques de simulation et d’usine numérique. Les deux leaders détaillent cette révolution en cinq chapitres montrant comment un environnement industriel qui intègre informatique, fabrication numérique, simulation, robotique et production physique n’est pas un simple concept, mais une réalité permettant de réaliser des profits tangibles. » Ce livre parle des défis et des possibilités passionnantes qu’offrent l’usine numérique et la simulation pour aider les entreprises à être rentables en utilisant des méthodes qui relevaient du rêve il y encore quelques années. À court terme, l’expérience réaliste et l’usine numérique étendue seront au cœur-même des entreprises industrielles de pointe « , déclare Philippe Charlès, Directeur général DELMIA, Dassault Systèmes.L’usine numérique et la simulation sont les moteurs qui permettent de bénéficier de ces avantages. L’usine numérique offre en effet la possibilité de définir et de simuler avec exactitude la manière dont un produit sera fabriqué dans le cadre d’un environnement collaboratif mondial.La simulation joue un rôle clé dans de nombreuses activités, et son utilisation continue à se développer à un rythme élevé, en s’appuyant sur les mathématiques modernes, les technologies de l’information et les interfaces graphiques pour créer une expérience 100 % réaliste. À partir de la représentation 2D, la 3D et les maquettes numériques, nous entrons à présent dans l’ère de l’usine numérique. Elle s’appuie sur une suite intégrée d’outils conçus pour définir et simuler l’ensemble des activités et des ressources de fabrication dans le contexte d’un produit et d’un site de production. La simulation numérique moderne permet aux ingénieurs de valider et d’optimiser les processus de fabrication. » La réalité économique actuelle oblige les entreprises à étudier de près leurs stratégies et leurs pratiques en matière de fabrication. L’usine numérique et la simulation modernes présentent un fort potentiel d’amélioration, que ce soit sur le plan de l’efficacité ou de l’innovation. Pour atteindre ces objectifs, il est toutefois impératif de faire tomber des barrières. Ce livre (http://www.virtual-real.com) s’intéresse aux défis comme aux avantages de cette approche en jetant les bases de l’état de l’art d’un environnement de fabrication à la pointe « , indique Dominique Lafond, Directeur général, Sogeti High Tech.  

Les auteurs de « Virtual concept, real profit » Yves Coze, Vice-président, Ventes & Marketing Europe du Sud DELMIA chez Dassault Systèmes – Nicolas Kawski, Directeur technique au sein du département Simulation de Sogeti High Tech en France ; Torsten Kulka, responsable du développement commercial au sein du département PLM et Maquettes Numériques de Sogeti High Tech en Allemagne ;Philippe Sottocasa, à la tête du département Simulation de Sogeti High Tech en France ; Jaap Bloem, analyste senior VINT (Vision Inspiration Navigation Trends), l’institut de recherche de Sogeti.

 Par Marc Chabreuil   

Les navettes moléculaires ouvrent la voie à l’électronique du futur

Le domaine des « machines » moléculaires de synthèse a vu le jour il y a une quinzaine d’années. Ces machine dont la conception n’était pas envisageable il y a 25 ans sont des composés dont un fragment peut subir un mouvement de grande amplitude sous l’action d’un signal externe (électrochimique, photonique, chimique, etc.), alors que les autres parties ne seront pas affectées. Si une source d’énergie alimente le système de manière continue et qu’un mouvement périodique en résulte, l’assemblage moléculaire en mouvement pourra être considéré comme une machine autonome. C’est le cas pour la plupart des « moteurs » de la biologie.Les chercheurs du Laboratoire de Chimie Organo-Minérale de l’Institut de Chimie de Strasbourg (CNRS / Université de Strasbourg) ont travaillé sur une molécule appelée un rotaxane faisant partie de la famille des « navettes moléculaires ». La molécule comporte deux constituants : un anneau et un axe qui traverse l’anneau. L’anneau est capable de se déplacer rapidement le long de l’axe, entre deux « stations », à la manière d’une navette de tisserand ou d’un véhicule effectuant un va-et-vient entre deux endroits. Les « navettes » sont particulièrement intéressantes comme modèles de protéines moteurs telles que la kinésine ou le complexe actine-myosine, dont les fonctions sont essentielles, en particulier dans le transport de matière à l’intérieur de la cellule ou dans le fonctionnement des muscles (contraction et allongement).

Une mémoire électronique moléculaire de 160.000 gigabits /cm²
La mise en mouvement se fait par voie électrochimique (oxydation ou réduction d’un atome de cuivre lié au composé). La navette comporte deux stations distinctes dont seules les propriétés géométriques sont différentes. Ces composés seraient capables d’agir comme des navettes dont l’élément mobile (l’anneau dans le cas présent) se déplacerait sur une longue distance (plusieurs nanomètres). Il est ainsi possible de coupler ce processus à un transport de matière (par exemple, à travers une membrane), à condition que l’anneau soit attaché à un récepteur capable de transporter des molécules. De tels processus sont essentiels en biologie et pourraient devenir important en chimie moléculaire.De nombreuses applications sont envisageables. Récemment, des rotaxanes ayant un comportement de navette ont été utilisées pour fabriquer des dispositifs de stockage et de traitement de l’information extrêmement performants en termes de densité de stockage. Les résultats les plus spectaculaires ont été décrits au début de l’année 2007. Les auteurs (Stoddart, Heath et collaborateurs) décrivent une mémoire électronique moléculaire de 160.000 gigabits /cm², dont les capacités de stockage relèvent encore de la science-fiction mais qui semblent bien réelles. Ces molécules ouvrent la voie à une véritable « informatique moléculaire » au niveau nanoscopique dans un domaine se situant à la frontière entre les sciences moléculaires et la fabrication de mémoires électroniques.Par Marc Chabreuil

Quand le soleil épure les eaux usées

Basée sur la technologie photocatalytique, une installation de démonstration de traitement solaire des eaux usées vient d’être inaugurée au Centre aérospatial allemand sur le site de Lampoldshausen. L’élément clé est constitué par un récepteur solaire qui produit, à partir du rayonnement solaire, l’énergie nécessaire à la fission des substances toxiques les plus diverses.Baptisée RayWOx et commercialisée par Kaco New Energy, cette technologie économise environ 90 % d’énergie lors de la dégradation des impuretés (habituellement, les systèmes d’épuration des eaux utilisent un rayonnement UV produit électriquement, donc coûteux). En outre, le procédé photocatalytique utilise un nombre nettement réduit d’oxydants. L’installation de Lampoldshausen, avec une surface de capteurs solaires de 240 m², peut, en 1 ou 2 heures,débarrasser environ 4.500 litres d’eaux usées industrielles de toutes leurs impuretés oxydables. Le rayonnement solaire fournit au système RayWOx l’énergie nécessaire à l’épuration d’impuretés organiques et anorganiques, difficilement dégradables, présentes dans les eaux usées. Le récepteur solaire fait office de réacteur pour la fission photocatalytique de substances polluant les eaux.

A gauche : armoires de stockage de soude caustique et d’acide sulfurique et réservoir de stockage intermédiaire d’eaux usées, Au centre : cuve pour la neutralisation des eaux usées A droite : conteneur du poste de contrôle – © Hirschmann- Kaco New Energy
Un procédé totalement autonome
Le système RayWOx repose sur un procédé développé dans le cadre du projet Sowarla pour lequel la société Kaco New Energy s’est alliée au Centre aérospatial allemand et à la société Hirschmann Laborgeräte GmbH & Co. KG (appareils de laboratoire).Le récepteur solaire breveté, doté de tubes en verre spécial particulièrement transparent, commercialisé sous la marque RayWOx Receiver de Hirschmann, assure la transformation de l’énergie solaire. Tandis que l’eau contaminée à laquelle est incorporée des photocatalyseurs traverse les tubes de verre, une commande règle avec précision la vitesse d’écoulement en fonction de la puissance solaire captée : un fort ensoleillement permet un débit élevé, la vitesse étant réduite en cas de faible insolation. Lorsque l’eau atteint le degré de pureté souhaité, le photocatalyseur est finalement coupé et l’eau propre est dérivée.Une installation photovoltaϊque intégrée au système peut fournir en option l’énergie complète nécessaire à l’exploitation, à la commande et même à l’alimentation des pompes qui font circuler l’eau par le récepteur. Ainsi, l’ensemble de l’installation travaille indépendamment de sources d’énergie fossiles.
Vue intérieure du poste de contrôle – Au premier plan, deux cuves de dosage, y compris les pompes de dosage des produits chimiques. A l’arrière plan : réservoir de stockage du catalyseur employé – © Hirschmann- Kaco New Energy
Le traitement solaire des eaux peut être adapté à différentes applications et substances si bien que RayWOx couvre l’ensemble de l’éventail des prestations, depuis le prétraitement jusqu’au traitement complet. Une grande partie des eaux polluées par des corps organiques ou anorganiques peut être épurée. Les contaminations par des antibiotiques, des agents de contraste pour examens radiographiques, des hydrocarbures chlorés et une solution alcaline de laveurs d’air provenant du finissage textile ont été testées avec succès.Par Marc Chabreuil 

L’architecture se met au vert

Créer une architecture en biomatériaux, autosuffisante en énergie et capable de se décomposer en fin de vie pour réintégrer le cycle biologique, le tout pour prix comparable à celui des autres structures sandwich renforcées de fibre de verre. C’est le défi que s’est lancé le cabinet d’architectes danois 3XN, il y a un peu plus d’un an. Il s’est concrétisé par la réalisation d’une structure de démonstration qui a été exposée dans le cadre de la conférence sur le climat de Copenhague et est maintenant au musée d’art moderne Louisiana, au nord de Copenhague.Cette sculpture qui utilise des matériaux et composants disponibles sur le marché, fait appel à un stratifié sandwich constitué de matériaux biologiques réutilisables capables de résister à la force du vent et aux visiteurs susceptibles de marcher sur la structure. Elle propose des réponses novatrices aux préoccupations environnementales généralement associées au polyester, à l’époxy ou à la fibre de verre à l’heure où l’industrie des composites doit résoudre des problématiques de consommation d’énergie en phase de production et du recyclage.La coque externe est un biocomposite constitué de 14 couches de fibres de lin coulées dans une résine à base d’huile de soja et d’amidon de maïs. Quant à l’âme interne, elle est composée de feuilles de liège de 84 mm d’épaisseur à la place du polyéthylène. Le gelcoat est recouvert d’un nanoproduit qui utilise le rayonnement solaire pour dégrader par photocatalyse les particules de pollution présentes dans l’air et dans la pluie (70 % des polluants atmosphériques sont ainsi détruits et l’air est purifié dans un rayon de près de 3 mètres). L’ensemble intègre un système d’éclairage à base de LED alimenté par des panneaux solaires souples de 1 mm d’épaisseur installés sur la partie supérieure de la structure et des commandes piézoélectriques situées dans le sol et déclenchées par le poids des visiteurs.

Lauréat du  » Programme JEC Innovation Awards 2010  » dans la catégorie Environnement et recyclage, le cabinet d’architecture 3XN a conçu cette sculpture dont la coque externe est en biocomposite © JEC
Cette réalisation, conçue par CAO afin d’optimiser la consommation de matériaux et fabriquée par StageOne Freeform Composite (Grande-Bretagne), a valu à son concepteur d’être lauréat du  » Programme JEC Innovation Awards 2010  » dans la catégorie Environnement et recyclage.  » Cette sculpture nous a donné l’occasion de présenter les possibilités des matériaux écologiques et intelligents pour le bâtiment. Notre objectif était de prouver que l’architecture verte peut être dynamique et active. Au lieu de réduire au maximum l’utilisation des ressources, nous devons aujourd’hui nous concentrer sur la production et l’utilisation de l’énergie ainsi que sur un emploi intelligent des matériaux « , précise Kim Herforth Nielsen, fondateur et architecte en chef de 3XN.  Par Marc Chabreuil

MRam, une nouvelle mémoire vive pilotée par un champ électrique

http://www.bulletins-electroniques.com/actualites/62192.htmConstitué de scientifiques de l’Université Paris-Sud, du CNRS, de l’entreprise Thalès et du centre de recherche Helmholtz de Berlin (HZB), un groupe franco-allemand de chercheurs vient de développer une nouvelle technologie pour les mémoires vives. Cette nouvelle technologie, appelée MRam pour  » Magnetic Random Access Memory  » [1], utilise pour la première fois des champs électriques plutôt que des champs magnétiques pour stocker les informations. L’avantage est de taille car il permet de réduire la consommation d’énergie des mémoires internes de l’ordinateur.Les mémoires MRam sont constituées non pas d’éléments électriques, comme ses prédécesseurs, mais d’éléments spintroniques. L’exploitation de la charge de l’électron est ainsi abandonnée, au profit de son spin [2]. Il s’agit d’une propriété de symétrie intrinsèque décrite par la spintronique, une discipline qui ne cesse de se développer.Dans le cas des MRam, c’est le phénomène de magnétorésistance à effet tunnel (TMR, [3]) qui est utilisé. Ces mémoires MRam sont constituées de deux couches de matériaux ferromagnétiques et d’un isolant ferroélectrique, le titanate de baryum (BaTiO3). L’équipe de chercheurs a montré qu’une couche d’un nanomètre d’épaisseur de titanate de baryum permettait d’orienter à volonté les spins des électrons sous l’action d’un champ électrique. On sait que l’état de spin des électrons est lié à l’aimantation de zones dans le matériau ferromagnétique. Des cellules composées de cette façon enregistrent donc des bits d’informations, un pour chaque cellule.Grâce à cette nouvelle méthode, les MRam ne nécessitent pas d’apport continuel en énergie pour le stockage des données. Elles sont donc moins gourmandes en électricité et participent ainsi à la mouvance actuelle de réduction de la consommation des appareils informatiques, appelée Green IT.Pour en savoir plus– [1] Article Wikipedia sur les MRam– [2] Définition de la propriété de spin– [3] Article Wikipedia sur la magnétorésistance à effet tunnel– Dr. Sergio Valencia Molina – Institut des matériaux magnétiques complexes – tél : +49-30-6392-5750 – email : [email protected]– Dr. Florian Kronast – Département dynamique du magnétisme – tél : +49-30-6392-4620 – email : [email protected]Sources – « Bientôt dans nos PC, des MRam pilotées par des champs électriques ? », Article de Presse de Futura-Sciences – 26/01/2010 – http://redirectix.bulletins-electroniques.com/mCXcR– « Daten am Ende des Tunnels » – Communiqué de Presse du Centre de recherche Helmholtz de Berlin en science de la matière et énergie – 19/01/2010Rédacteur : Philippe Rault – [email protected] – http://www.science-allemagne.frOrigine : BE Allemagne numéro 469 (3/02/2010) – Ambassade de France en Allemagne / ADIT – http://www.bulletins-electroniques.com/actualites/62192.htm

Prix Fem’Energia d’EDF : 2eme édition !

(Cet article a été initialement publié le 05/02/10 sur Maviepro.fr) EDF lance un appel à candidatures pour la 2ème édition du prix Fem’Energia soutenu par le réseau WIN (Women in Nuclear). L’objectif de cette initiative : promouvoir la place des femmes dans le nucléaire et attirer les jeunes femmes vers les métiers scientifiques et techniques.Ce prix récompensera deux catégories :

  • trois lycéennes et étudiantes qui se destinent à une carrière dans le nucléaire ;
  • deux femmes de moins de 40 ans qui travaillent déjà dans le nucléaire (chef de chantiers, contremaître, chef de projets…) et/ou sont engagées dans des activités en faveur des femmes dans le nucléaire.
Les dossiers de candidature sont téléchargeables sur le site d’EDF. La date limite dedépôt des candidatures est fixée au 20 avril 2010. Et la remise des prix aura lieu le 15 octobre 2010.   » Dans moins de 10 ans, 40 % du personnel travaillant dans le nucléaire à EDF partira à la retraite « , rappelait Serge Massart, directeur de la Division Production Nucléaire d’EDF lors du Prix Fem’Energia 2009. Et si la femme était l’avenir du nucléaire ? Le palmarès 2009Le nucléaire : une opportunité pour les femmesVoir aussi…Le site emploi des Techniques de l’Ingénieur Par Corinne Dillenseger, journaliste du site Maviepro.fr (article initialement publié le 05/02/10)

Préparation de commande : les atouts du Wi-Fi

BJ Partenaires souhaitait minimiser le temps de préparation de ses commandes afin de répondre à ses engagements de livraison à J+1 auprès de ses clients.  » Toutes les commandes enregistrées avant 16h doivent être expédiées le jour même, explique Philippe Bouvet, co-gérant du groupe BJ Partenaires. Nous devions mettre en place de nouveaux outils logistiques. Notre stock de production est désormais au plus près des opérateurs grâce à des systèmes de magasins automatisés et aux magasins dynamiques pour permettre de traiter une expédition très rapidement. Dans un second temps, comme nous souhaitions transmettre les informations en temps réel et réduire le délai au minimum entre la saisie et la préparation de commandes, le Wi-Fi était devenu une nécessité. « Afin de répondre à cet enjeu, BJ Partenaires a retenu les solutions de JAM France, intégrateur rhône-alpin de solutions de traçabilité par code à barres et/ou RFID.  » Après plusieurs présentations produits dans nos locaux, nous avions des appréhensions quant à l’ergonomie du terminal MX8. En revanche, nous avons été séduit par le principe de fonctionnement du terminal HX2 de la marque LXE, le seul terminal mains-libres, porté sur le poignet, qui comporte un écran tactile relié à une bague scanner Bluetooth. Cette solution allait nous permettre de travailler en Wi-Fi et d’équiper nos opérateurs avec un terminal beaucoup plus léger que le MX8. « 

Le terminal HX2 de la marque LXE est le seul terminal mains-libres, porté sur le poignet, qui comporte un écran tactile relié à une bague scanner Bluetooth . © JAM France
Ainsi, en fonction de la gestion des priorités des commandes à préparer, il suffit seulement à l’administrateur d’envoyer les plus urgentes via le Wi-Fi sur le terminal portable de l’opérateur. La commande s’affiche alors en simultané en haut de l’écran de l’opérateur souhaité.S’ajoute aux opérations de saisie et de préparation, le contrôle des pièces et des quantités. L’informatisation et la mise en place des terminaux portables a permis d’avoir une visibilité sur le suivi pour le client. En consultant l’historique de la préparation de commande, on sait quelle pièce est sortie du stock et combien de pièces ont été sorties du stock. Euro-Négoce a donc gagné en visibilité, en qualité de retour d’information et en réduction du taux d’erreur. » Après quelques mois d’utilisation du matériel, nous constatons une rapide adaptation de la part des opérateurs suite à leur formation en interne « , précise Philippe Bouvet. Les opérateurs ont fait part de leur satisfaction quant aux technicités du produit et à son ergonomie.En termes de résultats, la mise en place des terminaux a supprimé le double contrôle. Cela s’est traduit par une réduction de 20 à 30 % du temps passé pour la préparation de commande. Par ailleurs, le temps de contrôle final a été diminué grâce à la lecture des codes à barres. En effet, avant il y avait 2 opérateurs : un pour aller chercher les articles en rayon (picking) et un autre pour le contrôle. Maintenant il n’y a plus qu’une seule personne pour effectuer ces deux opérations.  » Le contrôle des produits par les magasiniers à la sortie du stock /magasin et lors de la préparation de commande a permis d’atteindre des taux d’erreurs inférieurs à 0,5 %. C’est impressionnant « , s’exclame Philippe Bouvet. Avant les bons sortaient les uns après les autres. Maintenant, en fonction de la priorité de la commande à gérer, il est possible d’envoyer une commande urgente de manière instantanée et de la placer en haut de l’écran du terminal de l’opérateur pour qu’il la traite tout de suite « , explique Cédric Vidal, développeur au sein de l’entité Euro-Négoce. La capacité à gérer les commandes prioritaires en fonction des différents départs de livraisons effectuées par Euro-Négoce est désormais possible.L’adoption de solutions répondant au système de contrôle de recherche a permis d’obtenir un taux de défaillance quasiment nul et d’avoir un flux impressionnant de commandes traitées. Reste maintenant à réfléchir à une voie d’amélioration pour le traitement des commandes comportant une grande quantité d’articles. Par Marc Chabreuil    

 

Demain nos supercondensateurs seront plus propres et plus performants

En janvier 2009, Encarnacion Raymundi – Piñero, spécialiste des supercondensateurs, a reçu la médaille de bronze du CNRS. Cette distinction récompense le premier travail d’un chercheur, qui fait de lui un spécialiste dans son domaine, et représente un encouragement du CNRS à poursuivre ses travaux. Egalement auteur d’articles pour les Techniques de l’Ingénieur, Encarnacion Raymundi – Piñero, chercheur au sein Centre de recherche sur la matière divisée d’Orléans, revient sur ses travaux et leurs développements.

Techniques de l’Ingénieur : Vous travaillez, au sein du CRMD d’Orléans, sur les supercondensateurs. Quelles sont les applications de ces dispositifs et leurs principaux atouts ?

Encarnacion Raymundi – Piñero :  » Les supercondensateurs sont des systèmes de stockage de l’énergie. Constitués de deux électrodes, d’une membrane poreuse et d’un électrolyte, ils ont une capacité de stockage bien supérieure à celle des condensateurs traditionnels tout en utilisant un espace plus petit. Autres avantages : ils délivrent plus de puissance qu’une batterie, restituent l’énergie stockée beaucoup plus rapidement et ont une plus grande durée de vie. De fait, ils sont utilisés dans tous les secteurs industriels où l’on a besoin d’une grande quantité d’énergie dans un court laps de temps (Voir l’article de la base documentaire  » Applications des superconducteurs « ). On s’attend à les retrouver sur les mêmes marchés que les batteries : à savoir les téléphones portables, les ordinateurs et plus largement les appareils portatifs, mais aussi dans les véhicules électriques et, plus généralement, dans le domaine des transports terrestres. Enfin, ils peuvent être utilisés dans le secteur éolien pour varier rapidement la direction des pales afin d’augmenter l’efficacité des éoliennes face aux changements de direction du vent.

Sur quoi portent vos recherches dans ce domaine ? Quels sont les défis que vous cherchez à relever ?

Les supercondensateurs sont des systèmes de puissance. Aujourd’hui, nous cherchons à élargir le spectre de leurs applications. Dans ce cadre, le principal défi que nous essayons de relever est de multiplier par 10 la densité d’énergie qu’ils délivrent tout en maintenant un coût relativement faible et en rendant ces dispositifs plus propres. Pour améliorer les supercondensateurs, nous travaillons dans deux directions.

La première consiste à trouver de nouveaux matériaux peu coûteux pour fabriquer les électrodes. Dans ce domaine, nous avons mis au point un matériau à base de carbone que nous obtenons à partir d’algues qui sont utilisées dans l’industrie alimentaire. A ce jour, nous avons déposé deux brevets sur ce procédé : un en 2007 et un en 2008.

La seconde direction dans laquelle nous travaillons, consiste à proposer un électrolyte de substitution à ceux qui utilisent l’acétonitrile comme solvant. Car si ce produit est très performant, c’est un solvant toxique, interdit d’ores et déjà au Japon, et qui a de fortes chances de l’être également en Europe. Pour le remplacer, nous travaillons sur des électrolytes aqueux, tels que des solutions d’acide sulfurique, des solutions de potasse ou encore des solutions de sulfate de sodium. Le problème est que l’énergie et la puissance des supercondensateurs dépend directement de la tension entre les deux électrodes dans l’électrolyte. Or, celle-ci atteint jusqu’à 2,7 volts pour les électrolytes à base d’acétonitrile, tandis qu’elle n’est que de 0,8 à 1 volt pour les électrolytes aqueux.

Pour y remédier, nous avons développé des systèmes asymétriques, c’est-à-dire des supercondensateurs dont les électrodes sont constituées de matériaux différents, ce qui nous permet d’atteindre une tension qui oscille entre 2 et 2,2 volts et d’améliorer considérablement les capacités de stockage de ces dispositifs. A ce niveau, nous avons déposé un brevet.

Y-a-t-il d’ores et déjà des applications industrielles à vos travaux ? Quels secteurs pourraient être les plus intéressés ?

Pour l’instant, il n’y a pas d’applications industrielles. Mais que ce soit pour les électrodes en matériaux carbonés à base d’algues ou le principe des systèmes asymétriques, nous travaillons en relation avec des industriels. Mais nous en sommes plutôt au stade des développements. Dans ce cadre, nos partenaires sont des industriels des supercondensateurs qui ont des contacts avec l’industrie de l’automobile. Il y a d’autres marchés à conquérir, mais pour cela, nous devons encore gagner en densité d’énergie. Mais au final, je pense que l’avenir des supercondensateurs est moins, à terme, de se substituer aux batteries si performantes soient-elles que de les compléter en récupérant, par exemple, l’énergie du freinage d’une voiture, et en la restituant efficacement lors des accélérations.  »

 

 

Le parcours d’Encarnacion Raymundo-Piñero

Titulaire d’une licence en sciences chimiques, Encarnacion Raymundo-Piñero obtient son doctorat dans cette même discipline au cours de l’année 2000 à l’Université d’Alicante. Elle décroche aussitôt un poste d’enseignant chercheur en chimie organique dans cette même ville, où elle restera deux ans, entrecoupés d’un premier postdoc qu’elle réalise aux Etats-Unis. Puis, en 2002, elle obtient une bourse Marie-Curie qui l’amène dans le Centre de recherche sur la matière divisée d’Orléans (CRMD) où elle poursuit ses recherches pour devenir en 2006, chargé de recherches du CNRS. En janvier 2010, ses travaux ont été récompensés par une médaille de bronze du CNRS.

Liens utiles

Site du CRMD

Dans la base documentaire Techniques de l’ingénieur

Nouveaux développements dans le domaine des supercondensateurs, par Encarnacion Raymundo-Pinero

 

Propos recueillis par Anne-Laure Béranger

« Le débat sur les nanotechnologies souffre d’un manque d’éducation »

Lancé en septembre 2009 par la Commission nationale du débat public à la demande de sept ministères, le débat sur les nanotechnologies s’était fixé des objectifs ambitieux : éclairer les autorités publiques qui prendront ensuite des décisions pour encadrer l’usage des nanotechnologies, mais aussi les scientifiques, les industriels, les associations ainsi que les citoyens impliqués ou intéressés par ces développements, et faire en sorte que l’innovation en termes de nanosciences et de nanotechnologies ne soit pas déconnectée de la demande sociale. Or, ce débat, loin d’être serein a été émaillé d’incidents rendant parfois la discussion impossible. Pourquoi une telle levée de bouclier ? Quelles conséquences pour les nanotechnologies et quels enseignements peut-on en tirer ? Alexei Grinbaum, chercheur au Laboratoire des Recherches sur les Sciences de la Matière décrypte pour nous le phénomène.

Techniques de l’Ingénieur : Le débat sur les nanotechnologies qui a été officiellement lancé en septembre 2009, a été émaillé par de nombreux incidents. Pourquoi selon vous une telle opposition ?

Alexei Grinbaum :  » Avant toute chose, il faut distinguer deux niveaux de débat. Le premier se situe autour du processus de transfert technologique de la recherche vers l’industrie. Il s’agit d’encadrer ce transfert, de concevoir un cadre législatif pour fixer ce qui est autorisé et ce qui ne l’est pas. A ce niveau, les participants au débat sont des scientifiques, des ‘ technologues ‘ que j’appelle ainsi car ils ne travaillent pas dans la recherche mais dans la technologie industrielle, des politiques, mais aussi des associations, comme France Nature Environnement, qui représentent la société civile. Ce premier type de débat a pour objectif de créer des normes dans un processus de dialogue entre les différentes parties associées. Au delà, il y a un deuxième niveau de débat. Les nanotechnologies, comme les TIC ou la médecine avant elles, nourrissent beaucoup de questionnements sur leurs interactions avec la société. Ici, la question fondamentale est dans quelle mesure les nanotechnologies changent-elles la condition humaine et la vie en société ? Ce que nous voyons alors dans le déroulement du débat, c’est la prise de conscience du rôle moteur que jouent les sciences et les technologies sur le changement de la condition humaine et la vie en société. Ce changement se fait petit à petit, mais il prend de l’ampleur. Il en ressort que les sciences et les technologies sont devenues un sujet politique, au sens large, pour la société. La notion de progrès technique ne fait plus consensus comme il y a trente ans. Car le progrès technique s’inscrit dans une histoire où il y a des antécédents, parmi lesquels figurent les OGM, les déchets nucléaires, le sang contaminé, ou l’amiante. A ce niveau de débat, la science et les technologies sont perçues, en quelque sorte, comme une boîte noire. La plupart des gens identifie assez bien le besoin à l’origine des recherches, qui n’est souvent identifié qu’après coup, et les produits industriels qui en résultent. Mais ils ne savent absolument pas comment la science fait pour en arriver là. De fait, le travail scientifique, ce qui se passe en laboratoire, reste méconnu. La science et les technologies font alors partie, pour la société, d’un sacré au sens anthropologique du terme, c’est-à-dire qui transcende le niveau de la vie quotidienne des gens. Le public se divise au final en deux. Il y a d’un côté, ceux qui ont accès à des connaissances spéciales et ceux, la masse des  » profanes « , pour qui tout cela est comme de la magie. Il s’ensuit, des comportements qui s’apparentent ou qui se revendiquent des mouvements luddites du 19e siècle, caractérisés par le bris de machines et de manière plus générale, par une opposition au progrès technologique. Ici, le débat se radicalise et n’est absolument pas constructif. Il révèle plutôt le fait que la société a pris acte que la science joue un rôle de transformation de la société et que certaines personnes s’opposent à ces changements. La science est alors perçue comme un instrument de pouvoir dont l’effet advient de façon déterministe. Pour comprendre ce qui se passe aujourd’hui dans le débat sur les nanotechnologies, il est très important de ne pas confondre ces deux niveaux. Dans le premier cas, le débat porte sur des questions très concrètes comme la directive européenne Reach, l’article 73 de la loi Grenelle 2, la législation européenne, etc… et dans ce cadre, le terme  » nanotechnologies  » n’est presque jamais employé car il réunit des réalités trop hétérogènes. Dans le second cas, on se place au niveau du symbolisme. Ici, on parle de ‘ nano ‘ tout court, car le terme renvoie à une définition sociale : il désigne l’invisible, l’imperceptible, ce que d’autres peuvent manipuler sans qu’on le sache.

Qu’aurait-il fallu faire, selon vous, pour éviter ce choc frontal entre ces deux logiques ? Quels enseignements peut-on tirer des débats menés sur ce même thème dans d’autres pays ?

Je pense qu’aujourd’hui, il n’est pas possible d’organiser un débat sur les sciences et les techniques avec les mêmes instruments que ceux utilisés pour encadrer des débats citoyens sur des problèmes déjà familiers dont la portée est limitée : par exemple ceux relevant d’une ou de quelques communes, comme le tracé d’une nouvelle route. Il faut utiliser d’autres outils plus adaptés. Les Pays-Bas, par exemple, ont choisi une toute autre voie tout en poursuivant exactement le même objectif que la France. Ils ont d’abord lancé une première phase préparatoire au débat qui consiste à familiariser le public avec les nanotechnologies. Pour cela, ils ont fait une série télévisée, un numéro spécial d’un magazine et ont lancé plusieurs projets éducatifs, le tout étant financé par les ministères. Aux Etats-Unis, en revanche, il n’y a pas de débat national. Par contre, la National Nanotechnology Initiative consacre une partie de son budget au financement de projets éducatifs qui vont de l’école primaire à l’université, l’objectif étant de familiariser le plus grand nombre avec ces technologies. En France, nous avons choisi de faire de la démocratie directe sur un sujet qui demande de l’expertise. Tout le travail d’adaptation du discours des scientifiques, de rapprochement des intérêts et des manières de parler n’a pas été fait. Résultat, la parole des scientifiques est souvent perçue comme de la communication et pas comme une invitation au dialogue informé et réfléchi. Ce qui manque en France, c’est l’éducation.

Face aux questions éthiques qui sont soulevées par les nanotechnologies, ne faudrait-il pas créer un comité d’éthique ?

Je ne suis pas sûr que ce soit une bonne solution. Car les nanotechnologies sont trop hétérogènes. Créer un comité d’éthique pour toutes les disciplines couvertes par les nanotechnologies exige des compétences extrêmement diverses qui se rencontrent très rarement.

Certes, il ne faut pas confondre ces deux niveaux. Mais le débat symbolique ne va-t-il pas peser sur les décisions qui découleront de ce débat ? Quelles seront les conséquences pour la recherche ?

Il ne faut pas nier l’importance et le rôle du débat symbolique. Mais il y a eu des séances de discussion suffisamment intéressantes, comme par exemple à Orléans sur les produits cosmétiques, pour nourrir le rapport de la Commission nationale des débats public. J’espère que le gouvernement saura très clairement faire la distinction entre le contenu des travaux réels et la contestation symbolique. Je pense que le développement de la recherche scientifique, des connaissances nouvelles dans le domaine des nanosciences et des nanotechnologies n’est pas en danger. C’est une affaire qui ne relève pas de la France seule, la recherche aujourd’hui est mondiale. Pour ce qui est de la mise sur le marché des produits, le débat va continuer pour produire des mesures d’encadrement.

N’y a-t-il pas d’enseignements à tirer de la contestation symbolique qui s’est manifestée tout au long de ce débat public ?

Si, bien sûr. Et ils pourraient être de deux sortes. En premier lieu, cette contestation apparaît comme la conséquence directe du déclin constant de la formation scientifique des jeunes. Le système éducatif est aujourd’hui incapable d’expliquer le fonctionnement des outils technologiques que tout le monde utilise. Résultat, ils apparaissent comme des objets magiques autour desquels peuvent se greffer toutes sortes de peurs et de craintes. Mais cette contestation est également riche d’enseignements pour les ingénieurs. Il est clair que la période de la tour d’ivoire est terminée pour eux. Et ce constat ne suffit pas. Il faut intégrer à leurs cursus des outils pour leur permettre de réfléchir à l’interaction entre la science et la société et aux questions éthiques que leurs travaux soulèvent. Si l’on pouvait tirer ces enseignements de ce débat, ce sera déjà pas mal.  » Le parcours d’Alexei Grinbaum Alexei Grinbaum a un double parcours. Physicien en mécanique quantique, il est également titulaire d’une thèse en philosophie des sciences. Ses recherches dans le domaine de l’éthique des sciences et des technologies l’ont amené à travailler sur la notion d’incertitude sur le développement technologique. Aujourd’hui, ses travaux portent sur les analogies entre les questions éthiques que posent la science et les technologies, et celles qui se posent dans des domaines qui n’ont rien à voir avec la science, comme par exemple, des mythes anciens. Enfin, il est coordinateur pour la France de l’observatoire européen des nanotechnologies. Le LARSIM Laboratoire des Recherches sur les Sciences de la Matière. Créé en 2007, le LARSIM est situé sur le plateau de Saclay et est rattaché au CEA. Dirigé par Etienne Klein, ce laboratoire fait de la recherche en philosophie des sciences. Ces travaux s’organisent autour de trois thèmes : – clarifier les enjeux de certains problèmes rencontrés en physique : exemple les questions conceptuelles autour du LHC ; – instaurer un dialogue entre physique et philosophie en cherchant dans les découvertes récentes faites en physique lesquelles mériteraient d’être exportées en dehors de cette discipline, car elles ont également un intérêt dans des domaines comme la philosophie. Exemple : la question du temps. – observer, sur des thèmes sujets à controverse, l’état actuel de la relation entre la science et la société. Sur les nanosciences, il s’agit d’examiner quels sont les arguments de fond qui opposent partisans et adversaires, quels sont les systèmes de valeurs sur lesquels se basent les uns et les autres, et de clarifier les enjeux des débats qui ont cours. Cette équipe est constituée de physiciens et de philosophes. Voir le site du LARSIM. Pour aller plus loin Etienne Klein, Vincent Bontems, Alexei Grinbaum,  » Nanosciences : les enjeux du débat « , Le Débat, n°148, janvier-février 2008, pp 65-79. Propos recueillis par Anne-Laure Béranger

Quelles perspectives liées à la nanostructuration ?

Des experts de la société de conseil Alcimed font le point sur le potentiel de développement de ce procédé qui confère aux matériaux des propriétés telles que la dureté et l’élasticité dans des environnements agressifs.Après le secteur du traitement de surface, les matériaux nanostructurés attirent aujourd’hui de plus en plus les industriels à la recherche de solutions pour faire face à des environnements de plus en plus agressifs. Même s’il est aujourd’hui encore limité, ce marché pourrait fortement se développer à l’avenir en devenant le matériau de demain pour de nombreux secteurs industriels comme l’énergie en particulier.La nanostructuration est un procédé qui vise à améliorer les propriétés existantes d’un matériau ou à lui conférer de nouvelles propriétés. Elle peut s’appliquer à toutes les familles de matériaux : métaux, céramiques, diélectriques, oxydes magnétiques, polymères… Deux méthodes aux perspectives différentes permettent d’obtenir des matériaux nanostructurés : la nanostructuration en volume (en agissant directement dans la masse) et la nanostructuration de surface (en modifiant la structure de la surface).

Améliorer les propriétés mécaniques des matériaux

La nanostructuration en volume est obtenue grâce à une dispersion de nanoparticules ou à une organisation du matériau en nanograins au sein de la matrice du matériau. Elle permet d’améliorer de façon sensible les propriétés mécaniques d’un matériau telles que sa dureté, sa résistance à l’abrasion ou sa résistance à la traction. Cependant, à l’exemple des implants médicaux en titane pur nanostructuré, la nanostructuration en volume reste pour le moment limitée à des développements ponctuels.  » Le procédé de fabrication de la nanostructuration en volume reste pour le moment le principal frein à son développement; il est en effet, difficile de maîtriser la dispersion de nanoparticules (ou nanograins) et d’en assurer une reproductibilité correcte à l’échelle industrielle « , explique Nadia Boukhetaia, consultante au sein de la BU Chimie, Matériaux et Energie d’Alcimed.La nanostructuration en surface semble beaucoup plus prometteuse, notamment dans une logique de développement court terme. Elle peut être obtenue soit par modification de la surface directement par voie physique (grâce à des techniques dites  » grenaillage « ), soit par dépôt d’un revêtement nanostructuré en surface. Le grenaillage traditionnel consiste à projeter à grande vitesse des billes (en acier, en céramique…) sur la pièce à traiter. Elle permet de modifier la structure en surface, sans créer de nanotructures. Dans le cas des métaux, ce traitement parvient à optimiser de façon significative certaines propriétés comme la résistance à la corrosion qui peut augmenter de 30 %. De plus, des propriétés mécaniques telles que la dureté ou la résistance des matériaux peuvent être augmentées de façon significative: après traitement par grenaillage à ultrasons, un acier voit sa dureté passer de 300 à 600 degrés Vickers !Plusieurs sociétés ont récemment été créées sur ce créneau du  » grenaillage « , développant des technologies à base de laser, d’eau pressurisée ou encore d’ultrasons. La nanostructuration en surface peut également être obtenue par le dépôt d’un revêtement nanostructuré. Dans ce cas, les procédés utilisés sont ceux du traitement de surface: PVD (dépôt physique par phase vapeur), CVD (dépôt chimique en phase vapeur) et de leurs dérivés. Sur ce créneau, se positionnent les leaders du traitement de surface (HEF, BalzersÉ), et de l’outillage (SandvikÉ), mais aussi de nombreuses start-up hyper spécialisées pour répondre aux besoins très spécifiques de certains secteurs industriels. A titre d’exemple, la société américaine Nanosteel a développé une nouvelle famille d’acier nano (Super hard Steel) qui déposé en couche mince améliore considérablement les propriétés de résistance à la corrosion de l’acier. Pour l’instant, les volumes de production sont limités et restent par conséquent très chers. Les applications de la nanostructuration en surface demeurent très spécifiques, concernent des pièces de petite taille et s’adressent à des marchés de niche : moule d’injection, outils spéciaux…Cependant, un nombre croissant d’industriels des secteurs de l’énergie, de la mécanique, de l’automobile et de l’aéronautique sont actuellement en train de procéder à des analyses ou à des tests sur des applications pilotes élaborées à partir de matériaux nanostructurés.  » Les atouts de la nanostructuration sont nombreux. Elle permet d’allier des propriétés telles que dureté et élasticité dans des environnements agressifs qui sont particulièrement recherchées par les industriels. Cependant, il existe encore peu d’applications au niveau industriel. Les défis à relever concernent principalement la maîtrise des procédés industriels, car il est aujourd’hui difficile d’assurer pour les deux types de nanostructuration une reproductibilité industrielle au niveau des pièces. Des efforts de R&D sont donc nécessaires au niveau du procédé pour que la nanostructuration parvienne à s’imposer en masse dans l’industrie « , précise Vincent Pessey, Responsable du pôle Nanotechnologies d’Alcimed.

Projet Solargeotherm : stockage et déstockage de l’énergie thermique

Denis Nguyen du BRGM (Service géologique régional Languedoc-Roussillon) fait le point sur le projet de recherche Solargeotherm qui vise à évaluer les capacités de stockage et déstockage dans un massif rocheux de l’énergie thermique produite par une installation solaire.Dans le cadre du programme de recherche Stock-E (Stockage innovant de l’énergie) de l’ANR, le Solargeotherm s’attache à évaluer les capacités d’un massif rocheux pour le stockage et le déstockage de l’énergie thermique produite par une installation solaire, via un transfert de chaleur vers le sous-sol par sondes géothermiques. L’utilisation de capteurs solaires thermiques aboutit à une production de chaleur intermittente et fortement décalée dans le temps par rapport aux besoins. La possibilité de stocker et de déstocker de façon optimale cette énergie dans un massif rocheux est étudiée et modélisée par le projet.Le site expérimental est choisi pour minimiser les venues d’eau dans le massif rocheux, en-dehors donc de tout aquifère alluvial, dans un contexte géologique le plus homogène possible, en évitant les formations pouvant présenter une fissuration importante ou un réseau karstique développé. Les zones à altération superficielle importante ont également été évitées. La carrière Serrat-dels-Hostalets (commune de Montauriol, Pyrénées-Orientales) a été retenue comme présentant les meilleures caractéristiques pour localisation du dispositif expérimental.

6 forages implantés sur la plateforme
L’environnement géologique est celui de gréso-pélites rubanées gris-verdâtres de l’Unité de l’Aspre-Formation de Jujols (Paléozoïque). Il s’agit de fines alternances d’épaisseur millimétrique à centimétrique de niveaux silteux (siliceux fins) clairs et d’argilites grises à verdâtres, plus ou moins sombres. Six forages ont été implantés sur la plateforme supérieure de la carrière, dont trois forages principaux d’injection de chaleur d’une longueur de 160 à 180 m (voir photo ci-dessous), entièrement dans les schistes.La durée totale du projet d’un coût de 1 M€ qui a débuté en décembre 2008 est de 36 mois. Il réunit quatre partenaires :le BRGM (SGR/LRO – Montpellier), le laboratoire ELIAUS (Université de Perpignan UPVD), Dominguez-Energie SARL (Argelès-sur-Mer), et le laboratoire PROMES (UPR CNRS 8521 – Perpignan). Le projet planifie la tâche de suivi du stockage et du déstockage thermique sur deux cycles annuels complets. Le livrable final du projet Solargeotherm est un guide de conception et de bonne pratique des installations géothermiques utilisant la ressource du stockage dans un massif rocheux de l’énergie thermique produite par une installation solaire, avec l’objectif de restituer cette énergie pour satisfaire les besoins de chauffage l’hiver.Toutes les zones de socle (40 % du territoire métropolitain environ) sont concernées par cette utilisation possible d’un massif rocheux comme réservoir de chaleur basse température. On peut également penser à l’étranger aux régions arides, où les aquifères se situent à plusieurs centaines de mètres de profondeur, avec des possibilités de stockage géologique à moyenne profondeur de calories, comme de frigories d’ailleurs.Le projet n’a aucun impact environnemental sur les aquifères, le stockage thermique étant réalisé hors aquifère. La ressource en eau n’est pas exposée. Le transfert de chaleur du sous-sol par sonde géothermique est un dispositif technique éprouvé, sans risque de colmatage, corrosion du dispositif ou contamination environnementale.

Premiers résultats scientifiques et techniques
Une émission d’un choc thermique sur un des forages profonds (1000 litres d’eau à 70 °C injectés en 1 h dans une boucle la sonde géothermique) a permis d’enregistrer la montée en température dans le forage, et sur 6 jours ensuite consécutifs la période de relaxation. Ce test a permis d’acquérir de façon détaillée les paramètres thermophysiques du massif rocheux sur toute la longueur du forage avant même l’installation expérimentale totalement opérationnelle.L’acquisition en continu des mesures de température lors d’opérations de stockage/déstockage de chaleur conduites dans le cadre de plans d’expérience établis a commencé en décembre dernier, date de la mise pleinement opération de l’installation expérimentale. Denis Nguyen

Une mise en hibernation intelligente des ordinateurs

Le constat est éloquent : les entreprises dépensent un quart de leur budget IT total pour des frais liés à l’énergie et, en Europe, 50 % des utilisateurs quittent leur poste de travail sans éteindre leur ordinateur et sont responsables de 39 % des émissions mondiales de CO2 générées par le secteur IT, soit l’équivalent émis annuellement par 43,9 millions d’automobiles.  » S’il est toujours possible de changer les comportements avec le temps, la solution Hibernatus a, quant à elle, un impact immédiat. Quelques heures de paramétrage suffisent pour que l’application soit opérationnelle et que les économies d’énergie commencent. Concrètement, avec Hibernatus, l’économie annuelle potentiellement réalisable pour un parc de 1.000 ordinateurs, est de 47.000 eurios, soit un retour sur investissement (ROI) de 3 mois « , explique Frédéric Glaubert, le fondateur et dirigeant de Inventiv Security.Bien que le mode hibernation (ou mode veille prolongée) existe sur tous les d’ordinateurs, cette fonctionnalité reste méconnue. Pourtant, il permet de réduire en quasi totalité, la consommation d’un ordinateur tout en sauvegardant sur le disque dur les travaux en cours. Autre avantage, la sortie du mode hibernation est beaucoup plus rapide permettant ainsi au PC d’être opérationnel en quelques secondes au lieu des nombreuses minutes nécessaires à un démarrage classique.

Une hibernation entièrement paramétrable
Hibernatus est un  » système interopérable  » spécialement conçu pour s’adapter et évoluer en fonction des besoins et demandes spécifiques des entreprises. Plutôt qu’un fonctionnement par créneau horaire qui reste assez arbitraire, Hibernatus privilégie la localisation géographique de chaque utilisateur qui se fait en relation avec un système de badgeage existant (système de contrôle d’accès physique, de gestion des horaires, de restauration), qui remonte en temps réel vers Hibernatus les informations nécessaires. Typiquement, quand un salarié quitte les locaux il déclenche la mise en hibernation de son ordinateur et le réveille à son retour. Mais le système peut également être piloté manuellement, par un système tiers, par créneaux horaires avec gestion des exceptions et des jours fériés ou en combinant toutes ces méthodes de déclenchement à la fois. Hibernatus est construit autour d’un moteur d’automation entièrement paramétrable. Le paramétrage se fait sous forme de scénarios très simples que l’administrateur peut créer à sa convenance et sans être limité. Douze types de télécommandes simples ou combinées peuvent être exécutées : mise en veille ou mise en hibernation avec ou sans verrouillage préalable, fermeture de session, verrouillage de session, arrêt du PC, redémarrage, réveil…Image : © Inventiv Security.Par Marc Chabreuil

Novozymes, roi des enzymes, futur major des biocarburants ?

Pour transformer des déchets de plantes en biocarburants compétitifs, la clé pourrait bien être les enzymes, ces protéines qui transforment la cellulose en sucres simples, base du bioéthanol.Le roi incontesté de ce marché au potentiel formidable est le groupe danois Novozymes, leader mondial des enzymes industrielles, qui vient d’annoncer la sortie pour 2010 de la première enzyme viable commercialement pour produire du bioéthanol à base de résidus végétaux.Les enzymes agissent par hydrolyse, une alternative aux procédés thermochimiques. Sten Risgaard, PDG de Novozymes, explique que sa société a fourni cette année, après 9 ans de recherche, des prototypes d’enzymes destinés aux producteurs de bioéthanol cellulosique, tels que POET et KL Energy aux Etats-Unis, COFCO en Chine, et Inbicon au Danemark.

Production industrielle
C’est en 2012 que devrait démarrer la production à l’échelle industrielle de ce bioéthanol qui pourrait succéder aux bioéthanols à base de maïs, colza ou canne à sucre, accusés de détourner des ressources alimentaires.Novozymes a aussi noué un partenariat de recherche avec CTC (Brésil) sur des enzymes qui transformeraient la bagasse (résidu de canne à sucre) en bioéthanol.Le bioéthanol a l’avenir devant lui : le parc automobile mondial devrait tripler, selon l’Agence internationale de l’énergie, pour atteindre 3,3 milliards en 2050.D’où un besoin vital de carburant propre, d’autant que les voitures électriques ne remplaceront pas les véhicules à combustion. L’Europe et les Etats-Unis imposent déjà de mélanger du bioéthanol à l’essence.

Marché des enzymes doublé
Les enzymes industrielles, utilisées depuis 60 ans dans l’alimentaire, les détergents, représentent un marché mondial d’environ 2,2 milliards d’euros. Un marché dominé à 70 % par Novozymes et son rival danois Danisco.Si les biocarburants à base de résidus végétaux s’imposent, le marché mondial des enzymes pourrait doubler d’ici 2020, selon le PDG de Danisco, Tom Knutzen.En 2030, la production d’éthanol pourrait être 12 fois supérieure à son niveau de 2006 et le marché du bioéthanol atteindre 75 à 140 milliards de dollars dès 2020.

Bioéthanol moins cher que le gazole
En 2010, les enzymes seront commercialement viables et le biocarburant, qui pour l’instant reste 30 % plus cher à produire que le gazole, devrait être 25 % moins cher en 2015.Avec un chiffre d’affaires de 1,2 milliard d’euros en 2008, Novozymes réalise 30 % de ses ventes dans les enzymes. Et il construit une usine d’enzymes au Nebraska, qui sera opérationnelle fin 2012, et étudie un projet d’usine en Chine, près de Shanghai.Parmi ses concurrents, le consortium français Futurol travaille lui aussi sur des enzymes pour biocarburants. 

Source :
Green Univers

Ça chauffe pour le bisphénol A

Mis en cause par une série d’études scientifiques depuis 2003, banni des biberons au Canada depuis octobre 2008, au nom du principe de précaution, mais aussi dans certains Etats américains ainsi qu’au sein des crèches parisiennes et toulousaines, le Bisphénol A voit se resserrer autour de lui les soupçons, dès lors qu’il est utilisé dans les plastiques alimentaires. La controverse enfle notamment sur la pertinence ou non des seuils d’exposition admissibles fixés en Europe et aux Etats-Unis.Résumons : ce composé chimique a la fâcheuse capacité de s’extraire spontanément, à très faibles doses, des plastiques et des résines pour la fabrication desquelles il est très largement utilisé. Une faculté qui est démultipliée dès lors que le plastique est chauffé, par exemple au micro-ondes. D’où l’alerte sur les biberons, dont certaines marques ont désormais cessé d’utiliser le BPA.Ce dernier est cependant toujours d’usage dans bon nombre de revêtements de conserves, canettes, bouteilles d’eau et contenants destinés, justement, aux micro-ondes. Du coup, ce n’est plus l’exposition des bébés, mais aussi celle des mères et des femmes enceintes qui font l’objet d’attentions nouvelles.

La liste des effets nocifs imputés à ce contaminant ne cesse de s’allonger
Libéré dans les aliments et les boissons, le BPA peut en effet se retrouver dans l’organisme humain : dans le sang, les tissus gras, le placenta, le liquide amniotique, le lait maternel… Or, la liste des effets nocifs imputés à ce contaminant ne cesse de s’allonger en raison des perturbations endocriniennes qu’il génère chez l’animal et chez l’homme. Rappelons d’ailleurs qu’à l’origine, le BPA avait été mis au point pour être utilisé comme hormone de synthèse (plus exactement l’oestrogène de synthèse). D’où les troubles potentiels qu’il peut provoquer en termes de reproductions, de croissance, ou de comportement…Il aurait également des incidences sur les cancers du sein et de la prostate, l’obésité, le développement du cerveau. Sans oublier cette toute récente découverte, due aux chercheurs du centre Inra de Toulouse, au sein du Pôle de recherche en toxicologie alimentaire, qui ont démontré l’effet du BPA sur l’intestin de rates, pour une dose dix fois inférieure à la dose journalière acceptable (DJA), fixée à 0,05 mg par kilo de poids corporel. Les effets en question : rétention d’eau dans le corps, sensibilité accrue à la douleur de l’intestin, inflammation du côlon.Des travaux qui vont au minimum dans le sens d’un réexamen de ces fameuses DJA, que certains jugent trop élevés, voire d’une interdiction totale du BPA dans les plastiques alimentaires, ainsi que le demande depuis longtemps en France le réseau Environnement Santé. Un dossier qui plaide également en faveur de recherches plus poussées, en terme d’évaluation des risques, en prenant en compte l’ « effet cocktail » des perturbateurs endocriniens dont le BPA n’est qu’un parmi d’autres.En attendant, des alternatives toute simples existent : privilégier les contenants en verre ou en carton et éviter de chauffer au micro-ondes des plats en plastique. 

Sources :
Les biberons en plastique interdits dans les crèches toulousaines, La Dépèche du Midi, 15 décembre 2009.Les femmes enceintes doivent se tenir loin du BPA, La Tribune (Canada) 8 déc 2009.Des effets néfastes sur l’intestin démontrés pour la première fois, Le Point, 15 décembre 2009.

Planification stratégique et utilisation efficace des ressources humaines chez Saipem

Avec un chiffre d’affaires dépassant les 14,8 milliards de dollars, l’Italien Saipem propose des services d’ingénierie, d’approvisionnement, de gestion de projet et de construction pour l’industrie pétrolière, à la fois offshore et onshore. A cela s’ajoutent le forage, la maintenance et l’exploitation, y compris dans les lieux reculés et en eaux profondes. Avec 38.000 employés dans plus de 35 pays, Saipem avait besoin d’une plate-forme mondiale de gestion de ressources afin d’affecter le personnel adéquat à chaque étape du cycle de vie d’un projet. Plus important encore, la société doit planifier et suivre ses équipes provenant d’organisations diverses (employés internes de différentes divisions, personnel de sociétés tierces et sous-traitants extérieures). Pour ce faire, Saipen a sélectionné CA Clarity PPM (Project & Portfolio Management) comme élément fondateur du nouveau système. La solution de CA, éditeur indépendant de logiciels pour la gestion des systèmes d’information, est utilisée pour traduire les projets de la société en unités de mesures horaires afin d’aider le suivi des performances.En octobre 2008, Saipem a commencé à utiliser CA Clarity PPM pour le marché électronique du groupe qui négocie avec plus de 300 utilisateurs situés chez des fournisseurs de services à terre. Après cette première étape, la société a commencé à gérer 400 projets. Aujourd’hui, CA Clarity PPM, solution de gestion de portefeuille et de projet, est utilisé par Saipem comme application de gestion de projet stratégique pour les contrats EPIC (Engineering, Procurement, Installation and Commissioning)  » clés en main  » qui constituent le coeur de son activité. Ceux-ci couvrent l’ensemble des tâches d’ingénierie, d’approvisionnement, d’installation et de construction pour les sites complexes ainsi que l’infrastructure associée, de la conception à la mise en service.

Réagir rapidement aux évolutions du marché
 » En tant que leader sur le marché mondial très concurrentiel du pétrole et du gaz, il est vital que notre société ait la possibilité de faire correspondre ses besoins métiers avec une source appropriée de ressources disponibles. La solution de CA nous procure une plus grande flexibilité opérationnelle et nous permet de réagir plus vite aux évolutions du marché « , a déclaré Alessandro Tintori, directeur des projets TIC chez Saipem » En plus de gérer les diverses phases de chaque projet, CA Clarity PPM permet également à Saipem de réaliser une planification stratégique à long terme pour atteindre les objectifs métiers établis par l’équipe de direction, fournissant des sources de prévisions précieuses pour aider à concrétiser nos plus importantes initiatives métiers. « Aujourd’hui, CA Clarity PPM est utilisé pour gérer plus de 700 projets de tailles variées, dont des opérations de grande envergure puisqu’elle durent entre 24 et 36 mois. Des centaines de personnes avec un haut niveau de responsabilité, tels que des responsables de projet, des responsables de département, du personnel de contrôle de projet et des directeurs des ressources humaines mettent à profit cette solution pour planifier les capacités et la demande de ressources, tout en maîtrisant les coûts par un suivi des heures de travail programmées et des budgets engagés.CA Clarity PPM est connecté à de multiples applications logicielles chez Saipem, dont PeopleSoft d’Oracle qui gère les ressources internes, SAP R/3 qui suit le personnel et contrôle les processus métiers de l’entreprise et un entrepôt de données pour l’analyse des données agrégées. L’intégration avec SAP R/3 permet à Saipem de créer les liens comptables nécessaires pour planifier les budgets de l’entreprise de façon à ce que CA Clarity PPM puisse gérer la performance par position, centre de coûts ou projet.  » A partir de son utilisation pour les divisions métiers et géographiques, Saipem met à profit CA Clarity PPM comme une application d’entreprise aidant à maximiser les ressources et les revenus au coeur de son activité « , a déclaré Brian Bell, vice-président et directeur général de la division CA Clarity PPM chez CA. Image : © Saipem

Par Marc Chabreuil
 

La mémoire de l’amidon

Les polymères à mémoire de forme « classiques » sont des molécules à structure complexe (souvent des copolymères) dont la synthèse chimique est difficile, coûteuse et souvent néfaste pour l’environnement. Leur utilisation est donc plutôt réservée à des applications à haute valeur ajoutée comme les matériaux biomédicaux, les traceurs de température, ou la micromécanique.L’étude de la transformation et des propriétés de matériaux amylacés à l’état vitreux, notamment leur capacité à stocker des contraintes résiduelles, a permis à des chercheurs de l’unité « Biopolymères, Interactions, Assemblages » de l’Inra de Nantes de mettre au point un procédé pour la fabrication de matériaux à mémoire de forme à base d’amidon. Ces travaux ont fait l’objet d’un dépôt de brevet en Europe et à l’international.L’amidon à mémoire de forme est mis en œuvre selon un cycle thermomécanique précis, obtenu par extrusion dans des conditions classiques (T=120 °C, teneur en eau de 25 %). Une première forme (par exemple, un cylindre torsadé lui est donnée à chaud, directement en sortie de filière, et figée par un refroidissement rapide. Une nouvelle forme temporaire (cylindre déplié dans l’exemple), lui est donnée par chauffage à une température supérieure à celle de sa transition vitreuse (température à laquelle un matériau rigide et cassant devient souple et déformable).

Des applications possibles dans l’agroalimentaire
Cette forme est figée par refroidissement à température ambiante, sous contrainte mécanique. La recouvrance de la forme initiale se produit spontanément si la température de l’objet devient supérieure à sa température de transition vitreuse, Tg (modulable par formulation dans une gamme de 0 à 100 °C). La recouvrance est obtenue quasi-instantanément par un chauffage micro-ondes, en quelques dizaines de secondes dans de l’eau chaude, ou encore en quelques heures par absorption d’eau en atmosphère humide.La mémoire de forme de l’amidon peut être exploitée pour des applications classiques des polymères à mémoire de forme, comme traceurs d’humidité/température intégrés dans des emballages de produits alimentaires. L’amidon étant comestible, des applications peuvent également être trouvées en agroalimentaire, par exemple pour le développement de nouveaux produits céréaliers à forme variable. Ces résultats ouvrent ainsi la voie pour la mise au point d’aliments ludiques et « intelligents » dont le stockage et le transport sous forme compacte seraient facilités. Ils pourraient ensuite se déployer spontanément lors de la préparation ou de la dégustation.Une première forme (cylindre torsadé) est donnée à chaud, sortie de filière, et figée par un refroidissement rapide. La deuxième forme (cylindre déplié dans l’exemple) est donnée par chauffage à une température supérieure à celle de sa transition vitreuse, et figée par refroidissement à température ambiante, sous contrainte mécanique. La recouvrance de la forme initiale se produit spontanément si la température de l’objet devient supérieure à sa température de transition vitreuse – © Unité « Biopolymères, Interactions, Assemblages » de l’Inra-Nantes

Photovoltaïque : les règles tarifaires sont enfin fixées

Un arrêté concernant le tarif d’achat de l’électricité d’origine photovoltaïque a été publié au Journal Officiel, le 15 janvier dernier. Celui-ci annonce non seulement de nouveaux tarifs d’achat, mais aussi de toutes nouvelles règles en matière d’éligibilité au tarif intégré. Christian Cachat, président de l’APESI, commente ces décisions du gouvernement.Les nouveaux tarifs publiés le 15 janvier au Journal Officiel suivent l’annonce qui avait été faite par le gouvernement en fin d’année dernière, c’est-à-dire 58 c€ / kWh pour les installations avec « intégration au bâti » lorsqu’elles sont intégrées à des bâtiments d’habitation, d’enseignement ou de santé.Pour les autres bâtiments (bureaux, industriels, agricoles, etc.), le tarif a été fixé à 50 c€ / kWh. Jusqu’ici, rien de nouveau. Ce tarif intégré spécifique avait été annoncé et les professionnels de la filière étaient avertis. Cependant, une nouveauté est apparu et risque de faire des mécontents : ces tarifs d’intégration sont réservés aux bâtiments existants : le système photovoltaïque doit être installé au moins deux ans après la date d’achèvement du bâtiment, à l’exception des bâtiments à usage principal d’habitation.

Les critères d’intégration revus
Suite à la lecture de l’arrêté et concernant cette nouvelle notion, Christian Cachat, président de l’APESI (Association des Producteurs d’Electricité Solaire Indépendants), déclare : « Cela n’était pas prévu initialement et l’objectif du gouvernement n’est pas clair. Le fait d’avoir revu les critères d’intégration semble logique. Cependant, certaines tranches de la profession risquent de pâtir énormément de cette nouvelle réglementation. Je pense particulièrement aux jeunes agriculteurs pour qui l’énergie solaire était un moyen de financement de leurs bâtiments d’exploitation. Là où il était déjà difficile d’accepter de passer d’un tarif à 60 c€/kWh à un tarif à 50 c€/kWh, il semble évident que les agriculteurs qui devront construire de nouveaux bâtiments, ne se satisferont pas du tarif d’intégration simplifié à 42 c€/kWh ».En outre, il est important de signaler que les installations au sol bénéficient toujours d’un tarif à 31,4 c€/kWh, et celles dont la puissance est supérieur à 250 kWc seront assujetties à une indexation permettant aux régions les moins ensoleillées de bénéficier d’un tarif de 37,7 c€ / kWh. « Bien que la parité réseau risque de mettre plus de temps avant d’être atteinte, ceci est une sage décision de la part de gouvernement qui permettra de mieux répartir les puissances sur le territoire français. Cette décision vient à point nommé avant un encombrement complet des zones les plus ensoleillées », déclare Christian Cachat.Il est aussi convenu que ces tarifs soient inchangés jusqu’en 2012 et que ceux-ci soient ensuite revus chaque année par une formule d’indexation. « C’est tout à fait normal, la filière doit évoluer vers plus d’autonomie. Les coûts technologiques étant amenés à baisser, il est normal de répercuter cette baisse sur le tarif d’achat. L’objectif est d’atteindre la parité réseau le plus rapidement possible », déclare Christian Cachat. Toutes ces décisions ont au moins le mérite de poser de nouvelles bases et d’éclaircir le flou dans lequel la filière se trouvait dans l’attente de cet arrêté.

Réseau électrique européen en mer : vers un marché commun de l’électricité

Lors d’une réunion du Conseil de l’énergie qui s’est tenue à Bruxelles, le 7 décembre 2009, 9 pays européens auraient signé un accord proposant de développer un gigantesque réseau électrique offshore en Mer du Nord et Mer d’Irlande.Selon l’EWEA et le media Wind Energy l’accord signé pour le Royaume-Uni par Lord Hunt l’aurait été aussi par les ministres et/ou représentants des pays suivants : Allemagne, France, Belgique, Pays-Bas, Luxembourg, Danemark, Suède et Irlande. Cette proposition de développement (il ne s’agit pour l’heure que d’une proposition) de réseau éolien offshore servirait à accroître la sécurité énergétique des pays signataires, tout en aidant à optimiser la production éolienne offshore d’électricité.Il aiderait également l’Union européenne dans son ensemble (qui en a visiblement bien besoin eu égard aux récentes déclarations entendues pendant la Conférence de Copenhague) à atteindre ses objectifs en matière de production d’énergie renouvelable pour 2020 et 2030. Bien que l’EWEA ait toujours porté et défendu l’idée d’un gigantesque réseau européen de distribution d’électricité produite par l’éolien offshore, un tel réseau relève pour l’instant plutôt du domaine du rêve que de la réalité (cf. notre article du 5/5/2009 sur le projet de super-réseau européen ICI).Le réseau de la Mer de Nord demanderait à lui seul, selon Justin Wilkes de l’EWEA interrogé par le Rikki Stancich de Wind Energy, des investissements de l’ordre de € 20 à 30 milliards d’ici à 2030. On peut retrouver l’intégralité de cet intéressant entretien en anglais ICI. Par comparaison, l’Agence internationale de l’énergie (AIE) estime que le total des investissements dans les réseaux de transport européens d’électricité sera de€ 187 milliards pour la période 2007-2030.

Prendre des paris et des risques
Le financement du futur réseau européen impliquerait donc des investissements importants qui ne seraient pas consentis seulement par les autorités gouvernementales des Etats mais aussi et surtout par des investisseurs privés et des groupements financiers qui sauraient prendre des paris (et des risques) sur les perspectives commerciales futures. Comme je le signalais déjà dans l’article du 5 mai 2009, la Banque européenne d’investissement (BEI) a, dans ce sens, un rôle capital à jouer.Des fonds spécifiques existent déjà en son sein comme les fonds pour les réseaux trans-européens qui répondent au doux nom de « fonds Marguerite », mais cela n’est pas suffisant.Ce sont des instruments comme le « Mécanisme de financement avec partage des risques » (MFPR), créés par la BEI qui pourraient, selon l’EWEA, garantir le type d’investissements attendus dans le domaine de l’éolien offshore, le tout appuyé aux niveaux régionaux par des fonds structurels orientés vers le développement des infrastructures d’électricité.

Développer par étapes au fur et à mesure des besoins
Voilà pour le point de vue financier. Du point de vue technologique, l’EWEA pense que c’est l’utilisation de la technologie HVDC (High Voltage Direct Current) qui est la plus attrayante pour l’exploitation du réseau offshore car elle offre la maniabilité nécessaire dont a besoin ce type de réseau. Il existe à l’heure actuelle deux principaux types de liaison HVDC : – la HVDC-LCC HVDC (la technologie la plus conventionnelle et la plus largement utilisée dans le monde)– la VSC HVDC (Voltage Source Converter High Voltage Direct Current), d’apparition récente et qui, selon de nombreux experts, serait plus appropriée aux besoins spécifiques en mer, car elle permet des liaisons sur de longues distances (jusqu’à 600 km) avec des pertes minimes.Son faible encombrement minimise également son impact environnemental et ses coûts de construction. L’aspect modulaire de cette technologie permet aussi de la développer par étapes au fur et à mesure des besoins. Dernier avantage d’une longue liste détaillée par L’EWEA, cette technologie est directement compatible avec les réseaux à terre. Il existe deux grands fabricants de la technologie HVDC VSC. Le premier est le leader mondial des technologies de l’énergie et de l’automation, ABB, qui utilise le nom de marque HVDC Light.Le second est Siemens dont la technologie s’appelle HVDC Plus. Le but, à terme, est d’utiliser conjointement ces deux technologies sur le réseau offshore du futur, mais pour l’instant elles ne sont pas identiques et des efforts sont nécessaires pour les rendre compatibles.

Au-delà des intentions, les défis à relever restent toujours les mêmes
Toujours dans cet intéressant entretien, les questions de la réglementation et de l’autorité de gestion d’un tel réseau sont largement évoquées. L’intégration, par exemple, de ce super-réseau offshore dans l’initiative européenne est aussi abordée de même qu’une collaboration avec le REGRT-E est évoquée, ainsi qu’une collaboration avec le Pentalateral Energy Forum.Je rappelle que le REGRT-E (Réseau européen des gestionnaires de réseau de transport d’électricité) créé voici tout juste un an, le 19 décembre 2008, réunit 42 gestionnaires européens de réseau de transport, qui sont devenus ainsi responsables du plus grand réseau interconnecté, et ont créé de ce fait l’organisation GRT prévue par le troisième paquet « marché intérieur » de la Commission Européenne.En résumé, ce qu’il ressort de cet entretien, reflet de la situation actuelle de l’offshore en Europe, c’est qu’au-delà des intentions, les défis à relever semblent rester hélas toujours, mois après mois, les mêmes. Au-delà du défi technique (finalement presque le moins complexe à relever !), c’est la construction d’un réseau européen en mer qui intègre les  40 GW d’énergie éolienne offshore attendus d’ici à 2020, et les 150 GW d’énergie éolienne offshore attendus d’ici 2030, les défis principaux restent toujours ceux des implications.Un super-réseau européen ne pourra pas voir le jour sans une vision pan-européenne, impliquant plus qu’une contribution, un véritable engagement de la Commission européenne, du REGRT-E, d’intervenants tels que l’EWEA mais aussi une forte coopération entre les États membres (pour l’instant quasi inexistante), et bien sûr toujours, encore, surtout… un accès au financement.C’est pour cette raison que l’EWEA a proposé son Offshore Development Network Master Plan qui se déroule sur 20 ans. On en retrouvera les grandes lignes dans le document 2009 « Ocean of opportunity » téléchargeable sur le site de l’EWEA. 

Source :
Les énergies de la mer

Chiffre clé : 96 % des e-mails sont assimilés à des spams

Faire en sorte qu’un e-mail parvienne sans encombre à son destinataire final n’est décidément pas chose facile. Selon les dernières statistiques publiées par l’agence européenne de la sécurité des réseaux et de l’information, l’ENISA, 95,6 % des messages électroniques destinés aux quelques 80 millions d’adresses e-mails gérées par 92 opérateurs européens sont bloqués par différents dispositifs anti-spam (lire la méthodologie). En d’autres termes, seuls 4,4 % des e-mails envoyés arrivent à bon port. Des chiffres dont on peut tirer deux types d’enseignements : grâce à ces mesures, le volume de spam arrivant dans les boîtes mail des abonnés est considérablement réduit ; mais pour tout expéditeur légitime de campagne d’e-mailing, il est important que ses envois ne soient pas considérés comme du spam. Et pour cela, mieux vaut connaître les méthodes utilisées par les opérateurs pour détecter et filtrer les spams.Selon l’étude de l’ENISA, la technique la plus répandue pour détecter le spam est le suivi des plaintes utilisateurs (plus de 70 % des réponses). Tout de suite après arrive la détection des pics de trafic (55 % des réponses) qui indique qu’il y a des envois de masse, puis les anomalies dans la signature (50 % des réponses). Pour filtrer le spam, la première méthode utilisée est le blacklistage de l’adresse IP (plus de 90 % des réponses). Viennent ensuite le filtrage des contenus (un peu moins de 80 % des réponses), l’authentification de l’expéditeur (un peu plus de 64 %), le blacklisting des URLs (55 %) à égalité avec le greylisting, une méthode qui permet de rejeter temporairement un message en émettant un code au serveur émetteur. Si celui-ci réexpédie l’e-mail, ce n’est pas un spam et l’interdiction est levée. Enfin, en sixième position, apparaissent les listes blanches qui permettent à un expéditeur de s’identifier et d’être autorisé à diffuser des envois de masse. La plupart de ces techniques se déroule au niveau du réseau et s’appuie sur des bases de données internes ainsi que des outils  » open source  » tels que SpamAssassin pour en minimiser le coût. Pour autant, le spam mobilise des ressources financières croissantes de la part des opérateurs. Bien sûr, celles-ci varient en fonction de leur taille. La plupart des petits FAI y consacrent moins de 10.000 euros par an. Mais 25 % des très petits opérateurs (moins de 1.000 boîtes mail) mobilisent autour de la lutte anti-spam entre 10 et 49.000 euros par an et un tiers des très gros opérateurs annoncent investir plus d’un million d’euros par an pour lutter contre le spam. Méthodologie de l’étudeCette enquête a été conduite entre mai et juillet 2009 auprès de 92 fournisseurs européens d’adresses e-mails. 36 % sont des opérateurs télécoms généralistes, 36 % des sociétés d’hébergement Internet, 17 % des fournisseurs d’accès Internet, 4 % des opérateurs mobiles, et 7 % appartiennent à d’autres catégories. A eux seuls, ils représentent 30 pays différents dont 26 sont membres de l’Union européenne, et totalisent 80 millions de boîtes mail. Parmi ceux-ci, 21 % sont de gros opérateurs (ils gèrent entre 100.000 et 999.999 boîtes mail), 12 % de très gros (1 million et plus d’adresses mail), 23 % sont de moyenne taille (10.000 à 99.999 boîtes mail), 21 % sont petits (1.000 à 9.999 adresses mail), et 23 % sont de très petite taille (moins de 1.000 boîtes mail).L’étude de l’ENISA A.L B

Le transfert de connaissances, une réponse à la pénurie de compétences

Les entreprises de l’industrie des procédés occidentales ont su s’entourer de profils expérimentés, qu’il s’agisse d’ingénieurs d’exploitation, d’ingénieurs de contrôle et de procédés ou encore d’informaticiens. Mais ces talents vieillissent et finissent, comme tout le monde, par prendre leur retraite, conduisant à une pénurie de personnel suffisamment qualifié pour assurer leur relève. Avec la pression du marché et la volonté des entreprises de rationaliser leur actif, cette situation a de fortes chances de se dégrader jour après jour, au moins à court terme. Le problème est d’autant plus grave dans les industries pétrolière, gazière et pétrochimique. Selon la SPE (Society of Petroleum Engineers), l’âge moyen des ouvriers de l’industrie pétrolière est de 51 ans. Près de 60 % ont 45 ans ou plus. Force est de constater une augmentation significative de leur moyenne d’âge, laquelle implique qu’environ 40 % ne sera plus apte à travailler d’ici dix ans. Ces compétences ne trouvent actuellement pas leur relève. Si l’on en croit l’entreprise américaine Shell Global Solutions, moins de 200.000 diplômés techniquement compétents sont sortis des universités du pays pour remplacer les 2 millions d’experts qui ont pris leur retraite entre 1998 et 2008.

Une solution pertinente : le transfert de connaissance
Les entreprises du secteur peuvent déjà en ressentir les effets. Elles se reposent en conséquence chaque jour davantage sur des systèmes intelligents et automatisés pour stimuler leur productivité. L’exigence qui devient alors primordiale est de pouvoir faciliter le transfert de connaissances. Les entreprises ont besoin de solutions leur garantissant la possibilité de disposer des connaissances élémentaires sur une installation ou un équipement, afin de booster l’efficacité de leurs employés, d’améliorer leur degré de productivité, mais aussi d’en enrichir les compétences futures. Le défi pour les fournisseurs de solutions logicielles : travailler main dans la main avec leurs clients dans le but de déterminer de quelle manière la technologie peut être utilisée pour créer de l’efficacité dans les procédés utilisés par les ingénieurs. Mais aussi d’être apte à fournir des versions intuitives des programmes pour permettre à des personnels moins qualifiés d’en avoir l’usage. Dans ce contexte, la notion de continuité s’avère cruciale. La première question que les ingénieurs ont coutume de poser lorsqu’ils entament une nouvelle étude sur un procédé existant n’est autre que :  » Un modèle existe-t-il ?  » Ils recherchent avant tout des outils logiciels qui leur permettront d’optimiser rapidement et facilement une conduite efficace du procédé en question.

Une nécessité : mettre en place les structures adéquates
En étant dans l’obligation de passer au crible une montagne de documents, de sources diverses et souvent sans rapport, les ingénieux néophytes n’ont d’autre choix que de trouver l’ensemble du procédé chronophage et frustrant. D’autant qu’il est presque impossible de vérifier l’exactitude et la fiabilité des sources, et donc d’éviter les erreurs d’interprétation. Il leur faut donc à tout prix se mettre en quête de solutions d’optimisation des procédés leur permettant de disposer d’une information bien plus structurée. Ils auront ainsi la certitude que les données ont déjà été triées et classées, retrouveront l’information recherchée bien plus facilement et n’auront pas à se poser la question de la viabilité et de la consistance de l’information, ainsi que de son adéquation avec sa version initiale injectée au départ dans le système. Une telle approche présente l’indéniable avantage de ne nécessiter qu’une seule connaissance de base de la part des utilisateurs : savoir utiliser le logiciel lui-même. En d’autres termes, il n’y a pas de meilleur moyen d’assurer un transfert optimal des connaissances d’une génération d’ingénieurs à la suivante. Le paysage de l’ingénierie des procédés ne cesse d’évoluer, aujourd’hui plus que jamais. Un nombre croissant d’entreprises se montre incapable de capitaliser sur les compétences et l’expertise de ses experts hautement qualifiés. Les solutions de transfert automatisé des connaissances permettant de réduire les écarts de compétences et d’assurer une puissante combinaison entre des fonctionnalités riches et une grande simplicité d’utilisation ont donc toutes les chances de voir leur cote de popularité monter en flèche. Par Jean-François Hénon, vice-président central europe d’AspenTech

Où commence et où s’arrête l’archivage électronique ?

L’archivage de contenus électroniques peut se définir comme l’ensemble des actions, méthodes, processus et outils permettant la conservation de manière sécurisée des contenus électroniques ayant été préalablement identifiés et classés. L’archivage rend possible un accès contrôlé à la consultation de l’information mais interdit toute opération touchant à son intégrité. Par ailleurs, l’archivage répond en général à des contraintes légales ou structurelles nécessitant le respect de méthodes et règles organisationnelles. L’archivage fait donc appel à des techniques de stockage adaptées à une conservation sur de longues durées, contrairement à la sauvegarde qui assure la conservation de données modifiables sur des durées limitées.La GED, ou GEIDE (gestion électronique d’informations et de documents), regroupe, quant à elle, les techniques permettant de dématérialiser, classer, gérer et stocker des documents et informations provenant des applications du système d’information. La différence notable réside essentiellement dans le fait que la GEIDE focalise souvent sur la partie acquisition, numérisation, ainsi que sur la gestion du cycle de vie d’un document. La GEIDE apporte des fonctions de gestion des workflows, des révisions, des approbations, et de la publication ainsi que des contrôles d’accès associés. Ainsi, contrairement à l’archivage électronique, la GEIDE peut permettre de définir des durées de conservation au niveau utilisateur, donner des fonctions de gestion de la vie du document sous la responsabilité des utilisateurs comme la purge de documents par exemple. L’utilisateur peut également choisir son plan de classement ou adapter un modèle de plan proposé par l’administrateur. Sur ce dernier point, l’archivage stipule un plan de classement rigoureux. L’archivage vise donc à créer un fond documentaire sécurisé pour l’entreprise, là où la GEIDE apportera plutôt une gestion au quotidien des documents dans les affaires courantes de l’entreprise.

Le modèle d’archivage OAIS
La problématique d’archivage électronique s’inscrit souvent en réponse à des contraintes légales ou réglementaires. Afin de guider les entreprises dans leurs démarches, des normes organisationnelles et techniques existent.Le modèle OAIS (Open Archival Information System) référencé en ISO 14721, définit un modèle de référence [1] constitué d’un modèle d’informations, des méta données nécessaires au référencement des informations et à leur conservation, ainsi que d’un modèle fonctionnel détaillé décrivant les composantes d’un système d’archivage électronique (cf schéma ci-dessous). A noter : l’entité ‘Gestion des Données’ assure les fonctions d’enrichissement et la gestion des informations de description de la donnée dans des bases de données. Cela inclut également l’administration et la pérennité de ces bases.Si l’entité d’administration assure le suivi et l’exploitation au quotidien du système d’archivage, l’entité de planification assure quant à elle la gouvernance et la planification des évolutions technologiques et organisationnelles nécessaires pour garantir la pérennité de l’archivage. Un système conforme à l’OAIS répondra par ses capacités de conservation et de mise à disposition de ses informations, aux exigences d’archivages de documents à valeurs juridiques ou patrimoniales.OAIS s’applique aux 3 types d’archives :
  • Courantes : données figées mais régulièrement utilisées pour l’activité de l’entreprise ;
  • Intermédiaires : durée pendant laquelle les données possèdent une utilité pour son « producteur ».
  • Patrimoniales : données conservées à titre historique mais ayant cessé d’être utile à l’entreprise.
 Par Michael Chochois, Chef de projets et produits sécurité 

Pour aller plus loin
[1] Sur l’OAIS

Comment bien archiver ses données ?

La problématique d’archivage électronique découle souvent de contraintes légales ou réglementaires. D’où la nécessité de mettre en œuvre une démarche structurée afin de ne rien oublier et pragmatique afin de tenir compte des spécificités de l’entreprise et de son environnement. Voici les principaux éléments qu’il faut connaître pour mettre en place une telle procédure.

Une démarche structurée et pragmatique
La mise en œuvre de l’archivage de contenus électroniques nécessite au préalable :
  • un cadrage du besoin sur les documents nécessitant un archivage ;
  • de définir la raison de cet archivage (légal, réglementaire…) ;
  • et la durée de conservation mais surtout de prescription associée.
Dans ce cadre, il faudra tenir compte des exigences des textes applicables notamment aux entreprises internationales, telles les lois Sarbane Oxley de 2002 (SOX section 404) concernant les pratiques d’archivage de données financières. En France, la LSF (Loi sur la Sécurité Financière) précise dans l’arrêté du 31 mars 2005 certaines exigences d’archivage impliquées par le contrôle interne de l’entreprise.Au delà, pour aider à la gestion des documents nécessaires à la conduite de l’entreprise qui constitueront les archives courantes et intermédiaires, le record management (norme ISO 15489-1) fait souvent référence à la méthodologie DIRKS [2] (manuel du gouvernement australien : Design and Implementation of RecordKeeping Systems). Très documenté, ce guide vise à garantir qu’un document nécessaire à l’entreprise existe, est référencé et est facilement accessible tout en respectant les principes d’auditabilité et de traçabilité de OAIS [1]. Par la suite, un audit des systèmes existants produisant de la donnée ou du document sera mené afin d’en définir la stratégie d’archivage. Enfin, la phase de conception et d’implémentation du système pourra démarrer. Ici, le MOREQ [3] (MOdel REQuirements for the management of electronic records) est incontournable. Véritable trousse à outils du responsable des archives ou d’un responsable de projet GED, il est plus pragmatique et est plus centré sur la mise en place du système. Par ailleurs, il traite également des problématiques d’acquisition, numérisation et est très axé sur la mise en place du logiciel d’archivage.

Les facteurs de succès
Parmi les facteurs clés de réussite, la refonte des processus internes impliquera une modification des habitudes de travail en matière de numérisation, de classement, de consultation, de gestion des données et des documents. L’accompagnement du changement au niveau des utilisateurs est donc indispensable et sera coûteux. Attention à ne pas tomber dans le piège de la  » GEID-Archive  » qui tend à mettre en place une solution mixte sans toutefois remplir les exigences d’un système d’archivage. Cette déviance est parfois liée à l’inexistence de la fonction  » administration  » et/ou  » planification de la pérennisation « , empêchant toute fixation de la donnée ou du document. La conséquence est l’impossibilité de mettre en place les durées de rétention, de contrôle d’intégrité et d’horodatage des documents versés. Le marché est aujourd’hui constitué de solutions d’archivages logicielles parfois livrables clés en main. Cela nécessitera tout de même une forte implication de l’entreprise dans le projet d’archivage pour bien gérer la mise en œuvre organisationnelle, mais aussi, mettre en place une veille technologique sur chacun des composants afin d’assurer la cohérence des choix (rôle de la planification de la pérennisation) en dehors de tout enjeu commercial… Les offres de services de type  » tiers archiveurs  » ont l’avantage d’outrepasser la mise en œuvre souvent complexe du logiciel et de l’infrastructure associée. Si le cadre légal le permet, l’entreprise veillera, dans ce cas, à la mise en place d’un contrat s’apparentant à la délégation de fonctions de sécurité à un tiers de confiance en vérifiant les engagements de qualité, sécurité, disponibilité et fera référence à une politique d’archivage. Par Michael Chochois, Chef de projets et produits sécurité

Pour aller plus loin
[1] Sur l’OAIS[2] Sur le Records Management : une approche du record management en 8 étapes[3] Sur le MOREQ

Dématérialisation : la mise en place d’un processus probatoire fiable

D’abord, la reconnaissance légale de la signature et de l’écrit numérique est intervenue, en France, avec l’adoption de la loi n°2000-230 du 13 mars 2000, parachevée par le décret n°2001-272 du 30 mars 2001. Ainsi, suivant l’article 1316-1 du Code civil, la valeur probante d’un document numérique est subordonnée au respect de deux conditions principales : l’identification du signataire d’une part et l’établissement et la conservation du document  » dans des conditions de nature à en garantir l’intégrité  » d’autre part (exigence qui couvre donc l’ensemble du cycle de vie d’un document après qu’il a été établi sous sa forme définitive). L’article 1316-4 du même code définit par ailleurs la signature électronique nécessaire à la perfection d’un acte juridique, comme permettant d’identifier celui qui l’appose et de manifester son consentement aux obligations qui découlent de l’acte signé. Le législateur a en outre posé une présomption de validité de la signature sécurisée au sens du décret de 2001, qui est établie grâce à un  » dispositif sécurisé de création de signature électronique  » (ce dispositif, qui repose notamment sur la mise en œuvre d’un système de certification lourd et économiquement coûteux, a néanmoins rencontré peu de succès, comme le souligne Me Isabelle Renard dans le cadre du Livre blanc FEDISA sur la preuve numérique [1]).Concernant ensuite l’existant en matière d’archivage électronique dit  » à valeur probante « , force est de constater que les conditions techniques de cet archivage ne sont pas définies dans la loi française. Par contre, la prise en compte du régime juridique applicable aux documents dématérialisés s’avérera indispensable et conduira à une réflexion structurante intervenant en amont de tout projet technique d’archivage électronique, afin que les documents concernés conservent bien la valeur juridique que l’acte recouvrait lors de son établissement. De ce point de vue, on peut affirmer que la complexité du cycle de vie des documents, et en particulier la multiplication des ruptures (étape de numérisation, migrations technologiques, …), seront susceptibles d’amoindrir la fiabilité du processus probatoire.Qu’il s’agisse en définitive de la mise en place, dans une finalité juridique, d’un système de signature ou d’archivage électronique, il est recommandé, afin de fiabiliser tout processus de dématérialisation de documents, de prendre en considération les critères suivants :

  • l’intermédiation de tiers dits  » de confiance «  dans le dispositif : on trouve ainsi des tiers de certification (AC), des tiers d’archivage (AA), des tiers d’horodatage (AH) ou bien encore des autorités de gestion de preuve (AGP) … qui jouent, chacun dans leur domaine respectif, un rôle dit de  » notarisation  » qui est de nature à renforcer la fiabilité des documents dématérialisés ;
  • le respect des normes techniques à jour en matière de signature et de conservation électronique des documents : à cet égard, c’est la norme NF Z42-013 (dont la dernière version date du 4 février 2009) qui détaille les bonnes pratiques en termes d’archivage sécurisé. Cette norme (qui autorise désormais le recours à la technologie WORM logique [2]), permet notamment de garantir que le document concerné reste intelligible dans la durée … Surtout, on relèvera que les juges ont tendance à considérer que le respect des règles à l’état de l’art par un professionnel écarte sa faute (hors le cadre contractuel) ;
  • la documentation des processus techniques de dématérialisation et de gestion du cycle de vie des documents : les normes applicables tant en matière de signature que d’archivage sont caractérisées en particulier par la publication de documents tels que : politique de certification (PC) et déclaration des pratiques de certification (DPC) ; politique d’archivage (PA) et déclaration des pratiques d’archivage (DPA).
Outre ces recommandations issues du groupe de travail FEDISA (voir travaux précités), un arrêt de la Chambre civile de la Cour de Cassation, rendu le 4 décembre 2008 [3], nous apporte enfin un premier éclairage important sur les conditions de nature à assurer la valeur probante d’un document numérique. Premier enseignement : la démonstration de la preuve, qui est faite par une partie en produisant exclusivement des éléments provenant de son système d’information, risque d’être irrecevable, la cour s’appuyant ici en particulier sur un moyen produit par les défendeurs qui rappelle le principe suivant lequel  » nul ne peut se constituer de preuve à soi même « . Les autres apports de la décision portent sur : la fonction essentielle de l’horodatage, la preuve de l’envoi et de la réception des documents, la nécessité de reproduire la signature de l’auteur d’un courrier original signé dans sa copie électronique … Pour plus de détails, lire les commentateurs de la décision [4]. Par Marie Barel, Consultant SSI chez Orange, Expertise juridique TIC

Références
[1] Livre blanc FEDISA sur la Preuve Numérique (extrait sur les aspects juridiques)[2] La technologie WORM logique est un support réinscriptible, mais dont un dispositif logiciel et/ou matériel interdit la modification ou la destruction d’une information.[3] Pourvoi n° 07-17622[4] Article de Me Isabelle Renard (Vaughan avocats) ; commentaires de Me Caprioli (cabinet Caprioli & associés)

Attention, l’homme reste le maillon faible de la sécurité

Vous souhaitez piller le coffre fort d’une banque. Trois scénarii s’offrent à vous.La brute force. Lourdement armés avec vos acolytes, vous rentrez dans la banque et vous vous faites remettre le contenu du coffre. C’est assez efficace, mais complexe et dangereux. Il faut monter une bande avec des rôles, obtenir des armes, et l’attaque à main armée est lourdement sanctionnée en cas d’arrestation. Et puis, si vous dérapez, les dommages collatéraux risquent d’alourdir encore la peine.La patience ou méthode Spaggiari. Vous louez un local en face de la banque, et grâce à des plans détaillés de la voirie, des réseaux et de la banque, vous creusez un tunnel qui vous amène au coffre. C’est très long et cela demande d’obtenir pas mal d’informations qui plus est fiables.Le maillon faible. Vous obtenez les clés du coffre auprès du Directeur et vous vous servez rapidement et sans violence.A vous de choisir. Pour voler une information précieuse chez un concurrent qui se trouve protégée par un mot de passe, c’est pareil.Vous attaquez le système en brute force afin d’obtenir le mot de passe convoité. Il faut disposer d’un peu d’outils informatiques et de savoir faire. Vous risquez d’être repéré, et vous enfreignez clairement la loi (loi Godfrain).Vous sniffez un volume suffisant de trafic Wi-Fi (protégé en WPA car votre cible est un peu prudente) pour casser les codes et obtenir le sésame. Il faut un peu plus de matériel, plus de connaissances, un peu de patience et éventuellement un peu de chance.Vous prenez votre téléphone et avec un peu d’ingénierie sociale, de pouvoir de conviction, vous obtenez le mot de passe de l’administrateur réseau. Peu coûteux, assez efficace en général, voire non répréhensible suivant les cas.

MICE vous sourit
Mais comment faire pour obtenir le mot de passe ? Nos amis britanniques ont formalisée la chose à la grande époque de la guerre froide dans l’approche MICE.Cet acronyme donne les méthodes de base pour obtenir des informations sensibles depuis une source chez l’adversaire :M = Money = Acheter les informations en cash à Moscou. L’argent reste une valeur sûre.I = Ideology = Convaincre un agent britannique de la supériorité du communisme sur le système capitaliste. Pratique très efficace à une certaine époque.C = Constraint = Exercer une pression psychologique, voire physique, pour soutirer les informations. Cas de la vidéo compromettante en charmante compagnie.E = Ego =  » Ton chef ne reconnait pas ta valeur. Exfiltrer des informations très sensibles démontrera tes capacités « . Nous sommes tous des talents en manque de reconnaissance.

Son application au vol de données
Comment traduire cette méthode afin d’obtenir le mot de passe de son propriétaire, de son assistante, de l’administrateur réseau ?M = Proposez un dédommagement monétaire ou en nature en échange du mot de passe recherché. La somme ne sera pas forcément disproportionnée. Une enquête conduite en Angleterre a montré qu’une majorité d’employés étaient prêts à échanger leur mot de passe contre une tablette de chocolat. Même en informatique, la gourmandise est un vilain défaut.I = Si vous attaquez un groupe pétrolier, dites que vous œuvrez pour une association écologiste. Vous avez une chance de convaincre un employé si vous racontez une belle histoire dans laquelle il passera pour le sauveur de l’humanité. Et puis une fois le forfait commis, il y a peu de chance qu’il aille s’épancher auprès du DRH.C = En vous renseignant sur la vie du Directeur, vous découvrirez que certains aspects de sa vie personnelle ou professionnelle ne sont pas avouables. Échangez votre silence contre son mot de passe et votre promesse de rester discret sur son utilisation. Un vol d’information bien conduit laisse peu de trace.E = Créez un lien dans un salon ou sur le Net avec l’administrateur du réseau. Manifestez votre admiration sur ses compétences et laissez lui comprendre qu’il est mal considéré, mal reconnu, mal payé par son employeur. Et qu’une petite vengeance qui ne sera pas découverte sera de vous confier un mot de passe.

Les contre-mesures
La sensibilisation. Réalisez des campagnes de sensibilisation auprès de vos employés. Ces dernières peuvent être périodiques ou au cas par cas, générales ou bien cibler une population spécifique. Dans tous les cas soyez concret dans vos exemples. Un commercial qui perd son fichier clients au profit d’un concurrent risque de perdre son bonus de ventes. Rappel à la loi. Rappelez qu’il ne faut pas se rendre complice d’un délit. Le vol d’information n’en est pas forcément un, mais les conséquences peuvent conduire devant le juge. Un financier qui perd des données avant publication des comptes d’un grand groupe peut être accusé de délit d’initié. La compromission d’informations soumises au secret défense n’est pas une plaisanterie.Rendre la sécurité ludique. Lors de ces campagnes, ne pas hésiter à utiliser des jeux, des affiches amusantes, des vidéos d’autodérision. Faites un quizz et mettez en valeur les champions, voire récompensez les avec un iPod ou une invitation au restaurant.Test d’intrusion. Vous pouvez faire appel à une société externe spécialisée pour réaliser des tests d’ingénierie sociale. Ils peuvent porter sur les hôtesses de l’accueil ou le support informatique de l’entreprise. Bien souvent les contrôles sont faibles et un simple appel téléphonique au support permet de faire réinitialiser le mot de passe à sa valeur par défaut : « user = nom, password = nom ». Et comme l’objectif du support est de dépanner en un minimum de temps, les procédures de contrôle du requérant sont inexistantes ou inappliquées. Attention toutefois à ne pas détourner ces méthodes. Il s’agit de sensibiliser aux méthodes d’attaques et de mesurer les faiblesses afin d’y remédier. Pas de stigmatiser les employés.Prendre des mesures techniques. Vous pouvez renforcer les contrôles de base, par exemple en fournissant une carte à puce pour l’identification. Complétée d’un code porteur, il sera difficile pour un employé de dire que l’on a usurpé son identité à l’insu de son plein gré. Se faire voler son composant matériel et son code, c’est soit énormément de laisser aller proche de la faute professionnelle, soit de la complicité. On peut aussi enrichir cette carte avec un coffre fort numérique qui permettra au porteur d’y placer en toute sécurité son code d’accès Internet personnel, son identifiant Facebook, son compte cantine… autant d’informations personnelles qui le rendront plus attentif à son équipement d’identification.Maintenant, à vous de jouer pour renforcer le maillon faible de votre sécurité.Par Eric Wiatrowski, Lead Auditor – Security Management System

Ultra Large Band avec DAA : les défis liés aux essais

Comme nous l’expliquions dans un précédent article (lire L’avenir de l’Ultra Large Bande passera par DAA), la nouvelle technique DAA (Detect And Avoid) pourrait résoudre les problèmes d’harmonisation des fréquences mondiales. Ce qui permettrait aux régulateurs d’ouvrir de nouvelles bandes de fréquences pour le bénéfice de l’industrie cherchant un marché toujours plus global.Toutefois, au même moment, certains déclarent qu’il pourrait être impossible de tester cette nouvelle technique qui présente des propriétés de radio-cognitives. Une affirmation que contredisent les essais DAA tels qu’étudiés et mis en œuvre dans le projet européen Walter [1]. Retour sur les résultats et contraintes de ce projet de recherche.

Les contraintes des essais
Les essais du  » DAA  » dans des dispositifs d’UWB présentent un certain nombre de défis spécifiques par rapport à des essais de services de communications conventionnels :Niveau de puissance faible : un problème de dynamique peut surgir en raison des niveaux de puissance faible à détecter et à éviter, aussi bien que des niveaux de puissance à mettre en œuvre (- dBm 80 dans la zone 1) en mode de non-intervention (NIM), car ces niveaux sont proches du seuil de bruit de la plupart des analyseurs de spectre conventionnels (- dBm 70). Cette contrainte est plus dure pour les tests rayonnés. En outre l’émission de puissance faible d’UWB doit être détectée et distinguée en présence du  » signal victime « . Par conséquent, l’équipement de test doit avoir une sensibilité élevée pour détecter avec précision le  » signal victime  » de liaison montante comme défini par les régulateurs.Changements environnementaux : comme pour d’autres bancs d’essai de radio cognitive, le banc d’essai d’UWB doit pouvoir simuler et détecter les changements environnementaux qui pourraient affecter le niveau de puissance du signal RF. Ceci inclut le mouvement d’un ou des deux dispositifs (victime ou dispositif d’UWB), le changement de l’environnement de propagation, le changement de canal, etc.Scénarios réalistes : le comportement du dispositif du service victime et du dispositif d’UWB doit être recréé dans l’environnement d’essai. Par exemple, des services de BWA (Broadband Wireless Access) tels que l’accès Internet, mode de sommeil et diffusion multimédia doivent être disponibles ou simulés.Synchronisation : les méthodes d’essai manuel rendent les mesures de temps difficiles et imprécises. Les analyseurs doivent, par exemple, commencer à capturer le signal au même moment où le dispositif est mis sous tension, ce qui est difficile avec des méthodes manuelles. Les méthodes automatiques peuvent employer le signal de mise en marche d’UWB DAA pour déclencher les analyseurs.Probabilité de détection : la probabilité de détection oscille entre 95 % et 99 % [3]. Pour obtenir une mesure fiable, il faut donc répéter les mesures. Des méthodes doivent être étudiées pour réduire les temps de mesure tout en assurant une bonne fiabilité.Essais rayonnés : dans les environnements d’essais rayonnés, des problèmes peuvent surgir en mesurant des niveaux de puissance, en particulier ceux de l’interférence et ceux transmis par le DUT (dispositif sous test), puisque les positions d’essais et celles des antennes de l’interférence sont différentes. Des techniques doivent donc être mises au point afin de rechercher les maximums d’émissions et réceptions à différentes positions.

Définition et mise en œuvre d’un banc d’essais DAA
Les essais en conduit ont l’avantage d’avoir une immunité plus élevée à l’interférence d’autres sources. Pour vérifier la conformité d’un DAA UWB avec un masque donné d’émission, l’approche en conduit est la plus commode, à condition qu’un raccordement conduit avec le DUT puisse être établi. Le schéma 1 montre un exemple de banc d’essai DAA pour des mesures en conduit.Dans le schéma ci dessus, un signal WiMax est généré en coexistence avec une liaison établie entre un dispositif UWB DAA (DUT) et un dispositif UWB générique. Les signaux dans le domaine de fréquence sont amplifiés et enregistrés par un analyseur de spectre. Diverses distances entre les dispositifs UWB sont simulées par un atténuateur variable. Cette installation peut valider les dispositifs UWB DAA dans la majorité des cas.Malheureusement, il y a également beaucoup de cas où des essais effectués ne peuvent pas être réalisés parce que les DUTs n’ont pas d’antennes détachables. En outre, une activité de validation complète doit examiner un scénario réaliste avec tout un ensemble d’émissions UWB parasites, de sources multiples d’interférences et de services  » victime « . Pour toutes ces raisons, des mesures rayonnées sont également nécessaires. Les contraintes significatives aux deux bancs d’essais sont les suivantes :
  • l’analyseur de spectre utilisé pour capturer les signaux doit avoir un seuil de bruit très faible (par exemple -150 dBm/Hz à 2 gigahertz) ;
  • en raison des niveaux de puissance d’émission très faible demandés, un amplificateur à faible bruit (LNA) est utilisé. La configuration demande au LNA des caractéristiques de faible bruit mais avec à gain élevé, ce qui est généralement contradictoire. Les modèles de LNAs utilisés dans le banc d’essai ont un gain de 39db et un niveau de bruit de 1,2 à 3,5 gigahertz. Le projet étudie actuellement l’utilisation de LNAs cryogénique, qui fonctionne aux températures très basses (- 80 Celsius ou en-dessous).
Les essais rayonnés demandent des conditions supplémentaires comme la nécessité d’utiliser une chambre anéchoïque afin d’éviter les interférences de sources externes, ceci étant d’autant plus important que les signaux UWB sont très faibles.Enfin, le temps est un paramètre important dans les mesures des dispositifs d’UWB DAA. Les normes et les règlements exigent que la détection et le mouvement dans une bande adjacente soit exécutée dans un temps maximum spécifique. Des instruments très performants doivent être utilisés afin de dépister l’évolution du signal d’UWB dans le temps. Dans ce domaine, les défis principaux sont :
  • comment définir et identifier où prendre les signaux de déclenchement ?
  • comment définir les niveaux de puissance appropriés où le signal devrait être enregistré ?
Comme le DAA est une forme simple de technique de radio cognitive, un système d’essai pour évaluer les dispositifs DAA UWB pourrait être une première étape pour définir un banc d’essai plus générique pour les dispositifs de radio cognitives et la gestion dynamique de spectre. Les réseaux radio cognitifs se caractérisent par des systèmes de communication qui changent leurs paramètres de transmission et utilisent le spectre de fréquence d’une manière plus complexe que le DAA.Les défis liés aux faibles niveaux de puissance et aux problèmes de synchronisation sont bien plus critiques dans un banc d’essai pour des dispositifs de radio cognitives, où le risque d’interférences radios est plus important que dans les réseaux sans fil conventionnels.Un certain nombre de campagnes de mesure est actuellement en cours avec trois bancs d’essai en Chine, en Espagne et en Italie. Tous participent au projet FP7 WALTER. Des prototypes de dispositifs UWB DAA sont en cours de validation par rapport aux exigences réglementaires. Les résultats des campagnes de mesures fourniront un retour d’expérience important pour la conception du banc d’essai et de son évolution. Par Philippe Cousin, ETSI (Institut Européen de Normalisation des Télécommunications), chef du projet de recherche européen WALTER

Notes
[1] Sur FP7 WALTER project.[2] ETSI EN 302 065 v1.1.1, “Electromagnetic compatibility and Radio spectrum Matters (ERM); Ultra WideBand (UWB) technologies for communication purposes ; Harmonized EN covering the essential requirements of article 3.2 of the R&TTE Directive”. European Standard Telecommunication Institute (ETSI), February 2008.[3] ETSI Technical Specification ETSI TS 102 754. 

Internet des objets : quels bénéfices pour les entreprises ?

Les consommateurs et les organisations civiles les représentants ont eu jusqu’à présent une perception négative de l’utilisation massive des objets inter-communiquants impliquant, par exemple, la RFID [2]. Leurs arguments : des risques pour la santé et l’environnement, mais aussi des risques de confidentialité et de radiations. Autant d’allégations qui ont compromis la diffusion et l’acceptation de ces technologies depuis la chaîne logistique jusqu’à l’utilisation par le consommateur.

De nouvelles actions et projets de recherche sont donc nécessaires pour développer des approches et méthodologies limitant ces risques. Parallèlement, ils doivent contribuer à identifier les bénéfices de ces nouvelles technologies afin de canaliser la recherche vers des applications et utilisations centrées sur l’aide et le service au profit des consommateurs et des acteurs du cycle de vie des produits.

Les pistes de recherche

Dans cette optique, le consortium du projet européen Cuteloop [1] vise à intégrer et exploiter le potentiel offert par les systèmes RFID avancés et les systèmes de géolocalisation et de navigation satellitaires (GNSS). Objectif : rechercher des services utiles pour des acteurs économiques qui ne sont pas traditionnellement impliqués dans le déploiement et l’usage de nouvelles technologies. A ce titre, Cuteloop travaille, par exemple, avec la Fédération des artisans et PME Française du secteur de la construction la CAPEB, au nom de ses 350.000 membres et 900.000 employés.

Au delà, la Commission européenne ayant fixé pour objectif de développer un réseau Internet étendu aux objets, la recherche vise également à réaliser une infrastructure et un environnement capable de répondre à un tel objectif.

Les objets seront ainsi connectés à Internet, directement ou indirectement, à travers un réseau d’accès ad-hoc ou permanent, afin de pouvoir communiquer ou échanger des infos, ou simplement, être gérés, suivis, identifiés ou consultés par les utilisateurs et consommateurs. Ce qui nécessite de nouvelles architectures de réseaux d’accès spécialisés pour les objets et leur image virtualisée, au moyen de services basés sur des agents logiciels et des méthodes d’accès sécurisées à l’information.

Des Objets Connectés pour quoi faire et comment ?

Tout d’abord, les Objets Connectés informatiquement permettront de nouveaux mode d’accès aux objets et à l’information qui leur sera attachée.

Pour cela, il faudra que ces objets soient accessibles à chaque stade de leur cycle de vie, depuis leur fabrication, pendant leur transport et commercialisation, jusqu’à leur gestion et leur entretien une fois intégrés dans les logements des particuliers.

Dans cette optique, les objets eux-mêmes seront dotés de capacités d’identification uniques (RFID, code-barres, geo-tags, ou autre) et d’une image ou d’un modèle électronique virtualisé qui se retrouveront connectés ou accessibles via Internet.

original

C’est ce que l’on appelle la virtualisation des objets. Cette identité et image virtuelle unique sont soit dans une puce RFID intégrée à l’objet, soit stockées de façon immatérielle quelque part dans le réseau d’accès à l’objet. Ces puces RFID intelligentes, directement ou indirectement connectées à l’Internet des Objets, doivent ensuite pouvoir être utilisées pour divers services d’information, traitement, gestion ou maintenance concernant les objets réels qu’ils représentent.

Le projet Cuteloop travaille, dans ce cadre, sur 2 secteurs afin de développer des usages génériques :

  • l’un dans la chaîne de production, logistique et distribution de produits frais (fruits et légumes dans des cageots munis de puces RFID) jusqu’au consommateur final ;
  • l’autre dans les métiers de la construction assurés par les petites entreprises et les artisans indépendants.

En pratique, il s’applique, par exemple, à répondre aux besoins des artisans intervenant dans des maisons ou des immeubles. Un réseau local d’accès du type ad hoc y est nécessaire pour interconnecter dynamiquement les « objets » dans la maison avant de connecter ce réseau d’accès à l’Internet. Des pico-réseaux du type MESHNET seront ainsi expérimentés au départ pour relier les « objets » entre eux et ensuite les relier à l’extérieur (à l’Internet).

original

D’autres usages permettant l’accès à l’information puis le partage de celle-ci dans le cadre d’un travail coopératif entre PMEs et artisans travaillant sur le même projet sont également envisagés.

Usages dans la construction

Dans ce domaine, un des premiers usages visé concrètement par Cuteloop est la gestion avancée d’une maison ou un bâtiment à travers un système d’information géré dans un “dossier d’entretien électronique”. Celui-ci pourrait se trouver dans un réseau ad hoc mis en place dans le bâtiment et englobant le plus d’éléments et composants virtualisés possibles grâce à des tags RFID et des systèmes BIM (Building Information Management : systèmes qui constituent une image virtuelle informatisée et standardisée des composants d’un immeubles).

Ce type d’équipement pourra alors offrir aux propriétaires et aux intervenants dans une maison, des informations techniques pour chaque objet installé : chaudière, prise électrique, porte ou tout autre objet ayant une image virtuelle dans un tag RFID intégré. Ceci, afin de consulter les caractéristiques techniques, les performances, la consommation d’énergie ou l’état d’entretien de cet objet, ou bien proposer de le relier en réseau pour qu’il puisse s’adapter automatiquement aux habitudes de confort de chacun grâce à la reconnaissance des personnes. Autre possibilité : la mise en circuit ou hors circuit en l’absence des personnes concernées afin d’économiser l’énergie.

medium

Au delà, la mémorisation des interventions des artisans sur un projet permettra également le partage d’informations entre collègues, cotraitants ou sous-traitants. Principaux bénéfices : éviter les re-saisies et accélérer l’intégration ou l’accès à des informations. Enfin, les artisans pourront interagir avec des centres et dépôts de matériels commandés pour un chantier, consulter les livraisons, replanifier leurs interventions en temps-réel sur leurs terminaux intelligents reliés à l’Internet et échanger des données de planification.

 

Par Philippe Cousin, ETSI (Organisation Européenne de Normalisation des Télécommunications), partenaire projet de recherche européen CUTELOOP (Customer in the Loop[1])

 

En savoir plus

Des informations complémentaires sont accessibles sur le site Web du projet [1].

A ce jour, les scenarii identifiés sont en cours d’étude et d’expérimentation et impliquent des équipes d’universitaires dans le domaine des techniques intelligentes du bâtiment ainsi que la CAPEB, fédération Française des artisans et PMEs.

Notes

[1] CuteLoop (Customer in the Loop) est un projet Européen de recherché
[2] RFID = Radio Frequency IDentifier aussi appelé dans certains cas étiquette intelligente

Antarctique : mise en fonction d’un parc éolien en milieu extrême sur l’Ile de Ross

Le parc éolien de l’Ile de Ross dans l’Antarctique a commencé officiellement à produire de l’électricité à pleine puissance pour la toute première fois. Ici c’est l’été et donc la saison idéale pour monter et mettre en service les projets. C’est à l’audace de la Nouvelle-Zélande et des États-Unis que l’on doit d’avoir monté le projet éolien de l’Ile de Ross et de l’avoir rendu fonctionnel depuis samedi dernier à pleine puissance.Quel autre mot convient en effet sinon « audace » pour qualifier la mise en oeuvre d’un tel projet en milieu extrême là où il fait nuit six mois par an, où le vent est constamment implacable, et où les températures sont vraiment glaciales (car il ne s’agit pas ici de nos petits – 15 ou – 20 °C) et où il n’y a, pour arranger le tout, qu’une seule desserte de navires par an ! Mieux vaut ne pas avoir oublié un boulon ! C’est un tel défi, qu’un blog (ICI) a été entièrement dédié par Scott Benett de Meridian Energy à la construction de ce parc éolien pour en suivre pas à pas la progression.Samedi dernier donc, profitant d’une de ces belles journées ensoleillées (genre 0 °C degré) de l’été austral, le parc éolien de l’Ile de Ross dans l’Antarctique a commencé officiellement à produire de l’électricité à pleine puissance pour la toute première fois. Il en aura coûté quelques 7,4 millions de dollars pour en arriver là et pour générer jusqu’à 1MW d’électricité. Ce n’est pas énorme, diront certains mais cela va déjà permettre de réduire de façon significative l’utilisation du diesel sur la base Scott qui appartient à la Nouvelle-Zélande et dans la station McMurdo qui appartient aux Etats-Unis. Selon la compagnie nationale néo-zélandaise Meridian Energy promoteur du projet, la production de CO2 s’en trouvera ainsi réduite de 1370 tonnes par an.

Démontrer le potentiel de l’énergie éolienne
Ce petit parc éolien en milieu extrême est constitué de trois Enercon E33 de 333 kW chacune qui fournissent environ 11 % de la puissance pour les deux bases. La marque n’aura jamais autant justifié sa baseline « Energy for the world » !Une webcam permet de suivre en direct et 24 heures sur 24 (puisqu’il fait jour tout le temps), le fonctionnement de la ferme éolienne de l’île de Ross en Antarctique. La webcam est consultable ICI. Et comme on peut le voir sur la photo en tête d’article, il fait très beau !Sur son blog déjà cité plus haut, Scott précise que ces turbines constituent une déclaration en faveur des énergies renouvelables et la preuve qu’elles sont bien arrivées au bout du monde. « L’exploitation des éoliennes peut être vue à la fois depuis la Base de Scott et depuis la station McMurdo ce qui intéresse et distrait beaucoup les deux communautés sur place ».Comme on les comprend… les manchots empereurs et les pétrels c’est super, mais bon les éoliennes ça change un peu ! Bien que le projet ait commencé à être mis en place en novembre 2008, ce n’est donc que samedi dernier qu’il s’est mis à fonctionner à pleine puissance. De façon à donner à cet évènement le caractère officiel qu’il mérite, ce sont à la fois le ministre des affaires étrangères de Nouvelle-Zélande, Murray McCully,et l’ambassadeur des Etats-Unis en Nouvelle-Zélande, David Huebner, qui ont tourné depuis Auckland (Nouvelle-Zélande) le commutateur vidéo qui a permis de voir les premières images du parc en fonctionnement. Bien que ce parc éolien de l’Ile de Ross soit désormais le plus important de l’Antarctique, il n’est pas le premier. L’Australie avait en effet mis en service dès 2003 deux turbines éoliennes fournissant 600 kW, pour sa station de Mawson. 

Source:
les énergies de la mer

La stratégie électrique de Renault

Fin 2009, j’ai eu l’occasion, avec une dizaine de blogueurs français, anglais et italiens, de rencontrer Thierry Koskas, le Mr Véhicule Electrique de Renault, dans “l’atelier”, le showroom de la marque sur les Champs Elysées. L’occasion de découvrir la stratégie de la marque sur ses véhicules électriques, mais aussi de répercuter les questions des internautes au principal intéressé.Dans l’idée de pouvoir répondre à tous les usages, et forcément car personne ne peut savoir aujourd’hui si un modèle tirera le marché, Renault a décidé de balayer large avec 4 véhicules proposés. Premier modèle présenté, Fluence ZE, la berline :Au premier semestre 2011, c’est la Fluence ZE et le Kangoo ZE qui seront mis sur le marché, avec une sortie mondiale. A noter que sur l’électrique, pas besoin d’adapter un véhicule pour une région géographique. En effet, le carburant électricité est de qualité équivalente partout, ce qui n’était pas le cas pour les carburants fossiles. Un avantage potentiel donc…Pour le Kangoo (voir ci-dessous), on peut imaginer les applications sur les flottes d’entreprises notamment. La Fluence ZE, avec son format berline, a été pensée pour des marchés comme l’Israël ou le Danemark. Sur ces territoires, Renault, fort de son alliance avec Better Place, va déployer un réseau de stations quickdrop qui permettent de remplacer une batterie vide par une pleine en autant de temps qu’on ferait un plein d’essence.Devraient ensuite suivre sur le 2èsemestre 2011 la Twizy ZE (voir ci-dessous), ce véhicule à mi chemin entre une moto et une voiture, avec deux places en enfilade, et qui pourrait aussi être développé en version Autolib, avec de moindres équipements et une robustesse accrue.Enfin, en 2012 viendrait la Zoe ZE (ci-dessous), un véhicule électrique d’assez grand volume, sorte de clio électrique du futur, et dont le look fait encore un peu trop concept car pour qu’on s’imagine le conduire.Voilà donc pour la gamme (assez ambitieuse) prévue par le constructeur. Mais la route pour faire accepter ces véhicules est encore longue… En effet, le principal problème de l’électrique aujourd’hui reste la somme des inconnues qui peuplent l’équation ! Balayons un peu ces problématiques :1 – De l’autonomieRenault, (et les autres constructeurs) doivent rééduquer les conducteurs que nous sommes. Avec des autonomies affichées de 160km, beaucoup d’usagers ne voient pas l’intérêt de tels véhicules. Peu importe que 90 % de leurs trajets se fassent sur moins de 50 km, le potentiel de sécurité au regard du nombre de kilomètres que l’on peut faire importe encore trop aux yeux des conducteurs.Du coup, aucune porte ne se ferme, car selon le territoire, on pourrait voir plusieurs types d’installations : des stations de quickdrop, relayées par les concessionnaires ; des systèmes autolib sur le modèle Twizy ; et aussi des systèmes de recharge en branchant les véhicules, obligeant les grandes entreprises, parkings et autres centres commerciaux à développer une série de places réservées aux véhicules électriques.Système de station quickdrop :2 – De la technologie et de l’usage des batteries.Le changement majeur reste que les batteries seraient louées et non possédées. Imaginez qu’en fait les constructeurs vendraient du coup la voiture et maitriseraient aussi le carburant grâce aux batteries. le marché peut être juteux. Concernant les questions sur la disponibilité à long terme du lithium et autres composants, le constructeur rétorque que le recyclage des batteries serait obligatoire (autre marché). Avec une durée de vie de 8 à 10 ans, une batterie pourrait aussi trouver une deuxième vie sur du stockage électrique pour des installations diverses.La technologie des batteries est un métier à part entière, tout comme fabriquer du carburant ou une voiture sont des domaines totalement différents. Et si Renault est confiant, c’est grâce à leur partenaire Nissan. En effet, le constructeur japonais fabrique des batteries depuis assez de temps pour constituer un allié de poids pour essayer de grignoter des parts dans ce marché mondial.3 – De la rentabilité pour la marque et pour l’usagerL’avantage d’un nouveau marché est qu’on fait un peu ce que l’on veut. Du coup, le postulat a le mérite d’être simple : la voiture électrique doit être moins chère à l’achat et à l’usage (mais pas trop quand même).Tout d’abord, le prix du véhicule. L’idée du constructeur est de les proposer au même prix de des produits équivalent fonctionnant à l’essence et au Diesel. Soit la Fluence ZE au même prix qu’une berline, le Kangoo ZE au même prix qu’un utilitaire, et le Twizy ZE comme un gros scooter 125.Ensuite, c’est le mix location de « batterie + électricité consommée » qui doit être équivalent au carburant fossile. Pour une voiture qui fait 1000 km/mois en ville, on va dire que nous serons en gros à 100 euros de carburant en 2011 (en comptant sur le fait que le prix des carburants fossiles augmente d’ici à la sortie de la gamme).Sur l’électrique, ils misent donc sur 75 à 80 euros de loyer de batterie, plus 20 à 25 euros d’électricité en recharge. En gros, utiliser de l’électrique serait donc avantageux à partir de 50 km/jour (soit 1500 km/mois), ce qui est d’ailleurs un peu paradoxal, car que mon électrique roule ou pas, je paierai l’abonnement batterie.Petit avantage cependant : l’entretien du véhicule sera bien allégé, car l’entretien moteur sera bien plus simple. Les véhicules sont d’ailleurs prévue pour rouler environ 200.000 km, soit une durée de vie équivalente aux conventions d’aujourd’hui :4 – Du contenu carbone« L’électrique, c’est génial car il n’y ’a plus de CO2 », un argument valable puisque la France a misé sur le nucléaire, mais facilement opposable lorsqu’on alimente une voiture avec de l’électricité produite par de bonnes vieilles centrales à charbon datant d’une trentaine d’années. Le constructeur qui a fait ces calculs nous trouve 12 grammes de CO2/km pour le mix français, puis 67 grammes de CO2/km sur un mix européen. L’Ademe quant à elle nous calcule 126 grammes de CO2/km sur le mix européen. Autant dire que la bataille des chiffres n’a pas fini d’exciter dans les chaumières…5 – Et alors, comment ça va se passer ?L’’enjeu de Renault, pour l’heure, est donc d’engager les pouvoirs publics et les gouvernements de chaque pays dans le développement du véhicule électrique. Selon l’endroit, la configuration et le type de déploiement seront forcément différents. Nous ne verrons pas de stations Quickdrop déployées sur tout le territoire français par exemple. Cela dit, la menace du changement climatique couplée au potentiel nucléaire de la France et aux engagements du Grenelle font que l’Ademe avance un potentiel d’1 million de véhicules électriques à l’horizon 2020.La bataille entre les constructeurs ne fait donc que commencer, et Renault a voulu montrer son engagement en proposant avec ses partenaires plusieurs types de véhicules et plusieurs types de solutions. Car l’enjeu des véhicules électriques reste finalement le même que pour les autres : il faut les vendre ! Mais il faut les vendre différemment, et faire changer de culture les usagers. 

Source :
neomansland

Des matériaux piézoélectriques pour amortir les vibrations dans les pales de turbines

http://www.bulletins-electroniques.com/actualites/61960.htm

 

Les pales des turbines, employées par exemple dans les avions, sont soumises à des contraintes très intenses du fait de leur grande vitesse de rotation et à des vibrations dangereuses pouvant entraîner leur casse, et donc, une défaillance de la turbine.

 

Pour atténuer ce phénomène de vibration, un groupe de chercheurs et d’étudiants de l’Institut de dynamique et de vibrations (IDS) de l’université Leibniz de Hanovre se sont intéressés à l’emploi de matériaux piézoélectriques. En l’occurrence, ils ont mis en application les propriétés physiques assez particulières des matériaux piézocéramiques, qui se dilatent et se rétractent lorsqu’ils sont soumis à un champ électrique.

 

Ainsi, ils ont appliqué une fine lamelle d’un matériau piézocéramique sur des pales, ayant ainsi la possibilité de contrôler les modes vibratoires de celles-ci en jouant sur le champ électrique ; la fréquence du matériau piézoélectrique est alors alignée sur celle de la pale, et de cette manière les amplitudes peuvent se compenser. Il est également envisageable d’intégrer ces lamelles à l’intérieur des pales.

 

A côté de l’utilisation en aéronautique, cette solution pourrait être appliquée dans les centrales électriques ou les usines par exemple. Cependant, afin d’en examiner l’efficacité, les scientifiques sont encore à la recherche d’un partenaire industriel, qui leur permettrait de faire des analyses plus poussées sur la durée de vie des turbines. Les premières discussions sont en cours.

 

 

Pour en savoir plus : [email protected] – tél : +49 511 762 4171

Source : Wissenschaft – Wirtschaft – Politik – Janvier 2010

Rédacteur : Sebastian Ritter, [email protected]http://www.science-allemagne.fr

Origine : BE Allemagne numéro 467 (20/01/2010) – Ambassade de France en Allemagne / ADIT – http://www.bulletins-electroniques.com/actualites/61960.htm

 

Quel avenir pour la batterie Li-ion ?

http://www.bulletins-electroniques.com/actualites/61661.htm

Pike Research, une compagnie américaine spécialisée dans l’analyse des marchés liés aux « technologies propres », a mis en ligne au début du mois, un rapport [1] sur ses prévisions pour le marché potentiel des batteries Lithium-ion (Li-ion) dans le monde. Avec le développement des véhicules électriques, les batteries Li-ion, qui devraient être la technologie dominante, devraient, selon Pike Research, décupler en 5 ans pour atteindre 8 milliards de dollars de ventes d’ici 2015, contre 878 millions de dollars prévus en 2010. Une prévision plus optimiste que celle du cabinet Lux Research qui prédit 510 millions à 9 milliards de dollars, mais en 2020 [2], selon le cours du pétrole.

A l’heure actuelle, les spécialistes estiment que le principal frein au déploiement à grande échelle des batteries de type Li-ion et par répercussion des voitures électriques est son prix. En effet, Lux souligne qu’elles sont responsables à 80 % du surcoût des voitures tout-électriques, alors que les voitures hybrides-électriques utilisent des batteries nickel-métal hydrides (NiMH), moins coûteuses. Cependant, selon l’étude publiée par Pike, leur prix devrait baisser de 50 % en cinq ans, en passant de 940 dollars par kilowatt-heure (kWh) en 2010 à 470 dollars par kWh en 2015. Pour la comparaison, Lux Research prévoit que le coût des batteries Li-ion passera de 721 dollars par kWh en 2010 à environ 405-450 dollars/kWh d’ici 2020 grâce à une production en masse.

Des progrès à faire au niveau de l’autonomie

Si le prix joue un rôle prédominant, d’autres facteurs représentent également un frein important à la mise sur le marché des batteries Li-ion. Ainsi la durée de vie, l’autonomie et le niveau de sécurité (notamment lié aux risques d’explosion en cas d’accident) restent encore insuffisants pour un déploiement massif des véhicules électriques. Il est en effet difficile à l’heure actuelle de présenter un modèle de batterie Li-ion présentant des propriétés satisfaisantes pour chacun de ces critères, simultanément. Par ailleurs, sur un plan moins technique se pose la question de la disponibilité du lithium lui-même. Bien que les ressources de Lithium soient abondantes en Amérique du Sud, le prix de la tonne de Lithium a été presque multiplié par 10 en cinq ans, passant de 350 $/tonne en 2003 à 3000 $ en 2008 [3].

Répondant à une volonté du gouvernement, la Californie s’est quant à elle dotée de plusieurs programmes pour accélérer le développement des véhicules propres. Parmi eux, on peut citer le programme Global Warning Solution, libellé sous le nom d’Assembly Bill 32 (AB 32) [4], dont l’objectif est un retour en 2020 du niveau d’émission des gaz à effet de serre en Californie, à celui de 1990. A noter également, le programme Alternative Fuels and Vehicules Technology (AB 118) [5], qui est doté d’un budget de 100 millions de dollars par an, pour développer et déployer des carburants alternatifs et renouvelables ainsi que des technologies avancées dans le transport.Grâce à ces financements, de nombreux laboratoires de recherches ont pu lancer leur propre projet. Parmi eux, on peut citer le projet Batteries for Advanced Transportation Technologies (BATT), hébergé par le Lawrence Berkeley National Lab (LBNL) [6], dont le but est d’améliorer l’efficacité des batteries. Soit en testant de nouveaux matériaux pour fabriquer l’anode et la cathode des batteries, soit en mettant au point de nouveaux processus de fabrications plus performants. Les constructeurs pourraient également se tourner vers de nouvelles technologies comme les technologies Zn/air, Lithium/S ou encore Lithium/Air, qui promettent des performances théoriques beaucoup plus élevées.

Origine

BE Etats-Unis numéro 189 (18/12/2009) – Ambassade de France aux Etats-Unis / ADIT -http://www.bulletins-electroniques.com/actualites/61661.htm

Pour en savoir plus

[1] Le rapport est disponible à cette adresse : http://www.pikeresearch.com/research/electric-vehicle-batteries
[2] « Electric Vehicle Market Growth Requires Pricey Oil »: Lux research – 13/10/09 – http://redirectix.bulletins-electroniques.com/pdBV3
[3] « Les ressources limitées de lithium pourraient freiner l’essor des voitures électriques » : Le Monde – 7/10/08 – http://www.thierry-lequeu.fr/data/Ressources-limitees-de-lithium.pdf
[4] http://www.arb.ca.gov/cc/ab32/ab32.htm
[5] http://www.energy.ca.gov/altfuels/index.html[6] http://batt.lbl.gov Arnaud Souillé est attaché adjoint pour la Science et la Technologie au Consulat général de France à San Francisco.