« Rédiger une FDS conforme à Reach et au CLP »

Techniques de l’Ingénieur : La nécessité de se former sur les FDS n’est pas nouvelle. Comment l’abordez-vous ?

Daniel Houdebine : On aborde la partie législative au début, pour « planter le décor » : sur quels règlements s’appuie-t-on pour réaliser une FDS ? On ne peut réaliser une FDS qu’à partir du moment où l’on connait la classification et l’étiquetage de son produit. C’est un passage obligé. Ensuite, nous abordons la transposition des classifications et des étiquetages entre l’ancienne classification et la nouvelle, en nous adaptant aux évolutions règlementaires. Ainsi, on parle aujourd’hui principalement des mélanges, alors qu’on abordait aussi les substances jusqu’à la fin 2010. A partir de là, bien sûr, on étudie le contenu de chaque rubrique de la FDS, avec des focus particuliers en fonction des différents types de FDS qui vont pouvoir être rédigés et diffusés.

Quelles sont les attentes des participants à ces formations ?

En plus du cours en lui-même, Il y a une volonté des participants de faire des exercices sur lesquels ils vont pouvoir réfléchir eux-mêmes, dans le but d’être confronté à ces problématiques de façon frontale.

Sur quels points précis ?

Par exemple, les modifications qui sont en ce moment en train de se mettre en place vis-à-vis du règlement sur l’étiquetage et de la classification des mélanges et des substances dans une moindre mesure, puisque ces dernières doivent d’ores et déjà avoir été reclassées selon le nouveau règlement, font l’objet de beaucoup d’interrogations de la part des participants. Ainsi, on ne va aborder que le contenu se trouvant dans les rubriques remaniées suivant le dernier règlement en cours, qui est celui de 2010. On insiste surtout sur ce qu’il y a de nouveau dans les rubriques. Car toutes les rubriques n’ont pas changé au niveau de leur contenu.

Quels sont ces changements que l’on observe dans les rubriques ?

Il s’agit d’informations supplémentaires, qui dépendent du type de la FDS concernée. Prenons un exemple : quand on a une FDS de substances enregistrées sous Reach, qui sont soumises à un rapport de sécurité avec des scénarios d’exposition qui vont être annexés, l’esprit de la loi voudrait que les informations extraites de ces scénarios se retrouvent dans ces FDS. C’est à ce niveau-là également que le besoin de formation se fait sentir.

C’est-à-dire ?

Ce que j’ai pu observer, dans les deux ou trois FDS nouvelles que les sociétés ont établies, les FDS étendues, c’est l’utilisation presque systématique d’un système de renvoi vers l’annexe et vers les scénarios. Ce n’est pas ce qui est prévu dans le nouveau règlement. Après nous n’en sommes qu’au début, il faut laisser aux gens le temps de prendre leurs marques par rapport à ce nouveau règlement. Une FDS réalisée en 7 ou 8 pages auparavant va désormais, pour une FDS étendue, atteindre facilement la centaine de pages. Le travail à fournir est donc conséquent. Prenons un exemple : il y a une FDS sur l’hydroxyde de Calcium (plus connue sous le nom de chaux éteinte) qui fait 107 pages : il y a 12 pages de FDS, et tout le reste constitue les annexes, où l’on trouve 16 scénarios d’exposition. Pour l’utilisateur, il s’agit après de trouver le scénario qui correspond à son usage.

Combien de participants accueillez-vous lors de chaque session ?

Le nombre de participants est limité pour chaque formation, on ne va pas au-delà de 12 à 13 personnes. Les gens sont très demandeurs de renseignements qui s’adaptent à leur propre cas, donc le fait d’avoir un nombre de participants limités permet de se pencher sur des cas particuliers pendant le temps de formation.

Quel est le niveau de connaissances des changements de règlement chez les participants ?

Il est très disparate, mais de moins en moins. Quand ce sont des stagiaires qui se sont occupés de l’enregistrement des substances sous Reach, ils sont dans le « vif du sujet », et ont déjà une somme de connaissances souvent très importantes, notamment sur des scénarios d’exposition particuliers par exemple.
Dans les plus petites sociétés, on accueille des gens qui doivent remettre à jour les FDS de leur société pour les faire coller à l’actualité règlementaire. Dans ces cas là, certains participants découvrent parfois avec un grand étonnement les sommes d’informations à fournir, par exemple avec les 64 nouvelles rubriques…

 

Propos recueillis par Pierre THOUVEREZ

Accéder à la formation « Rédiger une FDS conforme à Reach et au CLP« 

Vers un référentiel des métiers du test logiciel en France

« Les métiers du test logiciel souffrent encore d’un indéniable manque de reconnaissance. C’est une activité qui représente pourtant plus 30 % des charges d’un projet, ce qui est loin d’être négligeable. Il y a de réelles perspectives pour les jeunes à s’engager dans cette voie », affirme Dominique Duflo, Chef de Projet Animateur du Comité Technique du CFTL (Comité Français des Tests Logiciels), également dirigeant du cabinet Valeur RH.

Fidèle à sa mission de professionnaliser le test logiciel, promouvoir les bonnes pratiques et structurer le cadre des formations de testeurs, le CFTL souhaite apporter sa contribution à la valorisation des métiers du test, lesquels souffrent encore trop souvent d’un manque de reconnaissance sur le terrain. Pour ce faire, il souhaite élargir le groupe de travail dédié au Référentiel des Métiers du Test Logiciel et invite ses entreprises membres à le rejoindre sur ce projet.

Fruit du travail du Comité Technique du CFTL et d’entreprises membres, qui s’attachent actuellement à définir les spécifications, rôles et responsabilités des différents acteurs des tests logiciels, dans le respect des standards nationaux, ce référentiel sera composé de 8 fiches-métiers  :

  • testeur ;
  • analyste de tests ;
  • analyste technicien du test ;
  • administrateur de plateformes de tests ;
  • consultant ;
  • consultant senior ;
  • responsable méthode et procédures de tests ;
  • chef de projets de tests.

Trois niveaux de certification pour 1 150 testeurs

« Le référentiel sur lequel nous travaillons apportera des définitions concrètes pour huit métiers, dont il décrira les missions, les domaines d’exercices, les compétences et la trajectoire professionnelle. Il s’imposera très certainement comme un outil de référence pour de nombreuses entreprises et organismes de formation. Nous invitons nos membres, sensibilisés aux problématiques de la formation aux métiers du test à rejoindre notre groupe de travail et à enrichir ainsi notre référentiel de leur expérience », conclut Dominique Duflo.

En tant qu’acteur de référence dans la promotion du test logiciel, le CFTL, association Loi 1901 créée en 2004, représentant en France de l’ISTQB (International Software Testing Qualifications Board) qui revendique plus de 180 000 testeurs certifiés dans 48 pays, s’emploie à entretenir des relations privilégiées avec les grandes écoles dont une centaine intègre déjà les activités de tests logiciels dans leurs parcours de formation.

Pour sa part, le comité a pour mission d’améliorer le professionnalisme et la compétence des testeurs, par des examens de certification objectifs, conçus indépendamment. Au 1er janvier 2011, le CFTL avait  certifié plus de 1 150 testeurs (plus de 1 600 examens) sur les trois niveaux de certification (Fondation, Avancé et Expert), ce qui en fait le premier schéma de certification de testeurs en France. 

Sécurité laser : une attitude écologique

Dès 1 milliwatt, l’usage d’un laser peut être dangereux. Les conséquences médicales peuvent aller jusqu’à une brûlure irréversible de l’oeil ou de la peau.

Le principe de la sécurité laser est d’amener, selon les types de laser et les procédés d’exploitation, les opérateurs fréquentant ces dispositifs, à être le plus protégés possible.

Les militaires bénéficient de la meilleure formation aux lasers, notamment les soldats américains formés au prestigieux Laser Institute of America (LIA). En effet, la technologie laser leur sert à mesurer des distances par télémétrie, guider des bombes, et même aveugler l’ennemi…

Un laser de 4 ou 5 kW, utilisé pour le soudage des voitures par exemple, est si puissant qu’il peut sectionner le doigt d’un homme. Selon les types d’utilisation, il faut donc porter des vêtements non inflammables et bannir tout textile du type nylon, facilement inflammable.

Les lunettes de protection permettent d’arrêter le rayonnement émis par le laser. À la différence des verres qui protègent du soleil, ceux-ci sont constitués de couches dichroïques, ou holographiques, et possèdent des filtres très puissants. Surtout, il ne faut pas oublier de monter les caches latéraux, auquel cas un faisceau laser arrivant par derrière peut se réfléchir sur le verre interne et donc atteindre la rétine. Mais les risques oculaires ne sont qu’une partie des risques liés à l’utilisation des lasers.

La majorité des accidents sont en fait des accidents électriques, les condensateurs contenus dans les lasers provoquant des électrocutions. Même avec un laser à l’arrêt, et un système de vidage automatique déconnecté, – en cas de réglages, par exemple –, il existe un risque de recevoir une décharge électrique fatale, dû au contact avec les condensateurs.

Le troisième risque lié à l’usage des lasers est le risque chimique. Les machines d’usinage laser provoquent une vaporisation de la matière. En fonction du matériau, la vaporisation peut revêtir différents types de toxicité et provoquer des troubles pulmonaires. La solution est d’installer des systèmes d’aspiration, sur tous les côtés du laser.

Enfin, il y a les risques d’incendie. Par exemple, un faisceau laissé ouvert par mégarde, qui rayonne sur un rideau ou sur du papier, peut déclencher un incendie. La meilleure façon d’éviter ce genre d’incident est de respecter les procédures de sécurité.

Les enceintes de sécurité sont une solution parmi d’autres pour remédier aux accidents laser. Dans le cas d’un laser intégré à une chaîne de production, qui fonctionne 24h/24, il est impératif de le confiner dans une structure aux parois transparentes, qui absorbent le faisceau laser. Par exemple, le polyméthacrylate ou le plexiglas, en couches épaisses, absorbent les rayonnements infrarouges des lasers à gaz carbonique Co2 ou pulsés comme Nd:yag.

Mais la meilleure des protections reste encore l’information : la connaissance du laser et de ses pratiques. Savoir ce qu’est la lumière laser, les raisons de sa dangerosité, même à faible puissance, etc.

En fait, il ne s’agit pas tant de « sécurité laser », que d’« écologie laser » : car la prévention est finalement une façon écologique d’utiliser les lasers, c’est-à-dire dans le respect de l’homme et de son environnement.

 

Par Patrick Meyrueis

Découvrez la formation Techniques de l’Ingénieur : SÉCURITÉ LASER

Pour une intégration réussie du Cloud Computing

« Les organisations ont aujourd’hui besoin d’une vision claire et pragmatique du Cloud. C’est pourquoi, nous avons décidé d’écrire Maîtrisez le Cloud – Guide du manager pour une intégration réussie du Cloud Computing, en mettant en avant des exemples concrets de bénéfices qu’offrent ces services », explique l’un des auteurs, Erik Van Ommeren, Directeur d’Innovation à l’Institut Mondial de Recherches et d’Analyse des Nouvelles Technologies de Sogeti, filiale à 100 % du groupe Capgemini..

Écrit en collaboration avec des experts IBM, et publié par VINT, l’Institut de Recherche de Sogeti, ce livret analyse l’interaction qui existe entre les métiers de l’entreprise, son architecture informatique et les technologies de l’information. Il apporte un regard nouveau sur les aspects économiques liés au Cloud Computing et permet de comprendre concrètement ses avantages à travers 11 cas clients. Ces différents retours d’expérience permettent aux responsables des systèmes d’information d’aborder sereinement leur projet de transformation.

La question du Cloud évolue. Tout au long de l’ouvrage, le concept de technologies métiers est introduit comme une nouvelle forme d’interaction entre les métiers et l’informatique. Par exemple, la question posée n’est plus : « le Cloud est-il sécurisé ? », mais plutôt : « Puis-je utiliser cette solution Cloud spécifique pour une situation donnée ? » Les concepts, services et solutions envisagés sont réalistes.

Le Cloud est en train de transformer l’industrie des technologies de l’information et le rôle des Directeurs des Systèmes d’Information évolue. Les architectes doivent offrir une plus grande visibilité et expliquer la stratégie à choisir pour intégrer le Cloud dans les opérations quotidiennes.

« Adresser le Cloud d’une manière non structurée peut causer plus de dégâts que de bénéfices. Une approche d’architecture d’entreprise est cruciale pour le succès de toute initiative de Cloud. Ce livre aborde le Cloud sous un angle pragmatique, sans optimisme exagéré. Il tient également compte des barrières qui pourraient subsister dans la démarche d’adoption », commente Erik Van Ommeren.

 

Cloud Computing : il ne faut plus considérer la sécurité comme une problématique à part

Avec l’avènement du Cloud, les ressources informatiques vont être de plus en plus dispersées. Certaines entreprises choisiront certainement de conserver dans leur infrastructure privée (ou Cloud privé) certaines applications et données, ou d’utiliser des ressources en externe en s’appuyant sur des Clouds Publics. Selon les analystes, les Clouds Hybrides – mélanges des deux – seront les plus répandus dans les prochaines années. Cependant, la principale erreur commise actuellement est de considérer la sécurité informatique comme une problématique à part. Très souvent, on ne se préoccupe de la sécurité qu’après le passage au Cloud, alors qu’aujourd’hui, elle doit impérativement faire partie du déploiement. Elle doit être prise en compte dès la conception des architectures basées sur le Cloud, et encore plus dans le cas des infrastructures hybrides.

Ressources dispersées, sécurité non garantie

En matière de sécurité, le Cloud pose deux problématiques majeures. D’une part, en permettant des déploiements d’applications sur différents réseaux privés, publics ou sur une combinaison des deux, il provoque une banalisation des accès qui doit s’accompagner d’une authentification (gestion d’identité) renforcée. De plus, ce type d’architecture implique par nature que l’on ne sait plus réellement où sont nos applications métiers et où sont stockées nos données confidentielles. D’autre part, avec la virtualisation et l’externalisation des serveurs et des équipements de stockage, les systèmes informatiques ne sont plus cloisonnés comme autrefois. Sur le LAN cloisonné, les applications étaient protégées grâce aux firewalls et IPS.

Avec le Cloud, le LAN explose, ressources et applications se dispersent, et ne sont plus protégées directement. Les entreprises vont avoir de plus en plus de mal à localiser les équipements et applications, et ne pourront plus avoir une entière confiance dans l’infrastructure. Elles auront par ailleurs plus de difficultés à savoir qui accède aux applications et comment.

Il devient alors impératif de repenser la sécurité, et de rajouter des protections.

La sécurité périmétrique va donc évoluer : les périmètres vont se rétrécir et se multiplier. Les entreprises devront mettre la sécurité au plus près des différents équipements et applications les plus stratégiques et les plus sensibles.

Enfin, l’administration de la sécurité devra savoir gérer l’ensemble des ressources, en privé et en externe. Il faudra aussi être informé (alerté) en cas de brèche, d’attaque ou d’incident sur une ressource exploitée par un tiers, ce que les prestataires du Cloud (SaaS, PaaS ou IaaS) proposent encore rarement.

Nous suggérons donc trois mesures pour améliorer la sécurité du Cloud :

  • Repenser la sécurité périmétrique pour tenir compte de l’architecture en place dans l’entreprise et chez ses prestataires éventuels ;
  • Concentrer les efforts de sécurité sur des périmètres réduits, au plus près des équipements hébergeant les applications les plus stratégiques et stockant les données les plus sensibles pour l’entreprise et ses clients ;
  • Associer une appliance de sécurité virtualisée aux applications stratégiques, les données sensibles de l’entreprise restant ainsi protégées, où que soient les plate-formes physiques les supportant.

Par François Lavaste, Président de NETASQ

La norme ISO 9001 décryptée

Pour améliorer la qualité des produits ou des prestations de service d’une entreprise, il existe un référentiel international : la norme ISO 9001:2008. Mais la compréhension de ce texte normatif est complexe. Que faut-il faire pour concevoir et mettre en place un système de management de la qualité conforme à cette norme et le faire certifier ?

Dans cet ouvrage, Claude Pinet fait partager ses retours d’expériences, ses méthodes et ses outils afin de permettre au lecteur de satisfaire efficacement aux exigences de la norme et obtenir rapidement un certificat « qualité ». Il s’inscrit dans un processus de transfert de compétences organisé selon le concept de l’amélioration continue, conformément aux principes de la roue de Deming.

L’ouvrage L’ISO 9001 facile – Réussir sa démarche de certification offre une grille de lecture simple de la norme, loin des manuels habituels. Il propose une nouvelle façon d’appréhender l’ISO 9001:2008, qui spécifie les exigences pour un système de management de la qualité, de manière plus mature et surtout plus autonome pour les responsables qualité qui doivent aujourd’hui savoir prendre en compte les réalités du « terrain », industrielles, financières et commerciales.

Cet ouvrage est destiné à tous ceux qui se lancent dans la démarche, mais aussi à tous les « managers qualité » nouvellement nommés qui pourront ainsi très facilement se mettre à niveau avant de passer à l’action. Il se présente sous la forme de deux volumes :

  • Planifier et mettre en œuvre la démarche : un volume pour comprendre et passer en revue l’ensemble des exigences de la norme ISO 9001:2008. Rédigé dans un style simple, vivant et concret, ce livre décrit, étape par étape, tout ce qu’il faut savoir pour planifier et mettre en place une démarche de certification dans l’industrie et les services.
  • Les outils pour mettre en œuvre la démarche : ce volume vient compléter le premier titre. Il rassemble plus de 40 modèles de fiches et outils pratiques de base qui permettent au lecteur d’avoir des exemples qui lui feront gagner du temps et de l’efficacité dans la mise en œuvre concrète de son projet de certification selon l’ISO 9001:2008. Un accent particulier a été mis pour proposer des modèles et des exemples conformes aux dernières dispositions de la norme dans sa version 2008.

 

 

Contrôle d’exposition au risque chimique

L’objectif de cette réforme est de rationaliser le régime des contrôles techniques par une politique de recours à l’accréditation réglementaire (comme pour les vibrations en 2005, le bruit en 2006 et l’amiante en 2007).

Dans l’ancien dispositif, le champ d’application était restreint : seules 5 VLEP (valeur limite d’exposition professionnelle) étaient concernées :

  • 4 pour des agents CMR (cancérogènes, mutagènes ou reprotoxiques) : benzène, chlorure de vinyle monomère, plomb métallique et ses composés, poussières de bois) ;
  • 1 pour un agent non CMR : silice cristalline.

Les obligations des employeurs étaient limitées à :

  • un contrôle annuel pour les 4 agents CMR avec VLEP contraignante ;
  • un contrôle régulier pour les agents chimiques non CMR en cas de risque avéré.

Dans le nouveau dispositif, le champ d’application est étendu :

  • Depuis le 01/01/2010, 61 VLEP contraignantes (R. 4412-149) sont concernées dont 6 pour des agents CMR (benzène, chlorure de vinyle monomère, plomb métallique et ses composés, poussières de bois, fibres céramiques réfractaires et N,N-diméthylacétamide) ;
  • 43 VLEP indicatives seront concernées à partir du 1er janvier 2012.

Depuis le 1er janvier 2010, les employeurs doivent faire procéder à :

  • des contrôles d’exposition annuels pour les agents CMR avec VLEP réglementaire contraignante ;
  • des contrôles d’exposition annuels pour les agents chimiques non CMR avec VLEP réglementaire contraignante lorsque l’évaluation des risques a montré un risque non faible.

En cas de dépassement des valeurs limite indicatives, l’employeur devra procéder à une évaluation des risques effectifs, et s’il s’agit de valeurs contraignantes, il devra prendre immédiatement les mesures de prévention et de protection de ses salariés.

À compter du 1er janvier 2012, l’obligation de contrôle annuel par un organisme accrédité est étendue aux agents chimiques ayant une VLEP réglementaire indicative.

Plus d’information sur : http://www.inrs.fr

Par Céline Nectoux, ingénieur environnement CNRI

 

Les formations relatives au contrôle d’exposition au risque chimique :

Contrôle de l’exposition sur le lieu de travail

Une mini-centrale nucléaire sous-marine en 2017 ?

Selon l’Agence Internationale de l’Énergie Atomique (AIEA), 68 pays considèrent ou ont exprimé leur intérêt pour l’adoption du nucléaire comme source d’approvisionnement énergétique. Actuellement, l’offre nucléaire civile actuelle ne répond toutefois pas toujours aux besoins :

  • de certains Etats primo-accédants au nucléaire civil ;
  • des pays en développement à faible consommation électrique par habitant, dotés d’un réseau électrique de faible capacité ;
  • de certaines zones spécifiques (îles, presqu’îles et régions) de pays développés qui ont besoin de compenser des déficits énergétiques.

C’est pourquoi l’AIEA apporte son soutien au développement des centrales nucléaires transportables. Il existe ainsi un marché pour les unités de production d’énergie nucléaire de petite puissance (inférieure à 300 MWe) qui pourraient atteindre 200 unités dans les vingt ans à venir, à condition qu’une offre compétitive émerge. Dans ce contexte, la France qui maîtrise l’ensemble des technologies nucléaires, n’est pas restée inactive. Ainsi, AREVA a lancé un programme d’étude de petits réacteurs de 100 MWe, destiné à évaluer l’intérêt de développer un tel produit. De son côté, après plus de deux ans d’études, DCNS innove avec le concept Flexblue, une unité immergée de production d’énergie nucléaire de petite puissance (50 à 250 MWe) qui s’adresse aux pays disposant de façades maritimes.

Une chaudière dérivée de celle des sous-marins nucléaires

Acheminé sur site par des navires spéciaux de même nature que ceux actuellement employés pour le déploiement des plateformes off-shore, Flexblue, de forme cylindrique (12 à 15 mètres de diamètre et une centaine de mètres de long pour une masse de 12 000 tonnes), serait ancré dans un environnement sous-marin stable par 60 à 100 mètres de fond et à quelques kilomètres des côtes. Des câbles sous-marins achemineraient l’électricité produite par Flexblue vers la côte, et un système de ballasts permettrait le déplacement vertical aisé de Flexblue dans les phases d’installation, d’entretien et, en fin de vie, de démantèlement.

Chaque unité de production d’énergie Flexblue comprend une petite chaudière nucléaire, un groupe turbo-alternateur, une usine électrique et des systèmes auxiliaires. Elle permettrait d’alimenter une zone de 100 000 à 1 000 000 habitants (en première analyse), selon la puissance de l’unité Flexblue et le niveau de vie de la population servie (industries incluses).

Flexblue intégrerait des modèles de chaudière dérivés de celles utilisées dans les sous-marins à propulsion nucléaire. Ces chaudières, conçues et réalisées sous maîtrise d’œuvre d’AREVA-TA (anciennement Technicatome) avec le Commissariat à l’Énergie Atomique et aux énergies alternatives (CEA) et DCNS, ont fait la preuve de leur fiabilité et de leur sûreté. Par rapport aux chaudières de sous-marins, les spécifications de la chaudière de Flexblue seraient adaptées puisqu’il s’agirait de produire de l’énergie électrique et non de répondre aux besoins de manœuvrabilité d’un navire. La modularité intrinsèque de Flexblue lui permettrait ultérieurement d’intégrer différents types de chaudières nucléaires de petite puissance, amenées à être développées.

Un design standardisé permettant d’optimiser coûts et délais

L’objectif de DCNS est que le Flexblue puisse être télé-opéré depuis la terre. Toutefois, chaque unité Flexblue serait dotée en interne d’un poste de commande permettant à une équipe arrivée en mini-submersible de piloter à bord des phases-clés, telles que le démarrage et les opérations de maintenance nécessaires. La maintenance de Flexblue s’appuierait sur des processus éprouvés, mis en œuvre depuis de nombreuses années par DCNS pour les navires militaires.

L’un des atouts majeurs de la solution Flexblue reposerait sur son design standardisé et largement indépendant du site d’implantation final, à la différence des centrales nucléaires terrestres dont le génie civil doit s’adapter au site d’installation. Chaque unité Flexblue serait fabriquée, assemblée et testée sous maîtrise d’œuvre de DCNS en usine et en chantier naval. Grâce aux processus optimisés de construction en chantier naval (par modules, sur berceaux…), les coûts et les délais de construction seraient optimisés, tout en garantissant un très haut niveau de qualité. Selon des processus éprouvés, les différents éléments et équipements de l’unité Flexblue seraient fabriqués dans les sites de DCNS et de ses partenaires, puis assemblés par DCNS.

Deux ans pour valider le projet

Les unités Flexblue seraient conçues de manière à bénéficier d’un niveau de sûreté conforme aux normes mondiales les plus exigeantes, équivalent à celui des centrales nucléaires terrestres de troisième génération. Le cœur du réacteur des Flexblue, à l’instar de celui des sous-marins à propulsion nucléaire actuellement en activité, serait confiné, rendant impossible tout contact entre les éléments nucléaires et le milieu marin.

Comme dans les centrales nucléaires terrestres, le cœur du réacteur serait protégé par trois barrières : dans le cas de Flexblue, la gaine du combustible, le circuit primaire et la coque. L’immersion procurerait une source de refroidissement infinie et naturelle, ne requérant aucune énergie pour fonctionner. Par ailleurs, l’immersion présenterait toutes les garanties de sûreté et de sécurité. Des dispositifs de sécurité adaptés (maillage en acier…) protégeraient Flexblue contre d’éventuelles agressions humaines.

EDF et AREVA ont manifesté leur intérêt pour le caractère modulaire et standardisé du concept Flexblue. DCNS, en partenariat avec AREVA, EDF et le CEA, va engager une nouvelle phase de développement de son concept Flexblue qui, pendant deux ans, approfondira notamment les thèmes suivants :

  • options techniques et industrielles du concept ;
  • marché potentiel ;
  • conditions de la compétitivité économique de ce type d’unité par rapport à d’autres sources de production d’énergie ;
  • problématique de la lutte contre la prolifération ;
  • spécificité, eu égard à la sûreté et à la sécurité, d’installations immergées en démontrant un niveau de sûreté homogène avec celui des réacteurs de troisième génération.

Si les résultats des études de validation se révèlent positifs, un prototype pourrait être expérimenté au large des côtes françaises en 2016 ou 2017.

 

Centrale de Fukushima : 11 500 tonnes d’eau polluée rejetée dans l’océan

Fissure dans le réacteur 2

L’engagement militaire de la France en Afrique a éclipsé dans les médias français les suites de la catastrophe nucléaire japonaise, de même que le débat sur l’écologie et le futur du nucléaire. Samedi pourtant, une importante fissure d’une vingtaine de centimètres dans une fosse de maintenance en béton du réacteur 2 a été détectée, confirmant les hausses significatives de la radioactivité au large, et près du rivage de la centrale.

De cette fissure, se seraient échappés, jusque dans l’océan, des composants radioactifs ainsi que de l’eau contaminée, sans plus de précisions de la part des autorités japonaises ou de l’exploitant de la centrale, la Tokyo Electric Power Company (TEPCO). La TEPCO annonçait un taux de radioactivité près du rivage de 1000 mSv/h, et d’importants taux d’iode radioactifs (l’iode 131) détectés en mer. Précisons que l’iode radioactif a une demi-vie, à savoir la capacité à diminuer son activité de moitié, bien moins élevée que le césium radioactif.

Pour enrayer les fuites radioactives et colmater les fissures, la TEPCO a tenté, en vain, de couler du béton dans le puits de la fosse, sans atteindre la fissure ni parvenir à la boucher. Les liquidateurs ont ensuite tenté de combler la brèche à l’aide de polymères absorbants formant un gel au contact de l’eau, combinés à de la sciure et à du papier journal, mais sans plus de succès. Du colorant blanc a été ajouté à l’eau contenue dans la centrale, pour mieux cibler la fuite de l’eau ayant servi à refroidir les réacteurs en catastrophe.

Que faire de cette eau ?

Cette eau, qui a permis de pallier, plus ou moins efficacement, la panne des systèmes de refroidissements des réacteurs, pose actuellement problème. Initialement salée, puis remplacée par de l’eau douce moins corrosive, cette eau s’est infiltrée partout, dans les cuves, jusque dans les galeries. Le degré de radioactivité de l’eau dépend de sa fonction (elle sera très radioactive si elle a servi à refroidir les barres de combustible). La TEPCO a commencé le rejet de 11 500 tonnes d’eau « faiblement radioactive » dans le Pacifique, c’est-à-dire plus de 100 fois supérieur à la normale, afin de vider progressivement des réservoirs qui serviront à recueillir de l’eau très fortement contaminée par des éléments radioactifs, et qui empêche les liquidateurs de travailler près des réacteurs. Ce rejet, qui doit s’étaler sur cinq jours, est supposé être sans grandes conséquences pour l’environnement, ce qui est sujet à caution.

C’est une plate-forme en acier de 136 mètres, située à proximité de la centrale, et disposant de réservoirs d’une capacité de 10 000 tonnes, qui pourrait servir à stocker une partie de l’eau « faiblement radioactive ». Elle sera installée dans les jours qui viennent, au mouillage de la centrale, indique le gouvernement japonais. Il est à signaler que cette situation pourrait prendre un certain écho en France, où le géant du nucléaire Areva déverserait de l’eau faiblement radioactive à l’aide d’une canalisation au large de La Hague selon Greenpeace, au mépris des règles internationales.

Colère à l’intérieur, embargo à l’étranger

À l’heure où la discrétion et la retenue toute japonaise ont fait place à l’inquiétude et la colère, la transparence et la capacité de la TEPCO à gérer cette crise sanitaire, énergétique et environnementale, semblent toujours faire défaut. Bien que la situation ne soit plus inquiétante pour deux des six réacteurs de la centrale, la situation dans les quatre autres réacteurs semble toujours très préoccupante.

En parallèle de l’aide internationale (la France a proposé d’envoyer des robots), un certain nombre de pays a annoncé le maintien et le durcissement de l’embargo sur les produits japonais, notamment le lait, les poissons et les légumes. Un embargo qui ne devrait pas faiblir avec l’annonce du rejet d’eau contaminée dans l’océan Pacifique.

Signe de désespoir, le Japon chercherait de nouveaux « liquidateurs » prêts à intervenir dans des zones sensibles et très contaminées…

M.R.

Morts pour la science

Imaginez des théoriciens en avance sur leur temps, ne supportant plus l’incompréhension de leurs contemporains. Des inventeurs géniaux, victimes du potentiel économique de leurs inventions, piratées par des investisseurs cupides. Des querelles de paternité qui tournent au drame, ou un expert tombant sous les coups d’un collègue dont il a pu prouver scientifiquement la culpabilité.

L’histoire des sciences est peuplée de scènes de crimes comparables à celles imaginées par les meilleurs auteurs de romans policiers… Ce livre montre que, loin d’être un long fleuve tranquille, la recherche scientifique est le théâtre de passions tragiques, où meurtres et suicides causent plus de victimes dans les rangs des chercheurs que les accidents de travail.

C’est cette autre histoire des sciences, à la fois cocasse et cruelle, que nous conte ce livre peu ordinaire.

Auteur : C.C.

 

Morts pour la science / version Bookapp

Auteur : Pierre Zweiacker

Editeur : Presses Polytechniques et Universitaires Romandes (PPUR)

ISBN: 978-2-88074-752-7

2007, 264 pages, 15×22.5 cm, broché

Des points faibles… pour renforcer une structure

La nature est depuis toujours une source d’inspiration sans fin pour les scientifiques de tous bords. Une équipe de scientifiques des universités de Pittsburgh et de Carnegie Mellon, en Pennsylvanie, a développé conjointement un modèle de matériau régénérant, et a réussi à démontrer qu’un certain nombre de points faibles dans la structure dudit matériau lui permettait de supporter de plus fortes tensions, aidé en cela par l’observation de la coquille de l’ormeau (ou abalone).

Ce mollusque à coquille unique, appartenant au genre des Haliotis, et présent dans les eaux du Pacifique, des États-Unis jusqu’en Australie, intéresse grandement ces scientifiques, de par les singulières propriétés de sa coquille. En effet, la coquille de l’ormeau est extrêmement solide, grâce à un jeu subtil de microscopiques tuiles de carbonate de calcium (CaCO3) empilées comme des briques, et dont les différentes couches sont superposées et séparées par une substance protéique liante. Lorsque la coquille subit une attaque extérieure, les tuiles glissent plutôt qu’elles ne cassent, et la protéine s’étend afin d’absorber l’énergie du coup.

C’est là-dessus que l’équipe universitaire s’est basée pour la conception de leur modèle de matériau, partant donc du principe qu’un matériau ayant un certain nombre de liens facilement cassables pouvait absorber plus de tensions extérieures qu’un matériau plus fort. Ces « points faibles » pouvant se régénérer après avoir été endommagés, sont constitués d’un « nanogel », une composition de particules spongieuse et microscopiques de polymères, liées les unes aux autres par de nombreux liens tentaculaires. Certains sont très solides, donnant la globale solidité, d’autres sont labiles et cassants, lui conférant sa réactivité et permettant l’absorption des chocs. En arrangeant des séries de liens en parallèle, dont seulement 30 % seraient labiles, on améliore de 200 % la résistance d’un matériau qui n’aurait été constitué que de liens plus stables.

« D’autre part, de trop nombreuses liaisons labiles rendent collectivement le matériau si résistant que la régénérescence s’en voit annulée, et le nanogel devient cassant », ajoute Anna Balazs, spécialiste en Ingénierie chimique associée à l’équipe de chercheurs ayant réalisé le modèle. Ce modèle peut s’appliquer à un certain nombre de matériaux, et aurait de très nombreuses applications, notamment dans le domaine de la sécurité et de la protection (les gilets pare-balles).

M.R.

La mutualisation des biodéchets pour un biogaz de qualité

L’élevage intensif de porcs en Bretagne produit 10 à 12 millions de tonnes de lisier par an. Or, ce lisier se révèle fortement chargé en azote, dont l’épandage excessif sur les sols agricoles pollue les eaux superficielles destinées à l’alimentation en eau potable et est responsable de l’eutrophisation des cours d’eau.

Depuis 1991, la Directive Européenne Nitrates vise à lutter contre la pollution des eaux par les nitrates d’origine agricole. Les agriculteurs sont contraints de traiter les effluents avant de les utiliser comme fertilisant : il s’agit d’éliminer l’azote par traitement biologique de nitrification dénitrification, ce qui permet de réduire jusqu’à 70 % la charge azotée. Parallèlement, la méthanisation apparaît comme une solution efficace pour valoriser ce lisier.

Coupler le traitement de l’azote et la méthanisation

Le Cemagref de Rennes (institut de recherche en sciences et technologies pour l’environnement) en collaboration avec l’Inra de Narbonne (institut scientifique de recherche agronomique publique), l’Université Bretagne-Sud ont mis au point le projet Digestero (2006-2009), financé par l’ANR (Agence Nationale de la Recherche). L’objectif  est de combiner le traitement obligatoire de l’azote tout en valorisant le potentiel énergétique des effluents d’élevage.

La mise en commun de ces deux procédés n’est pas simple puisqu’ils ont des besoins complètement différents : le traitement de l’azote se fait en présence d’oxygène alors que la méthanisation ne peut se produire qu’en absence d’oxygène (digestion anaérobie). Après trois ans de travaux, un pilote expérimental a été développé afin de comprendre les phénomènes mis en jeu et d’optimiser ainsi les procédés. Un modèle numérique a été conçu en vue d’identifier les paramètres importants puis de définir la filière optimale pour le procédé.

Les sociétés Evalor et Odipure se chargent de l’industrialisation du projet, de sa promotion et du suivi technique. La Bretagne compte plus de 300 stations de traitement d’azote. Ces exploitations sont les premières visées par Digestaero puisqu’elles sont déjà équipées d’ouvrages de traitement de l’azote et de stockage, ce qui permet de réduire les coûts d’investissement. Cette solution technologique innovante permet d’approcher l’autosuffisance énergétique.

Plusieurs substrats pour optimiser la filière

Une des conclusions de Digestaero montre qu’en termes de production de biogaz, les déjections animales ont un potentiel relativement faible. Le nouveau projet Biodecol lancé en 2009 s’intéresse à la production de méthane à partir de plusieurs sources de déchets fermentescibles : des déchets d’ensilage de cultures, d’industries agroalimentaires, des déchets verts des ménages, pour assurer la rentabilité et l’intérêt de la méthanisation.

Les recherches portent sur la qualité des différents substrats et des différents mélanges pour une production d’énergie optimale. L’objectif est de réaliser des abaques des mélanges les plus efficaces, utilisables par tous les acteurs. Outre la dimension purement technique, le projet Biodecol se penche également sur les impacts environnementaux de la méthanisation.

En collaboration avec la chambre d’agriculture de Bretagne, des essais en grandeur réelle ont été menés pour suivre les émissions gazeuses au stockage et à l’épandage et la qualité des apports en potassium, phosphore et azote, en comparant les différents produits. Ce projet englobe également une dimension sociologique qui vise à mobiliser tous les acteurs concernés du territoire pour garantir la viabilité du procédé : les industriels et les collectivités ravitaillent l’unité de production en déchets et consomment l’électricité et la chaleur produites.

Le projet initial, conduit à l’échelle de l’exploitation, devient aujourd’hui un projet mené à l’échelle du territoire, dans lequel toutes les parties prenantes sont intégrées dès la phase de réflexion. Le conseil général d’Ille-et-Vilaine s’intéresse au projet Biodecol et intègrera dans son plan départemental de gestion des déchets les résultats de recherche sur la gestion territoriale des déchets et la méthanisation.
 

La lutte contre le réchauffement climatique commence au niveau des microprocesseurs

Toute entreprise responsable se doit de lutter contre le réchauffement climatique. Il y a, bien sûr, plusieurs manières de le faire : encourager le télétravail, réduire les émissions de gaz à effet de serre sur les différents sites de l’entreprise, réduire aussi la consommation d’énergie ou encore acheter de l’électricité « verte » lorsque cela est possible. Agir en faveur d’un changement environnemental implique de collaborer avec de nombreux partenaires, et notamment les pouvoirs publics régionaux ou nationaux.

 

S’engager en faveur de l’environnement est essentiel pour chaque entreprise. Cependant, pour significatives que soient ces actions, elles ne représentent qu’une toute petite contribution à la lutte contre le réchauffement climatique. Les fabricants de microprocesseurs, eux, ont un pouvoir d’action bien plus étendu : concevoir des produits capables de traiter des données extrêmement volumineuses, de prendre en charge les éléments graphiques sur des ordinateurs et des serveurs de plus en plus puissants et économes en énergie à la fois – et qui soient parfaitement adaptés au Cloud Computing, dont l’importance s’accroît chaque jour.

 

L’expression « Cloud Computing » désigne le stockage, la manipulation et le traitement de données à distance par le biais d’Internet, qui connecte des serveurs situés dans des centres de données à des utilisateurs répartis dans le monde entier. Selon le cabinet IDC, en 2020, une part significative de l’environnement numérique sera hébergé, géré ou stocké de manière centralisée dans des centres publiques ou privés que nous désignons aujourd’hui sous le terme de « services Cloud ». Selon toute vraisemblance, même les données qui ne se trouvent pas en environnement Cloud y transiteront à un moment ou à un autre.

 

Soulignant la vitesse à laquelle la demande croît, IDC prévoit que les services Cloud publics, c’est-à-dire ceux qui sont vendus aux particuliers et aux entreprises, progresseront de 34 % au niveau mondial en 2010 pour dépasser les 22 milliards de dollars, suivis d’une croissance supplémentaire de 98 % d’ici 2013. Ces chiffres n’intègrent pas les Clouds privés qui sont la propriété des gouvernements et des entreprises. Les microprocesseurs constituent des composantes clés de cette transformation de l’informatique.

 

En associant sur une seule puce deux capacités distinctes – celles du processeur central (CPU) et celle du processeur graphique (GPU) – la technologie « Accelerated Processing Unit » (APU) représente une modification importante de l’architecture des microprocesseurs. Cela permet de gérer simultanément des tâches graphiques et des tâches de traitement de données intensif pour atteindre des performances énergétiques jamais atteintes jusqu’à présent.

 

Ce développement prend une signification encore plus importante dans la croissance du Cloud Computing pour les particuliers, les entreprises et les gouvernements. Par exemple, la vidéo représente aujourd’hui près d’un tiers de tout le trafic des particuliers sur Internet. Dès lors, les processeurs capables de traiter de la vidéo et des données de manière plus performante sont une aide précieuse pour les particuliers, comme pour les opérateurs des centres de données qui diffusent ce contenu vidéo sur Internet.

La technologie au service de la lutte contre le réchauffement climatique

Ces découvertes intéressent également les pouvoirs publics. Vivek Kundra, responsable fédéral des systèmes d’information aux États-Unis, a évoqué cette réalité dans un discours prononcé en avril 2010, en soulignant que le Cloud Computing promettait des économies conséquentes. Il a cité l’exemple d’un département dans lequel la migration vers un environnement Cloud de 80 000 comptes de messagerie allait réduire les coûts de 66 %.

« L’Agenda numérique » de la Commission européenne, adopté en mai 2010, indique qu’il est nécessaire de mettre en oeuvre une stratégie pour le Cloud à l’echelle de l’Europe, qui mette l’accent sur les pouvoirs publics et la science : « L’économie du futur sera une économie de la connaissance centrée sur Internet et fondée sur des réseaux. » Cet agenda reconnaît notamment que les technologies de l’information constituent une composante essentielle de la lutte contre le réchauffement climatique.

Il est très vraisemblable que chaque internaute utilise le Cloud Computing plusieurs fois par jour sur Internet, en effectuant une recherche, en envoyant un courrier électronique, en téléchargeant un livre, en lisant le journal, en achetant un produit, en regardant une vidéo ou en vous connectant à réseau social. La croissance du future sera tirée par l’utilisation accrue de serveurs distants permettant d’améliorer la performance énergétique des bâtiments, de faire fonctionner les réseaux de transport et de livraison et de gérer les réseaux et les compteurs électriques.

Une consommation électrique maîtrisée

La croissance des centres de données, nécessaire pour gérer la demande, signifie que de petites améliorations au niveau des processeurs multiplieront les économies : près de la moitié de l’énergie consommée dans un centre de données sert à assurer son refroidissement. Les derniers développements permettent désormais de prévoir la consommation électrique des processeurs, et de gérer la consommation énergétique même pendant les pics d’activité : certains processeurs à coeurs multiples sont programmés pour mettre hors tension les composants non utilisés afin de mieux maîtriser la consommation électrique et le dégagement de chaleur.

Pour permettre d’améliorer les performances énergétiques des processeurs, leurs fabricants doivent rester en permanence à la recherche de nouvelles solutions, inventer de nouveaux outils et faire preuve de créativité. Il s’agit d’une nécessité qui doit être intégrée à leurs stratégies d’entreprise. Ce doit être leur principale contribution à la lutte contre le réchauffement climatique.

 

Par Jérôme Carpentier, Président Directeur Général d’AMD France

Un internet plus rapide grâce à un nouveau laser

Les diodes miniatures pourraient faire souffler un vent révolutionnaire dans le domaine du transfert d’informations. Pourtant, elles ont souvent fait face à un taux d’échecs relativement grand, car elles ne fonctionnaient pas de manière optimale (cessant parfois même de fonctionner) lorsqu’elles faisaient face à une charge de travail trop lourde. Les diodes lasers miniatures du Professeur Dennis Deppe, de l’université américaine de Central Florida, permettent de pallier ce travers, résistant bien mieux aux situations de tension critique. Elles émettent une lumière beaucoup plus intense que celles utilisées habituellement, qui n’étaient pas entièrement composées de semi-conducteurs.

Leur taille encore plus réduite, la présence des semi-conducteurs, et l’émission sur une seule longueur d’onde les rend parfaites pour le transfert lourd de données, premier pas vers l’avènement d’un internet encore plus rapide. En effet, ces diodes laser, une fois embarquées dans les câbles servant à la transmission de données, permettent un transfert d’une très grande quantité d’informations, quasi-instantanément, et sur une très grande distance.

Outre les énormes perspectives dans le domaine du transfert de données standard par câble, ces diodes peuvent améliorer les dispositifs de lecture laser, tout comme les souris optiques ou le transfert de données sans fil, par exemple. Elles offrent également quelques débouchés dans la conception des horloges optiques, rendant la technologie GPS significativement plus précise.

 

M.R.

 

Découvez la formation Techniques de l’Ingénieur : SÉCURITÉ LASER

La fracture numérique existe : elle est dans les usages

L’INSEE révèle que les sans diplôme ne sont que 29,1 % à avoir accès à Internet à leur domicile, alors que le taux d’équipement est de 87 % à partir du baccalauréat et au-delà. Par ailleurs, les écarts demeurent importants selon les catégories socio-professionnelles et l’âge : 96 % des cadres et professions libérales et 70 % des ouvriers sont équipés, mais seulement 50 % des 60 ans et plus le sont.

À la réflexion sur l’équipement des cibles visées, il faut aussi ajouter celle – essentielle – sur les usages qu’elles ont d’Internet. Quelles parts des cibles se connectent plusieurs fois par jour ? Les connexions se font-elles au bureau, au domicile ou en mobilité et à partir de quels supports ? Leurs objectifs sont-ils privés ou professionnels ? Les connexions ont-elles uniquement pour but d’échanger des courriels, ou aussi de s’informer, de se distraire, d’acheter en ligne ou de fréquenter les réseaux sociaux ?

Le « cas Facebook » illustre bien l’importance des disparités en termes de comportements. Selon l’Ifop, 36 % des Français de 15 ans et plus ont un compte Facebook, mais ils sont 83 % dans la tranche des 15-24, 62 % chez les 25-34 ans, 31 % chez les 35-49 ans et 16 % seulement chez les 50-64 ans. Ainsi, Facebook est un outil hyper puissant pour toucher les jeunes, mais pas du tout incontournable pour toucher les décideurs.

Pour les éditeurs et les directeurs de la communication, la première leçon à tirer de ces enquêtes est qu’elles peuvent enrichir leur culture générale mais pas les aider dans leurs stratégies numériques, car les cibles qu’ils visent ont leurs propres caractéristiques.

La seconde leçon est que la connaissance fine des équipements numériques ainsi que des comportements et attitudes à l’égard d’Internet des cibles visées est la clé d’une stratégie numérique gagnante. Sans cette connaissance quasi « ethnologique » qui ne s’acquiert qu’avec des études ad hoc, le risque de fracture de la communication numérique est réel.

 

Par Bernard Petitjean, fondateur de Seprem Etudes & Conseil

Un thermoplastique conçu à base de plumes de poulet

Difficile de se fier du premier coup à une information qui sort autour du premier avril. Et pourtant, une équipe de chercheurs et de doctorants affiliés à l’Institut d’Agriculture et des Ressources Naturelles de l’Université de Nebraska-Lincoln, dirigée par une sommité concernant les questions de matériaux d’origine naturelle, Mme Yiqi Yang, a fait un pas de géant dans l’élaboration d’un plastique à partir de déchets organiques, plus précisément des plumes de poulets. Pas n’importe quel type de plastique, puisqu’il s’agit ici d’un thermoplastique.

Une matière thermoplastique est une matière qui, à la différence d’une matière thermodurcissable, peut ramollir lorsqu’elle est chauffée au dessus d’une certaine température, mais qui retrouvera sa solidité en dessous. Cette qualité la rend donc potentiellement recyclable, car la « thermoplasticité » est réversible, et elle a une très bonne aptitude au moulage. On retrouve parmi les thermoplastiques le nylon, le polystyrène, le polychlorure de vinyle (PVC) ou bien encore le polyéthylène. Ils sont donc très présents dans notre vie de tous les jours, et assez gourmands en matières premières et en énergie, sous forme de chaleur.

Alternative aux hydrocarbures

Habituellement à base d’hydrocarbures (de pétrole ou de gaz naturel), Yiqi Yang a donc réussi à trouver une technique pour créer une matière thermoplastique à partir des très abondantes, peu onéreuses et  évidemment « renouvelables » plumes de poulets, dont la seule utilité jusqu’ici était d’être un ingrédient de base de nourriture de basse qualité pour animaux (rappelons-nous la maladie de la vache folle…). Les plumes, elles, sont essentiellement constituées de kératine, cette molécule présente dans nos cheveux et nos ongles, et qui pourrait conférer à ce plastique une certaine résistance et une durabilité limitée.

Ce thermoplastique est issu d’une polymérisation (qui est la réaction chimique créant de grosses molécules plus ou moins identiques, sous forme de chaines) à l’aide de produits chimiques, dont l’acrylate de méthyle, qui est un composant incolore des vernis à ongles. « D’autres ont déjà essayé de développer des thermoplastiques à base de plumes, mais aucun n’était vraiment performant une fois en contact avec de l’eau », explique Yiqi Yang. « En utilisant cette nouvelle technique, nous pensons être les premiers à démontrer que l’on peut créer des thermoplastiques à base de plumes de poulets stables dans l’eau, tout en conservant des propriétés mécaniques élevées », précise-t-elle encore.

Le résultat, sous forme de film, a donc d’excellentes propriétés, et est même plus résistant aux déchirements que les plastiques fabriqués à base de protéines de soja ou d’amidon. En plus de revenir moins cher que le très stratégique pétrole, le but est donc aussi de réaliser un matériau issu de déchets agricoles, et plus ou moins recyclable une fois dispersé dans la nature. L’approche est donc louable, bien qu’on puisse tout de même y ajouter un bémol : l’acrylate de méthyle utilisé pour la polymérisation est dangereux et assez polluant. Il reste pour le moment impossible de se débarrasser des risques et des pollutions engendrés pas la présence de produits chimiques lors de l’élaboration d’un plastique.

M.R.

Facebook : un canal d’e-commerce viable ?

Avec 500 millions d’utilisateurs, Facebook est une communauté dont l’envergure ne peut être ignorée. Cependant pour en faire un canal d’e-commerce viable, certains obstacles techniques et moraux devront être franchis. Toutefois il ne fait aucun doute que Facebook est devenu un point de contact, tout comme le téléphone portable à une autre époque. Aujourd’hui Facebook est un outil d’influence, et peut influencer les utilisateurs de diverses manières, notamment sur le lieu et le choix de l’entreprise auprès desquelles ils effectuent leurs achats. De plus, son anodin bouton « Like » est une source d’informations incommensurable pour les entreprises car nombreux sont les consommateurs qui ne connaissent pas les diverses utilisations faites avec les données de leurs profils.  Pourtant selon une récente étude du cabinet Forrester, les réseaux sociaux n’ont, pour le moment, pas permis aux entreprises de générer un revenu significatif ces deux dernières années.

Cependant cela ne les empêche pas d’essayer car elles ne  résistent pas à l’attrait et à l’exposition que représente Facebook. Elles recherchent donc les meilleurs procédés pour collecter le plus d’informations possible sur les utilisateurs pour mieux cibler leurs campagnes marketing et donc générer des ventes.

Oubliant que Facebook est avant tout un réseau social et non une plateforme d’e-commerce, certaines entreprises, Milyoni et Payment pour ne citer qu’elles, proposent déjà des offres d’e-commerce sur Facebook. Dans la réalité, leur offre ressemble à celle que proposait déjà hybris il y a dix ans : un chariot. Les entreprises souhaitent-elles faire une marche arrière de dix ans ? Toutes les données que ces entreprises collectent sont enregistrées dans des bases de données opérant en silos, ce qui rend difficile leur sauvegarde et leur synchronisation. De plus leur système étant simple et limité, il laisse peu de place au développement de nouveaux processus commerciaux et ne facilite pas l’interaction avec les autres canaux de distribution online, mobile et les points de vente. Il y a également les exigences pour l’opérateur de générer des profits, ce qui ce traduit par la prise d’un pourcentage sur chaque transaction faite par l’entreprise.

Les plateformes multicanales modernes peuvent héberger plusieurs sites au même endroit permettant ainsi au contenu d’être présenté différemment sans compromettre la fonctionnalité de la plateforme. Les entreprises avant-gardistes peuvent ainsi tirer profit des deux « mondes » en reliant à une plateforme multicanale certains outils de Facebook. L’annonce faite récemment par Facebook du support par iFrames des onglets Facebook, permet aux plateformes multisites telles qu’hybris de proposer des sites à « thématique » Facebook à l’intérieur de Facebook, avec toutes (ou du moins certaines) fonctionnalités développées et proposées par la boutique en ligne originale. Les transactions sont gérées par l’entreprise, ce qui signifie qu’aucune marge n’est redistribuée, et créer sa page Facebook devient facile car il suffit juste de modifier la mise en page du contenu. Un accès immédiat aux options Facebook telles que le moteur de recherche, la navigation et les données utilisateurs, est donc utilisable rapidement.

Les entreprises peuvent également utiliser Facebook pour accroître la visibilité des offres qu’elles font sur leur propre site web. Comme mentionné auparavant, le bouton « Like » peut-être une mine d’or pour ces entreprises qui pourront ainsi rattacher le profil d’un utilisateur à un produit ou service qu’elle propose. Il y a deux principaux avantages à ce procédé : le premier est que l’entreprise connaît les envies des utilisateurs et peut veiller à ce que toutes les offres ultérieures et les informations produits qu’elle leur proposera correspondent à ces envies. Deuxièmement, grâce à cela l’entreprise a aussi un accès direct aux nombreux contacts de l’utilisateur. Ainsi les amis en cliquant sur le lien mis sur le mur de l’utilisateur deviennent de facto de nouvelles « cibles » pour l’entreprise, donnant ainsi àl’entreprise l’occasion de les convertir en acheteurs.

Parmi tous les « logins », le bouton « Login » de Facebook est celui dont les utilisateurs se souviennent le plus car c’est le premier site d’interaction de leur choix. Et c’est parce que cela leur convient qu’ils ne s’inquiétent pas du fait que cela donne accès à de précieuses informations sur eux et leurs amis ; informations que pourraient utiliser des entreprises afin de les influencer inconsciemment dans leurs achats. Il y a une ironie à cela, moralement douteuse, car les consommateurs peuvent considérer cette « influence » pertinente car elle répond à ce qu’ils aiment et ce qu’ils recherchent.

Se pose également la question des systèmes de paiement. Des entreprises telles que Google et Apple, disposant d’une renommée mondiale, pourraient mettre en place des systèmes de paiement qui seront de facto acceptés comme des standards, et ainsi, permettre de rassembler plus d’informations indispensables sur les utilisateurs. PayPal y est parvenu, mais elle ne dispose pas  du matériel et de la base de données d’utilisateurs nécessaires, pour en faire un outil vraiment puissant pour les autres entreprises. Néanmoins l’idée est là et elle est sans aucun doute dans la tête des plus grands acteurs du web.

Selon une étude du cabinet Forrester, les promotions et autres offres sur Facebook proposées par certaines entreprises ont généré des résultats. Cependant, selon cette étude, Forrester doute que les clients à forte valeur ajoutée puissent être ciblés via Facebook. De mon point de vue, Facebook est surtout un point de contact et un canal non négligeable pour les entreprises, tout en posant une question morale au fait d’accéder à des informations personnelles et à l’utilisation qu’elles en font. Actuellement il n’existe pas de législation qui régisse le secteur, bien que je m’attende à ce que cela change dans peu de temps. D’ici là les entreprises doivent réfléchir à la façon dont elles peuvent intégrer Facebook à leurs stratégies multicanales, tout en établissant leur propres règles morales.

Par Eric Chemouny, Vice-président Europe du sud d’hybris / ITRnews

 

Déjà paru :

La Chine se dote de deux centrales nucléaires alternatives

Ceux que l’on appelle déjà les liquidateurs japonais de la centrale de Fukushima Daiichi ont beau se tirer les cheveux pour solutionner une situation qui semble pour le moment inextricable, cela n’a pas empêché la Chine d’annoncer sa volonté de toujours se munir de deux centrales nucléaires à réacteurs à lit de boulets sur les côtes d’une péninsule léchant la Mer Jaune, censés être moins dangereux que les réacteurs fautifs au Japon.

Ce type de réacteur a déjà été à l’essai aux États-Unis, en Allemagne ou en Afrique du Sud, mais aucune n’est à ce jour en activité (pour causes d’abandon, de ratés ou de difficultés financières).

Contrairement à la majorité des réacteurs, qui utilisent des « crayons » de combustible, en fait des pastilles d’oxyde d’uranium empilées dans des tubes, des gaines d’alliage de zirconium, ce qui représente 2 kilos de combustible radioactif, les réacteurs à lit de boulets utilisent des unités d’uranium, chacune enrobée dans un boulet de graphite pyrolitique. Le refroidissement du réacteur est assuré par un gaz semi-inerte, le plus souvent de l’hélium, en lieu et place à l’eau utilisée habituellement. L’enrobage et le gaz limiteraient la fusion en cas de pépin, et la réaction serait plus facile à juguler dans le cas d’un arrêt volontaire ou non de la centrale. Ce système produit plus de déchets, mais significativement moins radioactifs.

Il y a tout de même un potentiel point positif à l’obstination chinoise à rester dans la voie du nucléaire : la Chine, qui est maintenant le plus gros émetteur de gaz à effet de serre de la planète (devant les États-Unis depuis 2006), de par son utilisation du charbon et des autres énergies fossiles, s’est toujours montrée très réfractaire à tout type de discussion concernant le réchauffement de la planète. Mais ces moindres émissions se feront donc au prix d’un large engagement en faveur du nucléaire en Chine, à l’heure où la communauté internationale tend à penser que le jeu du nucléaire n’en vaut peut-être pas la chandelle. Si les essais sont concluants, la Chine pourrait bien généraliser cette technologie aux 50 réacteurs qu’elle prévoit toujours de construire dans les cinq prochaines années…

M.R.

 

Déjà publié :

Centrale nucléaire de Fukushima : Le point

Accident nucléaire de Fukushima : Causes et conséquences

Un audit va être réalisé sur le parc nucléaire français

« L’état des piscines contenant les combustibles usés est devenu le point le plus préoccupant »

« Il y a un décalage entre la réalité économique des acteurs et une population de candidats très motivés »

Nicolas Leroy est directeur de la division Ingénieurs et Techniciens du cabinet de recrutement Michael Page. Il est en charge des activités concernant le recrutement des ingénieurs, en CDI (Michael Page International) et sur l’intérim management (MPIM) dans le secteur industriel, et encadre une dizaine de consultants.

Techniques de l’ingénieur : Quelles sont les perspectives d’emploi dans les énergies renouvelables ?

On constate un fort ralentissement par rapport à l’an dernier. Notamment en raison de la dépendance de la filière à l’État, qui décide de la soutenir, ou non. Les perspectives d’endettement de l’État posent un certain nombre de questions par rapport à la pérennité du secteur. Dans l’éolien, notamment offshore, l’emploi reste très dynamique. Par contre, le photovoltaïque a subi un véritable « coup de massue » avec le rachat de l’énergie à un tarif inférieur. Les EnR constituent une filière très « perfusée », qui dépend de la confiance qu’on lui accorde et des perspectives. Les récents évènements concernant le photovoltaïque ont bouleversé pas mal de choses.

Le photovoltaïque faisait pourtant partie des secteurs les plus porteurs en termes d’emploi, non ?

Bien sûr, notamment sur la partie commerciale. Depuis deux ans, le secteur était très dynamique. Des structures se construisaient très rapidement. L’intérêt de cette redistribution va consister dans un « assainissement » du secteur. Jusqu’à maintenant, il y avait beaucoup de petits acteurs parfois plus spéculatifs que porteurs d’un réel projet. De petites structures se sont montées sur le photovoltaïque, pour spéculer sur le décalage entre le prix de rachat par EDF de ce type d’énergie et les énergies dites « classiques ». Ces structures n’avaient pas de projets à long terme. La baisse du prix de rachat par le gouvernement va permettre d’assainir le marché au sens où ses structures basées quasiment exclusivement sur cette spéculation ne pourront résister à cette baisse. Il ne devrait rester sur le marché du photovoltaïque que des structures solides et saines portant un vrai projet industriel et technique avec une vision à long terme.

Quels sont les secteurs des EnR qui recrutent le plus ?

L’éolien, la biomasse, la méthanisation, même si le fort ralentissement sur le photovoltaïque a généré une méfiance générale autour des EnR. L’éolien offshore, en particulier, continue de bien marcher et il y a actuellement de gros projets engagés dans ce secteur. Je pense que l’avenir se situe plutôt là.

Quelles sont les fonctions les plus en vue dans les EnR ?

Les fonctions techniques et commerciales. Pour le photovoltaïque, il s’agit surtout de commerciaux terrain. S’agissant de l’éolien, ce sont surtout des fonctions techniques-ingénieur qui sont recherchées, que ce soit de la construction, de l’électricité, ou de la mécanique.

Quels sont les types de profils recherchés par les entreprises ?

Surtout des profils expérimentés. En fait, il y a deux cas de figure : soit les petites structures donnent leur chance aux jeunes, aux jeunes ingénieurs essentiellement, et elles les forment ; soit elles ont besoin d’une expertise particulière sur certains postes, auquel cas elles privilégient les profils possédant une première expérience.

S’agit-il de créer des emplois ou d’adapter des métiers qui existent déjà ?

Il s’agit plus d’adapter des métiers qui existent déjà. Par exemple, un prospecteur foncier qui cherchait auparavant des terrains pour établir des carrières va désormais réfléchir à l’installation d’éoliennes. Mais si l’entreprise ne dispose pas des moyens d’engager des gens expérimentés, elle fera appel à des jeunes diplômés.

Cette adaptation passe-t-elle par des formations spécifiques ?

Non, il suffit d’avoir des compétences spécifiques. Beaucoup de gens pensent à tort qu’il est nécessaire de faire une formation « green ». Pour l’instant, je ne connais pas de formations qui soient réellement significatives. Les entreprises ont besoin aujourd’hui essentiellement d’une compétence, et surtout d’une motivation. C’est plus une expérience qu’une formation qu’elles vont rechercher. Le secteur des EnR est un secteur très jeune, où les gens se forment sur le terrain, et c’est ce qui rend aussi l’aventure sympathique.

Le Grenelle de l’Environnement a-t-il eu une influence sur le recrutement ?

Il s’agit surtout d’un effet d’annonce… Les demandes continuent d’affluer car l’activité était assez dynamique il y a deux ans. Mais aujourd’hui, le recrutement est nettement ralenti.

Donc, il y a eu un véritable changement ces derniers temps ?

Oui, on a eu deux années très dynamiques en termes de recrutement mais aujourd’hui, c’est l’expectative complète. Je ne dis pas que le marché s’écroule. Les gens s’arrêtent et regardent.

Comment cela se passe pour les grandes entreprises ayant des secteurs dédiés aux EnR ?

Ces entreprises sont aussi dans une phase d’attente.

Les 600 000 emplois annoncés entre 2009 et 2020 par Jean-Louis Borloo sont surestimés selon vous ?

Bien sûr. La réalité n’est pas celle-là.

Quels sont, selon vous, les vrais chiffres ?

Je ne travaille que sur la partie cadres, qui doit représenter 10 ou 15 % de notre recrutement. Sachant qu’on recrute environ 400-500 ingénieurs par an, si on en recrute 50 ou 60 dans le secteur des EnR, c’est bien. Le problème aujourd’hui est qu’on a beaucoup plus de gens intéressés par le secteur que de places disponibles.

Pensez-vous qu’un changement soit à prévoir ?

Cela déprendra uniquement de la volonté politique et des subventions qui seront accordées à la filière. L’éolien commence à être intéressant avec la mise en place de grosses structures, mais le photovoltaïque, essentiellement constitué de petites structures, peut ralentir fortement.

Il y a un décalageentre ce qui a été annoncé et la réalité des faits. Ces métiers étaient recherchés il y a deux ans, mais depuis six mois ce n’est plus le cas. Il s’agit d’acteurs très jeunes, de structures qui peuventdifficilement se permettre de recruter par anticipation. Ce n’est pas la même chose que pour le nucléaire ou le pétrole, où les investissements se font sur du long terme, auquel cas il faut que vous anticipiez beaucoup plus. Là on est vraiment sur du spontané.

Pensez-vous que l’activité soit amenée à reprendre à un moment ?

C’est envisageable, si le gouvernement décide de consacrer à la filière un budget important, en en faisant réellement une priorité. Le photovoltaïque vient de subir un coup de frein préjudiciable. J’ai vu des commerciaux arriver dans une entreprise spécialisée dans le photovoltaïque, et décider de partir à la seule vue du business plan. Le secteur est rattrapé par la réalité économique, et la reprise ne dépend que de la volonté de l’État.

Sentez-vous de la part des jeunes un engouement pour ces métiers-là ?

Oui, et c’est là le décalage entre la réalité économique des acteurs, plutôt fragile, et toute une population de candidats, surtout des ingénieurs, très motivés pour intégrer ce secteur.

 

Propos recueillis par Carole Hamon

 

POSTULEZ À UN EMPLOI VERT SUR RÉSEAU & EMPLOI ET/OU REJOIGNEZ LE GROUPE ENVIRONNEMENT

Croissance verte : réalité ou effet d’annonce ?

Le volume de création d’emploi annoncé dans les énergies renouvelables est très variable selon les rapports. Quelques dizaines d’emplois selon l’étude Syndex commandée par la CFDT à plusieurs centaines de milliers selon le gouvernement. Difficile de faire le tri dans cette profusion de chiffres pas toujours cohérents.

Les chiffres clés :

  • 134 000 emplois dans les énergies renouvelables prévus en 2020, selon une étude de juin 2009 sur les effets du Grenelle de l’environnement sur l’emploi, réalisée par Boston Consulting Groupe (BCG) à la demande de Jean-Louis Borloo, alors ministre de l’Écologie. L’étude suppose la pleine réalisation des programmes du Grenelle, qui doivent permettre une réduction de 25 % des émissions de gaz à effet de serre de la France d’ici 2020 et générer environ 450 milliards d’euros d’activité sur 12 ans ;
  • 684 000 emplois dans les énergies renouvelables attendus en 2020, selon l’étude réalisée en 2008 pour le WWF. À la différence de l’étude de BCG, celle-ci prend en compte les emplois détruits dans les filières polluantes (138 000 dans l’énergie, 107 000 dans l’automobile) mais aussi les emplois induits par les économies réalisées par les ménages dans leur consommation énergétiques ;
  • 300 000 emplois dans les énergies renouvelables annoncés pour 2020, selon le SER (Syndicat des Energies Renouvelables) ;
  • 120 000 emplois directs dans les énergies renouvelables prévus en 2012, selon une étude de l’ADEME, soit plus du double du chiffre de 2007. 35 000 seraient consacrés à la production d’énergie marchande ou à l’entretien des équipements de chauffage domestique et 85 000 à la production, la distribution et l’installation des équipements ;
  • 60 000 emplois attendus dans l’éolien en 2020, selon le SER ;
  • 5 000 emplois crées en 2012 et 19 000 emplois crées en 2020 dans la biomasse, selon la société Dalkia France ;
  • 9 000 emplois prévus dans l’éolien en 2010, selon le SER.

 

Scénarios de déploiement des énergies renouvelables : éolien, solaire thermique et photovoltaïque

Scénario Tendanciel 2006 2007 2012 2020
Eolien MW installés 1567 2455 2200 2012,5
Solaire thermique M2 isntallés dans l’année 298000 320000 1438000 2250000
Solaire photovoltaïque MW installés 14,4 37,5 300 537,5
Scénario Crise 2006 2007 2012 2020
Eolien MW installés 1567 2455 1760 1610
Solaire thermique M2 installés dans l’année  298000 320000 1150400 1800000
Solaire photovoltaïque MW installés 14,4 37,5 240 430
Source Syndex

Hors installation, l’effet sur l’emploi dans l’industrie, quel que soit le scénario (tendanciel ou crise), compte tenu des hypothèses retenues du taux d’ouverture des marchés, est loin d’être négligeable, notamment pour le solaire thermique et photovoltaïque.

Sur la période 2012-2020, en moyenne annuelle, les emplois dans l’industrie s’élèveraient à 22 275 emplois à taux plein, soit 49 % des emplois liés aux investissements dans l’éolien et le solaire, hors exportation, en croissance de 25 % par rapport à la période 2007-2012. Par rapport à 2007, année de référence, les emplois dans l’industrie décollent véritablement sur la période 2007-2012, passant ainsi de 2 912 emplois à taux plein à 14 435 emplois à taux plein. Toutefois, cette estimation ne tient pas compte de l’effet de la crise sur les investissements dans le secteur des énergies renouvelables. Ainsi, si l’on tient compte d’une hypothèse de recul de 20 % des investissements, les emplois dans l’industrie seraient ramenés à 8 347 emplois à taux plein sur la période 2007-2012 et à 12 393 emplois à taux plein sur la période 20012-2020.

 

Source Syndex

Comme le montre l’histogramme ci-dessus, cette croissance des emplois dans l’industrie bénéficie surtout à l’industrie de fabrication des composants électroniques actifs et à l’industrie de fabrication des équipements domestiques non électriques. Sur la période 2012-2020, ces deux industries représentent 72 % des emplois des emplois directs liés aux investissements dans les équipements.

 

Impact emploi par types d’industrie (emploi direct)

  2006 2007 2012 2020
Industries des équipements mécaniques 541 643 1591 1456
Fabrication d’équipements domestiques non électriques 900 1234 5469 8557
Fabrication de composants électroniques actifs 298 759 5889 9983
Ingénierie 263 400 1732 2503
Total emplois dans l’industrie 2008 3036 14681 22500

Ces emplois directs recouvrent pour la plupart des métiers traditionnels de l’industrie (mécanique, chaudronnerie, électronique, électrique), pour lesquels l’offre de formation existe aujourd’hui. Toutefois, il n’en est pas de même pour les métiers liés à l’ingénierie, pour lesquels les besoins d’une offre de formation d’ingénieurs et de techniciens spécialisés dans les technologies des renouvelables apparaissent déterminants pour porter le développement de ce type d’énergie. Il en est de même pour les métiers liés à l’installation et à la maintenance de ses équipements, dont l’offre de formation apparaît sans commune mesure avec les besoins.

 

Croissance verte : des chiffres dans le rouge

Moteur hybride

La CFDT et la CGT ont demandé au cabinet Syndex d’explorer le revers de la médaille verte : la destruction d’emplois dans les filières traditionnelles, générée par le durcissement des obligations environnementales. Dans le secteur automobile, l’essor des moteurs hybrides causerait la perte en France de 4 000 à 8 000 spécialistes du moteur thermique à l’horizon 2020. La réglementation plus sévère dans la sidérurgie détruirait pour la filière fonte entre 3 000 et 6 000 emplois. « Résultat, le solde net de créations d’emplois pour 2020 serait plus proche des 60 000 que des 60 0000 annoncés en fanfare », déplore Jean-Pierre Bompard, délégué à l’environnement pour la CFDT.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Source : Étude réalisée en juin 2010 pour le compte du Commissariat général au développement durable – ministère de l’Écologie, de l’Énergie, du Développement durable et de la Mer (MEEDDM)

 

C.H.

 

POSTULEZ À UN EMPLOI VERT SUR RÉSEAU & EMPLOI ET/OU REJOIGNEZ LE GROUPE ENVIRONNEMENT

Energies renouvelables, emploi et conjoncture

Au-delà des décisions du Grenelle, les chiffres liés à la création d’emplois dans les secteurs des énergies renouvelables au sein des grands groupes doivent être pondérés avec d’autres facteurs. La crise économique mondiale en est un. La volonté des entreprises de s’engager dans des processus longs pour faire évoluer leurs pratiques en est un autre.

On distinguera les entreprises considérées comme « vertes », qui se sont constituées dans le but de produire des énergies renouvelables (photovoltaïque, éolien…) de celles qui font évoluer leur activité vers une production ou/et des pratiques plus renouvelables. En ce qui concerne ces entreprises, voyons secteur par secteur quels vont être les acteurs concernés.

Au niveau énergétique, des grands groupes producteurs d’énergie ont, depuis le Grenelle, diversifié leurs moyens de production. C’est le cas d’EDF par exemple. Dans d’autres secteurs, les entreprises doivent remettre en cause tout ou partie de leur outil de production. C’est le cas du secteur des matériaux, dont l’empreinte écologique est désormais pointée du doigt (le béton en est le meilleur exemple). L’industrie chimique, elle, via Reach par exemple, opère une remise à plat de ses pratiques.

Autre exemple, le secteur de l’automobile. Les constructeurs travaillent déjà depuis plusieurs années sur la consommation des véhicules. Depuis quelques temps, le véhicule électrique est un défi technologique qui concentre les secteurs R&D des plus grands constructeurs. Les batteries représentent notamment un enjeu crucial.
Il est important de remarquer que pour les constructeurs automobiles par exemple (mais la grande majorité des grands groupes est soumis aux mêmes contraintes), les enjeux sont désormais multiples. En effet, au-delà de l’innovation en termes de consommation des véhicules, c’est le véhicule en lui-même qui doit évoluer :

  • Au niveau des matériaux ;
  • Au niveau des substances utilisées dans la fabrication des véhicules ;
  • Au niveau du suivi des pratiques des prestataires.

De nouvelles pratiques métiers plutôt que de nouveaux métiers

Par delà, ce sont donc les métiers eux-mêmes, du début à la fin de la chaine de production, qui doivent évoluer. L’ensemble des familles professionnelles ainsi que tous les niveaux d’emploi, de l’opérateur au manager, sont impactés. En ce qui concerne l’automobile, voici un panorama de l’évolution des métiers observée :

  • les transports ferroviaires et guidés : l’ingénierie vers de l’éco-conception, l’exploitation des réseaux vers une vision plus systémique du transport vue sous l’angle de la mobilité ;
  • une maintenance plus intégrée : les responsables de sites et de maintenance, les opérateurs de maintenance et les techniciens, les services fonctionnels avec une approche du travail plus transversale ;
  • le transport de marchandises : le développement durable devient un vecteur de promotion du service vendu. Perfectionner les conducteurs en conduite rationnelle, développer la prévention des risques, sur les aspects comportementaux de l’exercice du métier, relationnels commerciaux ;
  • l’exploitation des transports : conduite économe, déménagement durable, chauffeur livreur en milieu urbain, rationalisation des transports ;
  • les voies d’eau : polyvalence, nouveaux modèles d’exploitation, fonction d’accueil, manutention et logistique ;
  • la logistique : maximisation du remplissage des camions, meilleure organisation des tournées de livraison pour regrouper en un seul trajet les livraisons à plusieurs clients, intermodalité… ;
  • les travaux publics : gestion des déchets, droit de l’environnement, propreté des chantiers, respect de la faune et de la flore sur chantier (préparation avant réalisation du chantier, pendant et après – ces actions sont souvent à réaliser en concertation avec le maître d’ouvrage), réduction des nuisances sonores (chantiers furtifs, …), pollution des sols, préservation de la qualité de l’air, protection de l’eau, l’ingénierie écologique du paysage…

On le voit donc, les considérations des entreprises en termes d’utilisation des énergies renouvelables impliquent des changements en profondeur dans toute la chaîne de production de valeur. L’exemple du secteur de l’automobile est à ce titre frappant.
Mais les exemples du secteur du bâtiment, de la chimie, ou encore de la production et de la distribution d’énergie révèlent, on l’a vu, les mêmes particularités. Dans ces secteurs également, il faut reconsidérer, verticalement et transversalement, les implications induites par ces changements.
L’évolution des métiers eux-mêmes implique des besoins en termes de compétences et de formation. Mais pas tant que cela. Comme le soulignent souvent les responsables des grandes entreprises, il s’agit avant tout d’une prise de conscience collective sur des thèmes qui sont devenus importants depuis quelques années. Le changement opéré l’est donc autant au niveau des mentalités que des process métiers.

Quels sont les facteurs qui ont ou vont influencer le virage énergétique ?

L’évolution des pratiques dans les grandes entreprises, liée à la prise en compte de la problématique environnementale et énergétique, se heurte aujourd’hui à la réalité des marchés… Réalité qui depuis deux ans n’a qu’un mot à la bouche pour éclairer sa situation : la crise. Si la crise freine bien évidemment les grands projets non vitaux pour les entreprises, elle a aussi tendance à ralentir les transitions opérées par les entreprises vers de grands investissements « verts », destinés à améliorer leurs pratiques, leur production ou simplement leur bilan carbone.

C’est pour cela qu’il est vital que l’état soutienne les investissements à caractère durable, et surtout tant que les répercussions de la crise financière se font sentir sur les entreprises.

Au final, les opportunités pour les entreprises françaises impliquées dans ces processus de changement des pratiques sont grandes. À terme, les retombées économiques et industrielles attendues sont les suivantes :

  • Tout d’abord la création d’environ 450 M d’euros d’activité sur la période 2009/2020 ;
  • La création de « champions » industriels avec une capacité d’export dans des secteurs durables (éolien offshore, voiture électrique) ;
  • Réduction des temps de transports, avec le développement des TCSP et du LGV ;
  • Substitution de la production d’énergie d’environ 200 TWh final/an, par de l’énergie renouvelable (dans le détail : 64 par le fonds de chaleur renouvelable, 57 par l’éolien, 42 par la biomasse) ;
  • Réduction de la consommation d’énergie d’environ 180 TWh final/an ;
  • Désenclavement de la Seine par le canal Seine Nord Europe : ouverture sur le réseau européen de voies navigables.

Ainsi, on voit bien que pour le entreprises évoluant dans les secteurs que nous avons évoqués plus haut, le virage énergétique voulu lors du Grenelle représente une opportunité de faire évoluer leurs pratiques, et pourquoi pas gagner de nouveaux marchés.

Par Pierre THOUVEREZ

 

Sources : developpement-durable.gouv, CRE, BCG

 

POSTULEZ À UN EMPLOI VERT ET/OU REJOIGNEZ LE GROUPE ENVIRONNEMENT

Le gaz de schiste, au premier plan de l’actualité

La ministre de l’écologie française Nathalie Kosciusko-Morizet n’a pas changé le cap du gouvernement ce mardi 29 mars, dans un débat à l’Assemblée Nationale, rappelant qu’ « il n’est pas question d’avoir recours à des procédés d’extraction ayant une incidence écologique désastreuse », répondant ainsi à la motion parlementaire signée par des députés de toutes tendances confondues (passée de 80 à 100 signataires ce mardi). Un rapport devra être rendu le 8 juin pour décider de la levée du moratoire ou non, qui s’était vu prolongé de deux mois, et qui suspend sur le sol français la prospection du gaz de schiste (3 permis dans le sud de la France). L’enjeu sera donc de décider si oui ou non le gouvernement considère que l’extraction du gaz de schiste a « une incidence écologique désastreuse ».

Les Polonais, eux, se posent beaucoup moins de questions. Le premier ministre polonais, Donald Tusk, annonce qu’il est « déterminé à ce que les recherches et l’exploitation du gaz de schiste deviennent un fait », ce même 29 mars. La Pologne, dont le sous-sol serait riche en cette ressource, s’est lancée depuis plus d’un an dans une collaboration avec de grands gaziers américains et internationaux, et elle bénéficie du « savoir-faire » américain, on ne peut plus décrié en France comme dans tous les pays concernés.

C’est ce que nous rappelle la sortie le 6 avril sur nos écrans du film-choc « Gasland », de l’Américain Josh Fox, où se mêlent les images d’animaux perdant leurs poils, d’eau du robinet marron, ainsi que la désormais tristement célèbre scène où un homme réussit à enflammer l’eau qui sort de son robinet. Ce film, outre le fait de dénoncer ce qui est pour le réalisateur une « aberration écologique », aura surtout pour vocation de provoquer des débats, dont de nombreux sont prévus après les projections.

En réponse à sa diffusion, les industriels du pétrole se réfugient derrière le fait que les accidents seraient « presque toujours liés à une mauvaise cimentation des cuvelages dans les puits et non à la technique de fracturation »

Gageons que la France y verra plus clair d’ici juin sur ce dossier plus qu’épineux…

M.R.

 

Déjà publié :

Le point sur les gaz de schistes

Gaz de schiste : un moratoire, et après ?

Révélations inquiétantes aux Etats-Unis sur les Gaz de schiste

90 hectares dédiés à l’éco-construction

Aux portes de Nantes, face au futur aéroport Notre-Dame-des-Landes, la Communauté de communes Cœur d’Estuaire vient de réaliser deux parcs d’entreprises de très haute qualité environnementale dédiés exclusivement aux entreprises de l’éco-construction. Les Parcs du Bois de la Noue et de La Folaine déploient sur 90 hectares une nouvelle logique de parc avec des aménagements de pointe, une stratégie thématique d’avenir et un mode de gestion qui devrait faire école en terme de montage public-privé à long terme.

Une stratégie thématique

Vouloir rassembler des entreprises sur une seule thématique, l’éco-construction, constitue l’un des volets de cette démarche innovante « made in Cœur d’Estuaire ». Ce positionnement exclusif est audacieux, surtout en période de crise économique, autant que judicieux. En phase d’émergence de nouvelles pratiques du secteur de la construction,  il s’agit là, non de procéder par exclusion mais de rassembler les acteurs d’une nouvelle filière. L’objectif est de réunir les acteurs économiques de l’éco-construction, de leur permettre de bénéficier d’un terrain d’accueil adapté à leurs exigences et de favoriser leur visibilité par un effet d’adresse unique.

Premier pôle par la taille avec 300 000 m2 de locaux d’entreprises envisagés mais aussi par le service que ces deux Parcs va assurer à la filière émergente de la construction durable, c’est-à-dire visibilité et synergies, favorables à l’innovation et à leur développement. Enfin, c’est offrir à terme au public et aux professionnels du bâtiment une adresse de référence, véritable « vitrine » de l’éco-construction, unique en France, où ils trouveront toutes les réponses et prestataires nécessaires à leurs projets.

Une logique de parc mettant en valeur la nature préexistante

Avec ses parcs, Cœur d’Estuaire donne naissance à une nouvelle vision de l’aménagement du territoire sans voiries bétonnées sur des kilomètres, ni de parcelles arasées, sans aménagements standardisés, plaqués en pleine campagne à grand renfort d’éclairages, de grillages et d’architectures désordonnées…

Tout au contraire, les Parcs répondent à une logique de territoire où l’aménagement sur mesure prend corps sur la trame bocagère, où les voies de dessertes utilisent le parcellaire ancien et les chemins existants, où le découpage des parcelles est fixé par les haies, les prairies humides conservées, les bois classés ou préservés. Résultat : deux véritables parcs paysagers, ordonnancés, avec un impact minimum sur leurs terrains d’accueil et mettant en valeur la nature préexistante, deux grands jardins d’inspiration anglaise dans lesquels les entreprises vont implanter leurs bâtiments, respectant des règles strictes, un code visuel cadré et des obligations paysagères valorisantes.

Des choix d’aménagement innovants

Chaque parc s’articule autour d’un axe central structurant, voie de desserte de l’ensemble du site, intégrant les réseaux techniques. Ce parti d’aménagement simple et fort assure une rationalisation de fonctionnement à chaque site, permet une lecture simple et immédiate de leur organisation et leur confère une grande élégance. Le tracé central est souligné par l’ordonnancement des différents matériels d’éclairage et les alignements d’arbres, de noues plantées et de haies. Viendront se connecter sur cet axe central des antennes de distribution, qui seront construites au fur et à mesure de l’implantation des bâtiments d’entreprises et selon leurs besoins, pour irriguer l’ensemble.

Pour assurer une parfaite cohérence aux sites, les aménagements sont poussés jusque dans les détails, avec un langage commun aux deux parcs d’entreprises : signalétique unique, intégration des enseignes, boîtes à lettres et autres coffrets techniques dans des murets en bois, recul des bâtiments, paysagement collectif et enfin un cahier de prescriptions assurant le respect des objectifs du projet éco-construction et une harmonie architecturale.

Un mode de gestion nouveau

Cœur d’Estuaire qui reste maîtresse de ses sites, va maintenant s’appuyer sur un opérateur immobilier spécialisé dans la construction des locaux des entreprises.

Pour les entreprises, c’est l’occasion de bénéficier rapidement de locaux, sans la charge du management d’une opération de construction lourde et chronophage. C’est aussi éviter de bloquer leur capacités d’investissement financier dans l’acquisition de terrains et de bâtis, pour la concentrer sur le développement des affaires. Elles bénéficieront d’un service clef en main réalisé par l’opérateur qui va assurer pendant 35 ans le développement, la gestion et l’entretien des deux parcs. 

La fin de l’enfouissement pour les sommiers et matelas

Environ 95 % des matières d’un matelas et d’un sommier sont recyclables. Pourtant, aucune alternative n’était proposée en France pour valoriser ces déchets. Ces derniers sont actuellement enterrés dans des « Centres d’Enfouissement Technique » lorsqu’ils arrivent en fin de vie. Or la biodégradation des produits s’effectue sur plus de 100 ans et le volume enfouit chaque année correspond au volume de la Tour Eiffel…

Fort de ce constat, l’entreprise française Recyc-Matelas Europe, née d’une joint venture avec Recyc-Matelas Canada, a ouvert sa première usine-pilote au port autonome de Limay, dans les Yvelines (78) en octobre 2010. Quelques 350 000 unités seront traitées chaque année sur ce premier site de déconstruction de matelas et sommiers usagés et de revalorisation des matériaux. Coton, feutre, bois, métal, mousse de polyuréthane… pourront ainsi être réutilisés notamment pour l’industrie automobile, la fabrication de tapis, l’isolation thermique, l’énergie biomasse, la sidérurgie, l’aciérie, le ferraillage…

Au bout de trois mois, l’entreprise recycle déjà 10 000 pièces par mois, soit 220 tonnes de matières qui jusqu’ici étaient traités comme des déchets et non des matières valorisables, notamment grâce à la mise de en place de partenariats stratégiques avec La Compagnie du Lit, des magasins indépendants et des sociétés de traitement de déchets qui récupèrent les matelas et les sommiers en Ile-de-France dans le cadre des encombrants.

« Ces partenaires sont conscients de la nécessité de modifier les comportements. Cinq millions de matelas et sommiers sont enfouis chaque année en France, soit l’équivalent de 110 000 tonnes de déchets qui pourraient à terme être traités par des solutions innovantes écologiques. Avec le renforcement des partenariats stratégiques, les industriels, les opérateurs de la collecte, les collectivités, nous envisageons sur le site de Limay de traiter 15 000 unités par mois à courte échéance », explique Jérémy Settbon, Président de Recyc-Matelas Europe.

Priorité aux zones fluviales

Cette initiative arrive à temps pour les fabricants de literie. En effet, dans le prolongement de ce qui a été mis en place pour les DEEE et suite aux décisions du Grenelle de l’environnement, l’Assemblée nationale a voté en mai dernier, dans le cadre de la loi Grenelle 2, la mise en place d’une « REP Ameublement » afin que les fabricants et les distributeurs soient responsables de leurs déchets issus des biens d’ameublement, dont la literie. Selon les pouvoirs publics, ce décret d’application serait effectif courant juillet 2011.

Pour répondre aux politiques éco-environnementales, les prochains sites de production de Recyc-Matelas Europe seront implantés, à l’instar de Limay, à proximité de voies navigables permettant ainsi l’acheminement des matelas et sommiers usagés par péniches. Il en sera de même pour le transport des matières, afin de limiter l’émission de CO2 et d’améliorer ainsi le bilan carbone de l’entreprise.

Le choix du modèle économique fondé sur la multiplication des sites de production, situés en priorité dans des zones fluviales (une dizaine d’ouvertures est prévue en France) a été fait pour maîtriser l’impact écologique lié à la logistique de transport d’unités. L’entreprise envisage aussi de se développer sur le continent européen et de générer, d’ici trois années,  un millier d’emplois dans cette nouvelle filière de revalorisation des déchets.
 

La difficile progression de la fibre optique en France

Tout d’abord, il faut considérer que l’Europe est déjà en retard par rapport au reste du monde. Aujourd’hui, le seul pays qui tire son épingle du jeu est la Russie qui a un taux de pénétration très important, du même niveau que le Japon ou les États-Unis.

La France est à la fin du tableau, avec le 26e taux de pénétration sur 35 en Europe. Tous les pays émergents plus dynamiques nous sont passés devant… Le taux de pénétration de la fibre en Europe est de 17,5 %, sachant que la France n’est qu’à 8 %… Nous sommes moitié moins dynamiques par rapport à l’ensemble de nos voisins. À première vue, c’est inquiétant. Mais considérons aussi que la France a une position particulière.

En effet, la répartition géographique de la France pose problème, avec une majorité de son territoire peu dense en termes de démographie. Ce qui explique qu’aujourd’hui les opérateurs se posent clairement la question de savoir s’ils ont intérêt à amener la fibre optique jusque dans les zones non denses, sachant que justement la population y étant faible, le retour sur investissement semble plus incertain. Alors pourquoi s’engageraient-ils seuls sur des dépenses aussi importantes sur certaines régions ?

Des raisons plus historiques qu’économiques

Cette problématique qui a occupé les débats en 2010 est loin d’être résolue. La mesure pour y remédier que propose le Grand Emprunt est déjà un pas en avant : en finançant différents projets locaux de certaines zones non denses, comme la Manche, la France sera en mesure de déterminer les solutions les plus efficaces. Mais le constat des premières collectivités à se lancer est inquiétant : même sur ces projets soutenus par le gouvernement, les Délégations de Services Publics (DSP) en charge de mettre en œuvre le génie civil nécessaire, ne semblent pas se bousculer… Le coût n’est donc peut-être pas le problème principal en France.

La véritable problématique en France est peut-être plutôt historique. En effet, tous les supports ADSL, XDL… fonctionnent très bien et sont encore largement exploitables aux vues de la demande nationale actuelle. C’est ce qui explique que France Télécom ait mis beaucoup de temps à réagir par rapport à la fibre optique. Les réseaux ADSL, XDSL sont plus intéressants pour l’opérateur historique. France Telecom n’étant pas moteur par rapport à la fibre, ce sont plutôt les opérateurs alternatifs qui tentent de promouvoir ces technologies plus innovantes.

La conférence annuelle FTTH Council Europe qui s’est tenue a Milan, en février dernier, a été l’occasion de partager les expériences. D’autres pays y ont révélés des soucis particuliers, comme le marché belge par exemple, qui souffre de l’absence de gouvernement ou du fait qu’aucun opérateur alternatif ne se risque à proposer des technologies novatrices par rapport à Belgacom.

Un acteur est ressorti comme étant réellement moteur pour le déploiement de la fibre optique en 2011, en tout cas pour la France. Ce sont les municipalités, collectivités locales, et autres communautés de communes, qui semblent vraiment s’investir dans le domaine et cherchent à se faire entendre.

Répertorier des infrastructures existantes

Le constat que nous avons fait au FTTH Council Europe, est qu’il y a un gros développement fibre sur les pays de l’Est, notamment la Hongrie, la Slovénie, la Bulgarie… Ils sont venus au FTTH Council Europe, avec des projets précis. Ils savaient véritablement ce qu’ils souhaitaient faire. En revanche, tous les pays proches de la France semblent connaître un véritable ralentissement au niveau des investissements, que ce soit la Belgique, l’Italie, L’Espagne, l’Allemagne ou le Royaume-Uni. Quel va donc être le moteur pour relancer les installations fibres sur ces pays ? C’est ce que nous dira 2011…

La France, pour sa part, a lancé le Grand emprunt pour l’installation des zones non denses afin de développer des zones de test qui seront ensuite suivies. Mais certaines collectivités ont déjà des réseaux télécoms fibre qui dorment depuis plusieurs années, et leur souci clairement annoncé aujourd’hui est de savoir comment rentabiliser leurs infrastructures.

Cette démarche typiquement française, qui consiste à investir sur un secteur d’avenir sans se poser la question de savoir si, à un moment donné, il va être utile de justifier ces dépenses, est aujourd’hui un frein pour ces collectivités alors visionnaires. Dans les autres pays, avant d’investir, chacun pense d’abord à la rentabilité. En France, à partir du moment où le gouvernement met 70 % de l’investissement sur la table, on considère cela comme des financements publics et on ne réfléchit plus à comment rentabiliser… Répertorier des infrastructures existantes est aujourd’hui nécessaire pour faciliter à court terme le développement de l’accès au réseau fibre.

Le rôle fondamental des municipalités

En revanche, les 30 % d’investissements, réalisés par les DSP, sont véritablement réfléchis. Elles décident de travailler sur une région plutôt qu’une autre, en ayant préalablement étudié le terrain afin de confirmer qu’elles peuvent s’implanter avec un retour sur investissement à plus ou moins long terme.

Aujourd’hui, les récents acteurs, comme Free, développent leur propre infrastructure, et sont en train de faire bouger le marché occupé par les DSP ou opérateurs. Ils vont provoquer la réaction de tous ces acteurs historiques qui ont besoin d’une réelle concurrence pour relancer ces installations, entre autre dans les zones peu dense. Car tous ces acteurs ont considéré en priorité les grandes villes où le ROI (Return On Investment) semblait rapide.

La question qui se pose maintenant, c’est comment vont-ils se partager le marché des zones moins denses et peu denses ? Par exemple, sur les quelques régions cibles, pour le moment on n’a aucune idée de quelles vont être les DSP retenues sur la région… Pourquoi choisir plus l’une que l’autre ?  Même si chacune a ses terrains de prédilections, rien ne permet d’affirmer qu’elles vont continuer à se positionner régionalement…

Le véritable moteur va donc être le choix des communautés de communes et des collectivités locales. Beaucoup commencent à dénoncer la situation, n’admettant pas de payer autant d’impôts locaux que les villes qui bénéficient déjà de ces infrastructures fibre. La véritable impulsion en 2011 va venir de ces acteurs incontournables, investisseurs et décideurs, que sont les municipalités et leur regroupement.

 

par Florianne Duguay, Vice Présidente Ventes et Marketing Kleverage de P&T Consulting

 

 

 ..  …..

Rédiger un cahier des charges ITSM

Dédié aux problématiques de l’ITSM (Information Technology Service Management), une approche de gestion des SI orientée « services » s’appuyant sur les bonnes pratiques de la bibliothèque ITIL (Information Technology Infrastructure Library), le Centre de ressources ITSM rassemble, à ce jour, différents acteurs complémentaires comme EasyVista (Staff&Line), l’EXIN, ORSYP Consulting, ITIL France et ITIL.FR.

Son unique vocation est de proposer des ressources et des informations indépendantes sur le marché de l’IT (Information Technology) et de sensibiliser les entreprises et les structures publiques sur l’ensemble des aspects que couvre l’IT Service Management.

Cette association d’expertises et de savoir-faire a donc pour finalité d’offrir gratuitement un ensemble de ressources complémentaires, jusqu’alors uniquement proposées de manière commerciale par les différents acteurs du marché.

Jouant la carte des bonnes pratiques et de la sensibilisation, le Centre vient d’annoncer la disponibilité d’un modèle de cahier des charges permettant aux entreprises et aux administrations d’exprimer au mieux leurs attentes en matière d’IT Management et de se poser les bonnes questions. Le cahier des charges est le fruit d’une réflexion commune associant éditeur, cabinet de conseil, intégrateur et utilisateur final. En ce sens, il fait ressortir des points stratégiques qu’il est indispensable d’aborder afin de transformer son projet d’ITSM en un succès opérationnel de long terme.

À ce jour, aucune initiative de ce type n’avait été proposée. Il s’agit donc d’une véritable innovation qui permettra aux entreprises de prendre en compte à la fois leurs besoins techniques et organisationnels. À partir de cette synthèse, ils prendront donc de la hauteur sur leur projet et pourront entrer sereinement dans sa préparation. Ce document est disponible gratuitement sur le site Internet du Centre.

« Notre nouveau cahier des charges de l’ITSM se positionne comme un outil stratégique pour les DSI souhaitant déployer un projet d’IT Service Management. Véritable synthèse d’expertises complémentaires, ce nouvel outil va compléter les ressources d’ores et déjà présentes. Nous annoncerons sous peu le lancement de nouvelles initiatives de ce type qui contribueront activement à mieux comprendre les tendances du marché de l’IT Service Management et les démarches utiles à connaître pour lancer un projet. La complétude de nos outils est un véritable facteur générateur de succès », affirment les membres du Centre de ressources. 

Les métiers de la chaîne de fabrication et de conception évoluent

Instantanés Techniques : Quelle sont, au niveau des ressources humaines, les conséquences des choix stratégiques de Renault en matière énergétique et environnementale ?

La prise en compte de l’environnement par Renault n’est pas nouvelle. Cela fait plusieurs années que nous prenons en compte de façon globale dans nos différents métiers, cette variable. En fait, on pourrait même dire qu’il n’y a pas un seul métier dans la chaîne de conception et de fabrication de nos véhicules qui n’ait pas intégré ces problématiques.

Comment cela s’illustre-t-il en matière de recrutement ?

Nos recrutements ne sont pas nécessairement ciblés sur des profils d’expert en environnement ou en développement durable. Nous recrutons en majorité des ingénieurs généralistes attirés par l’automobile. C’est pour quelques postes très ciblés, comme par exemple les responsables environnement dans les usines que nous avons besoin de spécialistes qui ont suivi des cursus dédiés à l’environnement.

Et en termes de chiffres ?

Les chiffres correspondent aux choix stratégiques de Renault, qui s’est fortement investi dans le domaine des véhicules électriques depuis deux ans. Ainsi, en 2010, nous avons effectué 186 recrutements dans le domaine de l’électronique et 124 recrutements plus spécifiquement pour le développement du véhicule électrique. Pour 2011, 500 recrutements sont prévus dans le domaine de l’ingénierie, dont 20 % d’ingénieurs expérimentés : 80 dans la filière mécatronique, et une vingtaine dans le domaine de la simulation numérique entre autres. Le développement de ces compétences est important pour nous, même si nous nous y investissons de manière raisonnée.

Parlez-nous des « experts » de Renault.

Renault a développé la filière expertise. Cette filière doit permettre un développement des compétences dans les domaines qui nous paraissent stratégiques. Nous nommons des experts pour ces domaines d’expertise stratégiques, et des spécialistes dans chacun des sous-domaines. Cela nous permet d’être toujours à la pointe, en termes de compétences, dans les domaines que nous avons définis comme stratégiques pour nous, notamment par une veille externe essentielle. A titre indicatif, nous avons identifié 27 domaines d’expertises stratégiques. Le rôle de l’expert est important pour nous, en termes de prise de décisions par exemple. C’est lui qui peut être la caution quand des équipes travaillent sur, des projets pour lesquels il faut recentrer les approches.

Que pensez-vous des formations qui existent aujourd’hui dans le domaine des énergies renouvelables et de l’environnement ?

Les formations qui existent sont plutôt des formations complémentaires que généralistes. Aujourd’hui, le développement de formations spécialisées dans les filières plus courtes pourrait être une idée à creuser.

Propos recueillis par Pierre Thouverez

News Environnement / Sécurité / Energie de mars

La catastrophe de Fukushima occupe l’actualité depuis plus de deux semaines. Le point sur les dernières informations.

Le nuage

Les poussières radioactives s’infiltrent partout dans la nature, quand passe un nuage nucléaire comme celui de Tchernobyl : dans les plantes, dans les rivières et les plans d’eau, dans les animaux. Tous les organismes vivants sont concernés. Roland Desbordes, président de la Commission de recherche et d’information indépendantes sur la radioactivité précise qu’il faut éviter d’ingérer des produits laitiers et des légumes : « Les particules transportées par les nuages radioactifs se fixent prioritairement sur les légumes à larges feuilles comme les salades et les épinards, mais aussi les champignons (les cèpes en particulier) et le thym ». « Vingt-quatre ans après l’accident de Tchernobyl, on mesure toujours la présence de césium 137 dans les zones contaminées. On en trouve également en France en très faible quantité, dans les zones les plus touchées par le nuage radioactif ukrainien, principalement dans l’Est et le Sud-Est », affirme encore Roland Desbordes.

Conséquences directes sur l’environnement au Japon

Selon les dernières informations de l’IRSN sur l’évaluation de la radioactivité dégagée par la centrale de Fukushima Daiichi (Fukushima I) jusqu’au 22 mars 2011, les principaux éléments radioactifs rejetés au cours des différents épisodes de rejet entre le 12 et le 23 mars seraient :

  • des gaz rares (éléments radioactifs chimiquement peu réactifs, restant dans l’atmosphère sans se déposer au sol), notamment le xénon 133 dont la période radioactive est de 5,3 jours ;
  • des éléments volatils, principalement des isotopes radioactifs de l’iode, du césium radioactif, du tellure radioactif. Ces éléments forment de fines particules en suspension dans l’air (aérosols) qui se déposent progressivement sur les surfaces au sol, au fur et à mesure de leur dispersion dans l’air ;

Les résultats de mesure dans l’environnement dont dispose l’IRSN, venant du Japon, confirme la présence principalement :

  • d’iode 131 (période radioactive de 8 jours), d’iode 132 (période radioactive de 2,3 heures) et d’iode 133 (période radioactive de 20,8 heures) ;
  • de tellure 132 (période radioactive de 3,2 jours) dont la décroissance radioactive produit de l’iode 132, ainsi que du tellure 129m (période radioactive de 33,6 jours) associé à du tellure 129 de période plus courte (1,16 heures) ;
  • de césium 137 (période radioactive de 30 ans) et de césium 134 (période de 2,1 ans).

Conséquences des rejets dans l’environnement au Japon

Les éléments radioactifs sous forme de particules se déposent progressivement sur les différentes surfaces au sol, notamment sur les feuilles de plantes cultivées, sur l’herbe des pâtures, sur l’eau stagnante à l’air libre ou l’eau des rivières, sur les milieux urbains…

Les légumes à feuilles (épinards, salades, poireaux…) sont particulièrement sensibles à ces retombées radioactives et sont rapidement contaminés après l’accident. Les résultats des mesures effectuées au Japon, à plus de 100 kilomètres de la centrale de Fukushima, sur cette catégorie de produit le confirment. Ces résultats indiquent que pour l’iode 131 dans les épinards, le niveau maximal admissible au Japon pour la commercialisation et la consommation des denrées (2000 Bq/kg) sont systématiquement dépassés dans ces territoires. Il en est de même pour les césiums radioactifs, mais dans une moindre mesure (niveau maximal admissible au Japon de 500 Bq/kg). Les poireaux, qui offrent une surface foliaire plus faible au contact de l’air ambiant, semblent moins contaminés. La contamination des légumes à feuilles est certainement plus importante en se rapprochant du site de Fukushima, en fonction de l’importance des retombées radioactives.

D’une manière générale, la contamination de ces légumes peut rester importante dans les prochains jours. Au cours des semaines à venir, si de nouveaux rejets importants ne se produisent pas, une nette diminution de la contamination des légumes à feuilles devrait être observée, à cause de la décroissance radioactive des radionucléides à vie courte (iode 131) et de l’effet de la croissance végétale qui dilue la contamination initiale dans la masse de la plante.

AREVA reporte la livraison de combustible MOX au Japon

Autre effet collatéral de la catastrophe de Fukushima : le groupe de technologie nucléaire Areva SA a confirmé vendredi 25 mars que la livraison de combustible nucléaire MOX à des groupes énergétiques japonais qui devait être effectuée dans les jours qui viennent avait été reportée. Areva devait livrer du MOX, un combustible nucléaire produit à partir de plutonium et d’uranium appauvri, aux groupes énergétiques japonais Kensai Electric Power et Chubu Electric Power Co. Inc. (9502.TO) au cours des prochains jours. Un porte-parole d’Areva n’a pas été en mesure de préciser jusqu’à quand était reportée cette livraison. Le groupe écologiste Greenpeace a déclaré dans un communiqué de presse que les deux groupes japonais prévoyaient de repousser cette livraison à 2013, au plus tôt.

Le nucléaire… en Inde

L’Inde veut commercialiser des réacteurs à eau lourde et investit dans des mines d’uranium à l’étranger 

La Nuclear Power Corporation of India Limited est désormais prête a commercialiser des réacteurs à eau lourde pressurisée (PHWR) de capacités allant de 220 MWe à 540 Mwe. Selon Srikumar Banerjee, Directeur de l’Atomic Energy Commission (AEC), ces réacteurs, qui utilisent comme carburant de l’uranium naturel et l’eau lourde en tant que modérateur et liquide de refroidissement, représentent des alternatives intéressantes pour les pays désirants mettre en place des réacteurs de taille petite et moyenne à coût limité.

Le Dr. Banerjee a annoncé que quatre réacteurs à eau lourde pressurisée développés par l’Inde sont actuellement en cours de mise en place. La production électrique totale des 19 réacteurs actuellement mis en place est de 4 560 MW. Selon lui, deux réacteurs d’une puissance de 1000 MWe dans le Tamil Nadu développés avec la Russie sont actuellement en cours de finalisation. Le prototype de réacteur reproducteur rapide de Kalpakkam d’une puissance de 500 Mwe est lui à un stade avancé de construction. Le Dr. Banerjee a aussi annoncé que l’Inde allait renforcer ses capacités d’enrichissement d’uranium déjà bien implantées et mettre en place une structure de retraitement des déchets radioactifs.

Aussi, on a appris que l’Inde prévoit d’acheter des mines d’uranium à l’étranger afin d’alimenter ses réacteurs. Pour se faire, le Ministre à la Science et la Technologie, Prithviraj Chavan prévoit de créer une entreprise sur le modèle de l’ONGC Videsh (International Petroleum Company of India). Selon lui, il faudra encore du temps avant que l’Inde puisse entrer dans la phase 3 de son programme nucléaire imaginé par Homi Bhabha, considéré comme père du programme nucléaire indien. L’Inde ne peut encore utiliser du thorium dans ses réacteurs avant d’avoir des réserves de plutonium suffisantes. L’Inde possède de vastes réserves de thorium qui lui permettront d’assurer sa sécurité énergétique. Le ministre a annoncé la mise au point d’un réacteur a combustible métallique d’un puissance de 1000-MW d’ici 2022. En attendant, elle doit continuer à importer des réacteurs étrangers afin de subvenir à ses besoins en plutonium.

Zoom sur… l’Inde

L’Inde doit s’intéresser aux biocarburants de seconde génération

La production durable de biocarburants et les technologies de production de biocarburants de seconde génération devraient permettre à l’Inde d’atteindre les objectifs de développement écologique qu’elle s’est fixé. Selon le rapport de l’IISc (Indian Institute of Science) , l’Inde doit minimiser les effets indésirables de la production de biocarburants et développer des synergies afin de favoriser la reconquête des terres agricoles dégradées, l’amélioration des conditions de vie en milieu rural et la promotion de l’indépendance énergétique.

Les biocarburants de première génération étaient produits à partir de récoltes de sucre de canne de céréales et de végétaux. Les biocarburants de seconde génération sont eux produits grâce à la biomasse, aux végétaux et aux déchets agricoles. L’Inde importe les trois quarts du pétrole qu’elle consomme, soit environ 56 millions de mètres cubes en 2007. Selon l’IEA (International Energy Agency), d’ici à 2030, l’Inde sera le troisième plus gros importateur au monde avec une consommation estimée à 6 millions de barils par jour.

En 2009, l’Inde a annoncé un plan national pour les biocarburants dont l’objectif est de remplacer 20 % des énergies fossiles consommées par des biocarburants produits à partir de semences non comestibles. Le plan national assure aussi la promotion de la production de biocarburants en favorisant par exemple les opérations de plantation de jatropha dans les zones inadaptées aux pratiques agricoles.

Le centre de R&D Renault Nissan lance un programme de recherche sur les batteries Lithium en Inde

Renault Nissan Technology et le Business Centre India Pvt Ltd ont commencé leur travail de recherche sur les batteries. Le Centre, hébergé à proximité de Chennai au Mahindra World City Industrial Zone, va travailler sur la mise au point de batteries lithium selon les propos de Mr Haruyoshi Kumura, Directeur de la Fondation Scientifique Nissan.

Le centre collabore déjà avec Nissan et Renault dans des domaines variés allant jusqu’à la R&D. Ce centre emploie 1 500 personnes travaillant principalement dans trois domaines, l’ingénierie numérique, l’électronique, et la recherche. Le travail réalisé dans ce centre de R&D est employé dans toutes les filiales mondiales de Renault Nissan. Mr Kumura était à Chennai dans le but de signer deux MoU (accords cadres) avec l’IIT Madras ; l’un destiné à ouvrir la voie à un plan de soutien de la recherche, l’autre concernant la Nissan Foundation Scholar grâce à laquelle des élèves sélectionnés se verront invités à suivre un stage au siège de Nissan Japon.

Le gouvernement indien assure la promotion des véhicules hybrides

Le gouvernement indien va mettre en place un nouvel organisme doté d’un budget de 2 milliards de roupies, soit 33,2 millions d’euros afin d’assurer la promotion des technologies écologiques durables pour les véhicules hybrides et électriques. Le National Electric Mobility Mission tentera d’améliorer le taux de pénétration des véhicules hybrides et électriques sur le marché automobile et deux roues indien, largement dominé par les véhicules à combustible fossile, ce qui permettrait par la même occasion d’améliorer la qualité de l’air des villes indiennes.

Selon Ambuj Sharma secrétaire au Ministre des Industrie Lourdes, de nombreuses alternatives sont déjà disponibles sur le marché indien mais le manque d’infrastructures spécifiques (point de charge) et le surcoût à l’achat des véhicules hybrides nuisent à leur développement en Inde malgré des politiques d’incitation fiscale.

L’industrie des deux roues électriques compte en Inde plus de 36 acteurs avec une capacité de production d’1 million d’unités par an. Toutefois, les ventes annuelle ne s’élèvent pas à plus de 100 000 unités. L’entreprise Mahindra Reva Electric Vehicles, basée à Bangalore, a uniquement vendu quelques centaines d’unités sur le marché indien mais les véhicules hybrides ont un coût d’achat deux fois plus important que les véhicules traditionnels. Toyota et Honda qui ont tenté de diffuser leurs modèles sur le marché indien ont difficilement vendu une centaine d’unités. La mission National Electric Mobility rassemblera des représentants de différents ministères allant des Routes au Ministère à la Science et à la Technologie, afin d’apporter une réponse globale et transversale aux problèmes de développement du marché des véhicules respectueux de l’environnement.

Les piles à combustibles du futur mises au point en Inde

Les piles à combustibles convertissent l’énergie chimique d’une oxydation entre un combustible réducteur et une électrode, en énergie électrique. De nombreuses recherches sont menées sans réelles avancées. La venue d’une délégation anglaise à Chennai dans le but de développer un programme de recherche conjoint a cependant relancé le débat en Inde.

Chennai héberge le Centre for Fuel Cell Technology, centre autonome de R&D du Department of Science and Technology. De nombreux groupes de recherches couvrant divers aspects des technologies liées aux piles à combustibles sont représentés au sein de l’IIT Madras. Jason Green, Directeur de l’UK Energy Programme Engineering and Physical Sciences Research Council (EPSRC) a annoncé, en collaboration avec le DST, un appel à projet à hauteur de 7 millions d’euros. Le marché des générateurs diesel alimentant les antennes relais téléphonique représentent en Inde un marché de 1,4 milliards d’euros par an, l’efficacité énergétique étant une priorité. Murali Arikara, Vice Président exécutif d’ Emerging Markets, Intelligent Energy U.K., a annoncé que quelques installations avaient été mises en place afin d’étudier les potentialités de ce marché.

Selon David Book, chercheur de l’Université de Birmingham, l’Inde, les États-Unis et le Royaume Uni sont les premiers pays, en ce qui concerne le nombre de publications dans le domaine des piles à combustible. Mais l’une des principales difficultés liées au développement à grande échelle de ce type de technologie reste le coût. Une voiture équipée d’une pile à combustible à base d’hydrogène coûterait 10 fois plus qu’une voiture traditionnelle.

Les scientifiques doivent maintenant se concentrer sur l’étude de nouveaux oxydants qui permettraient de développer des piles à combustible à moindre coût.

Sources : Bulletins électroniques, CNRS, LeMonde.fr, Ademe

Une cagoule physio-communicante au service des professions à risques

Deux des alpinistes français qui ont réalisé récemment l’ascension par la face nord de l’Aconcagua qui culmine à 6 962m, en Argentine, étaient équipés d’une cagoule à l’intérieur de laquelle des capteurs communicants mesuraient à la fois les évolutions de leurs fréquences cardiaques, leurs taux d’oxymétrie, la température dans la cagoule et leur température de peau durant l’ascension. Ces données physiologiques étaient transmises en temps réel à Nîmes où elles étaient analysées.

Pour la  cagoule équipée d’un boîtier télémétrique APPI  (Active Protection Personal Instrument ou Instrument personnel de protection active), ce fût le baptême du froid. A partir de 6 000 m d’altitude, les températures sont, en effet,  proches des -30°C et les vents, souvent très violents, rendent le milieu totalement inhospitalier pour l’homme. Toutefois cette aventure sportive et technologique a permis de prouver qu’il devenait possible de suivre à distance, à partir de bureaux situés en France, la physiologie d’alpinistes lors de leur ascension. Mais ce n’est qu’un début puisqu’une deuxième expédition est prévue pour mai 2012, à l’Everest (8 848 mètres).

Cette cagoule physio-communicante mise au point par BodySens, une société née dans Innov’Up, l’incubateur de l’Ecole des Mines d’Alès, si elle a fait ses preuves en milieu extrême, elle a, en fait, été développée pour renforcer la sécurité des professionnels travaillant en milieux confinés ou  à risques (nucléaire, pétrochimie…). Les premiers concernés sont les pompiers exposés quotidiennement à la chaleur, aux flammes, aux fumées toxiques, éboulis… L’un des problèmes fréquemment rencontré par ces professionnels est la détection de situation à risque lors des opérations. Un suivi en temps réel de leur état physiologique permet d’anticiper les problèmes et donc de garantir une meilleure sécurité. Aujourd’hui, c’est possible grâce au module APPI qui permet, en suivant la physiologie de ces professionnels, de prévenir le dépassement des limites d’engagement, de savoir en temps réel si la personne se met en danger et d’intervenir avant que l’accident ne survienne.

Des applications potentielles dans les domaines de la santé et du sport

De même, dans les centres de formation de la sécurité civile ou militaire, les instructeurs qui ont fréquemment des difficultés à faire admettre aux stagiaires que le corps humain a des limites, peuvent mesurer puis montrer aux stagiaires les contraintes physiologiques subies lors des opérations. Cela permet une meilleure prise de conscience de ses propres limites, une éventuelle prévention des accidents lors des exercices et une amélioration des processus opérationnels en fonction des paramètres mesurés.

Dotée de différents capteurs amovibles (mesure de la fréquence cardiaque, du taux d’oxymétrie, de températures, détection de mouvement, localisation par GPS…), d’une batterie et d’une centrale, la cagoule de BodySens transmet par radio (1GHz) les données à une station qui peut être distante de plusieurs centaines de mètres, elle-même reliée à un micro-ordinateur où les paramètres recueillis sont affichés en temps réel. Des alarmes peuvent même être déclenchées.

Cette innovation brevetée connaîtra d’autres applications, dans la santé notamment (télé-monitoring et mesures à distance des constantes physiologiques des personnes isolées) mais pourrait aussi équiper les sportifs et randonneurs car le système APPI peut être intégré à une casquette ou un bandeau..

BodySens qui va produire ces capteurs communicants à l’échelle industrielle, a été fondée fin 2009, après avoir passé 2 ans à l’incubateur de l’Ecole des Mines d’Ales dont l’aide a été déterminante, notamment en matière de prototypage électronique et mécanique ainsi que de soutien logistique.

 

M.C.
 

News Informatique / Electronique / Télécoms de mars

La situation, après le séisme du 11 mars dernier près de la centrale de Fukushima, est toujours incertaine : les réacteurs n° 2 et 3 focalisent l’attention et les inquiétudes ; Les réacteurs 5 et 6 sont sous tension ; des vérifications sont en cours pour les réacteurs 1 et 2 ; le réacteur 4 a été relié ; une alimentation externe assure l’électricité dans la salle de contrôle du réacteur 3.

Ainsi, l’électricité a en partie été rétablie dans la salle de contrôle du réacteur 3 de la centrale, affirmait mardi soir (heure locale) la chaîne de télévision publique NHK. Il s’agit de la première salle de contrôle à être partiellement remise sous tension grâce à une alimentation externe, a précisé par la suite l’agence de presse Jiji. Selon le point matinal de l’Agence de sûreté nucléaire du mardi 22 mars 2011, « les masses d’air très faiblement contaminées, avec des niveaux de l’ordre de 1 000 à 10 000 fois inférieurs à ceux relevés suite à l’accident de Tchernobyl, ont atteint mercredi (23 mars) la France métropolitaine sans aucune conséquence sur la santé des personnes. »

Le rétablissement du réseau électrique de la centrale est un enjeu majeur, puisque c’est le premier pas vers le rétablissement des circuits de refroidissement (en supposant que ces derniers soient en état de marche).

Selon Tepco, les mesures prises le matin du dimanche 27 mars étaient si inquiétantes que l’employé qui en était chargé a pris la fuite sans même une contre-vérification. Il a ainsi déclenché l’évacuation immédiate de ses collègues. Mais l’après-midi même, les opérateurs ont expliqué que si l’eau était bien effectivement contaminée, les niveaux extrêmement hauts annoncés étaient inexacts. “Ce chiffre n’est pas crédible”, a déclaré le porte-parole de Tokyo Electric Power Co, Takashi Kurita, en présentant les excuses de la compagnie d’électricité.

En revanche, l’annonce d’un taux mesuré de “1 000 millisieverts par heure” dans l’eau retrouvée au sous-sol de la salle de la turbine est exact, a assuré Tepco. Le vice-président de Tepco, Sakae Muto, a expliqué que des éléments radioactifs avaient été confondus au cours d’analyses sur les échantillons prélevés dans la nappe, a rapporté l’agence de presse Jiji : “Il s’est produit une confusion entre l’iode 134 et le cobalt 56”. La volte-face de Tepco est intervenue après que la Commission de sûreté nucléaire du Japon, a demandé à l’exploitant de Fukushima de revoir ses calculs.

Fukushima: le Japon décline l’offre française de robots spécialisés

Le 21 mars dernier, les autorités japonaises ont décliné l’offre française d’envoi de robots spécialisés pour intervenir dans la centrale nucléaire accidentée de Fukushima, jugeant ces engins « inadaptés » à la situation, a indiqué lundi l’Autorité de sûreté nucléaire française (ASN). L’AFP a recueilli le témoignage du président de l’ASN, André-Claude Lacoste : « Jusqu’à présent, les demandes japonaises d’aide ont été extrêmement réduites. Par exemple, le Japon n’a pas donné suite à l’offre d’aide française d’envoyer des robots, en disant que les robots étaient inadaptés ».

EDF avait annoncé auparavant l’envoi sur place de robots pilotés à distance capables d’intervenir à la place de l’homme en cas d’accident nucléaire. Ces matériels du Groupement d’Intérêt Économique d’INTervention Robotique sur les Accidents nucléaires (GIE INTRA) sont capables d’évoluer en milieu irradiant, en intérieur comme en extérieur, et de réaliser des travaux publics sur site (pelle mécanique, bulldozer) ou des gestes techniques complexes, comme la récupération de débris, du balisage ou des prélèvements, selon EDF. Mais ce n’est pas tout. Ces robots peuvent également enregistrer des vidéos et les transmettre. Après l’accident nucléaire de Tchernobyl en 1986, la France est le seul pays à « avoir conçu et réalisé la flotte d’engins spécialisés dans les situations extrêmes et à former le personnel capable de les utiliser », affirmait l’électricien français dans un communiqué de presse.

Gros plan sur le Japon

Des robots pour la vidéoconférence

NEC, un des géants mondiaux de l’électronique et des télécommunications, a développé une nouvelle méthode de vidéoconférence utilisant son robot PaPeRo en tant qu’intermédiaire de discussion. Les recherches concernant l’utilisation d’un robot piloté à longue distance sont assez courantes, mais celles spécifiquement destinées à de simples réunions sont plutôt rares.

Les systèmes de vidéoconférence actuels se limitent pour la plupart à une caméra, un microphone et un écran. Néanmoins, NEC a souhaité améliorer ces dispositifs et gommer certains défauts inhérents à leur utilisation. Par exemple, un simple écran ne permet pas de transmettre certains éléments habituellement perceptibles lors d’une réunion physique. Notamment, les attitudes non verbales ainsi que la sensation des participants de se trouver dans le même espace physique que leur interlocuteur sont totalement absentes des visioconférences. L’accent est donc mis principalement sur le contenu de la discussion.

Dans le système développé par NEC, le robot PaPeRo dispose sur sa tête d’une caméra dont l’angle de vue change en fonction des mouvements du robot, comme dans le cas d’un être humain. Le robot fait partie de l’environnement physique d’une réunion : il peut hocher la tête et garder un contact oculaire avec un interlocuteur grâce à son aptitude à différencier les êtres humains. Selon NEC, les expériences réalisées utilisant ce prototype se sont révélées satisfaisantes, les vidéoconférences utilisant ce système étant « plus faciles à suivre » et permettant de dialoguer « plus naturellement ».

Actuellement, l’utilisateur distant peut piloter le robot depuis son ordinateur. Dans le futur, les réseaux mobiles ultra-rapides LTE (Long Term Evolution) permettront à l’utilisateur de commander le robot depuis un téléphone portable, rendant l’utilisation du système possible à n’importe quel endroit. NEC compte d’abord peaufiner les fonctions de vidéoconférence du robot avant de commercialiser le système complet.

Le Japon mise aussi sur les nanotechnologies

Une équipe de chercheurs de l’Université de Nagoya (Japon), en collaboration avec une équipe de chercheurs de l’Université d’Aalto (Finlande), a réussi à fabriquer sur un substrat plastique un circuit imprimé en nanotubes de carbone.

Le développement de circuits imprimés souples suscite un grand intérêt de la part des industriels, notamment pour la fabrication de papier électronique. Plusieurs techniques visant à fabriquer des TFT (transistors à couches minces) souples existent à ce jour. L’une consiste à utiliser des semi-conducteurs en silicium ou en oxyde de zinc, mais les procédés de fabrication sont complexes (traitement thermique, procédé sous vide). L’utilisation de matériaux organiques est également à l’étude mais ces derniers présentent encore une faible mobilité des électrons. Une autre solution très prometteuse est l’emploi de nanotubes de carbone, connus pour leur haute mobilité des électrons.

Jusqu’à présent, les scientifiques pouvaient produire des transistors avec des nanotubes de carbone par une méthode d’enrobage, à partir d’une solution liquide de nanotubes. Il est néanmoins difficile, selon les chercheurs, d’obtenir par cette méthode de fines couches uniformes. De plus, il est difficile de se débarrasser entièrement du solvant.

L’équipe nippo-finlandaise a donc développé un nouveau procédé de fabrication de nanotubes de carbone par dépôt chimique en phase vapeur. Ceux-ci sont ensuites filtrés puis transposés sur le substrat plastique. Cette technique permet d’obtenir des couches uniformes et pures (sans solvant). De plus, elle peut être utilisée dans un procédé roll-to-roll, une méthode rapide et économique d’impression de circuits électriques sur un substrat flexible, qui consiste à déposer un circuit électrique sur un substrat enroulé sous forme de bobine que l’on déroule au fur et à mesure de l’opération.

Les transistors obtenus par cette méthode présentent de meilleures caractéristiques que ceux obtenus par la méthode par enrobage. Ainsi, dans le procédé habituel par enrobage, les nanotubes de carbone sont dispersés par ultrason, ce qui a tendance à réduire leur taille. De plus, la présence du solvant augmente la résistance électrique au niveau des connections entre les nanotubes. La mobilité des électrons dans les TFT obtenus s’en retrouve réduite (1 cm2/V.s). Avec la nouvelle méthode, les nanotubes de carbone, purs, conservent une taille plus longue. Les chercheurs ont ainsi obtenus une mobilité de 35 cm2/V.s. De même, les transistors se caractérisent par un rapport Ion/Ioff  plus élevé (6.10^6) que le rapport des transistors fabriqués en utilisant la méthode précédente (10^4 à 10^5).

La réalité augmentée dans les entreprises japonaises

La société japonaise NS Solutions Corporation et la société américaine Vuzix Corporation ont co-développé une solution de réalité augmentée destinée au travail en entreprise. Le but de cette solution est d’être capable de transmettre des informations sur des procédés de fabrication à un nouvel employé plus efficacement que l’actuel processus de formation. En effet, tout employé doit être formé à son nouveau poste et, compte-tenu du manque à venir de personnel très expérimenté, le remplacement du personnel formateur par des méthodes électroniques d’apprentissage est envisagé.

L’idée de NS Solutions est donc de créer une méthode de formation simple utilisant la réalité augmentée et permettant de guider les nouveaux employés dans leurs nouvelles tâches. Par exemple, un ouvrier pourrait apprendre de lui-même son nouveau métier, directement à son poste de travail, grâce aux indications données par le logiciel de réalité augmentée et sans l’aide d’une autre personne.

NS Solutions a fait appel à Vuzix, un fabricant américain de lunettes vidéos et de réalité augmentée, pour mettre en place son idée. Les lunettes utilisées (nom de code : Raptyr) ont obtenu le Prix de l’Innovation 2011 du CES (Consumers Electronics Show) car malgré leur apparence de simples lunettes de soleil, elles intègrent un projecteur d’images holographiques miniature, capable d’ajouter des images par superposition dans le champ visuel de l’utilisateur. Ces lunettes sont les premières au monde, dans le cadre d’applications de réalité augmentée, à utiliser un système de transmission optique (c’est-à-dire capable de rajouter par superposition des objets graphiques à la vue réelle, en opposition aux systèmes à transmission vidéo, qui bloquent le champ de vision de l’utilisateur et le remplacent par l’utilisation d’un signal vidéo). La luminance de l’image superposée est de 240 cd/m2, ce qui est suffisant pour une utilisation dans une pièce normalement éclairée. Néanmoins, une fonction permettant de bloquer électroniquement une partie de la lumière est également disponible pour une utilisation dans des endroits plus lumineux (par exemple, en lumière naturelle). La résolution des images est de 800 x 600 pixels pour chaque oeil (les images pouvant être combinées pour réaliser des superpositions en 3D).

Il est pour l’instant nécessaire que les lunettes soient connectées à un serveur, ce qui suppose qu’elles soit physiquement reliées (par un câble USB) à un ordinateur situé dans un sac à dos porté par l’utilisateur. Les lunettes intègrent une caméra, et les objets, personnes ou images peuvent être utilisés par les lunettes pour l’ajout de contenu graphique en temps réel. La reconnaissance et le suivi des objets sont réalisés, d’après Nikkei Electronics, par l’utilisation d’un logiciel de la société française Total Immersion, spécialisée dans les applications de réalité augmentée.

Sources : Ademe, CEA, ASN, LeMonde.fr, Bulletins électroniques, Les Echos