La seule menace sérieuse pour l’homme est l’homme lui-même

Homo homini lupus est. L’étude des scientifiques britanniques de l’Institut Future of humanity donne raison à cet adage.

Parmi les multiples dangers auxquels l’espèce humaine est et sera confrontée, ceux qui pourraient conduire à notre extinction sont liés à nos avancées scientifiques.

Tout d’abord, nos progrès dans le domaine de la robotique et de l’intelligence artificielle pourraient conduire à la création d’un être totalement artificiel mais doué de pensées, capable de raisonner et donc de supplanter l’homme.

Les nanotechnologies pourraient devenir les armes de demain tandis que les manipulations génétiques de nos aliments restent une énigme en termes de conséquences. Car c’est bien là le plus gros du problème.

Les travaux publiés fin mars dans Global Policy mettent en garde contre des progrès scientifiques mal contrôlés.

Comme le disait si bien Einstein, « Le progrès technique est comme une hâche qu’on aurait mis dans les mains d’un psychopathe ». ..Quid de la nature ? Rien à craindre de ce côté-là.

Nous subirons bien quelques tsunamis, ouragans, éruptions volcaniques et tornades, mais rien qui ne fasse suffisamment de dégâts pour anéantir la race humaine.

Il restera toujours assez d’hommes et de femmes pour repeupler la Terre. Ouf, nous voilà rassurés.

Dernier écueil qui sera difficile à éviter mais aux conséquences potentiellement dramatiques : l’informatique.

Le développement des logiciels, d’Internet, des puissances de calcul, donnent un pouvoir grandissant aux algorithmes à l’image de ceux utilisés en Bourse.

Un pouvoir qui va encore s’accroître du fait de progrès technologiques fulgurants en micro et nanotechnologies qui permettront de fabriquer des ordinateurs toujours plus puissants, toujours plus rapides.

Pour les chercheurs d’Oxford c’est sûr, le soulèvement des machines est proche…

Par Audrey Loubens, journaliste scientifique

Une ancienne mine transformée en lacs stockeurs d’énergie

Véritable batterie gravitaire dont la durée de vie, contrairement aux batteries électrochimiques, sera supérieure au siècle, la STEP de Marmora permettra de stocker ou de restituer 400 MW pendant 5 heures. Ceci avec une efficacité énergétique supérieure à 80% sur un cycle complet de pompage-turbinage, soit deux fois mieux qu’avec les systèmes de stockage à base d’hydrogène ou d’air comprimé. Quand le réseau électrique manque d’électricité, l’eau du bassin haut s’écoule vers le bassin bas en entrainant une turbine comme dans une centrale hydroélectrique classique. A l’inverse, pendant les périodes de surplus d’électricité, l’eau est pompée du bassin inférieur vers le bassin supérieur.

La mine de Marmona est actuellement constituée d’un grand bassin creusé dans le sol et de massifs de terre formant de petites collines hétéroclites. Le dénivelé de 200 mètres qui en résulte, soit 4 fois la hauteur des chutes du Niagara, permet d’effectuer du stockage gravitaire à un coût attractif étant donné que le bassin inférieur est déjà creusé, et que la terre nécessaire pour construire les digues du bassin supérieur est disponible sur place. Cerise sur le gâteau, des lignes à haute tension sont déjà en place à seulement 8 kilomètres du site minier, ce qui limite les frais de raccordement.

Intégration des énergies renouvelables et amélioration du paysage

Ce projet constitue un exemple de restauration écologique faisant d’une pierre deux coups. Non seulement il permettra d’augmenter l’intégration de l’éolien ou du solaire photovoltaïque dans le mix électrique, mais il améliore en outre la qualité paysagère en transformant une mine désaffectée en deux beaux lacs couleur émeraude.

Pendant la phase de construction, 800 emplois seront créés. Pour la maintenance de la centrale, 45 emplois permanents seront ensuite nécessaires. Un projet d’éco-tourisme éducatif générateur d’emplois est également en gestation, visant à expliquer aux visiteurs comment un site industriel abandonné a pu être valorisé en zone humide attirant les oiseaux, et pourquoi les centrales de stockage de l’énergie sont utiles pour intégrer de hauts niveaux d’énergies renouvelables fluctuantes. Une piste de Vélo Tout Terrain, convertie en piste de ski de fond l’hiver, sera également installée autour des lacs artificiels.

En savoir plus


La STEP de Marmora, dont le montant d’investissement s’élève à environ 530 millions d’euros, pourrait entrer en service dès 2016. Le projet, porté par l’électricien Northland Power basé à Toronto, est fortement soutenu par les 13 municipalités du conté local, les institutions éducatives, les associations écologistes et les représentants de l’économie locale. Il est également salué par les responsables de la gestion du réseau électrique. La province de l’Ontario a comme objectif de multiplier par 5 sa puissance éolienne installée actuelle pour la porter à 7800 MW dès 2018.

Par Olivier Daniélo

Mars One, le nouveau Big Brother martien

Ils sont fous ces hollandais. C’est dans un esprit dopé au gouda qu’a germé l’idée d’un programme télé ahurissant baptisé « Mars One ».

Bas Lansdorp, à l’origine de cette trouvaille, y pense depuis plus de deux ans, et les conditions de vie plutôt hostiles de Mars n’entament en rien sa volonté d’y faire survivre des humains, sous les yeux passionnés de millions de terriens.

Bas Lansdorp a tout prévu. Dès 2018 commenceront les lancements des différents modules utiles comme des modules habitables, deux rovers ou encore deux modules de support vie. Les installations et le matériel déjà sur place permettront d’assurer la production d’eau, d’oxygène mais aussi d’énergie.  Cette mini base devra être prête pour 2023, date prévu de l’amarissage des quatre participants.

Irréaliste ? Ce n’est pas ce que pensent deux autres hollandais. Gérard Blaauw, président de la Société spatiale néerlandaise, et Gerard’t Hoofd, Prix Nobel de physique en 1999, se portent caution de la faisabilité du projet.

Mais n’est pas John Carter qui veut ! Ces premiers colons arriveront sur Mars sans  solution de retour. A eux de prendre possession de leur nouveau territoire et d’en tirer un maximum de ressources. Leur objectif ultime étant de fabriquer suffisamment de carburant pour espérer rentrer sur Terre. Un défi plutôt motivant…

Tenté ? Inscrivez-vous sur le site de Mars One : http://applicants.mars-one.com/

Teaser :

Par Audrey Loubens, journaliste scientifique

La densification, solution miracle pour financer la rénovation énergétique ?

Un nouveau mode de financement de la rénovation énergétique a été identifié par le rapport « Les financements innovants de l’efficacité énergétique », piloté par Olivier Ortega et Inès Reinman et remis à Philippe Pelletier, Président du Plan Bâtiment durable le 18 février dernier. Il s’agit d’améliorer la densification des bâtiments. 

L’idée est d’obtenir des dérogations au code de l’urbanisme pour densifier horizontalement ou verticalement. Concrètement, la densification verticale consiste à surélever un immeuble et la densification horizontale à valoriser une partie du terrain d’une maison individuelle en tant que nouvelle parcelle constructible.

Contrairement à ce que l’on pourrait penser, les nuisances liées à la réalisation des travaux sont souvent très limitées. Les travaux de surélévation de bâtiments habités se font en ateliers, puis les modules sont installés rapidement, en quelques semaines au maximum.

Des avantages économiques, mais de nombreux obstacles

Les dérogations au code de l’urbanisme seraient conditionnées au fait que le produit de la vente soit affecté à la rénovation énergétique du bâtiment lui-même. « C’est une piste très intéressante qui permet sans que cela coûte à l’Etat, sans que cela coûte aux collectivités locales et sans que cela coûte aux propriétaires du bâtiment […] de financer toute la mise à niveau énergétique du bâtiment sans avoir à débourser d’argent », note Olivier Ortega.

Toutefois, plusieurs difficultés juridiques restent à résoudre. Il faudra également passer outre les visions traditionnelles selon lesquelles ces travaux atteindraient au paysage urbain, notamment dans les grandes villes historiques. Dans les copropriétés, le droit de veto du copropriétaire du dernier étage promet des débats houleux. 

La densification devra se faire intelligemment et favoriser les zones fortement desservies par des transports en commun réguliers. Au-delà du financement de la rénovation énergétique et face à la croissance démographique, les projets de densification présentent un intérêt dans la lutte contre l’étalement urbain. Ils permettraient la création de nouveaux logements dans certaines zones urbaines qui en manquent cruellement.

Par Matthieu Combe, journaliste scientifique

 

Découvrez les formations Techniques de l’Ingénieur :

3 idées reçues sur la performance énergétique des nouveaux bâtiments

L’enquête de terrain a eu lieu auprès des habitants et professionnels de 3 Bâtiments Basse Consommation (BBC) pionniers occupés depuis plus de 2 ans.

Les 3 bâtiments concernés par l’étude sont les 43 logements HQE de la ZAC De Bonne à Grenoble, les 31 maisons de ville de Hauts de Feuilly à St Priest et les bureaux et salles de formations de la Cité de l’environnement également à St Priest.

Gaëtan Brisepierre, sociologique sur les questions d’énergie et auteur de cette étude intitulée « Les conditions sociales et organisationnelles d’une performance énergétique in vivo dans les bâtiments neufs » veut déconstruire 3 idées reçues liées au BBC : « la performance énergétique se joue à la conception, les habitants sont responsables des surconsommations et il faut éduquer les habitants aux bons gestes du BBC ».

En réalité, pour lui, la performance énergétique doit se jouer « in vivo » en prenant en compte la réalité des habitants et non pas « in vitro » en ne prenant en compte que la technique.

Accompagner les habitants, mais pas que !

Les habitants disent ne pas avoir été accompagnés dans l’appropriation du « savoir vivre en BBC ». En effet, les professionnels ne se sentent pas concernés et l’accompagnement se limite souvent à un simple « livret d’accueil ».

« La réussite de l’appropriation d’un BBC dépend de la façon dont on implique les occupants vis-à-vis du bâtiment, soit comme de simples utilisateurs passifs ou alors comme de véritables acteurs de la performance énergétique », affirme Gaëtan Brisepierre. L’ensemble des acteurs de l’habitat doit s’impliquer depuis la conception, jusqu’à la réalisation, la livraison et la gestion de la maintenance. 

Des défaillances ont été soulevées dans le contrôle des chantiers.

Il apparaît alors nécessaire d’avoir un tiers de contrôle au moment du chantier, de sa mise en service et de sa livraison. L’encrassement des filtres de ventilation à l’intérieur des logements n’a pas non plus été prévu par les exploitants et il n’existe donc pas de contrats de maintenance.

« La contrainte réglementaire des 50 kWh/m2/an pourrait être complétée par des dispositifs incitatifs à la performance in vivo et financer des actions qui réduisent les surconsommations comme le contrôle du chantier par un tiers, un vrai accompagnement des habitants dans la durée, des campagnes de mesures, des systèmes de suivi, l’optimisation des réglages, la formation à la maintenance, etc. », résume Gaëtan Brisepierre.

Comment faire face au froid ou à la chaleur ?

Les habitants ne se comportent bien évidemment pas dans leur logement de la façon dont l’avaient prévu les bureaux d’étude. En chauffage collectif, les marges de manœuvre concernant le réglage du chauffage sont très relatives. Le confort devient un « processus d’accommodation ». On voit se développer une nouvelle forme de confort avec des habitants qui n’augmentent plus le chauffage à chaque sensation de froid, mais mettent plutôt des pulls. En revanche, certains habitants ont utilisé des convecteurs électriques pour compenser la sensation de froid !

L’engagement des occupants dans la gestion du chauffage doit permettre d’améliorer progressivement le confort. Suite à l’insatisfaction des habitants, la température de chauffe a été augmentée de 1 à 2°C à certaines périodes, celle-ci ayant été fixée à 19°C par les concepteurs.

Lorsqu’on consomme 50 kWh/m2/an au lieu de 350 kWh/m2/an, même si une température de chauffe augmentée de 1°C, c’est 15 % de consommation en plus, la hausse de consommation reste relative. Et cela a permis d’améliorer le confort et le recours aux convecteurs ! C’est pourquoi, Gaëtan Brisepierre insiste sur cette idée de performance énergétique « in vivo ».

L’été, le pari semble réussi avec un confort presque entièrement « passif » sans climatisation. Toutefois,  là encore, on observe des pratiques contrastées sur le plan énergétique. Notamment aux Hauts de Feuilly, certains habitants ont installé des piscines dans leur jardin. « Même si elles ne sont pas chauffées, leurs pompes consomment parfois l’équivalent de ce que consomme la maison passive », note le sociologue.

Quelle est la consommation électrique ?

Dans un BBC, les besoins de chauffage sont réduits au maximum. La consommation électrique est donc avant tout liée à l’électroménager, à l’éclairage et aux produits électriques et électroniques. Au niveau de l’éclairage, les ampoules basse consommation ne sont pourtant pas systématiques. Les promoteurs, les cuisinistes ou les habitants préfèrent parfois, par exemple, placer des spots halogènes.

Les habitants des BBC n’échappent pas à la norme du double équipement : il est normal pour eux également d’avoir deux TV, deux ordinateurs, etc.

« Ces consommations liées à l’électronique domestique paraissent totalement déconnectées du reste des efforts faits dans les autres domaines, par des habitants qui peuvent être vraiment très attentifs aux questions d’économies d’énergie sur le chauffage, l’eau chaude, l’électroménager », relève le sociologue.

Par Matthieu Combe, journaliste scientifique

 

Découvrez les formations Techniques de l’Ingénieur :

La production des écrans flexibles de Samsung prend du retard

Présenté en grandes pompes à la grand messe High Tech des CES en janvier, le tout nouvel écran flexible en OLED du géant coréen devait être commercialisé fin 2013/début 2014.

Une démonstration très appréciée puisque la possibilité d’enrouler tout ou partie de l’écran ouvre de nouvelles perspectives d’usage comme transformer son smartphone en tablette.

Malheureusement, d’après ETNews, Samsung peine à maîtriser le process d’encapsulation, vital pour des écrans OLED très sensibles à l’humidité.

Basé sur une technologie développée par la société américaine Vitex System, le process se révèle finalement trop long à mettre en œuvre pour une production de masse.

Samsung déclare avoir optimisé la technologie Vitex dont le processus ne devrait pas excéder deux minutes.

En parallèle, le Coréen étudie aussi d’autres technologies alternatives. Cet aléa repousse donc la commercialisation des premiers écrans flexibles Samsung à 2014 minimum.

Un coup dur puisque de son côté, LG continue à avancer et vient tout juste d’annoncer l’intégration d’écrans flexibles dans ses smartphones dès cette année, au quatrième trimestre. Youm pla boum !

Par Audrey Loubens, journaliste scientifique

 

Formation : réussir l’amélioration énergétique d’un bâtiment existant

La formation « Réussir l’amélioration énergétique d’un bâtiment existant », proposée par les éditions Techniques de l’Ingénieur, revient sur l’ensemble des éléments à prendre en compte pour l’amélioration énergétique des bâtiments : diagnostic, choix des solutions techniques, estimation des coûts : maîtriser l’ensemble du projet !

Sommaire :

  • Maitriser la RTex, réglementation thermique de l’existant
  • Evaluer l’efficacité énergétique d’un bâtiment existant par l’audit énergétique
  • Sélectionner les solutions techniques d’amélioration énergétique adaptées
  • Identifier les modes de financement et comment les obtenir

Production et montage : Bruno Decottignies

S’y retrouver dans les labels du bâtiment…

tous les bâtiments neufs depuis le 1er janvier 2013 redessine le paysage de ces labels réglementaires.

Les 5 niveaux du label d’Etat « haute performance énergétique » HPE 2005, THPE 2005, HPE EnR 2005, THPE EnR 2005 et BBC 2005, ainsi que le label BBC-Effinergie concernaient la RT 2005 : ils ne sont donc plus délivrables depuis le 31 décembre 2012. Pour la suite, l’Etat a annoncé le 27 novembre 2012 deux niveaux de labels (HPE et THPE) au lieu des cinq niveaux précédents.

En retard, puisqu’ils étaient attendus pour fin mars 2013, les textes devraient être publiés rapidement. « Les nouveaux labels pourraient s’appeler HPE et THPE, comme ils pourraient s’appeler BBC 2012 et BBC+ 2012, il y a encore des discussions avec l’Etat à ce sujet », précise Yann Dervyn, Directeur du Collectif Effinergie.

En l’absence de label d’Etat pour le moment, il n’existe qu’un seul label privé, lancé il y a un an : Effinergie+. Le niveau THPE et le label Effinergie+ sont équivalents, le label Effinergie+ nourrissant les travaux sur le nouveau label, comme le label BBC-Effinergie avait nourri le label BBC-2005.

Le principe de ces nouveaux labels est de renforcer des coefficients utilisés dans le calcul de la consommation énergétique pour la RT2012 : le Bbio qui représente la performance de l’enveloppe du bâtiment et le Cep qui représente la consommation du bâtiment. Ainsi, l’’idée du label Effinergie+ et du futur niveau THPE est de viser une consommation en énergie primaire de 40 kWh/m2/an (contre les 50 kWh/m2/an de la RT 2012) et de renforcer l’étanchéité du bâtiment et des réseaux du bâtiment.

Comme la RT2012 ne s’intéresse qu’à la consommation en énergie primaire liée aux 5 usages que sont le chauffage, le refroidissement, la ventilation et auxiliaires, la production d’eau chaude sanitaire et l’éclairage des locaux, les deux labels vont plus loin. Ils rendent obligatoire une évaluation des autres consommations liées à l’électroménager, à la télévision, à l’informatique, etc. Ils prévoient également un affichage de la production des énergies renouvelables.

Une multitude d’autres labels

Des labels énergétiques monocritères sont proposés par Effinergie, Minergie et Passivhaus. « Il est extrêmement difficile aujourd’hui de les comparer, car ce n’est pas du tout les mêmes modes de calculs et les même modèles économiques. » précise Gérard Senior, architecte, Président du syndicat des architectes de Paris, en charge des politiques techniques. Pour Effinergie, trois labels existent : Effinergie+ neuf, Effinergie rénovation et Bepos Effinergie 2013.

Les labels multicritères mettent l’énergie au milieu d’autres indicateurs d’environnement et de santé. Les principaux sont l’américain LEED, le britannique BREEAM, le français HQE, le japonais Casbee et l’australien Green Star. Plusieurs autres pays développent leurs propres labels nationaux.

Les certifications environnementales se fondent aujourd’hui pour l’essentiel sur des exigences de moyens, mais des dispositifs permettant de mesurer les performances réelles se mettent en place, notamment avec l’Association HQE et son « HQE performance ».

Des certifications étrangères arrivent en France pour certains types de bâtiments tertiaires. « Il s’agit notamment de maîtres d’ouvrage qui ont des renommées internationales ou des visées internationales, des groupes étrangers pour qui les certifications LEED ou Breeam sont incontournables dans leur pays », analyse Gérard Senior.

Par Matthieu Combe, journaliste scientifique

Le BePos questionne nos modes de vie

« Construire des bâtiments BePos à énergie positive, ce n’est pas compliqué : il suffit de réduire drastiquement les consommations et couvrir ses consommations par des énergies renouvelables, et ça coûte à peine plus cher », commente l’architecte Françoise Hélène Jourda. « Ce qui est beaucoup plus compliqué c’est d’intégrer cela dans une démarche de développement durable globale, prendre en compte la qualité renouvelable des matériaux, l’aspect santé, récupérer les eaux de pluies, etc. », poursuit-elle.

Pour les matériaux de construction, il n’y a pas 36 solutions : « Quand on raisonne soutenable ou durable, on essaie d’utiliser des matériaux renouvelables, donc on utilise principalement du bois », insiste-t-elle.

« Le salut viendra de l’innovation », estime quant à elle Elisabeth Pélegrin-Genel, architecte et urbaniste. Les bonnes technologies nous permettront de relever les défis énergétiques. Mais au-delà de la simple innovation technique, il faut changer notre regard sur la ville. 

Du BePos à la ville à énergie positive

En travaillant sur les bâtiments à énergie positive, les architectes découvrent qu’il y a un nouvel optimum à chercher à l’échelle de l’îlot et du quartier, et non pas seulement au niveau du bâtiment.

« Partant du BePos, on soulève la vraie question de l’évolution de nos modes de vie en ville », estime Alain Maugard, Président de Qualibat, organisme de qualification et de certification des entreprises du Bâtiment.

« Trouvons donc l’optimum au niveau du bâtiment, de l’îlot, du quartier, puis de la ville, lance-t-il, car plus l’on change d’échelle et plus la dimension énergétique est réductrice ». « La dimension énergétique doit être le moteur qui fait démarrer la vraie réflexion sur le gaspillage des mètres carrés et voir ce que l’on peut mettre en commun », ajoute Elisabeth Pélegrin-Genel.

Nos trois experts insistent sur le fait qu’il faut réorganiser les mètres carrés, mettre en commun les parkings et les espaces verts au niveau de l’îlot. « On doit retrouver de l’espace collectif public par opposition aux parties privatives de chaque copropriété », affirme Elizabeth Pélegrin-Genel. « Ce n’est pas en tartinant de panneaux photovoltaïques qu’on inventera la ville de demain, c’est en regardant ce que l’on fait dessous », conclut-elle.

Par Matthieu Combe, journaliste scientifique

Préservez et améliorez le parc ancien pour tenir compte des nouvelles contraintes réglementaires, énergétiques et sanitaires

Un bâtiment n’est pas un ensemble totalement inerte. La juxtaposition de matériaux plus ou moins complexes, dans des atmosphères très variables (températures, taux hygrométriques, vents, pluies, etc.) peut donner lieu à des réactions non souhaitées. Faire le bon diagnostic est donc indispensable pour bien cerner les causes de désordres et en maîtriser les effets.

Descriptif

  • Les pathologies par types d’ouvrages (bâtiment, ouvrage d’art) et de structures (béton, bois, métal),
  • Les moyens pour une meilleure maintenance, les solutions de réparation et de réhabilitation disponibles et adaptées à chaque pathologie ou désordre,
  • Les techniques aujourd’hui disponibles pour détruire une construction en tenant compte de son environnement.

En savoir plus

La chimie au service de l’iPad et de l’iPhone

À chaque nouvelle sortie, ces outils modernes désormais bien ancrés dans notre quotidien sont disséqués et révèlent toujours une liste de composants de haute technologie.

Ce sont les véritables stars de nos mobiles. Il est vrai que leur constitution est bien souvent impressionnante…

Écran dernier cri, processeur, configuration, type de mémoire, rien n’est laissé au hasard. Évidemment, cela fait le bonheur des fournisseurs.

Pourtant, c’est bien grâce au travail des chimistes que nos smartphones et nos tablettes sont autant à la pointe. Les chimistes sont les architectes, les petites mains invisibles qui confèrent à ces interfaces tout leur génie et leur réussite.

Face aux attentes toujours plus exigeantes des constructeurs, ils doivent relever des défis complexes. Leur tâche n’est pas aisée. Parmi les problématiques à résoudre, ils ont le devoir de soulager un peu nos poches du poids de ces appareils, de les rendre plus robustes et bien sûr plus performants.

Entre les différents constructeurs, principalement Samsung et Apple, une course furieuse pour l’amélioration de ces produits fait rage. Une concurrence acharnée qui pousse les chimistes à réagir en permanence, à innover afin de trouver des solutions. Alors ils planchent sur les polymères, les molécules gazeuses et toute sorte de substances chimiques.

Voici un petit listing de ces substances chimiques qui composent les objets numériques nomades.

Tout d’abord le PVDF, un polymère fluoré fabriqué par Arkema utile à l’élaboration d’un film plastique censé vibrer par contact tactile. Ce que l’on appelle l’électronique haptique, où la science du toucher, fait partie de ces technologies qui ont bouleversé la pratique des téléphones intelligents. Arkema s’occupe en plus de la fabrication de nanotubes de carbone, composants d’additifs supposés allonger la durée de vie des batteries.

La société Solvay produit quant à elle du Polyamide haute température, un polymère particulier, capable de se substituer au métal présent dans les coques de téléphones. Elle est également en charge de la conception d’un polymère fluoré dont l’usage final est toutefois différent de celui d’Arkema. Il s’agit de polyfluorure de vinylidène dont le but est de renforcer la densité énergétique des batteries lithium ion contenu dans les téléphones portables.

Autre acteur important, BASF le leader mondial de l’industrie chimique, prépare et fournit du fer carbonyle, une poudre métallique aux propriétés électromagnétiques supérieures.

Cette poudre sert à réduire les pertes d’énergie et maîtriser l’intensité du courant dans les circuits, une fois intégrée dans des bobines. BASF toujours, en collaboration avec Ineos, met au point des polymères styréniques. La coentreprise réalise toute une gamme de polymères rigides destinée aux coques des smartphones. Les avantages des polymères styréniques sont nombreux : légèreté, rigidité, facilité de recyclage…

Et à quoi ressembleraient les écrans de ces objets numériques sans le fluor gazeux produit par l’entreprise Air Liquide ?

Ces gaz fluorés de haute pureté, présents entre le film plastique et l’écran LCD, permettent par leur action à nos écrans LCD de rester propre. Il ne s’agit pas de la seule mission d’Air Liquide. En effet, elle met aussi au service des fabricants des gaz précurseurs dans le but de réduire les dimensions des transistors.

Pour information, les polymères sont couramment utilisés par les chimistes dans le secteur industriel, notamment la plasturgie ou la thermoplastique en raison de leurs propriétés élastiques naturelles. Composé de macromolécules, le polymère est généralement organique. Il s’agit d’un élément particulièrement important constituant de nombreux objets de notre quotidien.

Le rôle des chimistes n’a pas fini de s’intensifier et l’avenir des technologies numériques semble être entre leurs mains. Dans ce contexte, impossible de ne pas songer à l’électronique organique. Une technologie naissante mais très prometteuse et dont l’innovation la plus significative serait de transformer nos tablettes et nos smartphones en « papier électronique ».

Par Sébastien Tribot, journaliste scientifique

Les centrales nucléaires futures seront-elles souterraines ?

La réalisation en souterrain des 500 réacteurs mondiaux aurait entrainé il y a une trentaine d’années un surcoût de 100 à 200 milliards d’euros (valeur 2013) mais aurait minimisé l’impact de l’accident de Tchernobyl et permis ainsi la poursuite des grands investissements nucléaires après 1990. L’accident de Fukushima aurait été évité ou d’impact très réduit et le nucléaire fournirait actuellement la moitié de l’électricité mondiale à un coût attractif. Mais le choix de réacteurs en surface paraissait justifié il y a quarante ans par une très faible probabilité escomptée d’accident grave et les ouvrages souterrains de grand volume étaient très loin de leur utilisation courante actuelle.

On accepte maintenant le surcoût important des réacteurs de 3ème génération pour réduire la probabilité d’accident grave. Une solution plus attractive, réduisant probabilité et impact d’un accident pourrait être la réalisation en souterrain des réacteurs français de 2ème génération de 900 à 1 300 MW : cette option est analysée ci-dessous.

Faisabilité 

On peut mettre en souterrain toute la partie nucléaire, piscine comprise : la partie classique, (turbine, alternateur et transformateurs) peut rester en surface ou être en souterrain mais séparée de la partie nucléaire.*

Le volume disponible en souterrain pour la partie nucléaire peut être ainsi supérieur au volume disponible en surface. Cela correspond aux usines hydroélectriques usuelles. Les volumes nécessaires par MW sont du même ordre pour l’hydroélectricité et des centaines d’usines hydroélectriques souterraines auront avant 2050 des puissances et des volumes souterrains supérieurs à ceux d’un réacteur. Une couverture rocheuse d’une centaine de mètres parait suffisante et pourra être adaptée à la qualité du rocher.Les éléments nucléaires d’une centrale de surface sont répartis dans une enceinte circulaire de confinement d’une cinquantaine de mètres de diamètre, soit 2 à 3000 m² et d’une cinquantaine de mètres de hauteur. La forme en plan préférable en souterrain est rectangulaire, d’une largeur limitée à 25 m pour bénéficier de solutions standardisées s’appliquant dans les rochers usuels, et d’une longueur pouvant facilement dépasser 100 m ; des élargissements locaux importants sont aisés si nécessaire. Une hauteur de 50 m est usuelle.

Un avantage de la forme rectangulaire, largement utilisée en hydroélectricité, est l’utilisation de ponts roulants de grande capacité facilitant les pré-assemblages et la rapidité du montage et du gros entretien.

Trois références de nucléaire en souterrain 

  • Le premier réacteur franco-belge de Chooz, PWR de 300 MW électriques à fourni très régulièrement 40 TWh entre 1960 et 1980. Le volume souterrain pour toute la partie nucléaire était de 100.000 m3 soit 330 m3 par MW ; la largeur maximale de caverne était de 18 m.
  • Le réacteur expérimental de Lucens en Suisse (30 MW nucléaires) a subi en 1969 un accident grave de début de fusion du cœur classé parmi les plus graves accidents nucléaires mondiaux ; il est très peu connu car la sécurité due au souterrain a été efficace évitant tout impact extérieur important, l’impact essentiel étant la perte du réacteur.
  • On peut enfin rappeler les nombreuses explosions militaires nucléaires souterraines, de très grande énergie, qui sont restées parfaitement confinées.

Impact sur le coût du kWh nucléaire

La réalisation du volume souterrain et de son revêtement demande environ 3 ans, un délai comparable à celui de mise à disposition d’une enceinte en surface : c’est maintenant une opération classique de génie civil dont le coût est peu aléatoire. Le montage des éléments nucléaires en est totalement indépendant et bénéficiera de ponts roulants efficaces et d’accès larges par galerie ou puits rebouchés à la mise en service par quelques dizaines de mètres cubes de béton. Les accès en service, de section très réduite, seront obturables très rapidement en cas d’alerte ou d’accident.

Dans les bases documentaires


Le volume souterrain par MW sera inférieur à 500 m3, d’un coût unitaire inférieur à 1000 €/m3. Soit un coût très inférieur à 500 000 euros du MW (le coût des usines souterraines hydroélectriques est d’ailleurs très inférieur à ce chiffre). En admettant 8% par an pour amortissement et frais financiers pour 7 000 heures annuelles de production, le coût par MWh est inférieur à :

(500 x 1 000 x 0,08) / 7 000 = 5,7 €.

Le surcoût probable est donc de l’ordre de 5 euros par MWh, inférieur au surcoût d’un EPR de surface par rapport aux centrales existantes.

Les coûts de montage avec pont roulant ne devraient pas dépasser les coûts de montage en surface et le coût d’exploitation en souterrain des centrales hydroélectriques ne diffère pas du coût en surface.

Comparaison des risques 

Le coût des 2 accidents de Tchernobyl et Fukushima est très supérieur au surcoût qu’aurait entraîné la réalisation en souterrain de tous les réacteurs mondiaux. Pour la France, le coût total d’un accident majeur a été officiellement évalué à cinq cent milliards d’euros sans que cette évaluation soit beaucoup contestée. Le coût dans le cas d’un réacteur souterrain serait beaucoup plus faible, au minimum le coût de deux réacteurs, soit 10 milliards d’euros, et au maximum une cinquantaine de milliards (le dixième du coût d’un accident extérieur).

La fréquence annuelle mondiale d’accident majeur a été de 2 accidents pour 500 réacteurs pendant 30 ans soit 2/30×500 = 1/7 500. En France les alertes sérieuses de Saint-Laurent et du Blayais ont aussi inquiété mais on peut espérer cependant que les précautions prises y réduisent actuellement ce risque à 1/50 000 et que placer les mêmes réacteurs en souterrain réduirait cette probabilité à moins de 1/100 000. L’industrie nucléaire suggère par ailleurs que le passage à l’E.P.R. divise par 10 la probabilité du risque d’accident de la 2ème génération.

La valeur théorique du risque annuel d’un EPR en surface serait ainsi de 500 milliards/500.000 soit 1 million d’euros à comparer pour un réacteur traditionnel en souterrain de 10 à 50 milliards/100 000 = 100 000 à 500 000 €.

Mais l’intérêt majeur du souterrain est d’éviter la possibilité d’un risque catastrophique à l’échelle nationale et au-delà.

Perspectives de réalisation en France 

La réalisation en souterrain de centrales bien connues de 2ème génération parait une option plus économique et plus acceptable que la construction en surface de nouvelles solutions. Et la construction de réacteurs en bordure de fleuve qui vient d’être officiellement abandonnée en Chine sera peut-être difficile en France si elle n’est pas souterraine. De même l’acceptation du surgénérateur Astrid peut être plus facile en souterrain.

De nombreuses implantations sont envisageables notamment près des centrales actuelles : une construction en série entre 2020 et 2040 serait une solution économique pour remplacer une partie des centrales actuelles.

Perspectives à l’exportation 

Aucun réacteur français n’a été vendu à l’exportation depuis six ans. Trois options sont envisageables face à une forte compétition internationale.

  • L’EPR, handicapé par les retards actuels par le manque de références d’exploitation et par le coût.
  • De nouvelles solutions, éventuellement en association avec d’autres pays pour des puissances de l’ordre de 1 GW. Leur commercialisation parait éloignée.
  • La vente de réacteurs de 2ème génération en souterrain. C’est la solution la moins chère au kWh ; la France a les meilleures références mondiales correspondantes et la formation des exploitants peut se faire dans les centrales françaises identiques existantes. Les propositions et succès peuvent être rapides et les aléas commerciaux sont réduits.

On doit agir avant l’arrivée d’offres similaires probables de la part de compétiteurs chinois ou coréens. Les spécialistes asiatiques du souterrain s’intéressent sérieusement à cette option et l’expertise chinoise du souterrain, faible il y a vingt ans, est maintenant tout à fait valable (la 3ème centrale hydroélectrique des Trois Gorges vient d’être réalisée en souterrain et produit 3 GW).

 

Les auteurs :

  • Pierre Duffaut 

Pierre Duffaut Ingénieur civil des mines. Ancien ingénieur-géologue à EDF et ancien président du comité français de mécanique des roches.60 ans d’expérience en géologie et ouvrages souterrains, des centrales d’EDF aux mines, aux stockages pétroliers et à l’urbanisme souterrain.

  • François Lempérière

François Lempérière a participé à l’étude et/ou la réalisation de plus de 20 très grands ouvrages de Génie Civil : barrages (notamment pour le Rhône, le Rhin, le Nil et le Zambèze), centrales nucléaires, grands terrassements et ouvrages maritimes. Il a présidé pendant 15 ans les Comités Techniques sur le coût des barrages dans la Commission Internationale des Grands Barrages (C.I.G.B.).

« Quizz Actu » des Techniques de l’Ingénieur : Et le gagnant est…

Lancé en fin d’année dernière, le quiz organisé par les Techniques de l’Ingénieur a trouvé son gagnant !

Il s’agit de monsieur karim Errahmane, fidèle lecteur des Techniques de l’Ingénieur depuis plusieurs années. Il gagne donc une visite du CERN, et on peut dire que le hasard fait parfois bien les choses… Joint par la rédaction de la rubrique Actualités des Techniques de l’Ingénieur, Mr Errahmane nous a confié sa joie toute particulière d’aller visiter le CERN : « titulaire d’un doctorat en physique des particules, vous imaginez quel peut être mon plaisir d’aller visiter le CERN ! »

Karim, le grand gagnant de notre quiz !

Aujourd’hui professeur de physique et de métrologie en IUT, le gagnant du quizz proposé par la rédaction a connu les Editions Techniques de l’Ingénieur pendant sa scolarité : « Effectivement, les bases documentaires des Techniques de l’Ingénieur m’ont accompagné pendant tout mon cursus scientifique. Il s’agissait pour nous de la référence bibliographique par excellence. D’ailleurs, l’IUT dans lequel j’enseigne est abonné aux Techniques de l’Ingénieur, donc les professeurs comme les élèves ont la possibilité de se référer aux ouvrages dès qu’ils le souhaitent »

Les réponses du quiz

  • Un documentaire vidéo américain critiquant l’exploitation des gaz de schiste contient une séquence devenue célèbre et qui constitua un coup dur pour l’image des exploitants de ce gaz. Quelle est cette séquence ?

Réponse : Une sequence où on voit l’eau qui coule d’un robinet s’enflammer

  • Plus d’un an après la catastrophe de Fukushima, une piscine de refroidissement d’un des réacteurs reste un élément d’inquiétude extrême pour les suiveurs de cet accident nucléaire majeur. Laquelle ?

Réponse : la n°4

  • Quel candidat à l’élection présidentielle de 2012 a intégré dans son programme la tenue d’ « un grand débat sur l’avenir de l’énergie en France » ?

Réponse : François Hollande

  • Lors des élections présidentielles françaises de 2012, quel réseau social a menacé la légalité du scrutin, en particulier par rapport à la diffusion des résultats avant l’heure légale ?

Réponsetwitter

  • Une entreprise développe actuellement un outil de réalité augmenté qui permettra à ses utilisateurs d’être connectés à tout moment et de profiter de services web à tout moment… quel est l’objet usuel qui offrira tous ces services ?

Réponselunettes google

  • Un homme d’affaire norvégien a proposé en 2012 de produire des biocarburants, en s’associant avec un hôpital de Floride. Pour quelles raisons ? 

Réponsel’hôpital lui fournit de la graisse humaine

  • La revue scientifique « Nature » a présenté en début d’année la plus petite voiture du monde. Quelle est sa taille ? 

Réponseun nanomètre

  • 2012 a vu aboutir la procédure de changement de protocole informatique. Quel est le nom de la version de ce protocole ?

Réponse IPV6

  • Quel est le nom du premier robot japonais à être entré dans la centrale de Fukushima  après la catastrophe du 11 mars 2011 pour en inspecter les dégâts ? 

Réponse : Irobot corp

  • Un industriel japonais spécialisé dans l’électronique a élaboré un prototype de batterie directement inspiré de la nature et en particulier des termites. Quelle est cet industriel ?

Réponse : La marque Sony

  • Qu’évoque ce membre de l’Agence Américaine d’information sur les énergies  quand il écrit : « Nous pourrions être dans une « ruée vers l’or » dans laquelle quelques personnes ont développé des « monstre puits», et aujourd’hui tout le monde suppose que tous les puits seront des « monstres » ?

Réponse : les gaz de schiste

  • Un cabinet spécialisé a comparé le modèle d’exploitation des gaz de schiste à une catastrophe financière récente : laquelle ?

Réponse : la catastrophe des subprimes

  • Une équipe de chercheurs américains a réussi à porter un morceau de matière à plus de deux millions de degrés, en moins d’un millième de milliardième de secondes. Avec quel outil ?

Réponse : Un laser

  • Concurrente de l’Ipad d’Apple et du GalaxyTab de Samsung, elle fait grand bruit en grignotant peu à peu les parts de marché… qui est-elle ?

Réponse : La kindle fire

  • Quel pays a construit en 2012 la première méga centrale solaire sans subventions ?

Réponse : l’Espagne

  • Des scientifiques ont trouvé un moyen, grâce à un robot, de protéger les bancs de poissons constitués d’espèces marines à risques. Quel est ce moyen ?

Réponse :  un robot poisson

  • Le  graphène, matériau star de 2012, possède des propriétés exceptionnelles très convoitées en électronique : mobilité électronique impressionnante et capacité d’auto-refroidissement entre autre. Pourtant, un nouveau matériau est en phase de le détrôner. Lequel ?

Réponse : Le bismuth

  • Le boson de Higgs, identifié formellement cette année, « apporte »  à la matière un constituant de poids. Lequel ?

Réponse : sa masse !

  • Code barre à deux dimensions pouvant stocker une grande quantité d’informations, je suis lisible avec un simple smartphone. Qui suis-je ?

Réponse : un QR code

  • Nous représentons 45 % des élèves de Terminale scientifique. Qui sommes-nous ?
Réponse : Les femmes !

Persévérer dans la voie du plastique biosourcé

Quel « meilleur » symbole que le sac plastique pour incarner la prolifération des produits jetables, ainsi que le lourd tribut qu’ils font payer à l’environnement ?

Il suffit d’une seconde pour transformer six grammes de polyéthylène d’origine pétrolière en un sac plastique des plus banals – par extrusion-gonflage – mais l’on estime à plusieurs centaines d’années le temps nécessaire à sa dégradation dans la nature, lorsqu’il y termine sa course. Si les plus évidentes considérations écologiques ne font pas mouche, le problème de l’origine pétrolière de la grande majorité des sacs plastiques oblige les industriels et les scientifiques à se tourner vers des alternatives biosourceés, biodégradables (fragmentables) et surtout renouvelables, alors que l’on estime que la production de pétrole est amenée à diminuer dans les décennies à venir.

L’université de Caroline du Sud a décidé d’apporter sa pierre à l’édifice, en développant à son tour un nouveau matériau plastique écologique. Le polymère sur lequel les universitaires américains ont planché prend sa source dans la résine de certains conifères, pins et sapins en tête. Le groupe de chercheurs, dirigé par Chuanbing Tang, professeur de chimie à l’USC, utilise l’essence de térébenthine ainsi que la colophane comme matériaux de départ, exploitant leur richesse en hydrocarbures proche de certains composants du pétrole. L’essence de térébenthine (liquide et odorante) et la colophane (solide et inodore) sont obtenues après purification et distillation de l’oléorésine issue des conifères.

Des performances inférieures

Si les matériaux de départ sont riches en hydrocarbures (peu importe qu’ils proviennent du pétrole ou de résine végétale), ils peuvent être convertis en polymères : on parle alors de… polymérisation. « Les polymères d’origine renouvelables souffrent actuellement de performances inférieures, en comparaison aux performances réalisées par les polymères dérivés du pétrole », explique Chuanbing Tang. Pas de surprise : fruits de plus d’une centaine d’années de recherche et de découvertes, ces derniers (le plexiglas, le PVC, le polycarbonate et tant d’autres…) sont de véritables succès scientifiques, mais la polymérisation et le développement de matières plastiques biosourceés issues de matériaux renouvelables n’en sont, eux, qu’à leurs balbutiements. Et ces premiers pas sont pour le moins prometteurs.

« Les molécules dérivant du bois sont une source importante de composés aliphatiques cycliques et d’hydrocarbures aromatiques, dont les résultats sont plus que probants après polymérisation », continue-t-il, avant de conclure : « Leur structure moléculaire rigide ainsi que leur hydrophobie sont particulièrement appréciés des scientifiques », car ce sont des matériaux qu’ils peuvent travailler avec aisance. Autre avantage : à la fin de leur cycle de vie, ces polymères biosourcés retrouvent leurs affinités avec certains microbes et bactéries, favorisant ainsi le processus de biodégradabilité. Et se décomposent rapidement dans la nature pour peu que, épris d’un artificiel sentiment de liberté, ces polymères y finissent leur course.

Par Rahman Moonzur, journaliste scientifique

Les formations Techniquesz de l’Ingénieur :

Notre haleine peut-elle nous identifier ?

D’ordinaire l’analyse de notre haleine se limite au seul contrôle d’alcoolémie. Voire dans un autre cas de figure, elle peut aller jusqu’à la demande à des amis compréhensifs de juger de notre bonne haleine avant un rendez-vous.

Désormais la donne pourrait bien changer. Une équipe de chercheurs de l’École polytechnique fédérale de Zurich vient en effet d’expérimenter durant une semaine un spectromètre de masse sur onze volontaires. 

Concrètement, l’expérience vise à déterminer les informations contenues au niveau de l’air que nous expirons par le biais du spectromètre, un appareil de mesure de proportion d’éléments chimiques.

L’air provenant de nos poumons et que nous expulsons à chaque instant est composé de nombreuses molécules spécifiques. Et, fait remarquable, les échantillons analysés par le spectromètre indiquent que l’haleine de chaque individu présenterait des caractéristiques uniques.

Qui plus est, sur les neuf jours de test, les éléments perçus ainsi que leur proportion se sont révélés stables malgré les variables liées aux habitudes alimentaires. D’où cette conclusion, le souffle permettrait d’identifier une personne.

Alors le prochain film d’espionnage intégrera-t-il en sus de l’éternel contrôle rétinien, une authentification par l’haleine ? Plus sérieusement, cela deviendra-t-il le nouvel outil des médecins ?

Car, le programme présente bien des avantages. Imaginez qu’il suffise de souffler pour obtenir un diagnostic médical, le gain de temps serait considérable.

Plus d’attente, les résultats sont instantanés. Les réfractaires aux aiguilles, échappant ainsi à la prise de sang, accueilleraient à bras ouverts une telle nouvelle. Les policiers détecteraient plus rapidement les consommateurs de drogues. La lutte contre le dopage chez les sportifs prendrait certainement une nouvelle tournure. Et les médecins, informés de possibles carences ou maladies par ce procédé, ajusteraient immédiatement leur avis.  

Pour l’heure, les résultats de l’étude s’avèrent positifs et encourageants.

Pour autant, le chemin menant à la généralisation de diagnostics par ce système lors des bilans médicaux est encore long. Cette pratique est pourtant courante en Chine.

Mais il faudra attendre des appareils de taille réduite pour que ceux-ci s’établissent dans les cabinets de consultation.

Par Sébastien Tribot, journaliste scientifique

 

Découvrez notre offre de formation :


Revue du web #43 : les vidéos de la semaine

Cette semaine dans la revue du Web :

  • Primer-V4, le robot funambule du docteur Guero ; 

  • PETMAN, la combinaison chimique et le camouflage en mouvement vus par la Boston Dynamics ; 

  • Chauffage par induction : faire fondre un cylindre de métal à l’aide d’un électroaimant ; 

  • Combat de Titans : Mastic magnétique vs. aimant permanent ; 

  • Le gadget (inutile ?) de la semaine : « Shippo », une queue de chat contrôlée par la pensée ; 

  • Bonus : votre tête coiffant un distributeur de bonbons PEZ.

Primer-V4, le robot funambule du docteur Guero

Alors que bon nombre d’entre nous se battent jour après jour contre les différentes formes de vertiges, la simple idée de se balancer sur un fil suspendu au-dessus du vide en essayant de trouver l’équilibre en ferait forcément pâlir plus d’un.

Pour débuter cette quarante-troisième Revue du Web, laissez-vous bluffer par les talents d’équilibriste du petit robot de la vidéo suivante, mis au point par un habile touche-à-tout japonais se faisant appeler « docteur Guero », de son vrai nom Masahiko Yamaguchi.

Le petit robot humanoïde évolue très précautionneusement sur un fil d’acier de quatre millimètres d’épaisseur, prenant le temps de faire de menus ajustements afin de pouvoir rester en équilibre, et donnant l’impression de glisser petit à petit sur le fil métallique.

Pour concevoir « Primer-V4 », le docteur Guero s’est servi d’un robot humanoïde en kit (répondant au doux nom de Kondo KHR-3HV, en vente pour 1800 dollars environ) qu’il aurait méticuleusement amélioré pour le rendre capable d’une telle prouesse.

Parmi les modifications figurent des rainures sur la base des pieds pour donner à Primer-V4 une prise sur la corde, ce qui est de bonne guerre et imite ainsi la manière dont un funambule peut se servir de ses orteils pour assurer sa prise. Les bras du robot bougent en fonction des indications données par un capteur d’inclinaison, d’un côté ou de l’autre de la corde.

Le docteur Guero s’était déjà fait remarquer il y a plus d’un an lorsqu’il avait présenté un petit cycliste robotique chevauchant son vélo sans frein (mais qui pouvait s’arrêter en dégageant ses pieds des pédales et en les posant à terre), que vous pouvez revoir dans la seconde vidéo.

PETMAN, la combinaison chimique et le camouflage en mouvement vus par la Boston Dynamics

La Boston Dynamics ne chôme pas… La prolifique société américaine, forte du prestige que lui accorde ses différents poulains (Alpha Dog, Big Dog, Proto PET), ne cesse de nous surprendre par la qualité de son travail ainsi que par la cadence infernale à laquelle elle améliore ses petits protégés.

PETMAN (acronyme de Protection Ensemble Test MANnequin) est un humanoïde bipède anthropomorphe conçu pour tester en mouvement les performances des prototypes de combinaisons de protection chimique, qui seront utilisées plus tard par les soldats américains lors de conflits ou lors de certaines situations à risque de contamination élevée, impliquant l’utilisation d’armes chimiques.

Les habituels mannequins inanimés ne semblent pas suffisants pour effectuer des tests probants en conditions, comme peut le souligner le Département de la Défense américain.

Non seulement PETMAN marche comme un être humain, en déroulant son pied à partir du talon, mais il peut également effectuer toute une série de mouvements et de postures aux accents humains proprement déroutants, afin de tester la combinaison dans des situations crédibles.

Il possède des capteurs dont le but est de détecter la moindre intrusion d’agents chimiques à travers la tenue de protection, il maintient une température de 37 degrés à l’intérieur de l’ensemble, et pousse même le vice jusqu’à disposer de son propre système de sudation, créant ainsi un micro-climat dans la combinaison.

« Nous avons mis au point PETMAN, de la planche à dessin au robot qui marche, en huit mois seulement », fanfaronne à juste titre Marc Raibert, qui a fondé la Boston Dynamics en 1992.

PETMAN est développé par sa société en collaboration avec le fabricant de robots à usage militaire Foster-Miller, le Jet Propulsion Laboratory (coanimé par la NASA), Trelleborg Sealing Solutions (qui fournit les joints compacts haute performance, la Harvard University Concord Field Station et financé par la DARPA (Defense Advanced Research Projects Agency), agence affiliée au Département de la Défense américain, et chargée de la recherche et du développement des nouvelles technologies destinées à des fins militaires.

Chauffage par induction : faire fondre un cylindre de métal à l’aide d’un électroaimant

Faire fondre certains métaux n’est pas chose particulièrement mal aisée, et le passage de l’état solide à l’état liquide peut se faire en peu de temps et avec peu de moyens. L’art et la manière, par contre… 

Dans la vidéo qui suit, c’est bien la méthode utilisée qui nous intéresse. Un internaute russe a posté sur youTube la vidéo d’une expérience réalisée à la maison, impliquant un petit cylindre de 3 grammes de métal qu’il identifie comme de l’aluminium – bien que cela ne soit que très peu probable – et un électroaimant utilisant une puissance de 1.6 kW.

L’électroaimant fait flotter le cylindre métallique, qui baigne alors littéralement dans un champ électromagnétique.

La perte des courants de Foucault dans le cylindre conducteur produit de la chaleur dans celui-ci, par effet Joule, principe même du chauffage par induction. Le cylindre perd peu à peu sa forme au fur et à mesure que la température monte, dépassant allègrement son point de fusion et jusqu’à atteindre les 1200 °C, selon notre scientifique amateur. 

Le cylindre n’est alors plus qu’une boule de métal en fusion, flottant toujours au milieu de la bobine. Notre ami russe coupe alors le courant alimentant celle-ci, laissant le métal se répandre enfin en une flaque qui durcit rapidement.

Combat de Titans : Mastic magnétique vs. aimant permanent

Continuons encore un peu avec les aimants, mais cette fois-ci passons à un aimant permanent. La vidéo qui suit est un time-lapse de plus d’une heure et demie condensée en cinquante-trois secondes, montrant comment le « Magnetic Putty », du mastic magnétique – un gadget disponible ici (thinkgeek.com/product/5ac8/) – engouffre littéralement un aimant d’un alliage de néodyme fer bore (structure cristalline tétragonale de formule Nd2Fe14B).

L’alliage de néodyme fer bore est celui qui est le plus souvent utilisé pour les aimants en terres rares, car le néodyme augmente de manière significative les capacités électromagnétiques des aimants, mais est relativement fragile et trop malléable. On retrouve d’ailleurs de grandes quantités de néodyme dans les alternateurs des éoliennes à forte puissance.

Le mastic magnétique, bien qu’il ressemble à du mastic ordinaire, est imprégné de millions de particules ferreuses de l’ordre du micron (de la poudre d’oxyde de fer), ce qui ne le rend pourtant pas magnétique pour autant. C’est la présence du cube aimanté qui magnétise les particules ferromagnétiques du mastic, qui s’alignent et génèrent des pôles magnétiques. Le mastic va alors engloutir peu à peu le petit cube, pour enfin tenter de se répartir le plus régulièrement possible autour de celui-ci. La photo se trouvant après la vidéo nous montre le résultat, « plusieurs heures plus tard ».

Le gadget (inutile ?) de la semaine : « Shippo », une queue de chat contrôlée par la pensée

Pour conclure notre quarante-troisième Revue du Web, nous vous présentons le gadget (inutile ?) de la semaine : « Shippo », projet de la société japonaise Neurowear, est un appendice caudal contrôlé par la pensée qui vous permet d’illustrer votre état d’esprit à travers le mouvement expressif de ce nouvel organe à poils longs.

Un récepteur d’ondes cérébrales – les ondes alpha – interprète les données reçues et actionne dans la foulée le moteur contrôlant l’accessoire. « Shippo » (qui signifie « queue » en japonais) se mettra alors à frétiller de manière frénétique lorsque l’utilisateur ou l’utilisatrice sera heureux ou dans un état proche de l’excitation.

En parallèle, une application de géolocalisation partage vos humeurs en temps réel via les réseaux sociaux, et vous permet même de repérer sur une carte d’autres utilisateurs.

Les Nippons de Neurowear ne sont pas des nouveaux venus dans la Revue du Web, nous vous en parlions déjà ici (techniques-ingenieur.fr/actualite/revue-du-web-8-les-videos-de-la-semaine) il y a quelques mois, lors de la présentation de « Necomimi », des oreilles de chat contrôlées elles aussi par la pensée.

Il devient alors intéressant de voir qu’une technologie aussi avancée que ces capteurs d’ondes peuvent déboucher sur un accessoire de mode au summum de la futilité.

Le jeu de l’actrice présentant le prototype, d’une grande maîtrise et tout en sobriété, ne gâchera en rien votre plaisir.

Bonus : votre tête coiffant un distributeur de bonbons PEZ

En bonus de notre Revue du Web, nous vous proposons un doux (et sucré) voyage dans le temps.

Vous vous souvenez probablement des bonbons PEZ, ces petites briques sucrées plutôt banales mais rendues populaires par les petits « distributeurs » mécaniques dans lesquels elles se trouvaient – et se trouvent encore, la marque existant toujours – placées ?

Ces distributeurs, si chers à notre enfance et objets de culte pour de nombreux collectionneurs, se présentent sous la forme d’une petite tourelle rappelant un petit peu un chargeur de pistolet, dans lesquels les petites sucreries géométriques sont empilées les unes sur les autres.

Le chargeur est surplombé d’une tête – le plus souvent celle d’un héros de dessin animé – qui dissimule la sortie du distributeur et donc, le bonbon. Enfin, un système simple de ressort permet de pousser vers le haut et de maintenir le petit PEZ au niveau de la sortie du distributeur.

Hot Pop Factory, un atelier de création de bijoux imprimés en 3D, s’est alors proposé de remplacer la fameuse tête coiffant le distributeur… par la vôtre. Aidés par une caméra de type Kinect, le système ReconstructMe – un outil logiciel de reconstruction 3D en temps réel – et avec un peu de débrouille, nos jeunes créateurs sont parvenus à leurs fins !

Voici une vidéo de la capture 3D d’un visage par Hot Pop Factory, puis quelques photos pour avoir une idée du rendu.

 

Par Moonzur Rahman

Le paradis du stockage de l’énergie, mais dans un train d’enfer

Les Stations de Transfert d’Energie par Pompage (STEP) représentent aujourd’hui 99 % des capacités de stockage de l’énergie électrique dans le monde selon l’Electricity Storage Association, capacités de stockage qui représentent 3 % de la puissance des centrales électrique installée dans le monde. Le principe de fonctionnement des STEP est simple : en période d’excès de production électrique, de l’eau est pompée depuis un bassin bas vers un bassin haut. A l’inverse, quand la production électrique est inférieure à la demande, l’eau redescend ce qui permet de générer de l’électricité part turbinage.

Dans les bases documentaires


Parallèlement à la montée en puissance des énergies renouvelables fluctuantes comme l’éolien et le solaire, la demande en outils de flexibilité permettant de les intégrer va croissante. C’est dans ce contexte qu’a été fondée en 2010, à Santa Barbara, la start-up ARES (Advanced Rail Energy Storage) par William Peitzke, un expert de l’énergie, sur la base d’un concept qu’il a élaboré avec 5 autres ingénieurs. Ils ont développé ensemble une approche originale : au lieu de pomper de l’eau, ne serait-il pas pertinent de faire monter tout simplement des wagons chargés de matériaux trois fois plus denses que l’eau ? Et de les faire redescendre ensuite quand le réseau électrique manque d’électricité.

L’entreprise est aujourd’hui dirigée par James Kelly, un ingénieur qui a construit de nombreuses STEP, qui a été auparavant vice-président de la branche transmission et distribution du géant Southern California Edison (SCE), et ainsi le gestionnaire d’un réseau électrique de transmission et distribution totalisant plusieurs centaines de milliers de kilomètres de lignes électriques.

Un rendement équivalent à celui des STEP et un coût 40% inférieur

Le rendement énergétique d’un cycle complet de pompage/turbinage est de 75 à 80 %.

« Le système développé par ARES intègre les progrès récents en matière de générateurs/moteurs et de l’électronique de puissance permettant de les contrôler » indique James Kelly. « Un rendement de 78,3 % est ainsi atteint » sur un cycle complet de montée/descente du train. Les données avancées par ARES ont été validées par Southern California Edison ainsi que par plusieurs experts des transports ferroviaires de charges lourdes et des experts en réseaux électriques. Des études ont également été menées par des spécialistes des questions environnementales et des aspects économiques des systèmes de stockage de l’énergie. Un software de même nature que ceux utilisé par les compagnies ferroviaires est utilisé pour gérer la circulation des trains et un système électronique embarqué permet de gérer la circulation de l’électricité dans le sens réseau/navette ou navette/réseau et de communiquer avec le cerveau de la centrale.

D’après la start-up, le coût de l’investissement dans une centrale ARES est 40% meilleur marché que celui d’une STEP équivalente. Il en résulte que « sur la base d’un cycle complet de charge/décharge par jour, ARES a le coût nivelé (LCOE) par kWh le plus bas comparativement aux autres technologies » affirme James Kelly. Dans le domaine du stockage de grande capacité, « ARES est la première alternative viable aux STEP ». De plus la solution ARES ne requiert pas une seule goutte d’eau douce, point non négligeable pour de nombreuses régions du monde où cette ressource devient de plus en plus rare et précieuse. Et elle peut être mise en place partout où une pente de 7 à 8% est disponible sur quelques kilomètres : les sites adaptés sont pléthore dans le monde.

La technologie ARES n’offre pas que des services de stockage de l’énergie mais aussi d’aide au réseau électrique (« ancillary services » dans le jargon des gestionnaires de réseau) : inertie pour réseau en remplacement des centrales thermiques qui ferment parallèlement à la montée de l’éolien et du solaire, régulation de la tension et de la fréquence à la hausse et à la baisse, spining reserves, etc.  Basculer du mode charge au mode décharge ne prend que 13 secondes. A El Hierro, où une STEP va assister un parc éolien de 11 MW et permettre à cette île de l’archipel canarien de devenir presque intégralement autonome en énergie, des volants d’inertie ont dû être ajoutés à la centrale hydro-modulable dans la perspective d’équilibrer le réseau électrique. Le passage progressif de l’eau depuis le bassin haut vers le bassin bas s’accompagne d’une baisse de pression. De plus le temps de réaction des conduites forcées d’une STEP n’est pas immédiat, alors que le vent, et ainsi la production électro-éolienne, peut varier brusquement. Ces problèmes disparaissent avec la solution mise au point par ARES.

Pour les applications services au réseau, la puissance possible des centrales ARES s’étale entre 10 MW et 200 MW. Pour les applications stockage de l’énergie,  elles peuvent être construites en petites unités décentralisées depuis 100 MW x 2 heures (200 MWh) jusqu’à de  grandes unités de 3 GW x 8 heures (24 GWh), par exemple à proximité de très grands parcs éoliens et solaires qu’il est possible d’installer dans les déserts de l’ouest des USA, du Sahara ou de Gobi. Une centrale ARES de 333 MW x 8 heures requiert deux gares (une en haut et une en bas), 3 rails de 12,8 km les reliant, et 70 navettes constituées de 4 wagons, navettes transférant chacune 2 MWh. Il est possible d’adapter les systèmes en fonction des besoins locaux des systèmes électriques. Dans les gares, chaque wagon charge (ou décharge) un container rempli de graviers, ceci via un dispositif automatisé et rapide. La durée de vie du système est estimée à au moins 40 ans sur la base du retour d’expérience des transports ferroviaires.

Un impact environnemental minimal

Au niveau de l’acceptabilité des projets, les trains roulent à faible vitesse (entre 25 et 56 km/h) et font ainsi peu de bruit. Les deux gares de stockage (une en haut et une en bas) peuvent être dissimulées sous une toiture végétale permettant ainsi une très bonne intégration paysagère. L’espace consommé par les deux gares peut également être valorisé grâce à des toitures solaires photovoltaïques.

Une première unité de démonstration est en cours de développement par ARES et l’une des plus grandes compagnies d’électricité de Californie, ceci dans les Monts Tehachapi, entre le désert du Mojave et la vallée de San Joaquin, dans un ranch appartenant à un pionnier de l’industrie éolienne. « Chacun d’entre nous doit agir pour réduire la dépendance vis-à-vis des combustibles fossiles et réduire les émissions de gaz à effet de serre », insiste James Kelly.

« L’énergie et l’environnement sont très liés. La façon dont nous obtenons notre énergie, à partir du pétrole, du gaz, du charbon ou des renouvelables, comme l’éolien et le solaire, n’impacte pas seulement notre environnement, mais aussi notre qualité de vie et le futur de notre planète » renchérit Francesca Cava, membre de l’équipe de direction d’ARES et qui a été auparavant responsable de la commission sur le changement climatique de l’Arctique au sein de l’Institut Aspen, un réseau international d’échanges et de réflexion à but non lucratif  et dont le but est  « d’encourager l’ouverture sur le monde, la prise d’initiative et l’exercice des responsabilités au service du bien commun » et qui a été fondé en 1950 à Aspen dans le Colorado. Pour Francesca Cava, « le stockage d’énergie par ARES permet d’optimiser l’usage des énergies renouvelables, de diminuer notre dépendance envers les énergies fossiles, d’atteindre nos objectifs en matière de développement durable et finalement de réduire les impacts qui conduisent au changement climatique ».

Par Olivier Danielo

En savoir plus :

L’évaluation de la recherche technologique publique

On sait l’importance que joue l’innovation technologique pour un pays, dans la maîtrise de son avenir économique, dans le développement de l’emploi ou encore l’augmentation de ses moyens de production nationaux.

Cette capacité d’innovation repose en grand partie sur la recherche technologique, qui permet à la fois de développer des connaissances et de réaliser des objets techniques, réels ou virtuels, qui seront en usage dans la société.

Aujourd’hui, en France, la recherche technologique publique est  réalisée par des grands organismes, des centres techniques,  des départements d’ingénierie d’universités ou d’écoles d’ingénieurs… Elle peut être financée en partie par des agences publiques nationales ou régionales, par des fonds européens ou par des contrats avec des entreprises.

Dans ce contexte, il est important de développer des évaluations adaptées aux spécificités de la recherche technologique. Or l’Académie des technologies constate que les évaluations sont trop souvent faites suivant les seuls critères d’excellence scientifique issus de la recherche fondamentale académique, alors que, pour évaluer correctement la recherche technologique, il faudrait aussi considérer la pertinence de ses  projets et produits.

Pour mieux appréhender ces deux aspects -qualité scientifique et pertinence des projets, l’Académie recommande une démarche de progrès fondée sur une approche par  processus inspirée de la démarche assurance qualité de la norme ISO 9001 , et par ailleurs voisine des préconisations de L’European Association for Quality Assurance in Higher Education.

Il est par ailleurs indispensable qu’une évaluation externe soit réalisée par un panel comprenant des experts ayant une expérience de la recherche et de l’innovation industrielle, des démarches d’assurance qualité et de l’analyse des processus. Il est également souhaitable que des utilisateurs potentiels participent, de façon directe ou indirecte, à l’évaluation.

L’Académie recommande enfin aux organismes de recherche de pratiquer régulièrement des autoévaluations, suivant un protocole élaboré en concertation avec une agence au service des opérateurs publics de recherche.

Avis de l’Académie des technologies 

[Télécharger le texte intégral de l’Avis sur l’évaluation de la recherche technologique publique]

 

Découvrez les formations Techniques de l’Ingénieur :

Formation Ingénieur énergies: les nouvelles pistes d’innovations industrielles

Formation Développer un nouveau produit sur le marché sans risque et sans échec

News Environnement : avril 2013

Les Grands Lacs « plastiqués »

Si le « continent plastique » dans l’Océan Pacifique, constitué de particules de plastiques regroupées par les courants océaniques, est relativement bien connu, les problèmes causés par ces particules dans les Grands Lacs nord-américains le sont nettement moins.

Des quantités de particules plastiques très importantes dans les Grands Lacs

Une équipe de chercheurs de l’université du Wisconsin Supérieur vient pourtant de présenter des résultats assez inquiétants lors de la 245ème réunion annuelle de l’American Chemical Society.

Il y aurait entre 1 500 et 1,7 million de particules plastiques par mile carré dans les grands lacs. On s’imagine souvent un « îlot de déchets flottants » mais ces particules sont en réalité très petites (85% des échantillons recueillis étaient des microparticules, de taille inférieure à 0,5 cm) et, même en quantités très importantes, elles ne sont pas forcément visibles à la surface.

Les chercheurs ont pu mesurer que le nombre de particules plastiques dans les échantillons recueillis dans les Grands Lacs était 24% plus important que celui des échantillons recueillis dans le sud de l’Océan Atlantique.

Une double menace pour l’environnement

La petite taille de ces particules et leur grand nombre augmentent leur « surface totale effective » et donc, indirectement, la quantité de polluants dans l’eau.

En effet, une étude menée l’été dernier par une équipe de chercheurs de l’Université de New York et l’Institut 5 Gyres, un groupe environnemental qui étudie la pollution liée au plastique dans les océans (en particulier dans les gyres subtropicaux, avait également montré des concentrations de toxiques chimiques très importantes.

Il ont notamment remarqué la présence d’hydrocarbures aromatiques polycycliques, listés parmi les « polluants prioritaires » par l’EPA et l’Organisation Mondiale de la Santé, et des biphényles polychlorés, très toxiques, qui nécessitent plus de 50 ans pour se dégrader dans l’environnement et présentent une menace pour les espèces aquatiques ; ils font partis des Pollutants Organiques Persistants.

Ces espèces sont hydrophobes et se trouvent généralement dans les sédiments, mais, grâce à la présence des composés plastiques, avec lesquels elles peuvent « se lier » et être « absorbées », elles peuvent flotter dans l’eau.

Ce phénomène a également été étudié par une équipe de chercheurs de l’université de San Diego qui ont mesuré les concentrations en polluants chimiques et en plastiques dans des baies proches de centres urbains sur une période de 12 mois.

Ils ont pu montrer une relation entre la présence de particules plastiques et une concentration plus importante des polluants, en particulier pour certains types de plastiques (polyéthylène à haute et basse densité et polypropylène).

Cela présente donc un risque aggravé pour les poissons et le zooplancton, voire même pour les oiseaux, susceptibles de manger ces particules par erreur, ce qui peut causer des problèmes cardiaques ou neurologiques, voire des déformations.

Lorena Rios Mendoza, qui a présenté les résultats de l’étude de l’Université du Wisconsin, a indiqué avoir trouvé des particules plastiques dans les estomacs des poissons.

Le problème n’est donc plus seulement la quantité de plastique qui se trouve dans les océans ou les Grands Lacs mais également la façon dont les particules plastiques intéragissent avec les polluants chimiques.

Le lien entre ingestion de plastiques, transfert chimique toxique et effet sur les espèces marines n’est pas encore clairement établi.

Tout d’abord, la présence de plastiques ne devrait pas en soi augmenter la présence de ces polluants toxiques dans les Grands Lacs, tout au plus ceux-ci pourraient-ils être déplacés depuis les sédiments, en cas de tempête par exemple.

Par ailleurs, certains poissons des Grands Lacs possèdent déjà une certaine quantité de ces polluants dans leurs tissus et il faudrait donc que la concentration de ces polluants dans les particules plastiques ait une concentration supérieure pour réellement avoir un effet.

L’équipe du professeur Mendoza a prévu de continuer à analyser le contenu des estomacs et tissus cellulaires de poissons pour mieux quantifier ces risques. Enfin, les risques présentés par une éventuelle transmission de ces substances aux consommateurs (humains) sont encore à l’étude.

Un patrimoine à préserver

Les Grands Lacs constituent la plus grande réserve d’eau douce du monde, avec une surface de 244 160 km2 et un volume de 22 684 km3 en eaux basses.

C’est également un patrimoine culturel et environnemental, avec de nombreux parcs naturels et plusieurs millions de visiteurs chaque année.

Alors que la production de plastique a augmenté de 500% depuis 1980, la protection des grands lacs semble devenir une nécessité.

Signe encourageant, de nombreux efforts ont été mis en place au niveau des Etats pour lutter contre la prolifération du plastique, notamment pour le recyclage et pour limiter l’usage des sacs plastiques (les Etats de Floride, Hawaii, Maryland, New Jersey, New York, Rhode Island, Vermont, Washington et le District of Columbia ont imposé une taxe, directe ou indirecte, sur les sacs plastiques, voire une interdiction de distribution.

Cependant, ces efforts doivent être généralisés et menés de concert avec le Canada, l’autre pays donnant sur les Grands Lacs, où des initiatives sont également en cours dans certaines villes, notamment à Toronto, ou dans certaines chaînes de magasins, comme Metro.

Source : www.bulletins-electroniques.com

« Sustainable Demand-Supply Chain », nouvelle chaire au sein d’AgroParisTech

Créée par AgroParisTech, pour une durée de cinq ans, et soutenue par Sofiproteol, Système U et Terrena, trois partenaires qui couvrent l’ensemble de la filière, du producteur agricole au consommateur final, la chaire baptisée « Sustainable Demand-Supply Chain » (SDSC), que dirige Alain Chapdaniel, a pour objet d’analyser et de construire de nouveaux modes de structuration et de pilotage des filières traitant des matières issues du vivant en vue d’en accroître la durabilité.

L’établissement d’enseignement supérieur et de recherche qu’est AgroParisTech entend ainsi placer au coeur de sa réflexion l’analyse des attentes des clients, consommateurs et, plus largement, des acteurs et parties prenantes de la chaîne pour la piloter et l’optimiser durablement.

Un pilotage durable des filières qui s’appuie sur une nouvelle gestion des informations sociales, environnementales et économiques.

En matière de recherche, il s’agira d’analyser la rupture organisationnelle sous-jacente et de proposer des concepts et outils pour mener à bien le changement.

Côté enseignement, l’objectif est d’identifier et de développer les compétences que doivent acquérir les étudiants d’AgroParisTech pour répondre aux offres métiers de ce secteur.

La formation continue, proposée par AgroParisTech Executive, sera enrichie des apports de cette chaire.

« Les préoccupations environnementales, sociales et économiques doivent être considérées comme une opportunité de développement et de compétitivité par les acteurs de l’agroalimentaire, en France et à l’étranger.

Cela suppose de nouvelles stratégies et postures, de nouvelles organisations des flux physiques, informationnels et financiers, et donc de nouvelles relations entre ces acteurs. C’est donc le traitement conjoint et responsable de la demand chain et de la supply chain qui permettra la création de valeurs durables », estime Alain Chapdaniel.

Source : www.bulletins-electroniques.com

Méditerranée : une histoire de tsunami

Une équipe de scientifiques italiens, dirigée par Alina Polonia de l’Institut des sciences marines du Conseil national des recherches (Ismar-Cnr), a identifié au large des côtes siciliennes, les traces d’un important tsunami, qui a eu lieu en Méditerranée il y a environ 1600 ans.

L’étude, publiée dans la revue du groupe Nature, Scientific Reports, s’est intéressée à une zone sédimentaire marine composée de dépôts grossiers charriés par les courants de densité et atteignant jusqu’à 25 mètres d’épaisseur.

« Le dépôt est connu sous le nom de « mégaturbidité Augias » et occupe une grande partie de la Méditerranée orientale », explique Alina Polonia.

« Plusieurs hypothèses ont été émises pour comprendre son origine; parmi celles-ci, la plus probable serait l’explosion du volcan Thera à Santorin vers 1627-1600 avant notre ère, et qui a mis un terme à la civilisation minoenne.

D’après les études de notre équipe, cet énorme dépôt sédimentaire serait en fait la conséquence d’un tsunami généré par un puissant tremblement de terre en Crète d’une magnitude comprise entre 8 et 8,5 sur l’échelle de Richter ».

Les chercheurs sont arrivés à ces conclusions en analysant de nombreuses données géophysiques et géologiques, « telles que des images acoustiques à haute résolution du dépôt sédimentaire et des carottes sédimentaires extraites à près de 4000 mètres de profondeur ».

Cette découverte a été possible grâce à la grande précision avec laquelle l’âge des dépôts et leur provenance ont été déterminés.

« L’effet conjugué d’un tremblement de terre et d’une vague de tsunami peut en effet charrier une grande quantité de sédiments, provenant de toutes les zones côtières touchées, et déposée par la suite à l’endroit le plus profond du bassin ».

Cette théorie est confirmée par le témoignage du romain Ammiano Marcellino (330-397 av. J.-C.) selon lequel des vagues immenses ont pénétré les terres faisant des milliers de victimes près de la ville d’Alexandrie, à 700 km de l’épicentre.

Les chercheurs ont également découvert des traces d’événements similaires ayant eu lieu auparavant, ce qui suppose que le tremblement de terre de l’an 365 av. J.-C. n’ait pas été l’unique en méditerranée. « Les analyses radiométriques nous permettent de déterminer une période d’occurrence de 15.000 ans », assure Alina Polonia.

Source : www.bulletins-electroniques.com

Publié par Iris Trahin

News Informatique : avril 2013

Vers des smartphones (encore) plus intelligents, lancement de l’application « Tap-de-Concier »

NTT DOCOMO, le leader japonais du marché mobile, a annoncé la sortie de « Tap-de-Concier » : une application smartphone intelligente permettant de rendre l’utilisation de l’appareil plus intuitive et rapide. L’application utilise les données enregistrées par le téléphone sur les habitudes des utilisateurs, l’historique des opérations et les statistiques sur les services utilisés pour proposer des informations pertinentes selon la location et l’heure. La période d’essai de l’application a débuté le 26 mars 2013 et terminera le 30 septembre prochain.

Ce service, disponible en japonais uniquement, peut être téléchargé gratuitement sur le Google Play et le portail DOCOMO dmenu. L’application est compatible avec les téléphones DOCOMO utilisant une version Android OS 2.3 ou supérieure.

Lorsque l’utilisateur lance l’application « Tap-de-Concier », celle-ci lui propose uniquement des services censés lui être utiles à un moment et un lieu donné. L’application effectue des prédictions basées sur l’analyse des tendances du portail DOCOMO dmenu, l’historique de l’application « Tap-de-Concier » et les statistiques de Shabette Concier (le service vocal de DOCOMO) pour sélectionner les fonctions ou services à proposer à l’utilisateur. Les informations proposées par les fonctions et services sélectionnés sont adaptées spécifiquement aux besoins de l’utilisateur en corrélation avec l’heure et le lieu où il se trouve.

Par exemple, l’application enregistre le moment de la journée où l’utilisateur quitte son travail et elle lui propose automatiquement une liste de destinations que l’utilisateur peut sélectionner – lui indiquant le trajet idéal en transport en commun. Autre exemple, pour un utilisateur lisant fréquemment des recettes de cuisines au moment du dîner, l’application lui proposera des recettes en début de soirée. Habituellement, l’utilisateur sélectionne individuellement les fonctions et services à utiliser, cette nouvelle application simplifie l’utilisation du téléphone en proposant des informations sélectionnées intuitivement.

Le service fonctionne pour l’instant avec huit fonctions de l’appareil : phone, mail, memo, alarm, timer, calendar, camera and music player. Il fonctionne également avec 15 services en ligne : transit, maps, weather, location guide, restaurants, recipes, videos, music, images, app searches, games, ebooks, tweet searches, news et Wikipedia.

DOCOMO utilisera les retours sur l’application pour améliorer et corriger le service avant son lancement commercial.

Source : bulletins électroniques

Un nouveau clavier de taille très réduite pour les écrans tactiles

Une entreprise dérivée de l’Université de Toronto lance un clavier intelligent et très petit. Ce clavier libère de l’espace sur les écrans, tout en permettant une saisie rapide et précise. Cette technologie, appelée Minuum, a été développée par la start-up Whirlscape Inc. créée par un professeur et un ancien étudiant de l’université.

Une campagne de financement sur Indiegogo a été lancée la semaine dernière pour le développement du produit. Cette campagne a attiré l’attention des médias (TechCrunch, CBC News, TechCrunch Japan, Toronto Standard et Mobile Syrup) et le double de la somme initialement souhaitée a été récoltée dès la première journée. Minuum utilise un algorithme d’auto-correction spécialisé et breveté, corrigeant la saisie même très imprécise. Cet algorithme, issu de la recherche des fondateurs de Whirlscape, configure en temps réel la différence entre ce qui est saisi et ce qui est pensé, avec une exactitude telle qu’il est possible de ne pas entrer une seule lettre correctement.

D’après un communiqué du CEO de Whirlscape : « Alors que nos appareils mobiles deviennent de plus en plus rapides et intelligents, le clavier a traversé le 21è siècle sans être radicalement modifié par rapport à l’époque des machines à écrire ; aujourd’hui, nous sommes bloqués avec des claviers qui couvrent la moitié de l’espace des écrans de téléphones tactiles, mais qui ne compensent pas la place qu’ils prennent par leur précision. Notre découverte a été de réaliser que nous pouvions minimiser le clavier tout en conservant sa précision. »

Le clavier pour écran tactile Minuum n’est que la première étape du projet Minuum, qui souhaite simplifier le mode de saisie de tous les appareils mobiles et portables. La première application de cette technologie est pour les téléphones intelligents et les tablettes tactiles, mais ses capacités ont été pensées pour être appliquées à d’autres appareils et en particulier des claviers souples et intégrables à des objets divers. La version bêta du clavier Minuum sera disponible pour être testée gratuitement par les journalistes technologiques dès juin 2013.

Whirlscape a été fondée en 2012 grâce aux financements du programme University of Toronto Early Stage Technology et MaRS Innovation.

Source : bulletins électroniques

Un nouveau capteur de lumière permet d’enregistrer des vidéos à la lumière de la Lune

L’entreprise Canon (Inc.) a annoncé avoir développé un nouveau capteur dotée d’une sensibilité à la lumière telle qu’il permettrait d’enregistrer des vidéos dans des conditions lumineuses extrêmes.

Ce nouveau capteur exclusivement dédié à l’enregistrement de vidéos est un capteur CMOS 35 mm « full-frame » qui a la particularité d’être à la fois très sensible à la lumière et de produire une qualité d’image épurée de bruits parasites. Cette nouvelle technologie permet l’enregistrement de vidéos en haute définition (HD) dans des environnements faibles en lumière, jusqu’à 0.03 lux ou environ la luminosité d’une lune croissante – une luminosité tellement faible qu’il est difficile de distinguer des objets à l’oeil nu.

Chaque pixel du capteur mesure 19 microns au carré, soit plus de 7.5 fois la taille des pixels des capteurs CMOS des meilleures caméras actuellement sur le marché. Un nouveau procédé de réduction de bruit est employé dans le capteur afin de limiter l’impact de l’augmentation de la taille des pixels. En effet, la quantité de bruit est proportionnelle à la taille des pixels, dégradant considérablement la qualité de l’image.

L’entreprise a créé un prototype permettant de tester le capteur et elle a publié plusieurs vidéos sur son site internet démontrant sa puissance. Plusieurs démonstrations sont proposées : une comparaison entre un capteur puissant actuel et le nouveau capteur sur une vidéo de la voie lactée, une vidéo de la pluie de météorite Geminid et une vidéo de l’intérieur d’une pièce éclairée uniquement par trois bâtons d’encens (soit entre 0.01 et 0.05 lux).

L’entreprise souhaite développer des équipements utilisant ce capteur dans le domaine de l’astronomie, de l’observation de la nature, de la recherche médicale, ainsi que de la surveillance électronique. L’entreprise Canon Marketing Japan Inc. a exposé ce nouveau prototype et les vidéos enregistrées lors du « Security Show 2013 » qui a eu lieu du 5 au 8 mars 2013 à Tokyo Big Sight.

Source : bulletins électroniques

Publié par Pierre THOUVEREZ

L’essentiel de REACH 1/2 (avril)

Mise à jour des registres d’intention

28/03/2013

Le 28/03/2013, deux nouvelles propositions ont été soumises pour la classification et l’étiquetage harmonisés. Les substances concernées sont le bendiocarb (ISO); (2,2-dimethyl-1,3-benzodioxol-4-yl N-methylcarbamate) et le (Z)-N-{3-[(6-Chloro-3-pyridinyl)methyl]-1,3-thiazolan-2-yliden}cyanamide.

Plus d’information sur : http://echa.europa.eu/web/guest/registry-of-submitted-harmonised-classification-and-labelling-intentions

Une nouvelle intention a été ajoutée le 26/03/2013 pour une proposition d’une substance extrêmement préoccupante. Il s’agit du Trixylyl phosphate. Les commentaires sont à soumettre pour le 5 août 2013.

Plus d’information sur : http://echa.europa.eu/web/guest/registry-of-current-svhc-intentions

IUCLID est prêt pour le règlement Biocides

02/04/2013

Afin de soutenir pleinement la préparation des demandes en vertu du règlement sur les produits biocides, qui entrera en vigueur le 1er Septembre 2013, de nouveaux types de dossiers ont été créés dans IUCLID 5.5. Ils peuvent être utilisés pour la préparation de demande d’approbation d’une substance active ou d’autorisation d’un produit biocide en vertu du nouveau règlement.

Plus d’informations sur : http://echa.europa.eu/view-article/-/journal_content/title/iuclid-now-also-ready-for-biocidal-products-regulation

Rapport 2012 du helpdesk

Le rapport 2012 du Helpdesk REACH/CLP est aujourd’hui disponible sur : 

http://www.ineris.fr/reach-admin/file_upload/File/DRC-13-124769-00171A_Rapport-HD-REACH-CLP_Dec-2012_avec_couv_sans_annexe4.pdf

Statistiques pour l’enregistrement de REACH (deadline mai 2013)

05/04/2013

En date du 5 avril 2013, 1 464 substances ont été enregistrées pour l’échéance REACH du 31 mai 2013. Pour suivre l’avancée des enregistrements : http://echa.europa.eu/reach-2013/registration-progress

17/06/2013 : séminaire sur la procédure d’autorisation

10/04/2013

L’ECHA organise le 17 juin prochain, un séminaire sur les demandes d’autorisation spécifiquement conçu pour les futurs candidats à l’autorisation. L’objectif de ce séminaire est d’augmenter la compréhension globale de la procédure de demande d’autorisation à travers des présentations et des échanges En raison de contraintes d’espace, les participants seront sélectionnés par un processus qui ouvrira ses portes le 17 Avril. La priorité sera donnée aux futurs candidats qui n’ont pas eu la chance de participer à de précédents séminaires similaires. L’ECHA publiera bientôt des informations sur son site web.

25/06/2013 : journée Biocides pour les parties prenantes

En prévision de la date d’application du règlement sur les produits biocides, le 1er Septembre 2013, la Journée des parties prenantes vise à donner des informations sur la nouvelle réglementation Biocide pour que les entreprises soient conscientes de leurs rôles, et des outils pour les aider à s’acquitter de leurs obligations. L’événement sera organisé à Helsinki, dans les locaux de l’ECHA. Un ordre du jour provisoire et le lien d’inscription seront publiés d’ici la fin Avril sur le site de l’ECHA.

Plus d’information sur http://echa.europa.eu/web/guest/view-article/-/journal_content/2a841ed1-7761-479d-91a8-3e439a11ebbb

04/05/2013 – Webinar sur « Comment mettre votre dossier d’enregistrement en conformité avec REACH – Trucs et astuces (partie 3) »

Cette conférence abordera des éléments sur la façon de soumettre des informations sur les substances chimiques dans le dossier technique de l’ECHA en conformité avec REACH.

Plus d’informations sur : http://echa.europa.eu/support/training-material/webinars

Présentations du Webinar « Quand et comment les utilisateurs en aval déclarent-ils à l’ECHA ? »

Les présentations de cette conférence en ligne ont été mises en ligne sur le site de l’ECHA. Pour les retrouver : http://echa.europa.eu/support/training-material/webinars/closed

Par Céline GABORIAUD NECTOUX, Ingénieur Environnement aux Ateliers d’Orval

Pour aller plus loin :

Découvrez les fiches pratiques de Techniques de l’Ingénieur :

Participez aux formations Techniques de l’Ingénieur :

Toxev : la version 3.1.0 est enfin disponible

Un accès aux données beaucoup plus fin

Jusqu’alors,Toxev permettait deux types d’accès aux données : celui de l’administrateur, ayant accès à l’ensemble des opérations pour l’ensemble des données, et celui du consultant, ne pouvant ni modifier les données en inventaire ou évaluation, ni lire les données d’exposition en traçabilité.

L’administrateur peut désormais créer lui-même différents types de profils pour ses collaborateurs*, aux droits d’accès à la carte : une ou plusieurs entreprises, une ou plusieurs entités, tout ou partie des fonctionnalités de Toxev.

Inventaires et évaluations plus complets

Toxev gagne en réactivité : lorsque vous modifiez un produit, entrainant un changement du niveau de danger, une alerte apparait, et les évaluations préalables sont automatiquement mises à jour. Toxev vous rappelle alors la nécessité de vérifier la volatilité du nouveau produit, et de mettre à jour la traçabilité de l’exposition de ses utilisateurs.

Concernant le rattachement des fiches de données de sécurité en PDF, si la gestion au sein des répertoires PDF de Toxev est conservée, il sera désormais possible d’importer des fichiers depuis votre poste de travail.

Est également ajoutée une fonction d’attachement de fichier à chaque situation d’exposition, de quel format que ce soit.

Cette nouvelle version intègre dans la liste des substances celles inscrites à l’annexe XIV REACH, ainsi que celles incluses dans la liste candidate.

Parallèlement, la taille des pictogrammes des étiquettes y est modifiée, afin de correspondre aux dimensions minimales d’étiquettes définies dans la deuxième ATP du CLP.

Vous pourrez enfin dans cette nouvelle version intégrer un copier/coller des situations d’exposition, via une fonction ad hoc.

Traçabilité : une gestion des groupes d’exposition homogène (GEH) totalement refondue

La gestion des contrôles techniques relevant du décret du 15 décembre 2009 se fait avec la version 3.1.0 de Toxev au sein du volet traçabilité, et non plus dans le volet évaluation, respectant ainsi l’esprit de la définition des GEH.

Par ailleurs, les salariés peuvent maintenant être rattachés à un GEH, simplifiant ainsi la gestion des fichiers d’exposition, mis automatiquement à jour lorsque le GEH de rattachement est modifié. Les GEH sont également éditables sous forme de catalogues.

L’accès par un utilisateur à ses seules données personnelles de traçabilité peut être limité lorsque le dispositif de contrôle est actif.

Dernier point, bien pratique : une fonction de vérification d’homonymie est ajoutée, en cas d’ajout d’un salarié au GEH.

Mais encore…

Les innovations portées à la version 3.1.0 ne s’arrêtent pas là. Ainsi, en cas d’utilisation concomitante du même fichier par plusieurs utilisateurs, une notification apparaît désormais. Cette solution permet d’éviter les pertes de données dues à l’utilisation simultanée du même fichier par plusieurs personnes, le deuxième utilisateur étant alors par défaut en mode consultant.

A l’instar du système de sauvegarde des fichiers d’inventaire, les fichiers d’exposition et fichiers GEH sont dans cette nouvelle version sauvegardés.

Enfin, cette nouvelle version de Toxev est enrichie des outils VLEP-Liste conversion PPM et VLEP- contrôle technique diagnostic, déjà disponibles indépendamment de Toxev en téléchargement gratuit sur le site de Techniques de l’Ingénieur :

VLEP-Liste conversion PPM liste les valeurs limites d’exposition professionnelle selon la législation en vigueur, et permet la conversion entre partie par million (PPM) et milligramme par mètre cube, selon des conditions de température et de pression données.

VLEP – contrôle technique diagnostic permet, à partir des résultats des prélèvements d’air des lieux de travail pour un groupe de travailleurs exposés homogène (GEH), d’établir le diagnostic de dépassement/non dépassement de la valeur limite d’exposition professionnelle en application de la méthode de détermination décrite dans l’arrêté du 15 décembre 2009.

*Fonction uniquement disponible en version Premium.

 

 

 

 

 

 

 

 

 

 

 

Bruno Decottignies

 

NOUVEAU

logo-riskev

Découvrez RiskEV : le nouveau logiciel d’évaluation et de gestion des risques professionnels.

visuel_produit_riskev

  • Évaluation des risques et gestion des facteurs de pénibilité
  • Édition du document unique d’évaluation des risques et son Annexe pénibilité
  • Gestion du plan d’action
  • Traçabilité individuelle et collective des expositions

 

 

 

Le Bisphenol A dans le collimateur de l’Anses

L’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) vient de publier un avis sans ambiguïté concernant la nocivité du Bisphénol A. 

Plus particulièrement, l’étude identifie les risques pour les enfants à naître, c’est-à-dire exposés in utero.

Non pas que le bisphénol A (BPA)  ne soit pas nocif pour l’homme en général, mais la base de données disponibles n’est pas suffisante pour établir clairement les effets sanitaires sur les autres populations.  

La nocivité du BPA pour le fœtus est importante puisqu’elle majore le risque pour l’enfant de développer plus tard un cancer du sein.

Dans son rapport, l’Anses précise que « Les effets retenus sont caractérisés par une augmentation du nombre de structures épithéliales indifférenciées associée à une augmentation de la sensibilité de la glande mammaire à la transformation tumorale ».

En revanche,  les risques en termes de troubles du comportement, de défauts de l’appareil reproducteur pour les filles ainsi que d’obésité sont qualifiés de « négligeables ».

Pour établir l’impact du BPA, l’Anses s’est évidemment appuyé sur les études scientifiques existantes. Mais l’Agence ne s’est pas limitée à faire de la bibliographie, elle a pratiqué de nombreuses mesures pour déterminer le degré d’exposition ainsi que les sources les plus importantes de pollution : air, aliments, eau (distribuée en réseau ou conditionnée), poussière de logement et tickets thermiques.

Ainsi, la première source identifiée est l’alimentation. Cela représente 84% de l’exposition interne pour la femme enceinte.

En effet, le BPA est très répandu dans les contenants alimentaires, comme les canettes et les boites de conserve (légumes, plats composés et produits à base de viande et de poisson). Utilisé à l’intérieur des boites, il est directement en contact avec les aliments. L’Anses a identifié une autre source de contamination que sont les bonbonnes en polycarbonate.  

L’eau ainsi conditionnée « peut contribuer à une augmentation conséquente de l’exposition interne au BPA et pourrait, ainsi ajoutée aux autres expositions, entraîner un risque «additionnel» pour l’enfant à naître de la femme enceinte exposée » met en garde l’Anses.

Le deuxième facteur d’exposition est les tickets de caisse. Cette source d’exposition externe est problématique pour les caissières ou toute femme enceinte manipulant ce type de tickets quotidiennement.

L’éviction du BPA est donc vivement recommandée par l’Agence française.

Le seul petit bémol est qu’à ce jour, les candidats au remplacement du BPA sont… du Bisphénol ! B, F, S ou M, ces bisphénol ne peuvent servir de substituts « sains »  puisqu’ils contiennent une structure chimique similaire, susceptible de provoquer les mêmes dérèglements que le BPA.

« A l’issue de ces travaux, aucune alternative ne se distingue pour être utilisée pour tous les usages du BPA.» conclue d’ailleurs l’Anses. 

Par Audrey Loubens, journaliste scientifique

 

Découvrez notre offre de formation Risque chimique :


La fiscalité du gazole sera-t-elle alignée sur celle de l’essence ?

Le diesel émet des particules fines et du dioxyde d’azote. Il a été classé « cancérogène certain » par l’Organisation mondiale de la Santé (OMS) en juin 2012.

Actuellement, l’écart de fiscalité entre le gazole et l’essence est de 17 centimes d’euros, en faveur du gazole contre 12 centimes/L en moyenne dans l’Union Européenne des 27. En ajoutant les trois centimes de TVA, l’écart total s’élève à 20 centimes.

Avec ce différentiel, le manque à gagner pour l’Etat s’élèverait à six milliards d’euros par an. Un montant qui mérite que l’on s’intéresse réellement à la question !

En France, le marché des carburants s’élève à environ 50 millions de m3, dont 40 millions pour le gazole. Sur l’ensemble des carburants produits, les raffineries ne peuvent pas produire plus de 50% de gazole.

« Nous sommes obligés d’importer la moitié du gazole que nous consommons », affirme Bruno Ageorges, secrétaire général de l’exploration – production à l’UFIP. En contrepartie, « on importe plus de 35% des essences que l’on produit », ajoute-t-il.

Pour des raisons de santé publique, d’environnement et de facture pétrolière, il convient donc de diminuer l’utilisation du diesel et diminuer l’écart de fiscalité qui l’avantage.

« Le Comité est donc d’avis que la réduction progressive de l’écart de taxation entre le gazole et l’essence est justifiée sous l’angle environnemental. Il demande que les services de l’Etat mettent à l’examen différents scénarios de réduction de cet écart, avec une évaluation complète des impacts d’un tel réalignement fiscal sur les ménages et les entreprises les plus touchés, afin d’identifier les mesures d’accompagnement à mettre en place », précise le projet d’avis.

Le vrai défi est de réussir à faire évoluer la fiscalité avec des mesures qui accompagnent l’ensemble des acteurs sans pénaliser les constructeurs automobiles français, très investis dans le diesel, et les consommateurs français.

Le casse-tête est posé. Pour le résoudre, certains acteurs proposent, par exemple, une prime à la conversion, sous condition de ressources. La hausse de la fiscalité pourrait aussi être attribuée à un fond de mobilités alternatives pour accompagner les changements de comportement.

Des véhicules non rentabilisés

Les immatriculations de véhicules diesels représentent encore plus de 72% des immatriculations de véhicules neufs en France. Le parc automobile national est diesel à près de 60%. La part du gazole dans le total des consommations de carburants dépasse 80%, contre moins de 70% dans l’UE 27.

UFC Que-Choisir a mené une étude sur les raisons motivant les achats de véhicules neufs chez les particuliers. L’association montre que la décision d’achat repose avant tout sur le prix d’achat du véhicule neuf et le budget carburant associé. Beaucoup de personnes ne prennent pas en compte les postes d’entretien et d’assurance. Or, l’étude a montré que les personnes ne roulaient généralement pas suffisamment pour amortir la différence de prix d’achat de leur véhicule.

Si des mesures sont décidées, elles n’entreront en vigueur qu’à partir de 2014. Au-delà du simple diesel, le kérosène des avions n’est pas taxé : encore un autre dossier épineux pour la ministre de l’environnement !

Par Matthieu Combe, journaliste scientifique

 

Découvrez notre offre de formation Energie :


Apprendre des politiques énergétiques étrangères

La transition énergétique est un défi partagé au niveau mondial et l’un des grands enjeux du conseil mondial de l’énergie. « C’est un sujet qui est aujourd’hui tout à fait prioritaire dans tous les grands pays », observe Pierre Gadonneix, ancien directeur général de Gaz de France, puis d’EDF, et actuel Président du conseil mondial de l’Energie depuis 2007.

L’Agence Internationale de l’Energie prévoit une croissance de la demande mondiale en énergie +50 % d’ici 2050. Elle devra se faire en limitant les impacts sur l’environnement, dont la lutte contre le réchauffement climatique, les pollutions locales de l’eau, de l’air et des sols, ainsi que les conflits d’usage des sols. Un vaste défi !

3 enjeux majeurs au niveau mondial

Si les réponses locales peuvent être différentes selon les pays, on s’aperçoit qu’au niveau mondial, les évolutions des politiques énergétiques tournent autour de 3 enjeux globaux de long terme. Il s’agit de la sécurité énergétique, l’équité sociale et l’accès à l’énergie, notamment pour les 1,3 milliards d’individus sans accès à l’électricité dans le monde.

Dans les populations riches, la question de l’accès à l’énergie est liée à son prix pour les ménages les plus pauvres. Pour relever ce défi, les gouvernements doivent notamment inciter à « l’efficacité énergétique par la réglementation, la formation et la pédagogie », en commençant par les investissements les plus rentables, estime le Président du conseil mondial de l’Energie.

La réponse actuelle de la majorité des pays est de diversifier les mix énergétiques nationaux via un portefeuille diversifié de ressources et de technologies les plus rentables. Ils n’excluent aucune source d’énergie a priori, mais valorisent les atouts nationaux et les ressources et technologies les plus compétitives.

Pour réussir la transition, le prix de l’électricité doit refléter les coûts réels. Il faut « viser des prix reflétant les coûts complets pour envoyer le bon signal prix aux investisseurs et aux consommateurs, tout en protégeant spécifiquement les plus vulnérables », insiste Pierre Gadonneix. Pour cela, il est aussi important d’avoir un signal prix pour les émissions de CO2 pour que les industriels fassent des investissements sur le long terme.

L’Europe doit être un moteur de cette transition

La transition énergétique doit être au service de la croissance économique. Elle doit se faire dans le cadre d’une coordination régionale et, plus globalement, dans le cadre d’une gouvernance mondiale sur l’énergie et le climat, favorable aux investissements et aux transferts technologiques. « La transition énergétique devra nécessairement se fonder sur la recherche d’un consensus, aux niveaux nationaux, régionaux et globaux », analyse Pierre Gadonneix.

L’augmentation annuelle des émissions de gaz à effet de serre de la Chine est supérieure à la totalité des émissions de l’Allemagne. Si l’Europe ne pèse pas grand-chose en matière d’émissions par rapport aux pays émergents, elle peut jouer un rôle majeur comme force de proposition et de développement. Pour contribuer à la transition énergétique, « l’Europe pourrait développer des technologies pour les mettre à disposition de l’ensemble des pays qui connaissent le taux de consommation et d’émission les plus importants », estime Pierre Gadonneix. 

Ce panorama doit nous inviter à réfléchir dans le cadre du débat national sur la transition énergétique. Favorable au nucléaire, Pierre Gadonneix rappelle que « objectivement, ce n’est pas en fermant une centrale en Allemagne qu’on améliore la sûreté des installations nucléaires dans le monde ». Aujourd’hui, 60 centrales sont en cours de construction et, avec ou sans nous, « cela se fera ! », insiste-t-il. « Il vaut mieux participer avec eux aux règles de sûreté que de s’en désintéresser » conclut-il. 

Par Matthieu Combe, journaliste scientifique

 

Découvrez notre offre de formation Energie :


Le Portugal atteint 70% d’électricité d’origine renouvelable

Les conditions météorologiques des trois premiers mois de l’année 2013 ont été particulièrement favorables à la production hydroélectrique dont la part est grimpée à 37%, et à la production éolienne, qui a atteint le niveau remarquable de 27%. 

Les autres énergies renouvelables dont le solaire photovoltaïque et la biomasse ont contribué au total à hauteur de 6%. Les 30% restants ont été délivrés par les centrales thermiques fossiles à gaz et au charbon. Comparativement au premier trimestre de l’année 2012, la production des centrales au charbon a été réduite d’un tiers, et celle des centrales à gaz de moitié. 

Durant cette période la consommation électrique a diminué de 2,3% et le Portugal a été un exportateur net d’un volume équivalent à 6% de la consommation nationale.

Le Portugal rejoint ainsi le club mondial de la cinquantaine de pays dont plus de 60% de la production électrique est d’origine vraiment renouvelable. Tout comme le couple Danemark-Norvège, le pays du Fado démontre que le mariage de l’eau et du vent est une approche très pertinente pour parvenir à de très hauts niveaux de renouvelables, l’hydro modulable étant un partenaire zéro carbone idéal pour faire face à la nature fluctuante de la production éolienne. 

Le Portugal a également des projets ambitieux en matière d’électro-mobilité. Plus la part d’électricité verte est importante dans le mix électrique, meilleur est le bilan carbone des véhicules électriques.

Passer en quelques années à un mix électrique à haute teneur en renouvelables tout en réduisant les émissions de CO2 est possible. En France, selon RTE, la part des énergies renouvelables dans le mix électrique était de 16,4% en 2012. 11,8% pour l’hydroélectricité, 3,1% pour l’éolien, 0.8% pour le solaire photovoltaïque et 0.7% pour les autres énergies renouvelables. Le Président de la République François Hollande s’est engagé à réduire la part du nucléaire dans le mix électrique français de 75% aujourd’hui à 50% en 2025. 

Par Olivier Daniélo

A lire aussi :

 

Découvrez notre offre de formation Energie :


Réseaux Sociaux d’Entreprise ou solution d’Intelligence Collaborative ?

A l’instar des progrès techniques du 18ème siècle qui sont à l’origine de la révolution industrielle en Europe, le numérique porte aujourd’hui en lui les germes d’un nouvel ordre économique et social.

L’enjeu est, cette fois, mondial et le processus d’une rapidité extrême. En outre, cette révolution impacte aussi bien l’ordre sociétal (ex : les « Printemps arabes ») qu’économique (ex : les circuits économiques courts du e-commerce).

Le phénomène RSE (Réseaux Sociaux d’Entreprise) s’impose aux entreprises comme une évidence, un must, mais aussi une contrainte voir une menace.

Si personne ne conteste son importance ou son omnipotence, en particulier dans les usages des jeunes générations, il est légitime de se questionner sur  la plus-value qu’il est susceptible d’apporter à l’entreprise et l’on peut légitimement être effrayé par son caractère sauvage, définitif et instantané.

Je me souviens être intervenu chez Canal + dans les années 2000, alors que l’entreprise développait et commercialisait le « Deuxième Monde », sorte de chat collaboratif en 3D dans les rues de Paris, ancêtre de « Second Life » qui fut un succès outre atlantique.

En entrant sur le plateau des « geeks », je constatais une effervescence bruyante, suspecte dans ce type d’équipe ; le sujet de ce tumulte n’était pas technologique, mais philosophique. Le concept porté par une technologie avant-gardiste touchait à ses limites, celle de la démocratie. 

Tout le monde pouvait communiquer avec tout le monde, sans que l’on ait imposé de réelles règles de bonne conduite, de régulation, de modération. Le sujet qui interpellait toute cette équipe ce jour-là était celui de l’élaboration d’une constitution, d’un parlement, d’une représentation sociétale et de son gouvernement … dans ce monde parallèle, immatériel … mais bien actif.

Le RSE porte aujourd’hui des technologies incroyablement performantes, depuis le simple chat, ou l’échange par mail jusqu’à la voix et l’image sur IP (qui remplaceront un jour le téléphone et la visio conférence) ou encore l’échange de fichiers et de contenu (GED , Content Management ).

L’articulation et les modes de fonctionnement de la communication et des échanges supportés ne sont pas gérables … Ils sont plus ou moins contraints par l’outil qui impose quelques règles de base simplistes du type « acceptes-tu d’être mon ami ? … » ou « veux-tu faire partie de ma communauté ? ». 

Les solutions proposées aujourd’hui sont davantage portées par la technologie que structurées autour de la finalité, et si 70% des entreprises du CAC40 ont désormais un Réseau Social d’Entreprise, on peut se poser la question de savoir la valeur qu’il leur apporte … et le(s) risque(s) généré(s).

Le RSE : changement de paradigme

La technologie a porté le changement. Les « geeks » ont défini les règles de ce changement ; bien souvent dans un contexte CtoC  voir plus rarement BtoC  : on parle de réseau social.

Adapter ce concept à la collaboration dans l’entreprise, rajouter « entreprise » en particule  et imaginer que cela suffise à faire de l’usage partagé un modèle vertueux dans l’entreprise revient à vouloir  mettre un moteur à un vélo plutôt qu’à dessiner dès le départ une moto … c’est hybride, peu performant, difficilement pilotable, dans tous les cas non satisfaisant.

L’informatique et la technologie doivent être au service de l’objectif poursuivi, pas l’inverse. C’est donc au management de définir les règles de la collaboration, les outils et moyens à livrer pour optimiser cette collaboration ; la technologie doit s’effacer, devenir un moyen, pas une finalité.

Le RSE qui performe ne peut être qu’une plateforme d’Intelligence Collaborative.

Il faut se poser la question des objectifs poursuivis :

  • Est-ce un espace d’information générique sur l’entreprise ?
  • Est-ce un support au Knowledge Management ?
  • Est-ce un outil qui vise la création de valeur par le partage organisé des savoirs en jouant ainsi sur les synergies des équipes ? …dans l’entreprise ? …plus largement en y intégrant son écosystème ?
  • Est-ce un outil qui fluidifie des process usuels ou des process ad’hoc, en mode projet ?
  • Ou est-ce tout cela à la fois ?
  • Comment suit-on l’évolution des échanges ?
  • Comment s’assure-t-on que les bonnes idées vont émerger, être suivies et protégées ?
  • Comment capitalise-t-on toute cette richesse ?

Les solutions proposées actuellement se fondent sur les technologies existantes en matière de Wiki,  chat, VOIP,  vidéo conférence, mail… intègrent parfois des outils de Content Management, plus rarement essayent d’y adjoindre un moteur de workflow. 

On essaye d’orchestrer toutes ces briques de façon plus ou moins heureuse, au détriment de la performance, de la souplesse, de la simplicité et de la sécurité.

Il convient de changer de paradigme et considérer qu’un RSE suit une logique, des objectifs, des règles. Il convient d’établir l’assemblée constituante, la représentation citoyenne, la gouvernance du ou des ensembles qui seront mis en place : Qui fait quoi ? Avec qui ? Comment ? Avec quels outils ? Selon quelles règles ? Avec quel suivi ? Quel niveau de contrôle … ?

Il faut « dessiner » ce réseau, de façon dynamique, simple, rapide et informer des règles de gouvernance et de communication.

En résumé, il faut avoir un noyau de modélisation à la portée de la gouvernance et y adjoindre en pilotage les outils les plus performants de chat, voix sur IP …. pas l’inverse. C’est une solution très complexe qui ne le montre pas.

Le RSE performant est une solution d’Intelligence Collaborative pilotant au travers d’un workflow intuitif la collaboration optimisée des communautés participantes en y adjoignant tous les outils les plus performants en matière de communication.

Il s’agit d’une révolution, mais aussi d’une porte ouverte vers plus de synergies, plus de performances et plus de création de valeur.

Par Olivier BOURROUILH, Président de Rok Solution 

 

Découvrez les formations Techniques de l’Ingénieur :

Vous n’échapperez pas au Big Data !

Le traitement massif des données (Big data) doit permettre aux entreprises d’accroître ses marges grâce, par exemple, à une meilleure connaissance client, un ajustement des flux physiques ou la détection d’erreurs. IDC, spécialiste des marchés des Technologies de l’Information, des Télécommunications et des Technologies Grand Public estime que la vente de solutions Big Data devrait passer de 3,2 milliards de dollars en 2010 à 16,9 milliards en 2015. C’est un taux de croissance annuelle de près de 40 % ! Le Big data devrait notamment se développer dans les secteurs financiers, la vente, les services de santé, les télécom et le secteur public.

De quelles données parle-t-on ?

Le Big data est la résultante de la numérisation de l’économie. Ce terme englobe l’ensemble des données numériques volumineuses (Internet, RFID, mobile) qu’il n’est plus possible d’exploiter avec des outils classiques de gestion de base de données. Ces données sont beaucoup moins structurées que les données traditionnelles : elles comprennent des messages, des opinions et des vidéos. La donnée peut être davantage qualitative, « de contenu », issue des réseaux sociaux et des forums de discussion. 

La donnée brute, directement extraite de l’activité ou de l’opinion de l’internaute apporte une information qui, si elle est bien traitée, promet à son détenteur de suivre pas à pas les comportements des clients et des opérations de l’entreprise. C’est le rôle des analystes spécialisés, les « data scientists » qui interprètent les données, les croisent, les remettent en perspective et proposent des représentations directement compréhensibles pour les niveaux décisionnels. Par exemple, l’analyse des tweets est très appréciée par les émissions de télévisions pour comprendre ce qui intéresse le plus les téléspectateurs !

Les acteurs du Big Data sont multiples sur la chaîne de valeur. Ils concernent la source des données, la gestion et le stock des données, ainsi que l’analyse des données à très grande vitesse et leur exploitation. Toutefois, peu d’acteurs communiquent aujourd’hui sur la source et la façon dont ils exploitent les données.

Place au marketing et à la logistique

Le Big Data est particulièrement plébiscité dans le domaine du marketing. Les données partagées sur internet constituent un gisement inépuisable pour les entreprises qui cherchent à mieux connaître leurs clients et à communiquer avec eux de façon plus ciblée. Grâce à l’analyse de leurs données clients sur internet, elles peuvent, par exemple, segmenter leur clientèle, adresser des messages personnalisés et faire de la publicité en temps-réel.

Dans les magasins de la grande distribution, l’objectif sera d’analyser les tickets de caisse et géolocaliser les préférences des clients pour comprendre les chiffres de vente, voir quels produits il convient de mettre en avant et détecter les ruptures de stocks avant qu’elles ne se produisent. Une fonction en cours de développement est l’analyse du parcours client afin de le relancer du point de vue commercial. La carte de fidélité est pour cela un outil redoutable !Le Big Data a également des usages internes à l’entreprise, notamment dans le suivi de l’activité et la détection des erreurs.

Ces dispositifs sont particulièrement actifs dans le domaine des télécoms, des transports, de la logistique ou de la production industrielle, où le suivi au plus près des flux et des équipements est un facteur clé d’efficacité.

Le flou sur l’usage des données personnelles

La question de la gouvernance des données et notamment des données personnelles se pose. Stéphane Grumbach, directeur de recherche à l’Institut national en recherches informatiques avancées (INRIA) rappelle que si les données du web 2.0 sont produites par les utilisateurs partout dans le monde, elles sont accumulées par des entreprises le plus souvent à l’étranger. En effet, si l’on regarde les 25 sites les plus utilisés aux Etats-Unis, en Chine et en Russie, on s’aperçoit qu’ils sont respectivement à 100 %, 92 % et 68 % nationaux. En revanche, en France, seulement 36 % des sites les plus utilisés sont français et les sites nationaux sont ceux qui récoltent le moins de données. Encore plus fort : le top 50 des sites mondiaux regroupe 72 % de sites américains et 16 % de sites chinois !

Les données personnelles circulent donc en sens unique de l’Europe vers les Etats-Unis ; les données américaines ne viennent pas sur notre continent. « On a un peu perdu pied sur qui possède les données » confie également Matteo Pacca, spécialiste Big Data chez McKinsey. Ce décalage engendre des retombées économiques et politiques importantes. La France est très en retard dans ce secteur par rapport aux autres pays européens et l’Europe est, elle-même, très en retard par rapport aux Etats-Unis et aux pays asiatiques. 

En Europe, l’usage des données doit être cantonné à ce qui est prévu dans les conditions d’utilisations. Seules les données nécessaires à l’objectif que l’on souhaite atteindre doivent être enregistrées. À l’opposé, des modèles américains comme Facebook sont très ouverts. « Facebook a un milliard d’utilisateurs et des millions d’industriels qui exploitent les données des personnes avec leur consentement », rappelle Stéphane Grumbach. « La position européenne défend un certain modèle, mais comme l’industrie n’existe pas en Europe, les européens reposent sur l’industrie européenne et donc sur le modèle ouvert américain », remarque-t-il. Pour Jean-Baptsite Dézard, expert d’IBM, si vous regardez les autorisations que vous donnez aux prestataires qui proposent des applications tierces sur Facebook « vous pouvez dire quand même qu’il y a un abus ». Généralement vous pouvez vous dire que « si c’est gratuit, c’est que la marchandise c’est vous », insiste-t-il.

Un Projet de règlement européen sur la protection des données personnelles a pour objectif de remplacer la Directive européenne de 1995. « Le projet de règlement vient renforcer la protection du consommateur et de l’utilisateur ; en contrepartie il vient alléger les charges administratives pour les entreprises », affirme Thierry Dor, avocat spécialisé dans les activités de nouvelles technologies et de sécurité des données au cabinet Gide Loyrette Nouel. 3 000 amendements ont été déposés. Le texte devrait être voté par le Parlement d’ici fin de l’année et adopté en 2014, pour une application dès 2016. 

Pour tenter de rattraper le retard français en matière de Big Data, le gouvernement a annoncé début avril 2013 un soutien de 11,5 millions d’euros à 7 projets sélectionnés dans le cadre de l’appel à projets Big Data du volet numérique des Investissements d’avenir. L’investissement total en R&D s’élève à 21,5 M€. Cet appel à projets vise à favoriser l’émergence d’une filière française, par le développement de solutions innovantes et leur utilisation par des acteurs industriels variés. Quatre autres projets sont en cours d’instruction dans le cadre de cet appel à projets. Une nouvelle action de soutien à la filière émergente du Big Data est prévue dans le courant de l’année.

Par Matthieu Combe, journaliste scientifique

Rendre les autoroutes intelligentes, le projet innovant des Pays-Bas

Les Pays-Bas ont dévoilé en décembre dernier via une vidéo d’une minute leur intention de rendre leurs autoroutes plus sûres et plus interactives. La Smart Highway, nommée ainsi par le studio Roosegaarde, remplacera ou transformera des éléments incontournables des routes classiques tels que les lignes blanches ou les lampadaires au profit de technologies innovantes. En charge de l’avancement du projet, on retrouve le designer Daan Roosegaarde travaillant conjointement avec le service autoroutier Heijmans.

Première nouvelle, l’autoroute intelligente intègre une poudre photoluminescente aux marquages au sol. L’idée est simple mais ingénieuse : le jour, cette poudre spéciale se gorge de la lumière du soleil pour l’offrir aux conducteurs la nuit. La durée de l’éclairage irait jusqu’à dix heures et des économies d’énergie importantes devraient être générées par ce système. 

Autre révélation, le futur système autoroutier prévoit l’utilisation de la peinture dynamique (Dynamic Paint) afin d’avertir les usagers en temps réel des conditions climatiques. Ainsi des marques au sol apparaîtront en fonction des fluctuations du climat. En cas de neige par exemple, ou de très basse température, le bitume affichera des cristaux géants. 

Dans un futur proche, ces autoroutes nouvelles générations seront pourvues de trois dispositifs interactifs. Dans les cinq années à venir, elles intégreront des voies à induction appelées « Induction Priority Lane » qui permettront aux véhicules électriques de se recharger tout en roulant.

Pour l’heure, cette technologie développée par la société américaine Qualcomm ne le permet pas encore pour les véhicules en marche. Toutefois, les recherches pour aller dans ce sens vont bon train. Ensuite, des lumières implantées un peu partout sur l’autoroute rendront l’éclairage plus interactif que jamais, puisqu’elles ne s’allumeront qu’aux passage des conducteurs.

Enfin, pour ne pas perdre l’énergie déployée par les voitures (l’air produit par le mouvement), des mini-éoliennes parsèmeront l’autoroute et rediffuseront l’électricité ainsi produite à quelques ampoules. 

Le projet est surréaliste pensez-vous ? Les premiers tests débuteront pourtant dès la mi-2013 dans la région de Branbant. Un prototype de Smart Highway de 300 mètres est d’ores et déjà en construction. Cependant, cela n’empêche pas les sceptiques de douter. Le projet est certes prometteur mais il reste à faire ses preuves dans la pratique. 

Toujours est-il qu’exceptionnellement il ne s’agit pas de rendre plus intelligente la voiture pour renforcer la sécurité, mais bel et bien la route. Une démarche à saluer pour son bon sens, comme le souligne le studio Roosegaarde : « les routes ont leur rôle à jouer et doivent devenir intelligentes en fournissant des informations utiles aux conducteurs. ». 

Ces améliorations devraient offrir une visibilité accrue, une plus forte réactivité et donc une plus grande sécurité aux automobilistes. Néanmoins, si cette autoroute innovante devrait affiner l’expérience conducteur, le coût d’une telle entreprise reste inconnu. Et surtout comment sera-t-il impacté sur les utilisateurs et rentabilisé pour les investisseurs.

Par Sébastien Tribot, journaliste scientifique

 

Découvrez les formations Techniques de l’Ingénieur :