Vers un nouveau béton réutilisant le plastique des ordinateurs usagés

Dans le cadre de cette étude, l’équipe du Département des structures s’est plus particulièrement intéressée à la fabrication des mélanges pour béton de type prêt à l’emploi et à la possibilité de substituer une partie des agrégats classiquement utilisés par de nouveaux agrégats à base de plastique recyclé issu des équipements électriques et électroniques usagés. Après avoir étudié les caractéristiques de travail, physiques et mécaniques, de mélanges de référence (à partir d’agrégats du Danube entre autres), ils les ont comparées à celles des mélanges utilisant les déchets plastiques.

Les premiers résultats ont permis de constater des différences entre les propriétés mécaniques des deux matériaux, notamment en ce qui concerne les performances d’adhérence. En effet, l’agrégat plastique se présente sous forme plane avec une surface lisse ce qui rend la liaison avec la pâte cimentaire plus difficile que pour les agrégats compacts traditionnels tels que le gravier naturel. Il est cependant possible de traiter cette surface de contact afin d’améliorer la capacité de mouillage du matériau. Les chercheurs du Département des structures ont expérimenté différentes méthodes pour la modification de la surface d’un polymère et les ont appliquées aux agrégats à base de plastique recyclé.

Plusieurs expériences ont ensuite été menées en variant les proportions d’agrégats classiques et d’agrégats à base de plastique dans le mélange pour béton. Elles ont permis la création d’un tableau de valeurs des caractéristiques mécaniques et physiques du matériau en fonction de sa teneur en plastique recyclé. Il serait donc possible pour un architecte de choisir le mélange approprié en fonction de ses besoins avec pour seule contrainte que les agrégats à base de plastique recyclé ne représentent pas plus de 25% de la quantité totale d’agrégats utilisée dans le mélange.

Les résultats de ces travaux permettent d’envisager la réutilisation des composants plastiques des équipements électriques et électroniques usagés dans la fabrication de béton léger. Il reste toutefois à étudier les caractéristiques d’absorption, la carbonatation et la durabilité du matériau. Si ces propriétés se révèlent équivalentes à celles des matériaux classiques, les nouveaux composites à base de plastique recyclé représenteraient une alternative bon marché ainsi qu’une première réponse aux problèmes de gestion des déchets solides générés par la production du plastique, le tout en économisant de l’énergie.

Source : Bulletins électroniques

Victoire française au Solar Décathlon 2012 de Madrid

CANOPEA est un concept de « nanotours » durables, « projet d’habitat solaire innovant intégrant les qualités de l’habitat individuel dans un contexte urbain ». Cette nanotour abrite des maisons unifamiliales à chaque étage et propose un espace de vie et des services communs dans la partie supérieure.

Solar Decathlon est un concours international mettant en compétition des universités du monde entier pour concevoir et réaliser des maisons fonctionnant exclusivement grâce à l’énergie solaire. C’est le Département de l’Energie qui est à l’origine de cette initiative née en 2002 et organisée tous les deux ans. Suite à un accord entre le DOE et le gouvernement espagnol, un concours Solar Decathlon Europe a vu le jour en 2010 à Madrid, dont la seconde édition vient de s’achever sur la victoire du Team Rhônes-Alpes.

Au total ce sont plus de 22 000 visiteurs qui ont pu découvrir les dix-neuf projets sélectionnés représentants douze pays et six-cent « décathlètes ». Outre le projet Rhônes-Alpes la France était également représentée par le projet Aquitaine Bordeaux Campus ainsi que par le projet franco-italien Astronyshine.

Chaque projet est évalué sur la base de dix critères que sont l’architecture, l’ingénierie et la construction, l’efficacité énergétique, le bilan électrique, les conditions de confort, le fonctionnement de l’habitat, la communication, l’industrialisation, l’innovation et la durabilité. Pour l’emporter, le projet CANOPEA s’est classé en première position sur quatre de ces critères : architecture, confort, fonctionnement et innovation.

La prochaine édition de Solar Decathlon aura lieu en 2014 en France à Versailles.

Source : bulletins électroniques

A lire également : Solar Decathlon Europe 2010 : 2 équipes françaises en lice

L’essentiel de Reach (Octobre)

 Statistiques sur les enregistrements REACH 

03/10/2012
L’Agence européenne des produits chimiques (ECHA) publie désormais des statistiques détaillées sur la provenance et les types de dossiers d’enregistrement REACH ainsi que les substances enregistrées. Ces statistiques seront publiées chaque mois.
http://www.echa.europa.eu/view-article/-/journal_content/c21b2cc9-0e54-4e23-bcd0-1d1286173e5a

 CLP : mise à jour avant le 1er décembre 

04/10/2012
L’Agence européenne des produits chimiques (ECHA) rappelle aux entreprises que la seconde adaptation aux progrès techniques et scientifique (ATP) du règlement relatif à la classification, à l’étiquetage et à l’emballage des substances et des mélanges (règlement CLP) doit être appliquée aux substances avant le 1er décembre 2012. Les modifications du règlement CLP qui deviennent applicables concernent de nouvelles sous-catégories pour la sensibilisation cutanée ou la sensibilisation respiratoire, une révision des critères de classification pour la toxicité chronique en milieu aquatique et une nouvelle classe de danger « dangereux pour la couche d’ozone ». Les entreprises sont invitées à classer, étiqueter et emballer leurs substances en conformité avec ces nouvelles dispositions, ainsi qu’à mettre à jour leurs dossiers d’enregistrement REACH et leurs notifications à l’inventaire des classifications et étiquetages. Plus d’information sur : http://www.actu-environnement.com/ae/news/CLP-reglement-adaptation-susbtances-decembre-2012-16727.php4#xtor=ES-6

Informations pour éviter les essais inutiles sur les animaux – sept nouvelles demandes 

07/10/2012
L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. Les substances concernées sont :

  • 1,3,5-triallyl-1,3,5-triazine-2,4,6(1H,3H,5H)-trione
  • 2,4-dimethyl-6-(1-methyl-pentadecyl)phenol
  • 3,6-bis(4-tert-butylphenyl)-2,5-dihydropyrrolo[3,4-c]pyrrole-1,4-dione
  • 3,6-bis-biphenyl-4-yl-2,5-dihydropyrrolo[3,4-c]pyrrole-1,4-dione
  • C14-16 (even numbered) and C16 (branched) saturated and unsaturated aliphatic hydrocarbons
  • guanidinium nitrate
  • S-(3-(triethoxysilyl)propyl)octanethioate

Les informations relatives à ces substances sont à soumettre pour le 12 novembre 2012. Plus d’information sur : http://echa.europa.eu/web/guest/information-on-chemicals/testing-proposals/current

 Bisphénol A : le Sénat vote l’interdiction pour 2015 

09/10/2012
Le Sénat a adopté mardi 9 octobre en première lecture la proposition de loi visant au retrait des conditionnements alimentaires contenant du bisphénol A (BPA). Plusieurs modifications substantielles par rapport à la proposition adoptée il y a un an par les députés ont été adoptées, suscitant des réactions tant du côté des industriels que des ONG. L’interdiction générale du BPA est repoussée à juillet 2015 et le Sénat élargit l’interdiction aux CMR et aux perturbateurs endocriniens dans les dispositifs médicaux. Plus d’information sur :
http://www.senat.fr/petite-loi-ameli/2012-2013/9.html

 Nouvelles consultations de l’ANSES pour des VLEP 

19/10/2012
L’Anses a lancé le 18 octobre plusieurs consultations portant sur les valeurs limites d’exposition professionnelles (VLEP) de certaines substances chimiques. L’Agence est chargée de réaliser l’évaluation scientifique préalable à la fixation de ces valeurs par le ministère du Travail. C’est dans ce cadre qu’elle met en place deux types d’appels à consultations : consultations « amont » et consultations « aval ». Dix consultations « amont » sont d’ores et déjà lancées dont 4 sont ouvertes jusqu’au 20/12/2012. Le premier appel à contributions « aval » est ouvert jusqu’au 15/12/2012 pour 5 rapports d’expertise.

 Consultations publiques pour des C&L harmonisés 

23/10/2012
L’Agence européenne des produits chimiques (ECHA) lance une nouvelle consultation publique sur une proposition de classification et d’étiquetage harmonisés du plomb et de trois substances actives utilisées dans les produits phytopharmaceutiques : carvone, métaldéhyde et diméthénamide. Les commentaires sont à soumettre jusqu’au le 7 décembre 2012. Plus d’information sur : http://echa.europa.eu/web/guest/view-article/-/journal_content/1bc5a418-70fc-4d69-903d-7fee74135e80

 Projet de plan d’actions pour l’évaluation des substances 

23/10/2012
L’ECHA a préparé une proposition visant à actualiser le plan d’action communautaire (Corap) pour 2013-2015. Le projet de plan contient 116 substances proposées pour être examinées par les États membres dans le cadre du processus d’évaluation des substances, du règlement REACH. Plus d’information sur : http://echa.europa.eu/web/guest/view-article/-/journal_content/c07209f6-3edd-43ee-b884-080f48a28800

 Nouvelle version CHESAR 

24/10/2012
La nouvelle version du CHESAR intègre de nouvelles fonctionnalités pour le rapport sur la sécurité chimique et l’évaluation de la sécurité chimique. L’ECHA recommande aux déclarants d’utiliser CHESAR 2.1 pour préparer et mettre à jour les dossiers d’enregistrement. Plus d’information sur : http://echa.europa.eu/en/web/guest/view-article/-/journal_content/3d344c67-8da8-43c8-bdb2-bd53b9b455b7
Par Céline Nectoux, ingénieur environnement CNRI

 

 

 

 

 

 

 

 

Japon : La reconstruction du Nord-Est accélérée par une nouvelle méthode de construction

A la suite de la catastrophe du 11 mars 2011 qui aura vu le tremblement de terre le plus puissant jamais enregistré au Japon et un puissant tsunami, la région côtière se situant au Nord-Est de la capitale a été dévastée. A la suite de cette catastrophe, le gouvernement japonais a établi une agence de reconstruction qui supervise les efforts dans ce domaine.

Les efforts de reconstruction n’émanent pas uniquement du public puisque de nombreuses initiatives privées apparaissent périodiquement, à l’image du procédé mis au point par une alliance entre deux grands groupes japonais : Nippon Steel&Sumitomo Metal Corporation (NSSMC). Les deux groupes, qui ont fusionné en octobre 2012 pour donner naissance au numéro deux mondial de l’acier, ont développé une méthode de construction innovante qui permettra d’accélérer la reconstruction d’une zone encore fragile à l’approche de l’hiver.

Cette méthode est basée sur l’utilisation de panneaux faits de feuilles métalliques de faible épaisseur et de bois pour les murs et les plafonds. Cette technique permet d’économiser substantiellement tout usage de béton et implique un nombre réduit d’étapes de construction ; c’est-à-dire qu’une maison peut ainsi être construite en 5 mois, soit les deux tiers de la durée requise pour une maison habituelle.

Les travaux pour construire 4 groupes de maisons, soit un total de 54 structures près de son usine de Kamaishi (ville côtière de la préfecture d’Iwate) ont débuté le 9 octobre 2012 pour une livraison prévue en mars 2013, avant la fin de l’année fiscale japonaise 2012. Le projet devrait s’achever avec la construction de 156 maisons supplémentaires, toutes destinées à être rachetées par la ville afin d’héberger la population déplacée par les événements du 11 mars.

Source : bulletins électroniques

Médium, la dernière trouvaille des créateurs de Twitter

Medium se veut donc une plateforme de publication collaborative dont l’objectif est de tirer partie des connaissances des utilisateurs. Ce principe de partage du savoir s’approche de celui de Wikipédia. Le contenu est enrichi régulièrement car chacun peut devenir contributeur. « Medium a été conçu pour permettre aux personnes de choisir le niveau de contribution qu’ils préfèrent. Nous savons que la plupart des gens, la plupart du temps, vont simplement lire et regarder du contenu, ce qui est bien, mais s’ils le souhaitent, ils pourront également cliquer pour exprimer si quelque chose est bon et faire ainsi évoluer la popularité du mini blog ».

Mais à la différence d’un réseau social classique, un groupe de personnes peut-ici travailler sur un même projet. Cela pour apporter une plus grande valeur aux renseignements ou au contenu proposé. Il ne s’agit pas non plus de suivre le fil d’actualité d’une personne mais de pouvoir trouver l’ensemble des données se rattachant à un sujet particulier. De cette manière, l’équipe de développement souhaite privilégier la qualité à la quantité. Toujours selon les mots d’Evan William : « notre philosophie est de dire que la qualité engendre la qualité. Nous allons donc développer Medium de manière intelligente et nous assurer qu’il apportera de la valeur pour chacun dans un univers de plus en plus mobile, connecté et bruyant ».

Ce nouvel outil pourrait bien faire de l’ombre à la plateforme Tumblr, créée en 2007, en raison des possibilités supplémentaires qu’il propose. Lancé depuis plus de deux semaines en version bêta pour les quelques privilégiés ayant reçu une invitation, il faudra patienter encore quelques semaines avant que Medium ne soit disponible au public.

Version Test : https://medium.com/c/b5bfa5abf32

Site d’Evan Williams et Biz Stone :https://medium.com/c/2a65aec3167b

Ces messieurs ont également un projet extension de Twitter qui s’appelle Branch qui permet la conversation en ligne, sans se soucier de la barrière des 140 caractères.

Par Sébastien Tribot, journaliste scientifique

Stocker de l’information à l’aide d’un courant de spins

Une première étape vers les mémoires « spintroniques » vient d’être franchie. Des chercheurs du CEA, du CNRS, de Thales, de Crocus Technology et de l’université Joseph Fournier (Grenoble) ont fait circuler un courant de spins dans une mince couche de germanium, ce qui a eu pour effet d’aimanter le matériau.

La nouveauté réside dans la technique utilisée pour aimanter le germanium. Jusqu’à présent, aimanter un semi-conducteur consistait à appliquer un courant électrique à partir d’un matériau lui-même aimanté. Cette fois, il s’agit de générer un courant de spins, à la manière d’un courant d’électrons, en chauffant une partie seulement du matériau. De même que c’est le réagencement des charges électriques qui est à l’origine de la tension, dans le germanium, ce réagencement s’applique aussi aux spins !

Le germanium permet donc de recycler l’énergie thermique de façon très pertinente…Cette méthode permet d’envisager la circulation de données sous forme de spins, et ce dans des conditions expérimentales reproductibles à l’échelle industrielle : température ambiante et circulation des spins sur des distances suffisamment longues pour être utilisées dans des puces microélectroniques.

Ces résultats, diffusés dans la revue Physical Review Letters, permettent d’envisager la conception de puces « spintroniques » à base de germanium capables de contenir des informations à la fois sous forme de charges électriques et d’orientation de spins.

Par Audrey Loubvens, journaliste scientifique

De nouvelles mémoires à base de matériau ferroélectrique

C’est l’application la plus prometteuses, imiter les synapses excitatrices ou inhibitrices. Pour y arriver, des physiciens de l’Unité mixte de physique CNRS/Thales, en collaboration avec l’Université de Cambridge et Thales Research and Technology, ont mis au point un memristor original : une couche d’oxyde de baryum et de titane est prise en sandwich entre une oxyde de manganèse et une couche de cobalt.

L’oxyde de baryum et de titane constitue le cœur du dispositif, les couches d’oxyde de manganèse et de cobalt jouent le rôle d’électrodes, les électrons étant transmis par effet tunnel à travers le ferroélectrique. Le gros avantage est qu’il est possible de modifier l’intensité du courant directement en faisant varier la polarisation du ferroélectrique. Ainsi, l’information stockée peut prendre une centaine de valeurs entre 0 et 1 (et non seulement 0 ou 1).

Or, ce comportement est très recherché pour la mise au point d’architectures neuromorphiques. « L’ensemble des synapses définit la mémoire. En jouant sur la conductivité du memristor, c’est comme si on modifiait la transmission d’une synapse. » explique Julie Grollier, chargée de recherche au CNRS. Ces memristors sont donc des candidats séduisants dans l’imitation du fonctionnement des synapses, excitatrices ou inhibitrices. « Notre dispositif est basé sur la ferroélectricité qui est un phénomène bien connu. Contrairement à d’autres approches, nous ne modifions pas la structure du memristor par des déplacements d’atomes par exemple, ce qui fragilise les dispositifs. » précise Manuel Bibes, chargé de recherche au CNRS.

Un tel memristor peut donc être utilisé soit comme mémoire binaire, soit comme mémoire analogique. De plus, ce système consomme peu d’énergie : 10 femtoJ suffisent pour écrire un 0 ou un 1 dans un bit, soit dix fois moins que pour des mémoires flash. Mieux, le temps d’écriture est abaissé à la dizaine de nanosecondes. Dernier atout : la théorie prévoit un nombre de cycle de réécriture de 1014 là où les mémoires flash ne sont qu’à 105.

Plus économe, plus rapide, plus robuste ? Ce memristor pourrait bien être un élément incontournable pour la construction de neurones artificiels.

Par Audrey Loubens, journaliste scientifique

L’écoulement le plus lent du monde est attribué à…

Le précédent record est pulvérisé ! Avec seulement 10 picolitres par minutes, le dispositif mis au point par des chercheurs hollandais est trois fois plus lent que ce qui existait jusque-là.

Pour bien se représenter la lenteur de cet écoulement, c’est un débit qui permet de remplir un litre en … 190 300 ans environ !

Pour réussir ce tour de force, l’équipe de l’université de Twente a utilisé une puce en silicium à l’intérieur de laquelle ils ont creusé un tunnel de 100 µm de long aux ouvertures duquel ils ont placé deux électrodes. Ce sont ces électrodes qui permettent le comptage de la quantité de liquide écoulé.

Rassurons-nous, l’objectif premier des chercheurs n’était pas de rentrer dans le Guiness Book ! Non, initialement leur travail devait aboutir à la fabrication d’un microlaboratoire d’analyse, avec pour applications finales l’analyse de liquide comme la détection de maladies dans du sang par exemple. Ces travaux sont parus dans Physical Review Letters.

Par Audrey Loubens, journaliste scientifique

Gestion des déchets chimiques : les systèmes de santé et les particuliers paient la facture

L’industrie avec un grand I utilise de plus en plus de produits chimiques.

Dans le contexte actuel, avec l’émergence de certains pays comme le Brésil, l’Inde, l’activité industrielle chinoise de plus en plus grande, cette utilisation toujours plus importante des produits de la chimie implique forcément des coûts en matière de santé et d’environnement toujours plus conséquents.

C’est en tout cas ce que révèle le rapport publié par le PNUE (Programme des Nation Unies pour l’Environnement) au début du mois de septembre.

236 millards de dollars perdus

Achim Steiner, le directeur exécutif du PNUE, a résumé la problématique liées à la gestion des produits chimiques :  » les progrès en terme de production et d’efficacité industrielles permis par l’utilisation des produits chimiques ne doivent pas se faire au détriment des être humains et de l’environnement. En fait, les progrès faits via l’utilisation de ces produits chimiques ne peuvent pas être considérés comme des progrès s’ils mettent en péril les réserves d’eau potable dans certaines régions, ou la sécurité alimentaire dans d’autres ».

« Les communautés à travers le monde, en particulier celles des pays émergents et en voie de développement, sont de plus en plus dépendantes des produits chimiques, depuis les engrais en passant par les produits plastiques et électroniques », affirme  également Achim Steiner.

La facture  payée par les systèmes de santé et les particuliers

Dans son rapport, le PNUE met en avant les pertes financières liées à la mauvaise gestion de ces produits chimiques. Ce sont près de 236 millards de dollars qui seraient perdus entre la production et le traitement des déchets. Plus surprenant, la majorité de ces 236 millards de dollars ne sont pas à la charge des industriels, mais plutôt des systèmes de santé internationaus et des particuliers. C’est dans ce sens que le PNUE appelle dans son rapport les gouvernements à prendre les mesures nécessaires pour faire évoluer cette situation en impliquant de plus en plus les industriels sur cette problématique.

Pour pendre un exemple concret, le rapport indique que, selon son estimation, les coûts liés à des empoisonnements par les pesticides en Afrique sub-saharienne sont supérieurs aux aides pour le développement versées annuellement à cette région pour la santé.

Autre exemple, en Chine, la pollution de l’eau a provoqué 634 millions de dollars de dégâts dans les élevages de poisson. Et ces dégâts sont entièrement à la charge des pisciculteurs.

Tout en soulignant que des progrès ont été faits ces dernières années dans la gestion des produits chimiques, le PNUE met en avant que « le rythme des progrès a été lent, et les résultats restent encore très insuffisants ».

Pour en savoir plus sur le rapport du PNUE, cliquez ici

Par Pierre Thouverez

Les formations Techniques de l’Ingénieur :

Les fiches pratiques :

Le Salon IP Convergence 2012, bientôt à Paris

Paris accueillera du 23 au 25 octobre la session 2012 du salon IP Convergence, évènement incontournable notamment pour les professionnels du secteur numérique, à la porte de Versailles. Salon des réseaux, de la téléphonie, de la visioconférence et des opérateurs télécoms, IP Convergence est né en 2007 lors de la fusion de trois salons alors distincts : Convention VoIP, Mobile Office et M2M Forum.

« La transformation des infrastructures s’accompagne d’un équipement plus fort en matière d’outils de collaboration, de communication unifiée, de vidéoconférences et de médias sociaux. La convergence des différents moyens de communication est devenue une réalité », explique Carole Jardon, directrice de Pôle, arguant que toutes les solutions seront présentes au sein du Salon cette année. Le Salon Réseau et Télécoms s’était enrichi l’an passé du Salon Cloud IT Expo (le salon du Cloud Computing, de la virtualisation et des infrastructures sécurisées), et du Salon Mobile IT Expo. Il s’agrandit encore cette année avec le Big Data Expo, pour former la première plateforme professionnelle globale dédiée au numérique.

Le Big Data Expo devrait pouvoir apporter des solutions aux entreprises confrontées aux problèmes du « Big Data » : un volume croissant de données et d’informations à échanger, manipuler et traiter, la multiplication des sources et des formats, avec des enjeux qualitatifs croissants ainsi que des risques sécuritaires et de confidentialité grandissants.

Près de 150 exposants et partenaires seront là pour accueillir les 80 000 visiteurs attendus pour l’édition de cette année, qui comprendra également les assises du Cloud Computing et du Big Data.

Le site du salon : http://www.ipconvergence.fr/

Le stockage perpétuel des données par Hitachi

Voilà une invention qui devrait faire mouche. Stocker des données quasi-indéfiniment, jusqu’à plusieurs centaines de millions d’années, sur des plaques de quartz.

On le sait, tous les supports sont périssables. Le papier ou le plastique se dégradent, les CD et disques durs ont une durée de vie limitée à quelques dizaines d’années… Or le volume d’information ne cesse d’augmenter. En cause, la multitude de données que produisent les entreprises, la duplication voire la triplication de ces données, ou plus simplement la multiplication des informations échangées entre internautes. Résultat, ce volume double chaque année. Un accroissement qu’il faut gérer.

La conservation des données est un enjeu majeur de notre époque. En plus de leur obsolescence inévitable, à plus ou moins court terme, les supports de lectures évoluent continuellement. Kazuyoshi Torii, chercheur du conglomérat industriel, estime que la « possibilité de perdre des informations a même augmenté ».

La technologie développée par Hitachi, proposée sous forme de petit carré de 2 centimètres de côté pour une épaisseur de 2 millimètres, pourrait donc révolutionner notre manière de stocker. Elle présente, en effet, plusieurs avantages. D’une part, grâce au support. Le quartz est un matériau fiable, capable de stocker des informations des centaines de millions d’années. En outre, il est davantage résistant aux fortes chaleurs, à l’eau ainsi qu’à certains agents chimiques. Qui plus est, ce petit carré de quartz est poinçonné en langage binaire, connu et lisible par tous les ordinateurs.

Pour l’heure, il n’est possible de stocker qu’une densité d’informations comparable à celle du CD. Mais les chercheurs ne sont pas inquiets. Ce support révolutionnaire n’en est qu’au stade expérimental. Quant à la commercialisation, il faudra bien attendre 2015.

Par Sébastien Tribot, journaliste scientifique

Sources :

L’A350 devient réalité

Ce matin, le Premier ministre Jean-Marc Ayrault a inauguré la chaîne d’assemblage du dernier né d’Airbus, l’A350. Ou plus précisément l’A350XWB pour extra wide body, fuselage extra large en français.

Cet avion de ligne de 250 à 400 places est le premier à avoir été développé suivant le concept de cabine industrialisé, c’est-à-dire que chaque compagnie peut personnaliser son A350 en choisissant parmi un catalogue de solutions modulaires.

Avec ce tout nouvel avion, Airbus espère bien s’imposer sur le marché des longs-courriers. Fabrice Brégier, PDG d’Airbus, ne cache pas son ambition de gagner la moitié des parts de marché de ce secteur. L’A350 a été conçu pour concurrencer directement le Dreamliner  de son concurrent américain.

Comme ce dernier, l’A350 est construit à plus de 50 % avec des matériaux composites. Ces plastiques ont permis d’alléger le poids total de l’avion ce qui permettra des économies de carburants précieuses en ces temps de pénurie de pétrole.L’A350 a été pensé pour consommer le moins possible : les moteurs Rolls-Royce Trent sont les moins gourmants et son fuselage innovant, en plastique renforcé de fibres de carbone, participe à diminuer la consommation de carburant tout en facilitant la maintenance.

Airbus prévoit de livrer ses premiers avions à Qatar Airways dans la deuxième moitié 2014, s’il n’y a pas de retard…

Par Audrey Loubens, journaliste scientifique

Journée technique « C.O.V.- R.E.A.C.H.- Produits Naturels »

Elle se tiendra à Bernay (27300) le 29 novembre 2012 et concernera les peintures et revêtements sur les thèmes suivants :

Les évolutions récentes de la Directive Européenne Décopaint et de la norme ISO 16000 en matière de mesure des taux de COV, ainsi que les  écolabels et les labels avec des allégations portant sur des matières naturelles ou bio-sourcées apparus dernièrement, seront présentés et discutés.

Cette manifestation s’adresse aux professionnels fabricants de peintures et revêtement… mais aussi à tous les membres de ces filières, depuis les concepteurs jusqu’aux utilisateurs de ces produits, en passant par les distributeurs. Elle s’adresse également  aux laboratoires d’analyse, aux organismes de certification et de répression des fraudes, chargés du contrôle qualité, de la conformité et de la vérification des allégations associées à ces produits.

Le programme

  • Introduction   9h00 – 9h20

Mairie de Bernay, Hervé MAUREY, Sénateur-Maire de Bernay
S.E.C.F,  Jean-Pierre DAL PONT, Président S.E.C.F
A.F.T.P.V.A., Alain LEMOR, Président A.F.T.P.V.A

  • Les labels environnementaux et les textes réglementaires – Quoi de neuf ? : C.O.V., R.E.A.C.H., ISO 16000 9h20 – 9h40 AFNOR Certification, Arnaud LACROIX, Manager : Les Ecolabels

9h40 – 10h20 Laboratoire S.G.S. Multilab, Yvon GERVAISE, Directeur Général : C.O.V. Arrêté du 19 avril 2011 (321/2010) : Modalités pratiques et essais inter laboratoires. Analyse C.O.V. émission selon ISO 16000

10h20 – 10h40  Questions / Table ronde avec la participation de la DGCCRF

  • Le point de vue et les démarches environnementales des clients  

10h50 – 11h10  Castorama, Nirina ANDRIAMANDIMBY, Responsable Qualité Produits Chimiques : La démarche R.E.A.C.H. et ISO 16000 vue par un distributeur

11h10 – 11h30  F.F.B. / U.P.P.F. (Fédération Française du Bâtiment / Union des Peintres Professionnels Français), Yves LABBE, Directeur Technique F.F.B. : Les solutions de nettoyage des outils et les bonnes pratiques

11h30 – 11h40  Questions – Discussion

  • En amont : Ce qui ce prépare pour demain

11h40 – 12h00 Dow Chem., Marine BARASC : Nouvelles résines époxy à faible émission de COV

12h00 – 12h20 C.N.R.S. Thiais, François HENRY, Professeur : Les évolutions dans les procédés de synthèses de polymères.

12h20 – 12h40  Ecoat, Olivier CHOULET, cofondateur : Nouvelles résines biosourcées

  • Conclusions

12h40 – 12h50   Jean-Claude DANIEL, Conseiller scientifique S.E.C.F.

13h15 – 15h00 : Déjeuner au restaurant La Pommeraie à St Quentin des Isles www.lapommeraie.com

  • Programme optionnel à partir de 15h00 : visite du laboratoire D.V.I. ou visite du cœur historique de Bernay

Pour en savoir plus (programme, information pratique et inscription) :
http://chimie-experts.org/pdf/AFTPVA-SECF-JT-DU-29-11-2012-A-BERNAY.pdf
http://www.aftpva.org/upload/publication/aftpva86.pdf

Contact : AFTPVA : Marie-Odile Barkallah
5 rue Etex – 75018 Paris
Tél. : 01 42 63 45 91
Fax : 01 42 63 31 50
[email protected]

Découvrez les formations Techniques de l’Ingénieur :

Google se fait tirer les oreilles par la CNIL

Décidément, les litiges sur la confidentialité des données personnelles des utilisateurs d’internet sont à la mode. Après Facebook et son bug sur des messages personnels divulgués trois ans après, c’est donc Google qui s’illustre par une utilisation opaque de nos données personnelles. Plus précisément, depuis le début de l’année, Google a modifié sa façon d’exploiter les données de ses utilisateurs, n’hésitant pas à combiner toutes les infos en sa possession, quel que soit le service utilisé par l’internaute.

On s’explique. Les vidéos visionnées sur Youtube, les mots-clés tapés sous le moteur de recherche pourront servir à personnaliser la publicité soumise quand vous consultez votre boite Gmail. Cette approche est bien plus intrusive que quand les services étaient cloisonnés, assurant un minimum de vie privée aux utilisateurs. Mais il devient de plus en plus évident que l’expression « vie privée » n’a plus aucun sens sur la toile.

Car comme le rappelle la Commission nationale de l’informatique et des libertés (CNIL) dans son rapport paru mardi 16 octobre: « les nouvelles règles de confidentialité  [de Google] suggèrent l’absence de toute limite concernant le périmètre de la collecte et les usages potentiels des données personnelles ».

En puisant dans tous ses services toutes les informations concernant vos goûts et préférences en temps réel, Google dispose d’un dispositif ultra puissant pour affiner les publicités qui apparaitront spontanément sous vos yeux. Car la finalité est bien commerciale, des fichiers de données aussi précis valent de l’or. Sauf qu’il nous est impossible de gérer la confidentialité de ces données, ce qui n’est évidemment pas très normal.

La CNIL suggère donc poliment à Google de « renforcer le consentement des personnes pour la combinaison des données pour les finalités d’amélioration des [services en ligne], pour la publicité et l’analyse de fréquentation. Cela pourrait être fait en donnant la possibilité aux utilisateurs de choisir quand leurs données sont combinées par exemple, avec des boutons dédiés sur les pages des services [de Google] ». Bien que prévenu par la CNIL du contenu du rapport depuis mi-septembre, Google n’a toujours rien changé…

Par Audrey Loubens, journaliste scientifique

A lire :

Vous regrettez d’avoir un Blackberry ? Vous n’êtes pas le seul !

La chanson « Someone like you » d’Adele est la plus chantée lors des enterrements. Aucun lien me direz-vous ? Et bien si. Car la firme américaine Blackberry pourrait bien voir débarquer à son siège tout un orchestre et des chœurs entonnant «  Never mind I’ll find, someone like youuuuu ».

Car le fabriquant de Blakberry, Research in Motion (RMI), est à l’agonie, et ça sent le sapin : un chiffre d’affaire en chute libre de 31%, moins de 5% de parts du marché des smartphones aux Etats-Unis contre 50% il y a à peine trois ans. Pire, la marque souffre d’un déficit d’image qu’il va être difficile de contrecarrer. Pour preuve, ces témoignages d’utilisateurs de Backberry parus dans le New York Times ce lundi 15 octobre : « J’ai honte », « Je le cache sous mon iPad » ou encore ce cri de détresse « Tout ce qu’il me reste ce sont les chats avec ma famille » !

On est bien loin de l’image très pro qu’avait Blackberry, smartphone privilégié des cadres il y a quelques années.  Désormais, les détenteurs d’un « BB » jalousent ceux qui utilisent des smartphones Apple ou Samsung, enviant leurs milliers d’appli et leur appareil photo digne de ce nom. A lire ces nombreux témoignages de souffrance, on ne peut que compatir devant l’isolement social subit par ceux qui ont fait le mauvais choix ou qui se sont vu imposer un BB par leur entreprise. Allez courage, l’AppleStore n’est pas loin…

Par Audrey Loubens, journaliste scientifique

De la théorie à la pratique grâce aux maquettes NI miniSystems

Les plates-formes de laboratoire ont toujours été inaccessibles pour un usage courant dans les cours classiques et sont souvent déconnectées des outils professionnels qui sont vraiment utilisés dans l’industrie et la recherche.

En utilisant l’approche logiciel-matériel intégrée de la conception graphique de systèmes, les maquettes NI miniSystems éliminent les restrictions financières, temporelles et spatiales qui empêchent les enseignants de dépasser l’enseignement théorique, en leur permettant d’impliquer les étudiants grâce à une expérimentation pratique. Les maquettes NI miniSystems offrent aux étudiants une liaison concrète entre leurs études théoriques et le monde du travail.

“Nous avons constaté à quel point l’approche de la conception graphique de systèmes aide les scientifiques et les ingénieurs à être plus innovants en leur donnant un ensemble d’outils et un langage unifiés » souligne Dave Wilson, directeur des programmes académiques chez National Instruments. « Nous sommes en train d’étendre cette approche à notre plate-forme pédagogique pour permettre à tous les étudiants, quels que soient leur profil ou leurs parcours , d’accéder aux innovations des grands scientifiques, ingénieurs et enseignants du monde entier. »

Points essentiels

  • Les maquettes NI miniSystems sont des répliques à petite échelle de systèmes réels inspirés d’applications existantes, qui se connectent au matériel pédagogique de NI et au logiciel de conception de systèmes LabVIEW.
  • Les étudiants peuvent travailler sur des défis qui les ont initialement attirés vers l’ingénierie.

Publié par PIerre Thouverez

Déja paru :

Les voitures autonomes, bientôt sur nos routes ?

Il fait peu de doute que tôt ou tard (probablement plus tôt qu’on ne l’imagine), les voitures autonomes tiendront le haut du pavé, dévorant l’asphalte en bandes – très – organisées. La convergence des annonces, provenant aussi bien des constructeurs automobiles que d’experts en la matière, n’est évidemment pas un hasard. Pourtant de nombreux problèmes se posent à l’idée de laisser une part toujours plus grande du trafic aux voitures autonomes, et de réduire petit à petit à la portion congrue l’implication de l’humain, éminemment faillible, dans le processus de conduite d’un véhicule. Jusqu’à ne plus l’impliquer du tout.

En tête de ces problèmes figurent la question légale de la responsabilité en cas d’accident impliquant un ou plusieurs véhicules autonomes, la gestion d’une avarie technique, la nécessité – ou non – de posséder un permis de conduire. Et puis réussira-t-on à lâcher prise totalement, et finir par céder les rênes de nos véhicules à un ordinateur de bord ?

Petit tour d’horizon des récentes annonces en la matière.

  « 75 % des voitures en circulation aux Etats-Unis en 2040 seront des voitures autonomes »  

L’IEEE (« Institute of Electrical and Electronics Engineers »), association professionnelle des ingénieurs basée à New-York, est formelle : d’ici à 2040, 75 % des voitures circulant sur le territoire des Etats-Unis seront des véhicules autonomes. L’IEEE va même plus loin, l’organisme ayant prévu comment les infrastructures, la société et même les comportements pourraient évoluer lorsque les voitures sans conducteur deviendront la norme sur nos routes.

La prévision de l’IEEE englobe la future disparition des panneaux de signalisation et des feux tricolores, inutiles pour les voitures autonomes puisqu’elles possèderont ou que leur seront communiquées en temps réel toutes les informations nécessaires (limitations de vitesse, sens de circulation…).

  Disparition du permis de conduire ?  

L’IEEE évoque aussi la probable disparition du permis de conduire. « Les passagers se trouvant dans un train ou dans un bus n’ont nullement besoin d’un permis de conduire », rappelle le directeur du centre dédié à la recherche au sein de l’IEEE, Azim Eskandarian. « Dans le cas où le véhicule serait totalement autonome, et qu’aucune intervention du conducteur ne soit autorisée, c’est bien le véhicule qui sera seul aux commandes. ». En clair : nul besoin de qualifications ou de connaissances particulières. Donc plus besoin de permis de conduire, sésame qui deviendrait complètement inutile – aussi insensé que cela puisse paraitre. Autre conséquence : l’arrivée des véhicules autonomes devrait permettre l’accès à un véhicule particulier aux personnes à mobilité réduite ou présentant un handicap plus ou moins important.

  La Google Car, déjà une réalité   

Pas loin de 500 000 kilomètres cumulés aux compteurs, et ce déjà en aout dernier… l’armada de Toyata Prius et de Lexus entièrement autonomes estampillées Google continue de faire ses preuves, à son rythme. Et lorsqu’on pense aux réalisations du géant américain, on se dit que cela pourrait bien aller très vite, comme le confirme l’un des cofondateurs de Google, Sergey Brin. Bien que prudent sur le calendrier prévisionnel, il estime que « le grand public devrait avoir accès [aux voitures autonomes] d’ici cinq ans, et que la technologie se démocratisera ensuite ». D’ici là, les employés de la firme américaine vont continuer à tester la flottille de véhicules.

General Motors, Audi, Volvo, Toyota… personne n’est en reste, chacun y travaille et y va de sa petite annonce, annonçant l’avènement de la voiture autonome pour 2015, ou pour la fin de la décade.
Le cofondateur de Google, lui, voudrait surtout réussir à relever l’un des plus gros challenges selon lui, « l’inattendu ». Faire face à une panne de l’ordinateur de bord, ou encore à une avarie matérielle majeure comme un pneu qui explose, sont des défis qui restent à relever.

Un besoin moindre en infrastructures 

Alors que le principal obstacle à l’arrivée de la voiture autonome, ne semblent plus être d’ordre technique, mais concernerait plutôt la construction d’infrastructures adaptées, le professeur Alberto Broggi, membre de l’IEEE et professeur en génie informatique à l’université de Parme, en Italie, n’en croit pas un mot et s’appuie justement sur son expérience de la « Google Car ». En 2010, il parcourut les 13 000 kilomètres séparant la ville de Parme à Shanghai, « au volant » de deux voitures sans conducteur.

« Les Google Cars se basent sur des cartes très précises, et possèdent des capteurs utilisant la technologie  LIDAR », explique-t-il dans une interview pour le magazine Wired, assurant que ces véhicules auront besoin de moins d’infrastructures, et non plus. LIDAR, acronyme de « LIght DetectionAndRanging », permet en quelque sorte de scanner l’environnement en utilisant les propriétés du laser une fois renvoyé vers son émetteur, comme le fait un radar avec les ondes radios.

Communications V2V et V2I 

Deux nouvelles formes de communication sont ici en train de voir le jour : la communication de véhicule à véhicule (V2V – « vehicle to vehicle »), et la communication du véhicule vers l’infrastructure (V2I – « vehicle to infrastructure »). La communication V2V permet aux voitures de partager leur positionnement en temps réel et entre elles, afin d’éviter les collisions ou d’optimiser la conduite d’un groupe – restreint – de véhicules. La communication V2I permet cette fois aux véhicules de partager leur position, mais aussi la destination et jusqu’à l’itinéraire qu’ils souhaitent emprunter avec un poste central, dont le rôle serait de coordonner et de dispatcher l’information concernant le trafic, les itinéraires…

Les explications d’Alberto Broggi au magazine Wired permettent encore une fois d’éclairer ces notions : « Imaginons que toutes les voitures soient connectées et qu’un poste central puisse connaitre précisément leur position et leur destination. Le poste central peut envoyer des commandes d’ajustement de la vitesse aux véhicules qui abordent un croisement, de telle manière qu’ils n’entrent pas en collision et qu’ils franchissent le croisement chacun leur tour, optimisant leurs mouvements. Dans ce cas, les feux tricolores ne seront pas nécessaires, la coordination étant gérée à un niveau supérieur ».

Des tests seraient déjà en cours en Europe (notamment en Allemagne) et aux Etats-Unis, combinant les deux systèmes de communication V2V et V2I, un type de communication global baptisé V2X.

 Le trou noir législatif 

Enfin, de nombreuses questions se posent quant au cadre légal et au code de la route, totalement inadaptés à l’arrivée des voitures autonomes. Quid de la responsabilité légale lorsqu’un piéton se fait renverser par une voiture sans conducteur, ou tout autre type d’accident impliquant un ou plusieurs de ces véhicules autonomes ? Le « conducteur » sera-t-il tenu pour responsable, bien qu’il ne soit pas aux commandes ? Ou est-ce le constructeur qui endossera la responsabilité, voire le géant Google dans le cas de la « Google car » ? De fait, deux Etats américains ont déjà donné leur feu vert à la circulation des voitures sans conducteur, le Nevada et tout récemment la Californie, après un lobbying actif de la part de Google et malgré de nombreuses réticences.

Car le plus gros obstacle à l’adoption des voitures sans conducteur n’aura probablement rien à voir avec la technologie elle-même. Il se pourrait que ce soit tout simplement le manque d’adhésion du grand public, la peur (ir)raisonnée de ne plus être aux commandes. Et ce serait aussi oublier un peu vite le simple plaisir de la conduite.

Par Rahman Moonzur, journaliste scientifique

Franchir le mur du son en chute libre

Franchir le mur du son en chute libre : le défi avait de quoi faire fantasmer tant l’aventure semblait folle et dangereuse à la fois. L’Autrichien Felix Baumgartner a pourtant réussi son pari en franchissant le mur du son hier soir (dimanche), battant ainsi le record du monde de vitesse en chute libre établi le 16 aout 1960 par Joseph Kittinger, un pilote de l’US Air Force, lors du projet Excelsior.

Baumgartner s’est jeté au-dessus du Nouveau-Mexique d’une capsule suspendue à un gigantesque ballon en polyéthylène, après avoir atteint plus de 39 000 mètres d’altitude. Le saut aura duré près de neuf minutes, dont un peu plus de 4 minutes et 20 secondes en chute libre, permettant au parachutiste de 43 ans d’atteindre la vitesse phénoménale de 1341,9 km/h et de dépasser Mach 1. Le succès scientifique de la mission « Red Bull Stratos », qui aura mobilisé au sol une équipe de plus d’une centaine de personnes, est par ailleurs un succès médiatique, le saut ayant été suivi en ligne sur la chaine Youtube de la célèbre boisson énergisante par plus de huit millions d’internautes.

Le ballon, élément crucial

Baumgartner s’est élancé d’une capsule (d’un poids total de 1315 kilos), protégeant le parachutiste des températures extrêmes rencontrées dans la stratosphère, et lui permettant de rester dans un environnement pressurisé avec de l’oxygène jusqu’au moment fatidique du saut. L’ascension de la capsule a été rendue possible par le gigantesque ballon à laquelle elle était suspendue, l’arrachant au sol du Roswell International Air Center. D’un diamètre de près de 130 mètres, le ballon est l’élément crucial de la mission, mais également son talon d’Achille.

Constitué d’un patchwork géant de l’équivalent de plus de 16 hectares de bandes de polyéthylène (l’un des polymères les plus courants), le ballon stratosphérique est extrêmement fin et fragile : les bandes de polyéthylène haute performance ont une épaisseur de… 20,32 microns seulement. Une fois gonflé à l’hélium, le ballon peut doucement prendre son envol à la vitesse de 300 mètres par minute. C’est en raison de son extrême fragilité que le lancement ne peut se réaliser que dans des conditions météorologiques idéales. Après le saut de Baumgartner, le poste de commande au sol a déclenché la séparation de la capsule et du ballon, laissant la capsule redescendre à l’aide de son propre parachute, tandis qu’une rupture programmée dans la structure du ballon a laissé échapper l’hélium pour le laisser revenir sur Terre.

« Death Zone »

La fragilité du ballon, liée aux mauvaises conditions météorologiques, a eu raison des deux précédentes tentatives de l’Autrichien, les 9 et 10 octobre dernier. Un vent, même de faible intensité, peut aisément faire échouer la mission. En cela, le premier kilomètre d’ascension est décisif, les ingénieurs de la mission Red Bull Stratos l’ayant même baptisé « death zone ». Si un incident était survenu – à savoir, si le ballon s’était déchiré – le parachute de la capsule n’aurait pas eu la possibilité de se déployer entièrement, et Felix n’aurait pas non plus disposé des 13 secondes qui lui auraient été nécessaires pour s’échapper de la capsule.

Pour ceux qui auraient raté ce moment historique, voici la vidéo du saut :

Par Rahman Moonzur, journaliste scientifique

Airbus veut développer les biocarburants en Chine

« Avant de nous lancer dans la production de biofuel, nous voulons nous assurer qu’il existe bien des critères de durabilité » explique Frédérique Eychenne, responsable du programme Nouvelles énergies pour Airbus.

En effet, l’enjeu est de taille pour le géant de l’aviation : s’affranchir de la dépendance au pétrole. Accroitre la part des biocarburants apporte plusieurs autres avantages comme un cout inférieur au pétrole, avantage financier  qui va s’accentuer dans les années à venir, mais aussi une diminution des émissions carbones.

L’attention portée par Airbus aux énergies alternatives n’est pas nouvelle puisqu’il a déjà développé des partenariats en Amérique latine, en Europe, en Australie ainsi qu’au Moyen-Orient sur cette thématique. Il ne manquait plus que l’Asie, c’est chose faite.  « Chaque continent a une stratégie énergétique différente, des ressources différentes et des besoins en trafic aérien différents. » indique Frédérique Eychenne, justifiant le besoin de travailler aux quatre coins de laplanète pour maximiser les opportunités de développement.

La Chine affichant des objectifs dans la promotion des énergies alternatives, c’est finalement l’université de Tsinghua, à Pékin, qui a été choisie. « Cette université a une forte expertise dans le développement durable. De plus, ils ont réalisé des études pour différents types de transport, sauf dans l’aviation. » précise Frédérique Eychenne. Les universitaires vont donc analyser la situation générale de la situation énergétique et des besoins en Chine puis identifier les filières possibles et durables.

Les premiers résultats mettent en avant trois filières convenant comme matière première pour la fabrication des biocarburants : les résidus d’agriculture et les déchets urbains, les huiles de cuisine usagées, les résidus industriels de type rejets gazeux. Ces travaux ont aussi révélé l’existence de process innovant en Chine comme la production à base d’algues

Par Audrey Loubens, journaliste scientifique

Déjà paru :

Facebook a publié des messages privés datant de 2009. Bug ou pas bug ?

C’est ce qui s’appelle jouer sur les mots ! Alors que des milliers d’utilisateurs ont vu des messages écrits en 2009 rendus publics au mois de septembre alors que leur contenu était de nature privée, la CNIL précise qu’il ne s’agissait pas de « messages privés » mais de « conversations à caractère privée ».

Cette nuance dédouane Facebook de toute responsabilité car un message privé au sens « Facebookien » du terme est un message envoyé via la messagerie privée de Facebook, et aucun message de ce type n’a été rendu public. En revanche, les messages écrits sur les « wall » et souvent de nature privée se retrouvent sur la place publique suite aux changements successifs de règles de confidentialité en 2009 et 2010.

Modifications suites auxquelles « […] des contenus auparavant privés ou accessibles uniquement aux amis étaient rendus accessibles à tout le monde. Par ailleurs, les messages concernés pouvant être anciens, il devenait parfois difficile pour les utilisateurs de constater ce changement d’audience des messages » précise la CNIL, estimant de plus que la nouvelle présentation de type Timeline a favorisé la remontée de messages anciens.

Pour résumer, Facebook n’est pas en faute, à nous utilisateurs de paramétrer correctement nos comptes. Et peu importe que les règles changent ou que le paramétrage requiert un bac +10…Alors appelons un chat un chat, si les règles de confidentialités changent de telle façon que des messages configurés comme privés deviennent public par défaut, c’est clairement de la responsabilité de Facebook. Plutôt que de tenter d’inverser les rôles en incriminant les utilisateurs victimes, Facebook ferait mieux d’afficher plus de transparence quant à la gestion des données personnelles de ses utilisateurs.

Par Audrey Loubens, journaliste scientifique

A lire également :

Cocorico ! Retour sur le prix nobel de physique

Cocoricoo. La recherche française à l’honneur avec l’attribution du prix Nobel de physique à un frenchie, Serge Haroche de l’Ecole Normale supérieure, conjointement avec l’américain David G.Wineland du National Institute of Standards and Technology de l’université du Colorado.

Ce Nobel récompense leurs travaux sur les photons : en 2007, Serge Haroche et ses collègues réussissent à observer la vie et la mort d’un photon puis l’année suivante, à observer le passage des photons d’un état atypique de la physique quantique à un état de la physique classique, ce qu’on appelle le phénomène de décohérence.

Pour réaliser cette observation, il a fallu inventer une technique de mesure originale : une cavité tapissée de miroirs a réussi à piéger les photons suffisamment longtemps, permettant aussi d’observer le phénomène sans que l’action d’action ne vienne trop le perturber.

L’Académie royale des sciences de Suède a loué dans un communiqué « leurs méthodes expérimentales novatrices qui permettent la mesure et la manipulation des systèmes quantiques individuels », félicitant les lauréats qui « ont ouvert la voie d’une nouvelle ère d’expérimentation dans la physique quantique en démontrant l’observation directe de particules quantiques individuelles sans les détruire ».

Par Audrey Loubens, journaliste scientifique

Revue du Web #33 : les vidéos de la semaine

Cette semaine dans la revue du Web :

  • Débutons avec une équipe de l’université d’Arizona State, capable de couper sans fioritures une goutte d’eau en deux autres ;
  • Un variateur de vitesse mécanique… construit en Lego : c’est la prouesse réalisée par un jeune diplômé français plein de ressources ;
  • Se promener sous la pluie, sans se mouiller ? Le Barbican Center, à Londres, héberge la « Rain Room », une création artistique défiant toute logique météorologique ;
  • Le gadget (inutile ?) de la semaine : « Like-a-Hug », la veste qui gonfle avec vos « likes », et votre ego ;
  • En bonus, une photo et une vidéo d’une création temporaire ayant fait apparaître les mille premières décimales du nombre pi dans le ciel de la baie de San Francisco.

Couper une goutte d’eau en deux

Pour débuter cette trente-troisième Revue du web, allons faire un tour du côté de l’Université d’Arizona State, où une équipe d’ingénieurs a développé un couteau capable de séparer très proprement une goutte d’eau en deux nouvelles gouttes distinctes. La lame du couteau, résultat des travaux du professeur Antonio García et de son équipe, appartiendrait selon eux à un « nouveau genre de métal », autorisant les bio-séparations les plus propres. Le cœur de la lame est constitué de deux fines couches de zinc et de cuivre ; une fois forgée, la lame est nettoyée à l’acétone, mais aussi avec de l’éthanol, de l’eau déminéralisée puis séchée avec de l’azote. La lame est enfin trempée dans une solution de nitrate d’argent pendant une vingtaine de secondes, puis dans une solution hydrophobe, que l’équipe de scientifiques nomme « HDFT ». Nous sommes encore loin de Moise ouvrant la Mer Rouge, mais peut-être qu’avec un peu de patience…

L’hydrophobie se définit assez simplement : l’angle de contact d’une goutte d’eau, lorsqu’elle est sur une surface plane (localement), doit dépasser les 90 degrés. Au-delà de 150°, la surface est alors considérée comme étant super-hydrophobe. Un angle de contact égal à 180° signifie que la goutte d’eau est complètement sphérique, repoussant la zone de contact jusqu’à un simple point. À titre d’exemple, le Téflon d’une poêle n’est qu’hydrophobe, l’angle de contact moyen étant de 95°.
La super-hydrophobie présente de nombreux intérêts : outre ses évidentes qualités d’imperméabilisation, elle permet de lutter assez efficacement contre le gel, souvent fatal pour les isolants électriques, les lignes à haute-tension, ou le revêtement des ailes d’un avion. Elle est également efficace pour lutter contre la corrosion.

Un variateur de vitesse mécanique… construit en Lego

Jusqu’où peut-on aller avec des Lego ? Madeleine de Proust de bon nombre d’ingénieux bricoleurs en herbe, certains n’ont apparemment jamais décroché, et fleurissent alors ici et là sur de nombreuses plateformes de partage ou sur des blogs, des vidéos venant illustrer l’inventivité de nombreux internautes. Nous vous parlions déjà ici (//www.techniques-ingenieur.fr/actualite/informatique-electronique-telecoms-thematique_193/revue-du-web-13-les-videos-de-la-semaine-article_66564/article_66564_3.html) de l’imprimante 3D d’Arthur Sacek, entièrement conçue à l’aide de Lego, et là (//www.techniques-ingenieur.fr/actualite/informatique-electronique-telecoms-thematique_193/revue-du-web-13-les-videos-de-la-semaine-article_66564/article_66564_4.html) de l’horloge « LCD » construite par le programmateur et développeur suédois Hans Andersson. La vidéo qui suit présente un variateur de vitesse mécanique entièrement conçu à l’aide d’éléments de la célèbre marque danoise, mis au point par le Français Nicolas Lespour, qui impressionne du haut de ses 23 ans.

Un variateur de vitesse mécanique (CVT en anglais, pour « Continuously Variable Transmission ») permet de faire varier de manière continue le rapport de démultiplication d’un moteur. Il permet à un moteur de ne pas forcer, tout en permettant une variation de vitesse et du couple. Ce variateur de vitesse est constitué de deux différentiels à glissement limité entre eux. Ils sont connectés l’un à l’autre par un engrenage 24/24 d’un côté, de l’autre par un engrenage dont le rapport est cette fois-ci de 8/40 avec une roue dentée de huit dents sur pin à friction qui n’autorise pas la rotation. Lorsque le dispositif fonctionne normalement et sans contrainte, la puissance fuit par la sortie qui oppose le moins de résistance, donc par l’engrenage au rapport de 24/24. Le rapport est de 1:1, la vitesse atteinte est alors maximale. A l’apparition d’un couple résistif plus puissant que le pin à friction, ce dernier se met alors à tourner, laissant cette fois-ci la puissance fuir par l’autre engrenage, avec un rapport de 1:5. Le pin à friction glisse plus ou moins en fonction du couple résistif, permettant au rapport de varier de manière presque linéaire, de 1:1 à 1:5.
Afin de visualiser plus aisément la vitesse du moteur et la vitesse en sortie, le jeune Français a adjoint à l’ensemble deux tachymètres centrifuges. « Plus le tachymètre tourne vite, plus les bras s’écartent, et plus cela tire l’axe 8 avec stop qui tient la crémaillère, faisant ainsi tourner l’aiguille du compte-tour. » explique-t-il. Au final, ce variateur de vitesse mécanique permet au moteur de conserver une vitesse constante (200 tours par minute), avec une variation de la vitesse en sortie de 200 à un peu plus de 40 tours par minute, et une variation du couple disponible de 1 à 5, de 50 N.cm à un peu moins de 250 N.cm (un peu de couple se perd dans le pin à friction).

Il aura fallu un mois à Nicolas Lespour pour développer le concept en Lego, en s’appuyant sur le principe de base du glissement différentiel, principe connu depuis longtemps. Selon lui, la plus grande difficulté rencontrée lors du développement de son variateur de vitesse mécanique fut de « tarer mécaniquement les compteurs de vitesse centrifuges qui fonctionnent sur le principe du régulateur à boule de Watt, pour que la variation de vitesse s’imprime bien sur les compteurs ».
Loin d’en être à son premier coup d’éclat, le jeune diplômé offre par ailleurs ses services de conception Lego à des entreprises.
Le site du jeune concepteur français :
http://www.nico71.fr/

Se promener sous la pluie… sans se mouiller !

A défaut de pouvoir réellement contrôler la météo, que diriez-vous d’une petite promenade sous la pluie sans parapluie ni imperméable… et surtout sans vous mouiller ? Le Barbican Center, plus grand centre consacré aux arts du spectacle et à l’art contemporain en Europe, situé dans le nord de Londres, a invité le studio d’art contemporain anglais rAndom International qui présente ici une œuvre qui défie la logique des éléments. Baptisée « Rain Room », la performance qui a lieu dans une salle du Barbican permet à l’amateur d’art comme au simple curieux de traverser la pluie artificielle, phénomène « local » s’exprimant sur une surface d’une centaine de mètres carré, sans se mouiller le moins du monde malgré l’absence de protection. Il suffirait de se lancer.

Ce n’est évidemment pas de la magie, ni un miracle : au fur et à mesure de leur progression, de nombreux capteurs vidéos disséminés un peu partout autour de la salle repèrent et traquent les mouvements des quelques courageux qui ont osé se risquer sous le rideau de pluie torrentielle. Les informations des capteurs sont envoyées en temps réel vers un poste central qui contrôle le débit de chacun des robinets (qui ne sont autres que des vannes à solénoïde, aussi connues sous la dénomination d’électrovannes). Une fois l’information reçue et traitée, le poste central interrompt immédiatement le débit des vannes sous lesquelles les personnes se trouvent, créant une bulle salvatrice, un espace épargné par les éléments et la pluie artificielle.

On notera tout de même que le reporter de l’AFP (à l’origine de la vidéo), lui, ne se risque pas à filmer « caméra au poing » la traversée de la « Rain Room », son pragmatisme connaissant quelques limites que d’aucuns pourraient qualifier de raisonnables. Car bien que le système fonctionne, on soupçonne que l’on doit bien évidemment recevoir, ici ou là, quelques gouttes et menues éclaboussures.

Le gadget (inutile ?) de la semaine : « Like-a-Hug », la veste qui gonfle avec l’ego

Pour conclure cette trente-troisième revue du web, voici le gadget (inutile ?) de la semaine : « Like-a-Hug » (« comme un câlin »), qui n’a pas heureusement encore dépassé le stade de projet, est une veste conçue par un groupe d’étudiants du Massachusetts Institute of Technology (le fameux MIT), dont le degré d’excellence nous avait pourtant déjà habitué à beaucoup, beaucoup mieux. La particularité de cette veste, présentée lors d’un exercice du prolifique MIT Media Lab? Elle devrait pouvoir gonfler – comme votre ego – à mesure que vous receviez des « likes » sur votre compte Facebook.

Lassé par la désincarnation du célèbre réseau social, le groupe d’étudiants américains a eu l’idée de concevoir cette veste et de la relier au compte Facebook de l’utilisateur. Il suffit alors qu’une ou plusieurs personnes faisant partie de votre groupe d’amis se manifestent et disent aimer (« liker ») l’une de vos publications, ou l’une de vos photos en ligne pour que la veste se mette à gonfler instantanément, incarnation supposée évidente d’un geste de réconfort simple et indépassable, vous autorisant à vous lover dans la douce chaleur d’un like amplement mérité. Pour retourner le câlin, une simple pression sur la veste suffit, permettant à la veste de se dégonfler dans un même élan.

Pour Melissa Kit Chow, l’une des conceptrices de la veste, « Like-a-Hug » nous permettrait « d’être plus proche malgré la distance physique ». Pas sûr pourtant que cette veste puisse pallier les frustrations nouvelles et les aigreurs sociales liées à l’ère du tout numérique.

Bonus : les décimales de Pi dans le ciel de San Francisco

En bonus cette semaine dans la Revue du web, découvrez une photo et une vidéo prouvant que San Francisco est bien la terre sainte de tous les geeks. Le happening, qui aura nécessité cinq avions volant en formation rapprochée, a eu lieu au-dessus de la baie de San-Francisco il y a quelques semaines, et est l’œuvre d’un certain « Ishky », artiste du cru. Baptisée « Pi in the sky » (« Pi dans le ciel ») et réalisée en collaboration avec le studio de design californien Stamen Design, l’OVNI artistique avait pour cadre la biennale Zero 1 de cette année. « Pi in the sky » est l’apparition temporaire des mille premières décimales du nombre « pi » (rapport entre la circonférence d’un cercle et son diamètre), sculpture céleste au-dessus de l’Etat de Californie.

La création de l’enfant du pays est magnifiée tant par la prouesse technique nécessaire à sa réalisation que par son évanescence : il aura fallu près de 160 kilomètres aux cinq avions (dont nous pouvons saluer le vol rapproché et synchronisé) pour venir à bout des mille décimales, les premières décimales ayant pourtant été balayée par le vent depuis bien longtemps. Nombreux sont ceux qui ne sont pas parvenus à percer le mystère de ces chiffres énigmatiques, pensant de prime abord à… un numéro de téléphone. Comme dans la vidéo qui suit…

Par Moonzur Rahman, journaliste scientifique

A lire aussi :

Révolutionner le transfert de données

A l’heure où les caméras numériques disponibles sur le marché sont à même de fournir des films en très haute définition, mais dont la taille dépasse souvent plusieurs gigaoctets, le transfert de ces données reste souvent problématique, si l’on considère le temps nécessaire au transfert ou la nécessité d’utiliser un câble que l’on n’a pas toujours avec soi. Les transferts sans fil via Bluetooth requièrent, eux, une patience à toute épreuve. Frank Deicke, chercheur à l’Institut Fraunhofer pour les Microsystèmes Photoniques (IPMS) à Dresde, las de cet état de fait, aurait peut-être trouvé une alternative intéressante.

Technologie  infrarouge
Bien que les connexions sans fil telles que Bluetooth ou Wi-Fi soient monnaie courante, elles ne permettent généralement pas de transférer des fichiers lourds, autrement qu’en un temps qui pourrait sembler rédhibitoire. L’équipe de chercheurs constituée par Frank Deicke a donc choisi d’aborder le problème de manière complétement différente. Spécialiste des technologies infrarouges, Deicke a présenté devant ses pairs, il y a quelques semaines, un module infrarouge dont le potentiel en a surpris plus d’un, qu’il a baptisé « multi-gigabit communication module ».

Parvenir à atteindre… le gigaoctet par seconde
Bien plus rapide que les transferts via Bluetooth, USB2 ou encore Wi-Fi, le « multi-gigabit communication module » de l’Institut Fraunhofer permettrait le transfert de données à la vitesse folle… d’un gigaoctet par seconde ! « Pour remettre les choses dans leur contexte, un caractère contenu dans un e-mail a une taille de huit bits. Le module infrarouge est capable de transférer 125 millions de caractères par seconde », explique Frank Deicke.

Il est généralement admis que les connexions entre appareils électroniques par le biais d’un câble sont plus rapides que les connexions sans fil. Pourtant, un transfert par le biais du module de Diecke s’effectue jusqu’à six fois plus rapidement qu’un transfert via un câble USB2. Plus éloquent encore, le Fraunhofer rapporte – toujours à titre de comparaison – que la solution infrarouge de l’IPMS permet un transfert de données 1430 fois plus rapide qu’avec une connexion Bluetooth standard.

Réduire au maximum le temps de traitement
Dans un transfert de données, la nécessité de coder puis de décoder l’information ralentit toujours l’opération. Le challenge était donc de construire un petit module infrarouge dont le hardware comme la base logicielle soient extrêmement rapides, afin de pouvoir coder puis décoder les données en signaux infrarouges. A travers une ingénieuse combinaison de différentes solutions techniques, les chercheurs sont finalement arrivés à leurs fins. L’utilisation d’un émetteur-récepteur optique, capable d’émettre et de recevoir les signaux lumineux simultanément en est une. Afin d’éviter la multiplication des erreurs, la proximité de l’émetteur et du receveur est primordiale.

L’équipe du Fraunhofer est consciente que l’avenir de cette trouvaille est désormais entre les mains des fabricants : accepter cette technologie comme technologie de référence. En attendant un signe des constructeurs, Deicke est d’ores et déjà parvenu à prouver qu’il pouvait encore améliorer la vitesse de transfert de son module, et la pousser jusqu’à… 3 gigaoctets par seconde.

Par Rahman Moonzur, journaliste scientifique

Installation d’une pompe à vide dans une verrerie : une première française pour Busch

Présent dans 21 pays avec 82 usines, le Groupe O-I créé des conteneurs en verre recyclé pour des marques renommées. En France, son usine de Veauche (42) de 20,000m² emploie 300 personnes, et fonctionne en flux continu 24h/24, 7 jours/7. L’usine de Veauche comporte 2 fours de production et des annexes (ateliers de service et d’entretien général, atelier d’entretien pour la production). L’usine fabrique des bouteilles en verre particulières, des modèles à valeur ajoutée (modèles avec gravures, etc.) pour les marchés des spiritueux et vins de qualité. Plusieurs teintes de verre et des multitudes de modèles sont réalisés.

Avec 7 lignes de production sur lesquelles sont réalisés environ 600 changements de fabrication par an, c’est près de 600 tonnes de verre qui sont transformés chaque jour. Cela correspond à 900 000 bouteilles fabriquées quotidiennement.

Une solution unique dans le monde de la verrerie française

En 2010, O-I consulte Busch, car la solution en place devient obsolète. Les pompes à pistons, en place depuis près de 40 ans, entraînent des problématiques de remise en état et de révision. Cela génère des pertes de temps conséquentes en entretien et maintenance, et des coûts (vidange, remise en état des clapets, entretien). De plus, il n’est pas possible d’adapter la production au besoin, et la machine fonctionne avec un refroidissement à l’eau, source de forte consommation énergétique.

Busch propose alors une technologie sèche, avec une centrale de vide composée de 12 pompes Mink MM 1322, et d’un régulateur de vide. La prestation de Busch, réalisée pour les six premières pompes en septembre 2011, et pour les six suivantes en janvier 2012, a intégré la réalisation, le pilotage du projet global et la formation sur site.

Traditionnellement, ce sont des pompes à palettes lubrifiées qui sont utilisées, et c’est la première fois en France qu’une technologie sèche est installée dans une verrerie. Cette solution permet de gagner à la fois en énergie, niveau d’hygiène et confort de maintenance ; et les coûts d’investissements sont inférieurs d’environ 30%. Enfin, point très important pour O-I, le régulateur permet de contrôler la valeur du vide du process.

une consommation énergétique maîtrisée et une maintenance minimale pour une hygiène irréprochable

Le principe des rotors à lobes permet à la pompe Mink de compresser sans lubrification et sans contact, donc sans frottement et sans usure des pièces. Ainsi, il n’est pas nécessaire de les contrôler ou de les échanger. A présent, la maintenance est minimale et se limite à une intervention par an. O-I parle plutôt d’une surveillance que d’une maintenance. L’équipe d’entretien contrôle la centrale toutes les 8 heures, comme c’est le cas pour les autres postes de production.

Auparavant, les pompes étaient refroidies à l’eau, avec une tour aéro-réfrigérante, ce qui entraînait un fonctionnement de ventilation et de moteurs de pompes, une consommation d’huile importante de par leur vétusté. A présent, la pompe fonctionne avec un refroidissement à air qui permet la suppression de la tour aéro-réfrigérante et donc de s’affranchir des risques de légionnelle.

La technologie sèche de la pompe Mink, sans présence d’huile, limite au maximum les risques de développement bactérien, et la crainte d’un rejet d’huile viciée est évincée. Sa température élevée supérieure à 100°C détruit la plupart des microbes, garantissant une hygiène irréprochable.

Une centrale de vide qui régule la consommation sans intervention extérieure

La centrale de vide installée par Busch se compose de douze pompes, dont six fonctionnent en permanence et sont mises en fonction de manière manuelle. Les six autres pompes sont régulées grâce à un vacuostat.

Avec la solution Busch, O-I a pu instaurer une stabilité au niveau du process de la valeur de vide qui n’existait pas auparavant. Avec les anciennes machines à pistons, un arrêt en production avait un impact direct sur la valeur de vide. Aujourd’hui, le système de régulation de la centrale mesure la valeur de vide sur le réseau. L’armoire de pilotage reçoit la valeur désirée, et en fonction de la pression détectée, l’automate commande le démarrage ou l’arrêt d’une pompe supplémentaire.

La valeur de vide est à présent plus stable, les besoins en vide sont maîtrisés, et l’impact est réel sur la consommation énergétique et l’environnement. Monsieur Thierry Furnon, responsable maintenance des fluides, relève que le gain de temps est conséquent pour les intervenants du service maintenance.

Publié par Pierre Thouverez

En 30 ans, les villes accueilleront trois fois plus de gens

Des scientifiques se sont intéressés à la répartition des êtres humains dans les années à venir. Car si en 2011 nous sommes plus de 7 milliards sur Terre, nous devrions être près de 8.3 milliards en 2030.

D’après les Nations Unis, nous serons alors 5 milliards à habiter en ville, contre « seulement » 3.5 milliards aujourd’hui. Dans leur étude parue dans les Proceedings of the National Academy of Sciences, des chercheurs ont modélisé et cartographié cette présence urbaine dans le monde entier.

Selon eux, l’espace urbain devrait ainsi tripler de surface pour atteindre les 1.2 millions de km² ! Cette expansion concernera pour moitié l’Asie, la Chine et l’Inde. Le développement des villes sera particulièrement rapide en Afrique avec une explosion de 590% entre 2000 et 2030 !

Cette urbanisation ne sera pas anodine pour l’environnement. L’étude prédit une aggravation de la déforestation avec comme conséquence directe une augmentation des émissions de CO2. L’étalement des bâtiments se fera au détriment des habitats naturels des animaux, impactant violemment la biodiversité.

Pour limiter les dégâts, les auteurs de l’étude préconisent donc de privilégier la densification des villes plutôt que leur étalement. Autrement dit, des villes plus compactes pour un plus grand respect de l’environnement. Les buildings vont-ils revenir à la mode ?

Par Audrey Loubens, journaliste scientifique

En savoir plus : http://www.pnas.org/content/early/2012/09/11/1211658109.full.pdf+html

Le gaz de schiste, le charbon et le climat

C’est une véritable révolution énergétique que le gaz de schiste a provoqué outre-Atlantique. A l’heure où la Chine, l’Afrique du sud, l’Argentine mais aussi la Pologne et le Royaume-Uni s’apprêtent à s’inscrire dans la dynamique américaine, où l’électricien japonais TEPCO envisage d’importer par méthanier du GNL américain suite à Fukushima, et où la France s’interroge, il est crucial de connaître le bilan climatique du gaz de schiste comparativement à celui du charbon.  Quel est l’avis des experts en la matière ?

Selon les climatologues, le méthane est un gaz à effet de serre plus puissant que le dioxyde de carbone. Mais, paramètre tout aussi important, sa durée de vie atmosphérique est bien inférieure. La demi-vie du méthane dans atmosphère est de 15 ans, contre 150 ans pour le dioxyde de carbone. Par conséquent, il existe différentes façons d’évaluer le potentiel de réchauffement global (PRG) du méthane.  La première approche, retenue par les experts du panel intergouvernemental sur l’évolution du climat (GIEC) de l’ONU, utilise une base de 100 ans. Le PRG du méthane est alors de 25, comparativement à celui du CO2 pris comme référence (PRG de 1). Cette valeur, qui provient du 4ème rapport du GIEC, est pertinente quand on s’intéresse aux effets sur le climat à long-terme, à l’échelle du siècle. Quand on utilise un référentiel non pas de 100 ans mais de  seulement 20 ans, c’est-à-dire quand on adopte une approche court-termiste, le PRG du méthane est alors de 72.

S’il ne fait aucun doute que l’obtention d’un kWh d’électricité avec une centrale à gaz est environ deux fois moins émettrice en CO2 qu’avec une centrale à charbon, les taux de fuite de méthane lors de l’extraction du gaz et son transport vers le lieu de son utilisation font l’objet de discussions entre les experts. Tout le débat porte sur ce point précis.

ci-dessus : Les ratio inférieurs à 1 indiquent un bilan favorable au gaz de schiste comparativement au charbon. Les comparaisons sont effectuées par unité équivalente d’énergie primaire, et non par unité d’électricité obtenue en sortie de centrale électrique. La différence de rendement énergétique entre une centrale à gaz et une centrale à charbon n’est pas prise en compte ici. Différentes hypothèses de PRG et de taux de fuite du méthane sont indiquées. Source: Agence Internationale de l’Energie, 2012.

Même en retenant les pires hypothèses, le bilan climatique du gaz de schiste reste meilleur que celui du charbon

L’agence internationale de l’énergie, sur la base des études scientifiques menées en la matière, retient un taux de fuite de 2 à 3% (extraction + transport jusqu’au lieu de consommation).  Cependant Robert Howarth, chercheur en biologie évolutive de l’université Cornell aux USA estime qu’il est compris entre 3,6 % et 7,9 %. Cette estimation a  été notamment remise en cause par Lawrence Cathles, géochimiste de la même université, les hypothèses retenues étant considérées comme non valides.

Gabrielle Pétron, du CIRES (Cooperative Institute for Research in Environmental Sciences, Colorado), a de son côté réalisée une étude sur un site du Colorado. Elle estime que le taux de fuite (extraction) est dans ce cas entre 2 % et 8 %, avec 4 % comme estimation jouissant de la plus haute probabilité.

“Si nous voulons que le gaz naturel soit le plus propre des combustibles fossiles, les émissions de méthane doivent être réduites” souligne la chercheuse. Avec un PRG du méthane de 25 (raisonnement à long-terme), même en retenant la pire des valeurs de Robert Howarth, c’est-à-dire un taux de fuite de 7,9%, le bilan climatique est favorable au gaz de schiste comparativement au charbon. Et si l’on retient un PRG de 72 (raisonnement court-termiste), seul un taux de fuite supérieur à 4% conduit à un bilan pire que celui du charbon.

De plus il s’agit ici d’un bilan wheel-to-burner, du puits au brûleur (extraction + transport). Avec un bilan allant jusqu’à l’électricité obtenue en sortie de centrale électrique, c’est-à-dire si l’on intègre l’énorme différence de rendement énergétique entre une centrale à gaz et une centrale à charbon, alors même en retenant les hypothèses les plus défavorables au gaz naturel de schiste, c’est-à-dire un taux de fuite de 7,9% et un PRG de 72 pour le méthane, le bilan climatique par unité d’électricité obtenue reste bien meilleur pour le gaz de schiste que pour le charbon.

Selon un rapport publié le 23 août 2012 par le Département à l’Energie Américain (US DoE), « le parc actuel des centrales à gaz fonctionnant en base émet 514 grammes de CO2 par kWh sur l’ensemble du cycle de vie. Le remplacement du gaz naturel conventionnel par du gaz non conventionnel conduit à un niveau d’émission de 520 grammes de CO2 par kWh, c’est à dire une hausse de seulement 1%.» Le rapport de la Commission européenne rendu public en septembre 2012 parvient à des conclusions similaires : l’impact climatique du gaz de schiste par unité d’électricité en sortie de centrale (450 g/kWh) est très inférieur à celui du charbon (environ 760 g/kWh) et équivalent à celui du gaz naturel conventionnel non européen d’importation, provenant notamment de Russie. « Les émissions de l’électricité provenant du gaz de schiste sont significativement plus faibles (entre 41 et 49%) que l’électricité provenant du charbon. »

Les auteurs du rapport ajoutent que « l’étude relative à l’impact climatique montre que le gaz de schiste produit dans l’UE entraîne des émissions de gaz à effet de serre plus importantes que le gaz naturel classique produit dans l’UE, mais – si cette production est bien gérée – moins de gaz à effet de serre que le gaz importé de l’extérieur de l’UE, que ce soit par gazoduc ou par méthanier en raison de l’impact sur les émissions provenant du transport de gaz à longue distance.» Le gaz de schiste, consommé relativement près du lieu de production, conduit à réduire les pertes lors du transport.

Source : Commission Européenne

Aux Etats-Unis, le gaz de schiste fait fermer les centrales au charbon

Selon l’US Energy Information Administration (EIA), la production électrique aux USA est passée de 4065 TWh en 2006 à 4106 TWh en 2011. Sur cette période 2006-2011, la production des centrales à charbon a chuté de 256 TWh et celle des centrales au fioul de 36 TWh. Parallèlement, la production des centrales au gaz naturel a au contraire augmenté de 200 TWh, celle de l’éolien terrestre de 93 TWh, celle de l’hydroélectricité de 36 TWh et celle des déchets de 4 TWh. La variation globale de toutes les autres filières réunies  (solaire, géothermie, nucléaire et autres) est marginale (+ 1 TWh).  La progression du gaz naturel et de l’éolien terrestre a ainsi joué un rôle majeur dans le recul du charbon et du fioul.

Source : EIA

L’effet conjugué de la crise économique, de l’amélioration de l’efficacité énergétique du parc automobile et du boom du gaz de schiste  conduit à ce qu’aujourd’hui les émissions de CO2 par habitant aux USA n’ont jamais été aussi basses depuis 1998.

Vers un recul de la part du charbon à l’échelle mondiale ?

Dans une tribune publiée dans le New-York Times en août 2012, Alan Riley, expert en droit de l’énergie de la City University London, estime « qu’un large développement du gaz de schiste, avec une réglementation écologique appropriée, pourrait être la meilleure façon d’atteindre une réduction rapide des émissions de dioxyde de carbone ». C’est également l’avis de nombreux experts, y compris ceux de l’Agence Internationale de l’Energie.  Le gaz naturel est une ressource bon marché et facile à utiliser, y compris dans les pays peu avancés technologiquement, où le PIB par habitant est faible et où subventionner le solaire relève du luxe.

Selon une estimation de l’EIA, pour les centrales électriques entrant en service en 2017, le coût nivelé (LCOE) du kWh issu d’une centrale au gaz naturel à cycle combiné sera aux USA entre 6,3 et 6,6 cents, c’est-à-dire inférieur à celui de toutes les autres filières : hydroélectricité (8,8 cents), éolien terrestre (9,6 cents), géothermie (9,8 cents), charbon (entre 9,7 et 11,1 cents), nucléaire (11,1 cents), biomasse (11,5 cents), solaire photovoltaïque (15,2 cents), solaire thermodynamique (24,2 cents). Le gaz naturel a manifestement un bel avenir devant lui, à tel point que l’Agence Internationale de l’Energie parle de l’arrivée d’un « âge d’or du gaz naturel ». L’alliance du gaz naturel, de l’éolien terrestre et de l’hydroélectricité semble très prometteur à l’échelle mondiale.

Source : Connaissance des énergies / AIE Le charbon pèse aujourd’hui 28,1% de l’énergie primaire mondiale (2009), contre 20,5% pour le gaz et 32,5% pour le pétrole. Le gaz naturel a le potentiel pour faire reculer rapidement le charbon, contribuant de facto à réduire la facture climatique. Mais aussi de faire reculer le pétrole : 13 millions de véhicules roulent dés à présent au gaz naturel dans le monde, notamment en Argentine, au Brésil, en Inde, au Pakistan et en Iran, et leur bilan en matière de santé publique est bien meilleur que celui des véhicules diesel.

Par Olivier Danielo, journaliste scientifique En savoir plus:

  • Rapport du Département à l’Energie Américain, « Favorable Supplies, Costs, Environmental Profile for Natural Gas Revealed in New Department of Energy Study » (23 août 2012)

http://www.fossil.energy.gov/news/techlines/2012/12038-DOE_Releases_NaturalGas_Assessment.html

  • Etude de Robert Howarth, « Methane and the greenhouse-gas footprint of natural gas from shale formations »  (avril 2011)

http://www.sustainablefuture.cornell.edu/news/attachments/Howarth-EtAl-2011.pdf

  • Analyse de l’étude d’Howarth par d’autres experts. « Howarth: A Credibility Gap. Research on methane emissions from natural gas discredited by scientific community»

http://www.anga.us/critical-issues/howarth-a-credibility-gap

  • Statistiques américaines sur l’énergie. US Energy Information Administration

http://www.eia.gov/forecasts/aeo/electricity_generation.cfm

  • Shale Gas to the Climate Rescue, l’article d’Alan Riley dans le New York Times, 14 août 2012:

http://www.nytimes.com/2012/08/14/opinion/shale-gas-to-the-climate-rescue.html?_r=0

Lire aussi:

  • Gaz de schiste : 3 fois moins d’eau douce que le nucléaire

//www.techniques-ingenieur.fr/actualite/chimie-thematique_6343/gaz-de-schiste-3-fois-moins-d-eau-douce-que-le-nucleaire-article_75237/article_75237_1.html

L’UE reconnaît que Reach ne présente pas encore d’avantages évidents

Bjørn Hansen, chef d’unité à la Direction générale de l’Environnement de la Commission européenne, a expliqué, le 6 septembre, que la révision du Reach, prévue pour juin à l’origine, serait finalement présentée au mois d’octobre. « Cette révision a demandé beaucoup de travail et c’est l’une des raisons pour lesquelles nous enregistrons un léger retard », a déclaré M. Hansen lors d’une conférence organisée par l’entreprise chimique BASF à Bruxelles.

Ce texte, presque terminé à présent, « aborde tous les aspects du règlement Reach » et est assortie d’études sur l’impact de la règlementation sur la compétitivité, l’innovation, l’environnement, la santé et la sécurité, a-t-il ajouté. Adopté en 2006, le règlement actuel requiert de l’industrie qu’elle enregistre les quelque 100 000 substances chimiques commercialisées et qu’elle les soumette à une évaluation avant de pouvoir être autorisées sur le marché.

Preuves anecdotiques

« Il est trop tôt pour affirmer que Reach atteint ses objectifs », a lancé M. Hansen pour résumer les différentes études menées sur l’impact du règlement.

Prochaines étapes

Oct. 2012 : la Commission européenne lancera la révision de REACH avec une série de rapports sur le fonctionnement du règlement jusqu’à présent. Elle pourrait décider de présenter une proposition de loi visant à modifier le REACH, à un stade ultérieur.
31 mai 2013 : date butoir pour le second enregistrement de substances produites ou importées dans des quantités allant de 1 à 1 000 tonnes par an par producteur.
Juin 2018 : fin de la troisième phase d’enregistrement des substances produites en petites quantités (1 à 100 tonnes).

Il a toutefois précisé que certains éléments montraient que l’industrie prenait à présent des décisions en matière de gestion des risques en s’appuyant sur les objectifs sanitaires et environnementaux. « Il existe, à tout le moins, des preuves anecdotiques que cela commence à fonctionner », a déclaré M. Hansen avec précaution. Il s’agit d’un « message plutôt positif » selon lui, dans la mesure où Reach n’est en vigueur que depuis cinq ans.

« Les produits chimiques dangereux sont progressivement supprimés, en même temps que les produits moins dangereux », a affirmé M. Hansen. D’après lui, « Reach a respecté ses promesses » à cet égard.

Ce fonctionnaire de la Commission a néanmoins reconnu qu’il n’était pas certain que ces progrès soient suffisants par rapport aux objectifs mondiaux définis lors du Sommet de la Terre de Johannesburg en 2002.

Il a indiqué que l’exécutif européen préparait un rapport pour 2013, afin de déterminer si les objectifs de 2020 en matière de gestion durable des produits chimiques avaient été atteints à l’échelle mondiale.

Qualité médiocre des dossiers

Tous les participants à la conférence de BASF n’étaient pas convaincus du succès de Reach. Anne-Sofie Andersson, la directrice du Chemical Secretariat, une ONG environnementale, a affirmé que Reach avait souffert d’une faible mise en application et du manque de coopération de la part de l’industrie. L’inclusion des substances chimiques les plus dangereuses sur une liste prioritaire de produits à substituer a permis de remplacer certaines d’entre elles par des alternatives plus sûres, a-t-elle quand même reconnu. Elle a toutefois tenu à préciser que « la qualité médiocre des dossiers d’enregistrement [soumis par l’industrie] bloquait la procédure de substitution pour l’instant ». Elle a également appelé à plus de transparence.

Mme Tout-le-Monde

Julie Girling, une eurodéputée britannique conservatrice, s’est montrée plus catégorique et a insisté sur la nécessité de placer le consommateur au centre du débat, affirmant que la plupart des citoyens ne connaissaient pas l’existence du règlement Reach. « Je ne pense pas que Reach rassure réellement les citoyens européens », a déclaré Mme Girling.

Elle a ajouté que c’était un exercice « nombriliste » et « axé sur l’industrie » qui n’avait pas pris l’intérêt des consommateurs en compte. Mme Girling a expliqué que les consommateurs pourraient bien finir par payer la note de REACH, dans la mesure où les fabricants de produits chimiques transfèrent les coûts de leur mise en conformité au secteur manufacturier. « Je suis un peu comme Mme Tout-le-Monde ici […] et je ne pense pas que nous soyons en position de juger » si le règlement Reach a été un succès, a-t-elle déclaré. « Nous devrions pouvoir dire si ça fonctionne ou non, mais ce n’est pas le cas malheureusement (…). C’est un signe d’échec selon moi. »

BASF défend Reach

BASF, l’entreprise chimique qui a organisé la conférence à Bruxelles, s’est montrée plus optimiste. Elle a salué le travail colossal réalisé par l’industrie en matière d’enregistrement des substances chimiques produites ou importées en grands volumes (plus de 1 000 tonnes par an). Le Dr Martin Kayser, vice-président senior de la sécurité des produits chez BASF, a expliqué que son entreprise avait rempli 6 millions de champs de données pour les dossiers d’enregistrement.

Tout a été soumis à présent à l’Agence européenne des produits chimiques (AEPC) située à Helsinki. « Je pense que nous pouvons d’ores et déjà voir que Reach fonctionne », a déclaré M. Kayser, au sujet de cette première étape. « Mais il reste encore deux phases », a-t-il reconnu, laissant entendre que des problèmes pourraient survenir lorsque les petites entreprises commenceront à enregistrer leurs substances chimiques avec des volumes moindres.

Source : EurActiv.fr

Les formations Techniques de l’Ingénieur :

Déceptions de la société civile après la récente communication de la Commission européenne sur les nanomatériaux

Lors de l’annonce de cette communication, la Commission a insisté sur les bénéfices des nanotechnologies et affirmé que « les nanotechnologies sont actuellement porteuses d’avancées majeures et pourraient aussi permettre de réaliser des percées technologiques révolutionnaires et de relancer la croissance économique ».

A propos des risques qui y sont associés, la Commission prône une « approche au cas par cas » pour leur évaluation et considère que « les nanomatériaux sont semblables aux substances et produits chimiques normaux, en ceci que certains peuvent être toxiques et d’autres non ». Elle justifie ainsi sa conviction que le règlement REACH offre le meilleur cadre possible pour la gestion des risques liés aux nanomatériaux, tout en concédant que « des exigences plus spécifiques doivent être fixées pour les nanomatériaux ».

Elle envisage ainsi de modifier certaines des annexes du règlement et a encouragé l’Agence européenne des produits chimiques (ECHA) à élaborer de nouvelles orientations pour les enregistrements après 2013. En faisant le choix d’une adaptation de REACH aux nanomatériaux, procédure qui promet d’être longue et fastidieuse, la Commission écarte l’option privilégiée par la société civile d’une nouvelle réglementation spécifique aux nanomatériaux qui serait venue compléter REACH et en supprimer les vides juridiques existants. Ce « nanopatch » pour REACH aurait été plus flexible, avec des procédures de révision simplifiées afin de remédier au plus vite aux lacunes du texte.

En vue d’améliorer la disponibilité des données sur les nanomatériaux, la Commission créera une plate-forme web qui renverra vers toutes les sources d’information pertinentes, notamment les registres à l’échelon national ou sectoriel, lorsqu’ils existent. Nous en profitons pour vous inviter à consulter le « Repérage des recensements des produits de consommation contenant des nanomatériaux » que l’Avicenn a réalisé et mis en ligne sur le site http://veillenanos.fr en février dernier, et que nous mettons à jour régulièrement.

Déception de la société civile à l’exception de l’industrie

Cette communication va dans le sens des attentes du Conseil européen de l’industrie chimique (le CEFIC), satisfait de la prise de position de la Commission européenne.
A contrario, la société civile a exprimé sa déception et son désarroi :

  • du côté des associations de consommateurs, le Bureau européen des unions de consommateurs (BEUC) regrette qu’ « une nouvelle fois consommateurs et environnement aient perdu face aux objectifs d’innovation et de croissance économique » ; avec l’Association européenne pour la coordination de la représentation des consommateurs dans la normalisation (ANEC), ils réclament une plus grande transparence sur la présence de nanomatériaux dans les produits de consommation.
  • du côté des syndicats de travailleurs, la Confédération européenne des syndicats (CES ou ETUC) comme l’Institut syndical européen (ETUI) estiment que les efforts de la Commission sont insuffisants pour assurer une protection adéquate des travailleurs et la sécurité des nanomatériaux. La CES met également en doute les statistiques mentionnées par la Commission sur les emplois directs associés aux nanotechnologies estimés entre 300 000 et 400 000 postes dans l’Union européenne, un chiffre qu’elle soupçonne d’être artificiellement gonflé par ceux liés à la commercialisation des produits issus de ce secteur.
  • du côté des associations environnementales, le Center for International Environmental Law (CIEL) considère que ce document indique surtout que « la Commission est prête à ignorer les demandes des Etats membres, syndicats, ONGs, consommateurs et du Parlement européen, de même que les études juridiques démontrant les insuffisances de REACH et renonce, par là même à combler ces vides juridiques. En agissant ainsi, la Commission met en danger le développement même de cette technologie, en minant le peu de confiance des citoyens dans les nanotechnologies et dans les institutions censées veiller à leur bonne application ».

Au niveau des partis politiques, les Verts du Parlement européen regrettent eux aussi les contradictions et les lenteurs de la Commission : au final, « ce sont non seulement la santé publique et l’environnement qui en pâtissent, mais aussi la technologie elle-même ».

D’autres réactions sont attendues, et une réaction coordonnée serait en cours de préparation par un certain nombre d’Etats membres, une autre par des ONG.
A suivre donc…

Source : Veille Nano

Déjà paru :

Nettoyage en profondeur au dioxyde de carbone

Le phénomène de miniaturisation progressive des composants électroniques a rendu plus difficile que jamais le nettoyage d’éléments toujours plus complexes, toujours plus fragiles et sensibles à la présence de la moindre des impuretés, provoquant entre autres défaillances et courts-circuits.

Nettoyer les composants électroniques d’un serveur informatique, d’un disque dur ou encore d’une lunette astronomique (dont l’optique est altérée par les impuretés) n’a jamais autant été un challenge pour les fabricants et concepteurs de technologie de nettoyage.

La solution pourrait provenir de l’un des instituts Fraunhofer (le « Fraunhofer Institute for Manufacturing Engineering and Automation IPA »), qui aurait développé un outil capable de nettoyer en profondeur, et de débarrasser complètement des particules indésirables les zones les plus inaccessibles du composant à nettoyer.

Pour ce faire, l’équipe de scientifiques à l’origine de la découverte a combiné deux technologies de nettoyage différentes en une seule et même étape : dégraisser à l’aide de CO2 en phase supercritique, et se débarrasser des particules en se servant de cristaux de neige carbonique.

« Le CO2 en phase supercritique absorbe les corps étrangers tels que huiles et graisses […], et ce sans endommager la surface nettoyée » explique Markus Rochowicz, ingénieur chez IPA ayant travaillé au développement de cet outil. Une fois le nettoyage terminé, le dioxyde de carbone repasse du stade solide au stade gazeux (les cristaux de neige carbonique s’évaporent, laissant le composant propre et sec), un plus pour les appareils ou le matériel sensibles à l’humidité.

La taille réduite du bec nettoyeur pourrait être un argument de poids supplémentaire et « intéresser grandement les fabricants de supraconducteurs, l’industrie pharmaceutique, le secteur aérospatial et le secteur de l’optique » ajoute Markus Rochowicz.

Par Rahman Moonzur, journaliste scientifique