Rapidcool rafraîchit vos boissons en 45 secondes !

En Europe, la consommation globale des réfrigérateurs et congélateurs commerciaux est estimée à 85 térawattheures d’électricité par an. Cela équivaut tout de même à 17 % de la consommation électrique française annuelle !

Le projet Rapidcool vise à réduire cette consommation. La technologie, conçue par la société anglaise Enviro-Cool  Limited, permet d’abaisser la température des bouteilles et canettes de 25°C jusqu’à 4°C, en 45 secondes. En plus de rafraîchir les boissons, Rapidcool élimine la totalité des bactéries présentes sur les canettes  et bouteilles.

«Nous l’avons imaginé comme une solution de remplacement pour l’ensemble des meubles  frigorifiques déjà existants, que ce soit les réfrigérateurs  ouverts ou les distributeurs de boissons. Nous sommes  maintenant impatients de poursuivre le développement  de notre produit pour le marché domestique. L’Asie et l’Amérique du Nord ont déjà manifesté un grand intérêt et nous présentons actuellement Rapidcool aux  industriels et distributeurs européens », explique Kevin Hall, fondateur d’Enviro-Cool Limited.

Comment obtenir ce rafraîchissement rapide ?

La boisson, pour être rafraîchie le plus rapidement possible, est plongée dans un liquide glacé dans lequel elle effectue des rotations. Grâce à la technologie breveté V-Tex, les boissons peuvent être agitées sans  qu’elles n’explosent à l’ouverture sous l’effet de la pression. 

Le défi de base était de trouver une alternative aux meubles frigorifiques traditionnels qui fonctionnent de manière continue. Conçue pour fonctionner comme une unité indépendante, la chambre froide peut être intégrée dans les distributeurs de boissons existants. Un bras automatisé est intégré  dans l’unité pour que la prise de la canette et sa livraison soit entièrement automatique. Grâce  à cette innovation, la plupart, si ce n’est l’ensemble des meubles réfrigérant ouverts et les distributeurs de boissons utilisés dans le monde pourraient être remplacés. 

De 54 % à 80 % d’économies d’énergie

Pour la réfrigération de 200 canettes de 50 cL par jour, l’utilisation de Rapidcool permet une économie d’énergie  de 80 % par rapport aux traditionnels meubles frigorifiques ouverts et de 54 % par rapport aux meubles frigorifiques fermés. L’économie pour les commerçants utilisant des meubles frigorifiques ouverts serait de 832  euros par réfrigérateurs et par an et de 219 euros par  réfrigérateurs et par an pour les commerces utilisant des  meubles frigorifiques fermés.

Une commercialisation rapide

Les partenaires du projet ont conclu un accord avec deux compagnies internationales, leaders sur le marché de la distribution de boissons et de produits électroménagers. Par ailleurs, des tests auprès des consommateurs sont prévus dans un supermarché néerlandais à la fin du mois d’octobre. 

Une gamme de produits similaires destinés aux foyers, lieux de travail, bars,  restaurants et hôtels est en cours de création. Ces différents produits permettront de rafraîchir des canettes de 15 cL à 50 cL en moins de 1 minute et des bouteilles de vin de 33 cL à 75 cL pour une attente variant entre 5 et 15 minutes. Vous ne serez donc plus jamais en panne de boissons fraîches !

Par Matthieu Combe, journaliste scientifique

REACH : l’actualité du mois de septembre (2/2)

Avis sur des propositions de classification et d’étiquetage harmonisés

17/09/2013

Le comité d’évaluation des risques ou RAC a adopté six avis sur des propositions pour l’harmonisation de la classification et de l’étiquetage le 17 septembre 2013. Le RAC a accepté de classer : pyridaben (N°CE 405-700-3), dodemorfe (N°CE 216-474-9), acétate de dodemorfe (N°CE 250-778-2), imidazole (N°CE 206-019-2), spirotetramat (N°CAS 203313-25-1), 1,2-époxybutane (N°CE 203-438-2). Plus d’information sur :

http://echa.europa.eu/view-article/-/journal_content/title/rac-concludes-on-six-scientific-opinions

Nouvelle consultation pour éviter les tests sur les animaux

20/09/2013

L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. Six consultations sont lancées. Les informations relatives à ces substances sont à soumettre pour le 4 novembre prochain.

Plus d’information sur : http://echa.europa.eu/information-on-chemicals/testing-proposals/current

Mise à jour de l’outil Navigator pour aider les industriels à identifier leurs obligations au titre de REACH

25/09/2013

L’ECHA a publié une mise à jour de son outil Navigator (dans 23 langues officielles de l’UE). Le Navigator est un outil interactif qui aide les fabricants, importateurs, utilisateurs en aval et distributeurs de substances chimiques seules ou présentes dans des mélanges et des producteurs et fournisseurs d’articles afin de clarifier leur rôle dans la chaîne d’approvisionnement et d’identifier leurs obligations au titre de REACH.

Pour les petites et moyennes entreprises qui n’ont pas encore examiné l’impact des règlements REACH et CLP sur leur entreprise, il est fortement conseillé d’utiliser le navigateur disponible dans toutes les langues de l’UE.

Rapport de recherche publié sur les coûts de substitution des produits chimiques dangereux

25/09/2013

L’ECHA publie un rapport sur les résultats d’une recherche dans l’estimation des coûts de substitution de six substances préoccupantes. L’objectif de ce travail était d’améliorer la capacité dans l’évaluation des coûts de substitution, de développer certains aspects théoriques et méthodologiques spécifiques aux produits chimiques dangereux.

Une estimation des coûts de réduction pour chacune des substances étudiées est développée dans les annexes dédiées à chaque substance.

Consultation publique pour une classification et étiquetage harmonisés

27/09/2013

L’ECHA a lancé une nouvelle consultation pour l’harmonisation et l’étiquetage harmonisé du glutaral / glutaraldehyde / 1,5-pentanedial. Les parties intéressées sont invitées à soumettre leur commentaire sur le site de l’ECHA, et ce avant le 11 novembre 2013.

Par Céline GABORIAUD NECTOUX, Ingénieur Environnement aux Ateliers d’Orval

Et aussi dans les
ressources documentaires :

Pourquoi le marché de la gestion des appareils mobiles tel que nous le connaissons va mourir

Beaucoup d’entreprises associent une stratégie de mobilité sécurisée à une gestion MDM. La gestion des appareils mobiles est certainement importante, mais les entreprises qui s’y limiteront seront perdantes. Une approche centrée sur les appareils néglige le fait que la valeur réelle de la mobilité réside dans l’accès sécurisé au capital connaissances de l’entreprise : les données. Ce type d’approche ne permet pas non plus d’accroître le potentiel de développement de liens professionnels plus solides grâce à une collaboration sécurisée en temps réel avec les clients, collègues et partenaires, et où qu’ils soient.

Il n’est donc pas surprenant que le Gartner ait récemment confirmé nos prévisions concernant la mort du marché actuel de la gestion des appareils mobiles, et mis en avant l’intérêt grandissant de l’industrie pour la gestion des applications mobiles.

Les opportunités de création d’avantages concurrentiels véritables et de transformation d’entreprise grâce aux technologies mobiles ne dépendent plus uniquement de la gestion des appareils mobiles. Les entreprises subissent une pression exercée par leurs dirigeants et leurs employés en vue du développement et du déploiement d’applications mobiles pouvant satisfaire des modes de travail mobiles et accroître l’engagement client, tout en conservant leurs données en sécurité.

La nécessité pour les employés de travailler avec autant d’efficacité en déplacement qu’à leur poste a poussé les entreprises à comprendre la valeur des écosystèmes sécurisés d’applications mobiles. D’ici 2017, le Gartner prévoit que 25% des entreprises disposeront d’une place de marché d’applications professionnelles. En tant qu’éléments des stratégies de mobilité sécurisée en entreprise, les applications mobiles d’éditeurs de logiciels ou personnalisées permettent aux entreprises d’accélérer leurs processus métier, de profiter de nouvelles opportunités et de tisser des liens plus solides. Ce modèle permet ainsi de profiter de workflows améliorés quel que soit l’emplacement, et de mieux aligner la politique de sécurité avec les objectifs métier en matière de collaboration et d’innovation, en sécurisant l’écosystème au lieu des appareils utilisés pour y accéder.

Selon un rapport publié récemment par Strategy Analytics (Prévisions mondiales sur l’utilisation d’applications mobiles professionnelles entre 2011 et 2017), les revenus générés à l’aide d’applications mobiles d’entreprise devraient presque doubler entre 2012 et fin 2017 et passer de 25 à 50 milliards de dollars. 

Les entreprises choisissant d’investir profiteront d’un nouveau modèle d’interaction avec l’ensemble de leur réseau. Imaginons un commercial capable, en visite chez un client, d’accéder sans restriction à tout ce dont il aurait besoin (données, documents et conseils) et en toute simplicité sur son appareil mobile. En cas d’accord obtenu lors de ce déplacement, les deux parties pourront rédiger un contrat, et le faire signer et approuver à l’aide d’un écosystème sécurisé d’applications sur leur appareil mobile : sans avoir à attendre d’être de retour à leur bureau. Ce niveau de productivité et cet avantage concurrentiel ne sont possibles que si la stratégie de mobilité professionnelle sécurisée de l’entreprise va au-delà de la simple gestion des appareils mobiles. 

Par Florian Bienvenu, VP Europe Centrale et Europe du Sud de Good Technology

D’après Curiosity, il n’y aurait pas de vie sur Mars

En 2003, des scientifiques avaient en effet observé depuis la Terre des traces de nuages de méthane dans l’atmosphère martienne. Et pas qu’un peu, puisque le nuage stationné près de l’équateur faisait 19 000 tonnes.  Sur Terre, une grande quantité de méthane est produitr par des microbes. D’où l’hypothèse d’une forme de vie similaire sur Mars.

Mais malgré les recherches et nombreuses mesures au spectromètre laser de Curiosity, aucune trace de méthane. Celui-ci aurait-il pu disparaître ? « On ne connaît pas de processus naturel par lequel le méthane peut rapidement disparaître de l’atmosphère » s’étonne Sushil Atreya, co-auteur d’une étude parue dans Science sur cette observation. Alors peut-être que les mesures ne sont pas fiables ? Totalement inenvisageable pour Chris Webster, du Jet Propulsion Laboratory de la Nasa, qui se dit confiant dans l’exactitude des mesures de Curiosity sur les différents prélèvements renouvelés du printemps à la fin de l’été.

C’est un véritable mystère. En effet, Curiosity aurait dû retrouver des traces du nuage de méthane observé, tout comme la sonde Mars express en avait détecté.  Pour l’instant, aucune explication n’a été formulée pour justifier une dissolution totale du méthane. « Le méthane est persistant. Il resterait pendant des années dans l’atmosphère martienne » insiste même Sushil Atreya.

Cependant, les scientifiques de la Nasa vont quand même tenter de reprogrammer l’instrument SAM pour la détection spécifique de gaz. Ils espèrent ainsi  concentrer le méthane potentiellement contenu dans les échantillons de façon à le rendre détectable.

Ce qui est sûre, c’est qu’en l’absence de méthane, l’espoir de mettre à jour des traces de vie sur Mars se réduit à peau de chagrin. « Cela réduit la probabilité de trouver des micro-organismes martiens produisant du méthane, mais ceci ne concerne qu’un seul type de métabolisme microbien. Comme nous le savons, il y a un grand nombre de types de microbes terrestres qui ne fabriquent pas du méthane. » espère Michael Meyer de la NASA.

Imperturbable, Curiosity continue sa route et ses mesures.

Par Audrey Loubens, journaliste scientifique

Avec Aireal, Disney vous fait toucher des objets virtuels !

La réalité virtuelle ne cesse de faire parler d’elle. Après les technologies immersives et les détecteurs de mouvements, c’est au tour du laboratoire de recherche de Disney de donner vie à des objets virtuels. Il fallait y penser : la technologie est un petit appareil  qui projette vers l’utilisateur des impulsions d’air comprimé, sous forme d’anneaux, comme des ronds de fumée. Contrairement aux jets d’air, qui sont difficiles à maintenir et à contrôler sur de longues distances, ces anneaux peuvent être transmis sur des distances relativement longues sans se dissiper et peuvent être ciblées avec précision. 

Combinées à la technologie 3D et aux logiciels de reconnaissance de mouvements, ces impulsions donnent l’impression de réellement toucher les objets virtuels. L’appareil parvient même à transmettre des sensations différentes en fonction de la texture de l’objet ou à créer des sensations de retour de force pour les gestes, simplement en variant la fréquence des battements d’air.

Des applications multiples pour améliorer l’immersion

Cette invention a de nombreuses applications possibles, que cela soit dans les cinémas en 3D pour donner encore plus de réalisme à l’action ou dans les jeux-vidéos. Disney explique d’ailleurs comment, combinée à une caméra comme Kinect, elle permet, par exemple, de faire ressentir physiquement à l’utilisateur la sensation d’arrêter des ballons virtuels. La technologie permet également de ressentir les battements d’ailes d’un papillon lorsqu’il se pose sur votre bras…

Le prototype est associé à une caméra 3D qui, grâce aux capteurs autour de l’appareil, permet de suivre les mouvements de l’utilisateur en temps réel et de diriger précisément les flux d’air sur certaines parties de son corps. Pour ce faire, deux moteurs orientent l’AIREAL verticalement et horizontalement et l’envoi d’air se fait à l’aide d’une sorte de piston en caoutchouc. 

Pour le moment, le dispositif est performant jusqu’à une distance de 1,5 m, mais l’air peut être ressenti jusqu’à 3 m. Le dispositif pourra être adapté à n’importe quelle taille. « Vous pouvez rendre la technologie assez petite pour l’attacher à un appareil mobile, ou vous pouvez la faire assez grande pour émettre des sensations qui voyagent à travers différentes pièces », affirme Rajinder Sodhi, doctorant et chercheur principal du projet.

« Ce qui rend cela particulièrement excitant, c’est que nous pouvons créer ces effets littéralement dans de l’air libre, sans que les utilisateurs n’aient besoin de porter des gants spéciaux ou des vestes, de tenir des dispositifs haptiques ou de s’assoir dans des chaises équipées », explique Ivan Poupyrev, chercheur au centre de recherche de Disney à Pittsburgh. « La technologie qui crée ces effets est évolutive et relativement peu coûteuse, de sorte que nous pouvons envisager l’utilisation d’AIREAL pour créer des expériences magiques à la fois pour les grands groupes de personnes et pour un seul individu dans son salon », poursuit-il.

La prochaine technologie qui devrait voir le jour pour arriver à une expérience immersive complète sera certainement celle capable de reproduire les odeurs. Alors, selon vous, dans combien de temps doit-on se donner rendez-vous pour une immersion virtuelle intégrale ?

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

60% des allemands déclarent ne pas avoir peur du changement climatique

Ce changement radical de l’opinion publique en Allemagne, mais aussi ailleurs dans le monde y compris en France où un tiers des français se déclare à présent « climato-sceptique » selon une étude TNS Sofres,  inquiète une partie des climatologues, dont ceux du GIEC qui se réunissent actuellement à Stockholm pour discuter avec les délégués gouvernementaux de leur prochain rapport.

Dès 1989, le climatologue américain Stephen Schneider expliquait dans Discover Magazine la logique de l’approche des exagérateurs climatiques: « nous devons présenter des scénarios effrayants, proférer des affirmations simplistes et catastrophiques sans prêter attention aux doutes que nous pourrions avoir. Chacun d’entre nous doit choisir entre l’efficacité et l’honnêteté ». Dans cette logique Hermann Ott, du parti vert allemand, estime à présent dans Spiegel  que les politiques environnementales « ont besoin de l’élément de la peur. Car sinon aucun homme politique n’y prêtera attention ».

Mais pour une partie grandissante des climatologues, il est temps de dire toute la vérité à propos de la pause du réchauffement. Par honnêteté intellectuelle, qualité indispensable en sciences, et pour tenter de rester crédibles. Pour Jochem Marotzke, directeur du Max Planck Institute für meteorologie à Hambourg, « les climatologues ont une obligation, pas envers la politique environnementale, mais envers la vérité ». Ce scientifique explique dans Spiegel que pour des raisons d’éthique scientifique, le GIEC a l’obligation  d’engager des discussions à propos de cette pause.

Des propos salués par Judith Curry, titulaire de la chaire de la School of Earth and Atmospheric Sciences au Georgia Institute of Technology,  et qui anime un blog où l’esprit scientifique est mis en avant. « La vérité qui dérange le GIEC, c’est la pause qui dure depuis plus de 15 ans » souligne l’experte.

Pour Tamsin Edwards, modélisatrice du climat à l’Université de Bristol, « l’activisme des climatologues a endommagé la confiance dans la science ». Cette animatrice du blog intitulé « Tous les modèles sont faux…mais quelques-uns sont utiles » estime que « les scientifiques ont l’obligation morale d’être impartiaux. Ils ne doivent pas se faire les avocats de causes politiques. »

Une pause qui dérange

Fin 2009, Mojib Latif, climatologue du Leibniz Institute à Kiel,  a émis l’hypothèse que la pause du réchauffement observée depuis le début du XXIème siècle pourrait durer jusqu’à environ la moitié du siècle, du fait de l’influence des oscillations océaniques multidécennales (PDO, AMO). Jochem Marotzke  avait dans la foulée déclaré à propos de cette pause  qu’« on ne peut pas nier qu’il s’agit du sujet scientifique le plus brûlant du moment. On ne sait vraiment pas pourquoi cette stagnation arrive maintenant ». En France, le scientifique Claude Allègre, qui a obtenu le très prestigieux Prix Crawford pour ses travaux en sciences de la terre, notamment à propos de la génèse de l’atmosphère terrestre, avait osé faire écho des propos de ces deux scientifiques dans une tribune du journal Le Monde datée du 21 mai 2010 et intitulée « Le droit au doute ».

« Dans l’ambiance pratiquement hystérique de l’exagération climatique actuelle, l’annonce d’un réchauffement moins dramatique n’est pas bien reçue parce que tous les membres politiquement corrects préféreraient cacher ce fait au public en suivant la maxime populaire selon laquelle la fin justifie les moyens » estime Lennart Bengtsson, l’un des climatologues suédois les plus réputés, qui a participé à la création du GIEC aux côtés de Bert Bollin, également suédois et premier président de cet organisme onusien. « Même s’il n’y a aucun signal global évident, on avance des arguments adhoc à partir d’une liste sans fin d’événements météorologiques extrêmes. Le fait que des événements météorologiques extrêmes aient été observés pour le présent comme pour un climat normal, est passé sous silence.»  

Une pause qui conduit à relativiser la solidité des modèles informatiques

Depuis 2009, la pause du réchauffement s’est prolongée. Pire, comme mis en évidence dans un article publié en août 2013 dans la revue Nature (Overestimated global warming over the past 20 years), la courbe de la température commence à sortir de l’intervalle de confiance à 95% des prédictions des modèles informatiques retenus par le GIEC.

Si la pause du réchauffement dure encore 2 ou 3 ans, « nous allons devoir admettre que quelque chose est fondamentalement erroné dans les modèles climatiques » a estimé dans Spiegel le 20 juin 2013 le climatologue Hans Von Storch, directeur de recherches au sein du Helmholtz Research Centre.

Une conclusion partagée par de nombreux climatologues, et en France par Jacques Duran, ancien Directeur des Etudes  de l’ESPC de Paris auprès de Pierre-Gilles de Gennes, et ancien Vice-Président, Chargé de la Recherche, de l’Université Pierre et Marie Curie. Sur son site Pensée-Unique.fr, spécialisé en correction des propos des exagérateurs climatiques, le scientifique explique avec pédagogie qu’« en matière de science le scepticisme est un devoir » et rappelle que pour Denis Diderot « le scepticisme est le premier pas vers la vérité ».

Mais concernant le plateau de la température qui dure depuis une décennie et demi, pour le modélisateur Laurent Terray du Cerfacs, « s’il venait à se poursuivre pendant deux décennies supplémentaires, on pourrait commencer à se demander si les modèles ne sous-estiment pas la variabilité interne du climat ». Il faudrait donc pour lui que la pause dure plus d’un tiers de siècle, et que les températures observées dans le monde réel sortent complètement pendant 20 ans de l’intervalle de confiance des modèles pour commencer à se poser des questions. Pour Jochem Marotzke, l’attitude de ceux qui affirment qu’il faudra que la pause dure au moins 30 ans pour devenir significative sur le plan climatique « n’est pas scientifique.» 

Si le GIEC n’a pas été capable de prévoir correctement, loin s’en faut, l’évolution de la température ces 15 dernières années, la question se pose légitimement de savoir s’il est capable de prévoir son évolution  pour les 15 ou 30 ans à venir, c’est-à-dire à une échelle de temps pertinente pour les politiques publiques. De plus, insiste Judith Curry, « si se sont les oscillations océaniques (PDO, AMO) qui expliquent la pause qui dure depuis 15 ans, alors on peut émettre l’hypothèse qu’une partie du réchauffement observé entre les années 80 et 90 était aussi lié à cette variabilité naturelle multidécennale ». Se pose alors en toile de fond la question de savoir si l’estimation de fourchette de sensibilité climatique à un doublement de la concentration atmosphérique en CO2 est correcte. Selon de nombreuses études récentes, il faudrait revoir à la baisse cette sensibilité.

Des acteurs des énergies renouvelables inquiets  

« Depuis des années, j’ai diffusé les hypothèses du GIEC et je sens que j’ai été dupé » soupire Fritz Vahrenholt, grand promoteur des énergies renouvelables et ex-Ministre de l’Environnement régional. « Les énergies renouvelables me sont chères » ajoute l’ancien conseiller pour l’environnement durable auprès des chanceliers Schröder et Merkel. « Mon inquiétude est que si le public découvre que ceux qui nous avertissent d’un désastre climatique ne disent que la moitié de la vérité, il ne sera plus disposé à payer des notes plus élevées pour l’électricité provenant de l’énergie éolienne et solaire » analyse-t-il dans une interview pour Die Welt de février 2012.

Le risque de rupture de confiance est bien réel. Et encore davantage dans un contexte de crise économique. Mais il n’est pas trop tard pour les exagérateurs climatiques de s’interroger sur le bienfondé de leur approche en matière de communication. Pour Wendel Trio, directeur de l’ONG Climate Action Network Europe, le GIEC « se rendrait extrêmement vulnérable à de nouvelles critiques, sincères ou non » s’il ne parlait pas de la pause du réchauffement.

Choisir entre l’humilité et la logique clanique

James Lovelock, scientifique spécialiste de l’atmosphère, a été l’un des premiers en avril 2012 a effectuer un mea culpa sincère, et à reconnaître que l’approche de l’alarmisme reposait sur une base erronée. « Nous sommes très tribaux. Vous êtes soit un bon, soit un méchant » analyse le père de l’hypothèse Gaïa qui a enthousiasmé le mouvement écologiste, mais « le problème c’est que nous ne savons pas ce que fait le climat en ce moment. Nous pensions le savoir, il y a vingt ans. Ceci a poussé à l’écriture de quelques bouquins alarmistes – y compris le mien – parce que ça paraissait bien clair, mais cela ne s’est pas produit. Nous étions censés être, en ce moment, à mi-chemin d’un monde en train de griller. Mais le monde ne s’est pas beaucoup réchauffé depuis le début du millénaire ». 

Par Olivier Daniélo

Et aussi dans les
ressources documentaires :

News environnement : Septembre 2013

Synthèse du débat sur la transition énergétique en France vue par les Français de la région de San Francisco

La France se situe aujourd’hui à un tournant de son histoire énergétique. Sur le plan national, il est plus que jamais nécessaire d’assurer aux citoyens français un approvisionnement en énergie fiable, durable et abordable, tandis que sur la scène internationale, l’urgence climatique et la santé publique requièrent des efforts sans précédent dans la réduction de nos émissions polluantes, notamment celles des gaz à effet de serre. Au-delà du défi que cette situation représente, c’est aujourd’hui une chance qui nous est offerte de repenser entièrement le système énergétique que nous connaissons.

Cette chance, c’est celle de faire de la France une nation pionnière de la transition vers un mix énergétique durable, un exemple pour le monde entier, tout en relançant l’économie de notre pays et en créant de nouveaux emplois. C’est aussi celle d’établir un accès à l’énergie plus équitable, en réduisant la précarité énergétique en France et en permettant aux pays en développement de se doter de systèmes énergétiques pérennes.

Le 19 juin 2013 s’est tenu à la Résidence de France à San Francisco le volet californien du Débat national sur la transition énergétique française, vue par les Français présents dans la région. Portée par deux doctorants à University of California, Berkeley, Nicolas Zweibaum et Anne-Perrine Avrin, et avec le soutien de la mission scientifique du Consulat général de France et la participation d’acteurs locaux de l’énergie, l’initiative a rassemblé une cinquantaine d’experts et de citoyens pour des échanges riches et passionnés.

Alors qu’une large part des 60.000 Français de la région de San Francisco travaille dans le secteur de l’énergie et de l’innovation, l’exportation du Débat national sur la transition énergétique en Californie représentait une opportunité sans précédent que les participants à l’événement ont su saisir pleinement. Habitués aux rassemblements d’une communauté française soudée, les acteurs du débat ont salué cette initiative originale – la seule proposée aux citoyens français établis à l’étranger – qui a permis à chacun d’éclairer les réflexions nationales sur la transition énergétique grâce à une expérience californienne unique. Ils ont donné de leur temps pour préparer le débat, pour s’y exprimer, et pour en revoir les conclusions transmises au Gouvernement à travers une synthèse détaillée, fruit de cette réflexion collective.

Aujourd’hui, la France a l’occasion d’identifier et de mettre en oeuvre un mix énergétique optimal, d’informer et de préparer ses citoyens aux changements que cela implique, et enfin de se démarquer sur la scène internationale en guidant la transition énergétique mondiale. C’est à la concrétisation de cette ambition que la synthèse des débats tenus contribue.

En savoir plus

Une nouvelle méthode de stockage de l’hydrogène

Depuis plusieurs années, l’hydrogène, présent en abondance dans l’eau des océans ou encore dans les nébuleuses de l’espace, est présenté comme l’un des carburants du futur. Toutefois, pouvant réagir très violemment en présence d’oxygène et de la moindre étincelle, le problème de son stockage persiste. De nombreuses méthodes ont été proposées pour y remédier. Une équipe israélienne a notamment fait appel au nitrite de magnésium.

L’équipe du professeur Gideon S. Grader du Russell Berrie Nanotechnology Institute du Technion – Israel Institute of Technology a récemment publié dans le Journal of Physical Chemistry C une méthode originale faisant appel au nitrite de magnésium pour stocker l’hydrogène. Le nitrite de magnésium (Mg3N2) peut être facilement produit par calcination du magnésium métallique dans de l’azote pur (l’azote servant à prévenir la formation d’oxyde de magnésium qui pourrait se former si cette expérience était réalisée sous air). Soumis à une forte pression de dihydrogène (H2), le nitrite de magnésium conduit à des espèces instables, des amides (Mg(NH2)2) et des imides (MgNH2) de magnésium pouvant s’enflammer dans l’air.

Alors que l’incorporation de dihydrogène dans le nitrite de magnésium se fait généralement difficilement et nécessite des pressions supérieures à 4.000 bars, l’utilisation d’un moulin à billes la rend possible avec des pressions comprises entre 40 et 80 bars. Un moulin à billes est un tambour contenant de lourdes billes de métal (il s’agit ici de tungstène) et muni d’un moteur assurant la rotation du dispositif de manière à broyer le contenu sans produire un effet centrifuge significatif (il y aurait alors accumulation sur les parois). Ce genre d’appareil, peu utilisé en chimie, fonctionne de la façon suivante : les matériaux sont écrasés sous l’action des billes et les chocs entre les billes lourdes en mouvement créent sur les surfaces des pressions très élevées. En quelque sorte, les billes écrasent ainsi l’hydrogène dans la poudre : on parle alors de mécanochimie.

Les expériences ont permis d’incorporer après 200 heures de moulinage du dihydrogène dans du nitrite de magnésium. Les mesures montrent qu’environ 12% du nitrite est transformé en un hydrure de magnésium, d’amide ou d’imide. Pour des raisons pratiques, la réaction est limitée à 200 heures mais tout laisse penser que des pressions plus élevées et des temps de réaction plus longs permettraient un stockage plus important. Par ailleurs, le dihydrogène peut être libéré par simple moulinage à pression atmosphérique. Il ne sera probablement jamais question de mouliner du minerai dans sa voiture pour la faire rouler. Toutefois, il s’agit d’une nouvelle méthode pouvant présenter un intérêt dans certains cas de figure. Par exemple, les fortes pressions du fond des océans pourraient être utilisées pour compresser le dihydrogène produit par « les fumeurs » (des cheminées hydrothermales exsudant du sulfure d’hydrogène et parfois même du dihydrogène) dans le nitrite de sodium et remonté ensuite en surface.

En savoir plus

Nouveau rapport sur les différentes utilisations des microalgues

Dans le cadre d’un projet commun de recherche, l’Ecole supérieure de Lausitz (Brandebourg), l’Université technique de Freiberg (Saxe) et le Centre allemand de recherche sur la biomasse (DBFZ, Leipzig, Saxe) ont étudié et évalué les potentielles voies d’utilisation matérielles et énergétiques des microalgues. Les résultats de leurs travaux viennent d’être publiés sous la forme d’un rapport [1].

A l’heure actuelle, on trouve en Allemagne et dans le monde, de nombreux sites de production d’algues en exploitation ou en construction. Il existe en outre une large communauté de recherche s’intéressant à différents procédés de culture. Cet intérêt s’explique en partie par le fait que l’industrie cosmétique utilise les microalgues. Néanmoins, les travaux de recherche portant sur d’autres utilisations de ces végétaux sont moins courants. Le rapport publié par le DBFZ et intitulé « Algae Biorefinery – Material and energy use of algae » donne un aperçu détaillé des processus existants pour une production d’énergie à partir de microalgues.

La biomasse d’algues peut être convertie en énergie de différentes manières. Une multitude de technologies, procédés physiques, thermochimiques, biochimiques et biologiques peuvent être utilisées pour cette conversion. Les procédés de conversion thermochimique étudiés comprennent des processus tels que la liquéfaction hydrothermale (HTL), la carbonisation hydrothermale (HTC), l’hydrogénation et la gazéification. En outre, le rapport traite de l’utilisation des microalgues comme substrat pour les centrales au biogaz, pour la production de biodiesel et pour l’alimentation animale. Un bilan énergétique des différentes utilisations sous forme de biodiesel, de biogaz, de procédé HTC, HTL et par hydrogénation directe est effectué. Afin d’arriver à des résultats concrets, les algues Chlorella vulgaris, Scenedesmus obliquus et Selenastrum rinoi ont été étudiées du fait de leur potentiel énergétique.

 

En résumé, le rapport montre que sur le principe, plusieurs utilisations des microalgues sont possibles, mais qu’en termes d’état de développement de chaque procédé ainsi que d’efficacité énergétique, d’importantes différences subsistent quant au potentiel de ces utilisations.

En savoir plus

La rédaction

 

 

 

Progrès récents concernant les matériaux thermoélectriques aux Etats-Unis

Des dispositifs thermoélectriques sont commercialisés depuis les années 1950 principalement pour la thermométrie et la réfrigération, et, depuis les années 2000, pour la réfrigération d’appareillages portatifs. Cependant, le faible rendement de conversion de ces derniers, dû aux limitations des propriétés des matériaux thermoélectriques courants, ne permet pas une utilisation commerciale à grande échelle de ces propriétés. C’est le cas aussi des premières thermopiles réalisées en 2005, dont le coût élevé et le faible rendement les limitent pour l’instant à des utilisations très ciblées. Depuis les années 1990, les préoccupations énergétiques de la planète ont engendré un nouvel intérêt pour la thermoélectricité dans le cadre du développement des énergies renouvelables. En effet, la thermoélectricité pourrait permettre de recycler la chaleur perdue par de nombreux systèmes. Par exemple, le recyclage de la chaleur accumulée dans les tuyaux d’échappement des voitures ou les cheminées industrielles pourrait permettre la production d’une électricité propre et peu chère. Dans le cas des véhicules motorisés, il suffirait simplement de doubler l’efficacité des modules thermoélectriques pour produire suffisamment d’énergie pour remplacer l’alternateur, ce qui par conséquent augmenterait la durée de vie du véhicule.

Sur les 15 dernières années, la recrudescence des recherches pour les matériaux thermoélectriques a ainsi permis des avancées scientifiques significatives telles que la découverte de nouveaux matériaux, l’utilisation de la nano-structuration afin de maîtriser les propriétés électroniques et thermiques de ces matériaux, une meilleure connaissance de ces matériaux et une meilleure compréhension des différents mécanismes responsables des propriétés thermoélectriques.

Record de performance

Afin d’évaluer la performance thermoélectrique d’un matériau, les scientifiques utilisent une grandeur appelée facteur de mérite ou « ZT ». Ce nombre représente le rapport de la conductivité électrique et de la puissance thermoélectrique du matériau sur sa conductivité thermique. Ainsi, pour améliorer la performance du matériau, il est nécessaire de maximiser sa conductivité électrique et sa puissance thermoélectrique, tout en minimisant sa conductivité thermique. Or, il est difficile d’agir sur l’un de ses paramètres sans en compromettre un autre. A cause de ces exigences contradictoires, le facteur de mérite a stagné à une valeur située autour de l’unité pendant des années.

En septembre 2012, des chimistes, physiciens, spécialistes des matériaux et ingénieurs en mécanique de l’Université Northwestern et de l’Université de l’Etat de Michigan, ont travaillé en étroite collaboration pour développer un nouveau matériau thermoélectrique détenant le record mondial d’efficacité de conversion chaleur-électricité, avec un facteur de mérite de 2,2. L’équipe avait déjà commencé à progresser régulièrement depuis quelques mois, avec des valeurs de ZT de plus en plus hautes, grâce à l’introduction de nanostructures au sein de leurs alliages. Ainsi en janvier 2011, ils avaient déjà atteint une valeur de 1,7 avec leur première utilisation de nanostructures au sein d’une matrice de tellurure de plomb, permettant de réduire la diffusion des électrons au sein du matériau et d’en augmenter la performance thermoélectrique. Le nouveau matériau qu’ils ont réalisé, toujours à base de tellurure de plomb, devrait convertir en électricité utile, de 15 à 20% de la chaleur perdue. La découverte a été publiée dans le journal Nature.

Ce record a été réalisé en diffusant un spectre plus large de phonons (quantums d’énergie vibrationnelle), balayant toutes les longueurs d’onde, ce qui permet de réduire significativement la conductivité thermique. L’équipe est la première à proposer une telle approche dite « panoscopique ». L’approche panoscopique combine trois techniques afin de diffuser simultanément les phonons de petites, moyennes et grandes longueurs d’onde. En particulier, ils ont su améliorer la diffusion des phonons de grandes longueurs d’onde en contrôlant et en adaptant l’architecture du matériau à l’échelle mésoscopique, une approche qui va bien au-delà de la simple nanostructuration.

Selon les auteurs de l’étude, un intérêt remarquable de l’approche panoscopique est qu’elle est applicable à tout matériau thermoélectrique.

Recherche de meilleurs alliages

De nos jours, les matériaux thermoélectriques les plus efficaces sont réalisés à partir d’alliages comportant des matériaux semi-conducteurs relativement rares tels que le bismuth, le tellure et le sélénium. Les propriétés inhabituelles de thermoélectricité proviennent en effet des interactions complexes entre les nombreux électrons contenus dans les alliages de ces métaux lourds. Cependant ceux-ci sont chers, fragiles et souvent toxiques. Les scientifiques cherchent ainsi des alternatives, tout en s’efforçant d’optimiser le rendement de conversion thermoélectrique.

Méthode de recherche

En juin 2013, des chercheurs de l’Institut de Technologie de Californie (Caltech) et de l’Université de Tokyo ont publié un article dans le journal APL Materials, dans lequel ils démontrent l’efficacité d’une approche dite « approximation de bande rigide » pour prédire les propriétés thermoélectriques d’un matériau. Afin de créer de nouveaux matériaux avec un rendement de conversion thermoélectrique toujours plus élevé, plusieurs variables doivent être prises en compte : la composition des alliages évidemment, mais aussi la taille des cristaux ainsi que les dopants. Les combinaisons possibles étant extrêmement nombreuses, des calculs théoriques sont nécessaires pour guider les choix et, vu l’extrême complexité des matériaux thermoélectriques, des hypothèses de calcul sont nécessaires.

Aujourd’hui, les deux principales approches sont : « l’approximation de bande rigide », qui fournit un modèle relativement simple de la structure électronique du matériau, et « l’approche de supercellule », plus complexe mais permettant d’obtenir de façon plus détaillée l’arrangement atomique idéal et donc d’évaluer, pense-t-on, plus précisément les propriétés thermoélectriques du matériau. La découverte des chercheurs de Caltech et de l’Université de Tokyo, contredit ces affirmations : « l’approximation de bande rigide » est en fait la méthode la plus précise. Utilisant cette dernière méthode, ils ont en effet prédit plus précisément les propriétés de l’un des matériaux thermoélectriques les plus connus, le tellurure de plomb dopé au sodium, potassium ou thallium. Ils expliquent que la méthode de supercellule décrit uniquement les matériaux thermoélectriques contenant certains types de dopants car elle ne prend pas en compte les différents défauts présents dans les matériaux réels.

Cette découverte est encourageante, car elle permettra aux chercheurs d’identifier plus rapidement les compositions des alliages ayant les propriétés thermoélectriques les plus prometteuses.

Un alliage non toxique et particulièrement performant

Un nouvel alliage thermoélectrique particulièrement performant, et composé de matériaux non toxiques, a récemment été réalisé par des physiciens de l’Université de Houston et du Centre pour la Superconductivité du Texas. Leur travaux, menés en collaboration avec des chercheurs de l’Institut de Technologie du Massachusetts et du Collège de Boston, ont été publiés en juillet 2013 dans les comptes-rendus des Académies Nationales Scientifiques américaines.

Ce nouveau matériau, particulièrement performant pour la transformation chaleur-électricité, est un alliage de tellurure d’étain, dopé à l’indium. Jusqu’ici le tellurure a beaucoup été étudié pour ses excellentes propriétés thermoélectriques, mais peu utilisé commercialement car il avait toujours été associé à du plomb, lequel présente des risques pour la santé. L’équipe texane a réussi à réaliser un composé similaire mais plus sain en s’affranchissant du plomb. Après plusieurs essais de dopants, ils ont trouvé que les propriétés thermoélectriques du tellurure nanostructuré dopé à l’indium étaient les plus prometteuses. Les impuretés d’indium créent un phénomène de résonance permettant aux électrons de transporter en moyenne plus de chaleur, ce qui induit un « coefficient de Seebeck » plus élevé.

Les auteurs de l’étude travaillent maintenant à la réalisation d’un module thermoélectrique, dont l’intégration au sein de véhicules devrait permettre un gain de 5% sur le kilométrage, et l’intégration au sein de centrales électriques une augmentation de 10% du taux de conversion.

Matériaux thermoélectriques organiques

Utilisation de semi-conducteurs organiques

Des chercheurs de l’Université de Michigan (U-M) se sont intéressés à une classe spécifique de matériaux thermoélectriques, réalisés à partir de semiconducteurs organiques. Alors que ces composés n’étaient jusque là pas considérés comme de bons candidats pour la réalisation de modules thermoélectriques à cause de leur faible facteur de mérite, l’étude publiée en mai 2013 par l’équipe de l’U-M montre qu’ils sont parvenus à en doubler l’efficacité.

L’intérêt d’utiliser des semiconducteurs organiques provient de ce que ces composés riches en carbone sont relativement peu chers, abondants, légers et résistants. Jusqu’ici, leur facteur de mérite était cependant de l’ordre de 0,25, soit un quart de celui des semiconducteurs inorganiques couramment utilisés. Avec la nouvelle méthode proposée par les chercheurs de l’U-M, cette valeur vient de battre un record de 0,42, soit une amélioration de 70%. Pour cela, ils ont utilisé un mélange de deux polymères, « PEDOT-PSS » : le polymère conjugué PEDOT et le polyélectrolyte PSS. Ce composé a été précédemment utilisé en tant qu’électrode transparente pour des dispositifs tels que des LEDs et des cellules solaires organiques, ainsi qu’en tant qu’agent antistatique pour des matériaux tels que les films photographiques.

L’étude explique que lors du dopage du PEDOT par PSS, seule une petite fraction des molécules de PSS se lie au matériau hôte PEDOT. Alors que ces molécules de PPS liées améliorent la conductivité électrique du matériau, le reste des molécules PSS non ionisées et inactives, produisent l’effet inverse : elles séparent les unes des autres les molécules de PEDOT, rendant le passage des électrons d’une molécule de PEDOT à l’autre plus difficile. Pour s’affranchir de cet inconvénient, les chercheurs ont restructuré le matériau à l’échelle nanométrique. Ils ont alors trouvé un moyen de retirer certaines des molécules de PPS non ionisées du mélange grâce à l’utilisation de solvants spécifiques, entrainant ainsi une grosse augmentation à la fois de la conductivité électrique et de l’efficacité de conversion énergétique par thermoélectricité.

Il est intéressant de noter qu’à l’inverse des matériaux thermoélectriques inorganiques, pour lesquels un compromis doit être établi pour décider lequel des paramètres du facteur de mérite sera optimisé au dépend des autres, l’approche présentée ici dans le cas de matériaux thermoélectriques organiques montre une méthode qui optimise l’ensemble des paramètres à la fois.

Des applications intéressantes à cette nouvelle technologie pourraient voir le jour à moyen terme ; en particulier, la création d’une feuille flexible thermoélectrique qui pourrait se déployer ou s’enrouler autour d’objets chauds afin de générer de l’électricité ou de les refroidir.

L’intérêt d’une interface organique/inorganique

Une autre équipe, du Laboratoire Berkeley, s’est intéressée aux matériaux thermoélectriques fabriqués à partir de polymères et nanocristaux, qui présentent l’intérêt d’être significativement moins chers à fabriquer que les matériaux thermoélectriques traditionnels. Ils ont ainsi réalisé un matériau composite dont la performance thermoélectrique est meilleure que l’addition des performances de chacun de ses composants. Leur étude a été publiée en mars 2013 dans le journal Advanced Materials. Le matériau a été réalisé à partir de nanofils de tellure et du polymère conducteur PEDOT:PSS. Afin d’expliquer ce résultat, les chercheurs ont modélisé leurs films en les assimilant à un composite comportant trois matériaux : les nanofils, le volume du polymère et une nouvelle phase interfaciale polymère/nanocristal présentant une conductivité électrique accrue.

Ainsi la découverte de cette nouvelle phase à l’interface, ayant un caractère hautement conductif, ouvre la voie à de nouvelles méthodes pour l’amélioration des matériaux thermoélectriques hybrides. Il est intéressant de noter que ce résultat peut aussi être utilisé à d’autres matériaux composites polymère/nanocristal, notamment ceux utilisés dans le domaine du photovoltaïque, des batteries et du stockage de l’hydrogène.

Innovation remarquable : une nouvelle méthode d’amélioration des performances

En mars 2013, des chercheurs du MIT et de l’Université Rutgers ont présenté dans le journal Advanced Materials une nouvelle méthode permettant d’augmenter les performances thermoélectriques des matériaux, grâce à l’utilisation de nanocomposites dont ils contrôlent la composition, les dimensions et la densité des nanoparticules incluses. L’étude est pour l’instant uniquement théorique, et présente la simulation numérique d’un tel matériau, montrant comment optimiser son facteur de mérite en jouant sur chacun des paramètres du facteur.

Un nouveau concept y est présenté, dans lequel les chercheurs profitent d’un phénomène d’antirésonance pour laisser passer les électrons de plus haute énergie dans le matériau tandis que les phonons (particules virtuelles transportant la chaleur) sont arrêtés par les nanoparticules car de moindre énergie. De plus, les nanoparticules qui « attrapent » les phonons s’avèrent même aider le passage des électrons.

La prochaine étape du travail sera donc de réaliser de premiers dispositifs tests, pour lesquels de nombreux challenges expérimentaux demeurent.

Source : Bulletins électroniques

Le ciment écologique tient le haut du pavé

Probablement mis au point par les Égyptiens il y a plusieurs millénaires, le ciment aura été amélioré à travers les siècles par bon nombre de civilisations, n’hésitant pas à y ajouter une touche à la fois personnelle et locale dans le seul but de le renforcer. Une étude récente diligentée par l’institut Niels Bohr de Copenhague et publiée dans le journal Scientific Reports, vient démontrer que le ciment élaboré à l’aide de déchets provenant de l’industrie du sucre (notamment la bagasse, le résidu fibreux de la canne à sucre) serait plus résistant qu’un ciment ordinaire. L’étude met notamment l’accent sur les cendres obtenues après combustion de la bagasse, cendres qui une fois mélangées au ciment renforceraient les liaisons entre la matière pulvérulente et les molécules d’eau, créant ainsi un matériau plus solide, résistant mieux aux pressions élevées et qui s’effriterait moins qu’un ciment lambda.

Signe de la marche du temps, certains pays producteurs de cannes à sucre – comme Cuba ou encore le Brésil – utilisent depuis de nombreuses années la bagasse et ses dérivés dans l’élaboration du ciment local. Lorsque le précieux sucre a été extrait de la canne, les déchets fibreux connaissent une seconde vie et servent à produire de la bioénergie, la bagasse ayant une valeur calorifique tout à fait honorable de 7900 kJ/kg. Dépourvue de dioxyde de soufre, la bagasse dégage également assez peu de dioxyde de carbone lors de sa combustion, le gros du CO2 étant stocké dans le sucre. La combustion produit une cendre qui, une fois mélangée au ciment, semble le renforcer.

Chercheuse en nanophysique à l’université de Copenhague, Heloisa Bordallo s’est mise en tête de trouver ce qui pouvait distinguer les différents ciments en étudiant de nombreux échantillons, tous en provenance du Brésil. Son arme : la diffusion élastique des neutrons. Son but : étudier les propriétés de ces derniers à l’échelle nano, et se pencher sur la mobilité des molécules d’eau dans chacun des échantillons. En effet, la qualité et la solidité du ciment sont directement liées à cette mobilité, car plus l’eau peut se déplacer, moins le ciment pourra être robuste et durable.

En bombardant de neutrons les échantillons au sein du laboratoire Rutherford Appleton, situé en Angleterre, les tests révélèrent que le ciment contenant environ 20% de cendres présentait les meilleurs résultats, les interactions entre les cendres et les molécules d’eau laissant moins de mobilité à ces dernières.

Le ciment met en général une semaine pour se solidifier. Après un mois, le processus est aux 3/4 complet, et se poursuit encore durant de nombreuses années. Le ciment ordinaire serait plus solide dans les premiers mois, mais le ciment « écologique » aux cendres lui damerait le pion avant la fin de la première année. Il serait donc être intéressant de produire ce matériau à une échelle autre que locale, à la lumière de ces performances et de son impact bien moindre sur l’environnement.

Par Moonzur Rahman

News informatique : Septembre 2013

Plusieurs grandes compagnies japonaises s’essayent au Crowdsourcing

Plusieurs grandes compagnies japonaises commencent à s’intéresser au Crowdsourcing comme nouveau moyen de sous-traitance à moindre coût.

Le Crowsourcing, ou « externalisation distribuée à grande échelle », consiste à mettre en contact des individus avec les entreprises cherchant à sous-traiter des projets. Le marché du Crowdsourcing au Japon est en très forte croissance. A titre d’exemple, la compagnie Panasonic va sous-traiter, dans le courant du mois d’août 2013, des designs d’étuis d’ordinateurs portables et d’appareils photos via le géant japonais du Crowdsourcing : Lancers. Panasonic prévoit de sélectionner plusieurs designs d’étuis, de 50 à 100 pour chaque type et de les commercialiser en Septembre 2013. La compagnie rémunérera les candidats dont les designs auront été utilisés à hauteur de 10,000 à 20,000 Yen (soit entre 80 et 160 euro) par design. La compagnie Lancers touchera de son côté 20% de commission pour effectuer l’intermédiaire entre l’entreprise et les participants. Panasonic espère collecter de nombreux designs et idées dans une courte période de temps (entre 500 et 600 propositions en une semaine) et ceci pour un tiers du coût normal de sous-traitance.

Au printemps 2013, la compagnie Sony avait sollicité la compagnie CrowdWorks dans le cadre d’un projet visant à améliorer la reconnaissance vocale des appareils photos numériques.Des dizaines de participants ont enrichi la base d’apprentissage de commandes grâce à des enregistrements vocaux (pour une rémunération de 8 euros).

Plusieurs compagnies, comme Rakuten, s’intéressent de plus en plus à la traduction par Crowdsourcing. L’entreprise Gengo, qui regroupe 9,000 traducteurs enregistrés sur son site web, a enregistré un nombre record pour l’année 2013 de demandes de traduction de manuels d’utilisation ou de contenus de réseaux sociaux.

L’utilisation du Crowdsourcing par les grandes compagnies augmente le nombre de projets rémunérés qui sont de plus en plus diversifiés, allant de la simple entrée de données au développement d’applications mobiles et de sites web et à la traduction. Ces initiatives de compagnies japonaises montrent l’implication du Japon dans le développement de l’Internet du futur.

1,6 million d’euros pour la recherche sur l’intelligence artificielle

Le Ministère fédéral de l’enseignement et de la recherche (BMBF) a débloqué 1,6 million d’euros sur trois ans pour un nouveau projet dans le domaine des systèmes cyber-physiques (systèmes électroniques intégrés à des appareils, qui peuvent être combinés et qui communiquent entre eux). Le projet, baptisé « SPECifIC », est mené par le Centre allemand de recherche sur l’intelligence artificielle de Brême (DFKI).

L’étude s’intéresse aux appareils du quotidien recelant des composants électroniques à un niveau de plus en plus complexe : téléphones portables, transports, domotique. « Nous avons pour objectif d’augmenter les exigences de qualité et de sécurité de ces systèmes, par le développement de nouveaux flots de conception [1], de nouvelles méthodes et techniques », explique Rolf Drechsler, directeur de recherche au DFKI. Le projet permettra également d’accroître la sécurité des systèmes d’information.

Les chercheurs s’intéressent particulièrement à l’industrie des puces. Le nouveau flot de conception pourrait, notamment à l’aide d’outils logiciels, réduire le temps et le coût de développement des puces.

Le smartphone, par l’ensemble des fonctionnalités assurées par un même dispositif et sa complexité croissante, est l’exemple type de l’application potentielle du projet. Lorsque l’un des composants électroniques est défaillant lors de la conception, la recherche du problème est fastidieuse. De nombreuses corrections sont alors effectuées dans le processus global, sans cerner complètement l’origine du problème. Un nouveau flot de conception permettrait une correction à la racine et un test de la cohérence des circuits dans un système embarqué avant leurs mises en oeuvre.

Le changement du niveau de spécification n’est qu’une partie du projet. La seconde porte sur une gestion intégrée des modifications, ainsi qu’une correction automatique d’erreurs dans le processus de conception. Enfin, la dernière section du projet vise à inclure une spécification du système de langage naturel au début de la conception. Il s’agit de la traduction cohérente des exigences du système en langage informatique.

NTT Data et Oracle s’associent pour effectuer de l’analyse de Tweets

NTT Data et Oracle vont s’associer à partir d’octobre 2013 pour effectuer de l’analyse de données sur Twitter. Cette initiative fait suite à une augmentation attendue des demandes de services pour l’analyse des données de microblogging [1], incluant les données postées sur Twitter. En effet, les commerçants cherchent de plus en plus à augmenter leurs activités de marketing et les industriels essayent de mieux gérer la qualité de leurs produits.

NTT Data possède un contrat d’exclusivité avec Twitter pour l’utilisation et la revente de tous les tweets [2] postés en japonais depuis le Japon. Oracle est le leader mondial des logiciels de gestions de données pour les entreprises. Les deux compagnies vont conjointement développer un logiciel d’analyse de tweets et l’incorporer à leurs offres de gestion de données proposée aux entreprises. Les deux compagnies espèrent vendre ce service à une cinquantaine de clients en 3 ans, pour 20 million de yen chacun (soit un peu plus de 150 000 euros).

NTT Data devrait demander à Twitter une révision précoce de son contrat afin de pouvoir également traiter les tweets postés dans toutes les langues, ceci afin d’offrir ce service dans d’autres pays.

Reportage vidéo – Des avatars pour nous remplacer

Le robot Jazz se rend au chevet des patients pour les écouter et poser un diagnostic tandis que le robot Da Vinci les opère avec précision. Dans les coulisses, il y a un éminent chirurgien qui a acquis, via ces technologies, un véritable don d’ubiquité !

 

 

Vidéo réalisée par Universcience.tv

Réalisation : Elodie Fertil
Production : Gédéon Programmes, avec la participation d’Universcience

Le premier haut-parleur alimenté par des ions

Le transport d’électrons sera-t-il bientôt has been ? Possible, car la découverte des scientifiques  de Harvard prouve que l’on peut déplacer des charges électriques en utilisant des ions à la place des électrons. L’équipe a  réussi à fabriquer un prototype de haut-parleur très original. Une fine couche de caoutchouc est emprisonnée entre deux couches d’un gel à base d’eau salée. Dès qu’un courant électrique traverse le gel, le caoutchouc se contracte et vibre, reproduisant le fonctionnement d’un haut parleur classique. Les sons émis vont de 20 Hz à 20 000 Hz, soit le spectre auditif humain. Et ça marche, les ingénieurs ayant diffusé de la musique classique avec leur haut-parleur ionique.

Pari gagné, donc, pour l’équipe de Jeong-Yun Sun et ses confrères du SEAS (Harvard school of Engineering and applied sciences). Le bon fonctionnement de ce qui n’est encore qu’un prototype montre que la technologie de conduction ionique a de l’avenir. Bien que plus lourds et donc plus lents à conduire le courant, les ions se présentent comme une alternative prometteuse. Le conducteur ionique présenté dans la prestigieuse revue Science est transparent et étirable, sans que sa résistance électrique n’en soit altérée. Deux avantages précieux auxquels s’ajoute le fait d’être un matériau biocompatible.

Les applications sont nombreuses. On peut imaginer un tel haut-parleur collée sur la surface d’un téléviseur ou d’un Smartphone, le son serait alors émis directement par l’écran. Il serait aussi possible d’utiliser un tel système sur les vitres d’un logement pour annuler les sons extérieurs.

Mais les ingénieurs de Harvard visent surtout des applications médicales. « Construire des systèmes ioniques peut permettre de récréer de nombreuses fonctions corporelles : sensitivité, transport de signal, mouvement. Nous nous approchons réellement des machines souples qui existent en biologie » précise Christoph Keplinger, co-auteur de l’étude.

En effet, grâce à la biocompatibilité des gels, il devient possible d’imaginer des organismes vivants comme par exemple des muscles ou de la peau artificiels.

Pour découvrir le fonctionnement de ce haut-parleur utilisant la conductivité ionique et écouter le prélude Au matin de la suite orchestrale Peer Gynt du compositeur Edvard Grieg :

Par Audrey Loubens

Une opale polymère

Prenez une imprimante. Choisissez-en une avec l’option : modulation du voltage. Utilisez une encre à base de cristaux photoniques d’environ 200nm de diamètre. C’est bon, vous pouvez fabriquer un polymère capable de prendre n’importe quelle couleur. C’est en tout cas la technique utilisée par des scientifiques de l’université de Cambridge.

Aidés de leurs collègues allemands, ils ont réussi à aligner des particules en suspension dans un liquide grâce à un champ électrique, puis à polymériser ce liquide de façon à piéger les particules dans la géométrie voulue. Varier le champ faisant varier l’espacement entre les lignes, et donc la couleur visible du polymère.

Avec ce procédé, le polymère créé change de couleur suivant l’éclairage. Autrement dit, étirer le plastique change la façon dont la lumière est réfléchie, et donc sa couleur. Un comportement mimant celui des opales, ces pierres précieuses à la brillance multicolore. Ces dernières  présentent de multiples teintes du fait de la présence de sphères de silice dans la pierre. En laboratoire, l’équipe de Cambridge a utilisé des sphères avec un cœur de polystyrène recouvert d’une coque souple. D’où le surnom d’opale polymère.

Les chercheurs du NanoPhotonic center mettent en avant la simplicité de mise en œuvre et le faible coût de cette technique qui permet d’obtenir en une seule impression toutes les couleurs de l’arc-en-ciel. De quoi supplanter l’utilisation d’encre et de pigments. Ce matériau pourrait servir  de témoin, changeant de couleur en signe d’alerte. Il est aussi possible de dessiner des motifs particuliers, qui s’illumineraient différemment de leur support.

Découvrez l’opale polymère :

*

Par Audrey Loubens

Placer la chimie des matériaux au cœur du processus d’innovation

La section 15, dans ses recherches, est soucieuse de correspondre aux enjeux sociétaux. Pour cette raison, les problématiques d’importants domaines tels que celui de l’énergie, l’environnement, l’habitat, les technologies de l’information et de la communication, les matériaux de structure et la santé sont pris en compte. Voici un tour d’horizon non exhaustif des différentes fonctionnalités et objectifs des nouveaux matériaux.

La création de matériaux

« Créer de nouveaux matériaux, déterminer leur structure, étudier et optimiser leurs propriétés constituent le fondement de l’activité du chimiste. » La créativité est primordiale; c’est par elle que les chercheurs parviennent à faire émerger de nouvelles perspectives chimiques. En effet, qu’ils explorent la chimie du solide et de la métallurgie ou qu’ils se tournent vers la découverte de nouvelles voies de synthèse comme la chimie douce; les chimistes dégagent de nouvelles formules, de nouvelles textures, de nouvelles structures, qui elles-mêmes conduisent à des matériaux auparavant inimaginables. Ainsi donc, le chimiste s’appuie sur l’observation et la manipulation de la nature des relations chimiques créées lors de la synthèse et de la mise en forme des matériaux.

Un travail d’autant plus difficile que les paramètres à prendre en compte sont extrêmement abondants. Parmi ces paramètres, citons au moins la stabilité intrinsèque des liaisons chimiques ainsi que la compétition qui règne entre elles. Pour cela, les techniques de modélisation et de simulation s’avèrent efficaces car elles guident les chimistes qui peuvent s’en servir pour approfondir leurs intuitions. Les chimistes se doivent de considérer tout type de matériaux, quelle que soit leur morphologie ou leur propriété car ils jouent, chacun à leur manière, un rôle essentiel dans différents domaines.

L’un des aspects de la recherche consiste à définir la caractérisation structurale des matériaux. La tâche est complexe, mais heureusement des outils sont à disposition. L’association de techniques est courante dans ce genre d’opération. La diffraction des rayons x, ou la méthode de Rietveld, développée en 1969 se révèle être fréquemment employée. Elle peut être couplée à la microscopie électronique, la RMN du solide, l’absorption X, l’XPS, la spectroscopie Mössbauer et la spectroscopie Raman. Ces techniques amènent à une connaissance multi-échelles des matériaux. Mais les chimistes ont d’autres outils pour enrichir leur connaissance. En grande partie parce qu’ils bénéficient des avancées technologiques constantes. Sans elles, impossible d’étudier aussi précisément les structures et compositions des nouveaux matériaux et nanomatériaux. Les instruments servent les techniques de recherche, il est normal qu’ils évoluent. Ainsi les grands instruments, les instruments de mesure optique, les plateformes de haut niveau sont sans cesse perfectionnées.

L’élaboration des nouveaux matériaux doit se faire en concordance avec l’attrait qu’ils représentent ainsi que la demande sociétale. C’est-à-dire qu’ils doivent répondre aux attentes définies lors d’une production à grande échelle et être respectueux de l’environnement et du développement durable. La section 15, qui est au cœur de la recherche sur les nouveaux matériaux, poursuit ces objectifs. Par les talents qu’elle regroupe, les stratégies qu’elle développe et les relations qu’elle entretien avec d’autres sections, elle connaît plusieurs succès dans le domaine des nanomatériaux (NTC), des céramiques et de la métallurgie. Les nombreuses expérimentations, par méthodes combinatoires, simulation et modélisation, bien que coûteuse, vont dans ce sens. Son champ d’études comprend également les matériaux connus, auxquels les chimistes développent leurs procédés d’élaboration, de transformation et de mise en forme. 

Les matériaux et les enjeux sociétaux

L’environnement joue un rôle désormais majeur dans le développement des matériaux. Compte tenu des problématiques telles que la diminution des réserves en énergie fossiles ou le réchauffement climatique, de nouvelles techniques de production, de conversion et de stockage ont été mises en place afin de réduire les émissions de CO2 et de mieux maîtriser la consommation dans chaque secteur.

La section 15 dirige donc une partie de ses recherches vers la conversion de l’énergie des matériaux. Quelques matériaux sont d’ores et déjà à l’étude et ouvrent des voies nouvelles de recherche. Notamment les matériaux de type photovoltaïque car « la conversion de l’énergie lumineuse en énergie chimique représente une voie très prometteuse et riche. » À cet effet, diverses technologies sont développées comme les technologies du silicium et la voie « cellule de Grätzel ». Les piles à combustibles présentent elles aussi un bon rendement de conversion. Encore en développement, les PEMFCS fonctionnant à basse température (60-120°C), les SOFCs fonctionnant à haute température (700-1000°C), les piles céramiques à conduction protonique (PCFC) devraient ouvrir quelques portes de recherche. C’est également le cas pour les matériaux de type thermoélectrique, c’est-à-dire ayant la capacité de « transformer réversiblement l’énergie thermique en électricité ».

Les chimistes de la section 15 poursuivent la recherche de nouveaux matériaux plus performants ou tendent à améliorer ceux existant via la nanostructuration. « Parmi les nouveaux matériaux prometteurs, on peut citer les composés dérivés de Mg2Si et les travaux sur les systèmes composites. » Enfin, les scientifiques explorent l’effet magnétocalorique (EMC). Cette technique, employée pour la réfrigération, peut échauffer ou refroidir un solide lorsqu’il est soumis à un champ magnétique. Or la réfrigération se révèle très intéressante parce qu’elle « peut offrir une alternative moins énergivore et plus écologique aux systèmes thermiques classiques en raison d’une plus grande efficacité thermodynamique et de l’absence de polluant atmosphérique. »

Nous le savons, les ressources en énergies fossiles s’amenuisent. Les chercheurs se tournent par conséquent vers des matériaux de stockage. Dans le cas de la production d’électricité, les chercheurs se penchent principalement sur l’amélioration des batteries. Car le stockage du vecteur « électricité » présente quelques difficultés, dont celle d’être lissé sur une échelle de temps voulu. L’exemple le plus parlant est la production d’électricité par origine éolienne ou photovoltaïque. En effet, l’énergie ainsi produite fluctue selon les conditions météorologiques et est donc imprévisible. C’est pourquoi des systèmes à base de lithium, des systèmes au sodium, des systèmes lithium-air, des accumulateurs organiques éco-compatibles sont travaillés et optimisés afin d’offrir des performances accrues. Sans oublier le stockage d’hydrogène, dont les recherches pourraient se révéler particulièrement intéressantes. On constate une nouvelle fois que le développement des nouveaux matériaux – ici de matériaux d’électrode – joue un rôle majeur.

 

Et il y a le nucléaire. Face à la demande énergétique en constante augmentation, les chercheurs de la Section 15 se sont impliqués dans le nucléaire « durable ». Cela signifie que le développement des systèmes nucléaires ne peut se faire qu’en accord avec ces trois axes : économies de ressources naturelles, gestion optimisée des déchets et leur réduction ainsi que minimisation des risques de prolifération. La Section 15 contribue à la réussite de ces objectifs par les diverses recherches fondamentales qu’elle entreprend. Notamment celles portant sur la construction de matériaux de structure (cuves de réacteurs et circuits de refroidissement primaires et secondaires), la construction de matériaux de gainage du combustible, le confinement des déchets, les combustibles innovants, le retraitement et le recyclage du combustible usé…

« Les matériaux sont également incontournables pour l’amélioration de la qualité de vie dans l’habitat. » Les recherches sur les nouveaux matériaux destinés à l’habitat s’intensifient d’année en année tout en étant sensibilisées aux problématiques écologiques, environnementales et technologiques. Les grandes familles de matériaux fonctionnels se doivent d’ailleurs de répondre à deux exigences : la sobriété énergétique des bâtiments et la qualité de vie des occupants. Ainsi de nombreux matériaux sont à l’étude et permettent d’enrichir les connaissances des chercheurs. Citons entre autres les méso poreux, les matériaux à changement de phase, les matériaux catalytique, les matériaux actifs en photo catalyse et en électro catalyse… Les chimistes du solide travaillent sur la science des matériaux, la thermodynamique, l’ingénierie. 

En phase avec l’essor des technologies de l’information et de la communication (TIC), la section 15 n’a de cesse d’en faire innover et améliorer les matériaux. Dans ce domaine, le développement des technologies liées à l’optique et la photonique, comme les guides d’ondes, occasionne de nombreuses avancées. La raison tient au fait que le champ d’applications apparaît très vaste et plein de possibilités. 

Les matériaux multifonctionnels. Une dizaine de laboratoires de la section 15 oriente ses recherches vers les matériaux multiferroïques, c’est-à-dire les matériaux à la fois ferromagnétiques et ferroélectriques. À cela rien d’étonnant, car « le magnétisme et la ferroélectricité sont les deux piliers des technologies actuelles pour le stockage ». Le sujet a connu quelques découvertes grâce à l’utilisation des méthodes de synthèse et de caractérisation structurale.

L’étude des méta-matériaux et des cristaux photoniques laisse entrevoir de nouvelles perspectives pour les chimistes. L’élaboration de ces matériaux est certes complexe, car elle nécessite d’être pluridisciplinaire, toutefois elle peut aboutir à de nouvelles propriétés. « Les défis que se proposent de relever les chercheurs sont à la hauteur de la complexité des systèmes à construire : matériaux à indice de réfraction négatif pour super-lentilles, lasers sans seuil accordables, cavités photoniques bidimensionnelles formant des guides d’ondes planaires et bien d’autres applications en optique. »  Parmi les techniques permettant d’obtenir des structures méta-cristallines, on retrouve les techniques d’auto-assemblages naturels, orientés ou dirigés ainsi que la technique Langmuir-Blodgett.

Malgré le déclin progressif de la métallurgie en France, les chimistes, poussés à la fois par des institutions académiques et des industriels, s’ingénient encore à découvrir de nouveaux matériaux. Les acteurs du secteur métallurgique désirent tous plus ou moins la même chose : faire des économies d’énergie et préserver l’environnement. Pour ce faire, les matériaux sont allégés par divers procédés, les polluants remplacés. Encore une fois, la simulation sur ordinateur et la modélisation se sont révélés efficace.

Dans le domaine de la santé maintenant, les chimistes de la Section 15 s’emploient à créer de nouveaux matériaux et biomatériaux. « Ce domaine de recherche des «Matériaux pour la santé» concerne la conception, la synthèse et la caractérisation d’un champ très vaste de matériaux (isolant, semi- conducteur ou métallique ; cristallisé ou amorphe) de morphologie pouvant aller du massif au nano-objet. » Ainsi, cristaux scintillateurs, scintillateurs inorganiques, oxydes mixtes denses (LSO, LYSO) et céramiques transparentes font partie de ces matériaux particulièrement intéressants. Et la recherche s’articule aussi autour des films minces inorganiques, hybrides, méso structurés, nanostructurés ou à structures hiérarchisées car les applications dans le domaine de la santé sont nombreuses. Les nanomatériaux inorganiques s’avèrent particulièrement utile dans l’imagerie médicale. La thématique Biomatériaux, développée par les chimistes, offre de belles promesses. L’Homme vit plus longtemps mais ses tissus, ses organes, son corps dépérissent tout de même avec le temps. Voilà pourquoi le développement des matériaux synthétiques est si important. D’autant qu’ils présentent des avantages non négligeable tels que la diminution des risques d’infections, le faible coût, l’alternative à un prélèvement de greffon de soi… Enfin, l’un des derniers pans de la recherche s’appelle «Bio mimétisme et matériaux»; lorsque la nature est le modèle qui inspire les chercheurs. « Il s’agit de l’approche bio-inspirée du chimiste du solide. »

Par Sébastien Tribot, journaliste scientifique

L’auto-cicatrisation, avenir du polymère

Secteur de recherche en pleine expansion ces dernières années, les polymères capables d’auto-cicatriser guérissent en reformant les liens rompus, et ainsi le réseau macromoléculaire tridimensionnel, les structures réticulées. Cependant, ce processus nécessite généralement un stimulus extérieur, un élément permettant de catalyser la réparation : une tension d’entrée, de la chaleur, de la lumière, une pression extérieure, ou encore des conditions environnementales spécifiques telles qu’un niveau de pH particulier. Un polymère capable d’amener à son terme seul et de manière spontanée une guérison quantitative, sans la présence du moindre catalyseur, n’existait pas… jusqu’à présent.

Un groupe de chercheurs rattachés au Centre des technologies électrochimiques (CIDETEC), en Espagne, avait pourtant presque réussi à développer un élastomère en silicone auto-cicatrisant, s’appuyant sur des nanoparticules d’argent pour la réticulation. Malheureusement, il fallait tout de même appliquer une forte pression extérieure pour déclencher le processus d’auto-cicatrisation, et les très chères nanoparticules d’argent finirent d’enterrer tout espoir de commercialisation du polymère. Loin de déclarer forfait, le groupe de scientifiques espagnols, avec à sa tête le professeur Ibon Odriozola, est parvenu à ses fins : mettre au point un élastomère auto-cicatrisant à température ambiante, à partir de matériaux polymères communs en se basant sur une approche simple et peu onéreuse. Le chercheur espagnol insiste d’ailleurs sur l’importance d’utiliser des matériaux facilement disponibles dans le commerce pour le développement des futures applications industrielles.

« Le polymère se comporte comme s’il était vivant, entrant dans un processus de guérison constant », ajoute le professeur Ibon Odriozola, précisant que c’est pour cette raison qu’il a baptisé son poulain le polymère « Terminator », en hommage à la saga initiée par le réalisateur américain James Cameron, et plus précisément au deuxième opus de la série qui voit un méchant androïde T-1000 se liquéfier et se reformer rapidement.

Bien que coupé en deux par une lame de rasoir, le réseau élastomère du cylindre – un dérivé du polyuréthane – se ressoude à température ambiante, affichant un impressionnant taux de guérison de l’ordre de 97% au bout de deux heures, suffisant pour que le cylindre puisse résister aux assauts répétés de l’un des chercheurs, qui ne fait pourtant pas semblant de l’étirer.

Les applications de cette nouvelle classe de polymère sont très nombreuses : les rayures ou les cassures pourraient bien devenir de l’histoire ancienne pour les tablettes, les téléphones, les carrosseries de voiture ou encore bien d’autres objets du quotidien. Même la NASA étudie le dossier de près, afin de réduire drastiquement la dangerosité ainsi que les coûts de la maintenance de sa flottille de vaisseaux dans l’espace. Les Espagnols se penchent désormais sur un nouveau matériau aux propriétés équivalentes, mais moins gélatineux et plus dur que leur polymère Terminator.

 

 

Par Moonzur Rahman

 

Surprenante soie d’araignée

La soie filée par les araignées – oui, la base de nos « vulgaires » toiles d’araignée –  pourrait bien tenir le haut du pavé dans un futur très proche… On lui connaissait déjà certaines propriétés, telles que la résistance, l’élasticité, la légèreté, et les chiffres sont éloquents : sa fibre présenterait une solidité équivalente à celle de l’acier tout en restant six fois plus légère, ainsi qu’une énergie de rupture six fois supérieure à celle du kevlar. Nous vous évoquions d’ailleurs ici, il y a près de deux ans, les travaux d’une équipe de scientifiques néerlandais explorant les moyens de développer une peau à l’épreuve des balles, en se tournant vers le lait de chèvres naines transgéniques, chèvres ayant reçu au préalable une séquence génétique provenant d’araignées codant pour la conception de leur soie.

Eden Steven, physicien de l’université de Florida State et membre du MagLab, a décidé d’étudier d’autres pistes sans pour autant faire table rase de nos connaissances en la matière : enrober la soie de l’araignée d’une fine épaisseur de nanotubes de carbone, connus pour leur résistance et leur dureté, mais également pour leur grande conductivité à la fois électrique et thermique. Ses travaux, publiés dans la revue scientifique à comité de lecture Nature Communications, pourraient bien faire souffler un vent nouveau sur le monde de l’électronique.

Dans un souci de simplicité assumée, le physicien est parti comme un grand à la recherche de la soie sous forme de… toiles d’araignées, disséminées ici et là au sein même du MagLab et dans un arbre situé près du laboratoire, à l’aide d’une tige en métal. Après quelques essais infructueux dans le but d’agglomérer les nanotubes de carbone à la précieuse soie d’araignée, Eden Steven parvint à ses fins avec l’aide de molécules d’eau.

Plutôt que d’ajouter un nouvel élément toxique, complexe, non-biodégradable et polluant à nos appareils modernes, le physicien s’est mis en tête d’explorer la piste d’un matériau vert, réagissant bien à l’humidité sans devoir passer par un traitement lourd ou des adjuvants chimiques. Il se trouve que la soie d’araignée est capable de supercontraction – allant jusqu’à 140 MPa de tension – lorsqu’elle s’humidifie, propriété permettant notamment aux toiles d’araignée de résister à la pluie ou encore au poids de la rosée.

Une fois la pelote de soie déroulée, « les nanotubes adhèrent uniformément à la surface de la soie d’araignée pour produire, après séchage et contraction, une fibre non seulement excellente conductrice, mais aussi plus résistante, flexible et sur-mesure », explique Eden Steven. La fibre obtenue peut alors servir de capteur d’humidité, de capteur de pression, d’actionneur ou tout simplement… de fil électrique. L’équipe de chercheurs a d’ores et déjà réussi à mettre au point un prototype d’électrode capable d’effectuer des mesures du rythme cardiaque. Affaire à suivre…

Par Moonzur Rahman

L’Antenna-in-Box détecte les molécules individuelles

C’est le plus petit dispositif optique au monde capable de le faire ! L’analyse d’une molécule individuelle est désormais possible grâce au système ingénieux élaboré par les chercheurs de l’Institut Fresnel (CNRS, Université Aix-Marseille, Ecole Centrale Marseille), de l’ICFO (Institut de Ciencies Fotoniques, Mediterranean Technology Park, Espagne) et de l’ ICREA (Institucio Catalana de Recerca i Estudis Avançats, Barcelone). Décrit dans la revue Nature Nanotechnology, le dispositif repose sur la fluorescence émise par une molécule. La lumière émise par les molécules composant une cellule vivante permet ainsi de l’observer de façon directe au microscope optique. Mais l’analyse d’une seule molécule se heurte à la difficulté de détecter une très faible quantité de lumière, avec un bruit de fond important à cause des molécules voisines.

L’Antenna-in-box consiste en une antenne constituée de deux hémisphères en or de 80 nm de diamètre espacés de 12 nm. C’est dans cet espace que le dispositif permet de concentrer la lumière. « Lorsqu’une molécule vient se positionner entre ces deux hémisphères, l’intensité de la fluorescence qu’elle émet est décuplée et rend possible son observation optique » explique Jérôme Wenger, de  l’Institut Fresnel et co-auteur des travaux. 

Mais comment analyser le signal émis par la molécule étudiée sans qu’il soit parasité par la fluorescence des molécules présentes alentour ? Les scientifiques ont trouvé la parade en emprisonnant l’antenne optique à l’intérieur d’une nanoboite, d’où le nom de antenna-in-box. Et ça marche, la boite faisant obstacle à la fluorescence des molécules voisines. Comme le révèle Jérôme, cette box a été testée pour différentes tailles de biomolécules comme des brins d’ADN par exemple. Concernant les plus petites particules, la nanoboite a permis d’améliorer la luminosité de la fluorescence d’un facteur supérieur à 1 000 sur des volumes de détection de l’ordre du zeptolitre (10-21 L).

L’antenna-in-box peut donc être utilisée pour la détection ultra-sensible, comme par exemple le diagnostic précoce de biocapteurs de marqueurs de maladies. Elle pourrait aussi servir de nanosource optique pour visualiser l’interaction de biomolécules entre elles. C’est d’ailleurs l’objectif que s’est fixée l’équipe de Jérôme Wenger qui souhaite réussir en déposant une membrane cellulaire sur une antenna-in-box.

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

Le Groenland veut se lancer dans l’extraction d’uranium

Resté confidentiel pendant plus de six mois, le rapport sur l’extraction minière au Groenland vient d’être publié. Le Parlement du Groenland devrait se prononcer le 24 octobre sur l’autorisation d’exploiter des minerais radioactifs sur son sol.

Les députés devraient prononcer un « oui » retentissant.

Ancienne colonie danoise, le Groenland est devenu autonome en 1979. Trente ans plus tard, il a adopté l’autodétermination et assume la responsabilité des affaires judiciaires, de la police et des ressources naturelles. Le gouvernement danois est cependant toujours en charge des affaires étrangères, de la politique financière et de la sécurité.

Pendant 25 ans, le Groenland appliquait une politique de tolérance zéro en matière de substances radioactives. Des sources gouvernementales ont confié au journal danois Politiken que l’extraction d’uranium divisait le Danemark et le Groenland.

L’uranium est un métal potentiellement toxique et radioactif. L’exposition à cette substance peut nuire aux reins, au cerveau, au foie et au cœur. Ce métal est également d’une importance stratégique pour la production d’énergie nucléaire et les industries de la défense. Son exploitation à grande échelle pourrait modifier la position des deux pays sur la scène internationale.

« Le Royaume du Danemark n’aurait aucun intérêt juridique à tenter d’empêcher l’extraction, l’exportation et la vente d’uranium à des fins pacifiques et énergétiques. Selon notre analyse, le gouvernement du Groenland peut conclure ce type d’accords sans consulter le gouvernement danois », peut-on lire dans le rapport. Le Danemark devrait donc être tenu informé de tous les accords commerciaux concernant l’uranium.

Le document souligne également que les deux pays devront coopérer afin de garantir le respect des conventions internationales sur la non-prolifération d’armes nucléaires.

Un comité secret

Selon Nils Wang, le directeur de l’Académie danoise de la défense, Nuuk et Copenhague vont droit à l’affrontement.

« Le nouveau gouvernement du Groenland estime que son pays exerce un contrôle total sur ses minéraux, dont l’uranium. Copenhague ne partage pas ce point de vue. Le bureau du ministère danois des affaires étrangères chargé de la politique de sécurité a mis sur pied un comité secret pour clarifier les conséquences des exportations d’uranium en provenance du Groenland pour la politique extérieure. […]. Il souligne que ce sujet divise complètement les deux pays », explique M. Wang au Politiken.

Cindy Vestergaard, spécialiste des armes nucléaires à l’Institut danois des études internationales, estime que le document serait le premier d’une longue série qui tenterait de déterminer quel pays doit avoir le dernier mot.

Le nouveau rapport est clairement en faveur du gouvernement du Groenland et le pays devrait prouver qu’il peut empêcher l’utilisation de son uranium à des fins militaires, ajoute-t-elle.

Le Groenland, quant à lui, considère l’exploitation d’uranium comme une nouvelle possibilité d’exportation.

Jusqu’à présent, le gouvernement danois s’est refusé à tout commentaire. Les premières ministres Aleqa Hammond (Groenland) et Helle Thorning-Schmidt (Danemark) se sont récemment rencontrées. À l’issue de cette entrevue, Mme Hammond a déclaré : « Nous reconnaissons notre désaccord. »

Source : Euractiv.fr

Revue du Web #49 : les vidéos de la semaine

Cette semaine dans la revue du Web :

  • Une application ludique de l’effet Leidenfrost : le labyrinthe de Leidenfrost ;
  • « Full turn », ou comment réinventer une animation en volume ;
  • Redevenir enfant et jouer avec « Kinetic Sand », le sable cinétique ;
  • Le gadget (inutile?) de la semaine : « The sugar Lab », impression en 3D à base de sucre ;
  • Bonus : accéder à sa cabane, perchée dans un arbre… à vélo.

Et aussi dans les
ressources documentaires :

Une application ludique de l’effet Leidenfrost : le labyrinthe de Leidenfrost

Pour débuter cette quarante-neuvième Revue du web, voici une fois de plus une expérience illustrant à merveille un effet bien connu des scientifiques, à savoir l’effet Leidenfrost – du nom du premier chercheur à l’avoir décrit, l’Allemand Johann Gottlob Leidenfrost. Baptisé le « labyrinthe de Leidenfrost », l’installation a été pensée et réalisée par Carmen Cheng et Matthew Guy, deux jeunes étudiants pas encore diplômés de l’université de Bath, au sud-ouest de l’Angleterre, dans le but de servir d’illustration au phénomène de propulsion de gouttes d’eau subissant l’effet en question.

Le labyrinthe se compose de plusieurs blocs d’aluminium, chacun présentant un réseau de crénelures orientées dans une direction précise. Lorsqu’une goutte d’eau atterrit sur le bloc, les crénelures orientent le mouvement de la goutte et lui permettent de se frayer un chemin dans le dédale de métal chauffé. On peut alors assister au ballet insensé de ces nombreuses gouttes d’eau, toutes disciplinées dans ce qui semble pourtant être une danse chaotique.

L’effet Leidenfrost s’explique assez facilement et est aisément observable en projetant des gouttes d’eau sur une plaque chauffante. En fonction de la température du support, la goutte va avoir un comportement différent : légèrement en dessous de 100°C, la goutte s’étale et s’évapore lentement ; au-dessus de 100°C, la goutte siffle en atteignant le support et s’évapore très rapidement ; lorsque le point Leidenfrost est atteint (autour de 160°C pour l’eau), la goutte ne s’évapore plus, mais glisse sur la plaque chauffante. En effet, la partie inférieure de la goutte se vaporise immédiatement, créant un film de gaz protégeant le reste de la goutte de la plaque, et assurant par la même sa suspension. La goutte peut alors rouler comme une bille et met plus de temps à s’évaporer que si la plaque était de température moins élevée.

« Full turn », ou comment réinventer une animation en volume

Avec le projet « Full turn », le Suisse Benjamin Muzzin remporte bien plus qu’un simple succès d’estime dans le petit monde de l’animation et de l’image. Le jeune étudiant à L’ECAL (Ecole Cantonale d’Art de Lausanne) dit vouloir explorer par le biais de son œuvre « la notion de troisième dimension, avec l’envie d’essayer de sortir du cadre habituel de l’écran plat ». Franc tireur du travail sur l’image, sa quête d’expérimentations pousse notre créateur à dynamiter nos habitudes quant aux dispositifs d’affichage d’images, cherchant à faire gagner en volume ces animations qui ne demandent qu’à prendre vie dans l’espace.

L’installation est simple : une structure permet à deux écrans plats placés dos à dos d’entrer dans un très rapide mouvement rotatif, créant ainsi une séquence animée tridimensionnelle visible à 360 degrés. La persistance rétinienne fait le reste, les formes s’épanouissent alors en sculptures lumineuses cinétiques envoûtantes, apparitions fantomatiques qui ont vite fait de nous hypnotiser.

Redevenir enfant et jouer avec « Kinetic Sand », le sable cinétique

Delta of Sweden, une société suédoise spécialisée dans les pâtes à modeler en tous genres, à usage médical, thérapeutique, éducatif ou purement récréatif, a mis au point un sable aux propriétés surprenantes, répondant au doux nom de « Deltasand ». La bête a eu tellement d’effet sur quelques fabricants de jouets disséminés un peu partout dans le monde que certains d’entre eux se sont portés acquéreurs des droits afin de pouvoir le commercialiser dans leur pays. WABA Fun, société basée dans le Colorado, a été suffisamment rapide pour lancer la production et mettre en ligne une vidéo de démonstration du produit, rebaptisé pour l’occasion « Kinetic sand », le sable cinétique.

Le fabricant américain met en avant les 98 % de sable, faisant mine d’oublier les 2 % restants, qui permettent à leur joujou de se maintenir dans « cet » état déroutant, oscillant entre inertie et mouvement permanent. Cet ingrédient miracle, le polydiméthylsiloxane – aussi appelé PDMS ou diméthicone – est un polymère que l’on peut trouver dans les shampoings pour augmenter le volume des cheveux, mais il est également utilisé comme antimoussant présent dans certains sodas, et comme additif alimentaire présent dans certaines huiles de friture d’enseignes de fast-food mondialement célèbres.

Argument mis en avant : outre le mouvement surprenant, il est facile de ramasser « kinetic sand », tout du moins si l’on reste sur une surface lisse telle que du carrelage ou une table. Parce que la moquette n’est pas franchement recommandée.

Le gadget (inutile?) de la semaine : « The sugar Lab », impression en 3D à base de sucre

Ce n’est une nouvelle pour personne, l’impression 3D a le vent en poupe. Ici pourtant, nous sommes loin de ces applications qui peuvent nous faire rêver autant que nous effrayer, allant de la médecine et des prothèses individuelles au très controversé – et encore peu efficace – pistolet né d’une imprimante 3D. Le gadget (inutile ?) de cette semaine nous vient des États-Unis, et plus précisément de Los Angeles, avec « The Sugar Lab », un studio de design dont la spécialité est l’impression tridimensionnelle à base de sucre.

Pas des sucres en morceaux, mais plutôt de l’ornementation pour vos gâteaux… L’aventure débute pour Lyz et Kyle après leurs études d’architecture, lorsqu’ils essaient d’imprimer un gâteau en 3D pour un de leurs proches. L’échec les pousse à revoir leur copie et à être moins exigeants, en se contentant d’imprimer le nom de leur amie sur un cake acheté au préalable. Le succès est au rendez-vous, et l’amie est ravie. Forts de ce constat, les deux compères se sont jetés à pieds joints dans l’aventure, en créant leur société il y a déjà plus de deux ans. Leur petite affaire fonctionnerait plutôt bien depuis environ six mois, et le rendu de leur travail ne manque pas de précision.

Bonus : accéder à sa cabane, perchée dans un arbre… à vélo

En bonus de cette quarante-neuvième Revue du Web, une invention qui propulse instantanément son créateur au Panthéon des meilleurs papas en puissance. Qu’a donc fait cet homme pour être presque canonisé vivant ? La plus belle chose du monde : concevoir un ascenseur hors du commun pour atteindre vite et sans trop d’efforts la déjà chouette cabane perchée à près de neuf mètres du sol, dans un arbre. En effet, notre héros accède très rapidement à son terminus, après seulement quelques coups de pédales, pour en redescendre tout aussi facilement.

Alors, peu importe que la cabane ne soit pas terminée, on le lui pardonne volontiers. Puisque obsolètes il a rendu, escaliers, cordes et échelles !

Par Moonzur Rahman

Statina rend tactile (presque) toutes les surfaces !

Les adeptes du tactile peuvent se réjouir. Si les écrans qu’ils utilisent se limitent généralement aux tablettes et aux téléphones portables, l’invention de l’équipe du Professeur Khong de l’Université de technologie de Nanyang, située à Singapour, pourrait rapidement changer la donne.

Alors que les grands écrans tactiles sont très chers et limités en taille, cette nouvelle technologie, baptisée Statina (Speech Touch and Acoustic Tangible Interfaces for Next-generation Applications), permet de convertir n’importe quel écran et certaines surfaces en surfaces tactiles.

La technologie devrait permettre de transformer les téléviseurs à écran plat existants en des écrans tactiles pour un coût modique, contrairement aux écrans tactiles déjà sur le marché qui peuvent coûter des dizaines de milliers de dollars.

Lorsque les vibrations rendent une surface tactile…

Statina requiert simplement une série de capteurs de vibrations à placer autour de la surface que l’utilisateur souhaite rendre tactile. Les capteurs vont détecter la propagation des vibrations générées par l’impact d’un doigt ou d’un stylet sur la surface. Les chercheurs travaillent depuis 4 ans pour réussir à localiser ces vibrations. En analysant les données de vibration recueillies par chaque capteur, un algorithme développé pour l’occasion permet de déterminer avec précision la position de l’impact sur la surface.

Pour qu’une surface soit valorisée par cette nouvelle technologie, il faut donc qu’elle soit capable de propager des vibrations. Le bois, l’aluminium, le métal, le verre et plusieurs plastiques ont été testés avec succès. En revanche, Statina ne pourra pas être déployé sur des surfaces qui absorbent l’intégralité des vibrations, comme c’est le cas, par exemple, du ciment.

N’importe quel objet du quotidien pourrait donc vraisemblablement être transformé en une surface tactile pour un faible prix. « Notre système innovant est capable de transformer des surfaces telles que des tables en bois, aluminium, acier, verre et même des plastiques dans les écrans tactiles low-cost. Cela signifie que dans le futur, vous pourrez jouer à des jeux-vidéos ou dessiner des croquis sur les murs ou les fenêtres puisque quasiment toutes les surfaces peuvent être rendues tactile avec notre système », explique le professeur Khong.

Avec les seuls capteurs de vibration, il n’est possible de détecter qu’un seul point de contact. Pour pouvoir détecter la position et les mouvements  de plusieurs doigts, il faut les coupler à un ou plusieurs capteurs optiques. En recoupant l’ensemble des données, l’algorithme reconnaît alors l’ensemble des points de contact et peut suivre le mouvement des doigts.

Le chef du projet souhaite pouvoir commercialiser la technologie d’ici deux ans. En attendant,  l’équipe continue de travailler sur la miniaturisation de l’appareillage, l’amélioration de ses performances et approfondit ses recherches sur la partie liée aux capteurs optiques.

Par Matthieu Combe, journaliste scientifique

Top 8 des raccourcis clavier

Il y a les basiques, les indispensables, les révolutionnaires ou les accessoires. Mais si on veut optimiser son travail sur ordinateur, une bonne connaissance des raccourcis clavier s’impose. Nous vous avons sélectionné la crème des raccourcis clavier, ceux qui nous rendent la vie meilleure. Les raccourcis sont donnés pour PC, il suffit de remplacer Ctrl par Cmd pour les Mac.

  • Ctrl + A : TOUT SELECTIONNER

Prélude à une copie, ce raccourci évite de jouer de la souris en parcourant l’intégralité d’un document de plusieurs pages. Il devient facile de copier ou couper une importante quantité d’informations, en deux touches.

  • Ctrl + f : RECHERCHE

Ce raccourci est fait pour ceux qui ne trouvent jamais ce qu’ils cherchent en parcourant l’écran. Désormais, un simple Ctrl + f permet d’ouvrir une fenêtre de recherche pour taper le mot voulu et le faire surligner.  Plus besoin de froncer les sourcils en lisant en diagonal. Ceci est valable pour un document Word ou une page internet.

  • Ctrl + X, Ctrl + C et Ctrl + V : COUPER COPIER COLLER

Ces trois là font parti des basiques. Ultra-pratiques pour couper ou copier une partie d’un document et les réutiliser sur un autre. Certaines mauvaises langues y verront la facilité de plagier, mais c’est surtout un gain de temps énorme quand il s’agit de passer d’un fichier Word à un fichier Excel ou un PowerPoint, par exemple.  On les utilise sans même s’en rendre compte. Mais comment faisait-on avant ?

  • Ctrl + Z  : ANNULER

Qui n’a jamais rêver de revenir en arrière, d’effacer une erreur, de remonter le temps ? Si ce n’est pas possible dans la vraie vie, au virtuel rien d’impossible. La preuve avec ce petit enchaînement simple qui permet d’annuler les dernières actions effectuées jusqu’à la dernière sauvegarde existante. De quoi s’éviter une sueur froide après un Ctrl + A suivi d’un Ctrl + X malencontreux.

  • F2 : RENOMMER

Quand on télécharge un fichier joint dans un mail et qu’on l’enregistre, le nom donné par l’expéditeur ne correspond pas toujours à notre logique de classement. Nous passons donc beaucoup de temps à renommer les fichiers. Pour nous aider à archiver plus vite, rien de tel qu’une pression sur F2.

Ce raccourci clavier n’existe pas sous Mac.

  • Ctrl + B ou Ctrl + I ou Ctrl + U : MISE EN FORME DU TEXTE

Certains aiment  bien travailler la mise en forme, mettre en avant certain chiffres en les mettant en gras, écrire en italique les citations ou encore souligner certaines données au sens propre comme au figuré. Ces raccourcis claviers sont fait pour cela, B pour le gras (B comme Blod), I pour italique et U pour souligner (U comme underline). De quoi faciliter la clarté de nos documents.

  • Ctrl + S :SAUVER

Le raccourci clavier le plus important dans le monde des raccourcis claviers. Celui qui sauve bien plus que votre document écrit avec la plus grande des concentrations, Ctrl + S sauve votre santé mentale. Car quand on désactive la sauvegarde automatique plutôt pénible, et qu’une micro-coupure de courant impose le redémarrage de votre ordinateur, vous êtes bien content d’avoir inconsciemment tapé Ctrl + S, deux touches très proches pour un usage aisé. Cela évite de tout recommencer, et accessoirement de nous plonger dans un état d’énervement difficile à effacer…

  • Ctrl + shift + t : ONGLET RESSUSCITE

Moins connu mais pourtant très utile, cet enchaînement de trois touches permet de faire réapparaitre un onglet fermé par mégarde. Ce raccourci clavier est bien plus qu’un simple raccourci puisque sa fonction n’est pas seulement de nous faire gagner du temps en s’évitant e naviguer dans l’historique de notre navigateur, mais bel et bien de réparer une erreur. Une sorte de Ctrl + Z des onglets.

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

  • Découvrez le pack Réseaux Télécommunications
    Complexes, porteurs, concurrentiels : la maîtrise des réseaux informatiques est un enjeu majeur pour l’industrie et les services

Hyperloop, le projet incroyable d’Elon Musk

Un procédé qui ressemble à celui des tubes pneumatiques.

Le 12 août 2013, un dossier de 57 pages baptisé « Hyperloop Alpha », fruit de la collaboration des équipes de Tesla Motors et SpaceX, a été dévoilé par l’Américain, agrémenté d’une première esquisse. L’occasion de découvrir de nouveaux détails.

Loin de la conception traditionnelle que l’on peut se faire d’un train, Hyperloop se présentera sous la forme d’un long tube à l’intérieur duquel des capsules, pouvant accueillir jusqu’à vingt passagers, se déplaceront à la vitesse stupéfiante de 1 220 km/h, quasiment la vitesse du son. Les capsules n’entreront à aucun moment en contact avec les parois du tube grâce à un système de pression d’air. Pour se faire une idée, le milliardaire le dépeint « à mi-chemin entre le Concorde, le canon électrique et la table de Air Hockey ».

Ce moyen de transport futuriste serait plus sécurisé, économique, écologique et confortable que ce qui existe en matière de moyen de transport. Alimenté par l’énergie solaire via des panneaux installés sur le toit du tube, extrêmement rapide, préparé à faire face aux tremblements de terre fréquents dans la région, au tarif imbattable de 20 dollars le billet pour une telle distance…

Sur le papier l’Hyperloop expose de nombreux avantages.

Cependant, encore lui faut-il voir le jour. Car les défis qu’engendre la création de ce train sont légions. Dont un, primordial, reste à résoudre pour le moment. Il s’agit du danger résultant du mouvement à grande vitesse des capsules dans le tube. La crainte est que la pression ainsi créée ne soit trop importante et entraîne des collisions entre les capsules.

Malgré tout, la réalisation de ce projet pourrait devenir concrète d’ici une dizaine d’années. Elon Lusk estime le coût du projet à 6 milliards de dollars et rappelle au passage qu’un projet de TGV entre Los Angeles et San Francisco s’élèverait à plusieurs dizaines de milliards de dollars.

Concernant la construction d’un prototype, rien n’est assuré à l’heure actuelle. L’entrepreneur songe à s’occuper lui-même du démarrage du projet, mais sans certitudes : « je suis tenté de créer au moins un prototype de démonstration… j’aimerais que ce projet devienne réalité et je pense que cela aiderait si je faisais un modèle. »

À projet fou, inventeur visionnaire.

L’Hyperloop, qui enflamme tant internet, pourrait être tiré d’un film de science-fiction. Il fallait bien un milliardaire un peu fou et surtout très ambitieux pour proposer un tel projet. Son inventeur Elon Musk est d’ailleurs connu pour son parcours atypique.

Né à Pretoria en Afrique du Sud, il rejoint à 17 ans le Canada pour faire ses études à l’Université Queen’s et surtout pour échapper au service militaire dans un régime pro-apartheid. Quatre ans plus tard, il intègre la Wharton School de l’Université de Pennsylvanie où il étudie simultanément le commerce et la physique. À 24 ans, Elon Musk arrête précipitamment le doctorat qu’il avait commencé à l’Université de Stanford et se lance dans l’entrepreneuriat. Il cofonde alors Zip2 Corporation, une société d’édition d’un logiciel de publication de contenu en ligne. Zip2 est vendu en 1999 pour 341 millions de dollars. Un an plus tard, Musk acquiert la désormais célèbre société de paiement en ligne Paypal. Pour la revendre deux ans plus tard à eBay pour 1,5 milliard de dollars. Aujourd’hui à 42 ans, il est PDG de Tesla Motors et SpaceX et sa fortune est estimée à 7,7 milliards de dollars.

Par Sébastien Tribot

Grand central : la radioactivité sur grand écran

Il y a peu de dénonciation et surtout pas de position antinucléaire dans ce film. On n’y apprend rien sur les dessous d’une industrie dont les enjeux sont colossaux en France. Mais il évoque avec réalisme la vie très précaire des saisonniers du nucléaire et restitue parfaitement la menace de contamination qui plane sur eux lorsqu’ils œuvrent au plus près des réacteurs.

« Grand central » est  avant tout une magnifique histoire d’amour ; l’usine n’étant finalement qu’un prétexte pour mettre en scène un petit groupe d’intérimaires, obligés de vivre ensemble le temps d’une mission. La bonne idée de la réalisatrice est d’utiliser pour son récit les symboles du nucléaire. Cet ancrage dans un univers rarement montré au cinéma est la très grande réussite de ce film qui y puise sa force et son intensité.

On ne s’attardera pas sur le parallèle évident entre l’irradiation nucléaire et la flamme amoureuse. « Au pire, ce n’est qu’un gros coup de soleil » pense Gary avant de réaliser qu’en amour, comme au cœur de l’usine,  la surdose peut être fatale et qu’« il ne suffit pas de le vouloir pour que ça s’arrête ». Les autres références au nucléaire – la lumière, l’eau et la sécurité – sont plus intéressantes à creuser.

La lumière est l’une des applications principales de l’industrie nucléaire. Un des personnages s’écrie fièrement au début du film : « Nous apportons la lumière aux gens ! ».  En acceptant cette place à l’usine nucléaire, Gary a quitté une existence difficile faite de petits boulots et de galères. Le seul passage du film qui nous donne un aperçu de sa vie d’avant a lieu dans la chambre à coucher de sa sœur avec qui les relations semblent difficiles ; la chambre est plongée dans le noir car un bébé y dort. Sa nouvelle vie apparaît plus lumineuse à l’écran : les scènes près des mobil-homes où vit la communauté de travailleurs et celles en pleine nature sont baignées de soleil. La nuit, on aperçoit quelques lucioles occupées elles aussi à produire leur propre lumière…

Puis vient l’eau, élément incontournable d’une centrale. Vapeur d’eau à l’origine de la production d’électricité, systèmes de refroidissement, piscines de désactivation, l’eau est présente à toutes les étapes de la production d’énergie. Dans le film, elle est omniprésente : il y a la rivière près de laquelle vivent les intérimaires et qui les sépare des imposantes cheminées de la centrale. Il y a ces scènes répétitives où les intérimaires se frottent frénétiquement sous l’eau après avoir été exposés aux doses radioactives. Il y a aussi la pluie après le mariage de Karole avec celui qui n’est pas Gary, et puis ces quelques scènes où une bouteille d’eau aide les personnages à communiquer.

Autre symbole fort du nucléaire : la sécurité ou plutôt le danger. Les doses reçues par les travailleurs sont enregistrées par un petit capteur qu’ils doivent porter sur leur poitrine et compilées dans un carnet pour s’assurer de ne pas dépasser la dose mortelle. Le danger, la maladie et la mort sont omniprésents. Les radiations mais aussi l’amour interdit qu’il vit avec Karole, contaminent lentement le héros, Gary, et menacent l’équilibre de la communauté. Les coups de sirène déclenchés en cas d’accident grave semblent à plusieurs reprises prévenir les amants du danger de leur passion. Relevons le cynisme d’une scène où une des responsables de l’usine, prenant soin de sa santé, fume une cigarette électronique tandis qu’elle envoie sans état d’âme de jeunes saisonniers flirter avec la mort.

Au final, la cinéaste a réussi à teinter son récit de quelques messages politiques forts sur la réalité de travailleurs précaires de notre époque. Avec ses multiples références à la radioactivité, le film nous offre une vision apocalyptique de l’ère nucléaire et parvient à nous mettre en garde contre ses dangers.

Par C.C

Infos pratiques :
« Grand Central » de Rebecca Zlotowski
Avec Tahar Rahim, Léa Seydoux, Olivier Gourmet, Denis Ménochet
Sortie le 28 août 2013.

Non, Voyager 1 n’a pas quitté le système solaire

J’ai deux choses à en dire, et je veux être prudent. D’abord, c’est un événement extraordinaire qui vaut vraiment la peine d’être célébré. Ensuite, beaucoup de gens disent que Voyager 1 a quitté le système solaire, et ce n’est pas tout-à-fait exact.

Commençons par le début. Ce que les scientifiques ont découvert est que, pendant la deuxième moitié de 2012, Voyager est entrée dans une nouvelle région de l’espace. Ca concerne le vent solaire, un flux de particules subatomiques soufflées au loin par le Soleil. Ce vent se propage au loin, et bien au delà de l’orbite de Neptune il rencontre les particules qui existent entre les étoiles. Il les repousse et ralentit par la même occasion. A un certain point, la pression du vent n’est plus assez forte pour repousser la pression des particules extérieures, et il s’arrête. Cette région s’appelle l’héliopause. Nous savions depuis des années que Voyager est dans ce volume flou d’espace où se trouve l’héliopause, mais il a été follement difficile de savoir si elle l’avait traversée.

Puis le Soleil nous a fait un cadeau : une éjection de masse coronale. Ces énormes explosions expulsent de la matière au loin, et l’une eut lieu en Mars 2012. Après plus d’un an de voyage, son onde de choc a atteint l’héliopause. A cet endroit, elle a interagi avec la matière qui s’y trouve en la faisant vibrer. Ce type d’interaction est détectable par Voyager, et lorsque les scientifiques ont analysé les données, ils ont réalisé que la densité de matière était bien plus élevée qu’attendue. Et c’est exactement ce qui devrait se produire si Voyager avait en fait dépassé l’héliopause.

Donc, il semblerait qu’après avoir parcouru 19 milliards de kilomètres, un de nos vaisseaux spatiaux est entré dans ce qu’on peut raisonnablement appeler l’espace interstellaire.

Mais cela veut-il dire qu’il a quitté le système solaire ? Et bien non. Ca peut paraître bizarre puisque je viens de dire que c’est l’espace interstellaire, mais ce n’est que si vous considérez l’influence du Soleil sur les particules.

Cependant, il y a plus que des électrons et des protons dans la banlieue étendue de notre système solaire. Même là-bas, plus de 120 fois plus loin du Soleil que la Terre, il y a des objets plus substantiels : de gros morceaux de glace qui sont autant de comètes géantes. Le Soleil est entouré de milliers de milliards de ces grosses boules de glace, dont une multitude forment le nuage d’Oort. Il leur faut des millénaires pour parcourir une seule orbite autour du Soleil, mais elles restent captives de sa gravité.

Ceci en fait de véritables objets du système solaire, et c’est pourquoi on ne peut pas vraiment dire que Voyager 1 a quitté le système solaire. Il y a encore du système solaire plus loin!

C’est comme sortir par la porte de votre maison et dire que vous avez quitté votre propriété. Vous avez quitté la maison, mais il y a encore le jardin autour de vous : il vous reste encore du chemin.

J’insiste sur ce point car on a déjà dit que Voyager avait quitté le système solaire dans le passé. Plusieurs fois. De nombreuses fois. La dernière était en Mars de cette année, quand des scientifiques ont annoncé avoir détecté un changement dans l’environnement de Voyager qui aurait marqué le début de l’espace interstellaire. Cette annonce a été rapidement contredite par l’équipe Voyager au JPL et son chef, Ed Stone. Mea Culpa : j’ai dit à ce moment là que Voyager avait quitté le système solaire, puis m’étais rapidement ravisé lorsque l’équipe Voyager avait sonné la cloche.

Cependant, avec ces nouveaux résultats Stone a donné sa bénédiction. Même si Voyager a encore un long chemin (plusieurs milliers d’années en fait) avant qu’elle quitte réellement le système solaire, je pense qu’il est juste de dire qu’elle est maintenant dans l’espace interstellaire.

Et ceci est un succès étonnant pour l’humanité. C’était inévitable : nous savions que ça allait arriver même avant que Voyager 1 et sa jumelle Voyager 2 soient lancées en 1977. Mais tout de même, après toutes ces années et tant d’espace vide parcouru, ce point a été atteint. L’humanité est maintenant une espèce interstellaire.

Par Philippe Guglielmetti dit « Dr Goulu » (Traduction de l’article « Voyager 1 Reaches Interstellar Space. But Has It Left the Solar System? » par Phil Plait) 
Blog Pourquoi Comment Combien

34 projets pour la nouvelle révolution industrielle de la France

« Ces 34 plans sont le nouveau visage de la France industrielle » affirmait François Hollande, dans son discours de présentation. Alors, à quoi allons-nous ressembler dans 10 ans ?

Après « Le changement c’est maintenant », y aura-t-il un « La révolution c’est pour demain » ?

En réalité, derrière un exercice de communication réussie, se cache une série de projets qui n’ont pas grand-chose de révolutionnaires puisque nombreux sont déjà dans les cartons des industriels depuis plusieurs mois, voire des années. De plus, certaines thématiques restent particulièrement floues, avec comme objectif affiché de faire mieux et moins cher. Certes. Mais en pratique, nous n’en saurons pas plus. 

Cette sélection de projet s’appuie sur trois axes qui sont la transition énergétique, l’économie du vivant et les nouvelles technologies. Plus précisément, le Président de la République a évoqué des véhicules automobile consommant moins de 2L/100 km, la rénovation thermique des bâtiments, les biotechnologies ou encore la cybersécurité et le Cloud computing (Voir tableau) :

Au travers de ces choix, le gouvernement espère créer des emplois, thématique au cœur de ses préoccupations puisqu’en 10 ans, la France a perdu 750 000 emplois industriels.

Cette révolution industrielle devrait en rapporter 480 000 sur 10 ans. Les projets ont été sélectionnés par la direction générale de la compétitivité, de l’industrie et des services du ministère du redressement productif en collaboration avec le cabinet McKinsey.

La contribution de l’Etat devrait s’élever à 3.5 milliards, ponctionnés dans les 12 milliards du programme d’investissement d’avenir annoncé il y a quelque mois, dont le financement était déjà plutôt obscur. Qu’importe, le retour sur investissement espéré est de 10.

C’est du moins ce qu’a annoncé Arnaud Montebourg, à l’optimisme inébranlable. L’essentiel du financement restera quand même à charge du secteur privé, l’Etat quand à lui mettra à disposition les moyens logistiques et administratifs dont il dispose. Les plans devraient être pilotés par un industriel ou un pôle de compétitivité.

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

Le redressement du Costa Concordia est terminé

114 000 tonnes, 290 mètres de long pour 57 mètres de hauteur. Le mastodonte échoué depuis janvier 2012 sur le flanc vient d’être renfloué au terme d’une opération titanesque, suivie par le monde entier. Il faut dire que la mission était ardue puisqu’aucun renflouement de cet envergure n’avait encore jamais été tenté. 

En ce lundi 16 septembre, la foule est déjà présente sur le rivage pour assister au redressement du tristement célèbre paquebot dont le naufrage avait causé la mort de 32 personnes. A ce moment, personne ne sait si l’opération va réussir ou échouer. D’autant que la mission a déjà deux heures de retard à cause des orages qui viennent de s’abattre.

Pour redresser le monstre des mers, les équipes américaines et italiennes ont positionné 56 chaînes d’acier lourdes chacune de 26 tonnes. Celles-ci sont tirées par des treuils géants. Un socle artificiel de 16 000 tonnes de béton a été préalablement coulé par 30 mètres de fond pour supporter la carène du navire une fois celui-ci redressé. Car tirer le navire par le côté est une chose, gérer son basculement une fois atteints les 24° d’inclinaison en est une autre. Passée cette limite, le Costa Concordia n’a plus besoin d’être tiré, ce sont neuf caissons remplis d’eau qui vont achever le redressement. Une minerve d’acier de 1 700 tonnes enchâsse la coque.

Enfin, pour figer le bateau, 21 piliers d’acier ont été forés à 9 mètres de profondeur, dans le fond marin, de façon à le maintenir en place. Pour gérer l’ensemble du matériel, ce ne sont pas moins de 500 personnes qui sont mobilisées.

Regardez la simulation du sauvetage :

Tous ces chiffres illustrent le caractère exceptionnel de ce renflouement, « […] une opération d’une envergure jamais tentée auparavant », confirmait le préfet Franco Gabrielli. Cette première mondiale a finalement été un franc succès. Un succès à plus de 600 millions d’euros intégralement assumés par l’armateur. Menée de main de maître par le spécialiste du renflouement Nick Sloane, l’opération pouvait pourtant se heurter à de nombreux obstacles : la coque aurait pu ne pas tenir le choc et se briser, ou encore le bateau aurait pu basculer si fort qu’il se serait retourné de l’autre côté. 

D’ailleurs, les équipes devaient opérer avec une météo favorable, le vent et la hauteur des vagues devant rester inférieurs aux valeurs seuils calculées pour la faisabilité de la rotation. De plus, l’ensemble du trafic maritime a été interrompu au large de l’île du Giglio pendant toute la durée du renflouement qui aura duré un peu moins de 24h, aux termes desquelles Nick Sloane, l’expert Sud-Africain, a été accueilli par des applaudissements et des félicitations des habitants de l’île encore présents.

Maintenant que le palace flotte à nouveau, il va être exploré,  les corps de deux personnes portées disparues n’ayant pas été encore retrouvés. Son remorquage ne devrait pas intervenir avant le printemps 2014.

Le renflouement du siècle en vidéo :

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

De l’eau magmatique détectée sur la Lune

Et s’il y avait eu de l’eau dans les profondeurs de la Lune ? Alors que l’on croyait que la Lune était de nature sèche, il se pourrait bien qu’il n’en soit rien. En effet, c’est dans le cratère Bullialdus que des traces d’eau ont été trouvées à l’intérieur de roches lunaires.

Plus précisément, la mise en évidence grâce au Moon Mineralogy Mapper, instrument spectroscopique de cartographie minérale lunaire, de la présence de nombreux groupements hydroxyles caractéristiques de la présence d’eau dans les roches, a alerté les scientifiques.  Cette eau piégée dans des grains de minéraux diffère des traces d’eau précédemment découvertes en surface.

Jusqu’alors, on pensait que l’eau sur la Lune provenait d’une contamination extérieure, soit par une comète, soit à cause des vents solaires par exemple. Mais la présence d’eau magmatique prouve qu’il y avait de l’eau sur la Lune, d’origine lunaire !

Ces mesures vont maintenant être comparées aux échantillons rapportés par Apollo.

« Cette eau magmatique interne nous donne aussi des indices sur les processus volcaniques lunaires et sur la composition interne de cet astre. Ce qui nous aide à aborder certaines questions sur la façon dont la Lune s’est formée et comment les processus magmatiques ont évolué quand elle s’est refroidie » analyse Rachel Klima, géologiste planétaire au Laboratoire de physique appliquée de l’Université John Hopkins.

Par Audrey Loubens

Salon de l’automobile de Francfort 2013 : best of en images

la dernière création du Cheval Cabré revendiquant 1.290 kilos sur la balance est équipée d’une version retravaillée du V8 4.5. Elle peut ainsi prendre appui sur une puissance de 605 chevaux assortie d’un couple de 540 Nm.

La 458 Speciale est gratifiée d’un chrono d’1 minute 23 secondes et 5 dixièmes sur le circuit d’essai de Fiorano, soit une seconde et demie de mieux que la 458 Italia.

Et aussi dans les
ressources documentaires :

La firme de Gaydon a décidé en cette année 2013 de relancer le nom de Vanquish, mythique GT créée en 2001, pour la remplaçante de la DBS. A l’occasion du Salon de Francfort, c’est la version décapotable dite « Volante » que nous découvrons.

La Vanquish fut l’une des GT marquantes du début des années 2000 et reçut ses lettres de noblesse en devenant la monture de James Bond dans le film « Meurs un autre jour ».

l’Audi A3 Cabriolet dernière génération affiche un gain volume comparé à sa devancière, comme en témoigne ces mesures : 4.42 mètres de long pour 1.79 de large avec un empattement porté à 2.60.

Le coffre possède une plus grande capacité de stockage et les passagers bénéficient ainsi d’un meilleur confort. Malgré ses proportions, ce cabriolet n’est pas plus lourd bien au contraire, puisque son poids a été réduit à 1365 kg.

Après l’époustouflant Audi quattro concept de 2010, héritier de la mythique quattro de 1980, la marque aux anneaux fête l’anniversaire d’une autre de ses légendes, la Sport quattro, qui fit le bonheur des amateurs de rallyes.

Même constat pour ce profil de coupé tricorps, avec son court porte à faux avant, sa ligne de toit fuyante et son montant C typiquement BMW : aucun doute, cette Série 4 provient bien de la maison bavaroise. À l’intérieur aussi, les habitués de la marque sont en terrain connu : le mobilier est repris de la Série 3, tout en prenant le parti d’une présentation un peu plus sportive.

Sous le capot, compte tenu de son positionnement un peu plus sportif, la Série 4 ne reçoit que les moteurs les plus puissants de la Série 3.

Après avoir présenté la version cinq places au Salon de Genève, c’est au Salon de Francfort que Citroën dévoile son Grand C4 Picasso de seconde génération et ses sept places. La recette de son prédécesseur est conservée : si la plate-forme est la même, le constructeur aux chevrons ne tombe pas dans la facilité de seulement l’« étirer » de 16 cm (dont 11 cm pour l’empattement) pour atteindre 4,59 m, mais lui offre une identité propre avec un bouclier et une calandre spécifiques et une poupe totalement redessinée.

Le résultat plaira ou non mais on ne peut pas enlever à Citroën son audace et son originalité, deux qualités qui font défaut esthétiquement dans cette catégorie.

Le nom de ce bolide fait référence au département en charge des activités sportives de la marque, de la GT3 en passant par la Lamborghini Blancpain. La Squadra Corse, proposée en quatre coloris jaune Midas / blanc Monocerus / gris Thalasso / rouge Mars, est directement inspirée de la Super Trofeo engagé en compétition.

Elle partage le même aileron que sa devancière LP 560-4 mais se révèle plus légère, grâce à sa structure en carbone et en aluminium. Son poids est en effet de 1340 kg, soit 70 de moins.

Avec ces 270 chevaux, ça va décoiffer puisque cette RCZ R s’annonce comme la Lionne la plus puissante jamais commercialisée. Elle est capable d’avaler un 0 à 100 km/h en 5,9 secondes, avec une vitesse maximale de 250 km/h.

Elle sera disponible au début de l’année 2014 pour 42.900 euros (soit 10.200 euros de plus que la version 1.6 THP de 200 ch) en 4 teintes : Rouge Erythrée, Noir Perla Nera, Gris Sidobre et Blanc Opale. 

Directement inspiré de la voiture d’endurance RS Spyder, le moteur thermique V8 4.6 l de 608 chevaux (447 kW) est associé à deux moteurs électriques de 115 kW.

Au total, le module hybride offre une puissance totale de 887 chevaux, de quoi permettre à la Porsche 918 Spyder de pulvériser le 0 à 100 km/h en 2.8 secondes et d’atteindre la vitesse maximale de 345 km/h.

En cycle mixte, le constructeur annonce une moyenne de 3 à 3.3 l/100 km et des émissions de CO2 de 70-79 g/km.

L’Initiale Paris est le dernier en date des concept-cars créés par Van den Acker après les Captur, Dezir, Frendzy et autres Twin’Run. 

Il annonce le futur Espace avec des lignes qui seront fidèlement reprises sur le modèle de série en raison de la proximité de la commercialisation : avant la fin de l’année prochaine. 

Attendue pour 2014, la version quatre places de la Smart se révèle un peu plus à chaque concept. A Francfort, c’est la nouvelle étude de style Smart FourJoy qui vient d’être présentée.

Sans portes, ni toit, ni lunette arrière – la smart fourjoy est encore très loin du modèle de série mais laisse entrevoir certaines caractéristiques de cette future citadine quatre places. A commencer par ses dimensions extérieures particulièrement compactes (longueur : 3 494 mm/largeur : 1 978 mm/hauteur : 1 494 mm) qui, associées à un rayon de braquage de 9,10 m, lui assureront une parfaite maniabilité en zone urbaine.

Un gabarit donc assez proche de l’e-Up ! de Volkswagen mais aussi de la prochaine génération de Twingo dont elle partagera la plateforme dans le cadre d’un accord conclut entre Daimler et Renault.

Par Pierre Thouverez

Les Pays-Bas, futur paradis des voitures électriques

La Hollande a fait un geste fort en faveur du développement de son parc de voitures électriques : l’autre pays du fromage devrait se doter dans les deux ans d’un réseau de plus de deux-cents stations de recharge rapide pour véhicules électriques, représentant un maillage dense d’une station tous les cinquante kilomètres sur les grands axes routiers. L’annonce, qui a été faite la semaine dernière, a eu le mérite de ne pas passer inaperçue dans le cercle plus si fermé des propriétaires de véhicules électriques.

C’est le groupe helvético-suédois ABB – le plus grand constructeur de réseaux électriques au monde – qui a raflé la mise auprès de l’opérateur néerlandais Fastned et qui devra livrer 201 stations réparties sur tout le territoire, à l’horizon 2015, faisant des Pays-Bas le pays possédant le plus grand réseau national de stations de recharge rapide pour véhicules électriques au monde. Les premières stations devraient vraisemblablement être prêtes dès le mois de septembre, si les délais impartis sont respectés.

Chacune des stations comprendra différents types de bornes de recharge, dont les Terra 52 et Terra 53 de ABB, bornes mixtes de 50 kW aptes à recharger un véhicule électrique en moins de trente minutes. Ce réseau devrait être capable de « satisfaire tous les véhicules électriques élaborés par les principaux constructeurs européens, américains et asiatiques » d’après les responsables du projet. Le paiement, l’assistance à distance et les mises à jour seront pris en charge via du cloud-computing. Enfin, des panneaux photovoltaïques placés sur le toit des stations viendront compléter le tableau.

Par Moonzur Rahman