Skylon, l’avion qui vole à Mach5

Dans les tuyaux de l’entreprise Reaction Engines, une nouvelle technologie baptisée le pré-refroidisseur. Son principe ? Refroidir l’air entrant dans le moteur très rapidement pour lui permettre de tourner à un régime très élevé sur une longue durée. Alan Bond, ingénieur en chef du projet, affirme que ce système est capable de refroidir de plus de 1000°C l’air entrant en moins de 0.01s !

Une performance possible grâce à un système de refroidissement à base de tubes très fins assemblés suivant la forme d’un tourbillon. Ces tubes contiennent de l’hélium condensé. Le gaz sert à extraire la chaleur de l’air dont la température chute à -150°C juste avant de pénétrer dans le moteur. Un autre système a été développé par ces britanniques pour empêcher le gel  de l’eau contenu dans l’air, protégeant ainsi le moteur du givre.

Ces spécificités techniques permettront au Skylon de voler à une vitesse supérieure à cinq fois la vitesse du son. Moins que l’avion le plus rapide qui performe à Mach 9,6, mais bien plus que les avions standards et plus de deux fois plus que la vitesse moyenne du feu Concorde. De quoi raccourcir la durée des vols commerciaux, mettant l’Australie à moins de 4h de l’Europe.

Il faudra toutefois attendre 2019 pour espérer monter à bord d’un tel supersonique. Actuellement, le Skylon est en phase de test. D’après Reaction Engines, le Skylon fera 84m de long et sera capable d’emporter 300 passagers. Cet appareil coûte quand même la bagatelle de1.1 milliards de dollars. Mais à ce prix là, le Skylon pourra même aller dans l’espace.

Découvrir le Skylon en vidéo :

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Enfin une batterie à base de graphène

Publiée dans Nature, l’invention des scientifiques de l’université Vanderbilt dans le Tennessee va faire pâlir d’envie tous les propriétaires de smartphones. Imaginez, une batterie qui se recharge en quelques secondes et qui tient plusieurs semaines ? Un rêve devenu réalité grâce à un choix de matériau audacieux, le graphène.

Le principe est de remplacer le système classique, un stockage chimique de l’électricité, par un système basé sur une puce en silicium permettant d’assembler des ions sur un matériau poreux. Le choix du graphène est un succès puisque pour la première fois, le système fonctionne de façon stable.

D’après leurs résultats, une telle batterie abaisserait le temps de chargement à quelques secondes contre plusieurs minutes voire plusieurs  heures. Deuxième avantage, la batterie tiendrait plusieurs semaines ! Et ce n’est pas fini. Les chercheurs indiquent une durée de vie 4 fois plus importante avec une moyenne de 5 000 rechargements contre seulement 1200 pour les batteries standards.

Alors, la fin de l’ère des batteries au lithium a-t-elle sonné ? Pas encore. Car il y a une chose que les chercheurs ne chiffrent pas, c’est le coût d’un tel système. Rappelons qu’en 2013, un gramme de graphène coûte 800 dollars, ce qui reste très cher et incompatible avec une production de masse. Néanmoins, le fonctionnement de cette nouvelle batterie au silicium-graphène est très prometteur. D’autant qu’un autre secteur que la téléphonie mobile s’intéresse à ces batteries. Il s’agit de l’industrie automobile, dont les voitures électriques pourraient bien s’équiper dans le futur pour enfin proposer une autonomie digne de ce nom.

En savoir plus sur le site de l’université

Par Audrey Loubens, journaliste scientifique

News environnement : novembre 2013

Un dispositif développé en Espagne élimine les émissions de CO2 industrielles

Une collaboration entre le Centre des Lasers Pulsés (CLPU), le Service Général de Spectrométrie de Masse de la plate-forme d’appui à la recherche (NUCLEUS) de l’université de Salamanque, et l’entreprise espagnole Iberdrola Ingénierie a permis le développement d’un dispositif qui pourrait éliminer presque 100% des émissions de gaz à effet de serre émises par les industries dans l’atmosphère, principalement des émissions de CO2. Les chercheurs ont déjà présenté un brevet national pour le premier prototype du système, qui est le résultat du projet de R&D SIGMA débuté il y a deux ans. Le système utilise la radiation laser pour ioniser les gaz et les extraire au travers de champs électriques et magnétiques.

Un dispositif peut-être révolutionnaire, puisqu’il permettrait d’affronter, sous un nouvel angle, les problèmes environnementaux et climatiques causés par les émissions de CO2. Eviter que ce gaz résultant des différentes activités humaines ne s’accumule dans l’atmosphère représente un immense défi à la fois scientifique et technologique, auquel existent trois pistes de réponse : capturer le CO2 émis avant son entrée dans l’atmosphère, miser sur les énergies non carbonées, et augmenter l’efficience énergétique de nos industries.

Le prototype breveté par le CLPU s’inscrit dans la première option, et présente l’avantage d’être beaucoup moins coûteux que les autres voies qui ont été explorées jusqu’à présent dans ce domaine.

La première partie du processus mis en place consiste en une « photo-ionisation » des molécules de la phase gazeuse, c’est à dire d’une ionisation de ces molécules grâce à l’action d’un laser. Après cette opération, une spectrométrie de masse permet de séparer les différents composants de la phase gazeuse. C’est en fait cette phase du processus qui représentait le plus grand défi scientifique et technologique pour les chercheurs, car jusqu’à maintenant la spectroscopie de masse avait surtout été utilisée pour travailler avec de très petites quantités de gaz (analyse de composés chimiques par spectroscopie de masse à partir de petites quantités d’échantillon). Dans le cas présent, l’objectif du projet est au contraire de réussir à appliquer ce processus à de grandes quantités de gaz, ce qui n’avait encore jamais pu être obtenu auparavant.

Un des principaux obstacles à franchir était le cout énergétique de la spectroscopie de masse appliquée à des quantités importantes de gaz, qui aurait pu annuler les bienfaits du procédé en termes de bilan carbone. Cette difficulté a pu être surmontée grâce à l’utilisation d’un laser, qui permet dans le prototype de séparer électrostatiquement les molécules ionisées, sans qu’elles se heurtent à d’autres particules. Obtenir que les molécules circulent dans la bonne direction à pression atmosphérique et en temps voulu pour réaliser le processus est une opération extrêmement complexe que les scientifiques du projet travaillent encore à optimiser.

La séparation par spectrométrie de masse génère de nouvelles molécules, comme par exemple de l’oxyde de soufre ou de l’oxyde d’azote, qui peuvent être employés dans l’industrie chimique ou comme fertilisants. De cette manière, le prototype présenté pourrait permettre à la fois de résoudre le problème environnemental de l’émission industrielle de gaz à effet de serre, et aussi de générer des produits dérivés de haute valeur commerciale.

L’avenir dira si ce système peut s’avérer rentable pour les entreprises, mais ses inventeurs sont convaincus qu’il pourra permettre de grandes économies de coûts, tout spécialement pour les grandes entreprises, qui doivent payer des redevances liées aux émissions de polluants. L’objectif de ses promoteurs est de pouvoir lancer d’ici 4 ans sa commercialisation auprès des petites industries.

Source : bulletins électroniques

Gestion des risques liés aux nanotechnologies. Une coopération Europe-Etats-Unis

Sans que l’on s’en aperçoive vraiment, les nanotechnologies et les nanomatériaux envahissent de plus en plus notre quotidien. On les retrouve un peu partout, par exemple dans les appareillages électroniques modernes, certains médicaments, produits cosmétiques et pommades, textiles, cellules solaires ou encore additifs alimentaires. Cette situation n’est pas sans poser de problèmes environnementaux, de santé et de sécurité. Ainsi, au sein de l’Europe et aux Etats-Unis, on a vu se développer des législations éparses et parfois incohérentes entre elles. Récemment, la nécessité d’une harmonisation entre les réglementations Européennes et Américaines est devenue une évidence.

Ainsi, depuis presque 3 ans, des scientifiques et des médecins des Etats-Unis et d’Europe, travaillant dans le secteur de l’environnement, de la sécurité et de la santé, cherchent à unir leurs efforts pour répondre aux préoccupations de gestion et de contrôle des risques liés aux nanotechnologies. Ainsi en 2011 se tenait le premier séminaire européen-américain « Bridging nanoEHS Research Efforts », à Washington, DC. Un an plus tard, trois communautés de recherche (« CoR ») se sont constituées autour des thématiques, « Modélisation et prédictions en santé humaine », « Tests d’écotoxicité et modèles de prédiction », et « Exposition durant un cycle de vie » lors d’une rencontre à San Francisco. Ces trois CoR sont soutenues administrativement par le bureau américain national de la coordination des nanotechnologies. Puis 3 autres CoR se sont formées lors d’une conférence à Grenoble : « Bases de données et Ontologie », « Evaluation des risques », et « Contrôle et gestion des risques », ces dernières étant soutenues administrativement par l’Union Européenne.

Les six communautés collaborent au travers de conférences annuelles et de téléconférences. La dernière téléconférence, le 7 novembre dernier, était initiée par la 6e CoR (« Contrôle et gestion des risques ») et abordait la question urgente de trouver un terrain d’entente pour l’ensemble des secteurs du commerce, des matériaux et des sciences naturelles pour l’élaboration de lois nano harmonisées à l’échelle internationale. En effet, si aucune mesure n’est prise en compte pour coordonner les politiques des différents acteurs du secteur rapidement, la poursuite des investissements et le développement de l’ingénierie de pointe dans le domaine des nanotechnologies subiront un ralentissement inévitable.

Une trentaine de participants ont assisté à cette conférence. L’importance de la mobilisation des scientifiques et professionnels de la santé a été mise en avant, afin d’identifier et de partager des méthodologies, des stratégies de contrôle et de démontrer des solutions efficaces. Le but commun de ces lois étant de réduire et prévenir les effets néfastes de l’exposition aux nanomatériaux pour la santé, la sécurité et l’environnement.

Un problème initial de définition : vision européenne

Ilise L. Feitshans, avocate Suisse spécialiste des questions liées aux nanotechnologies, a montré à quel point les lois concernant les nanotechnologies étaient en compétition les unes avec les autres, avec notamment des définitions différentes de l’appellation « nano », ne permettant pas d’établir une harmonisation internationale de ces lois.

Elle est l’auteur d’un article, « Forecasting Nano Law : Defining Nano » qui se concentre sur ce problème fondamental de définition. Elle y explique par ailleurs que les définitions admises par les différents acteurs du domaine des nano, sont en général très simples mais du coup beaucoup trop larges, si bien que par exemple des molécules biologiques naturelles (e.g. les cellules sanguines) se retrouveraient classées parmi les nanomatériaux et donc soumis à la réglementation.

Durant la conférence, le Dr. Feitshans a pointé les deux principales faiblesses concernant les lois actuelles sur les nanomatériaux : d’une part l’absence d’harmonisation et d’autre part le manque d’éducation des consommateurs. Afin de remédier à la situation, elle a suggéré une implication éventuelle du Conseil de l’Europe dans la définition et la réglementation des nanotechnologies au sein de ses 47 pays membres. De plus, elle a proposé une implication du Comité des Ministres, lesquels pourraient évaluer les aspects économiques, scientifiques, politiques et légaux pour déterminer s’il est nécessaire de créer une Convention sur « les nanotechnologies et les droits de l’homme / les nanotechnologies et la santé » ou plutôt ajouter un protocole spécifique à un Conseil déjà existant tel que la Convention Oviedo sur la biomédecine et les droits de l’homme.

Enfin, elle a proposé la rédaction d’un rapport pour guider la mise en place de cette éventuelle commission. Ce rapport aborderait ainsi la question du critère le plus pertinent à adopter pour donner une définition claire de ce que l’on veut appeler « nano », comment faire respecter les lois nano qui seront établies et comment les contrôler, définir le rôle éventuel de l’Assemblée Parlementaire du Conseil de l’Europe, comment communiquer à l’échelle mondiale et harmoniser les lois à l’échelle nationale tout en impliquant le Conseil de l’Europe et autres institutions.

Des accréditations professionnelles pour la gestion des risques liés aux nanotechnologies : l’initiative américaine

Donald Ewert, vice-président de la compagnie NanoTox Inc., compagnie spécialisée dans la gestion et l’évaluation des risques liés à l’utilisation des nanomatériaux- a présenté le principe des programmes d’accréditation qu’ils veulent instaurer à l’échelle internationale. Ces programmes se basent sur une harmonisation internationale des lois concernant les nanomatériaux, grâce à la définition au préalable d’une base de standards des nano vis-à-vis des risques environnementaux, de sécurité et de santé. L’ensemble du programme d’accréditation devrait être établi dans les 6 prochains mois.

Dans un premier temps, un Comité Consultatif sera formé, lequel inclura des organisations non gouvernementales, des industries, des universités et une variété de parties prenantes et entités gouvernementales d’Amérique du Nord et d’Europe. Le rôle du comité sera d’établir un modèle, inspiré d’un modèle commercial déjà existant, pour créer ladite base de standards.

Ce modèle fera alors l’objet de cours de formation académique. A l’issu de ces cours, les auditeurs seront capables de comprendre l’étendue des risques potentiels liés aux nanomatériaux et nanotechnologies et d’en assurer un bon control. Ils pourront alors délivrer des accréditations aux différentes structures privées comme publiques travaillant dans le domaine. Ces établissements accrédités garantiront ainsi une approche cohérente de la réglementation des nanomatériaux à l’international et une vérification rapide et efficace des risques impliqués.

Une fois cette démarche lancée, d’autres organismes de réglementation pourraient s’y joindre, de la même façon que ce qui se passe actuellement avec l’harmonisation mondiale de la sécurité en chimie (« Global Harmonization of Chemical Safety » GHS).

Par ailleurs, un groupe de professionnels hautement respectés et faisant autorité devra se charger de superviser l’amélioration du modèle d’accréditation tous les deux ans, en parallèle de leurs activités et engagements professionnels. Ainsi, l’initiative de ces programmes d’accréditation permettra le développement d’une politique internationale et cohérente pour les nanotechnologies.

Source : bulletins électroniques

Les macro-algues de la côte portugaise : source d’alimentation ou source d’ennui ?

Les macro-algues sont en train de modifier l’écosystème marin portugais. Fernando Correia et Leonel Pereira, chercheurs aux Universités d’Aveiro et de Coimbra respectivement, ont attiré l’attention de la communauté scientifique sur ce phénomène grâce à leurs travaux récompensés par la mairie de Cascais. Les côtes portugaises sont envahies par des macro-algues du Sud Est de l’Asie, d’Australie, d’Afrique du Sud et d’Amérique du Nord. Certaines de ces algues peuvent atteindre jusqu’à 12 mètres de long, monopolisant l’accès à la lumière ou aux nutriments et empêchant le développement des algues locales, plus petites. Les conséquences sur l’écosystème sont importantes, car ces macro-algues ont des capacités de reproduction et de fixation supérieures aux algues typiques de la côte portugaise. Leur développement empêche la croissance des algues plus petites, ayant également un impact sur l’alimentation des poissons et autres invertébrés des côtes portugaises.

Certaines de ces algues ont été introduites par la main de l’homme, dans le cadre de la culture des algues, mais la plupart ont été amenées par des navires des grandes lignes commerciales qui parcourent le monde entier. Les études ont montré que ce sont des particules qui se fixent sur la coque des navires et qui sont transportées sur des milliers de kilomètres, dans l’attente de trouver un milieu favorable à leur reproduction et à leur expansion. « Lorsque un navire fait escale dans un port qui a un environnement propice pour la reproduction de ces algues, ces dernières libèrent des spores qui se propagent… », a expliqué Fernando Correia. Il a ajouté que la lutte contre ce type d’algues sera difficile. En effet, qui nettoierait la coque d’un porte-conteneur qui entre dans les eaux portugaises ? De plus, un autre facteur important de contamination sont les installations sanitaires de ces navires.

Lorsque l’eau aspirée par ces embarcations n’est pas correctement filtrée, elle peut contenir des spores de ces différentes espèces qui seront par la suite libérées dans les ports d’escale. Ce vecteur de contamination a introduit sur les côtes européennes le goémon japonais. On estime que les grands navires transatlantiques de ce type, transportent par jour près de 700 espèces à travers les océans, dont une petite partie se stabilisera. Ce phénomène aurait également un impact sur l’alimentation humaine. En effet, Leonel Perreira travaille également sur la valorisation des algues dans l’alimentation humaine et est un des protagonistes portugais des workshops sur la récolte, la confection et la dégustation des légumes de la mer typique des côtes portugaises. Il a mis au point le menu suivant : des algues farcies aux moules avec un bouillon de crevettes aux algues, en entrée, un riz de spaghettis de mer avec des pignons et des raisins secs en plat principal et une mousse d’agar-agar aux deux citrons pour le dessert. Pour de nombreuses personnes, l’utilisation d’algues dans l’alimentation peut paraître étrange et est synonyme d’une cuisine exotique, mais les algues sont de plus en plus utilisées par de grands chefs européens qui cherchent une cuisine alternative à haute valeur nutritive.

Les macro-algues sont riches en protéines, en fibres, en lipides, en vitamines, en fer, en iode, en antioxydants et sont de digestion facile. Sur le vieux continent, certaines pâtisseries et boulangeries les utilisent dans leurs pains et leurs pâtes. Certains fabricants de conserves les utilisent car elles apportent une saveur iodée. Elles sont également utilisées sous forme de poudre pour texturer des gélatines et des sauces en industrie alimentaire. Au Portugal, il existe une seule entreprise qui produit ses propres algues en aquaculture, Algaplus à Ria de Aveiro. Les produits sont commercialisés sous la marque « Tok de Mar » directement au consommateur. Helena Abreu, biologiste et fondatrice de l’entreprise a expliqué qu’ils utilisaient un système alternatif d’aquaculture, intégrant des daurades et des bars. Cette méthode permet un meilleur contrôle de qualité de l’eau et des nutriments et une meilleure stabilité durant toute l’année. Pour le moment, la production est faible, quelques centaines de kilogrammes par an, mais l’objectif est de produire 50 tonnes d’algues d’ici 2015, qui seront par la suite séchées. Algaplus aimerait également développer un marché pour fournir des matières premières pour les cosmétiques et la production de bioplastique

Source : bulletins électroniques

News Informatique : novembre 2013

Une équipe de chercheurs d’Osaka a développé une souris d’ordinateur contrôlée par la respiration

Une équipe de l’Université Kinki à Osaka a développé une technologie permettant de contrôler le curseur de l’ordinateur simplement par la respiration.

Le 28 octobre 2013, les chercheurs du Human Ergonomic Engineering Robotics Research Lab du département science et technologie pour la biologie de l’Université Kinki ont présenté leur projet aux journalistes. L’appareil prend la forme d’un tube en plastique placé dans la bouche de l’utilisateur. Le capteur situé dans le tube mesure la puissance et la durée de chaque respiration que le système interprète comme des commandes. En faisant varier ces paramètres pour les inspirations et les expirations, l’utilisateur peut commander à la souris d’aller vers le haut, le bas, à gauche ou à droite. En soufflant ou inspirant d’une manière plus forte, il est possible de cliquer ou double cliquer.

Les chercheurs ont développé cette technologie pour permettre aux personnes handicapées des membres supérieurs d’avoir accès aux fonctionnalités nécessitant une souris, notamment les journaux d’actualités en ligne et les réseaux sociaux.

Source : bulletins électroniques

Un logiciel détermine automatiquement l’espèce d’un échantillon grâce aux séquences d’ADN

Un groupe de chercheurs de l’école supérieure des études environnementales globales de l’Université de Kyoto a développé un logiciel de codage à barres de l’ADN pour prévenir l’étiquetage frauduleux des produits alimentaires et aider les enquêtes policières en identifiant l’origine des substances découvertes sur les scènes de crimes. Grâce à ce logiciel récemment mis au point, les utilisateurs peuvent facilement déterminer à quelle espèce appartiennent des objets vivants en s’appuyant sur les informations de leur séquence ADN. Le développement de ce logiciel a été annoncé le 18 octobre dans le journal de recherche scientifique américain Plos One.

« Les prix du thon jaune (albacore) et du thon rouge du Pacifique sont drastiquement différents. Il est néanmoins difficile même pour des experts de faire la distinction entre les deux une fois qu’ils ont été cuisinés. L’utilisation de ce logiciel permet de détecter facilement les erreurs d’étiquetage, » déclare Akifumi Tanabe qui a joué un rôle prépondérant dans le développement du logiciel. En permettant de mener ce genre de test de façon plus normalisée et abordable, sans passer par un débat d’experts, la lutte contre la fraude sera grandement facilitée. On peut ainsi penser à la fraude avec viande de cheval dans les plats cuisinés en Europe qui aurait pu être décelée plus tôt.

Le logiciel créé par les chercheurs est capable de comparer des séquences d’ADN de plantes, poissons et tout autre objet vivant avec les séquences contenues dans les bases de données d’ADN. En comparant le codage à barres de l’ADN, le logiciel détermine automatiquement de quelle espèce les objets vivants proviennent. S’il s’agit d’une nouvelle espèce ou d’une espèce non référencée, le logiciel est capable de déterminer la famille et le genre auxquels elle appartient et d’indiquer quelles espèces connues lui sont apparentées. L’accès aux banques de données d’ADN est possible au Japon, aux Etats-Unis et en Europe. Les banques rassemblent les séquences ADN de près de 288.000 espèces de tous types.

Jusqu’à ce jour, le travail qui consiste à déterminer l’espèce d’un échantillon d’être vivant dépendait en grande partie de la connaissance d’experts et de leur expérience. Compte tenu de ces limitations, des erreurs étaient possibles et les avis pouvaient diverger. Ce logiciel permet d’automatiser et de normaliser l’opération en bénéficiant des dernières connaissances scientifiques en matière de génétique.

Source : bulletins électroniques

Des diodes spécifiques pour des écrans moins chers ?

Des chercheurs des universités de Bonn (Rhénanie du Nord-Westphalie) et de Ratisbonne (Bavière) ont développé un nouveau type de diodes électroluminescentes organiques (OLED) [1]. Ces OLED devraient permettre de produire des écrans de télévision ou d’autres appareils de façon plus économique.

Les OLEDs existent déjà aujourd’hui, mais leur insertion dans des écrans nécessite l’utilisation de métaux précieux tels que le platine ou l’iridium afin d’augmenter leur rendement, qui est d’environ 25%. Les nouveaux modèles développés explorent de nouvelles pistes pour améliorer l’efficacité sans utiliser ces matériaux chers.

Une OLED classique possède un film mince constitué de molécules de carbone et d’hydrogène, placé entre deux électrodes. Un courant électrique traverse les différentes molécules. Si deux charges de signes opposés se rencontrent, il y a un éclair lumineux. Mais ces charges électriques portent aussi un spin magnétique ; si ces charges possèdent le même spin magnétique, elles se repoussent, même si les charges électriques sont opposées. L’énergie électrique alimentant la diode se transforme ainsi en chaleur, non en lumière. Ce phénomène explique l’utilisation de métaux précieux, car ceux-ci permettent de générer un champ magnétique fort qui modifie le spin des particules électriques, permettant ainsi les chocs, et donc l’émission de lumière.

Les chercheurs de Bonn et de Ratisbonne ont choisi une autre voie. Les spins des particules électriques changent en effet tous seuls, si « on peut attendre assez longtemps » comme l’explique John Lupton, professeur de physique à l’Université de Ratisbonne. Pour tirer profit de cette caractéristique, les scientifiques ont donc développé une OLED capable de stocker l’énergie plus longtemps, permettant aux spins de changer et donc aux charges électriques de se rencontrer.

Ces recherches ont été soutenues par la fondation Volkswagen et par l’Agence allemande de moyens pour la recherche (DFG).

Source : bulletins électroniques

SeaOrbiter, à la conquête des abysses

Jules Verne en avait rêvé, et voilà qu’un Français, Jacques Rougerie, l’a fait. Concevoir un engin capable d’explorer les fonds sous-marins, même les plus profonds. Avec le projet SeaOrbiter, l’architecte fait passer le Nautilus pour une antiquité.

Imaginez. 58 mètres de hauteur et 2600 tonnes pour cette maison sous-marine autonome aux allures  de vaisseau futuriste. Car une des particularités du SeaOrbiter est qu’il possède une partie émergée et une partie immergée, le tout divisé en 10 niveaux dont 4 au dessus du niveau de la mer. C’est donc plus de la moitié du bâtiment marin qui évolue sous l’eau. Des engins d’exploration subaquatiques pourront ainsi sortir et rentrer du SeaOrbiter directement dans la mer.

Pour mieux connaitre la vie des océans, les scientifiques du SeaOrbiter pourront effectuer des enregistrements sonores des fréquences émises suivant les espèces, ils pourront fixer sur les animaux des micro-balises, mais surtout, ils pourront déployer des outils d’explorations spécifiques. Les trois appareils qui seront embarqués sont un ROV (Remote Operated Vehicle), capable de filmer et faire des prélèvements jusqu’à 100m de profondeur, un sous-marin biplace lui aussi capable de descendre jusqu’à 100m, et un AUV (Autonomous Underwater Vehicle), un drône plongeur spécialisé dans la cartographie et l’exploration des très grandes profondeurs puisque capable de descendre jusqu’à 6000m !

Cet engin dérivant en aluminium recyclable, le Sealium, pourra accueillir entre 18 et 22 personnes à son bord. Le système de communication et les antennes sont positionnés au sommet du mât, côtoyant une éolienne verticale qui produira de l’énergie pour le vaisseau. Des panneaux solaires de 350m² de surface complètent le dispositif des ressources d’énergie renouvelable. En dessous, les 6 étages rassemblent un local plongée, un laboratoire marin humide, des laboratoires pluridisciplinaires, une zone médicalisée, les couchettes, des quartiers de vie en zone atmosphérique et sous le niveau de la mer, des quartiers de vie en zone pressurisée et le hangar sous-marin. Le SeaOrbiter dispose d’une quille relevable de 180 tonnes et d’un propulseur de poupe.

Un design à la pointe pour explorer un univers encore inconnu. Les scientifiques estiment que des millions d’espèces n’ont pas encore été observées. De même, de nombreux vestiges de civilisations passées pourraient reposer dans ces très grandes profondeurs. Avec le SeaOrbiter, même les failles les plus profondes seront accessibles, de quoi faire de nombreuses découvertes. Ces endroits sont tellement mystérieux que personne ne peut à ce jour prédire ce que l’on y trouvera. Ces abysses sont sources de nombreux fantasmes,  James Cameron avait plongé ses personnages du film Abyss à plus de 7000m pour qu’ils se retrouvent nez-à-nez avec des créatures moralisatrices capable de déchaîner des tsunamis, plus récemment, dans Pacific rim Guillermo del Toro a fait apparaitre de ses failles les terribles « Kaiju »… Espérons que les découvertes du SeaOrbiter seront de nature moins guerrière !

Autre utilisation scientifique que l’exploration des fonds marins, le SeaOrbiter servira de zone d’entraînement aux astronautes. Son module hyperbare reproduit fidèlement les conditions de vie dans l’espace et fonctionne comme un simulateur spatial à l’intérieur duquel les astronautes s’entrainent pour les vols de très longues durée (destination Mars ou les astéroïdes).

Un projet pharaonique qui va bientôt devenir réalité. Jacques Rougerie a en effet quasiment fini de réunir les 35 millions d’euros nécessaire au démarrage du chantier colossal qui verra émerger des chantiers de Saint-Nazaire le SeaOrbiter. Il faudra 18 mois pour le construire. Sa première mission se fera donc dès 2016, et c’est la mer Méditerranée qui sera sa première cible. Ambitieux, son créateur envisage déjà un véritable réseau de SeaOrbiter répartis sur les différentes mers du globe, observant tous les recoins des fonds marins. Mais c’est encore une autre histoire.

Par Audrey Loubens, journaliste scientifique

[PUBLIREPORTAGE] RITME : des logiciels clés pour la compétitivité de l’industrie

Plans d’expériences, calcul, simulation et visualisation des données, autant de domaines dans lesquels de nombreux ingénieurs utilisent encore trop souvent Excel ou des logiciels détournés de leur usage premier.

Pourtant il existe des logiciels performants, simples d’utilisation et d’apprentissage, prenant en compte les approches et les besoins métier des ingénieurs. RITME, qui travaille avec des experts reconnus dans vos domaines d’activité, conseille, équipe et forme, pour faciliter votre travail au quotidien.

Cette année, la gamme de produits s’est étoffée avec le logiciel de référence  en optique (Zemax), le logiciel de chimie quantique (Gaussian) ou encore la nouvelle version du logiciel de calcul et de simulation  MathCad Prime. MathCad, par exemple, est le logiciel de référence pour le calcul technique. Il permet à chaque ingénieur, de l’utilisateur occasionnel ayant simplement besoin de documenter la source des paramètres de conception à l’utilisateur avancé qui a besoin de réaliser des études de conception sophistiquées et des analyses de compromis, de consacrer plus de temps à l’ingénierie en elle-même.

Découvrez un écosystème pensé pour l’ingénieur avec notamment des petits déjeuners thématiques et des formations sur mesure pour vous accompagner au quotidien, sur www.ritme.com

Apple et Google se lancent dans la domotique

Avant tout, petit rappel des faits. La domotique (contraction de domicile et automatique) regroupe les technologies de l’électronique, de l’informatique et des télécommunications employées dans les bâtiments pouvant interagir dans un système d’interopérabilité. Elle centralise le contrôle des différents équipements présents au sein de bâtiments variés (maisons, entreprises, lieux publics…) afin d’offrir une gestion et une optimisation du chauffage, de l’éclairage, de la consommation d’énergie des appareils domestiques, des appareils de sécurité et de communication. En règle générale, la centralisation ainsi que la commande de ces technologies peut se faire depuis un terminal, point de commande unique, tel qu’un smartphone, une tablette ou un ordinateur connecté à internet.

Dernièrement, les deux monstres de l’informatique que sont Apple et Google se sont penchés sur le sujet. Chacun a leur manière, ils ont élaboré des projets visant à tirer parti de la domotique, conscients des attraits qu’elle recèle. Le premier a déposé un brevet pour une application domotique utilisant le service de géolocalisation comme outil prédictif. Cela signifie que les appareils domestiques en liaison avec l’iPhone auront connaissance du lieu ou se trouve son détenteur via l’application et pourront en tenir compte en anticipant sa venue. Ainsi, l’éclairage, le chauffage, les  portes et volets automatisés se mettront en marche d’eux-même à l’arrivée du propriétaire. Pas mal non ? Dans le même genre, Apple a une nouvelle fois fait parler d’elle avec le projet iWatch, une montre capable de contrôler les équipements de la maison comme le thermostat, le téléviseur, la chaîne HIFI… À condition bien sûr qu’ils soient connectés. C’est en tout cas ce que prétend un analyste de Cantor Fitzgerald, Brian White. La montre disposera en outre des mêmes fonctionnalités que la Samsung Galaxy Gear: réception des notifications et des appels. Des rumeurs circuleraient sur la possibilité que l’iWatch – si elle voit le jour – intègre d’autres fonctionnalités, notamment celle de coach sportif.

Quant au second, il prévoit à peu près la même chose, mais avec les Google Glass. Munis des lunettes, il sera possible de se servir d’équipements tels que la chaîne HIFI, l’éclairage… Et ce très simplement. En effet, il suffira d’un simple regard sur ce l’on souhaite voir se mettre en marche et d’une pression sur la commande située sur le côté des lunettes pour que l’objet connecté se mette justement en marche. Enfin lorsque les demandes se feront plus complexes – passer à une autre chanson ou régler l’intensité de la lumière par exemple – alors là il faudra le demander à voix haute (commande vocale). Mais Google ne compte pas en rester là et part avec l’Andoid@work, à la conquête de la domotique. Cette fois-ci, il s’agirait d’un hub connecté au Cloud qui centraliserait le contrôle des divers équipements de sécurité et de gestion du confort de l’habitation. Mais à la différence, qui n’est pas des moindres, que celui-ci entend bien faire communiquer des appareils Android avec d’autres non-Android en interopérabilité afin de pouvoir les administrer de la même manière. Qui aura le dernier mot ?

Par Sébastien Tribot

Un nouveau matériau directement inspiré des… roses

Romantiques les scientifiques ? A en croire leur trouvaille, on pourrait le penser. En effet, pour mettre au point un matériau anti-condensation, ils se sont inspirés des roses, ces fleurs à la surface de laquelle les gouttelettes ne s’écoulent pas. Pour mimer cette propriété, les chercheurs de l’université de Sydney ont utilisé des particules de type « framboise ». Ces particules sont composées d’un cœur de polystyrène de 850nm de diamètre autour duquel sont disposés des nanoparticules de polymères de tailles différentes, elles-mêmes intercalées avec des amines chargées positivement. Les particules « framboise » sont ensuite agglomérées ensemble par  couplage covalent. 

Un tel procédé permet donc  de synthétiser des particules hybrides de type « framboise », à l’origine d’un nouveau matériau particulièrement hydrophobe, à la surface duquel une goutte ne coulera pas mais restera immobile. Une reproduction fidèle des propriétés des pétales de rose. Grâce à ce protocole de fabrication, ce matériau anti-condensation pourrait donc servir dans les avions pour réduire la condensation, ou aider à prévenir la moisissure.

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

Portrait d’expert : Franck Floriani, conseil en protection des matériaux et ingénierie de surface

Titulaire d’un DUT de maintenance industriel, d’un master de traitement de surface en voies humides et d’un MBA en finances, Franck Floriani mène une activité de conseil, expertise, formation et ingeniering depuis 20 ans en traitement de surface et peintures, protection des matériaux, lutte contre la corrosion, et management des procédés en situation multiculturelle.

Expert dans l’amélioration des procédés industriels, il est certifié Black Belt en Lean 6 sigmas.

Il anime également depuis 2010 chez Techniques de l’Ingénieur de nombreuses formations, tellesCaractériser l’adhérence et l’adhésion, Introduction au contrôle non destructif (CND),Préparation et propreté des surfaces industrielles, Formuler ses peintures : résines, pulvérulents, solvants, additifs, Colorimétrie : mesurer, interpréter et contrôler la couleur,Protection au feu des matériaux, Composites : composition, mise en forme et usinage,Composites : comment maintenir leurs performances, et Fiabilisation des procédés.

Son activité d’expert conseil s’oriente principalement vers l’ensemble des industries de pointe, et en particulier les industries aéronautique, de défense et spatiale. Franck Floriani a par exemple collaboré avec l’un des premiers équipementiers aéronautiques mondiaux au pilotage d’activités en recherche et développement sur de nouveaux traitement de surface, à la conception et aux transferts de technologies sur des peintures et traitement de surface pour roues et blocs freins. Son expertise et son expérience font aujourd’hui un expert incontournable dans ces domaines appliqués à l’aéronautique.

 

Ci-dessus : Franck Floriani présente la formation Composites : composition, mise en forme et usinage, qu’il anime chez Techniques de l’Ingénieur.

Eraole, l’avion hybride électricité-hydrogène décollera en 2015

Vous avez commandé un avion sans émissions polluantes ? Pour cela, prenez une propulsion électrique hybride 25 % solaire et 75 % hydrogène. 43 m² de cellules photovoltaïques associées à des batteries lithium et une pile à combustible devront fournir toute l’énergie nécessaire à ce premier vol transatlantique « zéro carbone » piloté par Raphaël Dinelli.

Eraole® cherchera à maximiser la contribution photovoltaïque au bilan énergétique du vol et optimiser l’apport de la pile à combustible hydrogène. Pour cela, les panneaux utilisés sont légers, souples et ont un rendement s’élevant à 22,6 % ! Le budget du projet ? 5,7 millions d’euros financés par plusieurs mécènes et partenaires.

L’avion devrait être construit entre janvier et août 2014. Il pourra alors être certifié avec un pilote d’essai en septembre 2014, avant de mener ses premiers essais d’endurance sur la zone de départ entre janvier et mai 2015.

Le vol aura lieu en juin 2015, lorsque les conditions d’ensoleillement seront optimales. Le vol devrait durer 40 heures avant un atterrissage prévu dans l’Ouest de la France. On se donne donc rendez-vous au Salon du Bourget l’année prochaine pour admirer ce beau biplan hybride !

Par Matthieu Combe, journaliste scientifique

L’évolution de Mars en vidéo

Les Américains sont décidément très doués en pédagogie et vulgarisation. Le laboratoire du Goddard Space Flight Center de la NASA vient de recréer à l’aide d’images de synthèse l’environnement martien tel qu’il était il y a 4 milliards d’années. A cette époque fort lointaine, l’eau abondait, des rivières couraient au travers des terres, et la vie  pouvait s’épanouir.

La vidéo de près de 2 min permet de visualiser Mars de façon très esthétique. Les réalisateurs n’ont rien à envier à Peter Jackson et ses paysages des Terres du milieu, ni à Jane Campion et sa magistrale Leçon de piano.

 Les vastes étendues martiennes révèlent des montagnes dressées sous une atmosphère nuageuse. La caméra survole le paysage à grande vitesse, montrant un sol caillouteux, puis des plaines désertiques, et enfin l’assèchement progressif de la surface martienne. Finalement, la caméra s’élève au dessus des nuages, sort de l’atmosphère martienne pour nous montrer la planète vue de l’espace, croisant même avec un satellite.

Le tout mis en musique bien sûr pour une expérience encore plus exaltante.

Découvrir l’évolution de la planète Mars d’il y a 4 milliards d’années à aujourd’hui :


 

Par Audrey Loubens, journaliste scientifique

L’interface cerveau-machine révolutionnera la réalité

Entre 2013 et 2016, le projet français HEMISFER s’intéressera au neurofeedback et à la rééducation des personnes souffrant de déficiences motrices, de déficits attentionnels et de troubles psychiatriques. Il est porté par l’Inria, l’unité mixte de recherche IRISA, le service de réadaptation du CHU de Rennes et le centre hospitalier Guillaume Régnier, un hôpital spécialisé en psychiatrie à Rennes.

Les interfaces cerveau-machine (ICM) sont en effet très prometteuses pour les personnes handicapées dans le cadre de paralysies privant les patients de leur capacité à communiquer et se mouvoir. Elles permettent ainsi de communiquer avec certains patients entièrement conscients, mais qui ont souffert d’accidents vasculaires cérébraux et ne peuvent bouger plus que les paupières. Elles peuvent aussi redonner une certaine motricité aux patients atteints de lésions de la moelle épinière qui ne pouvaient plus bouger leurs membres supérieurs et inférieurs.

Ces interfaces ont également de vastes potentiels pour les jeux –vidéo et la réalité virtuelle. Elles ont enfin des applications intéressantes dans le contrôle de robots, les prothèses, les exosquelettes, les véhicules ou les téléphones. 

Comment construire une interface cerveau-machine ?

Une ICM est un système de communication directe entre un cerveau et un ordinateur qui envoie des commandes grâce à la mesure de l’activité électrique des neurones. Cette activité électrique est principalement mesurée par électroencéphalographie à la surface du crâne pour le moment.

Pour développer une ICM, il faut tout d’abord mesurer l’activité cérébrale, filtrer les signaux pour enlever signaux parasites et extraire des caractéristiques pertinentes. Cela se fait grâce à un système d’acquisition et de traitement des signaux cérébraux et un système de classification de ces signaux dans un ordinateur. 

« Une fois que l’on a retrouvé l’activité mentale, on va traduire cela en commande pour la machine », explique Anatole Lecuyer, Directeur de recherche et responsable de l’équipe Hybrid à l’Inria. La machine peut être un écran d’ordinateur, un fauteuil roulant, une prothèse, etc.  

Une fois ces données traitées, il faut développer un retour sensoriel vers l’utilisateur. Cela est indispensable pour entrer dans une boucle d’apprentissage, permettant à l’utilisateur de progresser dans la maîtrise de l’interface et à l’interface d’affiner l’interprétation des activités cérébrales du patient (neurofeedback). 

Les ICM peuvent être soit synchrones, soit asynchrones. Dans les interfaces asynchrones, le patient modifie volontairement son activité cérébrale et la variation neurale correspondante est traitée. Pour les interfaces synchrones, le patient reçoit des stimuli à haute fréquence et le système de traitement analyse sa réponse neurale. 

« Aujourd’hui, on est encore très loin des performances que l’on peut avoir avec un clavier ou une souris d’ordinateur, mais l’originalité est d’avoir un système uniquement contrôlé par la pensée ». note Anatole Lecuyer.

Des capteurs invasifs ou non

Les capteurs peuvent être invasifs ou non invasifs. Dans les systèmes invasifs, les électrodes sont placées dans le cortex. Cela offre une meilleure résolution spatiale, permettant de mesurer l’activité d’un neurone ou d’un microréseau de neurones. Cette technique est notamment utilisée chez des patients atteints de la maladie de Parkinson ou d’épilepsie.

Les techniques non invasives consistent à placer les électrodes sur le cuir chevelu, afin de produire un électroencéphalogramme. La résolution spatiale est alors plus faible et nécessite de porter les électrodes, limitant la durée d’enregistrement. Pour améliorer la sensibilité, les chercheurs développent de nouveaux capteurs capables de mesurer d’autres signaux électriques du cerveau, comme les signaux IRM ou la spectroscopie proche infrarouge.

Un traitement du signal à améliorer

Un travail important est réalisé dans le traitement du signal pour classifier au mieux les signaux cérébraux. À cause des signaux parasites, des techniques de filtrage spatial et temporel sont en effet nécessaires avant de pouvoir traduire le signal en commande. 

Peu de systèmes reconnaissent 100 % des signaux enregistrés. « Il existe une grande variabilité des signaux en fonction des individus ; à cela s’ajoute une variabilité temporelle. Il faut donc des techniques de traitement différentes selon les individus et passer par une phase de calibration et une phase d’apprentissage », explique Anatole Lecuyer.

Ces domaines et bien d’autres font aujourd’hui l’objet de travaux dans une quinzaine de laboratoires en France. Les nouveaux défis sont notamment l’amélioration et miniaturisation des capteurs, le développement des ICM multiutilisateurs, l’extraction de l’activité du cerveau pour l’utiliser de manière indirecte et l’amélioration de l’ergonomie et de l’accessibilité pour les patients. 

Anatole Lecuyer tient à rassurer les personnes qui pourraient craindre cette technologie.  « On ne peut pas aujourd’hui lire dans ses pensées ou forcer quelqu’un à faire quelque chose si lui-même n’est pas volontaire. Il faut même que la personne soit très motivée pour obtenir des résultats ! » affirme-t-il.

Par Matthieu Combe, journaliste scientifique

Entretien avec Gwenola Burgot, conseillère éditoriale auprès des éditions Techniques de l’Ingénieur

echniques de l’Ingénieur : Madame Burgot, vous êtes conseillère éditoriale auprès des Éditions Techniques de l’Ingénieur depuis 2004, professeur des universités et experte en chimie analytique. En quoi consiste votre rôle de conseillère éditoriale ?

Gwenola Burgot : Je participe à la veille technologique, c’est-à-dire au recrutement d’experts et de rédacteurs, et je participe ensuite à la relecture des articles de façon à garantir la qualité scientifique et rédactionnelle.

Techniques de l’Ingénieur : Au sein du processus éditorial, comment sont choisis les thèmes traités, et les auteurs chargés de les rédiger ?

Gwenola Burgot : Je m’appuie sur les innovations dans le domaine scientifique, sur les parutions de publication, les nouveaux livres, les congrès, où je repère des auteurs par le biais de leurs interventions, et il m’arrive aussi de fréquenter des bibliothèques universitaires étrangères, et j’essaie de me tenir au courant des dernières innovations. De là, nous recrutons des auteurs francophones, et essayons de mettre en adéquation le meilleur expert avec la thématique choisie.

Techniques de l’Ingénieur : Quels sont les gages de qualité concernant les articles rédigés ?

Gwenola Burgot : La révision des articles par les experts de la thématique contribue a leur qualité scientifique, de la même façon que les publications des revues scientifiques sont « reviewees » par un comité d’experts.

Techniques de l’Ingénieur : De cette manière, vous assurez la correspondance des articles Techniques de l’Ingénieur avec les besoins directement exprimés par le terrain ?

Gwenola Burgot : Tout à fait, la veille technologique permet de suivre les évolutions et de devancer les besoins aussi bien des industriels, que de étudiants, des universitaires, des chercheurs, puisque les Techniques de l’Ingénieur s’adressent à un public assez large.

 

Ariane Mizrahi, directrice éditoriale des éditions Techniques de l’Ingénieur :

« Les conseillers éditoriaux ont un rôle très important en ce qui concerne en particulier la qualité, la pertinence, l’adéquation des contenus que nous publions avec les besoins de nos clients. Nous recrutons les conseillers éditoriaux nous-mêmes, au sein de l’équipe éditoriale, en menant une veille technologique : comme madame Burgot, nous assistons à des conférences, lisons, nous documentons, rencontrons et menons le plus possible d’entretiens avec des spécialistes et des professionnels. Cela nous permet de choisir les sujets à développer dans les packs Techniques de l’Ingénieur, de déterminer quels nouveaux packs créer, et d’identifier les personnes qui, comme madame Burgot, sont expertes dans les domaines que nous couvrons et vont pouvoir nous accompagner, nous aider à être au plus près des besoins du terrain, et en termes de qualité, à être conformes à l’état de l’art scientifique et technique.

Les conseillers éditoriaux ont donc ce rôle, très en amont de la publication, de nous amener des sujets et des auteurs de qualité, et aussi tout au long du processus de rédaction, ce sont eux les garants de la justesse scientifique, et de la conformité avec les usages en cours. Ils interviennent en effet à toutes les étapes du manuscrit, de l’idée jusqu’à la publication. Nous nous appuyons sur leur expertise, et leur intervention permet aux auteurs de donner le meilleur d’eux-mêmes, de mettre en valeur toutes leurs connaissances. »

Cette bactérie qui survit en salle blanche

Voilà une découverte assez incroyable. La même bactérie a été trouvée au même moment dans deux salles blanches distantes de plus de 4000km. Et ces deux salles blanches appartiennent chacune à un centre spatial, l’une à celui de Kennedy en Floride, l’autre près de Kourou en Guyane française.  Cette toute nouvelle espèce de bactérie, baptisée Tersicoccus phoenicis, est décrite dans la revue International Journal of Systematic and Evolutionary Microbiology. Elle mesure un micromètre et possède la forme d’une baie. 

Il s’agit d’une super bactérie car elle a réussi à se développer dans une salle blanche, c’est-à-dire un espace « propre », où l’air est filtré de façon à éviter toute présence de poussière, de polluant, de bactérie ou encore de spore. Les traitements chimiques agressifs et les ultra-violet complètent le dispositif de filtration de l’air. Un environnement plutôt hostile qui n’a pas rebuté Tersicoccus phoenicis qui a réussi l’exploit de s’y imposer à deux reprises. Sa présence au sein de centres spatiaux n’est pourtant pas liée à une présence extra-terrestre, il s’agirait d’une coïncidence.

La NASA , à l’origine de cette double découverte, va désormais accroître sa  vigilance pour débusquer ces bactéries ultra-résistantes et ne pas les envoyer en orbite !

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

« Coin », la carte bleue nouvelle génération

L’annonce, faite la semaine dernière, n’est pas passée inaperçue : la start-up californienne Coin a finalisé le développement de son premier-né, un appareil de la taille d’une carte de crédit qui se propose de diminuer drastiquement le volume de votre porte-feuille en remplaçant jusqu’à huit cartes de crédit, cartes de membre, cartes cadeaux ou tout autre type de cartes disposant d’une bande magnétique. Baptisée « Coin » également, la carte développée par la jeune entreprise basée à San Francisco laisse à son heureux propriétaire la possibilité de passer d’une carte à l’autre en pressant sur un unique bouton circulaire, se trouvant sur le dessus de la carte. Une fois choisie, « Coin » fonctionne comme les cartes qu’elle se propose de remplacer, que ce soit dans un distributeur automatique de billets, dans un terminal de paiement électronique ou dans tout type de lecteur adapté.

Bluetooth Low Energy

Le secret de Coin tient dans sa bande magnétique – dont le brevet serait en cours de dépôt – une bande magnétique dont le contenu change à l’envi. L’appareil vient avec un petit lecteur se branchant sur le port audio (via une prise jack), servant à scanner les cartes dont les informations migrent vers l’application mobile « Coin », qui se synchronise alors avec la carte via Bluetooth Low Energy (BLE ou Wibree). Créé par le Finlandais Nokia, ce protocole de transmission sans fil permet un débit équivalent au Bleutooth (1Mb/s) pour une consommation d’énergie 10 fois moindre, et fait actuellement les beaux jours des smartwatchs (les montres connectées, qui ont le vent en poupe) ou autres activity trackers.

La batterie de Coin lui permettrait une autonomie de près de deux ans (données fournies par les développeurs), et alimente un petit écran qui affiche les quatre derniers chiffres de la carte que l’on choisit d’utiliser, ainsi que la date de validité et le cryptogramme visuel.

S’inspirer de « Square Reader » en changeant le postulat de départ

L’homme derrière Coin, c’est Kanishk Parashar, qui décida de se lancer dans cette aventure en analysant le succès d’estime de « SquareReader », un dispositif permettant de transformer tout smartphone en terminal de paiement à l’aide d’un lecteur de carte et d’une application mobile. Plutôt que de travailler sur un système acceptant de nombreuses cartes de paiement, Parashar préféra lui jouer la dualité en tentant de développer une carte qui les réunit toutes. Le postulat de départ semblait suffisamment excitant pour permettre de débaucher quelques cerveaux de la Silicone Vallée, unissant leurs talents pour mettre au point un prototype digne de ce nom.

Simplicité de fonctionnement

Les concepteurs se sont vite rassemblés derrière l’idée du bouton unique, servant à la fois à activer la bande magnétique, à passer d’une carte à l’autre et à afficher les données de la carte choisie afin d’éviter toute possibilité de confusion. Ils se sont également fixés huit cartes pour limite, bien que le ventre mou de « Coin » soit tout à fait capable d’en engloutir un plus grand nombre. L’équipe de Parashar a en effet estimé que la majorité des utilisateurs potentiels ne possédait pas plus de huit cartes, et que la navigation à travers un nombre de cartes plus élevé serait inconfortable et relèverait de la gageure.

Et la sécurité ?

Kanishk Parashar se veut rassurant en ce qui concerne la protection de données aussi sensibles que celles stockées dans une carte de crédit, arguant que de nombreuses sociétés possèdent déjà un accès complet à vos coordonnées bancaires sans que la sécurité de celles-ci ne soit menacée. « La copie des informations contenues dans votre carte bleue n’est par ailleurs pas illégale, puisque ce sont vos propres informations », lance Parashar, tentant de balayer d’un revers de main les doutes concernant la sécurité effective du dispositif et les possibilités de fraudes. Les données sont encryptées sur le smartphone et sur la carte « Coin », mais deviennent inutilisables si le contact entre le téléphone et la carte – via le protocole BLE – est rompu plus de quelques minutes, le nombre de minutes exact restant encore à déterminer. Enfin, l’utilisation de ce protocole de transmission a pour avantage de permettre l’envoi d’une alerte lorsque la communication entre les deux dispositifs est coupée, par exemple si l’utilisateur s’en va d’un commerce en oubliant sa carte.

Parmi les nombreux investisseurs de « Coin », on retrouve une pointure du secteur, l’ancien cerveau de Google Wallet et pionnier des paiements grâce à la communication en champs proche (NFC), Osama Bedier. « Coin » devrait être disponible courant 2014, mais les pré-commandes sont d’ores et déjà ouvertes.

Par Moonzur Rahman

Et aussi dans les
ressources documentaires :

Les OGM regagnent du terrain à Bruxelles

Tout a commencé par un rapport, publié en juin dernier, affirmant que les pays européens devraient « reconsidérer » le rejet de cette technologie. L’EASAC y met en garde contre les « graves conséquences scientifiques, économiques et sociales de la politique actuelle de l’Union européenne sur les cultures génétiquement modifiées ». Des idées qui font leur chemin.

Cette étude constitue un coup dur pour les détracteurs écologistes des OGM, puisqu’elle est soutenue par les académies nationales des sciences de tous les États membres de l’UE ainsi que de la Norvège et de la Suisse. Anne Glover approuve le communiqué de presse conjoint dont elle souligne la crédibilité scientifique, et souligne que ce document « fait autorité au sein des académies scientifiques dans les États membres de l’UE ».

« Les conclusions du rapport se fondent sur les preuves les plus fiables et je les soutiens de tout cœur », explique-t-elle lors d’un entretien à EurActiv.

En Europe, les pays qui ne soutiennent pas les OGM « seront confrontés à des problèmes spécifiques à l’utilisation des engrais, la disponibilité de l’eau et la dégradation des sols », assure le rapport. L’amélioration des rendements agricoles est restée « limitée ou inexistante » au cours des dix dernières années. « Une hausse de la production de nourriture de manière durable implique une meilleure utilisation des ressources, dont la terre, l’eau et les engrais », grâce à l’exploitation des ressources phytogénétiques.

« Mais tant que les politiques européennes sur l’agriculture et l’environnement ne concordent pas avec la nécessité d’innovation, les ambitions d’amélioration de l’agriculture seront bloquées », peut-on lire.

Science contestée

Plus inquiétant pour les défenseurs de l’environnement, le rapport appuie les études scientifiques qui concluent que les OGM ne sont pas dangereux pour l’environnement et la consommation humaine. « Les écrits scientifiques ne prouvent pas de manière convaincante que ces cultures, cultivées depuis 15 ans dans le monde, sont associées aux dangers pour l’environnement ou la sécurité alimentaire », mentionne le rapport de l’EASAC. « Les affirmations selon lesquelles les [OGM auraient des] conséquences néfastes se basent souvent sur une science contestée. Certains détracteurs ont attribué à tort les effets d’un trait spécifique aux moyens utilisés pour l’introduire dans la plante ».

Ce rapport indique par exemple que la culture d’OGM plus résistants aux herbicides pourrait avoir un effet néfaste sur l’environnement, si les agriculteurs abusent de cet herbicide. « Cela s’avérera également pour la résistance à un herbicide introduit par la sélection classique.

Tous les nouveaux outils et technologies peuvent avoir des effets inattendus et non désirés s’ils ne sont pas utilisés à bon escient. »

Anne Glover soutient totalement le document de l’EASAC : « Rien ne prouve que les technologies des OGM sont plus dangereuses que les procédés de sélection classique. Et des milliers de projets d’études le confirment », explique-t-elle à EurActiv.

« Selon moi, les consommateurs peuvent croire à la multitude de preuves qui nous montrent que la technologies des OGM n’est pas plus dangereuses que les procédés de sélection classique. Le rapport de l’EASAC contribue fortement au débat puisqu’il reflète le point de vue des scientifiques les plus éminents d’Europe. »

L’étude Séralini entachée d’erreurs

Une étude scientifique récente de l’université de Caen avait attiré l’attention sur les effets éventuels à long terme des OGM sur la santé des animaux et des humains.

D’après les résultats, les rats nourris avec du maïs transgénique NK603 de Monsanto ou exposés à l’herbicide Roundup présentaient des risques accrus de tumeurs et de troubles organiques. Et pouvaient mourir prématurément.

L’étude menée par le biologiste Gilles-Éric Séralini a relancé la controverse sur la nourriture génétiquement modifiée en France, où la biotechnologie est peu populaire et la culture des OGM est interdite.

Les chercheurs français affirment que l’analyse du temps de vie d’un rat (deux ans) est plus pertinentes que les essais de 90 jours nécessaires à l’autorisation de mise sur le marché de cette technologie.

La conseillère scientifique  de José Manuel Barroso rejette les conclusions de l’étude Séralini, qui serait « irrémédiablement entachée d’erreurs ». Elle ajoute que des dizaines d’examens indépendants contestent ces conclusions.

« Il s’agit simplement d’une mauvaise science et la réputation du journal qui les a publiés en a souffert », explique-t-elle en ajoutant que le groupe de chercheurs devrait divulguer ses sources de financement, pour des raisons de transparence.

L’indépendance des chercheurs en question

L’EASAC tente également d’apaiser les défenseurs de l’environnement qui affirment que la majorité des études scientifiques sur la sécurité des OGM sont biaisées, car elles seraient menées par des chercheurs financés par des lobbys de l’industrie.

« Nous estimons qu’environ 90 % des écrits sur lesquels s’appuie le rapport proviennent d’une recherche examinée par des pairs et non financée par l’industrie », affirme Sofie Vanthournout, directrice du bureau bruxellois de l’EASAC.

« Dans ce cas spécifique, nous avons fait en sorte qu’aucun expert n’ait de liens étroits avec l’industrie, même s’ils ne peuvent pas être totalement exclus », explique-t-elle à EurActiv. Elle ajoute que le rapport comprend plusieurs exercices d’évaluation par des pairs extérieurs et universitaires.

Même la preuve scientifique la plus convaincante s’avère toutefois impuissante quand les OGM arrivent sur la scène politique. Selon les Eurobaromètres et des instituts de sondage, la majorité des consommateurs se méfient de cette technologie et la rejettent.

Les auteurs du rapport de l’EASAC reconnaissent le problème et indiquent que les « dirigeants politiques, soucieux de leurs électeurs, peuvent décider d’ignorer » les conseils scientifiques et invoquer des clauses de sauvegarde en vue d’interdire la culture des OGM.

Ils ajoutent aussi que les positions de la population « ne sont pas immuables ». Une partie de la méfiance envers les OGM est par exemple associée à la question des droits à la propriété intellectuelle. Beaucoup de citoyens et d’agriculteurs rejettent l’idée de breveter des organismes vivants.

L’EASAC estime néanmoins que ce thème perd de son importance, car la propriété intellectuelle est de plus en plus partagée et autorisée gratuitement pour l’usage de la population. « Même si la première génération d’OGM était la propriété intellectuelle de multinationales, les développements des OGM en Afrique et ailleurs bénéficient souvent du financement public de fondations et d’agences internationales », peut-on lire dans le rapport.

De nouvelles technologies pour améliorer des plantes

Les auteurs du rapport de l’EASAC attirent également l’attention sur des zones grises dans la règlementation. Certaines cultures obtenues par l’intermédiaire de nouvelles techniques de sélection végétale pourraient être considérées comme des OGM – et donc interdites, alors que leurs gênes ne contiennent pas de corps étrangers.

« Les organismes de surveillance de l’UE devraient confirmer que quand des plantes ne contiennent pas d’ADN étrangers, elles ne font pas partie de la législation relative aux OGM », est-il indiqué. À l’avenir, une réforme plus radicale de la réglementation sur les OGM devrait se concentrer sur une analyse risques/avantages plutôt que seulement sur le risque.

Anne Glover partage le même point de vue. Elle explique que l’Europe ne devrait pas manquer les possibilités offertes par les technologies prometteuses de sélection végétale.

« Nous ne devrions pas oublier qu’il existe d’autres technologies de sélection végétale […] et nous ne devrions pas commettre l’erreur de les réglementer à l’excès comme nous l’avons fait avec les OGM. »

Source : Euracvtiv.Fr

Forer sous les océans pour comprendre la Terre !

Au cours de la prochaine décennie, IODP mettra l’accent sur les défis scientifiques qui ont un intérêt immédiat pour la société. Ainsi, les scientifiques vont principalement s’intéresser aux changements climatiques et environnementaux, aux aléas et aux risques naturels et anthropiques et à la biomasse cachée. « Avec des navires foreurs modernes, équipés de technologies de recherche de pointe, nous allons mettre l’accent sur quatre thèmes de recherche : les changements climatiques et océaniques, les limites de la vie sous le plancher océanique, les processus profonds de l’intérieur de la Terre et leurs impacts à la surface de la Terre ainsi que les processus à l‘origine de risques majeurs aux échelles de temps humain. » explique Keir Becker, le président du Forum IODP.

Concrètement, quel est le programme ?

Concernant le climat et le l’influence du changement climatique sur les océans, le but sera d’analyser les sédiments profonds de l’océan qui constituent de véritables archives du climat terrestre. Ces recherches permettront de réduire les incertitudes des modèles climatiques pour prédire les futurs changements climatiques. Par l’analyse des sédiments déposés il y a des dizaines de millions d’années, lorsque les teneurs en CO2, de l’atmosphère et les températures étaient beaucoup plus élevées qu’aujourd’hui, il sera possible de mieux comprendre le système climatique. Dans cette perspective, l’Arctique apparait comme un territoire de choix qui devrait être exploré très prochainement !

Le programme s’intéressera aussi aux communautés vivant sous les sédiments et les roches du plancher océanique. Il étudiera également la composition, la structure et les dynamiques du manteau supérieur pour comprendre l’historique des échanges chimiques entre la croûte océanique et l’eau de mer. Ces recherches auront également pour objectif de comprendre les mécanismes contrôlant les fréquences des tremblements de terres, glissements de terrains et tsunamis dévastateurs. Pour répondre à ces défis, les forages vont actuellement jusqu’à 240 m en dessous du plancher océanique. L’objectif est d’atteindre des profondeurs allant jusqu’à 6 km. En plus de la récolte d’échantillons, des capteurs de température et de pression seront placés dans des points d’intérêt. Les Japonais ont, par exemple, d’ores et déjà installé des capteurs dans le plancher océanique d’où est parti le tsunami de 2011. 

Un consortium international

Dans le cadre d’IODP, trois bateaux et plateformes de forage permettent aux chercheurs du monde entier d’accéder à une vaste carothèque riche de données géologiques, biologiques et environnementales prélevées dans le plancher océanique, toutes les données obtenues étant publiques. Le programme des expéditions à venir est chargé et permettra de nourrir encore cette base de données.

Comme précédemment, le nouvel IODP réunit des scientifiques des États-Unis, du Japon, de l’Europe et du Canada, ainsi que des membres associés (Chine, Corée du Sud, Australie, Inde et Brésil).  Depuis 2003, 17 pays européens et le Canada sont réunis sous l’égide du Consortium européen ECORD (European Consortium for Ocean Research Drilling). Il opère les expéditions nécessitant d’autres plateformes que les navires d’IODP pour remplir les objectifs du programme.

ECORD vise à organiser une expédition chaque année. « Ces expéditions seront spécifiques, en ce sens que nous allons explorer des régions océaniques où les navires foreurs américain et japonais, JOIDES Resolution et Chikyu, ne peuvent pas fonctionner, comme par exemple dans l’Arctique englacé et dans les eaux antarctiques. Ces régions jouent un rôle majeur dans le changement climatique mondial. Cependant, nous manquons de données du fait que jusqu’à présent seules quelques expéditions de forage ont pu être effectuées dans ces régions hostiles. » explique Gilbert Camoin, directeur de l’agence de gestion d’ECORD.

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

Revue du web #51 : les vidéos les plus étonnantes de la semaine

Cette semaine dans la revue du Web : 

  • Le concours de citrouilles pour Halloween… chez les laborantins de la NASA ; 
  • Faire le tour du mont Fuji avec une aile à réaction : un jeu d’enfant pour Yves Rossy ; 
  • Apprendre à un robot à ne pas éviscérer un humain, petites touches par petites touches ; 
  • Morning Glory Cloud, un phénomène naturel rare et saisissant ; 
  • Le gadget (inutile?) de la semaine : « Tweeting Bra », le soutien-gorge qui tweete lorsqu’on le dégrafe ; 
  • Et en bonus : une roue de légo pour une tortue amputée.

Un concours de citrouilles pour Halloween… mais pas comme les autres

Cela fait plusieurs années que la fête d’Halloween – célébrée la veille de la Toussaint – gagne peu à peu du terrain en France, sans toutefois parvenir à concurrencer nos amis américains pour qui la fête est une véritable institution. Bonbons, déguisements et les traditionnelles lanternes sculptées dans des citrouilles font de cette fête un moment particulièrement bon enfant. Ces fameuses « Jack-O’-Lantern » peuvent être extrêmement rudimentaires comme excessivement travaillées, mais elles n’ont que très rarement, il faut l’avouer, quoi que ce soit de bien excitant. C’était sans compter sur le concours annuel organisé par le « Jet Propulsion Laboratory » de la NASA…

Pour débuter notre cinquante-et-unième Revue du Web, jetons un œil à la fois attendri et émerveillé sur les prouesses réalisées par les employés du prestigieux laboratoire, qui s’en donnent à cœur joie et rivalisent d’ingéniosité pour dépoussiérer les lanternes d’Halloween. De la gravure laser aux engrenages, du Mars Rover au « Chestburster » d’Alien (version fontaine de chocolat !) en passant par des jeux de lumières inspirés de vaisseaux spatiaux, les laborantins de la NASA prouvent qu’ils ont de la ressource. Il faut noter – et ce détail a son importance – que chaque participant n’avait qu’une seule heure pour mener à bien leur petit projet.

Faire le tour du mont Fuji avec une aile à réaction : un jeu d’enfant pour Yves Rossy

Yves Rossy, pilote suisse de 54 ans, n’est pas exactement ce que l’on pourrait appeler un « père tranquille ». Son principal fait d’arme : réussir la traversée de la Manche à l’aide d’une aile rigide en carbone de 2,4 mètres d’envergure, munie de quatre réacteurs lui  permettant d’atteindre les 300 kilomètres/heure. Son surnom sonne comme une évidence : « Jetman ».

Le bolide a un peu évolué, mais pas la folie douce de cet ancien pilote militaire reconverti dans l’aviation civile. Harnaché de son aile constituée désormais d’un alliage de carbone et kevlar, Yves Rossy s’est lancé dans une nouvelle aventure à la hauteur de ses précédents exploits : faire le tour du mont Fuji – montagne sacrée et point culminant du Japon – après avoir sauté d’un hélicoptère. Une fois son objectif atteint, « Jetman » n’a plus qu’à ouvrir son parachute pour assurer un atterrissage en douceur. Les images sont… époustouflantes.

Bien que le fonctionnement soit légèrement différent, on ne peut s’empêcher de penser aux fameux jetpacks dont nous vous parlions entre autre ici.

Apprendre à un robot à ne pas éviscérer un humain, petites touches par petites touches

Nombreux sont ceux dont les fantasmes de fin du monde ont su prendre corps face au perfectionnement et face à la place de plus en plus prépondérante prise par les robots dans notre société moderne. Isaac Asimov, pape de la science fiction, ne s’y était pas trompé en formulant dès 1942 les fameuses « trois lois de la robotique » :

  • Première loi : « un robot ne peut porter atteinte à un être humain ni, restant passif, permettre qu’un être humain soit exposé au danger. »
  • Deuxième loi : « un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première loi. »
  • Troisième loi : « un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la Première ou la Deuxième loi. ».

S’inspirant librement de ce précepte, le robot « Baxter » (de la start-up américaine Rethink Robotics, basée à Boston) va apprendre petit à petit, en effectuant des tâches répétitives, à manipuler des objets dangereux pour l’homme sans pour autant constituer le moindre danger pour ce dernier. Pour ce faire, les concepteurs passent par le biais de ce qu’ils appellent les « techniques d’apprentissage coactif », laissant à l’utilisateur le soin d’ajuster les mouvements de Baxter alors qu’il manipule un couteau, dans un scénario (quelque peu grotesque, de l’aveu même des programmateurs) de robot caissier. En à peine trois essais, le robot apprend à respecter une certaine distance de sécurité avec la lame à proximité d’un être humain, à ne pas pointer la lame vers l’utilisateur, et ce sans besoin de le programmer au préalable.

Morning Glory Cloud, un phénomène naturel rare et saisissant

Lundi dernier, un phénomène naturel rare et saisissant est venu barrer le ciel du nord du Texas, tel une gigantesque cicatrice. Heureux spectateurs, un couple de Texans nous fournit la vidéo qui suit, capturant une sublime formation nuageuse baptisée « Morning Glory Cloud », pouvant être parfois observée dans le nord de l’Australie entre les mois de septembre et d’octobre. De nombreuses études sur le sujet ne sont pas encore parvenues à révéler les origines exactes de ce phénomène.

Le gadget (inutile?) de la semaine : « Tweeting Bra », le soutien-gorge qui tweete lorsqu’on le dégrafe

La vacuité virtuelle a atteint un nouveau sommet : alors que bon nombre d’entre v… nous sont capables des pires compromissions pour se donner de l’importance sur les réseaux sociaux et ainsi documenter une vie extrêmement riche en temps morts, silences et ennuis sur Twitter, Facebook ou encore Google Plus, le gadget (inutile?) de la semaine vient à son tour frapper de son sceau indélébile la timeline de notre vie fantasmée… et de cette morosité que l’on essaie tant bien que mal de dissimuler.

Ce gadget (inutile?) de la semaine, c’est « Tweeting Bra », le soutif’ malin qui tweete à chaque fois qu’on le dégrafe. Mis au point par OgilvyOne Athens pour le compte du programme Fitness du géant Nestlé, ce soutien-gorge tweeterait en fait pour la bonne cause : promouvoir le dépistage du cancer du sein. Méfiez-vous néanmoins des petits copains un tantinet jaloux.

Bonus : une roue de légo pour une tortue amputée

Pour conclure cette cinquante-et-unième Revue du web comme il se doit, allons rendre visite à Schildi, une tortue de compagnie qui fut probablement abandonnée, puis qui perdit l’une de ses pattes avant dans la nature sauvage et hostile qu’est… l’Allemagne. Alors qu’elle semblait promise au paradis des tortues, son destin bascula lorsqu’elle croisa la route et fut prise en charge par une équipe de jeunes vétérinaires, qui lui amputèrent le membre faible pour le remplacer par… une roue provenant d’une boite de légo. Un peu de glu et quelques blocs supplémentaires pour ajuster la hauteur, et le tour était joué !

Cette histoire n’est pas sans rappeler la rocambolesque aventure de Gamera, une tortue possédant également trois pattes et… une roue de chaise de bureau, histoire dont nous vous parlions déjà ici.

 

Par Moonzur Rahman

 

Le plomb s’attaque aux télomères

Alors que l’on pensait que les dégâts causés par le plomb étaient liés à une recrudescence de la protéine yH2AX, marqueur de cassures double-brin d’ADN, les travaux publiés dans la revue PloS One montrent que le plomb s’attaquerait en fait aux télomères en les dégradant. Plus précisément, le plomb détruit l’enveloppe protectrice des extrémités des chromosomes. Une destruction qui crée la confusion car c’est grâce à cette cape protectrice que les télomères se distinguent d’une extrémité d’ADN cassée.

Des mesures avec un microscope à fluorescence ont permis de constater que les fameuses protéines yH2AX étaient agglomérées à l’extrémité du brin d’ADN, indiquant une dégradation localisée au bout du brin d’ADN. Si l’ADN était dégradé le long du brin, alors ces protéines témoins auraient dû être réparties sur toute la longueur. Ce qui n’est pas le cas.

En précisant l’emplacement des protéines yH2AX, les scientifiques démontrent que la toxicité du plomb s’exprime en s’attaquant aux télomères. Une neurotoxicité dont pourraient bien être à l’origine d’autres métaux comme le cuivre ou l’aluminium, connus pour provoquer des cassures d’ADN. Une connaissance fondée elle aussi sur l’observation d’un plus grand nombre de protéines yH2AX. De nouvelles mesures en microscopie à fluorescence viendront peut-être mettre à mal cette conclusion si ces protéines se retrouvent à nouveau agglutinées sur le bout du brin d’ADN et non sur toute ou partie de sa longueur.

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

Le Japon inaugure sa plus grande centrale solaire photovoltaïque

Comme en écho aux très nombreuses crispations entourant tout ce qui touche de près ou de loin au nucléaire – en particulier au Japon, qui bataille toujours ferme pour essayer de pacifier la situation à Fukushima, plus de deux ans et demi après la catastrophe nucléaire de mars 2011 – le géant nippon Kyocera a inauguré en début de semaine dernière la plus grande centrale solaire photovoltaïque du pays, la « Kagoshima Nanatsujima Mega Solar Plant ». Les chiffres peuvent déjà donner quelque peu le tournis : constituée de 290 000 panneaux solaires répartis sur près d’1,27 million de mètres carré, la centrale de Kagoshima Nanatsujima devrait pouvoir générer une puissance de 70 mégawatts, capable d’alimenter en électricité environ 22000 foyers, une véritable première pour une installation de cette ampleur au Japon.

« Feed-in Tariff », ou comment promouvoir l’utilisation des énergies renouvelables

Pour promouvoir l’utilisation des énergies renouvelables ainsi que pour en favoriser l’adoption, le gouvernement japonais a lancé l’année dernière un programme de type « feed-in tariff » : les compagnies d’électricité sont tenues d’acheter de l’électricité renouvelable, quel qu’en soit le fournisseur, avec un prix d’achat indexé sur le coût de production. Instaurer un tel programme avec tarif de rachat permet évidemment d’assurer la rentabilité d’un projet – qu’il soit éolien, géothermique, hydroélectrique, solaire, etc… – tout en revoyant les prix à la baisse lorsque l’installation est amortie et que le coût global diminue, ou pour suivre les développements technologiques.

Ici, la Kyushu Electric Power Co. Inc devra acheter l’intégralité de l’électricité produite par la centrale solaire (gérée par un conglomérat de sept sociétés menées par la Kyocera Corporation, baptisé Kagoshima Mega Solar Power Corporation), et ce pendant au moins vingt ans.

« Amélioration de la société à travers un nouveau type de production d’énergie »

La ville de Kagoshima, capitale de la préfecture de Kagoshima, sur l’île de Kyushu (au sud-ouest de l’archipel), bénéficie de conditions météorologiques relativement clémentes pour le Japon, faisant d’elle l’endroit rêvé pour l’installation d’une structure de cette taille. Lors de l’inauguration lundi dernier, Nobuo Kitamura, le président de l’opérateur de la centrale a rendu un hommage vibrant à l’histoire du lieu, allant jusqu’à convoquer dans son discours les samouraïs ayant défié l’ancien ordre établi au XIXe siècle afin de réformer le pays, comme pour mieux souligner cet élan vers « un nouveau développement et une amélioration de la société à travers un nouveau type de production d’énergie ».

La catastrophe de Fukushima a bouleversé l’échiquier énergétique japonais en obligeant le gouvernement à repenser les modes de production, afin de remplacer rapidement la part du nucléaire dans la production d’électricité (près de 30 % avant la catastrophe), en misant sur des installations du même genre que la centrale solaire photovoltaïque de Kagoshima, ou encore sur l’énergie éolienne offshore.

Par Moonzur Rahman

REACH : l’actualité de novembre (1/2)

Mise à jour de la FAQ CLP

21/10/2013

La FAQ européenne CLP a été mise à jour avec l’ajout de 5 nouvelles questions.

  • Cette FAQ est disponible sur :

http://echa.europa.eu/fr/support/qas-support/qas?p_p_id=qahelpdeskdisplay_WAR_qahelpdeskportlet_INSTANCE_1fBp&p_p_lifecycle=0&p_p_state=normal&p_p_mode=view&p_p_col_id=column-2&p_p_col_pos=1&p_p_col_count=2&_qahelpdeskdisplay_WAR_qahelpdeskportlet_INSTANCE

Classification, l’emballage et l’étiquetage des substances et préparations dangereuses

25/10/2013

L’arrêté du 14 octobre 2013, paru au Journal Officiel du 25/10/2013, modifie les arrêtés du 20 avril 1994 et du 9 novembre 2004 relatifs à la classification, l’emballage et l’étiquetage des substances et préparations dangereuses du fait de l’adhésion de la Croatie.

http://www.legifrance.gouv.fr/affichTexte.do;jsessionid=DE539B83D858876506EB84993044DE8C.tpdjo11v_3?cidTexte=JORFTEXT000028112587&dateTexte=20131115

L’ECHA publie une nouvelle fiche d’information (évaluation des dossiers)

L’ECHA vient de publier une fiche d’information décrivant les différentes étapes après que le déclarant ait reçu de l’ECHA une décision requérant de fournir des informations supplémentaires avant une date limité précisée.

  • Plus d’information sur :

http://echa.europa.eu/documents/10162/13628/factsheet_dossier_evaluation_decisions_followup_en.pdf

Nouveau calendrier pour l’évaluation des substances préoccupantes

04/11/2013

Dans le cadre du règlement Reach, l’ECHA (agence européenne des produits chimiques) propose le nouveau plan d’actions continu communautaire (CoRAP) 2014-2016, qui prévoit l’examen de 125 substances, dont 56 substances nouvellement sélectionnées et 69 substances listées par la mise à jour de mars. Quatre possibilités à la fin des évaluations : lever la préoccupation initiale, identifier la substance comme extrêmement préoccupante, restreindre l’usage de la substance ou classer la substance au titre du règlement CLP.

CLP : la classification révisée du méthanol en consultation

05/11/2013

L’ECHA lance une consultation sur une proposition de révision de la classification et de l’étiquetage harmonisés du méthanol au titre du règlement CLP. Les commentaires sont à soumettre avant le 13 décembre 2013.

http://echa.europa.eu/web/guest/harmonised-classification-and-labelling-consultation

Consultation publique pour des classifications et étiquetages harmonisés

08/11/2013

L’ECHA a lancé une consultation pour l’harmonisation et l’étiquetage harmonisé du 1,2-dichloropropane / propylene dichloride (N° CAS : 78-87-5  et N° CE : 201-152-2). Les parties intéressées sont invitées à soumettre leur commentaire sur le site de l’ECHA, et ce avant le 23 décembre 2013.

Pesticides : les autorisations de mise sur le marché désormais soumises à la consultation du public

12/11/2013

Plusieurs projets de décisions d’autorisation de mise sur le marché de pesticides et d’homologation de matières fertilisantes et de supports de culture sont soumis à la consultation du public sur le site du ministère de l’Agriculture jusqu’au 4 décembre prochain. Elles sont accompagnées de l’avis de l’Anses. Ces consultations font suite à l’entrée en vigueur de l’ordonnance du 5 août 2013 relative à la mise en œuvre du principe de participation du public.

ECHA lance des consultations publiques sur les demandes d’autorisation

13/11/2013

L’ECHA a reçu sept demandes d’autorisation pour des utilisations de DEHP et le DBP et invite maintenant les parties intéressées à soumettre des informations pertinentes sur les alternatives à ces usages. Les éléments sont à soumettre avant le 8 janvier 2014. Plus d’information sur :

http://echa.europa.eu/view-article/-/journal_content/title/echa-initiates-eight-week-public-consultations-on-applications-for-authorisation-for-dehp-and-dbp

Nouvelle consultation pour éviter les tests sur les animaux

14/11/2013

L’ECHA a lancé un appel visant à collecter des informations sur une nouvelle substance pour éviter les tests inutiles sur les animaux. Les informations relatives au tert-dodecanethiol sont à soumettre pour le 5 décembre prochain.

  • Plus d’information sur :

http://echa.europa.eu/information-on-chemicals/testing-proposals/current

Les premiers accords du Comité des Etats membres sur l’évaluation des substances

14/11/2013

Lors de leur réunion de la semaine dernière, le Comité des Etats Membres a décidé que l’ECHA devrait demander plus d’informations sur six substances, car les informations actuellement disponibles sont insuffisantes pour permettre une évaluation des risques pour la santé humaine et / ou l’environnement. Ces six substances présentes dans le plan d’action continu communautaire (CoRAP) ont été évaluées par l’Allemagne, la France, le Danemark, le Royaume-Uni, la Belgique et l’Espagne.

Par Céline GABORIAUD NECTOUX, Ingénieur Environnement aux Ateliers d’Orval

Et aussi dans les
ressources documentaires :

Synthèse chromatique d’impulsion lasers ultrabrèves à partir d’un amplificateur

« Il s’agit d’un brevet de principe » explique Alain Barthelemy, directeur de recherche à l’Institut de recherche XLIM (UMR CNRS 7252) à Limoges. Certes, cette réalisation d’une impulsion ultrabrève par synthèse chromatique n’offre pas de performance supérieure aux autres techniques existantes de génération d’impulsion ultrabrève, mais en réussissant à synthétiser une impulsion de 200 femtosecondes, les scientifiques du laboratoire Xlim (CNRS/Universités de Limoges et de Poitiers) et du laboratoire PhLAM (CNRS/Université de Lille 1) ont prouvé tout le potentiel de leur technique.

Pour s’affranchir des difficultés rencontrées avec les impulsions lumineuses courtes, notamment l’existence de parasites et d’effets non linéaires qui viennent déformer l’impulsion après son amplification, les chercheurs s’appuient sur la méthode connue d’étirement de l’impulsion suivi de sa recompression. En amplifiant l’onde lumineuse dans une seule fibre, elle se retrouve étirée ce qui diminue de facto sa puissance crête. Il ne reste plus qu’à recomprimer l’impulsion après amplification.

Mais l’équipe française va encore plus loin en divisant l’impulsion non pas en puissance, mais dans ses composantes chromatiques. Ce découpage présente deux avantages. Tout d’abord la division du spectre permet d’abaisser l’énergie, puis elle a pour conséquence d’allonger l’impulsion. Cela permet de gagner sur deux tableaux : diviser l’énergie et diviser la puissance crête.

Ces signaux allongés de moindre énergie sont amplifiés dans des canaux différents, puis sont à nouveau superposés en un unique faisceau grâce au même procédé qu’en entrée. Les composantes chromatiques sont sommées de façon à être superposées à la fois dans l’espace et dans le temps. Ceci suppose de contrôler parfaitement la phase à une fraction de femtoseconde près. « En ajustant la synchronicité, nous pouvons faire de la synthèse d’impulsion. Nous sommes même capable de profiler le signal en lui imposant une forme voulue » se félicite Alain Barthelemy.

L’expérience conduite au laboratoire PhLAM/IRCICA utilise un seul amplificateur à douze voies à fibre multicoeur dopée Ytterbium. L’objectif final est la réalisation d’impulsions très courtes, très puissantes et à très haute cadence (multikHz).

Par Audrey Loubens, journaliste scientifique

Quel est le logiciel de modélisation des systèmes énergétiques de référence ?

Techniques de l’Ingénieur : Comment en êtes-vous venu à créer Thermoptim ?

Renaud Gicquel : Professeur en énergétique à l’école des Mines – Paris Tech, j’ai développé dès 1998, en partenariat avec Techniques de l’Ingénieur, ce logiciel de modélisation des systèmes énergétiques. Le but était de renouveler l’enseignement de la discipline, souvent rébarbatif pour les étudiants. Thermoptim repose ainsi sur une approche graphique des systèmes, l’utilisateur pouvant connecter comme il le souhaite différents composants, paramétrer les valeurs caractéristiques, et laisser le logiciel faire les calculs automatiquement.

Il permet ainsi de modéliser des turbines à gaz aussi bien que des systèmes de réfrigération, et même des centrales électriques, de façon sécurisée et facilitée. C’était le premier logiciel de ce type destiné à l’énergétique.

Techniques de l’Ingénieur : Qui en sont les principaux utilisateurs ?

Renaud Gicquel : Aujourd’hui utilisé par plus de cent-vingt établissements d’enseignement en énergétique à travers le monde, Thermoptim est aussi utilisé par des grands groupes industriels pour modéliser leurs installations, tels EDF, Total, Areva, etc.

Il s’adresse également aux débutants, tels les étudiants ingénieurs en thermodynamique appliquée, grâce à sa version de base, permettant des calculs relativement simple, et qui est la plus répandue.

Techniques de l’Ingénieur : Quels sont les ajouts possibles ?

Renaud Gicquel : A cette version de base, dite 2.5, s’ajoutent deux compléments : la version 2.6, axée sur la méthode d’optimisation systémique dite « du pincement », ou exergétique, et la version 2.7, qui permet l’étude de l’adaptation d’un système sous régime non-nominal, ou régime varié. Ces deux compléments sont bien sûr disponibles ensemble, sous la version 2.8.

L’avantage d’avoir des versions différentes étant de permettre aux initiés d’accéder à des fonctions supplémentaires sans pour autant altérer l’ergonomie de l’outil pour les novices ne nécessitant pas l’ensemble des fonctions.

Parallèlement à ces compléments, l’utilisateur peut ajouter des extensions comprenant des composants supplémentaires à ceux déjà présents dans ce que l’on appelle le noyau de Thermoptim. Il s’agit de composants plus rares, tels les piles à combustible, qui ne concernent qu’une petite partie des utilisateurs. Le gros avantage de ce système, c’est que ces extensions sont éditées en logiciels libres, ce qui permet aux utilisateurs de créer leurs propres composants supplémentaires et de les partager avec d’autres.

Propos recueillis par Bruno Decottignies

Les soins pour bébés sont gorgés de produits toxiques

Même les fesses des bébés ne sont pas à l’abri ! Les polluants sont décidément partout, comme le révèle le dossier de l’association de consommateurs UFC-Que Choisir. Dans leur ligne de mire, les lingettes et les laits de toilette destinés à l’usage des tout-petits. Surprise, 94% des produits testés contiennent des substances toxiques

Leurs tests ont porté sur 27 lingettes et 7 laits de toilette. Les vingt-six allergènes dont l’étiquetage est obligatoire pour ce type de produits, les propyl et butylparaben, le phenoxyethanol, la methylisothiazolinone et la methylchloroisothiazolinone ont été spécifiquement recherchés. Des substances dont la dangerosité est connue, les bébés étant encore plus fragiles face à leur toxicité. 

Les analyses ont permis de détecter des allergènes dans 12 lingettes et 2 laits, le phénoxyéthanol a été trouvé dans 14 lingettes et 3 laits et des parabènes sont présents dans 6 lingettes. Un constat accablant pour des produits destinés aux bébés, une population qui devrait bénéficier de la plus haute protection. Seules les marques Bébé Cadum et Natessance  ne contenaient aucune des substances testées.

De plus, l’usage particulier de ces produits majore la dangerosité des produits toxiques. En effet, les lingettes sont utilisées plusieurs fois par jour et sans rinçage. De quoi favoriser la pénétration des substances polluantes et décupler leur nocivité à un stade du développement de l’enfant particulièrement précoce.

Enfin, les grandes marques sont montrées du doigt car ces mesures concernent des enseignes bien connues comme Mixa bébé, Pampers, Carrefour, Leclerc  ou encore Klorane. Des marques qui n’ont aucun scrupule à tromper le consommateur en affublant leur packaging d’allégations telles que « hypoallergénique » ou « testé sous contrôle dermatologique ». Des mentions qui n’ont aucun sens au vu de la réelle toxicité des produits.

Par Audrey Loubens, journaliste scientifique
 

Alcatel-Lucent compte sur son plan Shift pour se sauver

« Retrouver un avenir industriel durable ». Michel Combes, directeur général d’Alcatel-Lucent, sait bien que son entreprise va mal. Avec une perte nette de 1.3 milliards d’euros en 2012, le groupe franco-américain est au pied du mur. Et son DG peut bien parler de « plan industriel » et de « se repositionner comme spécialiste des réseaux IP », Shift est bel et bien un plan de restructuration visant à faire des économies. En première ligne, les emplois sont touchés de plein fouet. Sur les 10 000 suppressions de postes dans le monde, 900 devraient être supprimés dès 2014 en France, soit 10% des effectifs, et autant de personnes seront concernées par des mesures de reconversion.  « Les choix stratégiques que nous avons faits sont validés par nos clients. Pour réaliser ce plan nous devons prendre des décisions difficiles et nous le ferons dans un dialogue ouvert et transparent avec nos salariés et leurs représentants. L’enjeu du plan Shift est que l’entreprise retrouve la maitrise de son destin.» déclare Michel Combes, conscient des sacrifices.

Le plan Shift prévoit une réduction des coûts fixes d’un milliard d’euros d’ici 2015. Pour y arriver, les dépenses sur les technologies de fin de vie seront réduites de 60% et les fonctions support, administratives et commerciales en ligne seront réduites. En parallèle, le plan Shift vise à rééchelonner la dette de l’entreprise de deux milliards en deux ans.

L’accent sera mis sur la recherche qui représentera 85% des dépenses contre 65% aujourd’hui. Pour changer son image de groupe généraliste en spécialiste, Alcatel-Lucent s’appuie sur ses Bell Labs et la R&D va se recentrer sur la 4G, les réseaux IP, le Cloud et l’accès très haut débit. Michel Combes estime essentiel d’apparaître comme le « spécialiste industriel des réseaux IP (sur internet) et de l’accès très haut-débit mobile et fixe, deux activités essentielles aux réseaux de nouvelle génération».

Un plan de grande ampleur pour un groupe en difficulté. Mais Shift ne fait pas l’unanimité. Les syndicats l’ont bien fait comprendre en dénonçant les licenciements. De son côté, l’Etat ménage la chèvre et le chou, comme à son habitude. Actionnaire de 3.6% du capital, il soutient le plan mais face à la grogne populaire a déclaré par la voix de Jean-Marc Ayrault pouvoir refuser d’agréer le plan social. Le Premier Ministre s’appuie sur la nouvelle loi du 14 juin 2013 sur la sécurisation de l’emploi qui prévoit que tout accord collectif par un accord collectif majoritaire négocié entre la direction d’une entreprise et les syndicats ou, à défaut, par une homologation du plan social par l’administration.

De son côté, Fleur Pellerin, ministre déléguée à l’économie numérique, appelle les opérateurs français, Orange, SFR, Bouygues et Free à se montrer solidaires en favorisant les solutions Alcatel-Lucent. Un appel ouvert à jouer la carte du protectionnisme…

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

Le Japon mise gros sur l’énergie éolienne offshore

Les investisseurs du projet soulignent que les éoliennes offshores peuvent représenter un atout important pour un pays pauvre en ressource fossile. En effet, le Japon possède la dixième plus grande zone économique exclusive (ZEE) mondiale et donc des millions de mètres carrés pour développer des parcs offshores.

Ce qui différencie ce projet des autres est que les éoliennes, l’annexe et le transformateur électrique flottent sur une gigantesque plateforme ancrée dans le fond marin. Cette technologie permet d’élargir les possibilités de localisation des parcs éoliens offshores qui étaient jusqu’à présent limités aux eaux peu profondes. Le Japon pourra, grâce à cette nouvelle technologie, agrandir fortement son parc d’éoliennes offshores, ses les fonds marins gagnent très vite en profondeur. De plus, bien que la Norvège et le Portugal expérimentent également des éoliennes flottantes, le projet japonais est le plus important de part sa taille parmi les premières technologies qui pourraient être.

Installer des éoliennes en eaux profondes pourrait générer 1570 gigawatt d’électricité, soit environ 8 fois la capacité de toutes les entreprises Japonaises produisant de l’énergie réunies selon les simulations de l’Université de Tokyo. La catastrophe de Fukushima a forcée le Japon à s’intéresser de plus près aux énergies renouvelables. Aujourd’hui les 50 réacteurs arrêtés et dans l’attente d’une inspection privent le pays d’une ressource représentant 30% de son électricité. L’orientation vers les importations de pétrole et de gaz naturel a fortement accru la dépendance énergétique du pays et a fait ressortir ses retards dans le domaine des énergies renouvelables. Car contrairement aux idées reçues, le développement de celles-ci a été très lent : mis à part l’énergie hydraulique, les énergies renouvelables ne représentaient que 3% du mixe énergétique japonais en 2011.

Dans son effort pour rattraper son retard, le Japon a mis en place un programme intensif pour diversifier les énergies renouvelables. Le photovoltaïque a été l’énergie la plus développée à ce jour. Cependant, la croissance des panneaux solaires reste limitée tandis que plus de 90% du potentiel Japonais en énergie renouvelables proviendrait du vent, et plus particulièrement de l’éolien offshore selon les estimations du Ministère de l’environnement. Le gouvernement de M. Shinzo Abe assume les frais des trois premières éoliennes de ce projet dans le cadre de sa politique d’encouragement des énergies renouvelables, soit environ 22 milliards de Yens (225,7 millions de dollars). Par la suite, un consortium de 11 entreprises dont Hitachi, Mitsubishi Heavy Industries, Shimizu et Marubeni, poursuivra le projet.

Les coopératives de pécheurs ont donné leur accord pour les 3 premières éoliennes, cependant les 100 autres qui devraient suivre doivent être renégociées après l’étude de leur impact sur la pêche. En effet, l’un des principaux enjeux de ce projet concerne la zone de pêche : abandonnée après les événements de Mars 2011, les pécheurs ont aujourd’hui peur que le projet les empêche de reprendre leur activité car les chalutiers ne pourront plus traverser la zone. D’un autre côté, certains espèrent que les grandes chaînes ancrées au fond marin participeront au développement des poissons et des algues.

Le coût du projet est également une question importante. Pour les trois premières éoliennes, construites chacune avec une conception différente, le prix du kilowatt est environ 2 millions de Yens (20 500$), soit huit fois le prix obtenu pour une éolienne terrestre. Le consortium espère réduire ce coût à seulement 2 fois celui d’une éolienne terrestre par des économies d’échelle et des améliorations de la conception.

La durabilité est le troisième enjeu de ces grands moulins à vent. Shimizu, la société de production des éoliennes, estime que les pales sont conçues pour durer une vingtaine d’années et résister aux plus gros typhons ayant frappés la région durant le dernier siècle. Néanmoins, elle émet de quelques réserves sur ces prévisions.

Le développement des éoliennes offshore implique des industries que le Japon souhaiterait faire revivre comme notamment la construction navale, perdue au profit du marché Chinois et Sud Coréen il y a quelques années. Les retombées économiques attendues seront potentiellement importantes, selon le PDG de Mizuho Financial Group : les 20.000 pièces des éoliennes offshores pourraient rapporter des milliards de yens à l’économie japonaise.

Source : bulletins-electroniques

 

A lire aussi : Le nucléaire déclinant au pays du soleil levant

 

Décontaminer l’eau à l’aide d’un gel polymère… éponge

Dans des situations d’extrême urgence, il peut s’avérer plus que coton de mettre la main sur de l’eau potable. Inondations, tremblements de terre ou encore typhons peuvent rendre nos sources d’eau habituelles potentiellement dangereuses. Après le tsunami meurtrier de décembre 2004 dans l’océan Indien, la situation des rescapés s’était vite dégradée , notamment en raison de la quasi-impossibilité d’accès à de l’eau potable. C’est face à cette situation que des chercheurs de l’université technologique de Nanyang à Singapour, et de l’université du Colorado à Boulder ont décidé de s’atteler au développement d’un système de purification d’eau capable de se débarrasser rapidement des bactéries sans avoir recours à la moindre source d’énergie.

Leurs recherches aboutirent à la création d’un gel polymère spongieux, tueur de bactéries, qui absorbe dans un premier temps l’eau contaminée, puis la rend purifiée une fois le gel pressé, comme on presse une éponge, assurant un accès simple et rapide à de l’eau décontaminée. Faire bouillir de l’eau permet de se débarrasser d’un certain nombre de bactéries et de parasites, mais il n’est pas toujours possible de décontaminer de l’eau en quantité suffisante. Et on n’a pas toujours envie de se servir de sa propre sueur comme avec la « Sweat Machine ».

Ici, un petit cylindre de 4 grammes de gel polymère devrait pouvoir purifier jusqu’à un demi-litre d’eau en une seule fois, et devrait pouvoir être réutilisé plus d’une vingtaine de fois sans perdre son pouvoir désinfectant. Un élément reste néanmoins peu clair : comment éviter que les impuretés et autres bactéries ne se retrouvent à nouveau dans l’eau, une fois en dehors du gel ? Difficile à dire, mais le Myanmar devrait bientôt servir de cadre pour de plus amples tests.

Par Moonzur Rahman

Le nucléaire déclinant au pays du soleil levant

La dernière fois, c’était le 5 mai 2012. Personne ne peut dire jusqu’à quand cette situation va perdurer. Un dossier de demande de redémarrage a été déposé pour 12 réacteurs et 5 ont déjà été rejetés. Il ne reste que 7 réacteurs en course… sur 50. Cela ne fait pas beaucoup. Comment en est-on arrivé là ?

Avant la catastrophe de Fukushima, le Japon comptait 54 réacteurs nucléaires de production qui fournissaient environ 30% de l’électricité du pays. 10% venaient des énergies renouvelables, essentiellement de l’hydraulique, et le reste des énergies fossiles.

Le séisme du 11 mars 2011, a entraîné l’arrêt de 14 réacteurs, dont 4 ont été complètement détruits. Le Japon ne compte plus que 50 réacteurs officiellement. En mai 2011, le premier ministre de l’époque a demandé la fermeture de la centrale de Hamaoka, proche d’une faille sismique. En cas d’accident, ce sont les principales voies de communication entre l’Est et l’Ouest du pays qui auraient été coupées. Puis, les autres réacteurs ont été arrêtés normalement, les uns après les autres, après 13 mois d’exploitation. 

Sans énergie nucléaire au printemps 2012, la question était à l’époque de savoir si le pays pourrait passer l’été, quand la demande est la plus forte à cause de la climatisation. Le gouvernement a pensé qu’avec des stress-tests demandés aux exploitants, il n’y aurait pas de problème pour redémarrer les réacteurs. Ce n’était qu’une affaire de quelques mois. Mais c’était sans compter sur la population et les plus grandes manifestations qu’a connues le pays depuis les années 70. 

Le gouvernement est passé en force et a autorisé, en juillet 2012, le redémarrage de deux réacteurs de la centrale d’Ôï, dans le Kansaï, région où le nucléaire compte pour 40% de l’électricité consommée. Il n’a pas pu en redémarrer plus, au grand dam des exploitants. Et il s’est finalement avéré que le Japon aurait pu se passer de ces deux réacteurs sans coupure. Ce sont eux qui sont à nouveau arrêtés en septembre 2013, après 13 mois de fonctionnement. 

Entre-temps, le gouvernement a mis en place une nouvelle autorité de sûreté nucléaire, indépendante, qui est entrée en fonction en septembre 2012. Cette Agence de Régulation Nucléaire (NRA en anglais) se distingue de son prédécesseur, la NISA, complètement inféodée au ministère de l’industrie et à l’industrie nucléaire et qui a été discréditée par la catastrophe de Fukushima.

Cette nouvelle agence s’est rapidement attelée à la tâche de rédiger un nouveau référentiel de sûreté, qui a finalement été adopté le 8 juillet 2013. Elle prétend qu’il s’agit des règles les plus strictes au monde… qui ne sont respectées par aucun réacteur japonais !

Il y a dix compagnies d’électricité au Japon, qui se sont partagées le territoire avec un monopole dans leur zone. Neuf d’entre elles exploitent, ou plutôt exploitaient, des centrales nucléaires. Elles sont toutes dans le rouge, sauf deux. Les deux compagnies qui s’en sortent sont celles qui n’ont pas ou peu de nucléaire. Les autres doivent payer le maintien de leur parc nucléaire, les emprunts et la production d’électricité de substitution. Elles payent donc une partie de la production presque deux fois et ne la vendent qu’une fois.

Elles sont donc pressées de relancer leurs réacteurs, les bénéfices primant sur la sûreté. Mais ce n’est pas si facile. Contrairement à l’Europe où, tous les dix ans, les exploitants du nucléaire doivent investir dans leurs centrales pour les mettre en conformité avec les dernières exigences, au Japon, tout comme aux Etats-Unis, les normes de sûreté qui s’appliquaient sont celles en cours au moment de la mise en service et cela, pour toute la durée de vie de la centrale.

Pour les réacteurs les plus vieux, le fossé est si grand qu’il ne sera pas possible de les remettre aux nouvelles normes. Il y a, par exemple, 13 réacteurs avec des câbles électriques inflammables. C’était toléré avant Fukushima, c’est interdit maintenant. Et comme il y a des milliers de kilomètres de câbles dans un réacteur, il est peu vraisemblable qu’il soit économiquement viable de les changer. 

Il y a aussi deux sortes de réacteurs au Japon, des réacteurs à eau sous pression (REP, ou PWR en anglais) et des réacteurs à eau bouillante (REB, BWR en anglais). Tous doivent désormais être équipés d’un filtre à particules radioactives pour limiter les rejets en cas d’accident, mais les REP bénéficient d’un délai de grâce de 5 ans, car leur enceinte de confinement est plus grande.

Au final, des dossiers de demande de redémarrage n’ont été déposés que pour 12 réacteurs durant l’été 2012, tous des REP, et le gouvernement vise 10% d’électricité d’origine nucléaire à moyen terme. Le dossier de la centrale de Tomari de Hokkaïdô Electric s’est déjà fait retoqué car il est incomplet. Les données sur le système refroidissement en cas d’accident concernaient un autre système que celui en place. Encore des ingénieurs qui connaissent bien leurs machines… Celui de Takahama aussi, car Kansaï Electric a sous-estimé la hauteur du tsunami qui pourrait la frapper. Elle est bonne pour rehausser la digue, ce qui prend du temps. Il n’y a plus que 7 dossiers en cours d’évaluation par la NRA, pour 50 réacteurs. Le gouvernement était encore bien optimiste avec ses 10%.

Inversement, d’un tiers à la moitié du parc ne redémarrera probablement jamais. 17 réacteurs ont plus de 30 ans. Il n’est pas sûr qu’il vaille le coût d’investir pour les remettre à niveau. D’autres sont sur des failles qui sont maintenant considérées comme actives après un réexamen. C’est le cas pour la centrale de Tsuruga (Fukui) et probablement pour celle de Higashidori (Aomori). Et puis, TEPCo ne pourra jamais redémarrer les réacteurs de Fukushima qui n’ont pas explosé, même si la compagnie y songe encore.

Le gouvernement a aussi demandé aux autorités locales de mettre en place un plan d’évacuation de toute la population sur un rayon de 30 km autour de chaque centrale. A Tôkaï (Ibaraki), c’est quasiment mission impossible car la population se compte par million. Pour les pouvoirs locaux, c’est non.

TEPCo veut redémarrer au plus vite deux réacteurs de sa centrale de Kashiwazaki-Kariwa, fortement secouée lors du séisme de 2007. Mais, avec la légèreté avec laquelle elle se préoccupe de l’eau contaminée à Fukushima, il lui est difficile de convaincre qu’elle a amélioré sa culture de sûreté. Le gouverneur de la province de Niigata est fermement opposé au redémarrage de ces réacteurs tant que toute la lumière n’aura pas été faite sur l’accident nucléaire de Fukushima.

Plusieurs compagnies d’électricité sont donc dans une situation financière critique car elles ne pourront pas redémarrer de réacteur nucléaire avant longtemps, voire jamais.

En attendant, avec la libéralisation complète du marché de l’électricité à partir de 2016, la concurrence va être plus rude. De nombreux investissements se tournent vers les énergies renouvelables : en plus du solaire et du vent, l’exploitation de l’énorme potentiel géothermique du pays n’est plus tabou. Selon le ministère de l’industrie, une centaine de nouvelles compagnies se sont enregistrées pour vendre de l’électricité. 40% d’entre elles en produisent déjà. 

Comme pour le moment tout projet de construction de nouvelle centrale nucléaire est gelé au Japon, le nucléaire est, de facto, déclinant au Japon, quelle que soit la couleur des partis au pouvoir. Le précédent gouvernement voulait arrêter le nucléaire à terme, mais relancer les réacteurs jugés sûrs par la NRA en attendant. Le nouveau gouvernement veut relancer le nucléaire et redémarrer les réacteurs jugés sûrs par la NRA en attendant, ce qui revient exactement au même. 

Les deux s’accordent sur l’exportation de technologie nucléaire et le maintien des investissements dans le « retraitement » des combustibles usés et le surgénérateur Monju, même si l’usine n’a jamais fonctionné et que son lancement a connu 19 reports en plus de 5 ans. Le réacteur expérimental, quant à lui, n’a fonctionné que 240 jours depuis 1994 et ne pourra probablement jamais satisfaire les nouvelles normes de sûreté. Cette obstination n’est pas sans arrières pensées militaires et inquiète les Etats-Unis. 

Le Japon ne peut pas importer d’électricité. Une moitié du pays est à 50 Hz et l’autre à 60 Hz, ce qui réduit drastiquement les échanges entre les deux parties. Il s’en est cependant sorti, grâce notamment aux économies d’énergie. Les émissions de CO2 de TEPCo par kilowattheure produit a augmenté, mais la quantité totale rejetée en 2012 est égale à celle rejetée en 2010. Les économies d’énergie ont compensé l’arrêt complet du parc nucléaire de la compagnie. En revanche, elle n’a pas réussi à baisser ses émissions conformément au protocole de Kyôto.

Selon le ministère de l’industrie, 9 des 10 compagnies d’électricité, n’ont pas réussi à remplir leurs objectifs de réduction de 20% de leurs émissions de CO2 par rapport à 1990, conformément aux engagements pris en 2007. La seule compagnie qui s’en tire, est celle d’Okinawa, qui n’a pas de nucléaire ! Chubu Electric, qui dépend peu du nucléaire, a réduit ses émissions de 12,9%. Chukoku Electric, de 13,4%. D’autres ont augmenté leurs émissions. Globalement, les 9 compagnies qui ont du nucléaire n’ont réduit, en moyenne, leurs émissions que de 2,6%. Ces compagnies produisent environ un tiers des émissions de CO2 du pays, mais le Japon va néanmoins satisfaire au protocole de Kyôto grâce aux échanges de quotas d’émission. Les compagnies d’électricité, quant à elles, rechignent à utiliser cette possibilité car elles sont dans le rouge.

David Boiley, physicien et président de l’Association pour le contrôle de la radioactivité dans l’ouest
Source :  www.acro.eu.org

 

A lire aussi : Le Japon mise gros sur l’énergie éolienne offshore

 

Et aussi dans les
ressources documentaires :