Quand un mégaséisme au Chili fait trembler la glace de l’Antarctique

Six heures après le puissant tremblement de terre ayant secoué les côtes chiliennes, des détecteurs installés dans l’Antarctique occidental ont enregistré de petites secousses, fournissant pour la première fois aux scientifiques la preuve que la plus grande couche de glace du monde peut être affectée par des séismes lointains mais très puissants, affirment les auteurs de l’étude.

Douze des 42 stations de mesures qui jalonnent le continent glacé ont montré les « signes clairs » d’un pic d’activité sismique de haute fréquence, synonyme de fracturation de la glace près de la surface, expliquent les chercheurs dans la revue britannique Nature Geoscience.

Le mégaséisme qui a frappé la région chilienne de Maule le 27 février 2010 a atteint une magnitude de 8,8, ce qui en fait l’un des plus puissants connus à ce jour. Il a fait plus de 500 morts et provoqué des dégâts estimées à plus de 22 millions d’euros.

La secousse avait déclenché des micro-séismes qui avaient été ressentis jusqu’en Amérique du Nord, au fur et à mesure que l’onde de choc se diffusait dans l’écorce terrestre et provoquait des mouvements dans certaines failles.

Les géologues cherchent depuis longtemps à comprendre comment les calottes glaciaires du Groenland et d’Antarctique – dont le sous-sol rocheux est par ailleurs considéré comme relativement calme du point de vue sismique – réagiraient à des séismes massifs dans un autre point du globe.

Voici encore quelques années, ils ne disposaient d’aucune explication satisfaisante, jusqu’au déploiement d’un réseau de détecteurs sur ces nappes de glace.

Même si les signaux reçus après le séisme chilien de 2010 sont restés globalement peu précis, de nets signes d’activité ont été enregistrés dans une station de surveillance des Monts Ellsworth, dans l’Ouest Antarctique, qui a identifié la signature caractéristique d’un séisme. Pourtant, d’autres stations voisines ne percevaient dans le même temps rien de concluant.

Selon Zhigang Peng, de l’Institut de Technologie de Géorgie à Atlanta (USA), ces incohérences apparentes sont vraisemblablement liées au fait que les secousses provenaient de la couche de glace couvrant la région, et non pas du sol rocheux situé en-dessous.

« Nous n’en sommes pas sûrs à 100%, mais nous pensons que les signaux sismiques étaient émis par la fracturation de la glace au sein de la calotte, probablement très près de la surface », a-t-il expliqué à l’AFP.

Ces données suggèrent que des pans entiers de la calotte glaciaire peuvent être fragilisés par des mégaséismes, même distants de milliers de kilomètres. Mais il est nécessaire de poursuivre les recherches pour mieux comprendre le phénomène et savoir par exemple si un tel séisme est capable d’ouvrir une crevasse en Antarctique ou d’y accélérer la progression d’un glacier.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Qui a abattu le vol MH17 de la Malaysia ?

Le 17 juillet, un Boeing 777 de la Malaysia Airlines est abattu en plein vol dans le ciel ukrainien faisant 298 morts. Si le fait qu’un missile est à l’origine de l’accident est acquis, des doutes demeurent sur le type de missile et surtout sur qui l’a tiré. Car ce terrible accident a eu lieu au dessus d’une zone de combat entre l’armée ukrainienne et les insurgés pro-russe. C’est donc une véritable guerre de communication que se livrent les diverses parties. Les experts détachés sur place vont devoir réunir de solides preuves pour faire éclater la vérité, sans contestation possible.

Un missile sol-air pointé par les américains

Dans la joute oratoire qui oppose ukrainiens et russes, le type de missile mis en jeu a toute son importance. D’un côté, Moscou indique qu’il s’agirait d’un missile air-air provenant d’un avion de chasse ukrainien, tandis que les Américains ont rapidement mis en cause un missile sol-air tiré d’une batterie mobile. En effet, on sait que les Russes mais aussi les Ukrainiens disposent tout deux de missiles «  Buk » de moyenne portée, capables d’atteindre un avion volant à 10 000 mètres d’altitude comme c’était le cas pour le Boeing abattu. D’autres experts confirment cette hypothèse expliquant que la taille des trous d’obus est compatible avec celle attendue avec des missiles sol-air « Buk » de type SA-11 ou SA-20. Barack Obama a précisé que le missile avait été tiré depuis une zone sous le contrôle des séparatistes pro-russes. Une information probablement obtenue à partir des photos de satellites espions, même si aucun cliché n’a été rendu public à ce jour.

De quels indices disposent les experts ?

Si les rebelles pro-russes ont remis les deux boîtes noires de l’avion de ligne à des experts malaisiens, ils n’ont toutefois pas assuré la préservation des débris de l’avion. Les Australiens, dont 28 compatriotes étaient à bord du vol n’ont pas hésité à accuser les dissidents pro-russes de maquiller les preuves, les combattants n’ayant pas hésité à piétiner les débris avec des engins de chantier. Or, les boites noires indiqueront ce qui s’est passé dans les dernières minutes avant le crash. Mais elles n’aideront pas à savoir d’où provenait le tir par exemple, ni qui a tiré. La qualité des pièces de l’avion est essentielle pour apporter des réponses. A l’image d’une pièce d’armature de carlingue qui porte des traces d’impacts et de très forte chaleur typiques d’un missile sol-air.

Les séparatistes pro-russes fortement soupçonnés

Comment savoir qui est l’origine du tir dans cette région en guerre ? Les pro-Russes avaient déjà abattu des avions militaires ukrainiens et ne cachaient pas leur volonté de bannir tout appareil ukrainien du ciel. De plus, ils ne disposent pas eux-mêmes d’avions militaires, les Ukrainiens semblent donc n’avoir  aucun intérêt à utiliser des armes de défense aérienne. Néanmoins, en l’absence de preuves, impossible de désigner formellement un coupable.

Les combats rendent le travail des enquêteurs compliqué

Les enquêteurs ont dû cesser leur travail sur le site du crash à cause de violents affrontements. Les 142 experts de la police néerlandaise ont dû être rapatriés vendredi 8 aout. Ces derniers ont indiqué ne rendre leurs résultats préliminaires que d’ici plusieurs semaines.

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

La NASA dévoile les caractéristiques du rover Mars 2020

On en sait plus sur le rover de la mission Mars 2020. La Nasa vient de dévoiler sa sélection des instruments scientifiques qui feront partie de l’aventure. Ainsi, le Rover emportera avec lui pour 130 millions de dollars d’équipements, avec pour objectif d’analyser la géologie de la planète rouge et de traquer d’éventuelles traces de vie.

Un Planetary instrument for X-ray lithochemistry (PIXL) lui permettra d’analyser la composition des roches présentes  au sol, un Scanning habitable environments with Raman and luminescence for organics and chemicals (SHERLOC) détaillera la minéralogie du site. Le Radar imager for Mars subsurface exploration (RIMFAX) analysera ce qui est caché sous la surface. Le Mars environmental dynamics analyzer (MEDA), bardé de capteurs, servira à mesurer de nombreux paramètres de base comme la température, la pression, l’humidité ou encore la vitesse du vent.

SuperCam mast unit, une caméra dotée de spectromètres. Positionnée en haut du mât, cette SuperCam servira à sélectionner les échantillons les plus prometteurs. Cet instrument a été mis au point par le Centre national d’études spatiales (CNES) et l’équipe américaine du Los Alamos national laboratory. Il faut dire que les Français ont déjà de l’expérience dans ce domaine puisqu’ils avaient déjà conçu la ChemCam embarquée sur Curiosity.

Mais pour la mission Mars 2020, la Nasa innove avec un instrument capable de produire de l’oxygène à partir du dioxyde de carbone présent dans l’atmosphère martienne. Le succès du Mars oxygen ISRY experiment apparait comme une condition sine qua non à la conquête de Mars par l’homme. D’ailleurs, l’administrateur de la Nasa Charles Bolden est confiant dans le fait que Mars 2020 « va permettre d’étendre notre quête de vie dans l’Univers et d’offrir des occasions de développer de nouvelles capacités dans les technologies d’exploration ». Un objectif confirmé par William Gerstenmaier, administrateur associé à la Nasa qui précise que la mission « […] aidera à comprendre l’environnement auquel les astronautes feront face et à tester des technologies dont ils auront besoin avant d’atterrir, d’explorer et de revenir de la planète rouge ».

Regardez cette vidéo détaillant les objectifs de Mars 2020 :

Par Audrey Loubens, journaliste scientifique

 

Reportage vidéo : quels sont les bénéfices apportés par les jeux vidéos ?

dfef

Réalisation : Pascal Goblot
Production : Universcience

Source : universcience.tv

NIWeek 2014 : résumé du Keynote #3

Un keynote animé en grande partie par Eric Starkloff, charismatique vice-président de NI, et qui reprend dans une certaine mesure ce qui a déjà été dit lors de l’Academic Forum Keynote de lundi : l’importance pour National Instruments de former les ingénieurs de demain.

Et ce non seulement lorsqu’ils sont étudiants, avec comme arme absolue MyRIO, mais même dès l’enfance, avec LabVIEW for LEGO MINDSTORMS, ou encore NI miniSystems, qui permet de simuler le recueil de données sur un décolage d’hélicoptère ou un tremblement de terre miniaturisé.

L’occasion du démonstration « rock’n’roll » du robot sous-marin omnidirectionnel de Sepios, l’équipe qui a gagné le Student Design Contest 2014, conçu sur une base MyRIO, après prototypage sur LEGO MINDSTORMS puis via LabVIEW.

Invités suivant, l’équipe du Massachusetts Institut of Technology (MIT) est venue présenter ses travaux concernant un microscope ultra puissant permettant une vision en temps réel à l’échelle nanométrique, avec deux FPGA et un PXI Express. Invention qui leur a permis de remporter l’Engineering Impact Award 2014.

 

Ci-dessusEric Starkloff

 

L’interconnexion des machines

Traditionnellement, le dernier keynote se termine par l’intervention d’un invité de prestige. Changement cette année, puisque c’est un débat d’idée centré sur l’utilisation des nouvelles technologies à l’avenir, internet des objets et big data surtout, qui a conclu cette année le dernier keynote, avec pour participants :

 

  • Mark Hatch, patron de TechShop, qui compte révolutionner l’accès aux équipements techniques en mettant à disposition de ses membres, moyennement un abonnement, du matériel de pointe pour les aider à monter leurs projets ;
  • Joe Salvo, directeur de General Electric Global Research, qui prédit une interconnexion des objets nous entourant semblable à celle déjà établie entre les individus via les réseaux sociaux (les fans de science-fiction catastrophiste apprécierons) ;
  • Gerhard Fettweis, de l’université de Dresde, qui dans le même ordre d’idée, prédit une explosion de la demande en Wireless dans la décennie à venir, et donc un sacré challenge pour les ingénieurs pour répondre à cette offre, en développant des réseaux toujours plus puissants.

 

Voilà, NI Week 2014 c’est fini, rendez-vous du 3 au 5 aout 2015 pour la prochaine édition !

Pour tout savoir sur NIWEEK 2014

Par Bruno Decottignies

Facebook lance une application VIP

Facebook serait-il jaloux de twitter ? C’est ce qu’on pourrait penser devant les efforts déployés dans le domaine du divertissement pour supplanter le réseau social aux messages limités à 140 signes.

En effet, beaucoup de stars possèdent un compte twitter, et Mark Zuckenberg aimerait bien les pousser hors du nid, direction Facebook de préférence. D’où l’idée de créer une application qui facilitera les échanges entre les personnes connues et le commun des mortels. C’est ce que permet Mentions, tout droit sortie du Créative Labs.

Réservée aux Very Important Personns, Mentions les autorise à s’immiscer dans des conversations sur Facebook, notamment celles de leurs fans. Imaginez la surprise que cela pourrait susciter si Rihanna, personnalité la plus populaire sur Facebook avec 85 millions de fans,  s’invitait à l’improviste lors d’échanges de fans. Ça serait le buzz assuré !

Mais l’appli ne se limite pas à faire de la veille en suivant les conversations de fans, Mentions permet de partager des photos et de proposer des sessions de tchat en direct. Cela suffira-t-il à séduire les stars ? Facebook chiffre à 800 millions le nombre de personnes fans d’une personnalité. Avec près de 1.3 milliards d’adeptes, Facebook pourrait bien faire exploser ces interactions et rendre les stars plus accessibles.

Facebook s’est déjà offert Instagram en 2012 pour la modique somme de 715 millions d’euros, un premier pas dans la maîtrise des échanges initiés par les personnalités, très friandes de la plateforme de partage de photos. Avec Mentions, Facebook marche ouvertement sur les plates-bandes de twitter, spécialisé dans le divertissement et la social TV. 

Par Audrey Loubens

Facebook teste un bouton « J’achète »

Toujours à la recherche de nouvelles façons pour monétiser Facebook, Mark Zuckenberg a décidé d’expérimenter une nouvelle fonctionnalité : permettre aux internautes d’acheter directement via le réseau social. Comment ?

Grâce à un judicieux bouton « J’achète » accessible sur la page d’une publicité. L’objectif affiché est d’aider les entreprises à améliorer leur chiffre d’affaire, Facebook ayant indiqué qu’il ne prendrait pas de commission sur ces transactions. 

On imagine toutefois aisément que Facebook espère doper son propre chiffre d’affaire lié aux ventes publicitaires. Si le bouton « J’achète » favorise effectivement l’acte d’achat de façon notable, les commerçants seront plus susceptibles de payer pour de la publicité diffusée sur le réseau. Dans cet esprit, acheter par ce biais s’avère très simple. En cliquant sur « J’achète », le client achètera le produit « directement auprès de l’entreprise, sans quitter Facebook », comme indiqué sur leur site. Un procédé original mais qui fluidifie l’acte d’achat, limitant les abandons de paniers, si fréquents dans le e-commerce.

Facebook assure garantir la sécurité des données bancaires qui ne seront communiquées à personne, pas même à l’entreprise commercialisant le produit acheté. Le client pourra les laisser stocker en ligne pour des achats ultérieurs ou non.

Après avoir débauché David Marcus, ex-patron de la filiale paypal chez Ebay, et la préparation d’un service de paiement et de transfert d’argent entre utilisateurs, Facebook s’ouvre donc à la finance, capitalisant sur son nombre d’utilisateurs atteignant 1,23 milliards en décembre 2013 et toujours grandissant.

Par Audrey Loubens

Google veut détecter les maladies avant qu’elles ne surviennent !

Après les ballons stratosphériques et les lentilles intelligentes destinées aux diabétiques, c’est un projet encore plus ambitieux que souhaite développer la célèbre firme américaine via son laboratoire expérimental Google X : faire la cartographie moléculaire d’un corps humain en bonne santé. Dantesque même. Pour ce faire, une collecte d’informations génétiques sur plusieurs centaines de personnes et probablement plus par la suite doit avoir lieu.

Le biologiste Andrew Conrad, membre de la Food and Drug Administration (FDA) et reconnu pour avoir participé à l’élaboration d’un système de détection du VIH, est aux commandes de ce projet qui peut s’appuyer sur une équipe de 70 à 100 experts scientifiques (biochimie, chimie moléculaire…).

Le laboratoire a déjà commencé son travail de collecte sur un groupe de 175 individus, leur prélevant des fluides tels que sang, urine, salive et même larme. Comme le souligne le docteur Andrew Conrad, il est nécessaire « de comprendre les mécanismes qui régissent un corps en bonne santé » afin d’en dresser un profil type.

Par suite, la connaissance d’un corps sain et de ses « biomarqueurs de bonne santé » permettra aux scientifiques de faire une comparaison et d’identifier les biomarqueurs à risque.

Le but à terme est de prévenir les maladies ou de les détecter lorsqu’elles sont encore à un stade peu avancé. Cela concerne notamment les maladies cardiaques et les cancers. Une méthode proactive qui pourrait s’avérer efficace d’ici quelques années.

Google s’implante clairement dans le domaine de la santé – nous en parlions récemment avec la plateforme Google Fit – et contribue à la recherche médicale. Que ce soit à travers la société Calico créée en septembre 2013 et spécialisée dans les biotechnologies, avec laquelle Google compte « tuer la mort » ou avec « Baseline Study » le géant de l’internet fait montre d’une grande ambition dans ce domaine.

Toutefois, Andrew Conrad tient a garder les pieds sur terre et précise que l’étude durera bien quelques années. Ce qui est sur le papier une formidable idée, pourrait donc ne jamais sortir des locaux de Google X. 

Par Audrey Loubens

Et aussi dans l’actualité :

Fukushima: Tepco projette de rejeter en mer de l’eau souterraine décontaminée

Depuis le printemps, Tokyo Electric Power (Tepco) pompe de l’eau souterraine en amont des bâtiments, du côté de la montagne, avant qu’elle ne soit contaminée, pour limiter la quantité nouvellement souillée chaque jour. Cette eau, une fois contrôlée, est rejetée dans l’océan voisin.

Les pêcheurs de Fukushima avaient certes donné leur assentiment pour ces opérations de pompage et rejet en mer, mais ils ont mis un an avant d’accepter.

Ils risquent de se montrer encore plus réticents à l’égard du nouveau plan qui consiste cette fois à pomper de l’eau déjà contaminée via 42 puits plus près encore des réacteurs, puis à l’assainir du mieux possible.

« Je pense qu’une majorité des pêcheurs s’opposeront à ce plan », a déclaré à l’AFP Kenji Nakada, un responsable d’une Fédération de pêcheurs de la préfecture de Fukushima.

Un nouveau système de décontamination, plus puissant que l’actuel appelé ALPS, est censé permettre d’extraire l’essentiel des radionucléides que contient cette eau. Ce dispositif supplémentaire, dont la construction a été financée par l’Etat, devrait entrer en service à l’automne. Sa capacité doit non seulement accélérer le traitement de l’eau contaminée, mais aussi pallier les nombreuses déficiences d’ALPS qui, depuis qu’il est utilisé, ne cesse de tomber en panne.

Quelque 400 tonnes d’eau souterraine entrent chaque jour dans les bâtiments du site atomique, augmentant ainsi la quantité d’eau souillée au contact des équipements, eau qu’il faut ensuite récupérer et assainir. Une tâche d’autant plus insurmontable que s’y ajoutent les eaux de refroidissement des réacteurs qui fuient.

Pour le moment Tepco récupère une partie de l’eau et la traite au fur et à mesure, mais ne la rejette pas dans l’océan. Bilan, plus de 1.000 gigantesques réservoirs pleins et pas toujours fiables sont disséminés sur le site, un nombre qui continue de croître au rythme de plusieurs dizaines par mois, ce qui est encore insuffisant.

kh-kap/jlh/ml

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Samsung prépare un casque de réalité virtuelle

Les fuites sur le casque virtuel de Samsung s’intensifient. Nommé provisoirement Gear VR, ce casque permettrait de s’immerger dans une réalité virtuelle via son Smartphone. En effet, le casque ne serait qu’un support sans aucun capteur. Le Gear VR s’appuierait sur les données transmises par le Smartphone, son accéléromètre et son gyroscope notamment. De même, le traitement de données dédié au suivi du mouvement de l’individu se fait grâce au téléphone.

En sous-traitant ainsi de nombreuses fonctions, Samsung peut proposer un casque de réalité virtuelle à moindre coût. Les utilisateurs pourront profiter d’une bande élastique et de coussins positionnés de chaque côté, de quoi garantir un minimum de confort et d’envisager de porter le casque un long moment.

Samsung aurait donc opté pour une conception modulaire, le Smartphone se raccordant au casque via un dock USB 3.0. De plus, les deux photos révélées par le site SamMobile montrent un pavé tactile et l’existence d’un bouton sur le côté du casque. Ce dernier a pour fonction de lancer des applications. Theatre, 360Player et Gallery seront disponibles dès le lancement qui devrait intervenir début septembre à l’occasion de l’IFA, la Foire internationale d’électronique.

Le parfait timing pour faire fleurir des Gear VR sous les sapins.

Ce à quoi ressemblerait le futur casque de Samsung selon le site SamMobile

Par Audrey Loubens, journaliste scientifique

NIWeek 2014 : résumé du Keynote #2

Et pour commencer ce second Keynote, autorisons-nous un cocorico, avec une impressionnante présentation par Sébastien Boria et Bernard Duprieu (regarder l’interview de Bernard Duprieu) du projet Usine du futur, développé par Airbus.

L’idée étant de réduire au maximum les tâches manuelles, notamment les tâche pénibles, par l’utilisation de robots, ou encore en utilisant un système de caméra intégrée dans les lunettes de l’opérateur, renvoyant l’image par Wireless vers un outil détectant, par exemple, les trous dans le fuselage, et les communiquant à l’opérateur, qui peut ainsi directement travailler dessus sans avoir à effectuer un repérage préalable. Un concept nommé Inspection intelligente, et basé sur une plate-forme CompactRIO.

 

Ci-dessus : Bernard Duprieu présente le projet « Usine du futur » piloté par Airbu.

 

L’occasion pour National Instruments de rebondir et de présenter le NI System on Module, un outil de la taille d’une carte bleue ayant des fonctionnalités et des capacités semblables à CompactRIO, mais sans le châssis de celui-ci, et donc destiné aux usages nécessitant une miniaturisation poussée à l’extrême.

CompactRIO toujours, avec le CompactRIO performance controller, qui, dans les grandes lignes, consiste en une augmentation de l’espace FPGA couplé avec le nouveau processeur Intel Atom. Plus de puissance donc, pour plus de rapidité, et donc un gain de temps pour l’utilisateur, au point de permettre une synchronisation parfaite entre outils reliés par ce biais.

Applications dans l’énergie

Bravo à l’équipe de National Grid UK, d’abord pour avoir eu le courage d’entrer sur scène avec des chapeaux de cow-boys, et aussi et surtout pour leur exposé.

Leur problème : réussir à connecter l’ensemble des installations du réseau électrique entre elle pour une gestion optimale du flux, et éviter ainsi les black-out sur l’ensemble de la Grande-Bretagne. En gros, adapter l’offre d’électricité à la demande de façon quasi-instantanée, tout en gérant un réseau évolutif, au fur et à mesure que de nouvelles sources d’énergie sont connectées. Grâce à LabVIEW et CompactRIO, ils peuvent contrôler en temps réel l’énergie produite et délivrée à l’échelle de la Grande-Bretagne, les zones et périodes de tension, et ainsi anticiper et empêcher les black-out.

Toujours dans l’énergie, mais pour un usage bien différent, 15MW Wind Turbine Test Facility, qui produit des éoliennes d’une capacité de 8 mégawatts, oui oui, vous avez bien lu (d’un diamètre bien plus large que l’A380, et deux à trois fois plus hautes que Godzilla paraît-il. Rassurez-vous, elles sont placées en mer, et Godzilla n’existe pas), utilise toute une batterie de PXI, LabVIEW et FlexRIO pour simuler les contraintes pesant sur leur éolienne, avant même que la première ne sorte de l’usine. Ils prévoient ainsi déjà le développement d’éoliennes d’une capacité de 15 mégawatts.

Dernière démo d’envergure, et non des moindres celle de la société japonaise Furuno, vainqueur des NI Engineering Impact Awards 2014, qui a utilisé une plate-forme FlexRIO pour développer un radar de taille relativement réduite (80 centimètres de diamètre) capable de détecter des orages à 30 kilomètres à la ronde. Furuno ne compte pas s’arrêter là, puisqu’ils ont pour projets de développer un outil de navigation intégrant les conditions climatiques (une sorte de Google Maps de la météo) ainsi qu’un outil capable de prévoir la formation de nuages. Catherine Laborde a du souci à se faire.

Après la présentation par NI d’un oscilloscope nouvelle génération, sur base software, le keynote s’est achevé sur une présentation du partenariat entre National Instruments et Nokia quant au développement de la 5G, et par un discours de Jeff Kodosky, le « père » de LabVIEW, sur l’intérêt toujours croissant d’un tel outil permettant de designer les logiciels d’application industrielle.

 

Ci-dessusJeff Kodosky, le « père » de LabVIEW

 

Pour tout savoir sur NIWEEK 2014

Par Bruno Decottignies

La baisse des consommations d’électricité en Europe implique une gestion nationale rigoureuse du parc électrique de génération

L’exemple de l’Allemagne, où les grands opérateurs de l’électricité comme E-On, RWE, Vattenfall rencontrent un marché saturé, avec des prix de gros en décroissance, sur des volumes en retrait, doit alerter ceux qui nous dirigent.

Le marché ouest-européen, desservi par les  réseaux nationaux interconnectés adhérents à l’ENTSO-e, avec des livraisons voisines des 3300 TWh, décroissait en 2013 en volume de 0,5% par an depuis trois ans, en perte de 50 TWh par rapport à 2010.

Quand à l’IEA, qui annonçait des livraisons nettes d’électricité des pays européens de l’OCDE en 2013 de 3436 TWh et donc assez proches de celles publiées par l’ENTSO-e, elle publie à fin Avril 2014 et donc pour 4 mois cumulés,  une baisse de 5.3% des livraisons d’électricité pour ces pays européens de l’OCDE,  par rapport à la même période de l’année précédente.

En comparaison, selon la même source, les consommations américaines d’électricité cumulées sur 4 mois à fin Avril 2104 seraient en croissance de 3,5%.

Quand à l’EIA qui annonçait des accroissements de livraisons cumulées d’électricité aux Etats-Unis de 3,8% à fin Avril, annonce pour les 5 mois cumulés à fin Mai une croissance de 3,2%.

Il apparaît donc que, depuis le début de l’année,  les consommations américaines d’électricité sont en croissance, tirées par les consommations des foyers et du secteur commercial, malgré des consommations industrielles en léger retrait, par-contre, les consommations d’électricité des pays OCDE de l’Europe sont en net retrait. Ces publications ne font que confirmer les mauvaises performances économiques européennes en comparaison avec celles des Etats-Unis.

Figure.1 : livraisons d’électricité, en TWh, cumulées sur douze mois mobiles, de certains pays ouest-européens, calculées à partir des données détaillées de l’IEA

Ces données ne peuvent que nous rendre sceptique sur la réussite de la volonté politique affichée et répétée des dirigeants de notre pays de chambouler le paysage électrique français, étroitement implanté au sein du réseau ouest-européen qui est l’espace pertinent pour juger du bon choix des décisions industrielles locales. En effet toutes ces modifications de la soi-disant transition annoncée, passent par des décisions politiques, mais aussi impliquent des investissements réalisés par des industries productrices d’électricité. Plonger ces entreprises dans des difficultés de financement et des pertes comptables serait la voie la plus sûre pour stopper tout processus d’adaptation du parc électrique français.

Il apparaît de plus en plus clairement  que le rythme de la transition énergétique, s’il veut éviter un large mouvement de rejet, devra s’adapter aux contraintes économiques locales et à la baisse des consommations régionales d’électricité. Ce n’est, bien sûr, pas le moment idéal pour engager de profondes réformes industrielles et un redéploiement de l’outil de production à l’aide de subventions ou d’aides tarifaires onéreuses.

Il est des temps où la primauté du Politique se confronte à la dure réalité économique, c’est cette dernière qui de plus en plus arbitre le monde en déterminant ce qui est faisable et financièrement supportable. Les démocraties ne peuvent se développer et survivre que dans un cadre économiquement maîtrisé.

Par Raymond Bonnaterre

Rosetta : les dernières images de son incroyable voyage

Rosetta est la première mission dans l’histoire à se mettre en orbite autour d’une comète, à l’escorter autour du Soleil, et à déployer un atterrisseur à sa surface. Elle est pilotée par l’ESA (European Space Agency) avec des contributions de ses États membres et de la NASA. Philae, l’atterrisseur de Rosetta, est fourni par un consortium dirigé par le DLR, le MPS, le CNES et l’ASI.

« Après dix ans, cinq mois et quatre jours de voyage, cinq passages à proximité du Soleil et 6,4 milliards de kilomètres parcourus, nous avons le plaisir d’annoncer que notre but est enfin atteint », a déclaré Jean‑Jacques Dordain, Directeur général de l’ESA.

« La sonde européenne Rosetta est désormais le premier véhicule spatial de l’histoire à avoir effectué un rendez-vous cométaire, ce qui constitue un jalon majeur dans l’exploration de nos origines. C’est maintenant que les découvertes vont vraiment commencer ! »

Mercredi 6 août : Rosetta touche au but !


Rosetta touche au but par euronews-fr

 

Conférence de l’ESA : discours et annonces depuis la salle de contrôle

 

La comète Tchourioumov-Guérassimenko

Ces images ont été capturées par la caméra OSIRIS-NAC de Rosetta le 1er août 2014, à une distance de 1 000 km environ.

Credits images : ESA/Rosetta/MPS for OSIRIS Team MPS/UPD/LAM/IAA/SSO/INTA/UPM/DASP/IDA
Source : esa.int/Our_Activities/Space_Science/Rosetta

 

Par Iris.T

 

 

Livre blanc – Le mystère de la matière noire, dans les coulisses de l’univers

La découverte du Boson de Higgs a récemment ébranlé les fondations de la cosmologie et de la physique des particules. Dans les années 1920, quelques pionniers avaient bien remarqué des anomalies dans le mouvement des galaxies, mais ce n’est qu’à la fin du XXe siècle que les scientifiques ont été confrontés à une conclusion étonnante : l’univers est rempli d’une substance inconnue fondamentalement différente de tout ce que les astronomes ont observé avec leurs télescopes ou mesuré dans leurs laboratoires. Comprendre ce qu’est cette matière dite « noire » est aujourd’hui devenu le grand défi de la science.

Rosetta à son point de rendez-vous avec la comète Tchourioumov-Guérassimenko

« On est arrivé à la comète », s’est écrié Sylvain Lodiot, responsable des opérations de vol de Rosetta à l’Agence spatiale européenne (ESA), depuis le Centre de contrôle de Darmstadt (Allemagne), qui pilote la mission.

Rosetta se trouve comme prévu à 100 km de Tchourioumov-Guérassimenko, à quelque 400 millions de km de la Terre.

« Après dix ans, cinq mois et quatre jours de voyage, cinq passages à proximité du Soleil et 6,4 milliards de kilomètres parcourus, nous avons le plaisir d’annoncer que notre but est enfin atteint », a déclaré Jean-Jacques Dordain, Directeur général de l’ESA.

Rosetta est le premier engin spatial qui se met en orbite autour d’une comète, et qui ne se contente pas seulement de la survoler ponctuellement. Elle va accompagner la comète dans sa course vers le Soleil pendant plus d’une année.

En novembre, elle tentera une autre première très délicate, le largage sur la comète de son robot-laboratoire Philae.

« Rosetta est une mission unique, unique par son objectif scientifique, la compréhension de nos origines, qui est sûrement le meilleur moyen de comprendre notre futur », a souligné M. Dordain. « Elle est aussi unique par ses défis technologiques », a-t-il ajouté. Ce qui « fait de 2014 l’année Rosetta ».

Equipée de 11 instruments scientifiques (caméras, spectromètres, analyseurs de poussière et de particules…), Rosetta va étudier sous toutes les coutures le noyau de la comète, ainsi que les gaz et la poussière éjectés (la coma ou « chevelure ») à son approche du Soleil.

Les comètes sont considérées comme des témoins de la matière primitive à partir de laquelle s’est formé le système solaire, il y a 4,6 milliards d’années. Elles pourraient même détenir la clé de l’origine de la vie sur Terre .

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

NIWeek 2014 : résumé du Keynote #1

« You and NI will », c’est le nouveau credo de National Instruments, répété à foison tout au long de ce keynote. L’idée, qui elle n’est pas vraiment nouvelle chez NI, étant d’avancer main dans la main avec leurs clients pour aller plus vite, plus haut, plus fort, mais pour moins cher.

Pour ce faire, responsables NI et clients se sont succédés sur scène pour présenter nouveaux produits et applications, après une introduction par Ray Almgren, vice-président de NI, et James Truchard, président fondateur de la firme texane.

Premier du lot, Jeff Phillips, chef de produit LabVIEW, a donné une – trop courte ? – présentation de LabVIEW 2014, en mettant l’accent sur l’application LabSocket développée par Bergmans Mechatronics LLC, qui permet d’accéder à distance aux applications LabVIEW depuis internet, ainsi que sur une nouveauté plutôt séduisante : le câblage automatique des modules disposés dans LabVIEW.

Plus besoin a priori de faire ses lacets entre tel et tel éléments, LabVIEW 2014 les relie automatiquement.

 

Ci-dessus : James Truchard, Président fondateur de National Instruments, a comme d’habitude inauguré le premier keynote.

 

Nouveautés pour le PXI

Autre membre emblématique de la famille NI, le PXI s’est accaparé une bonne partie du kenyote, principalement dans une logique de réduction des coûts des tests, en premier lieu desquels les tests automatiques des semi-conducteurs.

En effet, le nouveau STS (pour système de test de semi-conducteurs), disponible en trois tailles mais en une seule couleur, permet de tester ses systèmes intégrés de façon rapide et semble-t-il économique, qui intègre le fameux PXI ainsi qu’une interface labVIEW.

Réduction des coûts grâce au PXI mais également meilleure fiabilité des tests, selon le témoignage de Tony Tenison, de Jacobs Engineering, venu expliqué comme le PXI leur permet de fiabiliser leurs tests en soufflerie, et d’éviter de devoir faire revenir (ou pas) le client pour de (coûteux) tests additionnels.

CompactDAQ durci

Le CompactDAQ quatre emplacements intègre processeur (Atom d’Intel), conditionnement du signal en entrées et sorties, et s’inscrit lui aussi dans une logique de simplification des tâches et de réduction des coûts, puisqu’il s’utilise en totale autonomie, sans être relié à un ordinateur.

Là encore, ce sont les clients qui en parlent le mieux : Robin Pritz de Case New Holland, un fabriquant d’engins agricoles, explique ainsi comment en mêlant CompactDAQ et CompactRIO dans une moissonneuse batteuse, il peut recueillir les données relatives au fonctionnement et réactions de la moissonneuse selon son utilisation.

Plus « impactant », John Lloyd, de BRAINS Inc, explique ensuite comment le CompactDAQ leur a permis de mesurer les forces de rotation auxquelles sont soumises les têtes des footballeurs américains, pour ensuite concevoir un casque réduisant celles-ci de 50 %.

 

Ci-dessus : Une des nombreuses démos présentées lors du keynote #1

 

DataFinder Server 2014

Le keynote s’est achevé sur une présentation de DatFinder Server 2014, l’outil NI permettant de mettre en commun l’ensemble des données de travail des ingénieurs d’une même structure, le tout hébergé non pas sur autant de segments que d’ingénieurs concernés, mais sur serveur commun, et donc beaucoup plus économique, avec outil de recherche des données intégré, fonctionnant tel un moteur de recherche. L’incarnation par excellence du big analog data si cher à National Instruments.

En savoir plus sur NIWEEK 2014

Par Bruno Decottignies

Un lecteur de cartes bancaires signé Amazon pourrait bientôt voir le jour

Il n’y a, à ce jour, pas eu d’annonce officielle de la part d’Amazon. C’est le site 9to5Mac, qui est le premier à avoir diffusé l’information, ensuite relayée par diverses sources. Ce ne sont donc pour l’instant que des conjectures, bien que leurs chances de devenir concrètes soient néanmoins assez fortes.

L’appareil qui permettra aux commerçants d’encaisser les paiements par carte bancaire via leur smartphone devrait s’appeler sobrement Amazon Card Reader. Son fonctionnement serait on ne peut plus simple. En premier lieu, il s’agirait de déterminer le montant à débiter sur l’application prévue. Puis, dans un second temps, un passage de la carte de l’acheteur dans le lecteur suffirait pour lire la bande magnétique et ainsi faire le prélèvement.

Ce dispositif viendra concurrencer le Paypal Here, le Mobile Card Reader ou encore le Staples Credit Card, des lecteurs de cartes similaires.

Mais surtout, il tentera de faire de l’ombre à Square, le lecteur numéro un créé en 2010 et lancé cette année par Jack Dorsey le créateur de Twitter. Il est prévu d’être distribué à partir du 12 août autour de 10 dollars. 

Par Sébastien Tribot

Revue du web #63 : les vidéos étonnantes de la semaine

Cette semaine dans la revue du Web :

  • Chimie du dimanche : « glace chaude » et acétate de sodium ;
  • La chevauchée des gouttes d’eau, ode à la gloire de la super-hydrophobie ;
  • Hypnotique : faire danser une goutte de mercure à différentes fréquences ;
  • Le gadget (inutile?) de la semaine : le tricycle qui ne fait que du sur-place (et facilite la chute) ;
  • et en bonus : lutter contre le mal des transports, à la sauce japonaise.

Chimie du dimanche : « glace chaude » et acétate de sodium

Vous ne connaissez pas encore la « glace chaude » ? Pour débuter notre soixante-troisième revue du web, nous n’allons pas vous faire découvrir un nouveau type de crème glacée, sucrerie absurde et réconfortante pour les mois d’hiver un peu longs. L’élément principal de cette « glace chaude » est même plutôt indigeste, puisque c’est le sel de sodium de l’acide acétique, à savoir l’acétate de sodium.

La vidéo qui suit montre sa rapide formation : un grand bocal contenant une solution, une main plongée dans le bocal, et la glace chaude qui se forme presque instantanément autour de la main, cristallisation venant métamorphoser la solution, dans un dégagement de chaleur. Mais alors, comment ça marche ?

Le bocal contient une solution aqueuse basique (CH3COO- Na+ + H2O <–> CH3COOH + HO- Na+) sursaturée en sel de sodium. Cette solution est métastable (la précipitation se fait au moindre changement) et s’obtient facilement, en théorie du moins, en jouant sur la variation de solubilité en fonction de la température. On dissout donc de l’acétate de sodium dans de l’eau chaude, jusqu’à ce que l’eau ne puisse plus en dissoudre. Une fois que la température a baissé, la solution contient plus de sel qu’elle ne peut en contenir à l’équilibre, provoquant la sursaturation. Cette solution sursaturée a besoin d’un élément déclencheur (par exemple, une main enrobée de cristaux d’acétate de sodium) pour initier la cristallisation, cristaux qui donnent la texture si particulière à cette glace. La glace est dite chaude car la réaction est exothermique : l’énergie contenue dans le désordre des particules devient désormais disponible, et se libère alors sous forme de chaleur.

La chevauchée des gouttes d’eau, ode à la gloire de la super-hydrophobie

La super-hydrophobie a la côte depuis maintenant de nombreuses années. Pour preuve, la pléthore d’études qui lui sont consacrées, en Europe ou outre-Atlantique, s’appuyant souvent sur l’observation de la nature – biomimétisme, quand tu nous tiens. Les ingénieurs de la National Science Foundation (NSF, « Fondation nationale pour la science », équivalent américain du CNRS) se sont eux aussi penchés sur la question, en observant un petit scarabée de Namibie, le Stenocara, qui présente la faculté pour le moins intéressante de recueillir la condensation de l’eau sur sa carapace, afin de s’abreuver comme il le peut et survivre dans le désert.

Pour amener l’eau jusqu’à son orifice buccal, le scarabée a développé une technique à la fois unique et très astucieuse : en se penchant en avant, les gouttes d’eau glissent en suivant des micro-rainures présentes sur la carapace, dont les propriétés de mouillage sont assez particulières. Les scientifiques du NFS se sont inspirés du Stenocara pour concevoir des surfaces aux propriétés similaires, qu’ils se sont fait une joie de tester dans la vidéo qui suit, sur l’air magique de « La chevauchée des Walkyries » de Richard Wagner.

Petit rappel habituel sur l’hydrophobie : l’angle de contact d’une goutte d’eau, lorsqu’elle est sur une surface plane (localement), doit dépasser les 90 degrés. Au-delà de 150°, la surface est alors considérée comme étant super-hydrophobe. Un angle de contact égal à 180° signifie que la goutte d’eau est complètement sphérique, repoussant la zone de contact jusqu’à un simple point. À titre d’exemple, le Téflon d’une poêle n’est qu’hydrophobe, l’angle de contact moyen étant de 95°.

La super-hydrophobie présente de nombreux intérêts : outre ses évidentes qualités d’imperméabilisation, elle permet de lutter assez efficacement contre le gel, souvent fatal pour les isolants électriques, les lignes à haute-tension, ou le revêtement des ailes d’un avion. Elle est également très efficace pour lutter contre la corrosion, l’accumulation de crasse et le « fouling », la colonisation d’un substrat (souvent immergé) par certains organismes.

Hypnotique : faire danser une goutte de mercure à différentes fréquences

Nick Moore est très curieux. Scientifique à ses heures perdues, il a pris l’habitude de filmer quelques menues expériences de son cru, pour la beauté du geste et ainsi assouvir sa soif de savoir. Ici, notre internaute soumet une goutte de mercure à des fréquences allant de 120 Hz (fréquence d’un son que l’oreille humaine peut percevoir) à 10 Hz (considéré comme un infrason, la fréquence est trop basse pour que le son puisse être perçu), faisant vibrer la goutte métallique qui emprunte certains motifs réguliers. Plus la fréquence est haute, plus les formes et motifs semblent devenir complexes.

Les ondes sonores qui traversent ou contournent la goutte de mercure font osciller cette dernière. La tension superficielle – qui augmente localement la cohésion – ainsi que la vitesse du son dans la goutte de mercure, permettent à certaines ondes sonores d’imprimer certaines vibrations dans la goutte. En d’autres termes, la goutte de mercure entre en résonance avec les ondes sonores à certaines fréquences.

Ce phénomène de résonance n’est pas sans nous rappeler les fameuses « figures de Chladni », motifs créés avec du sable sur une plaque que l’on fait vibrer. La plaque connaît localement des différences d’amplitude, responsables de motifs évolutifs et fascinants dans leur régularité.

En slow-motion :

Piqûre de rappel pour les figures de Chladni :

Le gadget (inutile?) de la semaine : le tricycle qui ne fait que du sur-place (et facilite la chute)

Pour clore en beauté notre soixante-troisième revue du web, rien de tel qu’une vidéo dont le titre colle parfaitement à son contenu et à notre rubrique du gadget (inutile?) de la semaine : « Trois roues, deux pédales, une selle, aucun but pratique ». Le tricycle qui y est présenté est conçu sur la base d’un monocycle, modifié et équipé pour l’occasion de trois roues espacées les unes des autres par un angle de 120°, et orientées selon les trois tangentes du cercle au centre duquel se trouvent la selle, le pédalier et la chaîne.

Pour trouver quelques cobayes, il suffit de poser l’absurde tricycle sur une dalle de pierre circulaire pendant un festival de musique. Un peu de boue, de la motivation, quelques bières, et le tour est joué !

Bonus : lutter contre le mal des transports, à la sauce japonaise

Ce n’est plus un mystère : bien que les causes soient souvent plus complexes, de nombreuses personnes sont sujettes au mal des transports lorsqu’elles ne sont pas assises dans le sens de la marche. Pour remédier à ce problème moderne venant parfois gâcher la vie de l’homo mobilus, certains trains japonais ne font pas dans la demi-mesure, puisqu’ils maximisent le nombre de sièges dans le « bon sens », ne laissant personne souffrir en étant assis dans le sens contraire de la marche.

Une fois arrivé en bout de ligne, pas de chichi. Pas de boucle pour faire demi-tour, pas d’escroquerie d’aiguillages non plus : le terminus devient le théâtre de la rotation de tous les sièges, sans exception, par groupes de deux. De quoi vous assurer d’être assis dans le sens de la marche… pour peu que vous puissiez vous asseoir.

Par Moonzur Rahman

Conseil management #1 : Définir soigneusement le rôle et la portée du management

Manager n’est pas si simple.

Définissez avec soin le rôle et la portée du management des hommes et de la performance, tel que vous l’envisagez. Puis confrontez votre point de vue avec celui des principaux auteurs du sujet afin de  pousser votre réflexion plus avant. Ce travail personnel est un préalable indispensable.

Manager, une définition

Qu’est-ce que manager ?

Voilà la question préalable que tout un chacun est en devoir de se poser avant de prendre en charge ses responsabilités. Depuis une bonne quinzaine d’années, les organisations ont pris goût à la distribution des titres ronflants.  Mais là il ne s’agit pas de titre mais bien d’un rôle à assumer.  Manager n’est pas un concept si aisé que cela à définir. 

Appuyons-nous sur une bibliographie choisie pour cerner du mieux possible cette notion complexe et polysémique.

Qu’est-ce que le management ?

A propos du management. Bibliographie choisie…

Pour les uns le management est un « art ».

Mais ceux qui ont appris à ne pas trop s’en laisser compter préciseront que si le management est un art, c’est avant tout celui d’inciter les autres à faire ce qu’ils n’ont pas toujours forcément envie. L’ art des apparences en quelque sorte.

Ainsi, la contrainte liée à une soumission de principe (« moi je commande toi tu obéis ») en est la forme la plus rustique. On parle alors de management directif. Bien qu’encore couramment pratiquée, cette forme de management n’est plus vraiment adaptée aux exigences actuelles.

D’autres préfèreront la classique méthode de la carotte et du bâton. Rebaptisée management par les objectifs, elle revient régulièrement au devant de la scène.

Mais les missions sont toujours plus complexes et les « managés » sont aussi des hommes avec leurs propres besoins et ambitions.

Ce constat n’est pas nouveau, et des théoriciens expérimentateurs ont ainsi, dès le début des années 60, développé un nouveau modèle de management orienté « participation » mettant en pratique le célèbre couplet à succès du win-win (plutôt démocratique que laisser-faire ou autocratique). Le management participatif était né. Malgré ses atouts, ce type de management, éternellement « révolutionnaire », rencontre encore pas mal de difficultés à sortir des séminaires, amphis et des livres de management. On le croise assez peu en entreprises.

Pour d’autres, le management est plutôt un « talent » et manager est un « métier ».

ll est tout à fait juste de reconnaître qu’il existe des managers nés, dotés d’un véritable sens inné de meneur d’hommes. Il est pourtant dommage de colporter au delà du raisonnable cette image d’Epinal du manager absolu, de droit divin.

S’il est vrai que certains peuvent quelquefois manquer de charisme et cherchent alors à développer leur leadership, c’est plutôt du côté de la communication et de la compréhension des autres (la négociation, l’art d’avoir toujours raison ou la manipulation  ?) qu’il faut rechercher le talent.  Le bon manager prendra ainsi le temps de développer (grâce au coaching ?) ses qualités d’écoute et de prise de décision. 

Les préoccupations du manager responsable ne se limitent pas à  la gestion des hommes,  aussi  complexes soit-elle. Piloter les projets de l’entreprise et assurer l’indispensable travail de prospective techno-culturelle  et managériale, sont part entière de ses attributions. Enfin, sa responsabilité porte aussi sur des aspects plus prosaïques mais tout aussi essentiels comme la gestion financière et organisationnelle.

Tout cela n’est pas simple. Et comme pour toutes choses peu simples, les méthodes et outils… prolifèrent ! Beaucoup ne sont qu’un éternel rhabillage des techniques et méthodes du passé. Même si nous connaissons actuellement le temps du changement permanent la problématique citée ci-dessus, elle, ne change pas…

Des méthodes et techniques de management vous en trouverez ici.

Bien entendu, prises dans leur contexte spécifique, elles sont toutes relativement efficaces. Mais aucune n’est universelle.

La meilleure ?

Ce sera la votre une fois que celle-ci sera au point. En attendant  vous pouvez prendre un peu de recul, ou encore vous attardez sur la « mienne »  (si, si, je vous assure !) que je développe ici même avec le management collabhorratif, non, non il n’y a pas de coquille…

 

Enfin, au terme de ce texte ne perdez pas de vue qu’une organisation ce sont des femmes et des hommes et non des pions. Les meilleures structures ne sont-elles pas celles qui justement redonnent toute sa dignité à l’Homme ?

La chasse aux « jumeaux solaires » avec le télescope spatial Kepler

En 1997, l’étude des étoiles analogues au Soleil prend un tournant important au sein de la communauté scientifique. A l’époque, seul un « jumeau solaire » avait été identifié. Récemment3, les chercheurs ont découvert une vingtaine d’étoiles analogues au Soleil, dont une dizaine de « jumeaux solaires » ce qui a permis de doubler le nombre connu auparavant.
Grâce à la réalisation de mesures spectroscopiques1, à l’utilisation de la technique d’Astérosismologie2, et à l’aide des observations du satellite Kepler, une équipe internationale pilotée par le CfA à Harvard, et impliquant des chercheurs du Laboratoire AIM (CNRS/CEA/Université Paris Diderot), a détecté une vingtaine d’analogues solaires dont l’âge a pu être estimé. Mais comment faire la différence entre analogues et véritables jumeaux ? Les analogues solaires sont des étoiles dont la masse et la composition chimique sont proches de celles du Soleil alors que les « jumeaux » ont des contraintes plus fortes (par exemple, une masse comprise entre 0,95 et 1,05 masse solaire). Les chercheurs ont déterminé de nombreux paramètres, dont la période de rotation, de chaque étoile. Celles ayant des caractéristiques trop éloignées de ces critères sont alors écartées. Les étoiles restantes constituent des « jumeaux » du Soleil, plus jeunes ou plus âgés. Elles permettent aux astrophysiciens de voir ce qu’a été et ce que sera le Soleil et donc de retracer son histoire.
Actuellement, le Soleil est à la moitié de sa vie et finira par se transformer en une étoile massive qualifiée de « géante rouge », avant de refroidir longuement et de devenir une étoile naine peu brillante. Or, cette évolution est en partie régie par la manière dont le Soleil tourne sur lui-même, cette rotation induisant des modifications profondes de sa structure interne. Et, si sa période de rotation est actuellement de 26 jours, celle-ci augmente très lentement.

En connaissant la période de rotation d’étoiles de masse comparable à celle du Soleil et en supposant le même processus de ralentissement, il est possible d’estimer leur âge. Et les étoiles jeunes tournent plus vite que les étoiles plus âgées.
Pour mesurer la rotation des étoiles étudiées ici, les astronomes ont analysé les variations de la luminosité moyenne émise par l’étoile due à l’assombrissent produit par le passage de taches stellaires (similaires à celles du Soleil) sur la surface du disque visible de l’étoile. La vitesse de rotation de l’étoile est déduite à partir du temps de passage de ces taches. Les résultats obtenus ont permis de confirmer les relations empiriques entre âge et rotation d’étoiles pour des étoiles indépendantes dites “du champ » (n’appartenant pas à un amas d’étoiles), relations uniquement validées jusqu’à présent pour des étoiles faisant partie d’amas d’étoiles jeunes. Ces nouvelles données sont d’une importance majeure pour de futures missions spatiales comme la future mission PLATO de l’ESA dont le but est d’étudier les systèmes planétaires similaires au système solaire avec des planètes de la taille de la Terre en orbite autour d’étoiles de type solaire.

1 Mesures permettant de déduire précisément certaines caractéristiques de la surface d’une étoile comme sa température et sa gravité.
2 Technique qui consiste à étudier les propriétés des ondes acoustiques qui se propagent au coeur des étoiles, et qui permet notamment d’estimer la masse, le rayon et l’âge des étoiles observées.

Source : CEA
Le CEA est un organisme de recherche sur les énergies nucléaire et renouvelables, les technologies pour l’information et la santé, la défense et la sécurité.

Et aussi dans les
ressources documentaires :

NIWeek 2014 : résumé de l’Academic Forum Keynote

Introduction en douceur par Shekhar Sharad, responsable marketing de National Instruments pour le secteur académique, qui félicite les enseignants-chercheurs partenaires de NI les plus méritants de l’année, avant de présenter les trois finalistes du Student Design Contest :

  • l’équipe Sud-Coréenne du KAIST et sa Self-Driving Car, ou EureCar ;
  • l’équipe Suisse de l’ETH Zurich, et son robot sous-marin omnidirectionnel Sepios ;
  • l’UNC Charlotte, qui a développé une fusée capable de se poser au sol sans dommage, et donc réutilisable, ce qui lui a valu d’emporter un prix lors de la NASA Student Launch Competition cette année.

Ces trois équipes ayant bien sûr truffé leurs projets respectifs de matériel National Instruments, à commencer par LabVIEW et myRio, l’outil hardware destiné aux étudiants présenté l’année dernière. Des projets qui donnent la mesure du potentiel apporté au monde de l’enseignement technique par les produits dédiés de National Instruments. « Notre objectif est de permettre aux étudiants d’utiliser des outils les plus proches possibles de ceux avec lesquels ils travailleront une  fois entrés dans le monde du travail », martèle Dave Wilson, directeur des programmes académiques de NI, qui assure la majeure partie de la présentation.

Nouvelles applications pour MyRio et NI Elvis

Au programme de ce premier keynote donc, la présentation des nouveautés impactant les produits dédiés aux étudiants et au monde de l’enseignement.

À commencer par MyRio qui, présenté il y a un an, semble avoir connu un succès commercial d’une rapidité sans précédent dans la branche académique de National Instruments.

Après quelques démonstrations d’utilisations possibles, notamment avec le CAN de la société Stratom, ou, le Qube Servo de Quanser, est présenté la nouveauté de l’année concernant MyRio : l’ouverture d’un segment d’applications propres à myRio sur le LabVIEW Tools Network, pour l’instant au nombre de vingt, dans des domaines tels la robotique, la simulation, l’acquisition de données, ou encore le développement d’applications…

Des nouveautés également du côté de NI ELVIS, l’outil éducatif compilant l’essentiel des outils nécessaires en laboratoires d’enseignement, qui se voit enrichi de six nouvelles applications, et qui surtout, permet désormais à ses utilisateurs d’ajouter des applications, élargissant l’ « écosystème » de l’outil, selon le terme chéri par National Instruments.

Enfin, l’ultime nouveauté présentée à ce Keynote, vous la connaissez déjà puisque nous vous l’avons présentée récemment, c’est VirtualBench (Lire ICI).

Le premier Keynote de NIWEEK 2014 aura lieu mardi 5 août. Un résumé sera disponible sur notre site dès la fin du Keynote !

Par Bruno Decottignies

Astuce du Web #12 : Mode d’emploi du formulaire « Droit à l’oubli » de Google

Contraint par la loi européenne, Google a donc mis en place le déjà célèbre formulaire « droit à l’oubli ». Autrement dit, la possibilité pour  une personne de faire retirer de la toile un ou plusieurs liens menant à des données compromettantes, embarrassantes ou simplement périmées. Cela peut concerner du texte mais aussi des photos ou des vidéos.

Comment faire sa demande ?

Rendez-vous sur la page du formulaire. Renseignez votre nom et votre mail, puis indiquez dans le champ prévu l’url que vous souhaitez voir supprimée. Vous pouvez en indiquer plusieurs. Pour chacune, vous devez motiver votre demande en moins de 1000s. Il vous est ensuite demandé de télécharger une copie d’une pièce d’identité puis de signer numériquement en indiquant votre nom et la date. Cliquez sur « envoyer » pour valider définitivement votre demande.

A ce jour, le délai de traitement n’est pas connu.

A noter que ce formulaire permet de faire une demande, rien ne garantit qu’elle soit acceptée. Google décide seul de retirer ou non le lien, expliquant s’appuyer sur des critères tels que l’ancienneté du lien, l’exactitude de l’information, le type de support, presse ou non… D’ailleurs, en cas d’acceptation, le lien ne disparait que de la version européenne du moteur de recherche, les liens restant visibles depuis sa version américaine. Un « droit à l’oubli » partiel et partial, mais c’est ce qui ouvre la voie à un minimum de régulation des informations présentes sur internet. D’ailleurs, le moteur de recherche Bing prépare lui aussi son propre formulaire.

Accéder au formulaire ici

Par Audrey Loubens, journaliste scientifique

Sony propose son plastique issu du recyclage à des clients extérieurs

Cette matière, appelée Sorplas (« Sony Recycle Plastic »), est déjà employée par Sony depuis 2011 dans une partie de ses appareils, à commencer par ses téléviseurs, et le groupe a décidé d’en étendre le potentiel d’utilisation à des entreprises autres, compte tenu de ses propriétés écologiques élevées.

Le Sorplas est conçu à 99% de matériau recyclé, contre environ 30% dans la plupart des autres cas.

Il est produit à partir de déchets de matières plastiques de DVD et autres disques optiques, et de films optiques pour téléviseurs. Le tout est broyé, lavé et converti en Sorplas pour la réutilisation avec une petite quantité d’additifs, tels que des retardateurs de flamme et colorants.

Sony prévoit notamment de fournir ce plastique à d’autres fabricants japonais de produits électroniques et électroménagers.

kap/anb/jh

 

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

 

Reach/CLP : toute l’actualité de juillet (2/2)

Etiquetage des générateurs d’aérosols

 

24/07/2014

Le ministère de l’économie, du redressement productif et du numérique a publié au JORF le Décret n° 2014-840 du 24 juillet 2014, portant modification des dispositions d’étiquetage applicables aux générateurs d’aérosols. Ce décret transpose en droit français les dispositions de la Directive n° 2013/10/UE publiée le 19/03/14.

Ce décret est consultable sur : legifrance.gouv.fr/jopdf/common/jo_pdf

 

 

Nouvelle proposition de classification et d’étiquetage harmonisé

 

30/07/2014

L’ECHA a lancé une consultation pour l’harmonisation et l’étiquetage harmonisé d’une nouvelle substance, un insecticide : bendiocarb (ISO); 2,2-dimethyl-1,3-benzodioxol-4-yl N-methylcarbamate (N° CE : 245-216-8 – N° CAS : 22781-23-3). Les parties intéressées sont invitées à soumettre leur commentaire sur le site de l’ECHA, et ce avant le 15 septembre 2014.

Plus d’informations sur : echa.europa.eu/harmonised-classification-and-labelling-consultation

 

Par Céline GABORIAUD, Ingénieur Environnement aux Ateliers d’Orval

Et aussi dans les
ressources documentaires :

La France ne renonce pas au nucléaire pour sa transition énergétique

Le projet de loi sur la transition énergétique adopté le 30 juillet en conseil des ministres est « le plus ambitieux de l’Union européenne » s’est félicitée la ministre de l’Environnement, Ségolène Royal. Très attendu, ce texte relatif à la transition énergétique pour la croissance verte, dont la ministre avait déjà présenté les grandes lignes le 18 juin 2014, mise sur des objectifs ambitieux : porter la part des énergies renouvelables dans la consommation énergétique à 32 % d’ici à 2030, réduire les émissions de gaz à effet de serre de 40 % entre 1990 et 2030 et baisser de 30 % la consommation énergétique énergies fossiles (charbon, gaz, pétrole) en 2030.

Le projet de loi fixe également des objectifs à l’horizon 2050. Il prévoit entre autres de réduire la consommation énergétique finale de 50 % en 2050 par rapport à 2012, ainsi que la division par quatre des émissions de gaz à effet de serre. Côté financements, la ministre a lancé fin juin une conférence bancaire qui devrait permettre de mobiliser quelque 10 milliards d’euros sur trois ans en faveur de la transition énergétique. Un montant jugé insuffisant pour assurer les ambitions du texte, selon plusieurs associations de défense de l’environnement.

Pas de remise en cause du nucléaire

Adoptée en Conseil des ministres le 30 juillet 2014, la version définitive du projet de loi sur la transition énergétique devra ensuite être débattue à l’Assemblée nationale. Le texte devrait être étudié en commission parlementaire en septembre, pour un examen en plénière à partir du 1er octobre. Si les objectifs français en matière de réduction des gaz à effet de serre sont en ligne avec ceux de la Commission européenne, les ambitions du gouvernement français en matière d’énergies renouvelables vont plus loin.

En effet, dans le paquet énergie-climat 2030, adopté en janvier 2014, la Commission européenne a présenté des objectifs de réduction de 40 % des gaz à effet de serre par rapport au niveau de 1990 ainsi qu’un objectif de 27 % d’énergies renouvelables, contraignant pour l’ensemble de l’Union, mais pas à l’échelle nationale.

Pour la ministre de l’Environnement, Ségolène Royale, qui a porté le texte, les objectifs français vont permettre « de faire de la France le pays de l’excellence environnementale pour pouvoir peser dans les discussions au niveau européen » a-t-elle détaillé.

La ministre a notamment évoqué le Conseil européen prévu les 23 et 24 octobre 2014, au cours duquel les chefs d’État et de gouvernement des 28 pays membres de l’Union européenne devraient accorder leurs violons sur les propositions de la Commission pour 2030. Un exercice qui devrait s’avérer périlleux, tant les politiques énergétiques des différents États membres sont disparates.

L’enjeu est également politique pour la France, qui doit en effet accueillir en 2015 la conférence Paris Climat 2015, où les gouvernements des pays développés et en voie de développement devront tenter de trouver un accord à l’échelle mondial pour limiter le réchauffement climatique.  

« La France doit être exemplaire dans cette perspective », a martelé la minister.

Le projet de loi entérine par ailleurs un des engagements de campagne du président François Hollande, la baisse de la part du nucléaire dans la production d’électricité en France. Le texte prévoit ainsi de ramener sa part de 75 % à 50 % d’ici à 2025.

Selon le bilan 2013 du gestionnaire du réseau de transport électrique français RTE, le nucléaire a représenté 73,3 % de la production française d’électricité, tandis que la part des énergies renouvelables a atteint 18,6 % de la production en 2013.

Cet objectif  ne représente pas un véritable tournant pour la France, dont la politique énergétique reste fortement axée sur le nucléaire, à l’inverse de l’Allemagne, qui a décidé de sortir du nucléaire depuis la catastrophe de Fukushima. « La France a fait le choix du nucléaire » a rappelé la ministre, confirmant que cela resterait « le socle de notre mix énergétique ».

Le projet de loi n’aborde que très peu les moyens mis en œuvres pour assurer la baisse du nucléaire. Pour l’heure, seule la fermeture de la plus vieille centrale de France, Fessenheim, a été annoncée à plusieurs reprises au niveau politique.

Cependant, la fermeture de Fessenheim n’est pas inscrite dans le texte de loi, qui se contente de plafonner la capacité nucléaire française à son niveau actuel, soit 63,2 GW.

Grâce à cette mesure, le gouvernement impose de fait la fermeture d’une centrale pour toute ouverture d’un nouvel EPR – comme celui de Flamanville prévu en 2016.   la France devra ainsi fermer une centrale de capacité égale.

Source : Euractiv