Début de la construction de LSST, l’un des plus puissants télescopes au monde

LSST verra sa première lumière en 2019 et sera pleinement opérationnel en 2022. Ce télescope de 8,4 mètres de diamètre photographiera le ciel de manière systématique durant dix ans et permettra de réaliser un film en trois dimensions de tout l’Univers visible. Il permettra également de mesurer avec une précision inégalée les quantités physiques associées à la matière et à l’énergie noire, pour nous aider à mieux comprendre la structure même de l’Univers : on parviendra ainsi à déterminer la position précise de plus de 10 milliards de galaxies (soit dix mille fois plus qu’aujourd’hui).

La caméra numérique la plus puissante au monde

A l’aide d’une caméra numérique comptant 3,2 milliards de pixels — la plus puissante au monde — et grâce à une conception inédite à trois miroirs, LSST permettra aux scientifiques d’étudier une vaste zone du ciel, jusqu’alors inaccessible. Sa conception lui permettra d’observer les objets célestes alors qu’ils changent ou se déplacent et donnera ainsi accès à des phénomènes fugaces telles les explosions d’étoiles ou le passage d’astéroïdes.

Le télescope pourra détecter et cataloguer des milliards d’objets dans l’Univers, les observer dans le temps et livrer ces informations — soit plus de 30 téraoctets chaque nuit — aux astrophysiciens du monde entier. De plus, la caméra numérique fournira un nouvel éclairage sur l’énergie noire, dont les chercheurs ont conclu qu’elle accélère l’expansion de l’Univers. LSST sondera les profondeurs de l’Univers, et créera ainsi une base de données unique regroupant des milliards de galaxies.

LSST est un projet en partenariat public-privé regroupant pour sa construction trois pays : le Chili, où sera situé le télescope, les Etats-Unis, via notamment la National Science Foundation (NSF) et le Department of Energy (DoE), et la France, représentée par le CNRS. Les équipes françaises participent à la construction de la caméra et se mobilisent fortement pour le traitement des données issues du télescope.

Situé à 2 700 m d’altitude, le site du Cerro Pachón a été choisi dès 2006 pour son ciel sans nuage, son faible niveau de pollution lumineuse et son climat sec, mais aussi pour la présence des infrastructures nécessaires liées à deux autres télescopes d’envergure déjà installés, le Gemini Sud et le Southern Astrophysical Research Telescope (SOAR).

Les laboratoires français impliqués dans LSST :

  • Astroparticule et cosmologie (CNRS/Université Paris Diderot/CEA/Observatoire de Paris)
  • Centre de calcul de l’Institut national de physique nucléaire et de physique des particules du CNRS
  • Centre de physique des particules de Marseille (CNRS/Aix-Marseille Université)
  • Laboratoire de l’accélérateur linéaire à Orsay (CNRS/Université Paris-Sud)
  • Laboratoire des matériaux avancés (CNRS/Université Claude Bernard Lyon 1)
  • Laboratoire de physique corpusculaire de Clermont-Ferrand (CNRS/Université Blaise Pascal – Clermont-Ferrand)
  • Laboratoire de physique nucléaire et de hautes énergies à Paris (CNRS/UPMC/Université Paris Diderot)
  • Laboratoire de physique subatomique et de cosmologie à Grenoble (CNRS/Université Joseph Fourier/Grenoble INP)
  • Laboratoire Univers et particules de Montpellier (CNRS/Université Montpellier 2)

Source : cnrs

Revue du web #79 : les vidéos les plus étonnantes d’avril 2015

Cette semaine dans la revue du Web :

  • Faire tourner des disques compacts à trop grande vitesse, et filmer avec une Phantom Flex ;

  • Recristallisation d’un aldéhyde phénolique ;

  • Un « petit train » magnétique d’une grande simplicité, et à peu de frais, acte II ;

  • Le gadget (inutile?) de la semaine : la plus petite perceuse sans fil au monde ;

  • Et en bonus : Sésame, ouvre-toi !

Faire tourner des disques compacts à trop grande vitesse, et filmer avec une Phantom Flex

Puisque les CD sont déjà – en partie – obsolètes, autant leur offrir une mort digne de leur rang, en remerciements pour services rendus. Les bourreaux en chef : les désormais incontournables « Slow-mo Guys », en compagnie desquels nous allons débuter cette soixante-dix-neuvième Revue du Web. Derrière ce nom de scène se cachent le réalisateur anglais Gavin Free et son ami Daniel Gruchy, deux compères rigolards prêts à se lancer dans toutes sortes d’expériences (impliquant souvent des destructions en tout genre) qu’ils ont pris la très bonne habitude de filmer, juste pour le plaisir de décomposer la scène au ralenti. Pour ce faire, ils ne se sont pas contentés de leur habituelle « Phantom Flex », l’incontournable caméra numérique très haute définition capable de filmer jusqu’à 18 000 images par seconde.

Cette fois-ci, place à la Phantom Flex v2511, la Rolls Royce des Phantom Flex permettant de filmer jusqu’à un million (!!!) d’images par seconde, lorsque la résolution est réglée au minimum. Avec ce nouveau joujou, les Slow-mo Guys se mettent en tête d’amener quelques bons vieux CD jusqu’à leur point de rupture – aux alentours de 23 000 tours par minute – en bricolant un tourne-disque monté sur le moteur… d’un aspirateur Dyson. Pas de quartier pour ces pauvres disques compacts, qui explosent les uns après les autres sous l’œil bienveillant de la Phantom Flex. Le résultat est bluffant, de la déformation à l’explosion.

Recristallisation d’un aldéhyde phénolique

Le 4-hydroxybenzaldéhyde est un aldéhyde phénolique, notamment présent chez certaines variétés d’orchidées, ou sous forme enzymatique dans les carottes. Bien qu’il n’en sache probablement rien, cela n’a pas empêché Christopher Lyon, un internaute éclairé, de s’intéresser à la recristallisation de cet aldéhyde. Partant d’une solution chaude, aqueuse et impure contenue dans une fiole Erlenmeyer, il plonge cette dernière dans un récipient contenant de l’eau glacée, le tout se trouvant sur un agitateur magnétique.

Le 4-hydroxybenzaldéhyde, soluble dans une solution « chaude », précipite partiellement en raison de la chute de la température dans l’Erlen. Le mouvement circulaire provoqué par l’agitateur magnétique ajoute, lui, une touche marbrée à la beauté de la chose.

Un « petit train » magnétique d’une grande simplicité, et à peu de frais, acte II

Peut-être vous souvenez-vous de l’astucieux « petit train » magnétique conçu avec très peu de moyens mais beaucoup de matière grise par un internaute japonais particulièrement dégourdi, dispositif fascinant dont nous vous parlions ici (//www.techniques-ingenieur.fr/actualite/web-thematique_89430/revue-du-web-72-les-videos-les-plus-etonnantes-de-la-semaine-article_290829/article_290829_3.html). Notre internaute, nostalgique des petits trains électriques de son enfance, a récidivé il y a un mois avec une nouvelle vidéo d’un circuit un peu plus élaboré, mais calqué sur le même principe. Quelques longs ressorts en cuivre pour figurer le circuit, une pile classique (LR6) et quelques aimants d’un alliage de néodyme fer bore placés à chaque pôle pour faire office de locomotive de fortune. Qu’elle se trouve au-dessus ou à l’intérieur du ressort, la petite locomotive se meut comme par magie.

Pour rappel, c’est l’interaction électromagnétique, par le biais de la force de Lorentz, qui permet au « petit train » de se mettre en branle. Une fois les ressorts bouts à bouts et le circuit refermé, tel un serpent qui se mange la queue, le petit véhicule entame sa course folle sans montrer le moindre signe de faiblesse. Le principe est évidemment le même pour deux petites piles-véhicules, qui rentrent alors dans une invraisemblable course-poursuite.

Le gadget (inutile?) de la semaine : la plus petite perceuse sans fil au monde

Cela fait plusieurs décennies que la miniaturisation est l’un des principaux moteurs de l’innovation technologique, rejoint depuis peu par LA révolution que représente l’impression tridimensionnelle. Notre gadget (inutile?) de la semaine se situe au carrefour de ces deux courants, puisque ce tout petit objet est sorti tout droit d’une imprimante 3D. Présentée volontiers comme la plus petite perceuse sans fil au monde, le minuscule outil conçu par Lance Abernethy est surtout en parfait état de fonctionnement.

Le Néo-Zélandais a commencé par dessiner l’enveloppe extérieure de sa perceuse portative à l’aide de Onshape 3D, un logiciel de conception assistée par ordinateur, en calquant le design sur sa propre perceuse. Un moteur miniature alimenté par une pile de prothèse auditive viennent remplir la coquille vert pomme, et permettent d’actionner la mèche… miniature, évidemment. L’impression n’aurait présenté aucune difficulté, mais c’est au moment de l’assemblage que les choses se sont compliquées, assemblage minutieux qui lui aurait pris trois heures, afin que tout rentre dans le boîtier de 17×7,5×13 millimètres, sans que les fils ne rompent.

Bonus : Sésame, ouvre-toi !

Pour conclure notre soixante-dix-neuvième Revue du Web, allons faire un tour au Brésil qui, avec ses fermes gigantesques, caracole en tête du classement des exportateurs mondiaux pour de nombreuses ressources. Une exploitation gigantesque implique… des kilomètres de clôtures, des déplacements en voiture, des points d’accès un peu partout… Un fermier brésilien, sûrement fatigué de devoir descendre encore et encore de sa voiture pour ouvrir la barrière de l’un de ses enclos, a eu une idée très astucieuse pour rester vissé sur son siège tout en s’autorisant le passage.

Une passerelle, un mouvement de balancier, et le tour est joué ! La voiture s’avance sur la passerelle qui, sous le poids du véhicule, libère la voie d’accès en soulevant la barrière. Bravo !

Par Rahman Moonzur

Et aussi dans les
ressources documentaires :

Hacker l’antenne d’une chaîne de TV ? Pas si simple !

Victime d’une cyberattaque, TV5 Monde a été contrainte, jeudi 9 avril, de couper l’antenne. En plus de cela, la chaine francophone a perdu le contrôle de ses comptes de réseaux sociaux, et de ses sites internet. Guillaume Lovet, expert en cybercriminalité chez Fortinet, revient avec nous sur cette attaque pas si sophistiquée que nous pourrions le croire, et sur la cybercriminalité en général. Interview.

Techniques de l’Ingénieur : La cyberattaque contre TV5 Monde a fait l’objet de déclarations enflammées, notamment du ministre de l’Intérieur Bernard Cazeneuve, qui a parlé d’une “attaque massive, qui a mobilisé des compétences techniques exceptionnelles ». Est-ce la réalité ?

Guillaume Lovet : Ces derniers mois, de nombreuses tentatives d’attaques similaires ont eu lieu, contre les sites du Monde et du Guardian, contre des comptes de réseaux sociaux… Il y a un point commun entre toutes ces attaques : ce sont les comptes sociaux des médias qui sont visés. Le but premier des pirates, c’est de prendre le contrôle des comptes des réseaux sociaux (Twitter, FB, instagram…) pour pouvoir toucher le plus de monde, et diffuser leur message.

Dans ce type d’attaques, les pirates ne vont pas plus loin que le “défacement” du site visé, c’est-à-dire le remplacement de la page d’accueil, et la prise de contrôle des comptes des réseaux sociaux. Dans l’attaque contre TV5 Monde, une conclusion logique s’impose : les cibles des pirates étaient les comptes Twitter et Facebook. Par conséquent, l’interruption d’antenne par la chaine n’était pas leur intention première, simplement un dommage collatéral !

Il n’est pas exclu que leurs attaques se perfectionnent un jour, mais nous avons à faire à des cellules plutôt isolées, avec des compétences relativement limitées. Le modus operandi est toujours le même : essayer d’infecter un “point d’entrée sur le réseau” (une personne) avec un cheval de troie, grâce à du social engineering. Le but est d’amener quelqu’un à cliquer sur une pièce jointe (un PDF si l’attaque est sophistiquée, un .exe ou un script VBS si les hackers sont moins expérimentés) qui va infecter une machine du réseau.

Si l’on en croit les révélations du site Breaking 3.0, qui cite (maladroitement) une cible bien informée, le cheval de troie utilisé dans le cas de TV5 est un script VBS. Après des recherches sur Internet, il apparaît qu’il s’agit d’un script ancien, qui ne tourne même pas sur Windows 7 : il faut redescendre jusqu’à Windows XP pour le rendre efficace ! Ce qui indique que TV5 Monde utilise, comme bon nombre d’entreprise, du matériel ou un système d’exploitation obsolète. Il s’agit donc probablement d’une attaque peu sophistiquée, avec un script récupéré (gratuitement) sur Internet, et non créé pour l’occasion. N’importe qui peut faire la même chose en cherchant bien sur le Web.

Les pirates ont par contre réalisé un bon travail de social engineering, puisque quelqu’un à TV5 Monde a cliqué sur la pièce jointe infectée, ce qui leur a permis ensuite de connecter la machine à leur centre de commande, avant d’infiltrer l’intérieur du réseau, au moyen d’une série de malwares, comme des keyloggers.

Une fois que les hackers ont réussi à mettre la main sur les identifiants des comptes sociaux de TV5 Monde, ceux-ci ont peut-être décidé d’endommager le réseau de l’entreprise, en effaçant des disques durs. C’est sûrement ce genre d’action (non planifiée) qui a entraîné l’interruption des programmes. La chaine a été amenée à suspendre ses programmes pour diverses raisons, probablement parce que le réseau interne, bureautique, ne fonctionnait plus, qu’il n’était peut-être pas très bien séparé du réseau utilisé pour le “broadcasting”.

Comment réellement hacker une chaine de télé ?

Pour vraiment prendre le contrôle de l’antenne, autrement dit prendre le contrôle des serveurs communiquant entre une chaine et un satellite, il faut avoir des connaissances très pointues dans le matériel de contrôle des processus industriels. Il faut pouvoir reproduire tout ce matériel, pour tester son attaque. Le hasard n’a pas sa place dans une attaque de ce type, et nous sommes très loin de la cyberattaque contre TV5 Monde.

Quand les renseignements israéliens et américains ont conçu le ver informatique Stuxnet pour attaquer une centrale d’enrichissement d’uranium en Iran, ils ont passé des mois et des années à répliquer tous l’environnement de la centrale : ils ont reconstruit la centrale dans le désert, afin de pouvoir tester leur attaque.

D’abord, il faut savoir quel matériel est utilisé par la cible, et comment il est structuré. Cela nécessite un travail de reconnaissance avancée, pointue, de l’espionnage. Il faut avoir un complice à l’intérieur, réussir à scanner le réseau, et progresser très lentement en utilisant plusieurs stratégies d’attaque – ce que l’on appelle de l’APT (Advanced persistent threat).

Ensuite, il faut posséder les fonds et les moyens suffisants pour reproduire l’architecture (la chaine de production) de la cible dans un laboratoire, puis développer un virus specifique, qui sera lancé au bon moment, une seule fois. Cela coûte trop cher pour une cellule isolée – il s’agirait dans ce cas, d’une cellule bien plus avancée, bénéficiant du soutien financier d’un Etat ou d’une organisation.

L’on est loin des cybercriminels interessés par l’argent, ou des “hacktivistes”, qui misent beaucoup sur la chance : il s’agirait, ici, de véritable “mercenaires” payés par des Etats, très compétents, avec des moyens colossaux derrière eux, et souvent impliqués dans le vol de propriété industrielle, l’espionnage étatique ou la destruction de cibles militaires. Dans le cas d’attaques réellement sophistiquées, le piratage est tellement bien fait que l’on ne saura jamais qu’il y a eu piratage, à moins de révélations telle que celle d’Edward Snowden.

Propos recueillis par Fabien Soyez

Et aussi dans les
ressources documentaires :

Livre blanc – Cybercriminalité : avez-vous le profil d’une victime ?

En permettant de réaliser des calculs jusqu’ici impossibles, les ordinateurs quantiques pourraient briser les systèmes asymétriques de chiffrement. Les chercheurs tentent de trouver une parade à ces “attaques quantiques”, qui menacent la sécurité du Web. Mais, en attendant, que faire pour se protéger des attaques les plus courantes ? Nous allons vous montrer comment surfer sur le Web incognito, sécuriser votre ordinateur, stocker des données privées mais aussi comment faire pour récupérer votre compte si vous avez été piraté et éviter que cela ne recommence… Suivez le guide !

Des chercheurs dressent le portrait d’une particule de matière noire

Elle pèserait 100 eV/c² , soit 0.02% de la masse d’un électron, et serait incapable de pénétrer dans l’atmosphère terrestre. Deux caractéristiques de la particule qui composerait la matière noire selon James Bateman, de l’Université de Southampton au Royaume-Uni. Cette hypothèse est présentée dans Scientific Reports. L’incapacité de la particule à rentrer dans l’atmosphère expliquerait pourquoi elle n’a jamais été détectée. Fort de ce constat, les chercheurs proposent un protocole de détection original. Il suffirait de suspendre une nanoparticule dans l’espace.

Celle-ci serait alors exposée au flux de matière noire, ce qui devrait générer une interaction mesurable. En étudiant le comportement de la nanoparticule, il sera possible de valider ou non l’existence de la particule de matière envisagée.

Confiants dans leur modèle, les scientifiques vont se rapprocher du projet Macroscopic quantum resonator  (MAQRO) dont l’objectif est de tester les théories de la physique quantique en menant des expérimentations dans l’espace. Dans un communiqué, James Bateman espère que cette démarche de réfléchir à ce que pourrait être une particule de matière noire inspirera d’autres chercheurs, rappelant qu’à ce jour « […] aucune expérience ou observation ne contredit l’existence de cette particule ».

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Un crustacé possède un matériau plus solide que le fil d’araignée

Les fils d’araignée sont moins résistants que les dents des berniques, limpet en anglais, ces petits crustacés porteurs d’une coquille en forme de chapeau chinois qui leur donne leur surnom de « chapeau chinois ». Ce sont les terribles révélations parus dans Journal of the Royal Society Interface. Alors que la communauté arachnide est sous le choc, les humbles escargots des mers continuent de broyer des morceaux de roche comme si de rien n’était. 

L’équipe du Professeur Asa Barber de l’université de Portsmouth a effectué des mesures avec un microscope à force atomique (AFM) et les résultats forcent l’admiration. Les dents des patelles présentent une résistance à la rupture comprise entre 3000 et 6500 MPa, quand la soie d’araignée ne supporte « que » 1000 MPa en moyenne. Cette résistance à la traction est due à la composition même des dents du crustacé. Le minéral qui les compose est de la goethite, un matériau réputé pour sa grande dureté. Désormais, l’animal possédant le matériau le plus résistant est donc la patelle, avec ses dents ultra-résistantes, loin devant la soie d’araignée pourtant déjà 6 fois plus résistante à la rupture que le kevlar. 

Spiderman n’a qu’à bien se tenir, Limpetman n’en ferait qu’une bouchée.

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Au Mexique, la ville de La Paz passe au 100% solaire + stockage

L’Uruguay, un pays dans le vent

Grand comme un tiers de la France et peuplé par 3,4 million d’habitants, l’Uruguay a choisi de miser sur les énergies bon marché et durables. Situé sur le littoral Atlantique et à cheval entre l’Argentine et le Brésil, ce petit pays jouit d’un facteur de capacité de l’éolien terrestre de 35% en moyenne. L’éolien se combine parfaitement à l’élevage du bétail, l’une des principales activités économiques de ce membre du Mercosur.

La demande électrique uruguayenne est de 11 TWh par an, soit l’équivalent de la moitié de celle de la Bretagne. Dans le passé la moitié de l’électricité provenait des énergies fossiles, et l’autre moitié de l’hydraulique. La part de l’hydroélectricité est la même aujourd’hui, mais les énergies fossiles régressent rapidement grâce à la très forte poussée de l’éolien. Très bon marché l’électricité obtenue à partir du vent fait baisser la facture électrique des consommateurs. Ce qui est très apprécié dans ce pays où un quart de la population vit sous le seuil de pauvreté.

En 2016 l’Uruguay comptera une puissance éolienne d’1,2 GW délivrant 3,7 TWh par an et répondant à environ 30% de la demande électrique nationale. La bioélectricité et le solaire photovoltaïque contribueront à hauteur de 10% au mix électrique du pays qui sera alors au final à 90% d’origine renouvelable. Il ne restera alors que 10% d’énergie fossile à éliminer durant les années suivantes.

L’Uruguay aimerait doubler le Danemark pour accéder au titre de champion du monde de la part d’éolien dans le mix électrique. Mais, malgré ce qu’en dit la presse latino-américaine par fierté continentale, il n’y parviendra très probablement pas. Le pays de la petite sirène a produit en effet 39% de son électricité à partir du vent en 2014 selon l’opérateur danois Energinet. Selon les experts il dépassera les 40% en 2015 et parviendra à franchir la barre des 50% avant 2020. En France, pays qui dispose de trois façades maritimes très bien ventées, l’éolien a pesé 3,6% en 2014.

Au Mexique, la ville de La Paz (215.000 habitants) passe au 100% solaire + stockage

La Paz, ville littorale de l’état de Baja-California, était déjà leader du pays d’Emiliano Zapata avec un parc solaire PV de 39 MW (Aura Solar 1) répondant aux deux tiers de sa demande électrique. Mais pour réduire encore davantage la facture en combustibles fossiles cette ville dont la population est équivalente à deux fois celle de La Rochelle va s’équiper d’un second parc solaire de 27 MW (Aura Solar 2), parc couplé à une batterie de 11 MW. Le développeur du projet est l’entreprise Grupotec.

Dans cette région du monde inondée de soleil la demande électrique suit fortement l’insolation solaire, du fait de la forte demande en climatisation. Le solaire est ainsi parfaitement adapté. Les 66 MW cumulés de solaire PV délivreront sur 24 heures une puissance moyenne d’environ 19 MW. Les 11 MW de batterie seront suffisants pour assurer la couverture électrique nocturne.

Le projet Aura Solar 1 n’a bénéficié d’aucune subvention. L’électricité est vendue à la Comisión Federal de Electricidad (CFE) dans le cadre d’un contrat PPA (Power Purchase Agreement) d’une durée de 20 ans.

Le gouvernement fédéral mexicain s’est fixé un objectif de 6 GW de solaire à horizon 2020. Ce marché émergent suscite un intérêt croissant.

Le Costa-Rica porté par les rivières et les volcans

L’hydroélectricité et électricité géothermique ont délivré 100% de l’électricité consommée au Costa-Rica durant les 75 premiers jours de 2015. Grand comme deux fois la Bretagne et peuplé par 5 millions d’habitants, ce pays d’Amérique centrale jouit de ressources naturelles (rivières et volcans) qui lui ont grandement facilité la tâche.

Plus au sud le Pérou va distribuer des panneaux solaires aux deux millions de plus pauvres du pays. Coût du programme ? Seulement 200 millions de dollars, soit une moyenne de 100 dollar par personne aidée. 125.000 systèmes photovoltaïques seront installés, permettant d’alimenter en électricité 500 000 foyers comptant 4 personnes en moyenne.

Au Chili les industriels des mines (notamment de cuivre) commencent à prendre conscience de l’intérêt du solaire pour répondre à leurs besoins en énergie et de grands projets solaires sont en cours. Dont un, « Espejo de Tarapaca », particulièrement intéressant en mariant 600 MW de solaire PV avec une STEP de 300 MW (stockage hydraulique gravitaire). D’autres projets combinent de manière judicieuse solaire photovoltaïque et solaire thermodynamique avec stockage thermique (Lire sur Techniques de l’ingénieur l’article « La prometteuse alliance du solaire…avec le solaire !« ).

La filiale chilienne du français EDF Energies Nouvelles a annoncé le 14 avril 2015 qu’elle « a entrepris la mise en œuvre de son premier projet de centrale solaire, Laberinto, d’une puissance installée de 146 MWc. Situé dans le désert d’Atacama, au nord du Chili, ce projet bénéficie du plus haut niveau de radiation solaire au monde. »

Et au nord ?

Au nord du continent américain une étude réalisée par 70 scientifiques, ingénieurs et professeurs d’université provenant de l’ensemble des provinces du Canada a été publiée le 18 mars 2015 et conclut que le Canada, qui produit dès à présent une bonne partie de son électricité à partir de la grande hydraulique, peut passer au 100% renouvelable dès 2030.

Les énergies fossiles pèsent aujourd’hui 23% dans le mix électrique de ce grand pays nordique, et elles peuvent être selon les auteurs du rapport facilement remplacées par l’éolien et le solaire. La ressource éolienne est remarquablement abondante dans le nord de la Colombie Britannique et du Québec. Et l’insolation est particulièrement intéressante dans les provinces de l’Alberta et du Saskatchewan. Différentes technologies (dont le solaire bifacial) permettent d’ailleurs de tirer profit de l’albedo élevée de la neige et de la glace.

A noter qu’en Europe le réservoir hydraulique scandinave, de même nature que le réservoir canadien et également sculpté par l’érosion glaciaire, a un volume largement suffisant pour permettre à l’ensemble de l’Europe de passer à une très forte teneur d’électricité solaro-éolienne (Lire sur Techniques de l’ingénieur le livre blanc: « La Norvège, future batterie bleue de l’Europe ?« ).

Au Texas la ville de Georgetown passe au 100% solaro-éolien…Parce que cela coûte moins cher que les énergies sales conventionnelles. Le solaire PV a représenté un tiers des nouvelles puissances électriques installées aux USA en 2014.

Selon une étude publiée le 16 mars 2015 dans la prestigieuse revue Nature Climate Change (Letter) par Rebecca R. Hernandez et al, le solaire peut répondre à 500% des besoins en énergie (y compris transports et chaleur) de la Californie, la 8ème puissance économique mondiale et peuplée de 38 millions d’habitants. Ceci en se limitant aux surfaces favorables des sites déjà anthropisées et en préservant intégralement les espaces naturels.

Par Olivier Daniélo

Vers une refonte du soutien aux panneaux solaires sur les bâtiments

La ministre « souhaite qu’une réflexion s’engage rapidement pour supprimer les tarifs d’achat +intégré+ et +intégré simplifié+ au bâti au 1er janvier 2016 pour les bâtiments existants », a-t-elle déclaré à l’occasion du colloque sur les énergies renouvelables électriques de l’Ademe à Paris.

Actuellement, le tarif auquel EDF rachète l’électricité produite par le solaire sur les bâtiments est d’autant plus important que les panneaux sont intégrés à la toiture.

Effet pervers de ce système: si l’intégration au bâti est facile lors de la construction de bâtiments neufs, elle coûte très cher pour les bâtiments existants.

Ces coûts sont répercutés sur la CSPE, la taxe payée par tous les consommateurs sur leur facture d’électricité et qui sert notamment à financer le développement des énergies renouvelables.

« Ce report vers des panneaux surimposés permettra de faire plus de projets photovoltaïques en maîtrisant les coûts notamment dans les zones commerciales », a précisé la ministre.

Toujours sur le solaire, l’appel d’offres en projet pour le développement de centrales associées à du stockage d’électricité en outre-mer devrait être publié « avant le 8 mai », a-t-elle ajouté.

Par ailleurs, elle a confirmé que les travaux de zonage « avancent » pour le troisième appel d’offres d’éolien en mer. Les futurs parcs seront probablement situés sur les côtes de la Manche, où le potentiel est important, et non en Atlantique ou au large de la Bretagne, a précisé le ministère à l’AFP.

Enfin, alors que la loi sur la transition énergétique est examinée à partir de ce mardi en commission spéciale à l’Assemblée nationale, Ségolène Royal a rappelé sa volonté de revenir à une distance de 500 mètres minimum entre les habitations et un parc éolien.

Le Sénat a adopté début mars un amendement pour porter cette distance à 1.000 mètres, suscitant les protestations des industriels du secteur.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Au cœur du réacteur numéro 1 de la centrale de Fukushima Daiichi

Tombé au champ d’honneur pour la Tokyo Electric Power Company. Le tristement célèbre exploitant de la centrale nucléaire accidentée de Fukushima a abandonné l’idée de pouvoir récupérer leur robot explorateur polymorphe, envoyé dans les entrailles de l’enceinte de confinement primaire du réacteur numéro 1 de la centrale de Fukushima Daiichi. En cause : la radioactivité démesurée qui régnerait plus que jamais à l’intérieur de l’épais sarcophage.

Un robot explorateur envoyé au casse-pipe

Le robot de 60 centimètres de long, développé par le géant japonais de l’électronique Hitachi et sa filiale Hitachi-General Electric pour l’énergie nucléaire (Hitachi-GE Nuclear Energy), est entré dans l’enceinte de confinement primaire du réacteur numéro 1 à 9h25 le 10 avril, pour ne plus donner de signes de vie vers 14h (heure locale).

Première de ses cascades, le serpent robotique a tout d’abord dû se faufiler gaillardement à travers une canalisation de seulement 10 centimètres de diamètre. Réchauffés par ce premier succès, les techniciens japonais tentent alors un scénario à la Mission Impossible : suspendre le robot téléguidé au dessus du vide, tel un Ethan Hunt électronique, avant d’atteindre la plate-forme en contrebas, se situant juste en dessous de la partie inférieure du cœur du réacteur, une zone baptisée par les ingénieurs de la Tepco « le piédestal ».

Le serpent robotique est articulé de telle manière qu’il puisse se transformer en un petit véhicule sur chenilles, sorte de petit char d’assaut multifonction en forme de « U ». Introduire un appareil télécommandé dans l’enceinte confinée du réacteur ne fut donc pas chose aisée, et c’est d’ailleurs la première fois depuis 2011 qu’un robot pénètre à l’intérieur de ce sanctuaire.

« Pas de dégâts majeurs des principaux équipements »

Les ingénieurs japonais semblent néanmoins satisfaits de la prestation du petit bolide, qui ne serait pas mort en vain. En près de 4h30 de mission officielle, le robot explorateur serait parvenu à examiner quatorze des dix-huit points d’inspection, offrant des images inédites et effectuant un grand nombre de relevés. Le succès des ingénieurs, partis à la recherche de données cruciales, doit toutefois être relativisé, tant ces fameux relevés de radioactivité sont alarmants.

Les chiffres parlent d’eux-mêmes : les relevés font état d’une radioactivité allant de 6 sieverts par heure à près de 25 sieverts par heure, quantités mortelles pour tout être humain en moins d’une heure. Pire, les Japonais ne savent toujours pas où est passé le combustible fondu du réacteur 1 (ni celui des réacteurs 2 et 3). Pourtant, à entendre le porte-parole de Tepco lors d’une conférence de presse ce lundi, l’exploitant de la centrale n’a pas « repéré de dégâts majeurs des principaux équipements ». Une nouvelle incursion, utilisant une autre voie d’accès, devrait être tentée d’ici peu.

Par Moonzur Rahman

Et aussi dans les
ressources documentaires :

Le ResearchKit d’Apple au service de la recherche médicale : promesses et questionnements

Description rapide du ResearchKit

Cette initiative s’appuie sur un état de fait fondamental: des centaines de millions de personnes dans le monde possèdent un iPhone et le portent sur eux chaque jour des heures durant. Or l’appareil est équipé de nombreux capteurs et outils (microphone, écran tactile, accéléromètre, géolocalisation, etc.) pouvant se révéler utiles à des fins médicales si utilisés dans ce but. A côté de cela, la recherche médicale est depuis des décénnies confrontée aux mêmes limitations: différences parfois drastiques entre les conditions de réalisation des études et le comportement en « vie réelle » des patients, difficultés de recrutement de sujets volontaires, manque d’homogénéité des protocoles et par conséquent fréquentes difficultés à comparer et agréger les résultats d’études différentes.

A travers l’annonce du ResearchKit, Apple entend répondre à sa manière à ces enjeux. Il mettra ainsi à disposition dans le mois à venir un framework totalement ouvert, visant à permettre à toute organisation souhaitant conduire un programme de recherche pouvant tirer partie de la forte pénétration des produits d’Apple (iPhone et bientôt iWatch) au sein de la population, de développer aisément une application mobile répondant à ses besoins. Des détails supplémentaires concernant le ResearchKit sont disponibles sur le site de la société californienne.

Des promesses intéressantes pour la recherche

Comme indiqué en introduction, le ResearchKit entend fournir aux chercheurs les capacités de conduire des études facilement, sur des cohortes nombreuses, en récupérant des données enregistrées en temps réel, de manière centralisée et reproductible, et ceci dans des conditions relevant des conditions de vie quotidienne des sujets. Cinq applications/études sont déjà disponibles, traitant de pathologies variées (Parkinson, diabète, asthme, cancer du sein et maladies cardiovasculaires), et ceci en partenariat avec des institutions parmi les plus respectées du secteur, dont le Massachussets General Hospital, l’Université Cornell, ou encore les universités d’Oxford et de Stanford (en partenariat). Cette dernière étude, utilisant une application nommée MyHeartCounts, a par exemple vu plus de dix mille personnes télécharger l’application et s’inscrire à l’étude au cours des vingt-quatre heures ayant suivi son lancement. Ce succès retentissant témoigne du potentiel de ces études à large échelle, ainsi que de l’intérêt du grand public à la fois pour prendre part à des programmes de recherche médicale mais également pour utiliser plus largement les technologies modernes dans un but de suivi actif de leur santé. Mais cela pose également un certain nombre de questions réglementaires, éthiques et pratiques.

Des inquiétudes demeurent

Le premier sujet venant à l’esprit autour de la digitalisation de la médecine est bien souvent celui de la confidentialité et de la gestion des données individuelles de santé des patients. Sur ce point, Apple a choisi d’anticiper en assurant que la société « ne verra pas les données », pour reprendre les dires de Jeff Williams, directeur des opérations du groupe. L’accès à ces informations sera strictement soumis au consentement actif des utilisateurs, elles seront stockées de manière totalement chiffrée sur des serveurs extérieurs au géant californien, et uniquement accessibles par les équipes scientifiques et techniques des instituts de recherche. Plus encore, chaque sujet d’une étude peut choisir à qui permettre l’accès à ses données et de faire partie ou non de certaines bases de données agrégées qui seront inévitablement constituées dans un but d’étude sur le plus grand nombre. La transparence et la responsabilité est donc ici de mise, l’efficacité de l’utilisation de ces outils étant soumise à la volonté active des utilisateurs.

Néanmoins, malgré cette bonne volonté affichée, la question sous-jacente reste celle de l’anonymisation des informations individuelles et de son caractère irréversible, sachant qu’il est ici bien difficile d’assurer un risque zéro de ré-identification de certaines données collectées, et ce malgré la multiplication des initiatives à visée protectrice.

Ceci nous amène, a fortiori dans le domaine médical, au sujet non moins important du « consentement éclairé » (informed consent en anglais), qui est la clé de voûte réglementaire de toute recherche sur des sujets humains. Ceci consiste, antérieurement à tout engagement d’un patient au sein d’un essai clinique, de la mise en oeuvre des conditions pouvant attester de sa connaissance de la nature de l’étude et des risques qu’il encourt en s’y inscrivant. Cette étape est ici assurée sous la forme d’une « e-formation » sanctionnée d’une série de questions permettant de valider la prise de connaissance du patient en amont. Si cela offre une facilité de mise en oeuvre louable pour les chercheurs, se pose également la question de la vérification de l’identité de la personne validant son consentement, et plus encore de l’incapacité du patient à poser des questions au besoin, risquant ainsi de mettre en cause la validité du consentement.

L’une des inquiétudes sautant également aux yeux lorsqu’il s’agit d’utiliser son iPhone ou son iWatch pour participer à des études médicales est la question du biais dans le recrutement. Il est en effet évident que les individus rejoignant ces études possèdent d’ores et déjà l’un de ces objets, ce qui oriente considérablement le recrutement pour ce qui est de considérations sociologiques, ethniques, ainsi que de mode de vie. La surreprésentation de patients aisés, issus de pays industrialisés et évoluant dans des environnements semblables (en termes d’alimentation, de conditions sanitaires, etc.) est à prévoir. Or, l’un des piliers de toute étude de cohorte – sauf exception visant a priori une minorité quelconque – est justement d’assurer la représentativité de l’échantillon recruté au sein de la population. Au moment où jusqu’au Président Obama, l’on prend conscience aux Etats-Unis de la nécessité d’étudier la population dans sa diversité dans le but de mettre en relation des facteurs génétiques, environnementaux et de mode de vie, afin d’en extraire des corrélations faisant avancer notre compréhension de notre santé, cette inquiétude semble pour le moins justifiée. Il est possible que de par la pénétration sans cesse grandissante des équipements Apple dans le monde et le potentiel sans précédent en termes de nombre de personnes susceptibles de s’inscrire à ces études, ce biais soit in fine compensé. Il sera néanmoins important de garder ce sujet à l’esprit et de suivre les éventuelles réactions d’ordre réglementaire de la FDA durant les prochains mois.

Un paysage compétitif

Le ResearchKit est néanmoins à l’évidence une bonne nouvelle pour la recherche médicale, et une nouvelle corde prometteuse à l’arc des instituts de recherche dans le monde. En le rendant open source, c’est-à-dire accessible et modifiable par tous, Apple accomplit ici une initiative en partie désintéressée. Il convient néanmoins de replacer cette annonce dans un contexte de compétition féroce des géants de l’internet américains dans l’investissement du secteur de la santé au cours des dernières années. De ce point de vue, Apple est clairement en retard sur ses concurrents qui fournissent d’ores et déjà des services en ligne de stockage de données génomiques (Google Genomics et Amazon Web Services – Genomics), sans compter les multiples investissements de Google dans des sociétés de biotechnologies (via Google Ventures notamment), sa recherche au sein du groupe Google Life Sciences de Google X, son partenariat récent avec le géant pharmaceutique Novartis pour le développement de lentilles de contact intelligentes permettant de suivre son taux de glucose dans le sang, ou encore son implication dans la création de Calico, société de biotechnologies s’attachant à freiner le vieillissement humain.

Apple, dont l’iWatch a été conçue en partie comme un dispositif quasi-médical et le HealthKit d’ores et déjà bien lancé, confirme donc son intérêt pour le secteur de la santé ainsi que son intention de rivaliser avec ses rivaux principaux.

Le ResearchKit semble ainsi l’un des éléments d’un mouvement de fond du milieu de la santé, et témoigne parfaitement de ce grand mouvement appelé « médecine de précision » (Precision Medicine), sur toutes les lèvres dans le secteur, de la Silicon Valley à la Maison Blanche. Certains y voient déjà les premiers soubresauts d’une ère naissante où chacun aura bientôt accès à un large panel de capteurs, intégrés dans nos montres, téléphones portables, lentilles de contact, vêtements ou mêmes équipements domestiques, et permettant de suivre l’évolution du fonctionnement de son corps en continu sur des critères extérieurs et biologiques. L’utilisation de solutions logicielles de traitement de données faisant appel aux progrès de l’intelligence artificielle pourrait dès lors permettre à chacun de suivre sa santé de près, d’évaluer sa réaction à différents traitements, de prédire d’éventuelles pathologies et même à terme de se voir prévenir en avance aux premiers signes de trouble. Les prochaines années devraient ainsi voir se multiplier les innovations à la frontière des technologies de l’information et de la médecine, avec d’immenses motifs d’espoir pour la vitalité de l’innovation thérapeutique.

Source : bulletins-electroniques

Et aussi dans les
ressources documentaires :

Reach/CLP : toute l’actualité d’Avril 2015

  • 02/04/2015  

France – Un avis aux opérateurs économiques est paru au journal officiel du 31 mars 2015. Il vient modifier l’Annexe de l’avis publié au JO du 14 janvier 2015, qui rappelait aux opérateurs la mise à jour de la liste des SVHC.

  • 18/03/2015

Evaluation (substances) – L’ECHA a adopté la version finale du plan d’action continu communautaire (CoRAP) pour la période 2015-2017, il contient 134 substances à évaluer. 21 états membres auront, durant les 3 années à venir, à évaluer 68 substances provenant de la précédente mise à jour du CoRAP ainsi que 66 substances nouvellement sélectionnées. A ce jour, les états membres ont 12 mois pour évaluer les 48 substances prévues pour 2015. Les déclarants ayant enregistré ces substances sont invités à prendre contact au plus vite avec les états membres évaluateurs afin de coordonner leurs actions. Brève de l’ECHA

  • 10/03/2015

Autorisation et SVHC – L’ECHA a lancé une consultation publique concernant 2 propositions d’identification de SVHC. Des commentaires peuvent être soumis jusqu’au 16/04/15.

  • 05/03/2015

Restrictions – L’annexe XVII du réglement REACH a été modifiée par le réglement (UE) n°2015/326 du 02 mars 2015. Celui-ci introduit notamment une nouvelle méthode d’essai pour les HAP (entrée 50). Il modifie également les entrées 51 et 52 en supprimant formellement l’échéance de re-examen fixée à 2010, aujourd’hui dépassée.

  • 03/03/2015

France – Le MEDDE a confié à l’Anses, le soin de réaliser une analyse de la meilleure option de gestion des risques (RMOA) sur le Na5DTPA et l’acide de DTPA, en raison des préoccupations vis à vis de ces substances : volumes de production importants, applications fortement dispersives et notifications de classification des industriels comme toxique pour la reproduction de catégorie 2 selon CLP. A la suite d’un an de travail sur ces substances, l’Anses a rendu un avis le 23/01/15. Cet avis décrit différentes options possibles pour gérer les risques identifiés pour ces substances. Une consultation publique d’1 mois est ouverte sur cet avis jusqu’au 03/04/15.

Par Pierre Thouverez

Sources : 

Au lieu de recourir au gaz de schiste, et si on se chauffait au nucléaire ?

Faisons l’hypothèse que la France décide de ne pas inscrire sa trajectoire vers un mix électrique à plus de 80% d’énergies renouvelables d’ici 2040, et de rester à un niveau inférieur à 20% comme aujourd’hui. Ce ne sont pas moins de 800 TWh-thermiques de chaleur nucléaire actuellement bêtement perdue qui pourraient alors être valorisés chaque année. Assez pour chauffer toute la France.

Il est possible de transférer la chaleur sur 100 km avec seulement 2% de perte, et bien davantage en acceptant un niveau de perte supérieur. Les centrales nucléaires étant éparpillées sur tout le territoire français, toutes les villes françaises pourraient bénéficier de cette chaleur.

La quantité de déchets radioactifs par unité d’énergie valorisée pourrait alors être divisée par trois. La balance commerciale française y gagnerait compte-tenu de la réduction massive des importations de gaz naturel en provenance de Norvège (38,4% en 2012), Pays-Bas (14,5%), Russie (14,4%) et Algérie (8,4%).

Réalisme et pragmatisme

Le chauffage électrique consomme environ 60 TWh-électriques par an. La valorisation de la chaleur nucléaire actuellement perdue permettrait ainsi de réduire de 12% la demande électrique nationale et de 15% la production électro-nucléaire. Ou alors de répondre à 80% aux 75 TWh nécessaires pour alimenter en électricité l’intégralité du parc de voitures particulières national (il faut ajouter environ 40 TWh pour les utilitaires, les cars et les bus). De quoi soulager considérablement la facture pétrolière.

Une fois que les centrales nucléaires seront arrivées en fin de vie, les réseaux de transport et de distribution de la chaleur ne seront pas inutiles : les centrales sont localisées à proximité d’une source d’eau (fleuve, rivière, mer). Il sera alors possible de convertir les centrales nucléaires en pompes à chaleur aquathermiques. Une technologie qui suscite actuellement une véritable ébullition au niveau du ministère de l’énergie britannique.

Plutôt que de réaliser en France des centaines voir des milliers de forages pour prélever le gaz de schiste, un combustible fossile qui aggravera le bilan en GES de la France et dont l’extraction n’est pas neutre sur le plan environnemental et paysager, installer un système de transport et distribution de la chaleur (invisible) depuis les 19 centrales nucléaires françaises semble bien plus pertinent. Tant sur le plan économique qu’écologique. La France est « le plus beau pays du monde » selon un documentaire sponsorisé par GDF Suez, il serait regrettable de le souiller et de dégrader ses paysages par l’exploitation du gaz de schiste.

En France le gaz de schiste n’a strictement aucun intérêt sur le plan climatique au niveau du secteur électrique. En outre l’efficacité énergétique d’un véhicule électrique (technologie développée par exemple par Renault) est supérieure à celle d’un véhicule au gaz naturel. Dans le domaine énergétique l’intérêt du gaz concerne donc principalement le secteur de la chaleur.

Si le nucléaire induit de nombreux problèmes (déchets, risque de catastrophe, importations d’uranium, une ressource épuisable), il a aussi de nombreux avantages:

  1. Le capital du parc nucléaire français est déjà amorti, ce qui permet de produire aujourd’hui un kWh à environ 6 c€ selon la cour des comptes. Prolonger la durée de vie des 60 GW centrales coûtera 110 milliards d’euros (grand carénage) selon la cour, soit environ 2€/W ;
  2. La production d’1 kWh de nucléaire émet peu de CO2 (au niveau des mines d’extraction, de la concentration de l’U235…) ;
  3. La production électro-nuclaire opère en base, indépendamment de la météo.

Dans le contexte français, compte-tenu du parc électro-nucléaire déjà en place et de la situation financière calamiteuse de l’état français, la valorisation de la chaleur nucléaire est manifestement l’un des puissants leviers dans la perspective d’une transition rapide vers un mix énergétique décarboné.

La France pourrait ainsi focaliser ses efforts d’investissement d’une part sur la construction du réseau de transport et distribution de la chaleur nucléaire et d’autre part sur l’électrification du parc automobile. Elle réduirait alors massivement ses importations pétrolières. En plus de celle des importations gazières.

La France deviendrait alors encore bien davantage nucléaire qu’elle ne l’est aujourd’hui, mais ceci sans produire un seul gramme de déchets radioactifs en plus.

Une optimisation de l’existant, en somme.

Par Olivier Daniélo

La Grèce veut bien du gazoduc Turkish Stream, mais sous un autre nom

Alors que l’Occident et la Russie vivent leur crise la plus grave depuis la fin de la Guerre froide, le Premier ministre grec, Alexis Tsipras, s’est rendu à Moscou en visite officielle les 8 et 9 avril. Les membres des gouvernements grec et russe ont principalement parlé d’énergie.

Le 7 avril, les ministres des Affaires étrangères grec, hongrois, serbe, turc et macédonien se sont réunis à Budapest et ont signé une déclaration d’intention concernant le projet de gazoduc Turkish Stream.

Le nouveau projet de gazoduc russe évite de passer par l’Ukraine et par la Bulgarie, qui a bloqué la construction du projet précédent, South Stream. Turkish Stream traversera la mer Noire vers la plateforme gazière de la ville turque d’Ipsila, près de la frontière gréco-turque. Il permettra d’acheminer 47 milliards de mètres cubes de gaz vers l’Europe centrale et les Balkans.

Alexis Tsipras et Vladimir Poutine estiment tous deux que la Grèce pourrait jouer un rôle important dans la concrétisation du projet, en devenant un pont entre la Turquie et le marché du gaz européen.

« Le nouveau tracé permettra de répondre aux besoins en énergie de l’Europe et à la Grèce de devenir l’un des principaux centre de distribution d’énergie du continent, ce qui pourrait attirer un investissement considérable vers l’économie grecque », a déclaré le président russe lors de sa conférence de presse commune avec Alexis Tsipras.

« Nos gazoducs recevront le gaz à la frontière turque et contribueront à la sécurité énergétique de la Grèce et du marché européen », a souligné le Premier ministre grec, qui ajoute que le projet russe permettra de créer de l’emploi et de la croissance dans le pays, en proie à une grave crise de dette.

Attention aux appellations

Alors qu’il parlait de la branche grecque du gazoduc, Vladimir Poutine a utilisé le nom « Turkish Stream », ce qui a provoqué une réaction du chef d’État grec.

« Nous devons être clairs […] il n’y aura pas de Turkish Stream sur le territoire grec, mais un gazoduc grec », a-t-il fait remarqué. Vladimir Poutine a reconnu son erreur en se frappant la tête de la main.

« Nous ne pouvons pas accepter le nom ‘Turkisk Stream’, mais nous considérons que ce projet améliorerait nos relations avec la Turquie », a expliqué Alexis Tsipras par la suite.

Le président russe a indiqué que la présence du gazoduc engendrerait des millions d’euros de taxes de transit tous les ans en Grèce. Il créerait également de l’emploi. Le financement du projet doit cependant encore être négocié entre la Russie et ses « partenaires et amis grecs », selon Vladimir Poutine.

Alexis Tsipras a également souligné que le projet serait conforme aux législations grecques et européennes, qui interdisent que la production, la livraison et la détention des gazoducs soient entre les mains de la même entreprise.

Moscou envisagerait également de mettre des fonds à la disposition de la Grèce sur la base des profits futurs que le pays pourrait engranger en acheminant du gaz russe vers l’Europe.

La Russie avait proposé le même arrangement à la Bulgarie pour le projet South Stream, qui a été abandonné depuis. Sofia a en effet été contrainte de bloquer le projet parce que la Commission européenne estimait qu’il était contraire au troisième paquet sur l’énergie.

La Grèce importe 65 % de ses besoins en gaz de la Russie.Malgré un accord de réduction de 15 % des prix du gaz conclu l’année dernière entre l’importateur et distributeur de gaz naturel (DEPA) et Gazprom, la Grèce continue à payer la facture la plus salée d’Europe.

La création d’une entreprise commune pour la construction du gazoduc devrait être bientôt discutée en Grèce. DEPA, l’entreprise d’État grecque, en serait le principal actionnaire, suivit par des fonds russes.

Divisions politiques au gouvernement grec ?

Lors d’une visite à New York, Panos Kammenos, chef de file des Grecs indépendants, le partenaire de coalition de Syriza, s’est exprimé en faveur d’un accord « entre gouvernements » avec les États-Unis pour l’exploitation commune du gaz et du pétrole de la mer Égée.

Après avoir souligné le rôle des États-Unis dans la stabilisation de la région, Panos Kammenos, le ministre grec à la Défense, a indiqué qu’« étant donné les réserves de gaz et de pétrole récemment découvertes dans la région, la Grèce et Chypre pourraient former un arc pacifique dans la région »

Pourtant, lors d’une rencontre avec Alexei Miller, un des dirigeants de Gazprom, Panagiotis Lafazanis, le ministre de l’Énergie grec (Syriza), a déclaré que des entreprises russes répondraient à l’appel d’offre concernant la prospection des 20 poches d’hydrocarbures dans la mer Ionienne et au large de l’île de Crète.

« Je suis heureux de pouvoir vous annoncer que d’importantes sociétés russes participeront aux appels d’offre, ce qui renforce considérablement l’intérêt international et la participation dans le projet », a-t-il déclaré.

Le ministre de l’Énergie n’a pas tenu à commenter les déclarations de Panos Kammenos sur un possible accord avec Washington.

La coopération avec Israël devrait toutefois se compliquer, puisque le gouvernement, emmené par Syriza, souhaite reconnaître officiellement la Palestine.

Dans un entretien accordé à EurActiv Grèce, l’eurodéputée Syriza confirmait de fait que « le gouvernement grec s’est engagé à reconnaître l’État de Palestine […] et devrait concrétiser cet engagement dans un avenir proche ».

Source : Euractiv

Et aussi dans les
ressources documentaires :

Des nano-vecteurs multitâches combinant imagerie et traitement pour les cancers

Testées sur des cellules humaines en culture et chez la souris, elles permettent de combiner deux modes de traitement des tumeurs et trois techniques d’imagerie. Elles auraient notamment une capacité de stockage et de transport des médicaments plus importante que les vecteurs actuellement sur le marché, ce qui augure de perspectives intéressantes en cancérologie. Ces résultats sont publiés dans la revue PNAS, le 4 février 2015.

Concevoir un outil permettant de coupler trois techniques d’imagerie complémentaires (IRM, imagerie par fluorescence et un type d’imagerie ultrasonore dite « photo-acoustique ») et deux types de traitements (chimiothérapie et thérapie photo-thermique), le tout dans une sphère de 150 nanomètres de diamètre, c’est la prouesse que vient de réussir une équipe internationale de chimistes et de spécialistes d’ingénierie biomédicale. Pour cela, les chercheurs ont synthétisé des objets hybrides, constitués d’une coque de silice nanoporeuse abritant des nanoparticules d’or aux propriétés exceptionnelles : les clusters d’or. 

Les clusters d’or sont des nanoparticules de petite taille (moins de 2 nanomètres) possédant des propriétés intéressantes (fluorescence, production de chaleur, magnétisme), très différentes de celles de l’or massif ou même des nanoparticules d’or plus grosses. Toutefois, leur manque de stabilité en milieu aqueux (elles ont tendance à s’agréger pour former des particules plus grosses) a jusqu’à présent empêché leur utilisation en biologie et médecine. En faisant « infuser » des coques en silice poreuses avec des précurseurs d’or, les chercheurs ont réussi à former des clusters d’or dans les pores de l’enveloppe (ce qui les stabilise) et des nanoparticules d’or plus grosses dans la cavité centrale. Cette structure de « hochet quantique » est stable en solution aqueuse, pénètre au cœur des cellules sans toxicité, et préserve les propriétés optiques et magnétiques des clusters d’or, tout en permettant de maximiser leur capacité de stockage de médicament.

L’incorporation d’or, hydrophobe, dans la sphère de silice a permis d’accroître très significativement les capacités de stockage de doxorubicine, un agent anticancéreux souvent difficile à stabiliser dans ce genre de matrice poreuse. Les chercheurs estiment que, par rapport aux vecteurs actuellement commercialisés (de type liposome), la proportion des molécules qui atteindraient leur cible passerait de 5 % à 95 %. A cette capacité de transport de médicaments s’ajoute un potentiel en thérapie photo-thermique : en effet, lorsqu’elles sont activées par un laser infrarouge, les particules contenant des clusters d’or émettent une fluorescence infrarouge, mais aussi suffisamment de chaleur pour tuer les cellules cancéreuses : leur température s’élève ainsi jusqu’à 51°C, ce qui cause leur mort. Chez la souris, cela a permis de réduire de 55 % la masse tumorale après un seul traitement.

Cette production de chaleur peut être exploitée aussi dans un objectif d’imagerie : elle provoque une dilatation transitoire des clusters d’or, ce qui produit des ultrasons, détectables comme lors d’une échographie. Par ailleurs, la fluorescence émise par les particules stimulées au laser traverse les tissus (qui n’absorbent pas les infrarouges de cette longueur d’onde) : elle peut donc être mesurée de manière non invasive. Enfin, pour des tailles inférieures à 2 nanomètres, l’or devient magnétique. Il est donc possible d’utiliser les hochets quantiques comme agent de contraste pour l’imagerie par résonance magnétique (IRM). Ces trois méthodes d’imagerie (imagerie par fluorescence infrarouge, imagerie photo-acoustique et IRM) permettent d’observer la tumeur de manière complémentaire, avec au final de très bonnes résolutions spatiale et temporelle.

Les scientifiques cherchent maintenant à optimiser ces nano-vecteurs. Ils aimeraient « fonctionnaliser » leur surface avec des marqueurs, afin qu’ils reconnaissent et ciblent spécifiquement les cellules cancéreuses. Enfin, ils espèrent parvenir à réduire la taille des particules d’or présentes dans la cavité centrale pour rendre le vecteur complètement biodégradable. 

Source : CNRS

10 chiffres sur les vapoteurs français

26 % ont essayé

Soit 12 millions de Français qui ont testé la cigarette électronique. Connue par 99 % des Français, la cigarette électronique a donc attisé la curiosité de plus d’un Français sur quatre.

6 % vapotent

S’ils ont été nombreux à essayer, seuls 3 millions de personnes, âgées entre 15 et 75 ans, vapotent régulièrement. Seulement 3 % des Français vapotent tous les jours, soit environ 1,5 million de personnes.

3,5 % d’hommes

La e-cig séduit plus les hommes que les femmes. Elles ne sont que 23 % à avoir testé contre 29 % des hommes, et restent moins nombreuses à vapoter occasionnellement puisqu’elles ne sont que 5 % contre 7 % chez les hommes. Les françaises sont 2 % à vapoter quotidiennement quand les hommes sont 3,5 %.

25-34 ans est la tranche d’âge la plus utilisatrice

8 % des 25-34 ans vapotent. La cigarette électronique est beaucoup plus utilisée par les jeunes, les séniors de 65-75 ans n’étant que 2 % à vapoter.

9 % vapotent depuis plus d’un an

En 2014, 47 % des adeptes de la e-cig le sont depuis moins de 3 mois. La moyenne d’ancienneté d’utilisation est de 4 mois. Finalement, seuls 9 % des vapoteurs le sont depuis plus d’un an.

64 bouffées/jour

Les vapoteurs quotidiens inhalent en moyenne 64 bouffées. Plus précisément, les fumeurs réguliers respirent 50 bouffées, les occasionnels 72, les ex-fumeurs 60 et ceux n’ayant jamais fumé 31.

86 % préfèrent les e-cig avec nicotine

La grande majorité des vapoteurs utilisent des modèles avec nicotine.

98% des vapoteurs sont des fumeurs ou ex-fumeurs

Clairement, la cigarette électronique a séduit les fumeurs qui y voient une occasion d’arrêter de fumer ou de limiter le tabagisme classique, tout en gardant la notion de plaisir.

0,9 % d’ex-fumeur ont réussi à arrêter de fumer grâce à la cigarette électronique.

L’enquête permet d’estimer l’impact de l’utilisation de la e-cig sur l’arrêt du tabac. Ce sont donc près de 400 000 personnes (15-75 ans) qui ont arrêté de fumer, au moins temporairement.

8,9 cigarettes en moins chaque jour

À défaut d’arrêter complètement le tabac, vapoter permet aux fumeurs de réduire leur consommation quotidienne de cigarettes standard de 8,9.

71 % vapotent car cela coûte moins cher

La cigarette électrique permet, selon les fumeurs vapoteurs, de faire des économies. C’est une des raisons principales qui les fait délaisser la cigarette standard au profit de la cigarette électronique. Mais deux tiers d’entre eux se justifient aussi par le fait que la e-cig est moins mauvaise pour la santé. Une idée partagée par les ex-fumeurs à 80 %.

Retrouvez l’intégralité de l’enquête Baromètre Santé 2014 de l’INPES ici.

Par Audrey Loubens

« 100% de renouvelables en 2050 »: l’étude de l’Ademe publiée par Mediapart

La fameuse étude de l’Ademe, téléchargeable ICI, évoque à horizon 2050 un scénario où 100% de l’électricité serait d’origine renouvelable. Une première. Et une perspective difficilement imaginable – voire totalement utopique – encore aujourd’hui pour de très nombreux experts en France.

Cette étude considérée comme « stratégique » a été réalisée par Mines Paristech en partenariat avec les sociétés spécialisées Artelys et Energie Demain. Ce document est un événement majeur en plein débat sur la transition énergétique française.

Programmée puis déprogrammée, cette étude s’est invitée au centre de l’actualité gouvernementale suite à un article paru le 4 avril dans le journal Le Monde. Nous en parlions également, dans un article paru le 27 mars.

Ce document de 120 pages sera très commenté et analysé dans les semaines à venir, notamment sur notre site.

Par P.T

Et aussi dans les
ressources documentaires :

4 idées reçues sur la transition énergétique allemande

Le socle de la transition énergétique allemande est basé sur la sortie totale du nucléaire d’ici 2022. La loi vise donc à faire de cette sortie un succès et définit la marche pour y parvenir. Elle prévoit notamment une baisse de la consommation électrique de 10 % en 2020 et 25 % d’ici 2050, par rapport à 2008 et une part d’énergies renouvelables de 80 % en 2050. La consommation électrique devra donc atteindre 556 térawattheures (TWh) en 2020. Elle est de 578,5 TWh fin 2014, soit une baisse déjà observée de 9,7 % depuis 2008.

Idée reçue n°1

  • La  sortie du nucléaire et le développement de l’énergie solaire en  Allemagne entraînent une  augmentation du recours au charbon

2008 marque le début des « années solaires » en Allemagne, avec un développement important des panneaux solaires. Entre 2008 et 2014, la production photovoltaïque est passée de 4,4 TWh à 34,9 TWh. Mais ce n’est pas tout. Dans ce même laps de temps, la production éolienne est passée de 40,6 TWh à 56 TWh et la production à base de biomasse de 23,1 TWh à 43 TWh. Entre 2008 et 2014, à eux seuls, l’éolien, le photovoltaïque et la biomasse ont donc permis de gagner 65,8 TWh.

La production nucléaire allemande baisse régulièrement depuis 2006. Le nucléaire produisait 148,8 TWh en 2008, 140,6 TWh en 2010, 108 TWh en 2011 et 97,1 TWh en 2014. Cette baisse est notamment marquée depuis 2011, avec la fermeture des 8 réacteurs les plus anciens. La fermeture des réacteurs et la baisse de la production nucléaire a entraîné un recul de production d’origine nucléaire de 51,7 TWh entre 2008 et 2014. 

En parallèle, entre 2008 et 2014, la production à base de charbon a perdu 15,6 TWh, celle à base de gaz a perdu 30,8 TWh, celle à base de fioul a perdu 3,7 TWh, lorsque la production à base de lignite a augmenté de 5,2 TWh. A y regarder de plus près, la diminution de la production de gaz a réellement commencé en 2011. Depuis, le gaz recule d’environ 9 TWh par an. La lignite a connu un regain d’intérêt entre 2011 et 2013, mais sa part a recommencé à diminuer en 2014. Même constat du côté du charbon.

Examinons cela plus en détail. Entre 2011 et 2012, le gaz a baissé de 9,7 TWh au profit d’une augmentation de 10,7 TWh de lignite et de 4 TWh de charbon. Entre 2012 et 2013, bien que le gaz ait baissé de 9 TWh, le charbon n’a augmenté que de 5,3 TWh. En 2014, les trois sources de production ont baissé, alors que les énergies renouvelables continuaient leur développement. Dire que le recours au charbon augmente en Allemagne est donc faux. Dire que cette hausse est due aux énergies renouvelables l’est encore plus !

Ci-dessus : Evolution interannuelle de la production de charbon, de lignite et de gaz en Allemagne (en TWh) et bilan net (en TWh) de l’évolution de la production de ces 3 énergies fossiles 

Bilan : entre 2008 et 2014, le nucléaire recule de 51,7 TWh, le charbon de 15,6 TWh, le gaz de 30,8 TWh, le fioul de 3,7 TWh, mais la lignite augmente de 5,2 TWh. Soit une diminution nette de production non renouvelable de 96,6 TWh. L’ensemble des énergies renouvelables ont permis de gagner 67,3 TWh et la baisse de production électrique nationale a été de 26,7 TWh. Le compte y est : la production à base d’énergie renouvelable et la hausse de l’efficacité énergétique (94 TWh) ont pleinement permis de contrebalancer la diminution de la production nucléaire et la baisse des énergies fossiles (93,6 TWh).

Entre 2008 et 2014, le solde d’exportation net est passé de 22,5 TWh à 35,5 TWh. Pour la première fois en 2014, la baisse de la consommation électrique en Allemagne s’est accompagnée d’une augmentation du PIB. L’Allemagne est donc parvenue, l’année dernière, à découpler croissance économique et consommation d’énergie. Cela reste néanmoins à confirmer. 

 

Idée reçue n°2

  • le recours au charbon pour gérer l’intermittence des ENR est inévitable

En 2014, le couple charbon-lignite a produit 43,1% de l’électricité allemande. Malgré le fort développement des énergies renouvelables, les émissions de CO2 du secteur de la production d’électricité en Allemagne ne sont passées que de 319 millions de tonnes équivalent CO2 (MtCO2) en 2008 à 301 MtCO2 en 2014 selon les statistiques officielles du Ministère fédéral de l’Environnement. Cette faible baisse en cache une autre. En 2009, les émissions du secteur représentaient 292 MtCO2, puis 305 MtCO2 en 2010 et 2011. Mais le recours accru au charbon, au détriment du gaz, les a fait rebondir à 317 MtCO2 en 2012 et 2013. Entre 2013 et 2014, la baisse de production de 28 TWh due aux énergies fossiles a entraîné une diminution des émissions de CO2 de 26 MtCO2. A l’avenir, ces émissions devraient continuer à baisser fortement grâce à la baisse de la production à base de charbon-lignite.

Le recours accru au charbon en Allemagne a été provisoire, dû à une conjoncture favorable au charbon, au détriment du gaz. Le Gouvernement prévoit un mix composé de 80% d’ENR et 20% de gaz en 2050. Il faudra donc réussir à « décharboner » la production électrique. Pour y parvenir, l’Allemagne planche avec la France sur une réforme du marché ETS. Le Ministère de l’économie et de l’énergie allemand étudie également actuellement  un projet de loi visant à faire payer une taxe comprise entre 18 et 20 euros par tonne de CO2 aux centrales à charbon de plus de 20 ans, si elles émettent plus de 7 millions de tonnes de CO2 par gigawattheure. «  Le marché est aujourd’hui en surcapacités, si bien qu’il est souhaitable qu’un certain nombre de capacités thermiques soient fermées », précise Dimitri Pescia, du think-thank Agora Energiewende.  « Sauf qu’il faudrait que ce soit des capacités à charbon et non à gaz qui ferment, d’où d’ailleurs le projet récent du gouvernement de contraindre les producteurs à acheter davantage de certificats sur le marché, dans le cas où leurs centrales seraient particulièrement polluantes ». 

Les objectifs allemands visent une réduction nationale des émissions de gaz à effet de serre de 40 % d’ici 2020 et de 80% à 95 % d’ici 2050, par rapport à 1990. En 2014, les émissions globales de CO2 du pays ont baissé de 27 % par rapport à 1990. Le secteur électrique demeurant le principal émetteur de gaz à effet de serre, la décharbonisation devient donc l’une des priorités du Gouvernement fédéral.

 

Idée reçue n°3

  • la facture électrique des particuliers va continuer à exploser

La redevance due à la loi sur les énergies renouvelables, dite  « EEG » (Erneuerbare Energien Gesetz) étant plafonnée pour les industries électro-intensives, une part importante de la taxe sur les énergies renouvelables est supportée par les ménages. Ainsi, le prix du kWh électrique est passé de 19,1 centime d’euros (ct€) en 2006 à 29,4 ct€ en 2013 pour les particuliers allemands. Depuis, le prix s’est stabilisé, à hauteur de 29,6 ct€ en 2014 et devrait se situer autour de 29,4 ct€ en 2015. Ce prix est deux fois plus élevé qu’en France (14,3 ct en base chez EDF). Malgré cela, la facture des ménages n’est que 30% supérieure grâce à une efficacité énergétique supérieure. 

Le prix de l’électricité a fortement augmenté à cause du développement de l’énergie solaire entre 2008 et 2012, lorsque les tarifs d’achats étaient encore élevés. « Les consommateurs allemands ont contribué à accélérer la baisse des coûts du photovoltaïque », éclaire Dimitri Pescia. « Les consommateurs allemands paieront 180 milliards d’euros pour les capacités photovoltaïques installées entre 2000 et 2013. Aux tarifs d’achat d’aujourd’hui, ce montant se situerait seulement entre 60 et 80 milliards d’euros ». Car depuis 2006, les coûts du photovoltaïque ont baissé de 70%.

Les installations éoliennes sur terre et photovoltaïques sont désormais compétitives pour les nouveaux investissements. Les prix devraient donc se stabiliser à l’avenir.

 

Idée reçue n°4

  • La perte historique des électriciens allemands montre l’échec de l’Energiewende

Il n’y a pas qu’Areva qui va mal. En mars 2015, l’énergéticien allemand EON a annoncé une perte de 3,16 milliards d’euros. Ses deux concurrents RWE et EnBW s’en tirent un peu mieux, mais leur avenir est également menacé. Le parc allemand étant en surcapacité et les énergies renouvelables bénéficiant d’une priorité d’injection sur le réseau, la rentabilité des centrales à charbon est mise à mal. 

« La perte de CA d’EON ne menace pas en soi la transition énergétique, mais montre à quel point le business model traditionnel des énergéticiens est en pleine mutation », assure Dimitri Pescia. La perte de chiffre d’affaires d’EON est liée essentiellement à une dépression de certains de ces actifs en Allemagne et à l’étranger et à des pertes sur les volumes vendus d’électricité et de gaz. En cause : les prix très bas sur le marché de l’électricité. « Le groupe a tiré les conséquences de cette situation en annonçant une restructuration stratégique majeure, visant à se repositionner uniquement sur les activités liées à la transition énergétique : ENR, réseaux, commercialisation… », résume Dimitri Pescia. Les autres activités traditionnelles (gaz, charbon, nucléaire, négoce, exploration) seront cédées à une autre entité en 2016. Il s’agit là d’un revirement stratégique inévitable pour tout géant de l’énergie souhaitant continuer à vivre. 

Par Matthieu Combe

Et aussi dans les
ressources documentaires :

Bio-bitumes : des routes vertes à base de micro-algues ?

Des chercheurs des laboratoires Chimie et interdisciplinarité : synthèse analyse modélisation (CNRS/Université de Nantes), Génie des procédés − environnement − agroalimentaire (CNRS/Université de Nantes/ONIRIS/Ecole des Mines de Nantes), Matériaux pour infrastructures de transports (Ifsttar), Conditions extrêmes et matériaux : haute température et irradiation (CNRS), en collaboration avec l’entreprise AlgoSource Technologies, ont apporté la preuve de concept de ce bio-bitume, dont les caractéristiques sont très proches du « vrai » bitume de nos routes. Leurs travaux sont publiés dans le numéro d’avril de la revue ACS Sustainable Chemistry & Engineering.

Les micro-algues sont connues depuis longtemps pour leurs applications comme colorants en cosmétique ou comme compléments alimentaires. Leur raffinage pour produire, par exemple, des biocarburants, est une idée qui a émergé ces dernières années. Aujourd’hui, les micro-algues font partie des alternatives prometteuses au pétrole. Avec le développement de procédés efficaces et rentables, de nombreux produits issus de l’industrie du raffinage deviendraient accessibles. 

Dans le cadre du programme Algoroute, financé par la région Pays de la Loire, des chercheurs de laboratoires nantais et orléanais1 ont produit du bio-bitume en valorisant des résidus de micro-algues, issus par exemple de l’extraction de protéines hydrosolubles des algues pour l’industrie cosmétique. Ils ont utilisé un procédé de liquéfaction hydrothermale, plus simplement de l’eau sous pression (à l’état sous-critique) : celui-ci transforme ces déchets de micro-algues en une phase visqueuse noire hydrophobe (bio-bitume) ayant un aspect proche de celui d’un bitume pétrolier (voir la figure). Ce procédé est réalisé avec un rendement de conversion actuel de 55%.

Alors que la composition chimique du bio-bitume est complétement différente de celle du bitume issu du pétrole, ils présentent des similarités : la couleur noire et les propriétés rhéologiques2. Liquide au-dessus de 100°C, le bio-bitume permet d’enrober les agrégats minéraux ; viscoélastique de -20 °C à 60 °C, il assure la cohésion de la structure granulaire, supporte les charges et relaxe les contraintes mécaniques. Des analyses de tenue dans le temps ont débuté, ainsi que des études pour évaluer la rentabilité du procédé dans la perspective d’une production à grande échelle.

Cette innovation apporte une nouvelle option potentielle pour l’industrie routière, actuellement entièrement dépendante du pétrole. Jusqu’à présent, les bio-bitumes développés intégraient des huiles d’origine agricole (avec l’inconvénient d’entrer en compétition avec la nutrition humaine) ou issues de l’industrie papetière, mélangées à des résines pour améliorer leurs propriétés viscoélastiques. Utiliser des micro-algues, dont la culture ne nécessite pas la mobilisation de terres arables, présente donc une solution attractive.

Source : cnrs

Pour voir plus loin :

 

Et aussi dans les
ressources documentaires :

Une nouvelle technique pour tester la résistance des nanomatériaux

Ces microdispositifs d’essai mécanique dits « on chip » permettent la déformation jusqu’à rupture des couches ultra minces, nanofils et autres nanomatériaux. Dans la version la plus avancée de la technique, le processus de déformation peut être suivi in situ au sein d’un microscope électronique en transmission. C’est là que l’équipe d’Anvers, une des plus réputées au monde dans le domaine de la microscopie électronique en transmission, et l’équipe de l’ULB experte dans l’analyse cristallographique en transmission, prennent le relais pour observer et quantifier les mécanismes physiques élémentaires qui se produisent aux échelles nanoscopiques et atomiques. Tous ensembles, les chercheurs ont ensuite formulé des hypothèses d’interprétation et construit des modèles physiques de compréhension.

Il aura fallu de longues années pour consolider cette technologie « on chip ». Les chercheurs recueillent aujourd’hui le fruit de travaux fastidieux de développement d’une nouvelle technique expérimentale : ils peuvent solliciter des nanomatériaux en tous genres dans des conditions jamais explorées jusqu’ici sur base d’un principe extrêmement simple d’actuation ne nécessitant aucun équipement extérieur et permettant de tester en une fois des milliers d’échantillons. Dans le cas présent, le fluage de films de palladium nanocristallins a pu être mesuré tout en observant à l’échelle atomique les mécanismes physiques responsable du phénomène. Un mécanisme inattendu lié exclusivement à des mouvements de dislocation a été observé induisant une relaxation rapide, ce qui est rare pour des matériaux avec de si faibles tailles de grain.

A quoi sert au juste cette découverte ? Toute technologie macroscopique (avion, voiture, centrale nucléaire) demande d’effectuer des essais mécaniques pour vérifier que les matériaux utilisés vont pouvoir soutenir les efforts appliqués sans se déformer ou se rompre. Il en est de même pour les composants faits de matériaux nanoscopiques ou ultra-minces. Le problème dans ce cas, c’est que la mesure de la résistance mécanique et l’observation des mécanismes est un challenge en soi vu la petitesse des éléments. Aujourd’hui, on doit transférer dans le monde nano, les procédures de conception mécanique du monde macro pour créer des structures robustes.

Cette découverte est importante par exemple dans le cadre de l’application de membranes palladium (Pd) dans les technologies hydrogènes : à l’avenir, nous pourrions utiliser des membranes de Pd pour des capteurs d’hydrogène ou comme membrane de séparation. Dans ces deux applications, la membrane ou la couche doit pouvoir supporter des chargements mécaniques sans se déformer de trop et sans se rompre. Il faut donc vérifier les propriétés mécaniques et surtout trouver des parades si ces propriétés ne sont pas suffisantes.

De nombreuses autres questions scientifiques fondamentales sont en cours d’investigation grâce à cette technique, permettant également le couplage avec un courant électrique, un champ magnétique ou des effets thermiques.

Source : bulletins électroniques

Anomalies de fabrication de la cuve de l’EPR de Flamanville

La réglementation relative aux équipements sous pression nucléaires impose au fabricant de maîtriser les risques d’hétérogénéité des matériaux utilisés pour fabriquer les composants les plus importants pour la sûreté. Pour répondre à cette exigence technique, AREVA a mené des essais chimiques et mécaniques sur un couvercle de cuve similaire à celui du réacteur EPR de Flamanville.

Les résultats de ces essais ont montré, fin 2014, la présence d’une zone présentant une concentration importante en carbone et conduisant à des valeurs de résilience mécanique1 plus faibles qu’attendues. Des premières mesures ont confirmé la présence de cette anomalie dans le couvercle et le fond de la cuve de l’EPR de Flamanville. AREVA a proposé à l’ASN de réaliser à partir d’avril 2015 une nouvelle campagne d’essais approfondie sur un couvercle représentatif pour connaître précisément la localisation de la zone concernée ainsi que ses propriétés mécaniques.

L’ASN se prononcera sur le programme d’essais, contrôlera sa bonne réalisation et instruira le dossier que présentera AREVA pour démontrer la résistance de la cuve du réacteur EPR de Flamanville. Elle fera notamment appel à son appui technique, l’IRSN, et au Groupe permanent d’experts dédié aux équipements sous pression nucléaires.

L’ASN a informé ses homologues étrangères concernées par la construction d’un réacteur EPR.

La cuve d’un réacteur à eau sous pression est un équipement particulièrement important pour la sûreté. Elle contient le combustible et participe à la seconde barrière de confinement de la radioactivité.

Le couvercle et le fond de la cuve de l’EPR de Flamanville sont des pièces forgées de forme partiellement sphérique et réalisées en acier.

Publié par P.T

Techniques de l’Ingénieur partenaire de la Journée Nationale de l’Ingénieur

L’édition 2015 s’inscrit dans la lignée des deux premières Journées Nationales de l’Ingénieur (JNI)  qui ont réuni près de 5000 participants à travers toute la France. Le thème cette année est « Ingénieurs et Scientifiques, architectes de la compétitivité et du redressement de la France ». A cette occasion, des manifestations ont lieu dans plus de 20 grandes villes de l’hexagone.

Durant la JNI 2015 sera décerné le Trophée Vidéo 2015, organisé avec la Confédération Nationale des Junior Entreprises et récompensant la meilleure vidéo sur le métier de l’ingénieur aujourd’hui et demain.

Ce concours, ouvert à tout étudiant en école d’ingénieur ou en université scientifique, récompesera celui ou celle qui réalisera une vidéo originale de 3 minutes, exprimant au sens propre ou figuré ce que représenteront les métiers d’ingénieur et de scientifique dans les années à venir. Le concours comporte 3 catégories : « L’ingénieur : carte d’identité », « L’ingénieur dans la ville » et « L’ingénieur connecté ».

Les 3 trophées seront remis par les membres du Jury et Joan Borderie, réalisatrice diplômée de l’école de cinéma de Luc Besson et 1er prix du Festival Divipassion pour son film « La veilleuse ». Techniques de l’Ingénieur, partenaire de la JNI, sera également sera présent lors de cette remise puisque Claire Pascal, DG de Comundi, opérateur des formations Techniques de l’Ingénieur, est  membre du jury.

Par P.T

La Nasa prévoit de récupérer un rocher sur un astéroïde autour de 2022

Parce qu’ils étaient trop compliqués, sûrement trop coûteux aussi, la Nasa a changé les plans de la mission ARM (Asteroid Redirect Mission) qui consistait à tracter un astéroïde afin de le placer en orbite autour de la Lune. En lieu et place de quoi, elle a décidé d’envoyer une sonde aux bras robotisés pour qu’elle prenne un gros bout de caillou (de quatre mètres) d’un astéroïde puis qu’elle le ramène dans une zone où les astronautes pourront venir l’étudier vers 2025.

La mission répond à différents objectifs. Celui de mieux connaître les systèmes de vol qui permettront aux astronautes de se diriger vers des destinations lointaines. Mais aussi de tester le moteur à propulsion solaire-électrique actuellement en production, censé permettre « de consommer moins de carburant, de voyager loin, plus vite et moins cher que n’importe quelle autre technologie ». Ce serait donc un passage conduisant à d’autres missions plus ambitieuses (voyage sur Mars ?). Et bien sûr d’étudier le morceau d’astéroïde avec les outils scientifiques et d’en rapporter des échantillons. 

Il s’agit également pour les chercheurs d’observer l’effet de la sonde sur l’astéroïde. Sa présence aura-t-elle une incidence sur sa trajectoire, ou autrement dit placer un objet autour d’astres rocheux peut-il dévier leurs courses ? Sans qu’il y ait de contact, la force gravitationnelle exercée par la sonde pourrait attirer l’astéroïde. À terme, cela pourrait devenir une méthode de déviation en cas de risques de collisions avec la Terre. Une menace susceptible de se présenter d’ici une centaine d’années.

Le choix de l’astéroïde n’est pour le moment pas encore arrêté. Les scientifiques seraient en balance entre trois candidats Itokawa, Bennu et 2008 EV5 tout en se laissant une marge de réflexion jusqu’en 2019, un an avant que la sonde ARM ne soit envoyée dans l’espace. Il est probable qu’un meilleur candidat soit trouvé d’ici là. Le système de détection des astéroïdes de la Nasa, en effet, se perfectionne d’année en année. En 2011, elle ne décelait que 893 petits astéroïdes (moins d’un kilomètre de largeur) ayant une orbite croisant à un moment celle de la Terre, contre 1 472 en 2014. Qu’en sera-t-il en 2019 ? 

Par Sébastien Tribot

Le silicène, dans l’ombre du graphène

Bien qu’il partage une grande partie de ses propriétés, le silicène reste pourtant assez méconnu, si on le compare à la superstar des matériaux, le graphène. Une équipe de chercheurs américains, affiliée à l’université du Texas et à l’ACSE (Austin’s Cockrell School of Engineering), remet le silicène sur le devant de la scène en parvenant à créer le premier transistor à partir du plus fin des matériaux dérivés du silicium.

Le matériau bidimensionnel – seulement un atome d’épaisseur – possède notamment des propriétés électriques extrêmement intéressantes, comme la présence d’une bande interdite variant sans modification chimique du matériau, mais les difficultés de production ne permettaient pas jusqu’ici d’envisager une quelconque utilisation industrielle. Ces problèmes seraient en passe d’être surmontés, à en croire le professeur Deji Akinwande, éminence grise de l’équipe texane.

Afin de se défaire de l’un des problèmes majeurs du silicène – sa grande instabilité une fois en contact avec l’air – le professeur Akinwande s’est adjoint les services d’un chercheur italien, Alessandro Molle, pour développer une nouvelle méthode de fabrication limitant au maximum l’exposition du matériau à l’air libre. Pour ce faire, les chercheurs laissent des atomes de silicium en suspension se condenser sur un bloc d’argent dans une chambre à vide. La feuille de silicène ainsi formée est ensuite recouverte d’une fine couche nanométrique d’alumine, permettant de séparer et de protéger les différentes épaisseurs.

Les transistors en silicène pourraient permettre de créer des circuits intégrés sensiblement plus rapides, plus petits et plus efficaces.

Par Rahman Moonzur

Et aussi dans les
ressources documentaires :

Les médicaments préfèrent les hommes

Le combat pour l’égalité des hommes et des femmes fait rage. Tâches ménagères, salaires, études ou encore temps de travail sont autant de domaines bien connus comme étant encore moins favorables aux femmes. Mais les inégalités hommes-femmes sont partout, même dans le domaine de la santé. En 2014, le magazine Science et Vie révélait que les médicaments eux-aussi étaient machos ! En effet, le même médicament pris dans à dose égale n’engendre pas les mêmes effets sur une personne de sexe masculin que sur une de sexe féminin. Pire, les médicaments sont calibrés pour agir sur les hommes, ce qui n’est pas sans conséquence pour les femmes dont le système hormonal, et de façon plus globale le métabolisme, est très différent.

Tout commence dans les laboratoires. La grande majorité des études sont réalisées sur des rats mâles, sous prétexte que le cycle hormonal féminin viendrait parasiter l’analyse des résultats. Du coup, la mise au point des médicaments repose uniquement sur des comportements masculins et ne tient pas compte des spécificités du corps féminin. Finalement, les médicaments mis sur le marché soignent très bien les hommes mais ne sont pas adaptés aux femmes.

 Par exemple, les vaccins ont plus d’effets sur les femmes que sur les hommes. Le système immunitaire féminin étant plus réactif, une demi-dose de vaccin suffit quand une dose entière est nécessaire pour un homme. 

L’année dernière, l’Agence américaine des produits alimentaires et médicamenteux (FDA) s’ai saisi du dossier des somnifères dont les effets sont plus importants et plus durables chez la femme qui sont trois fois plus que les hommes à somnoler 8 heures après la prise du médicament. La FDA recommande désormais de diminuer les prescriptions de Zolpidem. 

Les femmes doivent aussi se méfier des traitements anti-cholestérol. D’après une étude parue en 2013 dans Archives of Internal Medicine, ceux à base de statines augmentent de 71% le risque de diabète chez les femmes. Dans ce cas, se soigner devient dangereux pour la santé des femmes.

De façon plus générale, une étude allemande menée sur 25 000 patientes a prouvé que les femmes présentent deux fois plus d’effets secondaires que les hommes ! Sachant que les médicaments sont étudiés pour soigner les hommes exclusivement, ce résultat inquiétant est pourtant logique.  Pour sortir de cette discrimination médicale, un gros effort est à faire du côté de la façon de penser des médecins. En attendant, l’Institut National de la santé américaine (NIH) refuse toute subvention aux études qui n’incluent pas d’analyse en fonction du sexe. De quoi motiver l’évolution des mentalités.

Par Audrey Loubens

70% d’électricité renouvelable dans le monde d’ici 15 ans n’est pas un problème selon la majorité des experts (Enquête DNV GL)

Selon un responsable d’E.ON, géant de l’énergie qui avec RWE, Vattenfall et EnBW fait partie « der großen Vier », « les 4 gros » énergéticiens équivalents en Allemagne à EDF en France, passer à 70% d’électricité renouvelable à horizon 2030 « ne relève pas d’une discussion d’ordre technique (sous-entendu : il est évident que c’est possible ndlr) mais politique ».

Une large majorité d’experts de l’énergie dans le monde est d’accord avec ce qu’a affirmé le représentant d’E.ON pour le magazine spécialisé GreenTechMedia. L’agence de conseil DNV GL a publié y a quelques jours les résultats d’une enquêtes auprès de 1600 experts de l’énergie provenant de 71 pays : des développeurs de projets, des opérateurs de centrales électriques et des représentants gouvernementaux.

Une majorité d’entre eux pense qu’il est possible de passer à une électricité 70% renouvelable d’ici 15 ans (2030). Et une infime partie d’entre eux (1,5%) estime que cela ne sera jamais possible.

Par Olivier Daniélo

Les recruteurs attachent de moins en moins d’importance au diplôme

Le vent serait-il en train de tourner ? Alors que les recruteurs français ont la réputation d’embaucher sur diplôme, ils y attachent aujourd’hui de moins en moins d’importance. Sur les 1 000 recruteurs franciliens interrogés par l’OFEM (Observatoire de la formation, de l’emploi et des métiers de la chambre de commerce et d’industrie de Paris) dans le cadre d’une étude dévoilée le 18 mars 2015, seuls 53 % pensent que les diplômes valident des formations de bon niveau. Et, plus ces entreprises sont petites, moins le diplôme compte. Alors que les grandes entreprises privilégient les bac + 5 (61 % de leurs effectifs), les TPE embauchent en majorité des personnes de niveau bac ou moins (73,5 %). Les recruteurs estiment que les évolutions de ces dix dernières années vont continuer à s’accélérer les cinq prochaines années.

Un fossé entre l’école et l’entreprise

Pour les recruteurs, les études supérieures ne préparent pas assez à la vie active. 40 % d’entre eux estiment que les formations dans leur domaine d’activité préparent mal les étudiants. Logique : les métiers évoluent tellement vite que ce qu’ils apprennent en première année est déjà obsolète avant la fin d’un cursus en 4 ans, d’après une étude du cabinet Wagepoint. Malgré tout, l’école reste importante. 67 % des recruteurs se fient à leurs expériences avec les promotions précédentes pour décider dans quelles écoles ou universités aller chercher leurs nouvelles recrues.

L’expérience prend le pas sur le diplôme

Alors, que faut-il mettre en avant pour être embauché ? L’expérience avant tout : 69 % des personnes interrogées préfèrent engager des collaborateurs expérimentés. D’abord, parce qu’ils comprennent mieux les enjeux de l’entreprise, mais aussi parce qu’ils sont plus rapides. Les recruteurs  déclarent aussi avoir de plus en plus besoin de personnes ayant un niveau d’expertise élevé, qui s’acquiert davantage sur le terrain que sur les bancs de la fac.

Vers des parcours hybrides

Tout cela ne signifie pas que le diplôme en lui-même est devenu inutile. Les formations sont vouées à être plus professionnalisantes, d’après les recruteurs interrogés. Déjà, l’apprentissage est de plus en plus prisé : ils sont 80 % à estimer que l’alternance est devenue indispensable, et 56 % à l’avoir déjà mis en place dans leur entreprise. Ils pensent qu’à l’avenir, les cursus vont être plus courts (60 %), plus portés vers le savoir-faire (71 %) et que les formations en cours de carrière se feront avec de l’apprentissage ou des stages de longue durée (85 %). Pour les étudiants de demain : moins de bouquins, plus de terrain !

Par Ingrid Falquy

Source : cadremploi.fr
premier site emploi privé pour les cadres et les dirigeants en France

Vulgariser la physique quantique : tout un art

L’Espace des Sciences est un centre de culture scientifique technique et industrielle. Cette association organise « Les Mardis de l’Espace des sciences« , une série de conférences autour de sujets scientifiques, avec un souci de vulgarisation. Voir le quantique ?, présenté par Julien Bobroff, physicien, revient sur les théories qui font la physique quantique pour les relier à la science du macro que nous connaissons mieux.

Chats de Schrödingers, lévitation, téléportation, effet tunnel… La physique quantique est étrange, paradoxale, invisible et insaisissable. Julien Bobroff présente pourtant quelques-unes des astuces qu’ont trouvées les physiciens pour « voir » ces étrangetés du monde quantique et même les filmer en direct !

Il montre aussi comment, en collaborant avec des designers, des graphistes et des artistes, son groupe a développé de nouvelles façons de vous aider à imaginer ce qu’est vraiment la physique quantique.

Le « superbonus » pourrait doubler le marché de l’auto électrique dès 2015 (constructeurs)

Au lendemain de l’entrée en vigueur d’une aide financière pouvant aller jusqu’à 10.000 euros pour l’achat d’un véhicule propre et la mise au rebut d’un diesel mis en circulation avant le 1er janvier 2001, le directeur du programme véhicules électriques de Renault a estimé que cette mesure allait « être clairement un accélérateur » pour les ventes de ces voitures.

« La cible, c’est un doublement (du marché) d’ici à la fin de l’année », a affirmé à l’AFP Eric Feunteun, pour qui cette nouvelle incitation va permettre, pour certains usagers « qui roulent un petit peu moins », d’obtenir des véhicules « moins chers qu’un véhicule diesel » pour une utilisation quotidienne.

Xavier Duchemin, directeur de Peugeot France, s’attend lui aussi à voir cette mesure faire « doubler le marché français du véhicule électrique » dès cette année. « Nous savons qu’il y a deux millions de véhicules diesel de plus de 14 ans en France. Donc c’est un réservoir particulièrement important sur cette mesure », a-t-il affirmé.

Les deux responsables s’exprimaient en marge d’une cérémonie organisée au ministère de l’Ecologie, en présence de la ministre Ségolène Royal, pour marquer les premiers achats de voitures électriques depuis la mise en place du nouveau dispositif.

Renault et PSA ont lancé des offres commerciales agressives pour attirer les clients en capitalisant sur la nouvelle aide gouvernementale: 99 euros par mois pour une location longue durée (LLD) de Renault Zoé et la même mensualité pour une Peugeot iOn, avec un vélo électrique offert aux 150 premiers acheteurs. Chez Citroën, la jumelle de l’iOn, la C-Zero, est à partir de 89 euros par mois.

A l’achat, hors aides gouvernementales, la Zoé s’affiche à partir de 21.900 euros et l’iOn et la C-Zero à 26.900 euros.

Farouk Baziz, un habitant de Montélimar (Drôme), a profité de cette promotion pour se débarrasser d’une Peugeot 306 diesel de 1994. Il utilisera sa iOn, achetée en LLD, pour « déposer les enfants à l’école, et aller au travail, ça fait 10-15 km par jour ». M. Baziz pensait à acheter une voiture électrique depuis longtemps, mais attendait « un signe fort ». « Je pense que c’est le bon moment », a-t-il expliqué à l’AFP.

En 2014, 10.540 voitures électriques neuves ont été vendues en France, soit 0,59% du marché, en hausse de 20% par rapport à l’année précédente.

Alors que Mme Royal a souhaité jeudi que « les Français se dépêchent pour saisir cette opportunité » du superbonus, mis en place « pour l’instant pour l’année » en cours, la secrétaire générale de l’Association nationale pour le développement de la mobilité électrique (Avere-France), Marie Castelli, a estimé que « ce superbonus va venir confirmer la progression » des ventes.

Mais pour elle, « l’effet levier ne va pas être si important que ça, parce que le type de personnes qui possèdent un véhicule diesel de plus de 14 ans correspond plutôt à des ménages défavorisés qui ne vont pas penser à la voiture électrique et se sentir éligibles ».

« L’enjeu, c’est aussi que les constructeurs jouent leur rôle en communiquant très fort sur les offres qu’ils viennent de présenter », a-t-elle indiqué.

tq/gbh/bma

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Allemagne : +685% d’électricité renouvelable en un quart de siècle. Et 15,7% de CO2 en moins

Entre 1990 et 2014 (un quart de siècle) la production électro-nucléaire allemande a chuté de 36%. Les émissions de CO2 du secteur électrique ont chuté parallèlement de 15,7%.

La production électro-nucléaire a en réalité commencé une régression significative à partir de 2006. Entre 2006 et 2014 elle a chuté de 70 TWh (-41,9%). Parallèlement les émissions de CO2 ont baissé de 29 millions de tonnes (-8,7%). Autrement dit chaque TWh nucléaire de moins correspond en moyenne à une chute d’un peu plus de 0,4 million de tonnes de CO2.

La période 2006-2014 (8 ans) peut être décomposée en quatre phases : hausse du CO2 entre 2006-2007 (un an), baisse entre 2007 et 2009 (deux ans), hausse entre 2009-2013 (4 ans) et baisse entre 2013-2014 (1 an). La chute globale est de 8,7%. Focaliser sur chacune de ces petites sous-périodes a peu de sens. Ce qui compte c’est la tendance de fond.

[Cliquer pour agrandir l’image]

 

A noter que la catastrophe nucléaire de Fukushima en 2011 n’a rien changé: la tendance haussière de la sous-période 2009-2013 commence avant 2011. Cela correspond en réalité à une chute de la production électro-gazière (pour des raisons de prix). Et non à la croissance des EnR. Le dogme « davantage de renouvelables = forcément davantage de CO2 » et son corollaire « le nucléaire est donc incontournable en matière climatique » sont donc fallacieux.

Entre 1990 et 2014 l’Allemagne a augmenté sa production électro-renouvelable de 137 TWh, ce qui a très largement compensé la chute des 55 TWh de nucléaire. Un bond vraiment remarquable et en bonne partie porté par des projets citoyens.

En 2014, tous secteurs confondus (électricité, transport, chaleur), les émissions de CO2 allemandes ont chuté de 4,3% comparativement à 2013 et de 27% comparativement à 1990. L’objectif du gouvernement fédéral allemand est de parvenir à une chute de 40% en 2020 comparativement à 1990. Les deux tiers du chemin sont déjà accomplis. Et, surtout, la motivation allemande pour construire un système énergétique écologique est toujours aussi forte.

Herzlichen glückwunsch.

Par Olivier Daniélo

Le train subsonique Hyperloop bientôt à l’essai

Pour ceux dont la mémoire aurait besoin d’être rafraîchie, l’Hyperloop est ce projet de train subsonique capable de parcourir 600 kilomètres (la distance séparant San Francisco de Los Angeles) en une demi-heure, soit trois fois plus vite qu’un avion pour cette distance.

Sur le papier, ce train futuriste a de quoi faire rêver…

… Et écraser la concurrence ferroviaire en Californie. Il file à la vitesse de 1 200 km/h, le prix d’un billet est bon marché, les capsules répondent aux critères modernes du confort pour ses passagers, il se veut plus écologique car fonctionnant en partie à l’énergie solaire et pour couronner le tout, il est plus sûr.

Le dispositif lui-même est innovant. Des tubes installés à quelques mètres de la surface véhiculent des capsules en lévitation – à l’intérieur desquelles une vingtaine de voyageurs ont pris place – grâce à un système électromagnétique généré par un moteur électrique. La pression atmosphérique servant à empêcher les collisions entre capsules voire des frottements avec les parois du tube, ce qui est à l’heure actuelle l’un des risques majeurs.

Gage de réussite, le projet est initié par l’entrepreneur de génie Elon Musk, co-fondateur de Paypal, créateur de Tesla Motors et de Space X dont il a d’ailleurs dépêché quelques membres pour s’occuper des plans du train.

Sur le plan technique, en revanche, c’est un défi complexe et onéreux.

Il faut jouer avec la pression atmosphérique à l’intérieur des tubes, trouver un moyen de générer l’énergie requise, supporter le poids de 28 passagers… Sans compter que le coût de production est estimé entre 6 et 8 milliards de dollars.

C’est certainement la raison pour laquelle l’équipe en charge du développement d’Hyperloop s’est faite si discrète. En effet, on attend des nouvelles fraîches depuis un an et demi. Quand enfin, le 15 janvier dernier, Elon Musk annonce sur sa page Twitter, sonnant et trébuchant, vouloir construire une piste d’essais, probablement au Texas. Le projet de train futuriste à lévitation n’est donc pas abandonné. Mieux encore, il semble avancer au rythme escompté.

Là-dessus, on peut vanter les mérites de la tactique d’Elon Musk pour avoir rendu public dès le début « Hyperloop Alpha » un dossier de plus de 57 pages offrant une vision détaillée de ce que devrait être Hyperloop. C’est grâce à cela que des start-ups ont pu réfléchir à la façon la plus judicieuse de réaliser ce projet. Et ce n’est pas fini puisque la voie, lorsqu’elle sera sortie de terre, pourra être testée par les entreprises et les groupes d’étudiants comme l’a assuré Elon Musk sur Twitter.

L’éco-ville Quay Valley doit accueillir le premier prototype.

La start-up HTT, en réflexion depuis un an, souhaite construire le réseau de transport dans une éco-ville révolutionnaire surnommée Quay Valley mais qui n’existe pas encore. Elle doit être construite entre Los Angeles et San Francisco sur une surface de 4 800 hectares l’année prochaine.

Pour information, Quay Valley a été pensé comme « une communauté modèle, auto-suffisante, qui combine à la fois les meilleures innovations du mouvement New Urbanism et la tradition des petites villes rurales de la Vallée de San Joaquin, tout en préservant l’environnement naturel de cette zone. » Avec un détail frappant : les habitants n’auront pas à débourser un centime en facture d’électricité.

Il apparaît donc logique que l’Hyperloop y soit testé, puis serve de moyen de transport à ses 150 000 futurs habitants.

Toutefois, HTT est encore en recherche de financement, qu’elle espère trouver autour du troisième trimestre 2015. En tout, pas moins de 100 millions de dollars sont nécessaires à la construction du prototype. Le PDG Dirk Ahlborn de HTT ne se démonte pas pour autant, et mise sur les financements participatifs du grand public.

Par Sébastien Tribot

Et aussi dans les
ressources documentaires :

 

Et aussi dans l’actualité :