Le Fukushima d’AREVA

« Un Fukushima industriel », « Areva est aujourd’hui comme une centrale nucléaire dont le cœur est en fusion et l’enceinte de confinement prête à céder », « des choix désastreux », Jean-Michel Bezat du journal Le Monde ne mâche pas ses mots pour qualifier le naufrage financier du champion du nucléaire Français. Pour Capital.fr il s’agit de « pertes astronomiques », d’un « montant pharaonique ». La rédaction de Boursier.com souligne les pertes liées aux « contrats dont la réalisation a complètement déraillé, à l’image du chantier finlandais de l’EPR d’Olkiluoto 3 ». Selon Les Echos, « l’avenir d’Areva est en jeu » et le fleuron national est en « état d’urgence », « en fusion », Areva « frôle le précipice », « c’est l’avenir de l’ensemble du pôle nucléaire Français qui se joue ».

C’est que les pertes du groupe, sauf pour celles et ceux qui préfèreraient continuer avec la stratégie de l’autruche, sont objectivement exorbitantes. En 2013, elles étaient de 500 millions ce qui était déjà beaucoup. Mais en 2014 le gouffre s’est approfondi de 880%, d’un facteur 10, frôlant les 5 Mds d’€ de pertes. A titre comparatif le déficit de la branche maladie de la Sécurité sociale a été, à l’échelle nationale, de 7,3 Mds d’€ en 2014 et celui du Fond de Solidarité Vieillesse (FSV) de 3,7 Mds d’€. Le montant des pertes d’Areva est alarmant pour un groupe dont la capitalisation boursière est de 3,7 milliards d’euros. Ce montant ne ne prend d’ailleurs pas en compte les 2,3 milliards d’euros que le Finlandais TVO réclame à Areva compte-tenus des importants retards sur le chantier de l’EPR. Ce retard atteindra 9 ans en 2018, date aujourd’hui prévue pour la mise en service du réacteur (sauf retards additionnels non prévus). Areva est également en contentieux avec le CEA à propos du projet de recherche RJH, le réacteur « Jules Horowitz » qui est en construction à Cadarache. Le coût initialement prévu pour ce réacteur a été au moins doublé, à plus d’un milliard d’euros. Le titre Areva a chuté de plus de 50% en bourse depuis 1 an.

La Ministre de l’Energie Ségolène Royal, qui avant les élections présidentielles était favorable à une sortie complète du nucléaire à horizon 2040, a été contrainte de concéder que « la situation est difficile » pour Areva dont l’état est l’actionnaire largement majoritaire. « Difficile », un mot qui relève du doux euphémisme face à l’ampleur du cataclysme. Ségolène Royal a prôné comme remède une « synergie » entre le CEA, Areva et EDF. Or le CEA est déjà actionnaire du groupe Areva pour 54% des parts, et l’Etat directement à hauteur de 29%. EDF est détenu à 84% par l’état. Et le CEA est lui-même un organisme public. Le serpent qui se mord la queue.

A Bordeaux le grand solaire PV est dès à présent meilleur marché que le nouveau nucléaire 

Le 18 février 2015, à l’occasion de son audition par la Commission d’enquête relative aux tarifs de l’électricité de l’Assemblée nationale, Jean-Bernard Lévy, le tout nouveau président-directeur général d’EDF, a tenté de défendre la pertinence économique du choix du nucléaire en basant sa réflexion sur le coût du solaire photovoltaïque d’avant 2011. C’est à dire sur la base de données obsolètes compte-tenu de la cinétique de baisse des coûts du solaire. « Le coût du photovoltaïque est très loin de celui du nucléaire » a-t-il affirmé. Selon la Cour des Comptes le coût de production du vieux nucléaire déjà amorti est de 5,98 c€/kWh. Le coût de production du vieux solaire PV déjà amorti est proche de 0 c€/kWh (le soleil n’envoie pas de factures).

En France le tarif « T5 » (tout type d’installations, 0 à 12 MW) du solaire photovoltaïque est aujourd’hui de 6,62 c€/kWh. Celui des petites installations de 0 à 36 kW avec intégration simplifiée au bâti est de 13,47 c€/kWh mais ce segment n’est bien entendu pas comparable avec les 1650 MW d’un réacteur EPR. A Bordeaux, où la plus grande centrale solaire d’Europe (300 MW sur 3 kilomètres-carrés) est en construction sous la houlette du groupe Neoen, « le solaire sera moins cher que le nucléaire anglais ». L’électricité produite sera vendue au tarif de 10,5 c€ par kWh, tarif retenu dans le cadre d’un appel d’offre lancé par le gouvernement. « En Grande-Bretagne, le tarif d’achat pour le futur réacteur nucléaire EPR d’Hinkley Point est passé de 9,25£/kWh en 2012 à 9,70£/kWh en 2014. Comme le cours des monnaies est passé de 1,20 à 1,36 euro/livre sterling, il devient presque indécent de donner le nouveau coût de l’électricité en euros » souligne le site spécialisé Energeia. « La technocratie du nucléaire bien présente dans tous les rouages de l’Etat ne peut accepter une telle comparaison après des décennies de propagande pour le nucléaire ». N’en déplaise à Jean-Bernard Lévy, le kWh du nouveau solaire Bordelais est 20% meilleur marché que celui du nouveau nucléaire. Et Bordeaux n’est pas la région la plus ensolleilée de France: l’insolation y est comparable à celle de Lyon, Grenoble et Genève. A Toulon elle est 30% supérieure.

La capacité photovoltaïque hexagonale est aujourd’hui environ 8 fois inférieure à celle installée en Allemagne, pays moteur de la transition Européenne vers une électricité à base d’énergies renouvelables. Comme le souligne Gregory Lamotte, Fondateur de Comwatt, leader Français des solutions pour l’autoconsommation énergétique, « avec le montant des pertes d’Areva en 2014, on pourrait doubler la capacité photovoltaïque Française ».

En Europe, à l’échelle saisonnière, le solaire photovoltaïque est parfaitement complètementaire à l’éolien. A terre le coût de production de l’électricité obtenue à partir du vent est encore meilleur marché que celui du solaire. Le coût de production du kWh solaro-éolien (50/50) est d’environ 7 – 8 c€ en France. La France dispose dès à présent de 5 GW de STEP (Pompage-Turbinage) pour gèrer les fluctuations solaro-éoliennes, et cette capacité peut augmenter sans avoir à inonder de nouvelles vallées. Et elle dispose aussi de nombreuses interconnexions électriques avec ses pays voisins. Et si la synergie soleil-eau-vent-biomasse devenait le nouvel axe stratégique de la fusion CEA-Areva-EDF souhaitée par Ségolène Royal ? Et si la France et l’Allemagne agissaient enfin dans une perspective énergétique commune, devenant ainsi le grand moteur écologique de l’Union Européenne ?

Apple, dont la capitalisation boursière atteint 700 milliards de dollars (soit 166 fois celle d’Areva), et qui n’est pas particulièrement réputée pour prendre des décisions farfelues, inspirera-t-elle les décideurs Français ? Le géant Américain vient de faire le choix de répondre à l’intégralité de ses besoins électriques grâce au solaire. Ceci à la fois pour réaliser des économies et pour réduire son empreinte environnementale. A bon entendeur.

Olivier Daniélo

L’ingénieur geek #4 : AKOLYT, votre e-copilote

Akolyt pourrait rapidement devenir le partenaire idéal de tout conducteur à la recherche d’une voiture plus connectée. Car grâce à un boîtier communiquant avec votre smartphone en bluetooth 4,0, il transforme toute voiture de tourisme essence commercialisée après 2001 et toute voiture diesel commercialisée après 2004 en un véhicule connecté.

Une fois branché à la prise diagnostic de votre véhicule, à la manière d’une clé USB, le boîtier Akolyt récupère les informations disponibles, les traite et les transmet à votre smartphone par Bluetooth. A chaque démarrage, Akolyt effectue automatiquement un diagnostic du moteur. Si un voyant moteur s’allume, l’application vous indique l’origine du défaut. Enfin, en cas d’accident, il préviendra les secours.

Une prise et des algorithmes pour plus d’informations

Les 3 ingénieurs à la base de cette start-up sont des spécialistes des moteurs, anciens de chez PSA. Ils ont développé des algorithmes sophistiqués pour obtenir le maximum d’informations à partir de cette simple prise. «La prise diagnostic accède à l’ensemble des informations du véhicule. Les données moteurs sont ouvertes car la norme OBD impose de les mettre à disposition. Les autres données véhicules sont accessibles mais, tout en suivant un protocole unique, chaque constructeur code ces informations différemment. Nous nous concentrons actuellement sur les données moteur directement accessibles et standardisées pour tous les modèles », précise Etienne Delorme, Chef de Projet Marketing de Drust.

Akolyt fait également des diagnostics sur l’état de la courroie, des plaquettes de freins, des pneus… Si les mesures ne sont pas faites directement sur ces pièces, « nous exploitons les données disponibles de la prise OBD (nombres de km parcourus, vitesse…) et nous les injectons dans nos algorithmes de modèle d’usure pour ces différents composants. Notre expérience chez les constructeurs autos nous ont notamment amenés à bâtir ce type de modèles », explique Etienne Delorme.

Faire des économies, pour plus de sécurité tout en s’amusant  

Pendant que vous conduisez, l’application affiche une jauge représentant votre niveau d’efficacité de conduite. Pour ce faire, « nous analysons le profil de conduite de l’utilisateur via les données moteurs (régime, vitesse, couple, rapport de vitesse) que nous complétons avec les données dynamiques (accéléromètre, gyroscope). Ces données brutes sont filtrées / analysées et nous les comparons au même trajet qui aurait été parcouru de manière parfaite », nous éclaire Etienne Delorme. Le constructeur promet jusqu’à 30 % d’économies de carburant grâce aux conseils de son Akolyt. Il s’agit donc bien là d’un partenaire idéal pour passer à l’éco-conduite ! 

Il est possible d’appairer un même boîtier à 3 smartphones pour comparer ses résultats avec d’autres utilisateurs.  « Vous pourrez comparer votre efficacité de conduite avec vos enfants ou votre femme », s’amuse Etienne Delorme. Chaque trajet donne lieu à un score : vous pourrez enfin savoir objectivement qui conduit le mieux !

Sur la plateforme de financement Indiegogo, Drust a déjà largement dépassé le seuil des 30 000 euros fixé au départ. Pour les premiers participants, l’akolyt a été proposé à 69 €, puis à 79 €. Il est désormais au prix de 89 €, soit encore 25% de réduction par rapport au prix de lancement prévu en septembre. Le prochain objectif est maintenant d’atteindre 100 000 € et ainsi débloquer la fonction de localisation du véhicule. L’application sortira en septembre et sera disponible sur Android et iPhone.

Par Matthieu Combe, journaliste scientifique

Deux astronautes dans l’espace pour des travaux sur l’ISS

La sortie dans l’espace a démarré à 07H45 (12H45 GMT) pour Barry Wilmore et Terry Virts, munis chacun de sortes de valises contenant des câbles et des équipements.

Le but de la sortie est d’installer des systèmes pour permettre l’amarrage de deux futurs vaisseaux spatiaux privés qui seront construits par les sociétés privées SpaceX et Boeing. Ces appareils transporteront des astronautes vers la Station à partir de 2017 dans le cadre de contrats avec la Nasa.

La sortie de Barry Wilmore et Terry Virts avait été reportée de 24 heures vendredi afin d’examiner le fonctionnement des scaphandres spatiaux, un problème récurrent avec une pièce du système de refroidissement de l’un d’entre eux préoccupant les ingénieurs.

« C’est le même type d’inquiétude que nous avions eu en 2013 quand nous avions eu à gérer le problème d’infiltration d’eau dans le casque » de l’astronaute italien Luca Parmitano, avait dit en milieu de semaine Kenneth Todd, directeur des opérations de l’ISS.

La Nasa a constaté le problème lorsque les astronautes ont procédé à l’entretien de leurs combinaisons en décembre et ont découvert que le ventilateur d’une pompe n’accélérait pas comme prévu.

Le scaphandre utilisé par Terry Virts samedi a pu être réparé avec une pièce de rechange qui était dans l’ISS, et Barry Wilmore utilise quant à lui une combinaison flambant neuve acheminée tout récemment à la station par un vaisseau de ravitaillement.

« Tous les systèmes des deux scaphandres sont apparemment en excellent état », a affirmé Rob Navias, le commentateur de la Nasa, durant la retransmission de la sortie orbitale sur la télévision de l’Agence spatiale américaine.

Deux autres sorties sont prévues mercredi 25 février et dimanche 1er mars pour les deux astronautes qui vont devoir au total installer plus de 110 mètres de câblages.

Pour Barry Wilmore (52 ans), l’actuel commandant de la station, il s’agit de la deuxième sortie spatiale de sa carrière. C’est en revanche une grande première pour Terry Virts (47 ans).

L’astronaute italien Luca Parmitano avait dû interrompre en urgence une sortie à l’extérieur de la Station spatiale internationale (ISS) le 16 juillet 2013 en raison d’une importante fuite d’eau dans son scaphandre.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Japon: deux horloges qui ne dérivent que d’une seconde en 16 milliards d’années

Selon une équipe de recherche dirigée par Hidetoshi Katori, professeur à l’Université de Tokyo, ces instruments dits « cryogéniques à réseaux optiques », qui ressemblent plus à des ordinateurs de bureau géants sans fonctionnalité qu’à des horloges traditionnelles, présentent une exactitude telle qu’elle ne peut être mesurée par les horloges atomiques actuelles qui définissent la durée de la seconde.

Leurs performances dépassent en outre la précision de dérive limitée à une seconde en 13,8 milliards d’années de l’horloge atomique qu’avaient dévoilée en août 2013 des chercheurs américains.

Les engins nouvellement développés utilisent des lasers spéciaux pour piéger des atomes de strontium dans des structures minuscules en forme de grille, selon l’équipe japonaise qui a publié son étude ce mois-ci dans la Nature Photonics.

Ainsi est mesurée la fréquence de battement des atomes, utilisés comme « pendule atomique ».

Le système doit cependant fonctionner dans un environnement extrêmement froid, autour de -180 degrés Celsius, pour réduire les impacts des ondes électromagnétiques alentour et maintenir ainsi le niveau de précision des appareils.

Les chercheurs ont fait fonctionner les deux horloges pendant un mois afin d’observer leur comportement et en ont déduit que cela prendrait quelque 16 milliards d’années pour dériver d’une seconde.

Ces instruments s’avèrent de loin beaucoup plus précis que l’horloge atomique au césium utilisée pour définir « une seconde », avec une dérive équivalente toutes les 30 millions d’années.

Cette nouvelle avancée en physique peut avoir des implications potentielles importantes non seulement pour la précision dans la mesure du temps universel, mais aussi par exemple sur la localisation par satellite (GPS) qui se base sur la différence temporelle, ainsi que sur la quantification des forces comme la gravité, le champ magnétique et la température.

Les chercheurs nippons espèrent en tout cas que les résultats de leurs études permettront d’accélérer les discussions sur la redéfinition de la seconde, selon le communiqué publié au Japon.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

300 exemplaires du robot Pepper disponibles au Japon pour les développeurs

La vente s’effectuera en ligne et dans la boutique SoftBank du quartier d’Omotesando à Tokyo, avec la priorité donnée aux développeurs qui ont manifesté leur intérêt depuis septembre dernier et ont été tirés au sort.

Un deuxième lot de Pepper est prévu pour cet été.

Le prix du robot seul est fixé à 213.840 yens (1.584 euros) l’unité.

Une liste d’applications et de fonctionnalités sont en sus disponibles moyennant le paiement de 575.424 yens (4.262 euros) en 36 mensualités, ainsi qu’une garantie optionnelle pour 381.024 yens (2.822 euros) à régler en 36 fois. Le coût total toutes options comprises dépasse ainsi 1,17 million de yens (8.668 euros).

Au regard de ce que coûtent généralement les plateformes de développement robotique, Pepper peut être considéré comme bon marché par les entreprises de logiciels dédiés aux machines.

SoftBank avait déjà mis quelques Pepper à la disposition de plusieurs développeurs à l’automne dernier, créateurs qui devraient présenter ce week-end leurs réalisations dans le cadre d’un concours spécial.

Pepper, robot semi-humanoïde blanc d’un peu plus d’un mètre de haut monté sur roulettes, s’appuie sur l’intelligence artificielle déportée en réseau.

Il sait notamment comprendre quand quelqu’un est content, triste ou en colère et est en théorie capable d’entretenir une conversation avec une personne, à condition que cette dernière ne dévie pas trop de la direction décidée par le robot.

L’androïde communique aussi à distance avec ses pairs à travers un réseau d’échange de données pour que chacun enrichisse ses connaissances et réagisse de mieux en mieux vis-à-vis des humains.

Un millier de Pepper ont déjà été engagés par le groupe Nestlé au Japon pour assister les vendeurs de machines à café dans des enseignes d’électroménager. D’autres jouent un rôle similaire dans quelques boutiques de SoftBank.

En proposant Pepper aux développeurs, le but de SoftBank est d’inciter les créateurs d’applications à l’enrichir de nouvelles fonctions, tout comme c’est le cas pour les tablettes et smartphones.

« Pepper est le premier robot à vraiment comprendre les hommes », se plaît à souligner le fondateur et patron de SoftBank, Masayoshi Son, ajoutant que « les enfants de demain sauront dès la naissance communiquer avec des robots ».

« Le but de SoftBank est de rendre les gens heureux grâce à la révolution de l’information », insiste aussi régulièrement le gourou nippon du secteur.

kap/anb/jh

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Premier prototype européen de robot endoscopique pour la micro-chirurgie laser des cordes vocales

La chirurgie des cordes vocales concerne les lésions cancéreuses, essentiellement liées au tabac (3 000 nouveaux cas par an) mais aussi, de plus en plus souvent, des lésions bénignes chez les personnes qui sollicitent beaucoup leur voix. Elle nécessite, afin de garantir la préservation de la voix du patient, une précision de l’ordre de 50 à 100 micromètres (environ le diamètre d’un cheveu). Or, à l’heure actuelle, la chirurgie utilise un laser dont la source est située à 40 centimètres de la bouche du patient, ce qui limite sa maniabilité et la précision du geste. Par ailleurs, le chirurgien opère à travers un microscope, et le tissu à traiter doit donc être dans le champ de visée, ce qui implique une position très inconfortable pour le patient, source de douleurs cervicales post-opératoires.

Pour pallier ces inconvénients, le projet européen μRALP1, porté par l’Institut italien des technologies, et associant entre autres l’institut FEMTO-ST et le CHRU de Besançon, développe un robot dédié à la chirurgie assistée des cordes vocales. Ce nouveau dispositif consiste en un endoscope flexible qui permet de visualiser les cordes vocales et d’amener la source laser à l’intérieur du patient, à 20 mm de sa cible. Véritable défi microtechnique, l’endoscope proposé embarque des éclairages en lumière froide, deux caméras miniatures pour assurer une vision en 3D, un laser chirurgical doublé d’un laser qui fait office de pointeur pour le chirurgien, et enfin, le micro robot de 1 cm3 qui va, grâce aux images fournies par les caméras, guider ces lasers le long de la trajectoire de référence dessinée par le chirurgien directement dans l’image à l’aide d’une tablette tactile. Grâce à une technique de fluorescence, des filtres aideront à déterminer s’il existe une zone cancéreuse au niveau de la lésion et augmenteront la précision du geste. Avec ce nouveau procédé, le chirurgien devrait obtenir une précision de l’ordre d’une centaine de micromètres.

Après de nombreuses étapes techniques de recherche et de développement, des essais précliniques sont effectués sur des cadavres à l’institut d’anatomie de l’Université de Franche-Comté pour la validation du concept du prototype actuel. Les essais de ce jour portent sur l’insertion de l’endoscope, la visualisation 3D, l’ergonomie du poste de travail et le guidage laser.

A terme, ce dispositif médical apportera une véritable valeur ajoutée à la phonochirurgie (chirurgie de la voix). En outre, les dispositifs conçus dans le cadre du projet μRALP pourront être utilisés dans d’autres systèmes robotiques chirurgicaux. Ainsi, l’institut FEMTO-ST et le CHRU travaillent déjà à la conception d’un endoscope pour la micro-chirurgie laser du tube digestif.

Source : cnrs

Le Royaume-Uni teste ses premières voitures sans conducteur

  • Bristol accueille le Venturer consortium, dont fait entre autres partie l’assureur Axa. L’objectif est d’étudier si les voitures sans conducteur peuvent réellement améliorer la sécurité sur les routes, ainsi que les problématiques réglementaires et d’assurance soulevées par ces nouveaux objets.
  • Greenwich accueille le Gateway scheme, dirigé par le Transport Research Laboratory, et impliquant entre autres General Motors. Ici seront testés des prototypes de navettes sans conducteur, ainsi que des services de voituriers automatiques pour ce type de véhicule.
  • Milton Keynes et Coventry accueillent le UK autodrive programme, impliquant Ford, Jaguar Land Rover ou encore Arup. Ce programme va tester le comportement des voitures autonomes sur la route, mais aussi de véhicules plus légers conçus pour les zones piétonnes. Seront plus spécifiquement étudiées les technologies à installer sur les routes pour assister la navigation de ces voitures.

Le chancelier de l’Echiquier George Osborne a annoncé il y a quelques mois un investissement supplémentaire de 9 millions de livres, venant s’ajouter aux 10 millions promis en juillet dernier. Les tests doivent durer de 18 à 36 mois.

Ces nouvelles technologies soulèvent malgré tout d’ores et déjà de nombreuses interrogations. Selon une étude réalisée par le site uSwitch.com, près de la moitié des britanniques refuseraient l’utilisation de ces véhicules par manque de confiance dans leur sécurité. Ils expriment également des inquiétudes concernant les responsabilités à engager dans le cas d’un accident.

Ces inquiétudes trouvent un écho dans une récente étude de l’Université de Michigan relayée par le quotidien The Telegraph. Cette étude souligne en effet que ces véhicules ne seront jamais complètement sûrs, notamment en raison des accidents qui ne sont pas dus au conducteur mais à des facteurs extérieurs et imprévisibles. Sont notamment pointés du doigt les comportements des automobilistes en chair et en os susceptibles de croiser la route des voitures automatiques. La cohabitation entre les deux types de véhicule constitue ainsi un point sensible sur lequel les citoyens demandent à être rassurés.

Pour finir, comme tout bon objet connecté, les voitures sans conducteur émettent et partagent des données numériques. Pour Guy Churchward, le directeur d’EMC, entreprise spécialisée dans la gestion des données numériques, cloud computing, etc., l’on s’engage ici non pas sur des problématiques de type Big Data (multiplication de la quantité des données), mais de type Small Data (éparpillement de myriades de micro-données). Or, pour gérer ces data, tout est d’après lui à inventer en matière de sécurité, stockage, gestion et application – et pas seulement pour les voitures, mais pour l’ensemble des objets connectés.

Le développement des voitures autonomes s’inscrit ainsi plus largement dans les problématiques soulevées par l’Internet des Objets (Internet of Things), identifié comme l’une des priorités technologiques du gouvernement britannique pour les années à venir.

Source : bulletins-electroniques

Cigéo en recherche d’une loi sur la réversibilité

La loi du 28 juin 2006, codifiée à l’article L.542-10-1 du code de l’environnement, prévoit que le Parlement vote une loi définissant les principes de réversibilité(*) de Cigéo. Le vote de cette loi devra se faire après le dépôt de la demande de création et après que cette demande ait reçu l’avis favorable de l’Autorité de sûreté nucléaire (ASN).

Le dépôt de la demande d’autorisation de Cigéo devant se faire en 2017, certains acteurs du projet plaident pour que le choix politique sur la réversibilité intervienne préalablement au dépôt du dossier de demande d’autorisation de création du centre. Car faire déposer un dossier sur la base de contraintes en matière de réversibilité non connues n’est pas forcément le plus pertinent. Cest pourquoi le lobbying est à son comble pour faire adopter un article de loi coûte que coûte au plus vite.

Cette loi sur la réversibilité a ainsi été prévue un temps dans un article de la loi relative à la transition énergétique pour la croissance verte, avant d’être retiré. Puis, dans un article de la loi « Economie : croissance et activité » dite « Loi Macron ». Craignant le vote d’opposition des écologistes, cet article a été retiré par Emmanuel Macron lui-même, avant son texte final présenté en décembre dernier. Plusieurs amendements ont ensuite été proposés au Sénat ou à l’Assemblée pour réintroduire la notion de réversibilité dans la loi, mais ils ont tous été rejetés.

Les dernières nouvelles de Cigéo

Un débat public s’est tenu entre le 15 mai et le 15 décembre 2013. Suite aux difficultées rencontrées face aux opposants locaux au projet, les réunions publiques n’ont pas pu se tenir et le débat s’est déroulé majoritairement sur Internet. Une conférence de citoyens s’est tout de même tenue.

Suite à ces discussions, le calendrier a été adapté et des tests complémentaires définis. Le dépôt de la demande d’autorisation du projet a été repoussée de 2015 à 2017. Cette demande sera alors instruite par l’ASN et l’Institut de radioprotection et de sûreté nucléaire (IRSN) pendant une durée maximale de 3 ans.

La grande nouveauté est notamment la mise en place d’une phase industrielle pilote. Si le projet est autorisé, les travaux de construction débuteront en 2020 et seront suivis par la phase industrielle pilote en 2025. Cette phase permettra de faire des essais en profondeur sur le site de stockage prévu, notamment sur la réversibilité, pour une durée allant de 5 et 10 ans. Trois périodes successives sont alors prévues. Tout d’abord des essais avec des colis factices non radioactifs, puis avec un petit nombre de vrais colis de déchets, et enfin une période pendant laquelle seront stockés, de manière progressive, des colis de déchets de haute et moyenne activité à vie longue ou courte, représentatifs de l’inventaire des colis de déchets destinés à Cigéo. « On va mettre des colis, les retirer, vérifier que l’on peut récupérer les colis à 100% », précise l’Andra. Si cette phase de tests s’avère concluante, le Parlement devrait décider de passer en phase d’exploitation courante pour une centaine d’année.

En réponse aux demandes exprimées par les acteurs locaux, l’Andra a aussi décidé de raccorder le site au réseau ferré national pour permettre l’acheminement des colis de déchets par le rail

jusqu’à Cigéo. Ces travaux commenceront dès 2015, avec la préparation d’autres aménagements au niveau local : création d’un poste électrique, aménagements de certaines routes, etc.

Des opposants et des précisions à venir

Les opposants au projet pointent du doigt le manque de certains éléments, portant notamment sur les conditions de fermeture de Cigéo, le manque de définition de la notion de réversibilité et l’évolution constante des coûts du projet. Une grande partie de ces éléments devront être finalisés pour la demande d’autorisation de création du centre de stockage en 2017.

Pour répondre aux interrogations qui demeurent, trois dossiers essentiels vont être remis en 2015 par l’Andra. Il s’agit du dossier présentant le projet de plan directeur d’exploitation, le dossier portant sur les options de sûreté en exploitation et après fermeture, ainsi que le dossier traitant des options techniques de récupérabilité. Ce dernier détaillera les moyens par lesquels l’Agence s’engage à assurer la possibilité de récupérer les colis de déchets pendant 100 ans.

Enfin, l’Andra a rendu à l’Etat un nouveau chiffrage du coût total du projet en Octobre 2014, après prise en compte des suites du débat public et des études d’optimisation en cours. Ce chiffrage n’a pas encore officialisé. La dernière estimation offcicielle date de 2005, à hauteur de 15 Md€2010. D’autres chiffres non officiels ont été rendus publics, notamment par la Cour des Comptes, sur la base de travaux de l’Andra, à hauteur de 35,9 Md€2010.

(*) Le stockage devra être réversible durant toute la durée d’exploitation du site, soit une centaine d’années. Ce, pour offrir aux générations futures la possibilité de retirer les colis de déchets radioactifs s’ils découvrent une meilleure solution.

Aller plus loin

Par Matthieu Combe, journaliste scientifique

Les patelles ont vraiment la dent dure

Appelées également berniques ou chapeaux chinois, ces gastéropodes comestibles possèdent une sorte de langue (la radula) très longue munie de petites dents (moins d’un millimètre) très solides, qui leur permettent de râcler les petites algues à la surface des rochers pour les manger.

« Jusqu’à présent nous pensions que le fil de l’araignée était le matériau biologique le plus performant en raison de sa grande résistance et de ses applications potentielles nombreuses allant des gilets pare-balles jusqu’aux ordinateurs », relève le professeur Asa Barber, de l’école d’ingénieurs de l’université de Portsmouth (sud de l’Angleterre).

« Mais nous avons découvert que les dents de patelles possèdent une résistance potentiellement plus grande », ajoute-t-il.

L’étude est publiée mercredi dans le journal britannique Royal Society Interface.

L’équipe d’Asa Barber a mis en évidence le fait que les dents des berniques contiennent des nanofibres d’un minéral très dur, le goethite. Le nom de cet oxyde de fer hydraté fait référence au philosophe allemand Goethe, passionné de minéralogie.

« Les structures fibreuses trouvées dans les dents des patelles pourraient être imitées et utilisées pour des technologies de pointe comme les voitures de course, les coques de bateaux, le fuselage des avions », estime Asa Barber.

« Les ingénieurs cherchent toujours à fabriquer des structures à la fois plus solides et plus légères », souligne-t-il.

En laboratoire, la résistance à la contrainte des dents de patelles a été estimée entre 3 et 6,5 gigapascal (GPa). Celle des fils d’araignée ne dépasse pas 1,1 GPa.

La force mécanique des dents de patelles est comparable à celle des fibres de carbone artificielles, utilisées notamment dans la fabrication des avions.

Petit conseil aux amateurs de patelles, qui peuvent aussi se déguster: il est recommandé de retirer la radula de la tête de ce fruit de mer avant de le cuire sans quoi il sera particulièrement dur et amer.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Transition énergétique: le Sénat dit une nouvelle fois non au gaz de schiste

Le Sénat s’est une nouvelle fois opposé, dans la nuit de mercredi à jeudi, au gaz de schiste que des sénateurs UMP avaient tenté de réintroduire à l’occasion de l’examen du projet de loi sur la transition énergétique.

Ces sénateurs avaient déposé un amendement intégrant dans le volet de programmation plurianuelle de l’énergie (PPE) « la nécessaire identification du potentiel énergétique de la France en matière d’hydrocarbures non conventionnels », c’est-à-dire des gaz de schiste. Cet amendement a été rejeté.

« Après les manifestations contre la fracture hydraulique puis contre le gaz de schiste, le dossier a été mis au placard », a déclaré le président de la Commission économique, Jean-Claude Lenoir (UMP). « Imaginez que la même chose se soit passée pour le gaz de Lacq qui a tant participé, pendant quarante ans, au développement de l’Aquitaine et de nos territoires », a-t-il ajouté.

« Faisons confiance aux chercheurs », a plaidé Charles Revet (UMP), estimant que ceux-ci « trouveront des techniques respectueuses de l’environnement. Ne nous privons pas de connaître nos potentialités ».

« Je ne compte pas rouvrir le débat sur le gaz de schiste », a déclaré le rapporteur Lasislas Poniatowski (UMP). « Oui à l’exploration: il est absurde d’ignorer ce que recèle notre sous-sol », a-t-il renchéri, rappelant que « la France et la Pologne, il y a quelques années, étaient réputées être les pays européens ayant le plus fort potentiel. Après recherche, la Pologne a découvert que son potentiel était huit fois moindre qu’annoncé ». Et de conclure: « L’exploitation est une autre question ».

« Aux États-Unis, les forages d’exploitation ont fait des paysages des friches après la faillite des entreprises qui y ont abandonné tout leur matériel », leur a répondu la ministre de l’environnement Ségolène Royal, avant de poursuivre: « ne laissons pas croire que l’exploitation de cet hydrocarbure annonce un eldorado du sous-sol. Faisons des choix clairs: la biomasse, les moulins. Pas le gaz de schiste, n’en déplaise au lobby des investisseurs dans ce domaine qui nous réclameront ensuite des subventions publiques parce que l’exploration n’est pas rentable et causera des dégâts à l’environnement ».

Mathieu Darnaud (UMP), élu de l’Ardèche, département concerné par une éventuelle exploitation du gaz de schiste, s’est opposé à l’amendement. « La fracturation hydraulique fait courir un risque considérable au sous-sol fragile de notre département, » ce qui affecterait « le thermalisme, l’agriculture, la viticulture. Les conséquences seront incalculables sur le tourisme, les paysages, » a-t-il alerté.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

La France continue à perdre des usines

En 2014, 217 usines ont mis la clé sous la porte, soit un peu moins qu’en 2013, où 267 fermetures d’usines avaient été enregistrées, selon les données de l’Observatoire de l’emploi et de l’investissement de Trendeo, basé sur le recensement en temps réel des informations concernant ces deux domaines.

Trendeo comptabilise sous le terme d’usine tout établissement à activité industrielle (y compris les industries alimentaires et de l’énergie), qui emploient plus de dix salariés.

Dans le même temps, les créations d’usines ont connu un rebond, après avoir marqué le pas en 2013. L’an passé, 163 sites ont ouvert leurs portes dans l’Hexagone, soit 41 de plus qu’en 2013.

Entre 2012 et 2013, les créations d’usines s’étaient significativement réduites, 53 sites de moins ayant ouvert leurs portes.

« Le rythme de cette évolution est encore insuffisant pour que le solde net des créations et suppressions devienne positif », note toutefois l’Observatoire.

La France a en effet encore perdu 54 sites industriels l’an dernier.

Ce sont les industries alimentaires qui tirent leur épingle du jeu: elles ont représenté 16% des créations d’usines en 2014, soit 2% de plus qu’en 2013.

Même si elles pèsent également pour 10,6% dans les fermetures d’usines (-5,5% par rapport à 2013, ce qui constitue une nette amélioration).

La mécanique (produits métalliques divers) est le deuxième secteur à avoir généré le plus d’ouvertures d’usines l’an passé (12,9%, +2,2% par rapport à 2013), mais est aussi le premier à être touché par les fermetures d’usines, dans une proportion égale (12,9 %, en recul toutefois de 3,6 % par rapport à 2013).

En revanche l’imprimerie, qui a représenté 8,8% des fermetures d’usines en 2014, soit 4,6% de plus qu’en 2013, continue à aller mal. Sur six ans (2009-2015), le secteur enregistre 88 fermetures d’usines pour seulement 8 ouvertures.

« Les usines qui se créent sont également de plus en plus petites en termes d’emplois, avec une baisse de 32% depuis 2009 », ajoute Trendeo.

Ainsi en 2014, 49 emplois en moyenne ont été générés par site industriel créé, contre 59 en 2013.

Au total, depuis 2009, date du début de la crise, 1.576 usines ont fermé leurs portes en France contre 1.000 qui ont ouvert.

Sur la période 2009-2015, 4,6% des fermetures d’usines sont des délocalisations.

La région centre, avec 65 établissements perdus depuis 2009, est la plus sinistrée en matière de désindustrialisation, suivie par le Nord-Pas-de-Calais (49) et la région Rhône-Alpes (44).

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Transition énergétique : le Sénat fixe à 1.000 mètres la distance entre une éolienne et des habitations

« Allez donc vous promener près d’une éolienne géante: le bruit est infernal », a dit l’auteur de l’amendement Jean Germain (PS) à l’occasion de l’examen du projet de loi de transition énergétique.

« De loin, un citadin qui passe, trouvera cela beau et majestueux. Pour les ruraux, ça l’est moins », a-t-il ajouté. « Pour des raisons médicales, la Grande-Bretagne et l’Allemagne ont fixé une distance minimale de 1,5 kilomètre; les États-Unis qui ne sont guère connus pour appliquer le principe de précaution, 2 kilomètres », a poursuivi l’élu. « Avec mon amendement, on concentrera les éoliennes dans des zones inhabitées et les parcs atteindront une taille critique. Le monde rural ne veut pas passer par pertes et profits ».

« Ce qui compte, ce sont les résultats: comment obtenir des éoliennes assez bien acceptées pour éviter l’accumulation des recours », a dit le rapporteur Louis Nègre (UMP).

Pour la Fédération énergie éolienne (FEE), qui regroupe la quasi-totalité des acteurs du secteur en France, cette disposition, si elle était maintenue, « serait catastrophique » et « neutraliserait » toutes les autres mesures favorables à l’éolien adoptées par le Sénat sur ce texte.

« Dans des zones d’habitats dispersés, cela peut grever fortement le développement éolien et cette distance de 1.000 mètres n’est basée sur aucune analyse », selon Frédéric Lanoë, président de la FEE.

Les professionnels insistent sur le fait que cette disposition « obérerait » l’atteinte de l’objectif, adopté par le Sénat, de 40% d’énergies renouvelables dans le mix électrique à l’horizon 2030.

Les sénateurs ont également supprimé l’article du projet de loi concernant le barème d’indemnisation des propriétaires lésés par l’implantation d’une éolienne.

« La systématisation du principe d’indemnisation est inquiétante, qui pourrait être étendue par exemple aux antennes-relais », a estimé M. Nègre. « En attendant de trouver la bonne rédaction, tenons-nous en au régime de responsabilité de droit commun prévu par le code civil » qui prévoit qu' »en l’absence d’un accord avec l’exploitant, l’indemnisation est déterminée au cas par cas par le juge civil », a ajouté l’élu des Alpes-Maritimes.

Le projet de loi, déjà adopté par l’Assemblée nationale, est examiné au Sénat jusqu’au 19 février. Il fera l’objet d’un vote solennel le 3 mars.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Les Américains s’intéressent à Europe, une lune de Jupiter

Barack Obama a accepté d’augmenter le budget de la NASA en 2016 de 2,7%, de quoi financer une mission vers Europe, une des lunes de Jupiter. Les Américains s’y intéressent car Europe pourrait bien abriter la vie. En effet, Europe possèderait une grande quantité d’eau, sous forme d’océans et de lacs, le tout proche de la surface, à seulement quelques kilomètres de profondeur.

De plus, Europe bénéficie suffisamment de la chaleur du Soleil pour que des organismes puissent se développer. De quoi susciter la curiosité et motiver une mission spatiale. 

La sonde Europa Clipper devrait être prête à décoller dès 2020, un calendrier serré car la sonde devra supporter un environnement hostile, principalement du fait d’importantes radiations aux abords de Jupiter. Les scientifiques planchent d’ailleurs toujours sur les équipements à embarquer. Ce qui est sûr, c’est qu’Europa Clipper devra être équipée de boucliers la protégeant des radiations, elle et ses instruments.

Les ingénieurs hésitent à faire atterrir la sonde à la surface de la Lune, le scénario le plus probable étant que la sonde reste en orbite et effectue ses mesures à distance. Ainsi positionnée autour de Jupiter, Europa Clipper s’approchera régulièrement de la lune à une distance suffisamment proche pour travailler. Une option plus sûre et plus économe.

Europa Clipper devra prendre des photos mais aussi analyser l’eau et les vapeurs présentes en surface. La sonde va ainsi cartographier la surface d’Europe et repérer les étendues d’eau en vue d’éventuelles prochaines missions d’exploration. Les 30 millions de dollars alloués et débloqués par le Congrès américain permettront d’affiner la stratégie et de préparer au mieux la mission.

Par Audrey Loubens

Revue du web #76 : les vidéos les plus étonnantes de février 2015 (2/2)

Cette semaine dans la revue du Web :

  • Spot, nouveau poids plume sans laisse de la Boston Dynamics ;
  • Dérouiller au laser, un jeu d’enfant ;
  • De la triche ? Se faire battre à plate-couture au bière-pong par un bras robotique ;
  • Le gadget (inutile?) de la semaine : « DALER », le robot volant pas très à l’aise au sol ;
  • Et en bonus : réactions en chaîne, à travers le prisme de Pepsi.

Spot, nouveau poids plume sans laisse de la Boston Dynamics

La famille de la Boston Dynamics, rachetée fin 2013 par Google, s’agrandit encore ! Le robot-guépard Cheetah, le robot anthropomorphe Petman et les mules-robots Alpha Dog et Big Dog ont un nouveau petit frère, baptisé Spot, plus léger et moins pataud que ses prédécesseurs. Parmi cette invincible armada, Cheetah a été le premier à briser ses chaînes, mais Spot se démarque des prestigieux membres de sa fratrie en étant le premier à naître « libre », sans les encombrants – mais indispensables – câbles auxquels nous avions fini par nous habituer.

Dans la vidéo qui suit, on peut apercevoir les 72 kilos de ce poids plume déambuler tranquillement dans les locaux de la Boston Dynamics, rien d’inhabituel puisque personne ne semble remarquer le petit manège du quadrupède robotique. Bien que le nom soit celui d’un chien, la démarche, elle, fait plutôt penser à celle d’un minuscule cheval au trot sur ses quatre pattes à vérins hydrauliques. La batterie de capteurs qui a élu domicile au niveau de son ciboulot lui permet de se mouvoir sans encombres en terrain accidenté, et de supporter sans broncher les assauts répétés – quelques coups de pied tout de même – de scientifiques mal lunés.

Spot a été développé par la Boston Dynamics avec l’aide du Massachusetts Institue of Technology (MIT) sous la houlette de la DARPA (Defense Advanced Research Projects Agency), agence affiliée au Département de la Défense américain, et chargée de la recherche et du développement des nouvelles technologies destinées à des fins militaires.

Dérouiller au laser

La société allemande Trumpf est l’une des pionnières du laser à l’échelle mondiale. A la tête d’une écurie laser très diversifiée – allant du laser à disque au laser à diode, en passant par les lasers à fibres et les lasers pulsés – Trumpf est également à la pointe en ce qui concerne les lasers à impulsions courtes et très courtes, utilisés pour découper, structurer, percer ou abraser. C’est cette dernière technique qui nous intéresse ici, avec une vidéo illustrant de manière ludique un nettoyage laser impressionnant.

Ne faisant qu’une bouchée des écailles de rouille, des poussières, des résidus huileux ou des oxydes, ce laser à impulsions courtes (30 nanosecondes, pour une puissance de 750 watts) semble idéal pour le micro-usinage d’abrasion. La pièce métallique servant de cobaye, elle, paraît mise à nue après les deux passages du laser, tellement le procédé semble efficace. Une deuxième jeunesse.

Dans le même esprit, la vidéo qui suit nous montre une autre installation laser du même acabit, permettant de libérer un plateau de cuisson de sa couche de rouille et des quelques résidus carbonisés en surface. Hypnotique !

De la triche ? Se faire battre à plate-couture au bière-pong par un bras robotique

Pas familiers du bière-pong ? Très répandu sur les campus universitaires américains, les règles de ce jeu à boire sont d’une simplicité enfantine : chacune des deux équipes vise les six à dix verres de l’adversaire, partiellement remplis de bière, avec des balles de ping-pong. Lorsqu’une balle finit sa course dans l’un des verres, l’équipe adverse doit en boire le contenu. A la fin du jeu, l’équipe perdante doit boire les verres restants, en faisant mine d’être dépitée.

Bien qu’un laboratoire ne semble pas être l’environnement naturel pour pratiquer ce genre de jeu, les blouses blanches d’Empire Robotics ont jeté leur dévolu sur cette petite mise en scène pour mettre en valeur les nombreuses qualités de « Versaball », leur bras grip robotique. Conçu pour manipuler avec soin et précision une grande variété d’objets, le secret de « Versaball » repose dans la sphère flashy en polymère souple qui se trouve à son extrémité. Rappelant un peu le principe d’un canon à air, la petite boule se vide pour attraper les objets, puis se remplit à nouveau d’air pour les relâcher.

Dans la vidéo qui suit, on peut voir le bras-grip manipuler les balles de ping-pong avec beaucoup de délicatesse, pour après propulser chacune des balles, une à une, dans les six gobelets (vides), en jouant sur la pression de l’air pour parvenir à propulser la balle avec précision. Autant vous le dire tout de suite, « Versaball » risque de rester sobre encore longtemps.

Le gadget (inutile?) de la semaine : « DALER », le robot volant pas très à l’aise au sol

Le biomimétisme a le vent en poupe, et ce ne sont pas les concepteurs de notre gadget (inutile?) de la semaine qui viendront nous dire le contraire. Le « DALER » (acronyme de Deployable Air-Land Exploration Robot) est un petit robot aux allures de chauve-souris, censé apporter une solution aux problèmes de polyvalence de ces engins lorsqu’ils changent de terrain de jeu et de moyen de locomotion. Plutôt très à l’aise dans les airs, le robot adapte sa morphologie pour s’attaquer au plancher des vaches, avec… moins de succès.

Un ingénieux mécanisme permet aux ailes de la petite bestiole de se replier, les bras ailés faisant ainsi office de pattes de fortune. Pourtant, le moins que l’on puisse dire est que la démarche est mal-assurée, et que la progression du robot semble compromise en extérieur sur terrain difficile. Développé pour rechercher de potentielles victimes lors de catastrophes naturelles, on se prend à espérer que les prochaines versions seront moins malhabiles.

Bonus : réactions en chaîne, selon Pepsi

Pour venir conclure cette soixante-seizième Revue du Web, faisons quelques pas en arrière pour se retrouver fin 2014, au moment des sempiternelles célébrations de nouvel an. Plutôt que de jouer la traditionnelle carte du feu d’artifice, Pepsi a décidé de marquer les esprits en organisant la rencontre contre-nature de 2014 pièges à souris avec… 2015 balles de ping-pong.

Faisant preuve d’une délicatesse à toute épreuve, l’équipe en charge du projet doit tout de même s’y reprendre à deux fois tant la mise en place est périlleuse. Une fois l’installation terminée et les pièges tendus, il ne reste plus qu’à profiter de la jouissive double explosion.

Par Moonzur Rahman

Réduction en 2014 de 11 milliards d’euros de la facture énergétique de la France

Ce résultat est en amélioration de 7 milliards d’euros par rapport à celui de 2013, alors que celui de 2013 était lui aussi en amélioration de plus de 6 milliards d’euros par rapport à celui de  2012 (TAB.I)

Cette progression du solde ne provient pas d’un progrès dans les exportations qui son restées quasiment étales entre 2013 et 2014 autour des 437 milliards d’euros, mais il provient de la baisse des importations expliquée pour l’essentiel par la baisse de la facture énergétique.

A partir du cumul des nomenclatures publiées par les douanes et qui ne comportent pas les échanges de matériels militaires, les soldes exportateurs sont alors plus négatifs (TAB.II)  mais les progrès annuels de 7 milliards d’euros durant ces dernières années y sont retrouvés avec respectivement de 2011 à 2014 des soldes déficitaires de 91, 84, 77 et 70 milliards d’euros.

 

Ces données montrent que la France, depuis plus de dix ans, consomme plus de biens qu’elle n’en produit (le dernier solde exportateur positif remonte à 2002) ,  mais qu’après un maximum de ce déséquilibre observé en 2011, le bilan exportateur du commerce extérieur bien qu’encore fortement négatif, évolue depuis trois ans dans la bonne direction grâce en particulier à la baisse des importations et une certaine stabilité des exportations, à euros courants. 

Un examen plus détaillé de la facture énergétique montre qu’elle joue un rôle majeur dans cette baisse récente des importations de notre pays (TAB.III).

J’ai relevé, au sein de la nomenclature des douanes françaises, un certain nombre de lignes qui représentaient des énergies primaires (charbon, gaz naturel, pétrole, combustibles nucléaires), les produits issus du raffinage du pétrole dont les importations complètent les insuffisantes productions du raffinage local, un vecteur d’énergie: l’électricité ainsi que certains produits comme l’aluminium ou les engrais et composés azotés, comme l’urée, dont l’élaboration est particulièrement énergivore.

Le solde négatif de cet indicateur des échanges énergétiques a affiché son amplitude maximale en 2012 avec un déficit de près de 75 milliards d’euros, il est revenu à 60 milliards d’euros en 2014, affichant un superbe retrait de 11 milliards d’euros par rapport à celui de 2013. Ce sont essentiellement les réductions en volumes et en prix des importations de gaz naturel, de pétrole et autres produits pétroliers qui expliquent pour 90% la performance. Il est également possible de noter la croissance du solde positif des exportations d’électricité, la France, favorisée par un hiver clément, au sein du réseau ouest-européen interconnecté, a pu jouer à fond son rôle indispensable de fournisseur d’énergie électrique de base.

Une donnée importante: malgré une consommation stable de carburants (essence, gazole et kérosène) les flux de consommations françaises en volumes de produits pétroliers en Octobre  2014 moyennées sur 12 mois glissants étaient en baisse de 4% selon l’IEA (FIG.I, courbe rouge). Baisse en volume des consommations qui participe à la réduction en euros des importations de produits pétroliers.

En conclusion il est possible d’affirmer aujourd’hui que la baisse des prix des ressources énergétiques primaires, plus ou moins indexées sur le prix du baril de pétrole, et que la baisse continue des consommations françaises de produits pétroliers participent ensemble à la réduction du solde négatif des échanges de produits de la France. Compte tenu du maintient de prix bas du baril de pétrole observé en ce début 2015, ce phénomène de réduction du solde annuel défavorable des échanges devrait se poursuivre durant 2015, au moins jusqu’au mois de Juillet.

Après, tout dépendra d’un redressement éventuel des cours du brut, largement lié aux paramètres géopolitiques et à un hypothétique mouvement de baisse des cours du dollar vis à vis des autres monnaies qui inciterait les acteurs de marché à des achats de couverture de pétrole papier.

Par Raymond Bonnaterre

GDF Suez prend le virage des énergies renouvelables

Le groupe GDF Suez s’est fixé un objectif ambitieux : augmenter de 50 % son parc de production d’énergies renouvelables entre 2009 et 2015. En passant de 13,1 GW installés fin 2009, à 20,7 GW fin 2015, il prévoit d’atteindre ses objectifs. GDF Suez devrait alors détenir 9,9 GW d’installations en Europe et 10,8 GW dans le reste du monde. D’après les derniers chiffres publiés du groupe, au 1er trimestre 2014, le parc de production se répartissait ainsi : 59 % de gaz naturel, 14 % de charbon, 11 % d’hydraulique, 7 % d’énergie solaire, 5 % de nucléaire, 3 % d’éolien et 1 % de biomasse et biogaz, pour un total de 114 GW. Les chiffres pour fin 2014 seront connus le 26 février prochain, à l’occasion de la publication de ses résultats annuels.

Si l’on ne considère que les énergies renouvelables, l’hydraulique occupe donc une place importante. Il représente 51 % des capacités renouvelables en Europe et 87 % dans le reste du monde. L’éolien pour sa part représente respectivement 36 % et 11 % des capacités installées du groupe en Europe et hors d’Europe.

Pour l’après 2015 et d’ici 2025, le groupe veut doubler ses capacités électriques en énergies renouvelables en Europe pour atteindre 16 GW installés. Hors d’Europe, environ 42 % des projets électriques en construction concernent d’ores et déjà des énergies renouvelables. 

Quels sont les projets phares en Europe ?

GDF Suez a plusieurs projets en cours dans l’éolien posé en mer, l’hydrolien et l’énergie thermique des mers. Concernant l’éolien, c’est le consortium réunissant GDF Suez et Areva qui a remporté les deux champs éoliens présents dans le 2e appel d’offre du Gouvernement. Le premier, de 496 MW, est prévu au large du Tréport (Seine-Maritime). Le second, de 496 MW, se dressera en Atlantique, entre l’île d’Yeu et Noirmoutier. Ces deux parcs comprenant chacun 62 éoliennes de 8 MW seront mis en exploitation en 2021.

Selon l’Ademe, le gisement hydrolien est estimé entre 2 et 3 GW. Deux zones en France concentrent 80 % de ce potentiel : le raz Blanchard et le Fromveur, sur la côté Atlantique entre Brest et Cherbourg. GDF Suez développe notamment un parc hydrolien pilote au raz Blanchard. 4 hydroliennes de 1,4 MW seront installées dès 2016. 

Le groupe mise sur l’eau de mer pour chauffer et climatiser des quartiers côtiers. Différents projets sont en cours : la filiale Cofely va réaliser une centrale de géothermie marine innovante qui doit approvisionner en froid et en chaleur l’éco-cité Euroméditerranée. Il s’agit d’un gigantesque projet de rénovation urbaine devant transformer une grande part de la zone portuaire de Marseille.Les travaux de la centrale débuteront début 2015 pour permettre les premières livraisons de froid fin 2015. D’ici 2020, 500 000 m2 seront alimentés en chaud et en froid grâce à une puissance installée de 18,6 MW de chaud et 16 MW de froid. 

Un autre projet vise à assurer la climatisation des grands établissements publics et privés de Saint-Denis et Sainte-Marie, à la Réunion, grâce à l’énergie thermique des mers. Il prévoit une capacité de 40 MW. Les travaux commenceront mi-2015 pour une mise en service mi-2017. Ce projet est mené par la société Clymabiss, dont GDF Suez détient 87,5 %, à côté de la Caisse des Dépôts.

Par Matthieu Combe, journaliste scientifique

Et aussi dans l’actualité :           

La cyberguerre contre le terrorisme est déclarée

Il y a quelques jours, Bernard Cazeneuve réalisait le changement de nature du terrorisme. Le ministre de l’intérieur français faisait référence à l’utilisation d’internet qui permet aux jihadistes de faire de la propagande et de recruter, constatant qu’ « Aujourd’hui vous avez 90% de ceux qui basculent dans des activités terroristes au sein de l’Union européenne qui le font après avoir fréquenté internet. Des sites, des blogs, des vidéos. On ne combattra pas le terrorisme si on ne prend pas des mesures de règlementation d’internet ».  La guerre 2.0 a bel et bien commencée. Mais les plus rapides à engager des actions concrètes sont les experts en piratage informatique du mouvement Anonymous, fervents défenseur de la liberté d’expression.  Suite aux attentats du 7 janvier, les Anonymous ont été les premiers à s’attaquer au mal présent sur la toile. Les hackers ont commencé par diffuser une liste de comptes d’utilisateurs des réseaux sociaux Twitter et Facebook invitant les internautes à les dénoncer, avec en ligne de mire leur suppression. Avec succès puisque en quelques heures à peine la trentaine de comptes cités avaient quasiment tous disparus. Tandis que les Anonymous continuent de marteler les cibles pro-terroristes, les terroristes ripostent en s’attaquant à des sites français. Mediapart, Slate, Le Parisien, 20 minutes, L’Express, Marianne et même Vanity Fair ont été inaccessibles pendant plus d’une heure, victimes d’une attaque de type déni de service qui consiste à rendre indisponible un service. 

S’attaquer aux organes de communication était devenu une urgence. Grâce à Internet, les terroristes d’Al-Qaïda et de l’Etat Islamiste peuvent toucher un grand nombre d’individus. Plus besoin de faire venir les personnes se former en Syrie par exemple, il suffit de leur montrer des vidéos sur la façon de mener un attentat. « Il s’agit d’un phénomène que nous observons depuis plusieurs années : le terrorisme en solo. Ce sont des gens qui se radicalisent en ligne, n’ont pas de lien avec un réseau existant mais passent néanmoins à l’action » constate Thomas Hegghammer, directeur de recherches sur le terrorisme à l’Établissement norvégien de recherches sur la défense (FFI) à Oslo. 

En attendant, le gouvernement vient tout juste de lancer son site Stop-djihadisme.gouv.fr pour informer le grand public et lutter contre l’enrôlement. Au travers de vidéos et de texte le site décrypte les techniques de recrutement et les messages des terroristes. Cette action d’information devrait être accompagnée de mesures plus directes comme le renforcement des moyens dédiés à la surveillance du cyberjihadisme.

Par Audrey Loubens, journaliste scientifique

Comment anonymiser tout ce que vous faites en ligne

Comment se rendre invisible sur la Toile ? En chiffrant vos données, et en utilisant des outils vous permettant de surfer incognito sur le Web, comme le réseau Tor, qui utilise une chaîne de serveurs proxys (“routage en oignons”) pour cacher votre adresse IP, et chiffrer votre connexion.

Naviguer incognito

En ce qui concerne la navigation sur le Web, Tor Browser est une version améliorée, sécurisée, de Firefox, qui passe par le réseau Tor pour anonymiser votre surf. Revers de la médaille : la connexion est assez lente, car elle passe par de nombreux serveurs délocalisés. Mais le jeu en vaut la chandelle, car cela vous permet de ne plus être pisté tous azimuts lors de votre navigation.

Des e-mails sécurisés

Pour sécuriser vos e-mails, vous pouvez chiffrer vos communications avec un logiciel tel que GnuPG, mais cela vous demandera un certain temps d’adaptation, car cet outil est un peu complexe.

Plutôt que Gmail, Outlook ou Yahoo! Mail, qui scannent vos emails et peuvent toujours vous retrouver, il existe un service d’e-mail “temporaire” : Guerrilla Mail. Il vous permet de configurer une nouvelle adresse e-mail “jetable” en un clin d’oeil. Riseup.net permet également de créer des e-mails privés et sécurisés, car sans publicité, gérés par une communauté militant pour le respect de la vie privée, et utilisant une connexion chiffrée.

Pour davantage de sécurité, utilisez ensuite le client de messagerie Mozilla Thunderbird. Vous pourrez y installer le plugin Enigmail, qui utilise GnuPG pour chiffrer les communications, vous évitant de le faire manuellement. Un autre plugin, TorBirdy, achèvera de sécuriser tout ceci, en faisant passer vos e-mails à travers Tor.

Le partage de fichiers en oignons

Oubliez Google Drive, Box ou Dropbox, qui ont accès à vos documents, et qui sont peu réputés pour leur sécurité. Créé par Micah Lee, du magazine The Intercept, le logiciel gratuit et open source Onionshare permet de transférer de gros fichiers, en toute sécurité, et anonymement, via Tor et des canaux chiffrés.

Onionshare crée un site web provisoire, protégé par un mot de passe, hébergé sur votre ordinateur. Ce site est accessible depuis une adresse .onion, grâce au réseau Tor. Il vous suffit de partager avec vos contacts l’URL du site provisoire, pour que ceux-ci puissent télécharger en toute sécurité, et anonymement, vos fichiers… via leur propre navigateur Tor Browser, bien sûr. Une fois téléchargés, les fichiers sont retirés.

Un smartphone vraiment sécurisé

Pensez-y, surtout si vous passez par un Wi-Fi non sécurisé. Si vous utilisez un smartphone Android, l’application (gratuite) Orbot, créée par le Guardian Project pour améliorer l’anonymité de vos activités sur Internet, vous permettra de cacher votre identité numérique lors de votre surf sur Internet, mais aussi lors de vos conversations en messagerie instantanées, en passant par le réseau Tor.

Pour une navigation internet privée, vous devrez combiner Orbot et le navigateur Orweb, qui acceptera de faire passer votre communication via un proxy. Pour une messagerie instantanée privée, vous devrez conjuguer Orbot et l’application de tchat Gibberbot.

Pour les smartphones iOS, le navigateur Onion Browser, qui coûte 99 centimes d’euros dans l’App Store, accède à Internet via le réseau Tor. L’adresse IP sera donc masquée et la connexion chiffrée.

Un système d’exploitation anonyme

Pour toujours plus d’anonymat et de sécurité, il existe même un système d’exploitation libre (GNU/Linux, basé sur la distribution Debian), développé par des hacktivistes, dont l’objectif est de “préserver votre vie privée et votre anonymat”.

Tails peut être installé sur un ordinateur, en complément ou à la place du système Windows existant, mais il peut aussi être lancé depuis un DVD ou une clef USB sur lesquels il aura été préalablement installé.

Ce système d’exploitation réunit l’essentiel des outils et logiciels libres permettant de communiquer en toute sécurité. Tails intègre ainsi le réseau Tor pour la navigation, mais aussi GnuPG pour le chiffrement des e-mails, ou encore TrueCrypt pour le chiffrement des fichiers.

Par Fabien Soyez

Planck dévoile le côté dynamique de l’Univers

La mission Planck est dédiée à l’étude du rayonnement fossile, l’écho lumineux du Big-Bang. Les mesures, faites dans neuf bandes de fréquence, permettent de construire des cartes de la température du ciel mais aussi de sa polarisation, qui nous donne des informations supplémentaires à la fois sur l’Univers très jeune (âgé de 380 000 ans) et sur le champ magnétique de notre Galaxie.

Ces données et les articles associés sont soumis à la revue Astronomy & Astrophysics et sont disponibles sur le site web de l’ESA. Des informations qui permettront notamment de mieux déterminer le contenu en matière et en énergie de l’Univers, l’époque de la naissance des premières étoiles ainsi que le taux actuel d’expansion de l’espace.

 

De 2009 à 2013, le satellite Planck de l’ESA a observé le rayonnement fossile, la plus ancienne image de l’Univers. L’héritage légué par ce projet inclut de très nombreuses données uniques et essentielles pour plusieurs domaines de l’astrophysique. Citons entre autres la carte de l’émission polarisée de la poussière interstellaire ainsi qu’un catalogue de 13188 nuages denses et froids de notre Galaxie et de 1653 amas de galaxies détectés par leur interaction avec le rayonnement fossile, mais aussi des informations sur la façon dont la matière s’est peu à peu concentrée lors des dix derniers milliards d’années et, enfin et surtout, la carte de ce rayonnement fossile sur tout le ciel. Cet outil permet aux chercheurs de visualiser la distribution de matière 380 000 ans après le Big Bang. Grâce à ces données, nos connaissances sur l’Univers jeune deviennent dynamiques et permettent d’explorer tous les rouages du modèle cosmologique.

Le rayonnement fossile

Sur la carte ci-dessus, les couleurs indiquent les écarts de la température du rayonnement fossile par rapport à sa valeur moyenne. Les zones bleues, plus froides, et les zones rouges, plus chaudes, témoignent des variations dans la densité de la matière tôt dans l’histoire de l’Univers. La direction et l’intensité de la polarisation apparaissent en filigrane sur la carte de température. Elles forment une empreinte qui témoigne des mouvements de matière qui chute vers les régions les plus denses et fuit les régions moins denses. Ces structures s’observent à différentes échelles sur le ciel.

Ces nouvelles données ont permis de déterminer de façon précise le contenu matériel de l’Univers : 

  • 4,9% de son énergie aujourd’hui est composé de matière ordinaire,

  • 25,9% de matière noire, dont la nature reste inconnue,

  • 69,2% d’une autre forme d’énergie, distincte de la matière noire et dont la nature précise est plus mystérieuse. 

On sait également mieux déterminer l’époque de la naissance des premières étoiles, qui est désormais estimé aux alentours de 550 millions d’années après le Big Bang. Enfin, grâce à ces données d’une très grande précision, les chercheurs ont pu évaluer le taux actuel d’expansion de l’espace, ce qui conduit à estimer l’âge de l’Univers à 13,77 milliards d’années.

Mais ce qui a considérablement augmenté avec les données relatives à la polarisation du rayonnement fossile, c’est la capacité des cosmologistes à tester un certain nombre d’hypothèses qu’ils font sur l’Univers, que ce soit en rapport avec les lois physiques qui le régissent ou les propriétés de ses constituants (neutrinos et matière noire par exemple). Le nouveau catalogue d’amas de galaxies a en outre permis d’affiner les paramètres cosmologiques régissant la formation des structures dans l’Univers, comme la masse des neutrinos et l’époque de réionisation.

Aujourd’hui, ces données fournissent aux chercheurs du monde entier une base particulièrement solide pour explorer les époques les plus anciennes proches du Big Bang. En particulier, le phénomène appelé inflation cosmique qui, vraisemblablement, a transformé l’Univers initialement peut-être très chaotique en un milieu relativement homogène mais parsemé de minuscules fluctuations de densité qui permettront plus tard aux galaxies de se former.

Le regard de Planck sur le magnétisme de notre galaxie

L’espace interstellaire de notre Galaxie n’est pas vide. Il contient du gaz et de minuscules grains de poussière : la matière dont notre Galaxie dispose pour former de nouvelles étoiles et leurs planètes. La poussière interstellaire rayonne aux longueurs d’onde d’observation du satellite Planck. Comme la Terre ou le Soleil, l’espace interstellaire est parcouru par un champ magnétique. La force magnétique tend à aligner les grains, ce qui polarise leur rayonnement. Planck a mesuré pour la première fois cette polarisation sur l’ensemble du ciel. 

La découverte du magnétisme de notre Galaxie est liée à celle des rayons cosmiques. Sans le champ magnétique, ces particules, accélérées par les supernovæ à des vitesses proches de la vitesse de la lumière, quitteraient rapidement la Galaxie. La force magnétique les retient. Le champ magnétique est lui tenu par la matière interstellaire. La matière, le champ magnétique et les rayons cosmiques constituent un ensemble dynamique : ils agissent en interaction les uns avec les autres. L’importance du champ magnétique dans ce trio est avérée depuis longtemps, mais les observations dont nous disposons pour l’étudier sont encore trop fragmentaires. Les astrophysiciens cherchent depuis longtemps à comprendre comment la gravité se joue du champ magnétique pour initier la formation des étoiles.

La mission Planck révèle aujourd’hui deux cartes inédites de la polarisation du ciel : une de l’émission synchrotron des électrons du rayonnement cosmique et une de l’émission de la poussière interstellaire. Les données révèlent la structure du champ magnétique Galactique avec des détails sans précédent. La polarisation de l’émission synchrotron, comme celle de la poussière, indique la direction du champ magnétique. L’interprétation des observations est complexe car nous n’avons accès qu’à une projection d’une structure qui par essence est en trois dimensions. Les données doivent être confrontées à des modèles et des simulations numériques pour comprendre l’interaction entre matière et champ magnétique. Ce travail a déjà commencé au sein du consortium Planck mais il reste beaucoup à faire tant les données sont denses en information.

Source : CNRS

La photo de la semaine #3

Personne n’a trouvé la réponse à La photo de la semaine #2 : Il s’agissait d’une fissure dans de l’acier

 

Place donc à la photo de la semaine #3 !

  • Mais qu’est-ce donc ?

Vous voulez tenter de découvrir ce que représente cette photo, obtenue à l’aide d’un microscope ?

Publiez vos propositions dans la zone « commentaires » ci-dessous.

La prometteuse alliance du solaire… avec le solaire !

La France s’enlise depuis deux ans dans les méandres politiques de la fameuse « transition énergétique » à horizon 2025. Et le champion du nucléaire AREVA pourrait annoncer plus de 3 milliards de pertes en 2014 en bonne partie à cause de l’EPR Finlandais. Pendant ce temps là, à Dubaï, au bord du Golfe Persique, un contrat portant sur une centrale photovoltaïque (PV) de 200 MW a été signé entre le Saoudien ACWA Power et la DEWA (Dubai Electricity and Water Authority) sur la base d’un prix de 5,84 US cents le kWh (5,2 c€/kWh). Soit 30% de moins que le prix de l’électricité obtenue à partir du gaz naturel dans ce pays.

D’autres contrats solaires PV aux USA (au Texas), en Afrique du sud, en Chine, en Inde (Andhra Pradesh) et au Brésil ont été signés récemment à des prix inférieurs à 8 cents le kWh. Ceci sans aucune subvention.

Il était objectivement coûteux il y a encore 5 ans, mais aujourd’hui le solaire PV est devenu très bon marché. L’important effort financier consenti par des pays comme l’Allemagne a permis la création d’un marché mondial, de stimuler en particulier l’industrie Asiatique, et ainsi de faire baisser massivement les coûts.

Un sérieux problème demeure: le solaire photovoltaïque ne produit de l’électricité que quand il fait jour. Avec le solaire CSP (Concentrated Solar Power), atout majeur, la chaleur obtenue par concentration de l’énergie solaire est stockable dans des cuves dédiées remplies de sels fondus et qui fonctionnent comme de gros thermos à café. La production électrique peut ainsi être différée. L’électricité solaire devient alors disponible en soirée ou durant la nuit si nécessaire.

Mais le CSP est deux à trois fois plus coûteux que le PV : le prix le plus bas du monde pour cette technologie, 12,4 cents par kWh, a été retenu début janvier 2015 dans le cadre d’un contrat entre le South Africa Department of Energy et le consortium ACWA-SolarReserve à propos du projet Redstone, centrale thermosolaire de 100 MW et qui permet 12 heures de stockage. Au Maroc, pour le projet Noor Ouarzazate, le prix a été fixé autour de 15 cents.

La symbiose PV + CSP, clé de la compétitivité du solaire face aux énergies sales

Bénéficier à la fois des avantages du solaire PV et CSP, c’est possible. Un système moitié PV moitié CSP permet théoriquement d’obtenir un kWh moyen coûtant entre 9 et 11 cents et disponible 24H/24. L’électricité PV est consommée en direct durant la journée tandis que l’électricité CSP est délivrée quand la production PV devient insuffisante ou nulle (durant la nuit). Le PV fait baisser les coûts et le CSP permet le stockage. Cette approche synergique est notamment encouragée par les experts de la division EnR de l’Agence Internationale de l’Energie. « Nous cherchons à intégrer solaire PV et CSP » a déclaré Paddy Padmanathan, PDG d’ACWA Power, lors du World Future Energy Summit qui a eu lieu à Abu Dhabi du 18 au 21 janvier 2015.

A présent l’espagnol Abengoa et le Californien SolarReserve associent également PV et CSP dans leurs projets. A l’occasion de la conférence INDIASOL 2014 qui a eu lieu les 8 et 9 octobre 2014 à New Delhi, Jose Manuel Millan Parellada, responsable du Développement du Business chez SolarReserve, a présenté l’intérêt de combiner PV et CSP pour offrir de l’électricité à la fois bon marché et disponible 24H24, y compris dans le cadre d’une approche OffGrid qui intéresse notamment l’industrie minière. En Afrique du sud la centrale CSP Redstone sera construite juste à côté des centrales photovoltaïques Lesendi (75 MW) et Jasper (96MW). SolarReserve a également monté un projet CSP-PV dans le nord du Chili pour fournir de l’électricité à une compagnie minière. Les mines sont bien souvent éloignées des réseaux électriques et consomment beaucoup d’énergie, d’où l’intérêt des solutions à base de ressources renouvelables disponibles en abondance localement. Selon Kevin Smith, PDG de SolarReserve, « nous avons configuré une centrale hybride CSP-PV avec 100 MW de CSP, 14 heures de stockages à base de sels fondus, et 75 MW de PV. Cette configuration est vraiment un générateur d’électricité en base (baseload generator), il délivre 100 MW ou davantage pour environ 90% des heures de l’année. L’aspect « renouvelable » de ce projet n’est pas important pour notre client, tout est basé sur les aspects économiques ». Pour les 10% d’heures où la production solaire est inférieure à 100 MW, comme le rappelle Jose Manuel Millan Parellada, un appoint à base de combustibles fossiles ou biomasse (par exemple du biodiesel) est possible pour faire fonctionner la turbine à vapeur de la centrale CSP. Depuis mars 2014 SolarReserve a commencé des négociations « avec des mines de fer, de cuivre, d’or, d’argent et d’uranium en Australie, au Chili, au Mexique, en Afrique du sud, en Arabie Saoudite et aux USA » a indiqué Kevin Smith au média Canadien spécialisé EnergyAndMines. Quant les industries minières produisent leur propre électricité à partir de générateurs diesel isolés, le coût du kWh est d’environ 30 cents.

De son côté Abengoa construit actuellement au Chili deux centrales CSP de 110 MW avec une capacité de 24 heures de stockage, en association avec une centrale photovoltaïque de 100 MW (projets Atacama 1 et 2). Le tout pour un prix de 11,5 cents le kWh. Dans cette région du nord du Chili le prix moyen de l’électricité sur le marché spot, principalement à base de charbon et de gaz, est de 15 cents. Le solaire est donc très compétitif.

Selon la cour des comptes le coût de production du kWh nucléaire historique Français déjà amorti est de 5,98 c€ (6,75 cents), un coût qui ne fait que monter année après année. En Grande-Bretagne, le tarif d’achat du MWh de la centrale nucléaire EPR Hinkley Point C a été fixé à £92.5 (14,1 cents le kWh), ce qui est bien supérieur au prix du kWh solaire PV qui a été fixé à Dubaï a osé remarquer Mark Lewis, expert de Kepler Chevreux, dans le cadre d’une interview pour RenewEconomy, média Australien spécialisé. L’Egypte vient de signer le 10 février 2015 un accord préliminaire avec la Russie pour la construction de la première centrale nucléaire du pays. Ceci alors que l’Egypte jouit d’une insolation solaire équivalente à celle des Emirats. Poutine a offert à son homologue Egyptien Al-Sissi une Kalachnikov AK-47 à l’occasion de cette signature, rappelant ainsi le lien fort entre nucléaire civil et nucléaire militaire. Le programme nucléaire iranien est par exemple un programme présenté comme civil mais à finalité également militaire. Le programme nucléaire civil Français s’inscrit lui-même dans la continuité d’un programme nucléaire militaire initié suite à la seconde guerre mondiale.

Selon ACWA Power le coût du kWh solaire PV va tomber à 4 cents d’ici quelques années, et celui du CSP à 9 cents. Autrement dit le coût moyen du système symbiotique CSP-PV sera de 6,5 cents, et ainsi proche de celui du nucléaire historique en France. Et deux fois inférieur à celui du nucléaire EPR. ACWA Power a d’ailleurs proposé à Dubaï un tarif de 5,4 cents le kWh (au lieu de 5,84 cents) dans l’hypothèse d’un élargissement du projet à 1000 MW de PV au lieu des 200 MW du contrat de référence.

Une troisième technologie, le CPV (Concentrated PhotoVoltaics), pourrait devenir aussi bon marché que le PV d’ici 2025-2030 selon une étude récente de l’institut Fraunhofer. Elle est aujourd’hui environ 50% plus coûteuse. Son intérêt est de réduire considérablement la quantité de cellules photovoltaïques nécessaires grâce à un système de miroirs concentrateurs. Ces cellules doivent cependant être adaptées à des températures élevées. Le CPV a permis d’atteindre une efficacité énergétique de 46% (cellule), record mondial. Dans les années qui viennent, il est fort probable qu’émergent des projets hybrides CSP-CPV.

L’électricité produite dans les régions fortement ensoleillées de la planète peut être exportée par câble HVDC vers les régions à forte demande électrique.

Thermique, gravitaire ou électro-chimique : il y a pléthore de solutions de stockage

Durant les longues périodes nuageuses les turbines des centrales CSP peuvent être alimentées par de la vapeur obtenue en brûlant des combustibles fossiles ou de la biomasse, ce qui garanti une production continue, indépendamment de la météo, et également une température optimale au niveau de l’efficacité de la conversion électrique. « Termosolar Borges » est la première centrale électrique du monde à avoir couplé solaire et biomasse. Elle est entrée en fonctionnement en décembre 2012 à Lleida en Catalogne et a une puissance de 22,5 MW. En Inde le CSTEP (Center for Study of Science, Technology and Policy) a annoncé fin 2014 la construction dans un village de l’état de Bihar, à la frontière du Népal, d’une centrale du même type, baptisée « SCOPEBI », et d’une puissance de 3 MW.

Dans le futur la baisse du coût des batteries lithium, notamment grâce au développement de la mobilité électrique, permettra probablement aux centrales PV de se passer de leur association avec les centrales CSP à stockage thermique et des contraintes inhérentes à cette technologie: il faut notamment un ciel très propre pour que l’insolation directe puisse être réfléchie avec précision par les miroirs, contrairement au PV qui fonctionne tout autant avec l’insolation directe qu’indirecte. A Hawaï et en Australie, comme le souligne le Rocky Mountain Institute d’Amory Lovins, le solaire PV + stockage est dès aujourd’hui compétitif avec l’électricité du réseau. Les avis des experts (BNEF, Navigant, AIE etc.) divergent concernant la cinétique de la baisse du coût des batteries dans les 5 à 10 ans à venir. La GigaFactory de Tesla actuellement en construction dans le Nevada commencera à délivrer des batteries dès 2016. Les super-condensateurs, y compris à base de graphène, n’ont d’ailleurs pas dit leur dernier mot.

Une autre approche est actuellement en cours au Chili : coupler une centrale PV de 600 MW à une STEP à eau de mer de 300 MW. Il s’agit de stockage gravitaire, l’eau de mer est pompée vers un bassin perché en altitude quand l’électricité solaire est abondante, et est redirigée vers la mer dans le cas inverse, ce qui permet de produire de l’électricité comme avec les centrales hydroélectriques classiques. Sur l’île d’El Hierro (Canaries), c’est un parc éolien qui a été couplé à une STEP. L’efficacité d’un cycle de pompage-turbinage est de l’ordre de 80%, ce qui est très bon. Le coût du kWh global obtenu, annoncé par l’entreprise Chilienne Valhalla Energy à 10 cents, est cohérent avec les analyses des experts du stockage gravitaire et du solaire PV.

Le disque terrestre intercepte une puissance solaire de 175 millions de GW. Soit l’équivalent de celle délivrée par 106 millions de réacteurs EPR de 1650 MW pièce. Et 2,7 millions de fois la puissance électro-nucléaire totale installée en France (63,5 GW), le second pays le plus peuplé de l’Union Européenne. Puisse Râ, dieu du Soleil dessiné dans toutes les pyramides d’Egypte, illuminer l’esprit du président Al-Sissi.

Olivier Daniélo

Le gaz sera-t-il compétitif face au charbon en 2015 ?

En raison de l’indexation partielle du prix du gaz sur les prix pétroliers, celui-ci devrait continuer sa baisse sur le marché spot. Cela, grâce à une baisse majeure du prix du baril ces derniers mois. Malgré cela, avec une hypothèse d’un baril de pétrole à 60 $ en 2015, le gaz restera non compétitif face au charbon. 

Pour inverser la tendance, il faudrait un doublement du prix du charbon, assure IFP Energies Nouvelles. Dans cette perspective, le charbon devrait atteindre 100 $/tonne, alors que son prix actuel est de 50$/t et que l’on s’attend à un prix moyen en 2015 de 60 $/t. Sinon, il faudrait agir sur le prix du CO2 pour qu’il atteigne 30 €/t, contre 7€/t actuellement, soit une multiplication par 4. « On est très loin de cela en Europe », réagit Olivier Appert.

Il faut également préciser qu’en 2014, la crise Ukrainienne n’a pas eu d’impact majeur sur les prix du gaz, mais rien n’est acquis pour 2015. D’autant plus que la sortie de crise apparait de plus en plus compliquée.

Les pays peuvent-ils favoriser la compétitivité du gaz ?

En 2014, le Royaume-Uni a instauré un mécanisme complémentaire au prix du CO2. Ce mécanisme atteindra 18 livres la tonne, soit 23 €/t en avril 2015. « Ce niveau sera vraisemblablement suffisant pour permettre au gaz d’être concurrentiel dans ce pays », prévient Olivier Appert. Avec un peu de volonté politique, il est donc possible de réagir et le charbon ne remplace pas fatalement le gaz, malgré son faible prix à la tonne.

Le gaz de schistes américain est-il toujours aussi compétitif ?

Suite au boom de la production de gaz de schistes, les États-Unis vont se lancer dans l’exportation de gaz naturel liquéfié (GNL) vers l’Europe et la Chine. Les premières exportations devraient commencer début 2016. Dans cette perspective, quel serait l’impact d’une baisse du prix du gaz sur la compétitivité du GNL américain ? Quel doit être le prix de livraison du gaz vers l’Asie et l’Europe, comparé au prix qui prévaut dans ces deux régions? 

Avec un prix du baril à 60 $, le prix du gaz tournerait autour de 9$/Mtu en Asie et de 7$/Mbtu en Europe en 2015. « Dans cet environnement, il faut un prix de 3 $/Mbtu maximum aux Etats-Unis pour rester compétitif », analyse Olivier Appert. « C’est le prix attendu sur le marché américain en 2015, mais depuis 2009, le prix a été à certains moments un peu supérieur, jusu’à 4$/Mbtu. La rentabilité des puits américain est donc devenu un peu plus incertain dans le contexte actuel », poursuit-il. La baisse du prix du baril de pétrole a engendré des baisses d’investissements dans les puits de pétrole de schistes aux Etats-Unis. Certains projets dans le gaz pourraient  aussi être reportés, faute de rentabilité.

Par Matthieu Combe

Le marché du pétrole en 2015

« Une demande dont la croissance reste modérée et une offre qui continue de croître à un rythme soutenu ont modifié l’équilibre du marché », insiste Olivier Appert, Président d’IFP Energies Nouvelles. « Sur les 4 trimestres de 2014, la production pétrolière mondiale a systématiquement excédé la demande de 0,5 à 1 million de barils jours et, en 2015, on estime que l’offre sera en excédent de l’ordre de 2 millions de barils jours sur le 1er semestre et de 1 million de barils jours sur le 2e semestre », résume-t-il.

«On peut estimer qu’un prix d’équilibre en 2015 pourrait se situer entre 50 à 70 $ par baril pour écouler les excédents et équilibrer l’offre et la demande », prévient-il. Cette perspective engendre des pertes financières importantes pour les compagnies pétrolières, les pays producteurs et engendre un stockage considérable.

L’OPEP ne veut pas prendre à sa charge la baisse de production

L’excès de l’offre provient essentiellement des pays non membres de l’Organisation des pays exportateurs de pétrole (OPEP). « La production des pays non membres de l’OPEP depuis 2010 s’est accrue deux fois plus vite que celle des pays de l’OPEP, particulièrement tirée par le développement des pétroles de schistes ou Light Tight Oil aux Etats-Unis », nous éclaire Olivier Appert. 

Dans ce cadre, l’OPEP a annoncé le 27 novembre 2014 qu’elle refusait de baisser sa production. Les 12 membres de l’Organisation envoient ainsi un message clair : ils ne laisseront pas leurs parts de marché à leurs concurrents (notamment la Russie, les Etats-Unis et le Brésil) quitte à engendrer une baisse de prix significative du baril sur le marché. Pourquoi baisseraient-ils leur production si les autres acteurs ne le font pas ?

Un bras de fer s’ouvre alors entre l’OPEP, menée par l’Arabie Saoudite, et les autres pays pour que tous les acteurs prennent en charge leur part dans la baisse de production. « Ils vont réussir à tuer le LTO aux Etats-Unis et ils savent que Barack Obama va faire pression sur les producteurs américains pour qu’ils diminuent leur production », analyse Olivier Appert. S’ils y arrivent, « le marché rebondira, comme cela a été le cas en 1987, en 99-2000 ou en 2009 », prévoit-il. Sinon, la situation pourrait devenir compliquée pour tous les acteurs.

Le pétrole de schiste, premier menacé ?

L’institut français des relations internationales rappelle que pour le pétrole de schiste, « la production est caractérisée par un déclin très rapide de la production initiale par puits (entre 60 et 90 % la première année), qui requiert des investissements en continu dans de nouveaux puits pour maintenir/accroître la production ». Et précise que « ce déclin très rapide induit une forte dépendance des projets au prix du brut de la première année de production, contrairement aux pétroles conventionnels, dont l’économie est fondée sur des durées beaucoup plus longues ». Ainsi, la chute des prix du baril entraîne une baisse importantes des investissements et fait craindre une chute de la production. 

La baisse des prix a déjà engendré une baisse des demandes de permis de forages aux Etats-Unis, notamment au Texas et dans le Dakota du Nord. On constate ainsi une véritable réduction des investissements qui peut atteint entre – 10 % et  – 50 % pour les pétroliers indépendants les plus touchés. « Les effets sur la production des LTO dont le développement de la production nécessite d’investir très régulièrement dans de nouveaux puits pourrait se faire sentir d’ici le mois de Juin », assure Olivier Appert.

La valeur en bourse de nombreuses compagnies et entreprises parapétrolières est d’ores et déjà fortement impactée. « La baisse de la valeur en bourse de nombreuses sociétés crée un climat propice à des achats ou regroupement dont les annonces pourraient bientôt se succéder au cours des prochains mois », prévient Olivier Appert.

Néanmoins, pour le moment, les pétroles de schistes américains ne semblent pas menacés sur le court-terme. « On peut estimer qu’une baisse des investissements de 20 à 40 % en 2015 sur ce type de ressources limiterait la production en 2015 entre 4,2 et 4,9 millions de barils par jour, soit un niveau comparable à 2014, mais inférieure aux prévisions de 5 millions de barils par jour », affirme Olivier Appert. 

On s’aperçoit que même si les prix et les investissements baissent, la production se maintient , car les progrès techniques ont conduit à une baisse des coûts de production entre 20 % et 40 % en 5 ans. « Le business model des LTO aux Etats-Unis est une séance expérimentale, personne n’a d’idées sur la résilience du système », reconnait le Président d’IFP Energies Nouvelles.

Les coûts de production varient considérablement selon les puits, en fonction des propriétés géologiques, de 25 $/baril jusqu’à 80 $/baril. « Mais quelle est la part de la production américaine qui reste compétitive, avec un coût de production inférieur à 50 $/baril? Je crois qu’aujourd’hui personne ne le sait réellement », prévient Olivier Appert.

Les pays producteurs en pâtissent, les pays consommateurs jubilent

La baisse du prix du brut engendre également des difficultés budgétaires et économiques pour les pays producteurs. Avec un prix plus faible, les budgets de ces états ne sont plus à l’équilibre. Pour certains, la situation peut même rapidement devenir critique. «Pour un pétrole  à 60 $, les pertes de revenus se situent à 2,7 % de PIB pour les pays exportateurs, mais cela peut aller jusqu’à 10 % de PIB pour certains pays du Moyen-Orient», assure Olivier Appert. 

En Russie, avec prix à 60 $/baril sur l’ensemble de 2015, les pertes sur les exportations de pétrole et de gaz, atteindraient près de 150 milliards de dollars, soit une baisse équivalente à 7% du PIB national. De plus, le rouble connait actuellement une dépréciation considérable, entraînant une baisse supplémentaire de l’activité économique du pays. 

A l’opposé, les pays consommateurs bénéficient de la situation. En moyenne, le gain est estimé à 1 % de PIB pour l’ensemble des pays importateurs et pourrait atteindre jusqu’à 1,6 % pour le Japon. En France, la facture pétrolière et gazière devrait baisser de 15 milliards d’euros en 2015, soit 0,7 % du PIB (si le prix du baril de pétrole tourne autour de 60 $ et le gaz à 7 $/MBtu). « Notre facture énergétique resterait néanmoins déficitaire à hauteur de 48 milliards d’euros », rappelle Olivier Appert. La nécessité d’assurer notre transition énergétique n’est donc heureusement pas remise en cause par cette situation !

Par Matthieu Combe, journaliste scientifique

Le signal radio en provenance de l’espace continue d’intriguer

Les chercheurs de l’observatoire de Parkes, basé en Australie, ont pu capter pour la première fois en temps réel quelques millisecondes d’un signal radio dont l’origine demeure pour l’heure inconnue. La source de ce « sursaut radio rapide » serait située à une distance estimée à 5,5 milliards d’années-lumière de la Terre. En dehors de la galaxie donc. Peut-être à proximité de la constellation du Verseau.

Ce n’est pas la première fois que de tels signaux sont captés, mais ils ne l’avaient encore jamais été en direct. Là encore, l’organisation fédérale australienne pour la recherche scientifique et industrielle (CSIRO) fait figure de précurseur. C’est elle qui, la première, s’est aperçue et questionnée sur la provenance des « fast radio bursts » ou « sursauts radio rapides ». En 2007, pour être précis.

Pourquoi ce signal radio est-il si mystérieux ? Parce que les chercheurs n’ont toujours pas d’explication concernant l’origine des signaux, huit mois après avoir été enregistrés. L’étude publiée récemment sur la revue Monthly Notices of the Royal Astronomy Society n’apporte pas de réponse. Elle indique toutefois qu’une cause probable pourrait être l’effondrement d’une étoile à neutrons surdimensionnée, si grande qu’elle aurait engendré un trou noir.

Seule certitude, l’événement qui a provoqué ce phénomène a dû être colossal. Une seule milliseconde aurait potentiellement produit autant d’énergie que le Soleil en 24 heures. C’est en tout cas ce que semble croire Mansi Kasliwal, docteur et astrophysicienne de la fondation de Washington Carnegie Institution for Science (CIS).

En attendant de nouvelles observations et on espère, la résolution de ce mystère, on laisse le soin aux chercheurs de se tordre les méninges pour nous.

Par Sébastien Tribot

Reach/CLP : toute l’actualité de février

06/02/2015

Vous êtes une PME et vous envisagez de demander une autorisation pour l’utilisation d’une substance extrêmement préoccupante? Vous avez encore des questions sur la procédure d’autorisation ? Pourquoi ne pas poser ces questions à l’ECHA ?

L’ECHA se tiendra à votre service le 25 février 2015 de 10h à 12h et vous apportera un soutien, dans votre langue.

Réservez dès à présent votre créneau horaire (jusqu’au 18 février) pour un entretien téléphonique et communiquez à l’avance vos questions à l’ECHA. Vous serez appelé par l’ECHA à l’heure convenue.

1102/2015

Le comité des produits biocides adopte 13 avis

Au cours de sa neuvième séance plénière au début de Février, le comité des produits biocides ( BPC ) a adopté 13 avis . Ces avis portent sur cinq substances actives dans 10 types de produits .

Les avis adoptés concernent les substances actives utilisées dans les produits biocides utilisés comme désinfectants , insecticides, produits de préservation du bois, des produits antisalissures, des fongicides et des conservateurs. Les opinions seront disponibles à partir du lien ci-dessous dans un avenir proche.

La géo-ingénierie n’est pas suffisante pour lutter contre le réchauffement (experts)

Des stratégies visant à retirer du dioxyde de carbone (CO2), principal gaz à effet de serre, de l’atmosphère sont limitées par leur coût et par l’immaturité technologique, ont estimé ces experts dans deux rapports publiés mardi.

Mais la géo-ingénierie pourrait contribuer à un large éventail de mesures destinées à lutter contre le réchauffement climatique en y consacrant davantage de projets de recherche et de développement, ont-ils souligné.

Il serait néanmoins « irrationnel et irresponsable » de recourir à la géo-ingénierie sans mettre en oeuvre des mesures de réduction des émissions de CO2, gaz surtout produit par la combustion d’énergies fossiles.

Selon eux, les technologies visant à accroître la capacité de la Terre ou des nuages à refléter les rayons du Soleil présentent des risques considérables et ne devraient pas être déployées à ce stade. Elles consistent à procéder à des injections d’aérosols dans la stratosphère et à éclaircir les nuages marins grâce à des particules d’eau de mer injectées en grande quantité.

En outre, ces interventions n’auraient qu’un effet temporaire et présenteraient des risques environnementaux, sociaux et politiques importants.

Les experts ont relevé que les avantages et les risques des techniques pour retirer le CO2 de l’atmosphère –comme la séquestration– étaient bien compris, mais les technologies actuelles nécessiteront des décennies pour obtenir des résultats moyens et leur coût serait exorbitant pour les déployer à des échelles suffisamment grandes pour avoir un impact.

« Le fait même que les scientifiques considèrent le recours à la géo-ingénierie devrait être vu comme une sonnette d’alarme nous disant qu’il faut faire davantage pour réduire les émissions de gaz à effet de serre, la façon la plus efficace et la moins risquée de combattre le changement », relève Marcia McNutt, rédactrice-en-chef de la revue Science et ancienne directrice de l’Institut américain de géophysique. Elle a présidé le comité qui a produit ces rapports.

« Mais plus nous attendons, plus il sera probablement nécessaire de déployer certaines formes de géo-ingénierie pour retirer du CO2 de l’atmosphère et limiter les pires effets du changement climatique », a-t-elle prévenu.

D’où l’importance de faire davantage d’études pour améliorer l’efficacité des capacités actuelles, qu’elles soient plus favorables à l’environnement et moins coûteuses.

Ces deux rapports devraient guider les agences fédérales dans le choix des recherches à financer dans ce domaine, tout en gardant séparé le processus de décision pour les déployer.

Ce projet a été parrainé par l’Académie américaine des sciences, les agences du renseignement, la Nasa, l’Agence nationale océanique et atmosphérique ainsi que par le Ministère de l’Energie.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Climat: 80% des Français attribuent le réchauffement à l’homme (sondage)

Dans une enquête réalisée en 2010 par un autre institut de sondage, les climatosceptiques niant la responsabilité de l’homme dans le réchauffement dont la vitesse est inédite représentaient 26%.

Une écrasante majorité de personnes interrogées (89%) affirment aussi avoir « l’impression » que « le climat a changé » au cours des 20 dernières années: « oui tout à fait » pour 40% et 49% « oui plutôt ».

Interrogés sur leur perception du changement climatique, 75% des sondés disent avoir observé des inondations plus fréquentes et 56% affirment ressentir la hausse de la température moyenne.

Si l’augmentation du thermomètre est une constatation faite à l’échelle du globe, l’impact actuel du changement climatique sur la fréquence des inondations est moins évident, même à l’échelle de l’Europe.

Les scientifiques relèvent par exemple une augmentation des sécheresses en Europe du Sud mais aussi des épisodes de pluies plus intenses, qui peuvent se traduire par des inondations.

Les inondations sont par ailleurs très liées à l’urbanisation et aux pratiques agricoles (déforestation, etc.).

Concernant la conférence de l’Onu sur le climat fin 2015 à Paris-Le Bourget, seulement 22% des Français disent connaître précisément le but de ce rendez-vous, 35% en ont entendu parler sans savoir précisément ce dont il s’agit et 43% n’en ont pas entendu parler.

La conférence Paris-Climat 2015 doit aboutir à un accord universel entre 195 pays pour limiter la hausse du thermomètre de la planète.

Sur la possibilité d’agir pour freiner le réchauffement en cours, 71% estiment pouvoir agir personnellement, 29% estimant ne rien pouvoir faire au niveau individuel.

Quant aux grandes entreprises, peuvent-elles agir de manière efficace contre le dérèglement? « Oui tout à fait » pour 40% des sondés, « oui plutôt » pour 37% et non pour 23%.

A la même question mais appliquée aux PME, les Français sont 26% à répondre « oui tout à fait » et 45% « oui plutôt ».

Sur la mobilisation des entreprises françaises dans la lutte climatique, 65% estiment qu’elles sont peu mobilisées.

Le sondage a été réalisé par internet auprès de 995 personnes du 19 au 26 janvier 2015 selon la méthode des quotas.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Une nouvelle technique d’acquisition d’images pour reconstituer un visage en 3D

Les techniques d’acquisition d’image existent déjà, plus ou moins développées. On peut citer en exemple la technologie EOS de stéréoradiographie 2D/3D qui offre aux chirurgiens une bonne image des os de leurs patients en 3D et permet l’impression 3D de prothèses. Mais celle-ci est d’un genre nouveau.

Des bandes de lumières sont envoyées par un projecteur sur la chose à scanner. Ces lignes lumineuses alternent avec des lignes sombres dans une sorte de motif clair/obscur. Elles forment pour Jorge Luis Nuñez Flores, concepteur du logiciel de composition d’image tridimensionnelle, et son équipe, une grille d’information binaire que la caméra – second outil indispensable à cette technique – capture. Alors que cette opération est réalisée à plusieurs reprises, huit filtres de différentes teintes de gris sont diffusés. Grâce à cela, l’image acquiert un volume, une texture ainsi qu’une bonne définition. C’est à ce moment qu’intervient le logiciel de Jorge Luis Nuñez Flores, une fois toutes les données en sa possession, pour modéliser l’image en 3D.

Les chercheurs comptent utiliser cette technique afin de modéliser des pièces mécaniques anciennes ou des antiquités que les musées pourraient utiliser et ainsi exposer des répliques d’objets d’art à la valeur inestimable et dont la manipulation stipule une extrême précaution. Les visiteurs auraient la possibilité de prendre dans leurs mains ces répliques exactes, témoins d’un événement ou d’une époque, et les spécialistes pourraient les observer dans le cadre d’études ou encore pour confirmer ou non certaines légendes. Il reste cependant à accorder le logiciel avec les technologies d’impression 3D actuelles pour rendre concret ce projet et donner corps aux objets numérisés.

Par Sébastien Tribot

Arrêter la cigarette… en dormant

Selon le principe sur lequel repose l’hypnopédie, l’apprentissage de l’Homme ne cesserait pas complètement lors de son sommeil. Il serait donc possible de le solliciter en lui faisant écouter des disques pendant son sommeil, ce que plusieurs études scientifiques semblent réfuter. Des chercheurs de l’Institut Weizmann supposent quant à eux que l’Homme pourrait effectivement être conditionné dans son sommeil grâce à… son nez ! Etonnant mais vrai, ils ont ainsi montré qu’une exposition nocturne à des odeurs de cigarette mêlées d’oeuf ou de poisson pourri peut aider à arrêter de fumer.

Le meilleur des mondes

Chacun se souvient du fameux roman de Aldous Huxley, Le meilleur des mondes, décrivant une société où les foetus se développent dans des flacons où ils sont conditionnés. Les traitements que subissent les embryons au cours de leur développement déterminent leurs futurs goûts, aptitudes et comportements. Un procédé qui fait beaucoup penser au conditionnement associatif, aussi appelé conditionnement pavlovien, qui consiste en l’entraînement inconscient du cerveau à associer des stimuli de l’environnement à des réactions de l’organisme.

Quand le nez veille

La Dr Anat Arzi, travaillant dans le laboratoire du Pr Noam Sobel à l’Institut Weizmann, s’intéresse au conditionnement pavlovien. Elle étudie les odeurs comme stimuli provenant de l’environnement et le rôle qu’elles pourraient jouer durant notre sommeil. Car les odeurs, à l’inverse d’autres stimuli, ne nous réveillent pas. De plus, après une exposition nocturne et inconsciente à des odeurs, on ne se rappelle pas les avoir senties le lendemain.

Le stade de sommeil durant lequel les stimuli pourraient jouer un rôle serait le stade 2, aussi appelé stade de sommeil léger. Le stade 2 occupe environ 50% du temps de sommeil total. Le sujet est assoupi mais il est encore très sensible aux stimuli extérieurs. Ainsi, lors du stade 2, environ 50% des bons dormeurs et 80% des mauvais dormeurs pensent ne pas dormir.

Dans quel but ?

Dans un article publié en novembre dans The Journal of Neuroscience, la Dr Arzi a mis en évidence l’influence d’un conditionnement nocturne olfactif sur la consommation de cigarettes. Le fait de fumer étant un phénomène quantifiable, l’impact des stimuli olfactifs a pu être mesuré.

Pour réaliser cette étude, 66 personnes désirant arrêter de fumer mais ne sachant pas comment procéder se sont portées volontaire. Après avoir indiqué leur fréquence de consommation de cigarettes, elles ont été séparées en plusieurs groupes. Celles du premier groupe passèrent une nuit dans une salle de laboratoire à l’écoute de leur sommeil. Lors de la phase 2, elles furent exposées de façon répétitive à une forte odeur de cigarette suivie d’une odeur nauséabonde. Bien qu’ils furent incapables de se souvenir de ses odeurs au réveil, les volontaires observèrent une diminution de leur consommation de cigarettes d’environ 30% la semaine suivant l’expérience.

Les membres du second groupe furent exposés aux mêmes odeurs pendant un temps similaire, mais dans un état d’éveil et non pendant le sommeil. Ceux du troisième groupe furent exposés à des odeurs de cigarette et des odeurs nauséabondes pendant leur sommeil, mais de façon aléatoire et non couplée. Contrairement aux membres du premier groupe, ceux des deux autres ne relevèrent aucune diminution de leur consommation de cigarette.

Ces résultats confirmèrent l’hypothèse du groupe du Pr Sobel : nous oublions la majorité de nos rêves, mais il existe un conditionnement association qui se fraye un chemin lors de notre sommeil.

La fin des patchs de nicotine ?

Une simple nuit de conditionnement olfactif réduirait ainsi de façon significative la consommation de cigarettes pendant plusieurs jours. Le conditionnement olfactif est un terrain prometteur pour les chercheurs travaillant sur les phénomènes d’addiction. La région du cerveau contrôlant l’addiction serait en effet très proche de la région d’olfaction et ces deux régions, en plus de rester éveillées pendant notre sommeil, semblent absorber des informations.

Cette découverte ne permet pas encore aux fumeurs de se débarrasser de leur addiction juste en dormant. Mais elle nous indique la possibilité d’un conditionnement pendant notre sommeil qui pourrait un jour nous mener à d’importants changements comportementaux. Huxley ne s’était peut-être pas trompé : nous pourrions un jour être sujets au conditionnement associatif durant notre sommeil, mais ce serait à de nouvelles fins : faire disparaitre nos addictions au lieu de les créer.

Source : bulletins-electroniques

Le gaz de schiste a ses apôtres en France

« Un certain nombre d’industriels a pensé qu’il était temps d’apporter une information scientifique qualifiée sur ce sujet (et) de sortir de l’obscurantisme dans lequel on est plongé », a indiqué lors d’une conférence de presse, Jean-Louis Schilansky, qui présidera le Centre des hydrocarbures non conventionnels (CHNC).

L’ancien patron de l’Union française des industries pétrolières (Ufip) a nié que l’objectif du nouveau centre soit de créer un lobby du gaz de schiste en France, même si la plupart des groupes qui soutiennent ce centre n’ont jamais dissimulé leur souhait d’obtenir l’autorisation d’explorer le sous-sol français pour en connaître exactement les ressources, à l’image des groupes chimiques Solvay et Arkema.

« Nous ne sommes tout simplement pas un lobby », s’est défendu M. Schilansky. « Nous n’irons pas voir des parlementaires et des cabinets ministériels pour essayer de les convaincre. Nous ne serons pas dans les couloirs », a-t-il assuré.

Muni d’un conseil scientifique, le CHNC a pour objectif de « rassembler, évaluer et diffuser des informations factuelles. Des faits, des faits et encore des faits et non pas seulement des opinions », a affirmé son président.

Selon lui, les adversaires du gaz de schiste sont les bienvenus. « Le centre sera ouvert à tous, à toutes les opinions. Il n’y aura pas de discrimination », a-t-il assuré, prônant une approche « cartésienne », loin du « débat idéologique, pour ne pas dire religieux » qui caractérise, selon lui, la discussion sur les hydrocarbures non conventionnels en France.

François Hollande avait assuré en juillet 2013 qu’il n’y aurait ni exploration ni exploitation du gaz de schiste en France sous sa présidence.

La fracturation hydraulique, seule technique éprouvée pour exploiter les hydrocarbures de schiste, est d’ailleurs interdite en France.

Le CHNC dit n’avoir pas l’intention de changer la loi. « Ce n’est pas le moment », affirme M. Schilansky, pour qui, en revanche, « c’est le moment d’apporter des informations, de parler, de dire ce qu’il se passe » dans ce secteur qui a bouleversé la donne énergétique mondiale.

Parmi la vingtaine de groupes soutenant le CHNC figurent des groupes déjà présents dans la filière du gaz de schiste, à l’image de Total, le géant gazier GDF Suez, le fabricant de tubes sans soudures Vallourec, le groupe Imerys qui produit des proppants ou encore Air Liquide.

L’Union des industries chimiques, l’Ufip, Suez Environnement, ou Technip sont également associés.

arz/mpa/cb/nm

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »