5 matériaux de construction aussi design que performants

Bétons translucides

  • Litracon,  LiTraCon

La société hongroise LiTraCon (Light Transmitting Concrete)  a créé un béton translucide dès 2001. Comment ? En insérant 4% de fibres optiques entre les grains du béton. Sans lumière, ce béton a l’aspect d’un béton standard, mais dès qu’il est rétroéclairé le Litracon® laisse passer la lumière et permet de jouer sur les ombres d’éléments positionnés derrière. Seul inconvénient, son coût très élevé.

  • I Light, Italcementi

Les scientifique d’ Italcementi Group ont eu choisi d’incorporer de la résine et des adjuvants au ciment. Des inserts en polymères transparents permettent le passage de la lumière,  de quoi obtenir 20% de surface transparente. Un procédé qui permet d’abaisser les coûts par rapport à l’insertion de fibre optique. 

Ciment blanc

  • Bianco TX Millenium, Italcementi

Le cimentier  a breveté son ciment ultra-blanc  à l’occasion de la construction de l’église du Jubilée de Rome par l’architecte Richard Meier.

A base d’agrégats de marbre de Carrare pour la brillance, de métakaolin pour un aspect lisse, de dioxyde de titane comme pigment participant à la dégradation des polluants.

Verres ultra-transparents

  • Clarity, Guardian Industries

Le verre Guardian Clarity™ se veut une solution aux reflets indésirables. Ce vitrage antireflets est obtenu par dépôt d’un nuage de carbone sous vide par pulvérisation cathodique. Ce verre abaisse le facteur de réflexion à moins de 1% (antireflets double face), contre environ 8% pour un verre standard.

Une performance idéale pour les vitrines de magasin par exemple, qui s’assurent ainsi que les clients visualisent parfaitement les objets exposées, même par un fort ensoleillement. 

  • Vision-Lite, Saint-Gobain

Ce produit possède des qualités similaires au Guardian Clarity™ puisque le verre antireflets sgg Vision-Lite présente seulement 1% de réflexion résiduelle. Dans ce cas, une couche interférentielle est déposée sous vide par magnétron.

Avec une telle transparence, le sgg Vision-Lite et le Guardian Clarity™ sont une solution recherchée pour les devantures de magasins bien-sûr mais aussi les vitres de musée, de salles de contrôle mais aussi pour des panneaux publicitaires ou encore des cabines de commande d’engin.

Par Audrey Loubens

Biomimétisme, lorsque les scientifiques s’inspirent de la nature

Du verre rendu plus résistant par des micro-fissures

La nature est bien faîte et son observation peut se révéler très enrichissante comme le montre l’étude menée par des chercheurs de l’Université McGuill à Montréal et publiée dans la revue Nature Communications dans laquelle les travaux relatés spécifient qu’en s’inspirant des micro-fissures présentes dans la nacre ils ont pu obtenir un verre bio-inspiré 200 fois plus tenace qu’un verre classique.

Le verre est par nature fragile et il ne supporte pas bien les chocs. Pour remédier à ce fait, le chercheur François Barthelat explique avoir tracé des micro-fissures avec un laser dans des lamelles de verre; comme celles observées à l’intérieur de la nacre. Ainsi, en cas d’impact, l’énergie est davantage absorbée. Les fissures se déforment sous la pression mais ne se propagent pas, ce qui se traduit par une ténacité 200 fois plus importante que le verre de départ.

Cette technique devrait bientôt être vérifiée sur d’autres matériaux.

Quand les fenêtres font office de régulateur thermique

En hiver les déperditions de chaleur sont inévitables. Du coup, on chauffe plus que nécessaire. À l’inverse, l’été, on aimerait souvent que la température soit plus douce afin d’éviter de ressortir le ventilateur ou d’activer la climatisation quand on en dispose. Le professeur Ben Hatton de l’Université de Toronto a peut-être trouvé une solution à ce problème en créant un matériau bio-inspiré qui rendrait nos fenêtres moins coûteuses en énergie en les transformant en régulateur thermique.

Comme il l’explique dans un article écrit pour le journal scientifique Solar Energy Material and Solar Cells, le professeur Ben Hatton a utilisé une pellicule d’élastomère flexible et transparent, un polymère à base de polydimethylsiloxane (PDMS), qu’il a intégré aux fenêtres classiques. Or, les PDMS possèdent des vaisseaux à l’intérieur desquels circule de l’eau à température ambiante. À l’instar du réseau vasculaire interne de certains organismes, ces derniers peuvent agir comme un mécanisme de refroidissement. Le professeur prend d’ailleurs en exemple les « vaisseaux sanguins qui se dilatent pour augmenter le flux sanguin au contact de la peau afin d’augmenter le transfert de chaleur par convexion, tandis que la vasoconstriction (diminution du calibre des vaisseaux sanguins) limite le flux lorsque la peau est exposée au froid. »

Quand on sait que pour un bâtiment lambda, la facture est accaparée à 40% par ce problème de fenêtres, son idée s’avère des plus intéressantes. Mais cela en fera-t-il l’outil de contrôle thermique du futur ?

Le matériau céramique inspiré de la nacre

La résistance ne fait pas partie des avantages naturels des céramiques. Aussi il est fréquent de leur adjoindre des matériaux plus tenaces, d’origine métallique ou polymère, pour les renforcer. Malheureusement ce système à ses limites. C’est pourquoi une équipe de chercheurs français s’est inspiré du revêtement intérieur des ormeaux, composé à 95% de carbonate (l’aragonite), pour créer un matériau dix fois plus solide qu’une céramique, qu’elle ait été réalisée traditionnellement ou d’après une méthode plus sophistiquée.

Parue dans la revue Nature Materials, une étude réalisée par les équipes du Laboratoire de synthèse et fonctionnalisation des céramiques (CNRS/Saint Gobain) en collaboration avec le Laboratoire de géologie de Lyon : Terre, planètes et environnement (CNRS/ENS de Lyon/Université Claude Bernard Lyon 1) et le Laboratoire Matériaux : ingénierie et science (CNRS/INSA Lyon Université Claude Bernard Lyon 1) montre en effet comment ils s’y sont pris pour obtenir ce résultat.

Les chercheurs ont mis de l’alumine, une poudre céramique, en suspension dans de l’eau puis l’ont « congelé » progressivement jusqu’à obtenir des cristaux de glace. Cela a entraîné un auto-assemblage de l’alumine sous forme d’un empilement de plaquettes. En phase finale, le matériau a été densifié à haute température.

Voilà, il « suffisait » finalement d’inclure une étape de congélation dans le processus de création pour obtenir une céramique dix fois plus tenace que la moyenne. En bonus, cette méthode est applicable à d’autres poudres céramiques et son industrialisation ne semble pas poser de problèmes.

Des matériaux hydrophobe à l’effet lotus

Les feuilles de lotus ont la particularité de ne pas retenir les gouttes d’eau qui glissent sur leur surface. Des chercheurs de l’Institut de recherche et d’ingénierie des matériaux de Singapour se sont inspirés de cette capacité pour créer un matériau capable de faire la même chose avec de l’huile.

Il leur a fallu reproduire la surface de la feuille de lotus, faîte de micro-ruguosités, pour obtenir un revêtement superhydrophobe.

L’idée est de produire un matériau qui résiste à la pollution ou plutôt qui serait autonettoyant. Dans le cas d’un pare-brise par exemple, le passage de la pluie entraînerait les particules sales grâce à l’effet lotus. Cette faculté d’auto-nettoyage des surfaces hydrophobes a été observée dans les années 1970 bien que les premières utilisations dans le champ biomimétique n’aient eu lieu que vingt ans plus tard. Aujourd’hui, ces recherches intéressent toujours les industriels qui tentent toujours de découvrir de nouveaux matériaux aptes à rester propres.

Light Cocoon, la voiture bio-imprimée en 3D et bio-inspirée

Conçu par la firme allemande EDAG, ce nouveau bijou de technologie s’inspire ici, aussi surprenant que cela puisse paraître, d’un squelette recouvert de peau. Le prototype baptisé Cocoon reprend la structure de l’édition précédente « Genesis » présentée au salon de Genève. Il s’agissait d’un squelette « bionic body structure » imprimé en 3D mais dépourvu de « peau ». Or, c’est précisément à ce niveau que se distingue Light Cocoon puisque le châssis 3D est ici recouvert d’une fine membrane textile imperméable qui le protège des intempéries.

EDAG s’est adjoint les services de Jack Wolfskin, marque allemande de vêtements d’extérieur, pour fabriquer ce matériau ultra-léger et résistant surnommé « Texapore SoftShell 02+ » que l’on pourrait comparer à un K-Way. Environ 25% du poids normal d’une voiture de cet acabit pourrait être économisé de cette manière. En outre, le tissu laisse la lumière le transpercer, ce qui permet de voir la structure, y compris la nuit avec les leds internes et confère à la Light Cocoon un design forcément original. Ce nouveau concept sera dévoilé au prochain salon de Genève en mars.

Par Sébastien tribot

MarkerBot ouvre la voie de l’impression 3D à base de poudre de bois, de métal et de roche

Jusqu’à présent, l‘impression 3D estampillée grand public se cantonne à l’extrusion de plastique et de résine. Les possibilités de création sont certes nombreuses mais, somme toute, limitées par ce matériau. La société américaine (née à Brooklyn en 2009) a donc voulu pousser l’expérience plus loin et faire évoluer l’impression 3D; entendez par-là, au-delà de l’augmentation des dimensions de l’objet imprimable.

En réalité, la méthode ne change pas, il s’agit toujours de fabrication additive. Ce qui change en revanche, c’est le matériau de base. MarkerBot a combiné les filaments à base d’acide polylactique (PLA), un polymère entièrement biodégradable, à de la poudre contenant une faible portion de bois, de pierre ou de métal. Les objets ainsi conçus, plus que de ressembler aux matériaux, en auraient le toucher, le poids et parfois même l’odeur! 

Les filaments-fer auront par exemple la propriété magnétique – permettant notamment l’accrochage de post-it aux portes de réfrigérateurs – tandis que les filaments-bronze donneront aux objets une patine avec le temps. Le filament-bois quant à lui, en partie composé de bois d’érable, ira jusqu’à reproduire l’odeur de cette essence.

Pour chaque type de matériau, une extrudeuse spécifique sera certainement nécessaire. Il faudra donc en acheter au moins trois pour extruder les différents matériaux puis remplacer celle en place sur l’imprimante MakerBot, selon le besoin. L’idée est maligne puisqu’elle rend l’entreprise américaine maîtresse de ce marché – les filaments ne fonctionneront que sur une machine MakerBot – et pousse (force?) le consommateur à l’achat. Il faudra attendre la fin 2015 pour se procurer ces nouveaux filaments dont le prix n’a pas encore été communiqué.

Par Sébastien Tribot

Pirater un réseau Wi-Fi public ? Un jeu d’enfant

Betsy Davies n’a que 7 ans, mais il lui a suffit de 10 minutes pour pirater un hotspot Wi-Fi public, dans un café. L’histoire, qui a créé le buzz au Royaume-Uni, était en réalité une opération de communication montée par Hide my Ass, une société spécialisée dans les VPN et le chiffrement de données.

Mais elle reste révélatrice de l’extrême dangerosité d’un usage sans filet des réseaux Wi-Fi publics. Hide my Ass a fourni à Betsy Davies une vidéo explicative (un tutoriel), qui a permis à la jeune fille d’apprendre à pirater un hotspot, comme s’il s’agissait d’un jeu… “A une époque où les enfants baignent dans les nouvelles technologies et le codage, le piratage est littéralement devenu un jeu d’enfant, et n’importe quel profane peut aujourd’hui pirater un hotspot WiFi”, indique le spécialiste en sécurité, Marcus Dempsey, au site Information Age.

Pour pirater le réseau, Betsy a simplement créé un faux point d’accès, se faisant passer pour celui du café. Les clients se sont ensuite connectés à son hotspot, ce qui a permis à la jeune fille de réaliser une attaque “man in the middle”. Avec un analyseur de réseau sans fil (« packet sniffer »), un logiciel qui permet de “sniffer” les paquets de données, elle était alors en mesure de récupérer des données personnelles (mots de passe, e-mails, documents). Sessions reniflées, comptes détournés Au delà de ce test mené par Hide my Ass, un expert en sécurité (adulte) a fait une expérience similaire, mais plus en profondeur, en 2013. Eric Geier, fondateur de NoWiresSecurity (une société de conseils à destination des entreprises souhaitant sécuriser leur Wi-Fi), s’est lui aussi installé dans un café. Parce que “les réseaux Wi-Fi sont semblables aux ondes publiques, que n’importe qui peut capter”, il a réussi, lui aussi via un « packet sniffer », à “capturer” des signaux Wi-Fi.

Sur son écran d’ordinateur, il pouvait ainsi voir les pages web visitées par des internautes connectés au réseau Wi-Fi, mais aussi récupérer les idenfiants d’un compte Webmail, des adresses e-mail, des mots de passe, et même des messages instantanés passant par Yahoo! Messenger (non chiffrés). Eric Geier a aussi utilisé une application Android, DroidSheep, qui lui a permis de « renifler » toutes les sessions ouvertes par d’autres internautes connectés au réseau, et de « se rendre sur ces sessions à leur place : Facebook, Twitter, Yahoo, Live, Flickr”, afin de détourner leurs comptes. DroidSheep cherche et répertorie toutes les connexions non sécurisées à des sites Web populaires, et permet d’ouvrir les sites en utilisant la session de quelqu’un d’autre, en exploitant des vulnérabilités.

Les VPN et Tor à la rescousse Les réseaux Wi-Fi publics sont bel et bien de véritables passoires. D’où la nécessité, soit de s’en passer, soit d’utiliser un VPN. Ce réseau privé virtuel vous permettra de surfer anonymement, et chiffrera votre connexion, en modifiant votre adresse IP via des serveurs proxys situés à l’étranger. Hyde my Ass a fait le buzz, mais il existe d’autres VPN, plus fiables, bien que payants, comme Toonux VPN ou Strong VPN. En matière de VPN gratuits, Freedom-IP s’avère une solide alternative. Enfin, il n’est pas inutile d’utiliser le réseau Tor, qui vous permettra de surfer anonymement, derrière des serveurs relais qui cacheront votre adresse IP. Pour cela, rendez-vous dans notre article sur l’anonymisation en ligne, où des solutions pour PC et smartphones vous serons proposées.

Par Fabien Soyez

La photo de la semaine #4

Bravo à Patrick O qui a trouvé la réponse à La photo de la semaine #2 : Il s’agissait en effet de craie

 

Place donc à la photo de la semaine #4 ! Cette semaine, à vous de découvrir ce qui se cache sur cette image, et sa provenance

  • Mais qu’est-ce donc ?

Vous voulez tenter de découvrir ce que représente cette photo, obtenue à l’aide d’un microscope à lumpière polarisée ?

Publiez vos propositions dans la zone « commentaires » ci-dessous.

Stephen Hawking, une vie extraordinaire

Stephen Hawking, c’est un cerveau parmi les plus performants du siècle et – cruelle ironie – un corps rendu inapte à tout mouvement en raison d’une maladie dégénérative connue sous le nom de maladie de Charcot. Frappé à 21 ans, condamné par les médecins à une paralysie progressive de toutes ses fonctions motrices en un temps record et à deux ans de vie maximum, l’astrophysicien anglais, dans le malheur de son handicap, a la chance que son cerveau soit indemne. Il a contredit les pronostics puisqu’il est aujourd’hui âgé de 73 ans, a eu trois enfants, deux femmes et a produit l’une des théories les plus ingénieuses de son temps, celle des trous noirs.

James Marsh, réalisateur qui alterne fictions et documentaires (Le funambule, soit le voyage de Philippe Petit sur un fil tendu entre les Twin Towers, ou Le projet Nim, chronique de l’échec de l’adoption d’un chimpanzé élevé comme un homme), a une marque de fabrique : dresser le portrait d’hommes extraordinaires. Des héros. Parfois des fous. Des hommes qui se démarquent par leur génie, leur excentricité, leur force de vie, leur propension à relever des défis.

Le temps du titre, c’est celui de vingt-cinq ans de la vie d’Hawking, celui de son mariage, de son combat contre le handicap, mais aussi celui du temps auquel il a consacré toutes ses recherches consignées dans le best-seller Une brève histoire du temps.

Le film s’inspire du livre de Jane Hawking, épouse que Stephen rencontra à l’université de Cambridge. Une femme amoureuse dévouée corps et âme à son mari, et un personnage complexe. Subtilement, le film interroge ce qui peut animer Jane : une amoureuse consciente de vivre aux côtés d’un être exceptionnel, génie dont les travaux allaient faire franchir à l’astrophysique un pas de géant. Une infirmière à temps plein aussi, donnant la becquée, soignant, assistant à chaque instant son mari pour tous les gestes quotidiens.

Tant d’abnégation, tant d’amour pendant vingt ans pour un Stephen Hawking au charme, il est vrai, bien réel, est-ce que c’est une vie ? Surtout que le film, à en croire Jane Hawking, a gommé les sautes d’humeur de Stephen, totalement dépendant et néanmoins orgueilleux (et oui, c’est Hollywood face à l’Histoire). Jane avait-elle trouvé une raison d’être tandis qu’en retour elle offrait au scientifique de quoi mener le plus possible une vie normale, celle-là même qui donna à Hawking le courage de continuer ?

Depuis leur rencontre à Cambridge, c’est au travers du regard de Jane que l’histoire merveilleuse nous est contée. En cela, le film ne colle pas aux codes habituels du biopic, il se concentre sur cette histoire d’amour à part, révélant tant le caractère d’Hawking et l’objet de ses travaux de chercheur que le portrait de Jane, une femme exemplaire à sa façon. Mention spéciale pour le comédien Eddie Redmayne qui prête au personnage sa gueule d’amour – il est un peu trop beau mec quand le vrai Hawking ne l’était pas mais c’est plus agréable pour les yeux !

Sa performance est d’une grande justesse, le défi était pourtant de taille. Drame romantique, le film de James Marsh évoque un amour, un combat qui est une sacrée leçon (à méditer chaque matin où l’on se lèverait du mauvais pied), et parvient à contourner le pathos d’une histoire aussi incroyable que vraie dans une mise en scène élégante. Parfois, oui, la vie offre des drames romantiques. Celui d’Hawking et Jane en est un.

A bon entendeur.

Source : La Revue Bancal, Par Claire Chevrier

Invitation Stemmer Imaging

STEMMER IMAGING organise deux journées techniques dédiées à la présentation de différentes nouveautés dans le domaine de la vision industrielle.

La première se déroulera à STRASBOURG le mardi 17 mars 2015  au Grand Hôtel de Strasbourg  et la deuxième à LYON  le jeudi 19 mars 2015 espace Multiburo Lyon Gare Part-Dieu.  

Ces deux journées techniques seront articulées autour de 3 axes

1. Le développement de l’infrarouge lors d’une présentation intitulée : « de l’ultraviolet à l’infrarouge », animée par Christophe MOREAU, Directeur Commercial d’ALLIED VISION France.

2. L’approche caméra Embedded » : les ingénieurs de STEMMER IMAGING présentent les fonctionnalités de la caméra « NEON » d’ADLINK.

3. Les technologies 3D par triangulation laser et projection de franges » et la gamme GOCATOR de LMI Technologies, comme introduction à la technologie 3D.

 

TELECHARGER L’INVITATION

 

Pour plus d’informations, veuillez contacter Fabienne Ellison

Téléphone: 01 45 06 95 66

Mail: [email protected] 

Ritme partenaire de vos métiers de l’industrie : des logiciels jusqu’aux formations appliquées

Calcul, simulation et visualisation des données, autant de domaines dans lesquels Ritme se met au service des ingénieurs de production pour leur proposer les outils logiciels adaptés et simples d’apprentissage. Les domaines d’application couverts sont vastes, depuis l’analyse de risques (@Risk) et la rationalisation des essais (Design Expert) jusqu’à l’optique (Zemax), en passant par l’analyse et le traitement de données analytiques (Mnova)

Pour faciliter le travail au quotidien des ingénieurs, Ritme va au-delà de la fourniture de logiciels.

C’est pour cela qu’en 2012 Ritme a lancé la Ritme Académie, pôle de formation, dont la mission principale est de former les ingénieurs sur les logiciels mais également sur la mise en forme et l’encadrement de leurs projets : média training, prise de parole en public, management transversal, enjeux multiculturels, assertivité…  

Ritme  travaille avec les experts reconnus dans vos domaines d’activité, afin que les échanges se fassent de professionnel à professionnel.

Découvrez un écosystème pensé pour l’ingénieur à l’occasion de nos petits déjeuners thématiques gratuits, relayés sur www.ritme.com.

Nous sommes à votre disposition à l’adresse [email protected] pour vous guider au long de vos besoins formations.

Le Fukushima d’AREVA

« Un Fukushima industriel », « Areva est aujourd’hui comme une centrale nucléaire dont le cœur est en fusion et l’enceinte de confinement prête à céder », « des choix désastreux », Jean-Michel Bezat du journal Le Monde ne mâche pas ses mots pour qualifier le naufrage financier du champion du nucléaire Français. Pour Capital.fr il s’agit de « pertes astronomiques », d’un « montant pharaonique ». La rédaction de Boursier.com souligne les pertes liées aux « contrats dont la réalisation a complètement déraillé, à l’image du chantier finlandais de l’EPR d’Olkiluoto 3 ». Selon Les Echos, « l’avenir d’Areva est en jeu » et le fleuron national est en « état d’urgence », « en fusion », Areva « frôle le précipice », « c’est l’avenir de l’ensemble du pôle nucléaire Français qui se joue ».

C’est que les pertes du groupe, sauf pour celles et ceux qui préfèreraient continuer avec la stratégie de l’autruche, sont objectivement exorbitantes. En 2013, elles étaient de 500 millions ce qui était déjà beaucoup. Mais en 2014 le gouffre s’est approfondi de 880%, d’un facteur 10, frôlant les 5 Mds d’€ de pertes. A titre comparatif le déficit de la branche maladie de la Sécurité sociale a été, à l’échelle nationale, de 7,3 Mds d’€ en 2014 et celui du Fond de Solidarité Vieillesse (FSV) de 3,7 Mds d’€. Le montant des pertes d’Areva est alarmant pour un groupe dont la capitalisation boursière est de 3,7 milliards d’euros. Ce montant ne ne prend d’ailleurs pas en compte les 2,3 milliards d’euros que le Finlandais TVO réclame à Areva compte-tenus des importants retards sur le chantier de l’EPR. Ce retard atteindra 9 ans en 2018, date aujourd’hui prévue pour la mise en service du réacteur (sauf retards additionnels non prévus). Areva est également en contentieux avec le CEA à propos du projet de recherche RJH, le réacteur « Jules Horowitz » qui est en construction à Cadarache. Le coût initialement prévu pour ce réacteur a été au moins doublé, à plus d’un milliard d’euros. Le titre Areva a chuté de plus de 50% en bourse depuis 1 an.

La Ministre de l’Energie Ségolène Royal, qui avant les élections présidentielles était favorable à une sortie complète du nucléaire à horizon 2040, a été contrainte de concéder que « la situation est difficile » pour Areva dont l’état est l’actionnaire largement majoritaire. « Difficile », un mot qui relève du doux euphémisme face à l’ampleur du cataclysme. Ségolène Royal a prôné comme remède une « synergie » entre le CEA, Areva et EDF. Or le CEA est déjà actionnaire du groupe Areva pour 54% des parts, et l’Etat directement à hauteur de 29%. EDF est détenu à 84% par l’état. Et le CEA est lui-même un organisme public. Le serpent qui se mord la queue.

A Bordeaux le grand solaire PV est dès à présent meilleur marché que le nouveau nucléaire 

Le 18 février 2015, à l’occasion de son audition par la Commission d’enquête relative aux tarifs de l’électricité de l’Assemblée nationale, Jean-Bernard Lévy, le tout nouveau président-directeur général d’EDF, a tenté de défendre la pertinence économique du choix du nucléaire en basant sa réflexion sur le coût du solaire photovoltaïque d’avant 2011. C’est à dire sur la base de données obsolètes compte-tenu de la cinétique de baisse des coûts du solaire. « Le coût du photovoltaïque est très loin de celui du nucléaire » a-t-il affirmé. Selon la Cour des Comptes le coût de production du vieux nucléaire déjà amorti est de 5,98 c€/kWh. Le coût de production du vieux solaire PV déjà amorti est proche de 0 c€/kWh (le soleil n’envoie pas de factures).

En France le tarif « T5 » (tout type d’installations, 0 à 12 MW) du solaire photovoltaïque est aujourd’hui de 6,62 c€/kWh. Celui des petites installations de 0 à 36 kW avec intégration simplifiée au bâti est de 13,47 c€/kWh mais ce segment n’est bien entendu pas comparable avec les 1650 MW d’un réacteur EPR. A Bordeaux, où la plus grande centrale solaire d’Europe (300 MW sur 3 kilomètres-carrés) est en construction sous la houlette du groupe Neoen, « le solaire sera moins cher que le nucléaire anglais ». L’électricité produite sera vendue au tarif de 10,5 c€ par kWh, tarif retenu dans le cadre d’un appel d’offre lancé par le gouvernement. « En Grande-Bretagne, le tarif d’achat pour le futur réacteur nucléaire EPR d’Hinkley Point est passé de 9,25£/kWh en 2012 à 9,70£/kWh en 2014. Comme le cours des monnaies est passé de 1,20 à 1,36 euro/livre sterling, il devient presque indécent de donner le nouveau coût de l’électricité en euros » souligne le site spécialisé Energeia. « La technocratie du nucléaire bien présente dans tous les rouages de l’Etat ne peut accepter une telle comparaison après des décennies de propagande pour le nucléaire ». N’en déplaise à Jean-Bernard Lévy, le kWh du nouveau solaire Bordelais est 20% meilleur marché que celui du nouveau nucléaire. Et Bordeaux n’est pas la région la plus ensolleilée de France: l’insolation y est comparable à celle de Lyon, Grenoble et Genève. A Toulon elle est 30% supérieure.

La capacité photovoltaïque hexagonale est aujourd’hui environ 8 fois inférieure à celle installée en Allemagne, pays moteur de la transition Européenne vers une électricité à base d’énergies renouvelables. Comme le souligne Gregory Lamotte, Fondateur de Comwatt, leader Français des solutions pour l’autoconsommation énergétique, « avec le montant des pertes d’Areva en 2014, on pourrait doubler la capacité photovoltaïque Française ».

En Europe, à l’échelle saisonnière, le solaire photovoltaïque est parfaitement complètementaire à l’éolien. A terre le coût de production de l’électricité obtenue à partir du vent est encore meilleur marché que celui du solaire. Le coût de production du kWh solaro-éolien (50/50) est d’environ 7 – 8 c€ en France. La France dispose dès à présent de 5 GW de STEP (Pompage-Turbinage) pour gèrer les fluctuations solaro-éoliennes, et cette capacité peut augmenter sans avoir à inonder de nouvelles vallées. Et elle dispose aussi de nombreuses interconnexions électriques avec ses pays voisins. Et si la synergie soleil-eau-vent-biomasse devenait le nouvel axe stratégique de la fusion CEA-Areva-EDF souhaitée par Ségolène Royal ? Et si la France et l’Allemagne agissaient enfin dans une perspective énergétique commune, devenant ainsi le grand moteur écologique de l’Union Européenne ?

Apple, dont la capitalisation boursière atteint 700 milliards de dollars (soit 166 fois celle d’Areva), et qui n’est pas particulièrement réputée pour prendre des décisions farfelues, inspirera-t-elle les décideurs Français ? Le géant Américain vient de faire le choix de répondre à l’intégralité de ses besoins électriques grâce au solaire. Ceci à la fois pour réaliser des économies et pour réduire son empreinte environnementale. A bon entendeur.

Olivier Daniélo

L’ingénieur geek #4 : AKOLYT, votre e-copilote

Akolyt pourrait rapidement devenir le partenaire idéal de tout conducteur à la recherche d’une voiture plus connectée. Car grâce à un boîtier communiquant avec votre smartphone en bluetooth 4,0, il transforme toute voiture de tourisme essence commercialisée après 2001 et toute voiture diesel commercialisée après 2004 en un véhicule connecté.

Une fois branché à la prise diagnostic de votre véhicule, à la manière d’une clé USB, le boîtier Akolyt récupère les informations disponibles, les traite et les transmet à votre smartphone par Bluetooth. A chaque démarrage, Akolyt effectue automatiquement un diagnostic du moteur. Si un voyant moteur s’allume, l’application vous indique l’origine du défaut. Enfin, en cas d’accident, il préviendra les secours.

Une prise et des algorithmes pour plus d’informations

Les 3 ingénieurs à la base de cette start-up sont des spécialistes des moteurs, anciens de chez PSA. Ils ont développé des algorithmes sophistiqués pour obtenir le maximum d’informations à partir de cette simple prise. «La prise diagnostic accède à l’ensemble des informations du véhicule. Les données moteurs sont ouvertes car la norme OBD impose de les mettre à disposition. Les autres données véhicules sont accessibles mais, tout en suivant un protocole unique, chaque constructeur code ces informations différemment. Nous nous concentrons actuellement sur les données moteur directement accessibles et standardisées pour tous les modèles », précise Etienne Delorme, Chef de Projet Marketing de Drust.

Akolyt fait également des diagnostics sur l’état de la courroie, des plaquettes de freins, des pneus… Si les mesures ne sont pas faites directement sur ces pièces, « nous exploitons les données disponibles de la prise OBD (nombres de km parcourus, vitesse…) et nous les injectons dans nos algorithmes de modèle d’usure pour ces différents composants. Notre expérience chez les constructeurs autos nous ont notamment amenés à bâtir ce type de modèles », explique Etienne Delorme.

Faire des économies, pour plus de sécurité tout en s’amusant  

Pendant que vous conduisez, l’application affiche une jauge représentant votre niveau d’efficacité de conduite. Pour ce faire, « nous analysons le profil de conduite de l’utilisateur via les données moteurs (régime, vitesse, couple, rapport de vitesse) que nous complétons avec les données dynamiques (accéléromètre, gyroscope). Ces données brutes sont filtrées / analysées et nous les comparons au même trajet qui aurait été parcouru de manière parfaite », nous éclaire Etienne Delorme. Le constructeur promet jusqu’à 30 % d’économies de carburant grâce aux conseils de son Akolyt. Il s’agit donc bien là d’un partenaire idéal pour passer à l’éco-conduite ! 

Il est possible d’appairer un même boîtier à 3 smartphones pour comparer ses résultats avec d’autres utilisateurs.  « Vous pourrez comparer votre efficacité de conduite avec vos enfants ou votre femme », s’amuse Etienne Delorme. Chaque trajet donne lieu à un score : vous pourrez enfin savoir objectivement qui conduit le mieux !

Sur la plateforme de financement Indiegogo, Drust a déjà largement dépassé le seuil des 30 000 euros fixé au départ. Pour les premiers participants, l’akolyt a été proposé à 69 €, puis à 79 €. Il est désormais au prix de 89 €, soit encore 25% de réduction par rapport au prix de lancement prévu en septembre. Le prochain objectif est maintenant d’atteindre 100 000 € et ainsi débloquer la fonction de localisation du véhicule. L’application sortira en septembre et sera disponible sur Android et iPhone.

Par Matthieu Combe, journaliste scientifique

Deux astronautes dans l’espace pour des travaux sur l’ISS

La sortie dans l’espace a démarré à 07H45 (12H45 GMT) pour Barry Wilmore et Terry Virts, munis chacun de sortes de valises contenant des câbles et des équipements.

Le but de la sortie est d’installer des systèmes pour permettre l’amarrage de deux futurs vaisseaux spatiaux privés qui seront construits par les sociétés privées SpaceX et Boeing. Ces appareils transporteront des astronautes vers la Station à partir de 2017 dans le cadre de contrats avec la Nasa.

La sortie de Barry Wilmore et Terry Virts avait été reportée de 24 heures vendredi afin d’examiner le fonctionnement des scaphandres spatiaux, un problème récurrent avec une pièce du système de refroidissement de l’un d’entre eux préoccupant les ingénieurs.

« C’est le même type d’inquiétude que nous avions eu en 2013 quand nous avions eu à gérer le problème d’infiltration d’eau dans le casque » de l’astronaute italien Luca Parmitano, avait dit en milieu de semaine Kenneth Todd, directeur des opérations de l’ISS.

La Nasa a constaté le problème lorsque les astronautes ont procédé à l’entretien de leurs combinaisons en décembre et ont découvert que le ventilateur d’une pompe n’accélérait pas comme prévu.

Le scaphandre utilisé par Terry Virts samedi a pu être réparé avec une pièce de rechange qui était dans l’ISS, et Barry Wilmore utilise quant à lui une combinaison flambant neuve acheminée tout récemment à la station par un vaisseau de ravitaillement.

« Tous les systèmes des deux scaphandres sont apparemment en excellent état », a affirmé Rob Navias, le commentateur de la Nasa, durant la retransmission de la sortie orbitale sur la télévision de l’Agence spatiale américaine.

Deux autres sorties sont prévues mercredi 25 février et dimanche 1er mars pour les deux astronautes qui vont devoir au total installer plus de 110 mètres de câblages.

Pour Barry Wilmore (52 ans), l’actuel commandant de la station, il s’agit de la deuxième sortie spatiale de sa carrière. C’est en revanche une grande première pour Terry Virts (47 ans).

L’astronaute italien Luca Parmitano avait dû interrompre en urgence une sortie à l’extérieur de la Station spatiale internationale (ISS) le 16 juillet 2013 en raison d’une importante fuite d’eau dans son scaphandre.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Japon: deux horloges qui ne dérivent que d’une seconde en 16 milliards d’années

Selon une équipe de recherche dirigée par Hidetoshi Katori, professeur à l’Université de Tokyo, ces instruments dits « cryogéniques à réseaux optiques », qui ressemblent plus à des ordinateurs de bureau géants sans fonctionnalité qu’à des horloges traditionnelles, présentent une exactitude telle qu’elle ne peut être mesurée par les horloges atomiques actuelles qui définissent la durée de la seconde.

Leurs performances dépassent en outre la précision de dérive limitée à une seconde en 13,8 milliards d’années de l’horloge atomique qu’avaient dévoilée en août 2013 des chercheurs américains.

Les engins nouvellement développés utilisent des lasers spéciaux pour piéger des atomes de strontium dans des structures minuscules en forme de grille, selon l’équipe japonaise qui a publié son étude ce mois-ci dans la Nature Photonics.

Ainsi est mesurée la fréquence de battement des atomes, utilisés comme « pendule atomique ».

Le système doit cependant fonctionner dans un environnement extrêmement froid, autour de -180 degrés Celsius, pour réduire les impacts des ondes électromagnétiques alentour et maintenir ainsi le niveau de précision des appareils.

Les chercheurs ont fait fonctionner les deux horloges pendant un mois afin d’observer leur comportement et en ont déduit que cela prendrait quelque 16 milliards d’années pour dériver d’une seconde.

Ces instruments s’avèrent de loin beaucoup plus précis que l’horloge atomique au césium utilisée pour définir « une seconde », avec une dérive équivalente toutes les 30 millions d’années.

Cette nouvelle avancée en physique peut avoir des implications potentielles importantes non seulement pour la précision dans la mesure du temps universel, mais aussi par exemple sur la localisation par satellite (GPS) qui se base sur la différence temporelle, ainsi que sur la quantification des forces comme la gravité, le champ magnétique et la température.

Les chercheurs nippons espèrent en tout cas que les résultats de leurs études permettront d’accélérer les discussions sur la redéfinition de la seconde, selon le communiqué publié au Japon.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

300 exemplaires du robot Pepper disponibles au Japon pour les développeurs

La vente s’effectuera en ligne et dans la boutique SoftBank du quartier d’Omotesando à Tokyo, avec la priorité donnée aux développeurs qui ont manifesté leur intérêt depuis septembre dernier et ont été tirés au sort.

Un deuxième lot de Pepper est prévu pour cet été.

Le prix du robot seul est fixé à 213.840 yens (1.584 euros) l’unité.

Une liste d’applications et de fonctionnalités sont en sus disponibles moyennant le paiement de 575.424 yens (4.262 euros) en 36 mensualités, ainsi qu’une garantie optionnelle pour 381.024 yens (2.822 euros) à régler en 36 fois. Le coût total toutes options comprises dépasse ainsi 1,17 million de yens (8.668 euros).

Au regard de ce que coûtent généralement les plateformes de développement robotique, Pepper peut être considéré comme bon marché par les entreprises de logiciels dédiés aux machines.

SoftBank avait déjà mis quelques Pepper à la disposition de plusieurs développeurs à l’automne dernier, créateurs qui devraient présenter ce week-end leurs réalisations dans le cadre d’un concours spécial.

Pepper, robot semi-humanoïde blanc d’un peu plus d’un mètre de haut monté sur roulettes, s’appuie sur l’intelligence artificielle déportée en réseau.

Il sait notamment comprendre quand quelqu’un est content, triste ou en colère et est en théorie capable d’entretenir une conversation avec une personne, à condition que cette dernière ne dévie pas trop de la direction décidée par le robot.

L’androïde communique aussi à distance avec ses pairs à travers un réseau d’échange de données pour que chacun enrichisse ses connaissances et réagisse de mieux en mieux vis-à-vis des humains.

Un millier de Pepper ont déjà été engagés par le groupe Nestlé au Japon pour assister les vendeurs de machines à café dans des enseignes d’électroménager. D’autres jouent un rôle similaire dans quelques boutiques de SoftBank.

En proposant Pepper aux développeurs, le but de SoftBank est d’inciter les créateurs d’applications à l’enrichir de nouvelles fonctions, tout comme c’est le cas pour les tablettes et smartphones.

« Pepper est le premier robot à vraiment comprendre les hommes », se plaît à souligner le fondateur et patron de SoftBank, Masayoshi Son, ajoutant que « les enfants de demain sauront dès la naissance communiquer avec des robots ».

« Le but de SoftBank est de rendre les gens heureux grâce à la révolution de l’information », insiste aussi régulièrement le gourou nippon du secteur.

kap/anb/jh

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Premier prototype européen de robot endoscopique pour la micro-chirurgie laser des cordes vocales

La chirurgie des cordes vocales concerne les lésions cancéreuses, essentiellement liées au tabac (3 000 nouveaux cas par an) mais aussi, de plus en plus souvent, des lésions bénignes chez les personnes qui sollicitent beaucoup leur voix. Elle nécessite, afin de garantir la préservation de la voix du patient, une précision de l’ordre de 50 à 100 micromètres (environ le diamètre d’un cheveu). Or, à l’heure actuelle, la chirurgie utilise un laser dont la source est située à 40 centimètres de la bouche du patient, ce qui limite sa maniabilité et la précision du geste. Par ailleurs, le chirurgien opère à travers un microscope, et le tissu à traiter doit donc être dans le champ de visée, ce qui implique une position très inconfortable pour le patient, source de douleurs cervicales post-opératoires.

Pour pallier ces inconvénients, le projet européen μRALP1, porté par l’Institut italien des technologies, et associant entre autres l’institut FEMTO-ST et le CHRU de Besançon, développe un robot dédié à la chirurgie assistée des cordes vocales. Ce nouveau dispositif consiste en un endoscope flexible qui permet de visualiser les cordes vocales et d’amener la source laser à l’intérieur du patient, à 20 mm de sa cible. Véritable défi microtechnique, l’endoscope proposé embarque des éclairages en lumière froide, deux caméras miniatures pour assurer une vision en 3D, un laser chirurgical doublé d’un laser qui fait office de pointeur pour le chirurgien, et enfin, le micro robot de 1 cm3 qui va, grâce aux images fournies par les caméras, guider ces lasers le long de la trajectoire de référence dessinée par le chirurgien directement dans l’image à l’aide d’une tablette tactile. Grâce à une technique de fluorescence, des filtres aideront à déterminer s’il existe une zone cancéreuse au niveau de la lésion et augmenteront la précision du geste. Avec ce nouveau procédé, le chirurgien devrait obtenir une précision de l’ordre d’une centaine de micromètres.

Après de nombreuses étapes techniques de recherche et de développement, des essais précliniques sont effectués sur des cadavres à l’institut d’anatomie de l’Université de Franche-Comté pour la validation du concept du prototype actuel. Les essais de ce jour portent sur l’insertion de l’endoscope, la visualisation 3D, l’ergonomie du poste de travail et le guidage laser.

A terme, ce dispositif médical apportera une véritable valeur ajoutée à la phonochirurgie (chirurgie de la voix). En outre, les dispositifs conçus dans le cadre du projet μRALP pourront être utilisés dans d’autres systèmes robotiques chirurgicaux. Ainsi, l’institut FEMTO-ST et le CHRU travaillent déjà à la conception d’un endoscope pour la micro-chirurgie laser du tube digestif.

Source : cnrs

Le Royaume-Uni teste ses premières voitures sans conducteur

  • Bristol accueille le Venturer consortium, dont fait entre autres partie l’assureur Axa. L’objectif est d’étudier si les voitures sans conducteur peuvent réellement améliorer la sécurité sur les routes, ainsi que les problématiques réglementaires et d’assurance soulevées par ces nouveaux objets.
  • Greenwich accueille le Gateway scheme, dirigé par le Transport Research Laboratory, et impliquant entre autres General Motors. Ici seront testés des prototypes de navettes sans conducteur, ainsi que des services de voituriers automatiques pour ce type de véhicule.
  • Milton Keynes et Coventry accueillent le UK autodrive programme, impliquant Ford, Jaguar Land Rover ou encore Arup. Ce programme va tester le comportement des voitures autonomes sur la route, mais aussi de véhicules plus légers conçus pour les zones piétonnes. Seront plus spécifiquement étudiées les technologies à installer sur les routes pour assister la navigation de ces voitures.

Le chancelier de l’Echiquier George Osborne a annoncé il y a quelques mois un investissement supplémentaire de 9 millions de livres, venant s’ajouter aux 10 millions promis en juillet dernier. Les tests doivent durer de 18 à 36 mois.

Ces nouvelles technologies soulèvent malgré tout d’ores et déjà de nombreuses interrogations. Selon une étude réalisée par le site uSwitch.com, près de la moitié des britanniques refuseraient l’utilisation de ces véhicules par manque de confiance dans leur sécurité. Ils expriment également des inquiétudes concernant les responsabilités à engager dans le cas d’un accident.

Ces inquiétudes trouvent un écho dans une récente étude de l’Université de Michigan relayée par le quotidien The Telegraph. Cette étude souligne en effet que ces véhicules ne seront jamais complètement sûrs, notamment en raison des accidents qui ne sont pas dus au conducteur mais à des facteurs extérieurs et imprévisibles. Sont notamment pointés du doigt les comportements des automobilistes en chair et en os susceptibles de croiser la route des voitures automatiques. La cohabitation entre les deux types de véhicule constitue ainsi un point sensible sur lequel les citoyens demandent à être rassurés.

Pour finir, comme tout bon objet connecté, les voitures sans conducteur émettent et partagent des données numériques. Pour Guy Churchward, le directeur d’EMC, entreprise spécialisée dans la gestion des données numériques, cloud computing, etc., l’on s’engage ici non pas sur des problématiques de type Big Data (multiplication de la quantité des données), mais de type Small Data (éparpillement de myriades de micro-données). Or, pour gérer ces data, tout est d’après lui à inventer en matière de sécurité, stockage, gestion et application – et pas seulement pour les voitures, mais pour l’ensemble des objets connectés.

Le développement des voitures autonomes s’inscrit ainsi plus largement dans les problématiques soulevées par l’Internet des Objets (Internet of Things), identifié comme l’une des priorités technologiques du gouvernement britannique pour les années à venir.

Source : bulletins-electroniques

Cigéo en recherche d’une loi sur la réversibilité

La loi du 28 juin 2006, codifiée à l’article L.542-10-1 du code de l’environnement, prévoit que le Parlement vote une loi définissant les principes de réversibilité(*) de Cigéo. Le vote de cette loi devra se faire après le dépôt de la demande de création et après que cette demande ait reçu l’avis favorable de l’Autorité de sûreté nucléaire (ASN).

Le dépôt de la demande d’autorisation de Cigéo devant se faire en 2017, certains acteurs du projet plaident pour que le choix politique sur la réversibilité intervienne préalablement au dépôt du dossier de demande d’autorisation de création du centre. Car faire déposer un dossier sur la base de contraintes en matière de réversibilité non connues n’est pas forcément le plus pertinent. Cest pourquoi le lobbying est à son comble pour faire adopter un article de loi coûte que coûte au plus vite.

Cette loi sur la réversibilité a ainsi été prévue un temps dans un article de la loi relative à la transition énergétique pour la croissance verte, avant d’être retiré. Puis, dans un article de la loi « Economie : croissance et activité » dite « Loi Macron ». Craignant le vote d’opposition des écologistes, cet article a été retiré par Emmanuel Macron lui-même, avant son texte final présenté en décembre dernier. Plusieurs amendements ont ensuite été proposés au Sénat ou à l’Assemblée pour réintroduire la notion de réversibilité dans la loi, mais ils ont tous été rejetés.

Les dernières nouvelles de Cigéo

Un débat public s’est tenu entre le 15 mai et le 15 décembre 2013. Suite aux difficultées rencontrées face aux opposants locaux au projet, les réunions publiques n’ont pas pu se tenir et le débat s’est déroulé majoritairement sur Internet. Une conférence de citoyens s’est tout de même tenue.

Suite à ces discussions, le calendrier a été adapté et des tests complémentaires définis. Le dépôt de la demande d’autorisation du projet a été repoussée de 2015 à 2017. Cette demande sera alors instruite par l’ASN et l’Institut de radioprotection et de sûreté nucléaire (IRSN) pendant une durée maximale de 3 ans.

La grande nouveauté est notamment la mise en place d’une phase industrielle pilote. Si le projet est autorisé, les travaux de construction débuteront en 2020 et seront suivis par la phase industrielle pilote en 2025. Cette phase permettra de faire des essais en profondeur sur le site de stockage prévu, notamment sur la réversibilité, pour une durée allant de 5 et 10 ans. Trois périodes successives sont alors prévues. Tout d’abord des essais avec des colis factices non radioactifs, puis avec un petit nombre de vrais colis de déchets, et enfin une période pendant laquelle seront stockés, de manière progressive, des colis de déchets de haute et moyenne activité à vie longue ou courte, représentatifs de l’inventaire des colis de déchets destinés à Cigéo. « On va mettre des colis, les retirer, vérifier que l’on peut récupérer les colis à 100% », précise l’Andra. Si cette phase de tests s’avère concluante, le Parlement devrait décider de passer en phase d’exploitation courante pour une centaine d’année.

En réponse aux demandes exprimées par les acteurs locaux, l’Andra a aussi décidé de raccorder le site au réseau ferré national pour permettre l’acheminement des colis de déchets par le rail

jusqu’à Cigéo. Ces travaux commenceront dès 2015, avec la préparation d’autres aménagements au niveau local : création d’un poste électrique, aménagements de certaines routes, etc.

Des opposants et des précisions à venir

Les opposants au projet pointent du doigt le manque de certains éléments, portant notamment sur les conditions de fermeture de Cigéo, le manque de définition de la notion de réversibilité et l’évolution constante des coûts du projet. Une grande partie de ces éléments devront être finalisés pour la demande d’autorisation de création du centre de stockage en 2017.

Pour répondre aux interrogations qui demeurent, trois dossiers essentiels vont être remis en 2015 par l’Andra. Il s’agit du dossier présentant le projet de plan directeur d’exploitation, le dossier portant sur les options de sûreté en exploitation et après fermeture, ainsi que le dossier traitant des options techniques de récupérabilité. Ce dernier détaillera les moyens par lesquels l’Agence s’engage à assurer la possibilité de récupérer les colis de déchets pendant 100 ans.

Enfin, l’Andra a rendu à l’Etat un nouveau chiffrage du coût total du projet en Octobre 2014, après prise en compte des suites du débat public et des études d’optimisation en cours. Ce chiffrage n’a pas encore officialisé. La dernière estimation offcicielle date de 2005, à hauteur de 15 Md€2010. D’autres chiffres non officiels ont été rendus publics, notamment par la Cour des Comptes, sur la base de travaux de l’Andra, à hauteur de 35,9 Md€2010.

(*) Le stockage devra être réversible durant toute la durée d’exploitation du site, soit une centaine d’années. Ce, pour offrir aux générations futures la possibilité de retirer les colis de déchets radioactifs s’ils découvrent une meilleure solution.

Aller plus loin

Par Matthieu Combe, journaliste scientifique

Les patelles ont vraiment la dent dure

Appelées également berniques ou chapeaux chinois, ces gastéropodes comestibles possèdent une sorte de langue (la radula) très longue munie de petites dents (moins d’un millimètre) très solides, qui leur permettent de râcler les petites algues à la surface des rochers pour les manger.

« Jusqu’à présent nous pensions que le fil de l’araignée était le matériau biologique le plus performant en raison de sa grande résistance et de ses applications potentielles nombreuses allant des gilets pare-balles jusqu’aux ordinateurs », relève le professeur Asa Barber, de l’école d’ingénieurs de l’université de Portsmouth (sud de l’Angleterre).

« Mais nous avons découvert que les dents de patelles possèdent une résistance potentiellement plus grande », ajoute-t-il.

L’étude est publiée mercredi dans le journal britannique Royal Society Interface.

L’équipe d’Asa Barber a mis en évidence le fait que les dents des berniques contiennent des nanofibres d’un minéral très dur, le goethite. Le nom de cet oxyde de fer hydraté fait référence au philosophe allemand Goethe, passionné de minéralogie.

« Les structures fibreuses trouvées dans les dents des patelles pourraient être imitées et utilisées pour des technologies de pointe comme les voitures de course, les coques de bateaux, le fuselage des avions », estime Asa Barber.

« Les ingénieurs cherchent toujours à fabriquer des structures à la fois plus solides et plus légères », souligne-t-il.

En laboratoire, la résistance à la contrainte des dents de patelles a été estimée entre 3 et 6,5 gigapascal (GPa). Celle des fils d’araignée ne dépasse pas 1,1 GPa.

La force mécanique des dents de patelles est comparable à celle des fibres de carbone artificielles, utilisées notamment dans la fabrication des avions.

Petit conseil aux amateurs de patelles, qui peuvent aussi se déguster: il est recommandé de retirer la radula de la tête de ce fruit de mer avant de le cuire sans quoi il sera particulièrement dur et amer.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Transition énergétique: le Sénat dit une nouvelle fois non au gaz de schiste

Le Sénat s’est une nouvelle fois opposé, dans la nuit de mercredi à jeudi, au gaz de schiste que des sénateurs UMP avaient tenté de réintroduire à l’occasion de l’examen du projet de loi sur la transition énergétique.

Ces sénateurs avaient déposé un amendement intégrant dans le volet de programmation plurianuelle de l’énergie (PPE) « la nécessaire identification du potentiel énergétique de la France en matière d’hydrocarbures non conventionnels », c’est-à-dire des gaz de schiste. Cet amendement a été rejeté.

« Après les manifestations contre la fracture hydraulique puis contre le gaz de schiste, le dossier a été mis au placard », a déclaré le président de la Commission économique, Jean-Claude Lenoir (UMP). « Imaginez que la même chose se soit passée pour le gaz de Lacq qui a tant participé, pendant quarante ans, au développement de l’Aquitaine et de nos territoires », a-t-il ajouté.

« Faisons confiance aux chercheurs », a plaidé Charles Revet (UMP), estimant que ceux-ci « trouveront des techniques respectueuses de l’environnement. Ne nous privons pas de connaître nos potentialités ».

« Je ne compte pas rouvrir le débat sur le gaz de schiste », a déclaré le rapporteur Lasislas Poniatowski (UMP). « Oui à l’exploration: il est absurde d’ignorer ce que recèle notre sous-sol », a-t-il renchéri, rappelant que « la France et la Pologne, il y a quelques années, étaient réputées être les pays européens ayant le plus fort potentiel. Après recherche, la Pologne a découvert que son potentiel était huit fois moindre qu’annoncé ». Et de conclure: « L’exploitation est une autre question ».

« Aux États-Unis, les forages d’exploitation ont fait des paysages des friches après la faillite des entreprises qui y ont abandonné tout leur matériel », leur a répondu la ministre de l’environnement Ségolène Royal, avant de poursuivre: « ne laissons pas croire que l’exploitation de cet hydrocarbure annonce un eldorado du sous-sol. Faisons des choix clairs: la biomasse, les moulins. Pas le gaz de schiste, n’en déplaise au lobby des investisseurs dans ce domaine qui nous réclameront ensuite des subventions publiques parce que l’exploration n’est pas rentable et causera des dégâts à l’environnement ».

Mathieu Darnaud (UMP), élu de l’Ardèche, département concerné par une éventuelle exploitation du gaz de schiste, s’est opposé à l’amendement. « La fracturation hydraulique fait courir un risque considérable au sous-sol fragile de notre département, » ce qui affecterait « le thermalisme, l’agriculture, la viticulture. Les conséquences seront incalculables sur le tourisme, les paysages, » a-t-il alerté.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

La France continue à perdre des usines

En 2014, 217 usines ont mis la clé sous la porte, soit un peu moins qu’en 2013, où 267 fermetures d’usines avaient été enregistrées, selon les données de l’Observatoire de l’emploi et de l’investissement de Trendeo, basé sur le recensement en temps réel des informations concernant ces deux domaines.

Trendeo comptabilise sous le terme d’usine tout établissement à activité industrielle (y compris les industries alimentaires et de l’énergie), qui emploient plus de dix salariés.

Dans le même temps, les créations d’usines ont connu un rebond, après avoir marqué le pas en 2013. L’an passé, 163 sites ont ouvert leurs portes dans l’Hexagone, soit 41 de plus qu’en 2013.

Entre 2012 et 2013, les créations d’usines s’étaient significativement réduites, 53 sites de moins ayant ouvert leurs portes.

« Le rythme de cette évolution est encore insuffisant pour que le solde net des créations et suppressions devienne positif », note toutefois l’Observatoire.

La France a en effet encore perdu 54 sites industriels l’an dernier.

Ce sont les industries alimentaires qui tirent leur épingle du jeu: elles ont représenté 16% des créations d’usines en 2014, soit 2% de plus qu’en 2013.

Même si elles pèsent également pour 10,6% dans les fermetures d’usines (-5,5% par rapport à 2013, ce qui constitue une nette amélioration).

La mécanique (produits métalliques divers) est le deuxième secteur à avoir généré le plus d’ouvertures d’usines l’an passé (12,9%, +2,2% par rapport à 2013), mais est aussi le premier à être touché par les fermetures d’usines, dans une proportion égale (12,9 %, en recul toutefois de 3,6 % par rapport à 2013).

En revanche l’imprimerie, qui a représenté 8,8% des fermetures d’usines en 2014, soit 4,6% de plus qu’en 2013, continue à aller mal. Sur six ans (2009-2015), le secteur enregistre 88 fermetures d’usines pour seulement 8 ouvertures.

« Les usines qui se créent sont également de plus en plus petites en termes d’emplois, avec une baisse de 32% depuis 2009 », ajoute Trendeo.

Ainsi en 2014, 49 emplois en moyenne ont été générés par site industriel créé, contre 59 en 2013.

Au total, depuis 2009, date du début de la crise, 1.576 usines ont fermé leurs portes en France contre 1.000 qui ont ouvert.

Sur la période 2009-2015, 4,6% des fermetures d’usines sont des délocalisations.

La région centre, avec 65 établissements perdus depuis 2009, est la plus sinistrée en matière de désindustrialisation, suivie par le Nord-Pas-de-Calais (49) et la région Rhône-Alpes (44).

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Transition énergétique : le Sénat fixe à 1.000 mètres la distance entre une éolienne et des habitations

« Allez donc vous promener près d’une éolienne géante: le bruit est infernal », a dit l’auteur de l’amendement Jean Germain (PS) à l’occasion de l’examen du projet de loi de transition énergétique.

« De loin, un citadin qui passe, trouvera cela beau et majestueux. Pour les ruraux, ça l’est moins », a-t-il ajouté. « Pour des raisons médicales, la Grande-Bretagne et l’Allemagne ont fixé une distance minimale de 1,5 kilomètre; les États-Unis qui ne sont guère connus pour appliquer le principe de précaution, 2 kilomètres », a poursuivi l’élu. « Avec mon amendement, on concentrera les éoliennes dans des zones inhabitées et les parcs atteindront une taille critique. Le monde rural ne veut pas passer par pertes et profits ».

« Ce qui compte, ce sont les résultats: comment obtenir des éoliennes assez bien acceptées pour éviter l’accumulation des recours », a dit le rapporteur Louis Nègre (UMP).

Pour la Fédération énergie éolienne (FEE), qui regroupe la quasi-totalité des acteurs du secteur en France, cette disposition, si elle était maintenue, « serait catastrophique » et « neutraliserait » toutes les autres mesures favorables à l’éolien adoptées par le Sénat sur ce texte.

« Dans des zones d’habitats dispersés, cela peut grever fortement le développement éolien et cette distance de 1.000 mètres n’est basée sur aucune analyse », selon Frédéric Lanoë, président de la FEE.

Les professionnels insistent sur le fait que cette disposition « obérerait » l’atteinte de l’objectif, adopté par le Sénat, de 40% d’énergies renouvelables dans le mix électrique à l’horizon 2030.

Les sénateurs ont également supprimé l’article du projet de loi concernant le barème d’indemnisation des propriétaires lésés par l’implantation d’une éolienne.

« La systématisation du principe d’indemnisation est inquiétante, qui pourrait être étendue par exemple aux antennes-relais », a estimé M. Nègre. « En attendant de trouver la bonne rédaction, tenons-nous en au régime de responsabilité de droit commun prévu par le code civil » qui prévoit qu' »en l’absence d’un accord avec l’exploitant, l’indemnisation est déterminée au cas par cas par le juge civil », a ajouté l’élu des Alpes-Maritimes.

Le projet de loi, déjà adopté par l’Assemblée nationale, est examiné au Sénat jusqu’au 19 février. Il fera l’objet d’un vote solennel le 3 mars.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Les Américains s’intéressent à Europe, une lune de Jupiter

Barack Obama a accepté d’augmenter le budget de la NASA en 2016 de 2,7%, de quoi financer une mission vers Europe, une des lunes de Jupiter. Les Américains s’y intéressent car Europe pourrait bien abriter la vie. En effet, Europe possèderait une grande quantité d’eau, sous forme d’océans et de lacs, le tout proche de la surface, à seulement quelques kilomètres de profondeur.

De plus, Europe bénéficie suffisamment de la chaleur du Soleil pour que des organismes puissent se développer. De quoi susciter la curiosité et motiver une mission spatiale. 

La sonde Europa Clipper devrait être prête à décoller dès 2020, un calendrier serré car la sonde devra supporter un environnement hostile, principalement du fait d’importantes radiations aux abords de Jupiter. Les scientifiques planchent d’ailleurs toujours sur les équipements à embarquer. Ce qui est sûr, c’est qu’Europa Clipper devra être équipée de boucliers la protégeant des radiations, elle et ses instruments.

Les ingénieurs hésitent à faire atterrir la sonde à la surface de la Lune, le scénario le plus probable étant que la sonde reste en orbite et effectue ses mesures à distance. Ainsi positionnée autour de Jupiter, Europa Clipper s’approchera régulièrement de la lune à une distance suffisamment proche pour travailler. Une option plus sûre et plus économe.

Europa Clipper devra prendre des photos mais aussi analyser l’eau et les vapeurs présentes en surface. La sonde va ainsi cartographier la surface d’Europe et repérer les étendues d’eau en vue d’éventuelles prochaines missions d’exploration. Les 30 millions de dollars alloués et débloqués par le Congrès américain permettront d’affiner la stratégie et de préparer au mieux la mission.

Par Audrey Loubens

Revue du web #76 : les vidéos les plus étonnantes de février 2015 (2/2)

Cette semaine dans la revue du Web :

  • Spot, nouveau poids plume sans laisse de la Boston Dynamics ;
  • Dérouiller au laser, un jeu d’enfant ;
  • De la triche ? Se faire battre à plate-couture au bière-pong par un bras robotique ;
  • Le gadget (inutile?) de la semaine : « DALER », le robot volant pas très à l’aise au sol ;
  • Et en bonus : réactions en chaîne, à travers le prisme de Pepsi.

Spot, nouveau poids plume sans laisse de la Boston Dynamics

La famille de la Boston Dynamics, rachetée fin 2013 par Google, s’agrandit encore ! Le robot-guépard Cheetah, le robot anthropomorphe Petman et les mules-robots Alpha Dog et Big Dog ont un nouveau petit frère, baptisé Spot, plus léger et moins pataud que ses prédécesseurs. Parmi cette invincible armada, Cheetah a été le premier à briser ses chaînes, mais Spot se démarque des prestigieux membres de sa fratrie en étant le premier à naître « libre », sans les encombrants – mais indispensables – câbles auxquels nous avions fini par nous habituer.

Dans la vidéo qui suit, on peut apercevoir les 72 kilos de ce poids plume déambuler tranquillement dans les locaux de la Boston Dynamics, rien d’inhabituel puisque personne ne semble remarquer le petit manège du quadrupède robotique. Bien que le nom soit celui d’un chien, la démarche, elle, fait plutôt penser à celle d’un minuscule cheval au trot sur ses quatre pattes à vérins hydrauliques. La batterie de capteurs qui a élu domicile au niveau de son ciboulot lui permet de se mouvoir sans encombres en terrain accidenté, et de supporter sans broncher les assauts répétés – quelques coups de pied tout de même – de scientifiques mal lunés.

Spot a été développé par la Boston Dynamics avec l’aide du Massachusetts Institue of Technology (MIT) sous la houlette de la DARPA (Defense Advanced Research Projects Agency), agence affiliée au Département de la Défense américain, et chargée de la recherche et du développement des nouvelles technologies destinées à des fins militaires.

Dérouiller au laser

La société allemande Trumpf est l’une des pionnières du laser à l’échelle mondiale. A la tête d’une écurie laser très diversifiée – allant du laser à disque au laser à diode, en passant par les lasers à fibres et les lasers pulsés – Trumpf est également à la pointe en ce qui concerne les lasers à impulsions courtes et très courtes, utilisés pour découper, structurer, percer ou abraser. C’est cette dernière technique qui nous intéresse ici, avec une vidéo illustrant de manière ludique un nettoyage laser impressionnant.

Ne faisant qu’une bouchée des écailles de rouille, des poussières, des résidus huileux ou des oxydes, ce laser à impulsions courtes (30 nanosecondes, pour une puissance de 750 watts) semble idéal pour le micro-usinage d’abrasion. La pièce métallique servant de cobaye, elle, paraît mise à nue après les deux passages du laser, tellement le procédé semble efficace. Une deuxième jeunesse.

Dans le même esprit, la vidéo qui suit nous montre une autre installation laser du même acabit, permettant de libérer un plateau de cuisson de sa couche de rouille et des quelques résidus carbonisés en surface. Hypnotique !

De la triche ? Se faire battre à plate-couture au bière-pong par un bras robotique

Pas familiers du bière-pong ? Très répandu sur les campus universitaires américains, les règles de ce jeu à boire sont d’une simplicité enfantine : chacune des deux équipes vise les six à dix verres de l’adversaire, partiellement remplis de bière, avec des balles de ping-pong. Lorsqu’une balle finit sa course dans l’un des verres, l’équipe adverse doit en boire le contenu. A la fin du jeu, l’équipe perdante doit boire les verres restants, en faisant mine d’être dépitée.

Bien qu’un laboratoire ne semble pas être l’environnement naturel pour pratiquer ce genre de jeu, les blouses blanches d’Empire Robotics ont jeté leur dévolu sur cette petite mise en scène pour mettre en valeur les nombreuses qualités de « Versaball », leur bras grip robotique. Conçu pour manipuler avec soin et précision une grande variété d’objets, le secret de « Versaball » repose dans la sphère flashy en polymère souple qui se trouve à son extrémité. Rappelant un peu le principe d’un canon à air, la petite boule se vide pour attraper les objets, puis se remplit à nouveau d’air pour les relâcher.

Dans la vidéo qui suit, on peut voir le bras-grip manipuler les balles de ping-pong avec beaucoup de délicatesse, pour après propulser chacune des balles, une à une, dans les six gobelets (vides), en jouant sur la pression de l’air pour parvenir à propulser la balle avec précision. Autant vous le dire tout de suite, « Versaball » risque de rester sobre encore longtemps.

Le gadget (inutile?) de la semaine : « DALER », le robot volant pas très à l’aise au sol

Le biomimétisme a le vent en poupe, et ce ne sont pas les concepteurs de notre gadget (inutile?) de la semaine qui viendront nous dire le contraire. Le « DALER » (acronyme de Deployable Air-Land Exploration Robot) est un petit robot aux allures de chauve-souris, censé apporter une solution aux problèmes de polyvalence de ces engins lorsqu’ils changent de terrain de jeu et de moyen de locomotion. Plutôt très à l’aise dans les airs, le robot adapte sa morphologie pour s’attaquer au plancher des vaches, avec… moins de succès.

Un ingénieux mécanisme permet aux ailes de la petite bestiole de se replier, les bras ailés faisant ainsi office de pattes de fortune. Pourtant, le moins que l’on puisse dire est que la démarche est mal-assurée, et que la progression du robot semble compromise en extérieur sur terrain difficile. Développé pour rechercher de potentielles victimes lors de catastrophes naturelles, on se prend à espérer que les prochaines versions seront moins malhabiles.

Bonus : réactions en chaîne, selon Pepsi

Pour venir conclure cette soixante-seizième Revue du Web, faisons quelques pas en arrière pour se retrouver fin 2014, au moment des sempiternelles célébrations de nouvel an. Plutôt que de jouer la traditionnelle carte du feu d’artifice, Pepsi a décidé de marquer les esprits en organisant la rencontre contre-nature de 2014 pièges à souris avec… 2015 balles de ping-pong.

Faisant preuve d’une délicatesse à toute épreuve, l’équipe en charge du projet doit tout de même s’y reprendre à deux fois tant la mise en place est périlleuse. Une fois l’installation terminée et les pièges tendus, il ne reste plus qu’à profiter de la jouissive double explosion.

Par Moonzur Rahman

Réduction en 2014 de 11 milliards d’euros de la facture énergétique de la France

Ce résultat est en amélioration de 7 milliards d’euros par rapport à celui de 2013, alors que celui de 2013 était lui aussi en amélioration de plus de 6 milliards d’euros par rapport à celui de  2012 (TAB.I)

Cette progression du solde ne provient pas d’un progrès dans les exportations qui son restées quasiment étales entre 2013 et 2014 autour des 437 milliards d’euros, mais il provient de la baisse des importations expliquée pour l’essentiel par la baisse de la facture énergétique.

A partir du cumul des nomenclatures publiées par les douanes et qui ne comportent pas les échanges de matériels militaires, les soldes exportateurs sont alors plus négatifs (TAB.II)  mais les progrès annuels de 7 milliards d’euros durant ces dernières années y sont retrouvés avec respectivement de 2011 à 2014 des soldes déficitaires de 91, 84, 77 et 70 milliards d’euros.

 

Ces données montrent que la France, depuis plus de dix ans, consomme plus de biens qu’elle n’en produit (le dernier solde exportateur positif remonte à 2002) ,  mais qu’après un maximum de ce déséquilibre observé en 2011, le bilan exportateur du commerce extérieur bien qu’encore fortement négatif, évolue depuis trois ans dans la bonne direction grâce en particulier à la baisse des importations et une certaine stabilité des exportations, à euros courants. 

Un examen plus détaillé de la facture énergétique montre qu’elle joue un rôle majeur dans cette baisse récente des importations de notre pays (TAB.III).

J’ai relevé, au sein de la nomenclature des douanes françaises, un certain nombre de lignes qui représentaient des énergies primaires (charbon, gaz naturel, pétrole, combustibles nucléaires), les produits issus du raffinage du pétrole dont les importations complètent les insuffisantes productions du raffinage local, un vecteur d’énergie: l’électricité ainsi que certains produits comme l’aluminium ou les engrais et composés azotés, comme l’urée, dont l’élaboration est particulièrement énergivore.

Le solde négatif de cet indicateur des échanges énergétiques a affiché son amplitude maximale en 2012 avec un déficit de près de 75 milliards d’euros, il est revenu à 60 milliards d’euros en 2014, affichant un superbe retrait de 11 milliards d’euros par rapport à celui de 2013. Ce sont essentiellement les réductions en volumes et en prix des importations de gaz naturel, de pétrole et autres produits pétroliers qui expliquent pour 90% la performance. Il est également possible de noter la croissance du solde positif des exportations d’électricité, la France, favorisée par un hiver clément, au sein du réseau ouest-européen interconnecté, a pu jouer à fond son rôle indispensable de fournisseur d’énergie électrique de base.

Une donnée importante: malgré une consommation stable de carburants (essence, gazole et kérosène) les flux de consommations françaises en volumes de produits pétroliers en Octobre  2014 moyennées sur 12 mois glissants étaient en baisse de 4% selon l’IEA (FIG.I, courbe rouge). Baisse en volume des consommations qui participe à la réduction en euros des importations de produits pétroliers.

En conclusion il est possible d’affirmer aujourd’hui que la baisse des prix des ressources énergétiques primaires, plus ou moins indexées sur le prix du baril de pétrole, et que la baisse continue des consommations françaises de produits pétroliers participent ensemble à la réduction du solde négatif des échanges de produits de la France. Compte tenu du maintient de prix bas du baril de pétrole observé en ce début 2015, ce phénomène de réduction du solde annuel défavorable des échanges devrait se poursuivre durant 2015, au moins jusqu’au mois de Juillet.

Après, tout dépendra d’un redressement éventuel des cours du brut, largement lié aux paramètres géopolitiques et à un hypothétique mouvement de baisse des cours du dollar vis à vis des autres monnaies qui inciterait les acteurs de marché à des achats de couverture de pétrole papier.

Par Raymond Bonnaterre

GDF Suez prend le virage des énergies renouvelables

Le groupe GDF Suez s’est fixé un objectif ambitieux : augmenter de 50 % son parc de production d’énergies renouvelables entre 2009 et 2015. En passant de 13,1 GW installés fin 2009, à 20,7 GW fin 2015, il prévoit d’atteindre ses objectifs. GDF Suez devrait alors détenir 9,9 GW d’installations en Europe et 10,8 GW dans le reste du monde. D’après les derniers chiffres publiés du groupe, au 1er trimestre 2014, le parc de production se répartissait ainsi : 59 % de gaz naturel, 14 % de charbon, 11 % d’hydraulique, 7 % d’énergie solaire, 5 % de nucléaire, 3 % d’éolien et 1 % de biomasse et biogaz, pour un total de 114 GW. Les chiffres pour fin 2014 seront connus le 26 février prochain, à l’occasion de la publication de ses résultats annuels.

Si l’on ne considère que les énergies renouvelables, l’hydraulique occupe donc une place importante. Il représente 51 % des capacités renouvelables en Europe et 87 % dans le reste du monde. L’éolien pour sa part représente respectivement 36 % et 11 % des capacités installées du groupe en Europe et hors d’Europe.

Pour l’après 2015 et d’ici 2025, le groupe veut doubler ses capacités électriques en énergies renouvelables en Europe pour atteindre 16 GW installés. Hors d’Europe, environ 42 % des projets électriques en construction concernent d’ores et déjà des énergies renouvelables. 

Quels sont les projets phares en Europe ?

GDF Suez a plusieurs projets en cours dans l’éolien posé en mer, l’hydrolien et l’énergie thermique des mers. Concernant l’éolien, c’est le consortium réunissant GDF Suez et Areva qui a remporté les deux champs éoliens présents dans le 2e appel d’offre du Gouvernement. Le premier, de 496 MW, est prévu au large du Tréport (Seine-Maritime). Le second, de 496 MW, se dressera en Atlantique, entre l’île d’Yeu et Noirmoutier. Ces deux parcs comprenant chacun 62 éoliennes de 8 MW seront mis en exploitation en 2021.

Selon l’Ademe, le gisement hydrolien est estimé entre 2 et 3 GW. Deux zones en France concentrent 80 % de ce potentiel : le raz Blanchard et le Fromveur, sur la côté Atlantique entre Brest et Cherbourg. GDF Suez développe notamment un parc hydrolien pilote au raz Blanchard. 4 hydroliennes de 1,4 MW seront installées dès 2016. 

Le groupe mise sur l’eau de mer pour chauffer et climatiser des quartiers côtiers. Différents projets sont en cours : la filiale Cofely va réaliser une centrale de géothermie marine innovante qui doit approvisionner en froid et en chaleur l’éco-cité Euroméditerranée. Il s’agit d’un gigantesque projet de rénovation urbaine devant transformer une grande part de la zone portuaire de Marseille.Les travaux de la centrale débuteront début 2015 pour permettre les premières livraisons de froid fin 2015. D’ici 2020, 500 000 m2 seront alimentés en chaud et en froid grâce à une puissance installée de 18,6 MW de chaud et 16 MW de froid. 

Un autre projet vise à assurer la climatisation des grands établissements publics et privés de Saint-Denis et Sainte-Marie, à la Réunion, grâce à l’énergie thermique des mers. Il prévoit une capacité de 40 MW. Les travaux commenceront mi-2015 pour une mise en service mi-2017. Ce projet est mené par la société Clymabiss, dont GDF Suez détient 87,5 %, à côté de la Caisse des Dépôts.

Par Matthieu Combe, journaliste scientifique

Et aussi dans l’actualité :           

La cyberguerre contre le terrorisme est déclarée

Il y a quelques jours, Bernard Cazeneuve réalisait le changement de nature du terrorisme. Le ministre de l’intérieur français faisait référence à l’utilisation d’internet qui permet aux jihadistes de faire de la propagande et de recruter, constatant qu’ « Aujourd’hui vous avez 90% de ceux qui basculent dans des activités terroristes au sein de l’Union européenne qui le font après avoir fréquenté internet. Des sites, des blogs, des vidéos. On ne combattra pas le terrorisme si on ne prend pas des mesures de règlementation d’internet ».  La guerre 2.0 a bel et bien commencée. Mais les plus rapides à engager des actions concrètes sont les experts en piratage informatique du mouvement Anonymous, fervents défenseur de la liberté d’expression.  Suite aux attentats du 7 janvier, les Anonymous ont été les premiers à s’attaquer au mal présent sur la toile. Les hackers ont commencé par diffuser une liste de comptes d’utilisateurs des réseaux sociaux Twitter et Facebook invitant les internautes à les dénoncer, avec en ligne de mire leur suppression. Avec succès puisque en quelques heures à peine la trentaine de comptes cités avaient quasiment tous disparus. Tandis que les Anonymous continuent de marteler les cibles pro-terroristes, les terroristes ripostent en s’attaquant à des sites français. Mediapart, Slate, Le Parisien, 20 minutes, L’Express, Marianne et même Vanity Fair ont été inaccessibles pendant plus d’une heure, victimes d’une attaque de type déni de service qui consiste à rendre indisponible un service. 

S’attaquer aux organes de communication était devenu une urgence. Grâce à Internet, les terroristes d’Al-Qaïda et de l’Etat Islamiste peuvent toucher un grand nombre d’individus. Plus besoin de faire venir les personnes se former en Syrie par exemple, il suffit de leur montrer des vidéos sur la façon de mener un attentat. « Il s’agit d’un phénomène que nous observons depuis plusieurs années : le terrorisme en solo. Ce sont des gens qui se radicalisent en ligne, n’ont pas de lien avec un réseau existant mais passent néanmoins à l’action » constate Thomas Hegghammer, directeur de recherches sur le terrorisme à l’Établissement norvégien de recherches sur la défense (FFI) à Oslo. 

En attendant, le gouvernement vient tout juste de lancer son site Stop-djihadisme.gouv.fr pour informer le grand public et lutter contre l’enrôlement. Au travers de vidéos et de texte le site décrypte les techniques de recrutement et les messages des terroristes. Cette action d’information devrait être accompagnée de mesures plus directes comme le renforcement des moyens dédiés à la surveillance du cyberjihadisme.

Par Audrey Loubens, journaliste scientifique

Comment anonymiser tout ce que vous faites en ligne

Comment se rendre invisible sur la Toile ? En chiffrant vos données, et en utilisant des outils vous permettant de surfer incognito sur le Web, comme le réseau Tor, qui utilise une chaîne de serveurs proxys (“routage en oignons”) pour cacher votre adresse IP, et chiffrer votre connexion.

Naviguer incognito

En ce qui concerne la navigation sur le Web, Tor Browser est une version améliorée, sécurisée, de Firefox, qui passe par le réseau Tor pour anonymiser votre surf. Revers de la médaille : la connexion est assez lente, car elle passe par de nombreux serveurs délocalisés. Mais le jeu en vaut la chandelle, car cela vous permet de ne plus être pisté tous azimuts lors de votre navigation.

Des e-mails sécurisés

Pour sécuriser vos e-mails, vous pouvez chiffrer vos communications avec un logiciel tel que GnuPG, mais cela vous demandera un certain temps d’adaptation, car cet outil est un peu complexe.

Plutôt que Gmail, Outlook ou Yahoo! Mail, qui scannent vos emails et peuvent toujours vous retrouver, il existe un service d’e-mail “temporaire” : Guerrilla Mail. Il vous permet de configurer une nouvelle adresse e-mail “jetable” en un clin d’oeil. Riseup.net permet également de créer des e-mails privés et sécurisés, car sans publicité, gérés par une communauté militant pour le respect de la vie privée, et utilisant une connexion chiffrée.

Pour davantage de sécurité, utilisez ensuite le client de messagerie Mozilla Thunderbird. Vous pourrez y installer le plugin Enigmail, qui utilise GnuPG pour chiffrer les communications, vous évitant de le faire manuellement. Un autre plugin, TorBirdy, achèvera de sécuriser tout ceci, en faisant passer vos e-mails à travers Tor.

Le partage de fichiers en oignons

Oubliez Google Drive, Box ou Dropbox, qui ont accès à vos documents, et qui sont peu réputés pour leur sécurité. Créé par Micah Lee, du magazine The Intercept, le logiciel gratuit et open source Onionshare permet de transférer de gros fichiers, en toute sécurité, et anonymement, via Tor et des canaux chiffrés.

Onionshare crée un site web provisoire, protégé par un mot de passe, hébergé sur votre ordinateur. Ce site est accessible depuis une adresse .onion, grâce au réseau Tor. Il vous suffit de partager avec vos contacts l’URL du site provisoire, pour que ceux-ci puissent télécharger en toute sécurité, et anonymement, vos fichiers… via leur propre navigateur Tor Browser, bien sûr. Une fois téléchargés, les fichiers sont retirés.

Un smartphone vraiment sécurisé

Pensez-y, surtout si vous passez par un Wi-Fi non sécurisé. Si vous utilisez un smartphone Android, l’application (gratuite) Orbot, créée par le Guardian Project pour améliorer l’anonymité de vos activités sur Internet, vous permettra de cacher votre identité numérique lors de votre surf sur Internet, mais aussi lors de vos conversations en messagerie instantanées, en passant par le réseau Tor.

Pour une navigation internet privée, vous devrez combiner Orbot et le navigateur Orweb, qui acceptera de faire passer votre communication via un proxy. Pour une messagerie instantanée privée, vous devrez conjuguer Orbot et l’application de tchat Gibberbot.

Pour les smartphones iOS, le navigateur Onion Browser, qui coûte 99 centimes d’euros dans l’App Store, accède à Internet via le réseau Tor. L’adresse IP sera donc masquée et la connexion chiffrée.

Un système d’exploitation anonyme

Pour toujours plus d’anonymat et de sécurité, il existe même un système d’exploitation libre (GNU/Linux, basé sur la distribution Debian), développé par des hacktivistes, dont l’objectif est de “préserver votre vie privée et votre anonymat”.

Tails peut être installé sur un ordinateur, en complément ou à la place du système Windows existant, mais il peut aussi être lancé depuis un DVD ou une clef USB sur lesquels il aura été préalablement installé.

Ce système d’exploitation réunit l’essentiel des outils et logiciels libres permettant de communiquer en toute sécurité. Tails intègre ainsi le réseau Tor pour la navigation, mais aussi GnuPG pour le chiffrement des e-mails, ou encore TrueCrypt pour le chiffrement des fichiers.

Par Fabien Soyez

Planck dévoile le côté dynamique de l’Univers

La mission Planck est dédiée à l’étude du rayonnement fossile, l’écho lumineux du Big-Bang. Les mesures, faites dans neuf bandes de fréquence, permettent de construire des cartes de la température du ciel mais aussi de sa polarisation, qui nous donne des informations supplémentaires à la fois sur l’Univers très jeune (âgé de 380 000 ans) et sur le champ magnétique de notre Galaxie.

Ces données et les articles associés sont soumis à la revue Astronomy & Astrophysics et sont disponibles sur le site web de l’ESA. Des informations qui permettront notamment de mieux déterminer le contenu en matière et en énergie de l’Univers, l’époque de la naissance des premières étoiles ainsi que le taux actuel d’expansion de l’espace.

 

De 2009 à 2013, le satellite Planck de l’ESA a observé le rayonnement fossile, la plus ancienne image de l’Univers. L’héritage légué par ce projet inclut de très nombreuses données uniques et essentielles pour plusieurs domaines de l’astrophysique. Citons entre autres la carte de l’émission polarisée de la poussière interstellaire ainsi qu’un catalogue de 13188 nuages denses et froids de notre Galaxie et de 1653 amas de galaxies détectés par leur interaction avec le rayonnement fossile, mais aussi des informations sur la façon dont la matière s’est peu à peu concentrée lors des dix derniers milliards d’années et, enfin et surtout, la carte de ce rayonnement fossile sur tout le ciel. Cet outil permet aux chercheurs de visualiser la distribution de matière 380 000 ans après le Big Bang. Grâce à ces données, nos connaissances sur l’Univers jeune deviennent dynamiques et permettent d’explorer tous les rouages du modèle cosmologique.

Le rayonnement fossile

Sur la carte ci-dessus, les couleurs indiquent les écarts de la température du rayonnement fossile par rapport à sa valeur moyenne. Les zones bleues, plus froides, et les zones rouges, plus chaudes, témoignent des variations dans la densité de la matière tôt dans l’histoire de l’Univers. La direction et l’intensité de la polarisation apparaissent en filigrane sur la carte de température. Elles forment une empreinte qui témoigne des mouvements de matière qui chute vers les régions les plus denses et fuit les régions moins denses. Ces structures s’observent à différentes échelles sur le ciel.

Ces nouvelles données ont permis de déterminer de façon précise le contenu matériel de l’Univers : 

  • 4,9% de son énergie aujourd’hui est composé de matière ordinaire,

  • 25,9% de matière noire, dont la nature reste inconnue,

  • 69,2% d’une autre forme d’énergie, distincte de la matière noire et dont la nature précise est plus mystérieuse. 

On sait également mieux déterminer l’époque de la naissance des premières étoiles, qui est désormais estimé aux alentours de 550 millions d’années après le Big Bang. Enfin, grâce à ces données d’une très grande précision, les chercheurs ont pu évaluer le taux actuel d’expansion de l’espace, ce qui conduit à estimer l’âge de l’Univers à 13,77 milliards d’années.

Mais ce qui a considérablement augmenté avec les données relatives à la polarisation du rayonnement fossile, c’est la capacité des cosmologistes à tester un certain nombre d’hypothèses qu’ils font sur l’Univers, que ce soit en rapport avec les lois physiques qui le régissent ou les propriétés de ses constituants (neutrinos et matière noire par exemple). Le nouveau catalogue d’amas de galaxies a en outre permis d’affiner les paramètres cosmologiques régissant la formation des structures dans l’Univers, comme la masse des neutrinos et l’époque de réionisation.

Aujourd’hui, ces données fournissent aux chercheurs du monde entier une base particulièrement solide pour explorer les époques les plus anciennes proches du Big Bang. En particulier, le phénomène appelé inflation cosmique qui, vraisemblablement, a transformé l’Univers initialement peut-être très chaotique en un milieu relativement homogène mais parsemé de minuscules fluctuations de densité qui permettront plus tard aux galaxies de se former.

Le regard de Planck sur le magnétisme de notre galaxie

L’espace interstellaire de notre Galaxie n’est pas vide. Il contient du gaz et de minuscules grains de poussière : la matière dont notre Galaxie dispose pour former de nouvelles étoiles et leurs planètes. La poussière interstellaire rayonne aux longueurs d’onde d’observation du satellite Planck. Comme la Terre ou le Soleil, l’espace interstellaire est parcouru par un champ magnétique. La force magnétique tend à aligner les grains, ce qui polarise leur rayonnement. Planck a mesuré pour la première fois cette polarisation sur l’ensemble du ciel. 

La découverte du magnétisme de notre Galaxie est liée à celle des rayons cosmiques. Sans le champ magnétique, ces particules, accélérées par les supernovæ à des vitesses proches de la vitesse de la lumière, quitteraient rapidement la Galaxie. La force magnétique les retient. Le champ magnétique est lui tenu par la matière interstellaire. La matière, le champ magnétique et les rayons cosmiques constituent un ensemble dynamique : ils agissent en interaction les uns avec les autres. L’importance du champ magnétique dans ce trio est avérée depuis longtemps, mais les observations dont nous disposons pour l’étudier sont encore trop fragmentaires. Les astrophysiciens cherchent depuis longtemps à comprendre comment la gravité se joue du champ magnétique pour initier la formation des étoiles.

La mission Planck révèle aujourd’hui deux cartes inédites de la polarisation du ciel : une de l’émission synchrotron des électrons du rayonnement cosmique et une de l’émission de la poussière interstellaire. Les données révèlent la structure du champ magnétique Galactique avec des détails sans précédent. La polarisation de l’émission synchrotron, comme celle de la poussière, indique la direction du champ magnétique. L’interprétation des observations est complexe car nous n’avons accès qu’à une projection d’une structure qui par essence est en trois dimensions. Les données doivent être confrontées à des modèles et des simulations numériques pour comprendre l’interaction entre matière et champ magnétique. Ce travail a déjà commencé au sein du consortium Planck mais il reste beaucoup à faire tant les données sont denses en information.

Source : CNRS

La photo de la semaine #3

Personne n’a trouvé la réponse à La photo de la semaine #2 : Il s’agissait d’une fissure dans de l’acier

 

Place donc à la photo de la semaine #3 !

  • Mais qu’est-ce donc ?

Vous voulez tenter de découvrir ce que représente cette photo, obtenue à l’aide d’un microscope ?

Publiez vos propositions dans la zone « commentaires » ci-dessous.

Le gaz sera-t-il compétitif face au charbon en 2015 ?

En raison de l’indexation partielle du prix du gaz sur les prix pétroliers, celui-ci devrait continuer sa baisse sur le marché spot. Cela, grâce à une baisse majeure du prix du baril ces derniers mois. Malgré cela, avec une hypothèse d’un baril de pétrole à 60 $ en 2015, le gaz restera non compétitif face au charbon. 

Pour inverser la tendance, il faudrait un doublement du prix du charbon, assure IFP Energies Nouvelles. Dans cette perspective, le charbon devrait atteindre 100 $/tonne, alors que son prix actuel est de 50$/t et que l’on s’attend à un prix moyen en 2015 de 60 $/t. Sinon, il faudrait agir sur le prix du CO2 pour qu’il atteigne 30 €/t, contre 7€/t actuellement, soit une multiplication par 4. « On est très loin de cela en Europe », réagit Olivier Appert.

Il faut également préciser qu’en 2014, la crise Ukrainienne n’a pas eu d’impact majeur sur les prix du gaz, mais rien n’est acquis pour 2015. D’autant plus que la sortie de crise apparait de plus en plus compliquée.

Les pays peuvent-ils favoriser la compétitivité du gaz ?

En 2014, le Royaume-Uni a instauré un mécanisme complémentaire au prix du CO2. Ce mécanisme atteindra 18 livres la tonne, soit 23 €/t en avril 2015. « Ce niveau sera vraisemblablement suffisant pour permettre au gaz d’être concurrentiel dans ce pays », prévient Olivier Appert. Avec un peu de volonté politique, il est donc possible de réagir et le charbon ne remplace pas fatalement le gaz, malgré son faible prix à la tonne.

Le gaz de schistes américain est-il toujours aussi compétitif ?

Suite au boom de la production de gaz de schistes, les États-Unis vont se lancer dans l’exportation de gaz naturel liquéfié (GNL) vers l’Europe et la Chine. Les premières exportations devraient commencer début 2016. Dans cette perspective, quel serait l’impact d’une baisse du prix du gaz sur la compétitivité du GNL américain ? Quel doit être le prix de livraison du gaz vers l’Asie et l’Europe, comparé au prix qui prévaut dans ces deux régions? 

Avec un prix du baril à 60 $, le prix du gaz tournerait autour de 9$/Mtu en Asie et de 7$/Mbtu en Europe en 2015. « Dans cet environnement, il faut un prix de 3 $/Mbtu maximum aux Etats-Unis pour rester compétitif », analyse Olivier Appert. « C’est le prix attendu sur le marché américain en 2015, mais depuis 2009, le prix a été à certains moments un peu supérieur, jusu’à 4$/Mbtu. La rentabilité des puits américain est donc devenu un peu plus incertain dans le contexte actuel », poursuit-il. La baisse du prix du baril de pétrole a engendré des baisses d’investissements dans les puits de pétrole de schistes aux Etats-Unis. Certains projets dans le gaz pourraient  aussi être reportés, faute de rentabilité.

Par Matthieu Combe

Le marché du pétrole en 2015

« Une demande dont la croissance reste modérée et une offre qui continue de croître à un rythme soutenu ont modifié l’équilibre du marché », insiste Olivier Appert, Président d’IFP Energies Nouvelles. « Sur les 4 trimestres de 2014, la production pétrolière mondiale a systématiquement excédé la demande de 0,5 à 1 million de barils jours et, en 2015, on estime que l’offre sera en excédent de l’ordre de 2 millions de barils jours sur le 1er semestre et de 1 million de barils jours sur le 2e semestre », résume-t-il.

«On peut estimer qu’un prix d’équilibre en 2015 pourrait se situer entre 50 à 70 $ par baril pour écouler les excédents et équilibrer l’offre et la demande », prévient-il. Cette perspective engendre des pertes financières importantes pour les compagnies pétrolières, les pays producteurs et engendre un stockage considérable.

L’OPEP ne veut pas prendre à sa charge la baisse de production

L’excès de l’offre provient essentiellement des pays non membres de l’Organisation des pays exportateurs de pétrole (OPEP). « La production des pays non membres de l’OPEP depuis 2010 s’est accrue deux fois plus vite que celle des pays de l’OPEP, particulièrement tirée par le développement des pétroles de schistes ou Light Tight Oil aux Etats-Unis », nous éclaire Olivier Appert. 

Dans ce cadre, l’OPEP a annoncé le 27 novembre 2014 qu’elle refusait de baisser sa production. Les 12 membres de l’Organisation envoient ainsi un message clair : ils ne laisseront pas leurs parts de marché à leurs concurrents (notamment la Russie, les Etats-Unis et le Brésil) quitte à engendrer une baisse de prix significative du baril sur le marché. Pourquoi baisseraient-ils leur production si les autres acteurs ne le font pas ?

Un bras de fer s’ouvre alors entre l’OPEP, menée par l’Arabie Saoudite, et les autres pays pour que tous les acteurs prennent en charge leur part dans la baisse de production. « Ils vont réussir à tuer le LTO aux Etats-Unis et ils savent que Barack Obama va faire pression sur les producteurs américains pour qu’ils diminuent leur production », analyse Olivier Appert. S’ils y arrivent, « le marché rebondira, comme cela a été le cas en 1987, en 99-2000 ou en 2009 », prévoit-il. Sinon, la situation pourrait devenir compliquée pour tous les acteurs.

Le pétrole de schiste, premier menacé ?

L’institut français des relations internationales rappelle que pour le pétrole de schiste, « la production est caractérisée par un déclin très rapide de la production initiale par puits (entre 60 et 90 % la première année), qui requiert des investissements en continu dans de nouveaux puits pour maintenir/accroître la production ». Et précise que « ce déclin très rapide induit une forte dépendance des projets au prix du brut de la première année de production, contrairement aux pétroles conventionnels, dont l’économie est fondée sur des durées beaucoup plus longues ». Ainsi, la chute des prix du baril entraîne une baisse importantes des investissements et fait craindre une chute de la production. 

La baisse des prix a déjà engendré une baisse des demandes de permis de forages aux Etats-Unis, notamment au Texas et dans le Dakota du Nord. On constate ainsi une véritable réduction des investissements qui peut atteint entre – 10 % et  – 50 % pour les pétroliers indépendants les plus touchés. « Les effets sur la production des LTO dont le développement de la production nécessite d’investir très régulièrement dans de nouveaux puits pourrait se faire sentir d’ici le mois de Juin », assure Olivier Appert.

La valeur en bourse de nombreuses compagnies et entreprises parapétrolières est d’ores et déjà fortement impactée. « La baisse de la valeur en bourse de nombreuses sociétés crée un climat propice à des achats ou regroupement dont les annonces pourraient bientôt se succéder au cours des prochains mois », prévient Olivier Appert.

Néanmoins, pour le moment, les pétroles de schistes américains ne semblent pas menacés sur le court-terme. « On peut estimer qu’une baisse des investissements de 20 à 40 % en 2015 sur ce type de ressources limiterait la production en 2015 entre 4,2 et 4,9 millions de barils par jour, soit un niveau comparable à 2014, mais inférieure aux prévisions de 5 millions de barils par jour », affirme Olivier Appert. 

On s’aperçoit que même si les prix et les investissements baissent, la production se maintient , car les progrès techniques ont conduit à une baisse des coûts de production entre 20 % et 40 % en 5 ans. « Le business model des LTO aux Etats-Unis est une séance expérimentale, personne n’a d’idées sur la résilience du système », reconnait le Président d’IFP Energies Nouvelles.

Les coûts de production varient considérablement selon les puits, en fonction des propriétés géologiques, de 25 $/baril jusqu’à 80 $/baril. « Mais quelle est la part de la production américaine qui reste compétitive, avec un coût de production inférieur à 50 $/baril? Je crois qu’aujourd’hui personne ne le sait réellement », prévient Olivier Appert.

Les pays producteurs en pâtissent, les pays consommateurs jubilent

La baisse du prix du brut engendre également des difficultés budgétaires et économiques pour les pays producteurs. Avec un prix plus faible, les budgets de ces états ne sont plus à l’équilibre. Pour certains, la situation peut même rapidement devenir critique. «Pour un pétrole  à 60 $, les pertes de revenus se situent à 2,7 % de PIB pour les pays exportateurs, mais cela peut aller jusqu’à 10 % de PIB pour certains pays du Moyen-Orient», assure Olivier Appert. 

En Russie, avec prix à 60 $/baril sur l’ensemble de 2015, les pertes sur les exportations de pétrole et de gaz, atteindraient près de 150 milliards de dollars, soit une baisse équivalente à 7% du PIB national. De plus, le rouble connait actuellement une dépréciation considérable, entraînant une baisse supplémentaire de l’activité économique du pays. 

A l’opposé, les pays consommateurs bénéficient de la situation. En moyenne, le gain est estimé à 1 % de PIB pour l’ensemble des pays importateurs et pourrait atteindre jusqu’à 1,6 % pour le Japon. En France, la facture pétrolière et gazière devrait baisser de 15 milliards d’euros en 2015, soit 0,7 % du PIB (si le prix du baril de pétrole tourne autour de 60 $ et le gaz à 7 $/MBtu). « Notre facture énergétique resterait néanmoins déficitaire à hauteur de 48 milliards d’euros », rappelle Olivier Appert. La nécessité d’assurer notre transition énergétique n’est donc heureusement pas remise en cause par cette situation !

Par Matthieu Combe, journaliste scientifique