L’éolien a répondu à 60% de la demande électrique allemande entre 6 et 7H du matin le 1er janvier 2018

L’année venait de commencer. Entre 6 et 7H du matin, les unités EnR allemandes ont délivré 41 GWh, dont 35 GWh d’éolien, le reste partagé entre la bioélectricité et l’hydroélectricité. Les centrales thermiques fossiles ont de leur côté contribué à hauteur de 8 GWh et les centrales nucléaires de 4,7 GWh. Il faisait nuit, par conséquent la production solaire était nulle.

La production électrique totale était de 58 GWh et la demande électrique, faible à ce moment-là, était de 41 GWh. L’électricité allemande était ainsi à 70,6% d’origine renouvelable, et à 60% d’origine éolienne.

17 GWh ont été exportés vers les pays voisins dont 6,4 GWh vers la France, 5 GWh vers l’Autriche et 2 GWh vers le Danemark.

image-eolien-big
Production et consommation électrique allemande le 1er janvier 2018. Source : Bundesnetzagentur 2018

Contrairement à une information diffusée dans certains médias il n’est pas correct d’affirmer que 100% l’électricité allemande était d’origine renouvelable (et 85% d’origine éolienne) étant donné que la production des centrales thermiques fossiles et nucléaires n’était pas nulle.

Le fait que la consommation électrique allemande était strictement égale à la production électrique d’origine renouvelable ne suffit pas pour conclure que l’intégralité de l’électricité consommée en Allemagne était verte.

Les pays voisins de l’Allemagne ne sont pas des poubelles à électrons sales. L’électricité qui a été exportée n’est pas intégralement d’origine fossile ou fissile, il y a aussi de l’électricité verte. Et d’ailleurs surtout des électrons verts.

Jean-Gabriel Marie

Urban Aero met du vol vertical pour tous les usages

Fondée il y a une vingtaine d’années, Urban Aeronautics* travaille sur les rotors carénés pour véhicules à décollage et atterrissage verticaux. Sa gamme de rotors brevetés baptisés FancraftTM est notamment devenue le support à deux projets phares : un drone ambulance du nom de Cormorant et une voiture volante, le CityHawk. Depuis septembre 2016, l’entreprise israélienne travaille avec Safran Helicopter Engines (ex-Turbomeca) pour disposer de moteurs plus puissants et travailler sur de nouveaux moteurs à propulsion distribuée. Pour Urban Aeronautics, entrer en partenariat avec un industriel aéronautique de premier-plan comme Safran avait pour but de franchir le stade du prototype pour atteindre celui de la production, estimait ainsi Rafi Yoeli, son fondateur et PDG, lors de la signature du partenariat.

Un drone ambulance tout terrain

En 2009-2010, le premier prototype commence ses essais en vol. Il s’appelle alors AirMule, et sera ensuite rebaptisé Cormorant. Son premier vol en complète autonomie est effectué fin 2015. Avec ses 6m de long pour 3,5 de large, le Cormorant affiche 1t à vide sur la balance. Il est capable de transporter 500kg de charge utile et dispose d’une autonomie en vol de 90 minutes avec une vitesse jusqu’à 180 km/h.

Equipé désormais du moteur Arriel 2N de chez Safran, il décolle et atterrit à la verticale grâce à quatre rotors carénés. Son gros avantage sur des hélicoptères : il est tout terrain ! Sans pales à sauvegarder, il peut plus facilement se poser entre des immeubles, en montagne et il a été testé pour affronter tout type de temps et intempéries comme des vents jusqu’à 75km/h. A présent Urban Aero espère une commercialisation pour 2020.

Urban Aero développe son propre système de commandes de vol électriques, ses propres rotors et l’enveloppe de l’engin. Conçu à l’origine dans un contexte militaire, les technologies développées sont maintenant le support à des projets strictement civils de voitures ou taxis volants.

Un taxi volant électrique

Avec l’engouement actuel pour les taxis volants, Urban Aero est sorti de sa cible militaire pour concevoir un véhicule dédié aux applications civiles, le CityHawk qui peut disposer jusqu’à 5 places assises (4 passagers et un pilote). Basé sur le châssis et les rotors du Cormorant, ce véhicule présente plusieurs avantages sur les hélicoptères en milieu urbain : 25 % moins encombrant qu’un hélicoptère comparable, capable d’atterrir sur des emplacements plus divers et plus petits, nuisances sonores inférieures. Pour l’instant alimenté au kérosène, il est étudié pour accueillir à l’avenir un carburant à hydrogène ou un moteur électrique. Il pourrait voler avec des vents jusqu’à 65km/h, même par grand froid.

Pour le moment les motorisations électriques ne permettent pas de présenter un véhicule capable d’une autonomie suffisante requise pour obtenir les certifications et les agréments de vol en Europe ou au Etats-Unis, mais Rafi Yoeli est confiant pour les 5-8 ans à venir.

En route pour les certifications

Depuis mai 2017, Urban Aeronautics a conclu un partenariat avec un consultant canadien spécialiste des certifications aéronautiques afin de pouvoir prétendre à une certification complète de la FAA (fédération aéronautique américaine) pour ses rotors FanCraftTM. Des dossiers qui sont en bonne voie et qui permettront d’ouvrir réellement le marché au Cormorant puis au CityHawk.

*La société se compose de deux filiales à 100 % : Tactical Robotics Ltd., qui développe un drone  pour des missions de transport militaire, et Metro Skyways Ltd. qui travaille sur des projets d’engins à vol vertical  pour des applications civiles de transports de personnes.

Sophie Hoguin

La réglementation « pénibilité » évolue, RiskEV aussi !

Parmi les changements, on note que les facteurs Manutentions manuelles de charges, Postures pénibles, Vibrations mécaniques et Agents chimiques dangereux ne sont plus à déclarer pour le calcul des points du compte professionnel de prévention. Ils pourront néanmoins être pris en compte lors d’une demande de départ anticipé à la retraite. Cela impose donc aux entreprises de non-seulement continuer à les évaluer et les prévenir bien sûr, mais également de s’assurer de conserver la traçabilité des expositions à ces facteurs pour leurs salariés.

Cette traçabilité s’avérera également essentielle en cas d’apparition de maladie professionnelle ultérieure.

Pour faciliter la mise en œuvre de ces réglementations, et surtout le suivi des évolutions fréquentes, Techniques de l’Ingénieur met à votre disposition le logiciel RiskEV. Celui-ci prend en compte les dernières évolutions réglementaires : plus besoin de chercher les conditions et dates d’application, les différents cas, … Le gain de temps se retrouve également dans l’utilisation d’un seul outil : Document Unique, pénibilité, risque chimique, traçabilité, tout est centralisé dans un outil unique, évitant les multiples ressaisies des mêmes informations.

Le responsable HSE peut alors se consacrer à son travail avec une réelle valeur ajoutée : l’évaluation sur le terrain et la prévention.

Important : le logiciel RiskEV n’est plus commercialisé
par Techniques de l’Ingénieur.

Félicitations aux experts du stockage de l’énergie, lauréats du Prix Roberval

Formulaire de consultation de l’article gratuit

Le Prix ROBERVAL est un concours international francophone qui récompense des œuvres littéraires, audiovisuelles ou multimédias consacrées à l’explication de la technologie.

Pour l’édition 2018, deux experts Techniques de l’Ingénieur ont été distingués.

Christian NGO et Alexandre ROJEY se sont en effet vu attribuer la « mention spéciale du jury » pour « Stockage de l’énergie », partie intégrante de l’offre Ressources énergétiques et stockage.

Pour découvrir le sujet, vous pouvez consulter – gratuitement – la description des différents types de stockage stationnaire d’électricité associés aux énergies renouvelables intermittentes solaire ou éolienne : dans des batteries pour des sites isolés, pour les véhicules électriques ou pour de l’autoconsommation solaire, mais aussi dans des stations de transfert d’énergie par pompage STEP.

Les perspectives de développement technologique et les conditions à respecter pour concevoir et installer un stockage lithium-ion de grande taille sont particulièrement étudiées dans l’article qui vous sera ouvert gratuitement dès que vous aurez rempli ce formulaire.

La Directrice d’Engie a réitéré sa croyance envers la révolution hydrogène lors de ses vœux à la presse

La nouvelle stratégie pro-renouvelable du groupe suscite des inquiétudes. En réponse Isabelle Kocher a déclaré le 15 janvier 2018 depuis le Musée du quai Branly, être soucieuse de préserver un « équilibre » dans le cadre d’« un sens commun très fort ».

La dirigeante explique dans un entretien au Figaro que l’« on travaille par exemple à verdir la production de gaz. C’est très porteur pour nos salariés. Aujourd’hui, on parle beaucoup de l’éolien et du solaire. Je crois aussi à la révolution de l’hydrogène. »

Le verdissement de la production de gaz porte en effet principalement sur l’hydrogène obtenu par électrolyse solaire et éolienne (ou nucléaire). Selon l’Usine Nouvelle le biogaz ne serait pas une priorité du groupe français étant donné que sa production est très coûteuse.

L’hydrogène est un outil central pour préserver l’identité gazière de l’ex-GDF-Suez et réduire les peurs face à la transition énergétique fortement perturbante. Comme le dit le dicton, « gazier un jour, gazier toujours ». Mais Philippe Silberzahn, spécialiste des innovations de rupture, rappelle que de nombreuses entreprises, dont Kodak, se sont laissées entraîner par ce piège mortel de l’identité :

« La force de l’identité est également révélée par le fait que même lorsque Kodak aura admis l’inéluctable déclin de l’argentique, elle introduira un appareil numérique… utilisant un film! » souligne l’expert. L’Advantix sera un échec total et coûtera plus d’un demi-milliard de dollars à Kodak. « Comme souvent, l’entreprise faisant face à une rupture tente de forcer celle-ci pour qu’elle corresponde à son identité, plutôt qu’adapter l’identité à la rupture. »

Forcer la révolution hydrogène alors que la technologie, contrairement à celle des batteries, n’est pas encore vraiment au point, ni sur le plan de l’efficience, ni sur le plan économique, est pour le moins risquéCe qui n’enlève rien à la promesse de l’hydrogène dans le long-terme. Tout est possible, et les progrès technologiques permettront peut-être de beaucoup gagner en efficience dans les décennies à venir.

« Toujours convaincue par son histoire qu’une photo, c’est fait pour être imprimé, Kodak investira également énormément dans les imprimantes et les stands photos, sans grand résultat: aujourd’hui, très peu de photos sont imprimées, elles sont en majorité conservées et visionnées sous format numérique » ajoute Philippe Silberzahn.« Enfermée dans son identité d’imprimeur de photos, Kodak n’a pas pu admettre un tel bouleversement. »

Enfermé dans son identité gazière, le groupe Engie va-t-il rater la déferlante du stockage batterie et perdre beaucoup d’argent dans des projets hydrogène ? Cette stratégie hydrogène ne ressemble-t-elle pas à celle qui a conduit à la construction de la ligne Maginot et dont fait écho le think-tank américain RethinkX ?

Ou à l’inverse Engie parviendra-t-elle à réaliser la prophétie que Jules Verne a émise dans « L’île mystérieuse ? » Prenant alors un temps d’avance avec une filière qui, du moins sur le plan théorique, a énormément d’atouts ? L’hydrogène, on peut en effet le stocker à court, moyen et long terme. Comme les céréales dans les greniers lors de la révolution agricole du néolithique. Avec les batteries, on ne peut stocker que quelques heures, et au mieux quelques jours.

Même si, selon de nombreux experts, quelques heures de stockage batterie permettent d’envisager d’atteindre 80%, voire même 90% de photovoltaïque + éolien dans un mix électrique, la problématique du comblement des 10 à 20% restants, pour les  périodes  sans vent et peu d’ensoleillées durant plusieurs jours consécutifs, reste entière. En effet les back-ups hydroélectriques (lacs de barrage) ne sont pas possibles partout sur Terre et en outre le potentiel de la bioélectricité est limité.

Les systèmes électriques insulaires qui sont passés au solaire (et/ou éolien) + stockage batterie font appel à des back-ups thermiques classiques (comme par exemple les générateurs diesel) qui sont aujourd’hui, d’après Toshiba, 10 fois moins coûteux que les systèmes à base d’hydrogène. Utilisés que très ponctuellement, le bilan, tout autant sur le plan écologique que sur le plan de l’autonomie, reste satisfaisant. En outre les unités thermiques sont bien souvent déjà en place lors du passage au solaire, ce qui réduit le coût des investissements.

A ce stade la France n’a  pas encore atteint (loin s’en faut) 80% de solaire + éolien dans son mix électrique. La question posée semble donc un peu prématurée dans le contexte hexagonal.

Jean-Gabriel Marie

Exposition aux risques chimiques : un rapport en cours pour revoir les dispositions

L’exposition aux agents chimiques dangereux dans le cadre du travail est sorti du dispositif de prise en compte de la pénibilité en octobre 2017, quand le C3P (compte personnel de prévention de la pénibilité) est devenu le C2P (compte professionnel de prévention). Cependant, le gouvernement estime que les risques chimiques doivent faire l’objet d’un traitement spécifique au sein du dispositif de départ anticipée à la retraite et qu’ils présentent des particularités nécessitant d’étudier plus avant les dispositions concernant leur prévention, leur suivi et l’indemnisation des travailleurs exposés. C’est pourquoi il a confié par une lettre de mission datée du 20 novembre 2017, la rédaction d’un rapport sur le sujet à Paul Frimat*, professeur de médecine du travail à l’université Lille 2.

Premières conclusions fin janvier

Le rapport, commandé sous l’égide de la direction générale du travail et de la direction générale de la sécurité sociale doit s’articuler autour de trois axes :

  • Prévention : établir un état des lieux des mesures existantes et proposer des améliorations pour la prévention primaire et l’obligation de prévention des employeurs
  • Traçabilité : analyser les modalités de suivi de l’exposition des salariés afin de vérifier que les mesures actuelles permettent de retracer les expositions en précisant le rôle du médecin du travail et la place du dossier médical en santé au travail
  • Compensation : entamer une réflexion sur les règles d’indemnisation, en tenant compte du fait que les risques chimiques peuvent avoir des effets différés.

Les premières conclusions doivent être rendues d’ici le 31 janvier 2018.

Ce rapport, s’inscrit en outre dans une réflexion plus large sur la santé au travail pour laquelle une mission a été lancée le 24 novembre 2017 afin d’en dresser un état des lieux des enjeux et des acteurs. Les conclusions en sont attendues pour le 31 mars 2018.

Dès le 27 novembre, Paul Frimat a ouvert une plateforme de discussion sur internet avec un formulaire pour recueillir l’avis de nombreux acteurs de la santé au travail.

30 % des maladies professionnelles

Rappelons que les risques chimiques sont très répandus  : 38 % des salariés (soit 7 millions de personnes) déclarent avoir été exposés à au moins un produit chimique (CNAMTS 2006) et 10 % (plus de 2,2 millions de personnes) sont exposées à un ou plusieurs produits reconnus comme cancérogènes (SUMER 2010). De nombreux secteurs d’activité sont concernés : chimie, BTP, mines, métallurgie, services à la personne, réparation automobile…
Le risque chimique est à l’origine de pathologies professionnelles telles que cancers, asthme, allergies et 30% de l’ensemble des maladies professionnelles reconnues annuellement en Europe sont liées à l’exposition à des produits chimiques. Ce chiffre est d’ailleurs certainement sous-estimé puisque nombre de pathologies ne sont pas reconnues par manque de données ou de traçabilité des expositions.

*Paul Frimat est, notamment aussi, président de l’Institut de santé au travail du nord de la France (ISTNF) et a été président du conseil scientifique de l’Agence nationale de sécurité sanitaire de l’alimentation de l’environnement et du travail (Anses) de 2010 à janvier 2017. Il a été auparavant président du conseil scientifique de l’Agence française de sécurité sanitaire de l’environnement et du travail (Afsset) de 2006 à 2010.

Sophie Hoguin

La route solaire normande produit deux fois moins d’électricité que prévu

Il y a environ un an le site officiel du ministère de l’écologie annonçait que la route solaire de Tourouvre en Normandie allait produire 17963 kWh par jour. Avant de se retracter, rabaissant la production quotidienne à 767 kWh. Soit 23 fois moins. Le journal Le Monde faisait écho de ce correctif le 22 décembre 2016.

Mais la production dans le monde réel est plus basse. Cette route (340 kW) très médiatisée a produit concrètement 409 kWh par jour en moyenne durant l’année 2017, soit 149,4 MWh pendant les 365 jours en question rapporte Le Moniteur dans un article mis en ligne le 22 décembre 2017, soit exactement un an après celui du Monde. Autrement dit, en équivalent pleine puissance, elle a fonctionné une heure et douze minutes chaque jour.

Le facteur de charge est ainsi de 5% pour la route solaire, contre 12% pour le solaire photovoltaïque classique en Normandie et bien davantage dans le sud du pays. Chaque mètre carré de route solaire normande (elle a une surface de 2800 mètres-carrés) délivre 0,14 kWh par jour en moyenne, de quoi alimenter une ampoule de 70 W pendant 2 heures. C’est encore plus bas que la piste cyclable solaire installée près d’Amsterdam qui, en 2017, a délivré 0,19 kWh par mètre-carré et par jour en moyenne.

Un foyer français standard consomme en moyenne 12,8 kWh par jour, ce qui correspond à un peu plus de 91 mètres-carrés et à une longueur d’un peu moins de 33 mètres de route normande. La consommation électrique intérieure française étant de 470 TWh par an (470 milliards de kWh), il faudrait un kilométrage vraiment conséquent pour y répondre.

409 kWh, c’est 53,3% de 767 kWh, et 51,8% de 790 kWh, autre chiffre théorique de productible dont faisait écho Le Monde. Colas retient à présent dans sa communication le chiffre de 53% et espère parvenir à atteindre à l’avenir 85% de l’objectif théorique initial, c’est à dire progresser d’un facteur 1,6. Le facteur de charge passerait alors, si tout va bien, de 5% actuellement à 8%, ce qui resterait un tiers en deçà des 12% du solaire photovoltaïque classique en Normandie.

Autrement dit le concept de route solaire, au mieux fera perdre « seulement » 33% du productible des cellules photovoltaïques comparativement au solaire standard, et dans le monde réel, en 2017, avec une route toute neuve, il en a fait perdre 58,3%. What way ? Dans un contexte global de pression croissante sur les ressources en matières premières (notamment sur les métaux), est-ce vraiment une voie à suivre ?

Aux latitudes plus ensoleillées que celle de la Normandie la production de la route devrait être plus élevée…Sauf que les cellules photovoltaïques sont très sensibles à la température, tant au niveau rendement qu’au niveau de leur durée de vie. Une route en plein soleil, cela peut chauffer beaucoup, jusqu’à faire fondre l’asphalte. Enchâssées dans la route les cellules solaires manquent d’aération pour limiter leur échauffement. Le projet de route solaire sur une rocade marseillaise annoncé (vidéo) quand Ségolène Royal était au Ministère de l’écologie semble d’ailleurs avoir été mis de côté. Tout comme le projet sur une route nationale bretonne.

Si la durée de vie de cette route expérimentale est de 15 ans  et en prenant comme référence l’année 2017, elle délivrera au total 2,2 millions de kWh. Le coût d’investissement de cette route étant de 5 M€, cela correspond à 2,27 euros le kWh. Et à environ 5 euros le kWh si au final cette route dure 7 ans, ce qui est possible compte-tenu des contraintes physiques qu’elle doit subir, notamment le passage des véhicules mais aussi les variations thermiques ainsi que les effets des orages. En 12 mois 5% des dalles ont déjà dû être remplacées.

Des problèmes d’étanchéité au niveau des joints, dont l’usure prématurée n’était pas prévue par les experts, sont apparus, ce qui est particulièrement problématique pour un système électrique.

Le coût du kWh issu des grandes centrales solaires au sol est aujourd’hui inférieur à 0,07 euro en France. Celui des ombrières photovoltaïques de parking est inférieur à 0,12 euro.

EDF a annoncé vouloir investir 25 milliards d’euros à partir de 2020 et jusqu’à 2035 pour un plan solaire de 30 gigawatts occupant 250 kilomètres-carrés, soit l’équivalent de moins de 3% de la surface de la Corse. Il s’agit de centrales solaires classiques.

Une route solaire a été installée en Chine par un concurrent de Colas. Elle mesure deux kilomètres de long, contre un pour la française. Elle aurait coûté 2,2 millions d’euros (2,7 M$) et 374€ le mètre-carré, ce qui est très élevé mais presque 5 fois moins cher que la route normande, selon différents médias anglo-saxons dont Slate.

Le coût des panneaux solaires ainsi que celui de la main d’œuvre pour les installer sont en Chine plus bas qu’en France. Une petite partie des panneaux photovoltaïques de la route solaire chinoise a déjà été arrachée par des voleurs.

 Jean-Gabriel Marie

*Article édité le 19 janvier 2018 à 14H25 afin d’intégrer la perspective de progression de 53% à 85% du productible de la route solaire normande.

La route du futur se concrétise

Les premières solutions qui se verront accompagnées par l’ADEME couvrent un large champs d’action. Elles visent à réduire l’empreinte écologique des infrastructures et à incorporer de nouveaux modes de production d’énergie dans la chaussée. Elles amélioreront également la conception des matériaux entrant dans la fabrication des routes et proposeront de nouveaux services pour réduire les coûts d’exploitation et d’entretien. Plusieurs démonstrateurs sont prévus d’ici 2020 sur ces différents projets.

Une route 100% recyclée

En 2016, seulement 17 % des matériaux utilisés pour la construction et l’entretien des routes étaient recyclés. Ils provenaient de la déconstruction d’anciennes infrastructures. Le projet « 100 % recyclée », porté par Eurovia vise à développer des matériaux contenant uniquement des produits recyclés. Et ce, afin de réduire l’utilisation des matières premières et les émissions de gaz à effet de serre et de polluants. L’objectif est d’atteindre des performances mécaniques identiques à celles des matériaux neufs, à un prix compétitif.

Le textile intelligent pour protéger des cavités

Le projet REGIC est porté par la PME Texinov en collaboration avec l’INERIS et le laboratoire 3SR (Sols, Solides, Structures, Risques). Il vise à développer et industrialiser une membrane géosynthétique intelligente qui viendra renforcer les sols situés au-dessus de cavités. Ce géosynthétique pourrait être d’une grande utilité dans des villes bâties sur d’anciennes carrières, comme Paris. Doté de capteurs, il permettra de détecter rapidement un affaissement ou un effondrement du sol, et sonnera l’alerte auprès de l’Ineris. Les professionnels pourront alors intervenir afin de corriger la structure et prévenir tout risque d’effondrement. Les premières ventes devraient démarrer en 2020.

La boîte à projets d’I-Street

Le consortium du projet I-Street regroupe Eiffage, Total, l’IFSTTAR et la PME Olikrom. L’idée est ici d’enclencher la transition des métiers de la construction routière et proposer de nouveaux produits et services. Là encore, les solutions cherchent à réduire les impacts environnementaux, tout en introduisant le numérique dans la conception et la construction routière. I-Street comporte six volets distincts, dans une approche intégrée. Nous noterons particulièrement le développement de chaussées modulaires, constituées d’éléments béton préfabriqués facilement manipulables. Rajoutons la mise en place de la maintenance prédictive des infrastructures, grâce à l’intégration de capteurs. Enfin, le projet développe des peintures photoluminescentes pour assurer la visibilité du marquage de la chaussée, en cas de mauvaises conditions météorologiques.

Novatherm propose son échangeur éthermique

La température à la surface d’une route peut atteindre les 60°C en été. L’objectif du projet Novatherm, coordoné par Eurovia est de récupérer cette chaleur grâce au développement d’un échangeur thermique en surface de la chaussée pour contribuer au chauffage des bâtiments en été. En hiver, l’échangeur alimenté par des énergies renouvelables (solaire, géothermie, biomasse) permettra de dégeler les routes ou de faire fondre la neige.

Par Matthieu Combe, journaliste scientifique

La Maison des mathématiques prend forme à Paris

Lieu de recherche, de partage, de transmission et de communication, la Maison des mathématiques, également dédiée à la physique théorique, répondra aux attentes d’un public désireux de comprendre des phénomènes scientifiques, de découvrir ce que représentent les mathématiques dans le monde dans lequel on vit, de s’interroger sur ces concepts abstraits et de rêver avec cette discipline en perpétuel mouvement.

Trois objectifs sont poursuivis :

  • constituer un véritable lieu d’échanges et de convivialité ;
  • favoriser l’interdisciplinarité et les interactions entre scientifiques du monde entier ;
  • établir un lien étroit entre les mathématiques, le public et la société.

Avec le transfert du Laboratoire de chimie physique – matière et rayonnement (CNRS/Sorbonne Université) sur le campus de Jussieu, Sorbonne Université a décidé l’extension et la reconversion du bâtiment Jean Perrin, ouvrant de formidables perspectives à l’Institut Henri Poincaré (CNRS/Sorbonne Université), une structure internationale dédiée à la recherche en mathématique et à la physique théorique. Leur ambition : s’inspirer de la Maison des mathématiques et de l’informatique de Lyon (MMI), du musée « das mathematikum » à Giessen (Allemagne) et du MOMATH à New York pour proposer un espace d’exposition et de médiation de 600m2, entièrement consacré aux mathématiques et à la physique théorique, aux liens entre disciplines et à l’esprit scientifique. L’extension et la reconversion du bâtiment Jean Perrin ont été pensées pour permettre une organisation conviviale des espaces de recherche, avec un dimensionnement généreux de la partie consacrée aux expositions et à la médiation. Ainsi l’accueil et l’espace de médiation scientifique trouveront naturellement leur place au rez-de-chaussée et au premier sous-sol du bâtiment tandis que les espaces de conférences se situeront au deuxième étage.

Le projet architectural a été défini afin de conserver l’intégrité du bâtiment Jean Perrin. La principale intervention sur le bâtiment consistera en des volumes vitrés qui viendront s’ajouter au bâtiment originel, une épaisseur supplémentaire affichant l’ouverture affirmée des mathématiques sur le monde extérieur. Les volumes vitrés ainsi créés se déploieront du sol aux niveaux supérieurs. Ce parti pris offrira une grande visibilité du bâtiment, révélateur des activités internes de la Maison des mathématiques. Les lieux à forte valeur patrimoniale ne seront pas modifiés, l’ensemble des boiseries rénovées et les parquets restaurés. A l’intérieur, une succession d’espaces décloisonnés fera alterner bureaux et lieux ouverts de rencontres et d’échanges décomplexés, à l’image de la pratique des mathématiques.

Des terrasses aménagées dans les niveaux supérieurs s’ouvriront sur le quartier, en prolongement des espaces intérieurs. En recouvrement des locaux techniques, une terrasse boisée servira d’assise et de prolongement au volume vitré sur un jardin aménagé en cœur de site. Son garde‐corps, formé d’une tablette épaisse, s’apparentera à un grand bureau à l’usage des visiteurs ou des chercheurs.

De son côté, le projet muséographique se déploiera dans un parcours aux caractéristiques architecturales variées, à travers un espace contemporain, largement ouvert au rez‐de-chaussée, et qui desservira les pièces patrimoniales : le bureau de Jean Perrin, l’amphithéâtre, la galerie des portraits et la salle de thé, où se retrouvaient les chercheurs pour échanger sur leurs travaux. Les espaces scénographiques pourront s’adapter afin d’actualiser les contenus ou d’envisager des programmations thématiques.

Les travaux de réhabilitation débuteront à l’hiver 2019, pour un budget de 14 millions d’euros. L’ouverture du musée est prévue au printemps 2020. Ce projet, rendu possible par la mise à disposition du bâtiment par Sorbonne Université, est financé par le CNRS, l’État français, la région Ile-de-France, et la Ville de Paris dans le cadre du Contrat État plan région (CPER). Sorbonne Université est en charge de la maîtrise d’ouvrage et se fait accompagner par l’EPAURIF dans cette mission.

Pour en savoir plus : le chapitre 2 sur la Maison des mathématiques est disponible sur You Tube.

Source : cnrs

De nouvelles nanofibres à la force exceptionnelle

Le nouveau procédé, décrit dans un article du Journal of Materials Science à paraître dans l’édition papier de février 2018 s’appuie sur une méthode d’électrofilage d’un gel (gel electrospinning). Les nanofibres de polyéthylène obtenues ont la particularité de présenter à la fois une forte rigidité, une forte ténacité et une forte résistance. Or, il est souvent difficile de trouver des matériaux dont l’extrême performance d’une de ses qualités n’affaiblit pas une autre. Ainsi, une trop forte rigidité, diminue souvent la ténacité et mène à des fractures du matériau. Mais dans ce cas, les propriétés des fibres obtenues équivalent voire surpassent celles que l’on peut trouver dans des matériaux comme le Kevlar ou le Dyneema utilisés pour les gilets pare-balles.

Une découverte fortuite

Les recherches portaient à l’origine sur la fabrication de fibres de différentes tailles en dessous du micron et sur leur caractérisation. « Il n’y a pas beaucoup de nouveautés en matière de nanofibres de hautes performances depuis des années car ce qui existe déjà est très performant », explique Gregory C. Rutledge, superviseur de ces recherches, dans un article publié par le MIT. « Cependant, ces nouvelles fibres, comparées aux fibres de carbones ou aux fibres céramiques utilisées actuellement sont aussi résistantes mais plus tenaces à la fracture et ce dans une mesure très notable », poursuit-il.

Le principe du procédé

Le procédé mis au point est très similaire au filage de gel (gel spinning) utilisé de manière courante, mais il se réalise en une seule étape et utilise des forces électriques à la place de forces mécaniques pour créer les fibres. Concrètement, le gel de polymère est extrudé via une seringue chauffée dans une chambre où est appliqué un champ électrique. Cela permet de produire des fibres de quelques centaines de nanomètres au lieu de fibres de l’ordre de 15 micromètres. Les chercheurs ont testé de multiples compositions pour le gel (différents solvants et concentration) et examiné les différentes fibres ainsi créées. Il semblerait que plus les fibres sont fines plus leurs performances augmentent. Cette corrélation est pour le moment attribuée à un taux important de cristallinité, à l’orientation des cristallites (monocristaux isolés) combinés à des chaînes de polymères présentant peu de défauts et pouvant glisser facilement entre elles. Mais le fonctionnement exact n’est pas encore percé. Ce procédé présente l’avantage d’être facilement transposable à une échelle industrielle et ouvre des perspectives intéressantes pour la création de nouveaux matériaux composites.

Par Sophie Hoguin

Un nanosatellite français pour percer les mystères de Beta Pictoris

Beta Pictoris n’est qu’à 63,4 années-lumière de nous et très brillante, ce qui la rend facile à étudier. Cela tombe bien : c’est une étoile extrêmement jeune, seulement 23 millions d’années, qui passionne les chercheurs depuis la découverte d’un grand disque de poussières, de gaz et de débris rocheux autour d’elle, au début des années 1980. Ce disque, vestige du nuage primitif qui a donné naissance à l’étoile, est un cas d’étude rare pour les astronomes du monde entier, qui le scrutent régulièrement depuis : mieux connaître Beta Pictoris, c’est mieux comprendre la formation des planètes géantes et des systèmes planétaires en général. En 2009, une équipe française dirigée par Anne-Marie Lagrange y a découvert une planète gazeuse géante : Beta Pictoris b, sept fois plus massive que Jupiter, qui tourne autour de son étoile à 1,5 milliard de kilomètres de distance, comme Saturne autour du Soleil.

Or, vue de la Terre, la planète Beta Pictoris b pourrait passer devant son étoile d’ici l’été 2018. Observer ce transit, qui se reproduit tous les 18 ans, permettrait de déduire la taille exacte de l’exoplanète, l’étendue et la composition de son atmosphère, et sa composition chimique. Mais un transit de la planète ne durera que quelques heures. Réussir à observer ce phénomène, dont on ne connait pas le moment exact, impose donc une surveillance continue du système planétaire : c’est possible seulement depuis l’espace, notamment pour échapper au cycle jour-nuit et au passage des nuages.

Pour tenter d’observer ce transit, seul un satellite très léger, un nanosatellite, pouvait être développé en un délai très court. PicSat a été conçu puis construit en trois ans seulement, grâce à l’utilisation de modules de base cubiques “CubeSat”, un format conçu aux Etats-Unis, à visée pédagogique, pour des projets étudiants. Pour le CNRS et l’Observatoire de Paris, c’est le tout premier satellite entièrement conçu et intégré dans leurs murs. PicSat est né d’une idée de Sylvestre Lacour, astrophysicien au CNRS, en collaboration avec Alain Lecavelier des Etangs, de l’Institut d’Astrophysique de Paris (CNRS/Sorbonne Université), qui travaille sur le système Beta Pictoris depuis de nombreuses années. Sylvestre Lacour a concrétisé ensuite le projet au sein de son laboratoire, le Lesia (Observatoire de Paris – PSL/CNRS/Sorbonne Université/Université Paris-Diderot) avec une petite équipe de chercheurs et ingénieurs.  C’est ainisi une nouvelle approche instrumentale qui s’amorce pour la recherche spatiale française. Les développements technologiques se sont opérés dans le cadre du campus spatial CERES de l’Université PSL, sur le site de l’Observatoire de Paris, à Meudon. Le projet PicSat s’est concrétisé principalement grâce à un financement de l’European Research Council (ERC). Il a reçu également le soutien du CNES, du Labex Esep et de la FONDATION MERAC dans le cadre de son programme d’aide aux jeunes chercheurs en astrophysique.

C’est le 12 janvier 2018 à 4h58 (heure française) que décollera le lanceur indien PSLV pour placer PicSat sur une orbite polaire à 505 km d’altitude, en même temps que trente autres satellites. PicSat sera ensuite exploité à partir du Lesia, à Meudon. Cependant, la station du laboratoire ne pourra observer le satellite qu’environ 30 minutes par jour. Or, PicSat transmet sur les fréquences radioamateurs, grâce à l’aide du Réseau des émetteurs français (REF). Toute personne disposant d’un minimum d’équipement de réception radio pourra écouter ses transmissions. L’équipe PicSat invite donc les radioamateurs à collaborer pour suivre le satellite, recevoir ses données et les transmettre à la base accessible sur internet. Sur PicSat.obspm.fr, toute personne intéressée peut s’inscrire, suivre les mises à jour et, si elle le souhaite, faire partie du réseau radio.

PicSat est prévu pour fonctionner pendant un an. Dès qu’il observera le début du transit de la planète ou tout autre phénomène, le télescope de 3,6 mètres de diamètre de l’ESO, à la Silla au Chili, sera immédiatement activé pour observer le phénomène à son tour à l’aide de l’instrument Harps. Associées à celles de PicSat, ses données permettront d’affiner les mesures.

image_web_13
© LESIA / Observatoire de Paris-PSL PicSat, avec ses antennes déployées, dans la salle blanche du laboratoire

Source : cnrs

La Libye remonte la pente grâce aux exportations pétrolières

Près d’un million de barils jour

Selon l’Organisation des pays exportateurs de pétrole (OPEP), la Libye a produit 973 000 barils de brut par jour en novembre 2017 contre 390 000 b/j en 2016. Cette hausse sensible reste néanmoins à relativiser au regard de la production d’avant la chute du régime de Mouammar Kadhafi en 2011, à savoir 1,6 M b/j. Le bond des revenus pétroliers du pays s’explique par la combinaison des deux facteurs : prix et volume. En effet, le prix du baril de brut (Brent) s’est élevé de près de 25% en un an.

Grâce à la rente pétrolière, le déficit public a diminué de 48 % pour s’établir à 10,6 milliards de dinars en 2017 (environ 7,7 mds$) indique la Banque centrale. Et de rappeler « la nécessité de soutenir la Compagnie pétrolière nationale NOC et de maintenir la production et les exportations de pétrole, seule source de financement du budget général ».

Or, le pays se caractérise par une organisation tribale basée sur des alliances qui rend plus compliqué la gouvernance politique et par conséquences la répartition de la rente pétrolière. La mise en place d’un gouvernement d’union nationale en 2015 a permis une relative stabilité politique et le représentant de la mission des Nations-Unis en Libye (UNSMIL), Ghassan Salamé, a estimé que des élections pourraient être organisées d’ici la fin de l’année 2018. Sur le terrain, deux hommes forts semblent émerger : le maréchal Khalifa Haftar (chef de la région Est) et Fayez al-Sarraj qui dirige le gouvernement d’union nationale (GUN). Le premier ne reconnaissant pas l’autorité du GUN, le chemin vers la stabilité politique risque d’être encore long.

Romain Chicheportiche

Usine 4.0 : 4+1 articles à lire, 10000 à découvrir !

4éme révolution industrielle et usine du futur sont synonymes de nouvelles technologies à assimiler et de judicieux investissements à effectuer.

L’usine 4.0, c’est également des concepts nouveaux à appréhender et des ingénieurs et techniciens supérieurs à former pour répondre aux besoins cruciaux de l’industrie.

Fort de son réseau d’experts et d’auteurs, Techniques de l’Ingénieur accompagne les entreprises dans ce changement.

 

A titre d’exemple, voici quelques articles à découvrir :

Fabrication additive : niches applicatives porteuses

https://www.techniques-ingenieur.fr/base-documentaire/mecanique-th7/fabrication-additive-impression-3d-42633210/impression-3d-niches-applicatives-porteuses-bm7970/#presentation

Innover : les groupes, un des dispositifs clés

https://www.techniques-ingenieur.fr/base-documentaire/innovation-th10/ingenierie-de-l-innovation-42833210/les-groupes-un-des-dispositifs-cles-de-l-innovation-ag272/

 

Robotique :

Système de vision industrielle

https://www.techniques-ingenieur.fr/base-documentaire/automatique-robotique-th16/perception-planification-et-interface-en-robotique-42622210/systeme-de-vision-industrielle-s7799/

Commande des robots humanoïdes

https://www.techniques-ingenieur.fr/base-documentaire/automatique-robotique-th16/conception-modelisation-et-commande-en-robotique-42398210/commande-des-robots-humanoides-s7754/#presentation

Systèmes  d’informations et TIC pour la traçabilité : Middleware, RFID, traçabilité et objets connectés

https://www.techniques-ingenieur.fr/base-documentaire/genie-industriel-th6/systemes-d-informations-et-tic-pour-la-tracabilite-42117210/middleware-rfid-tracabilite-et-objets-connectes-tr520/#presentation

 

Bonne lecture, bonne année !

 

Faille Intel : le pire est à venir

Intel publie au compte-goutte les d’informations sur les vulnérabilités touchant le kernel (noyau) de ses processeurs produits ces… 10 dernières années.

Ces failles appelées « side channel analysis exploit » permettent à une personne malveillante (ou à un État…) d’observer le contenu de la mémoire protégée en contournant justement des protections au niveau du CPU. Elles permettent d’organiser deux types d’attaques :

  • L’attaque Meltdown casse en effet l’isolation entre une application utilisateur et le système d’exploitation. Ce qui permet à un attaquant de lire en mémoire des données appartenant à l’OS ou à d’autres processus.
  • La faille Spectre, décrite en détail dans ce document technique casse l’isolation entre les processus et permet à un processus de lire les données des autres.

Remède pire que le mal

Le fondeur de Santa Clara a déclaré qu’il publierait ses propres mises à jour de microcode pour résoudre le problème, et au fil du temps, certains de ces correctifs seront intégrés dans le matériel.

En attendant, c’est le web mondial qui est pris de panique. Le week-end pourrait être très tendu. En obligeant, les datacenters du monde entier à rebooter pour valider les correctifs, le Cloud pourrait tanguer dans les prochaines heures…

La solution consisterait donc à appliquer un correctif de sécurité. Des patchs sont déjà disponibles pour certains systèmes d’exploitation, notamment sous Linux. Microsoft, Apple, Google et d’autres éditeurs devraient réagir rapidement.

Mais le remède risque de dégrader l’état de santé du malade ! Les utilisateurs de PC pourraient s’attendre à un ralentissement approximatif de 5 à 30 %, selon la tâche et le modèle du processeur. Cependant Google aurait trouvé une méthode pour réduire l’impact de performances du correctif. Autre problème : certains antivirus sous Windows bloqueraient l’installation de la mise à jour…

Il y a quelques jours, Apple a été pointé du doigt pour les ralentissements des iPhone 6 à cause de l’application d’un correctif visant à compenser les baisses de performances de ses batteries. Avec l’affaire Intel, on atteint une autre dimension. Car les puces de cette marque (mais aussi celle des concurrents AMD et ARM qui sont concernés par la faille Spectre) sont partout. Pire, l’attaque Spectre pourrait être exploitée directement depuis un navigateur Web, via un site contenant du code conçu à cet effet.

Alerte générale

L’affaire amène trois constats principaux. Premièrement, ce sont plus les professionnels et les entreprises qui sont concernés que les particuliers. « La majorité des appareils informatiques dans le monde est concernée par ces failles de sécurité, mais la gravité de la situation peut se nuancer. Pour exploiter ces deux failles, un cybercriminel doit en effet être capable d’exécuter leur code directement sur le terminal visé. Dans ces conditions, le consommateur lambda a plus de « chance » d’être touché par une attaque de phishing que par une attaque exploitant Meltdown ou Spectre. Cependant, ces deux vulnérabilités mettant largement en péril les systèmes fondamentaux de protection des données, les fournisseurs cloud doivent agir rapidement pour éviter que des accès frauduleux, souvent difficiles à détecter, ne se produisent », explique Ryan Kalember, Senior Vice-Président Cybersécurité Stratégie, spécialiste Proofpoint, une société spécialisée dans la sécurité informatique.

Deuxièmement, la réalité est-elle aussi claire qu’on le dit ? Google précise avoir informé les trois entreprises (Intel, AMD et ARM) dès juin 2017. L’absence de transparence pose un réel problème de sécurité. « Je pense que quelqu’un chez Intel devrait regarder très longuement leurs CPU et admettre qu’ils ont des problèmes au lieu d’écrire des communiqués en langue de bois qui affirment que tout fonctionne comme prévu », constate Linus Torvalds. Le créateur du noyau Linux ajoute : « Est-ce que Intel est en train de nous dire qu’ils s’engagent à nous vendre de la merde pour toujours et qu’ils ne répareront jamais rien ? »

Troisième constat, la trop forte dépendance vis-à-vis de quelques solutions technologiques. « Cette affaire illustre que nous allons payer très vite notre hyper dépendance aux produits américains : leur hégémonie a interdit toute variété, toute concurrence et donc toute solution de secours. Après le Wi-Fi, les processeurs INTEL et cela ne fait que commencer. D’autres séismes vont venir cette année sur des technologies critiques que nous utilisons tous les jours », avertit un expert français que nous avons interviewé.

Philippe Richard

Des bulles géantes à la surface d’une géante rouge

Distante de quelque 530 années-lumière de la Terre et située dans la constellation de la Grueπ1 Gruis est une géante rouge de température peu élevée. Sa masse est semblable à celle de notre Soleil, son diamètre est 350 fois plus grand, et sa brillance des milliers de fois supérieure [1]. Dans quelque 5 milliards d’années, notre Soleil gonflera au point de devenir une semblable géante rouge.

Une équipe internationale d’astronomes pilotée par Claudia Paladini (ESO) a utilisé l’instrument PIONIER installé sur le Very Large Telescope de l’ESO pour observer π1 Gruis à un niveau de détail encore inégalé. Il est ainsi apparu que la surface de cette géante rouge était couverte d’un nombre restreint de cellules convectives, ou granules, qui s’étendent sur quelque 120 millions de kilomètres – ce qui représente le quart du diamètre stellaire [2]. Un seul de ces granules couvrirait la surface comprise entre le Soleil et l’orbite de la planète Vénus. Les surfaces – baptisées photosphères – de nombreuses géantes rouges sont obscurcies par la poussière, ce qui brouille les observations. Dans le cas de π1 Gruis toutefois, la présence de poussière dans l’environnement stellaire n’a pas d’effet significatif sur les nouvelles observations infrarouges [3].

Lorsque l’hydrogène vint à manquer au cœur de π1 Gruis, le premier stade de fusion nucléaire prit fin. Le volume de l’étoile diminua à mesure qu’elle perdit de l’énergie, et sa température interne augmenta progressivement jusqu’à dépasser les 100 millions de degrés. S’ensuivit l’enclenchement de la seconde étape de fusion nucléaire, qui transforme l’hélium en atomes plus lourds de carbone et d’oxygène. Puis, le noyau intensément chaud expulsa les enveloppes externes de l’étoile, ce qui se traduisit par l’augmentation de sa taille de plusieurs centaines de fois. L’étoile que nous observons à présent est une géante rouge variable. La surface d’une étoile de ce type n’avait encore jamais été imagée de façon si détaillée.

À titre comparatif, la photosphère du Soleil se compose de quelque deux millions de cellules convectives dont les diamètres avoisinent les 1500 kilomètres. L’énorme différence de taille des cellules convectives couvrant les surfaces de l’une et l’autre étoile s’explique en partie par la variabilité de leurs gravités surfaciques. La masse de π1 Gruis équivaut à 1,5 masse solaire, mais ses dimensions sont largement supérieures, ce qui se traduit par une gravité de surface nettement moindre et la présence d’un nombre plus faible de granules de grande dimension.

Les étoiles de masse supérieure à huit masses solaires achèvent leurs existences en explosant en supernova. A l’inverse, les étoiles moins massives telle π1 Gruis expulsent progressivement leurs enveloppes externes, donnant lieu à la formation de splendides nébuleuses planétaires. Les études antérieures de π1 Gruis ont mis en évidence l’existence d’une enveloppe de matière à 0,9 année-lumière de l’étoile centrale, dont l’éjection remonterait à 20 000 ans. Cette période relativement courte à l’échelle de vie d’une étoile – de plusieurs milliards d’années – s’étend sur quelques dizaines de milliers d’années seulement. Ces observations offrent une nouvelle méthode de détection de cette courte phase de géante rouge.

Notes

[1] L’appellation de π1 Gruis s’inscrit dans le cadre de l’adoption du système de désignation de Bayer. En 1603, l’astronome allemand Johann Bayer classifia 1564 étoiles, attribuant à chacune d’elles une lettre grecque suivie du nom de leur constellation hôte. Généralement, l’attribution des lettres grecques s’effectue dans l’ordre de leur brillance apparente, la plus lumineuse d’entre elles se nommant alpha (α). L’étoile la plus brillante de la constellation de la Grue a donc été baptisée Alpha Gruis.

π1 Gruis appartient à un système binaire d’étoiles aux couleurs contrastées, situées à proximité l’une de l’autre, son compagnon portant naturellement la désignation π2 Gruis. L’une et l’autre étoile sont suffisamment brillantes pour pouvoir être observées au travers de jumelles. En 1830, Thomas Brisbane comprit que π1 Gruis consistait également en un système binaire encore plus proche. Annie Jump Cannon, célèbre pour la création de la classification de Harvard, fut la première à rendre compte du spectre inhabituel de  π1 Gruis en 1895.

[2] Les granules sont caractéristiques des courants de convection qui animent le plasma d’une étoile. A mesure que le plasma s’échauffe au cœur de l’étoile, il s’étend et chemine vers la surface, puis se refroidit en périphérie, s’assombrissant et gagnant en densité, et enfin plonge vers le centre de l’étoile. Ce phénomène se poursuit des milliards d’années durant et joue un rôle essentiel dans de nombreux processus astrophysiques tels le transport d’énergie, la pulsation, le vent stellaire et les nuages de poussière sur les naines brunes.

[3]  π1 Gruis est l’un des membres les plus brillants de la rare classe S d’étoiles définie pour la première fois par l’astronome américain Paul W. Merrill et qui rassemble les étoiles dotées de spectres inhabituels. π1 Gruis, R Andromedae et R Cygni sont caractéristiques de ce type d’étoiles. Leur spectre inhabituel résulte de la survenue du processus-s – un lent processus de capture de neutron – responsable de la création de la moitié des éléments plus lourds que le fer.

 Source : eso

DEEE : 4500 fois la Tour Eiffel !

On achète de plus en plus d’appareils électriques et électroniques et on ne jette rien ou presque. Telle est la conclusion, alarmante pour l’environnement et notre santé, de ce rapport.

Les DEEE (ou Déchets d’Équipements électriques et électroniques) regroupent à la fois les piles et batteries, mais également des cuisines professionnelles, des climatiseurs, des distributeurs automatiques, etc.

Résultat, ce volume a augmenté de 8 % en 2016, par rapport à 2014, à 44,7 millions de tonnes. Malheureusement, 80 % de cette montagne de déchets est incinérés ou mis dans des décharges informelles. D’autres restent en l’état. Ils sont stockés chez les consommateurs. Quant aux entreprises, elles ont encore beaucoup du mal à maîtriser leur gestion.

Publié il y a quelques jours par l’association Alliance Green IT, le baromètre 2017 des pratiques numériques écoresponsables indique que moins d’un quart des entreprises interrogées ont intégré le Green IT dans leur stratégie. Deux tiers (76 %) ne font pas appel à des fournisseurs issus de l’économie sociale et solidaire et 22 % disent ne pas savoir.

Métaux rares et chers  

Le rapport de l’UNU estime que chaque personne sur la planète génère désormais 6,1 kilos de déchets électroniques (+5 % comparés à 2014). Il y a les « bons « élèves » ou ceux qui produisent peu de DEEE comme l’Afrique (1,9 kilo) et l’Asie (4,2 kilos). Les mauvais élèves sont l’Océanie (Australie et Nouvelle-Zélande principalement) avec 17,3 kilos, l’Europe (Russie incluse) avec 16,6 kilos et la zone américaine et ses 11,6 kilos.

Le recyclage des DEEE est pourtant essentiel. Il permet en effet de séparer et de valoriser des matériaux qui peuvent être réutilisés (métaux, plastiques, verre…). Cela permet aussi d’en retirer de l’argent, de l’or, du cuivre, du plomb et de nombreux métaux rares et chers.

À partir de 50 000 téléphones portables, on peut récupérer environ 1 kg d’or et 10 kg d’argent. Toutefois, une infime partie de ces appareils est recyclée en Europe.

Trafic international

Mais ces DEEE contiennent surtout des matières dangereuses pour la santé et l’environnement : métaux lourds qui polluent les sols et les eaux, PCB dont la combustion est cancérigène, gaz contenus dans les réfrigérateurs attaquant la couche d’ozone…

Malgré leur dangerosité, ces déchets alimentent un trafic international. L’Organisation mondiale des douanes estime que 10 % du trafic par conteneurs dans le monde concerne des biens dangereux ou illégaux, incluant les déchets électriques et électroniques. Or, la Convention de Bâle, un traité international interdisant l’exportation de déchets toxiques, dont les déchets électriques et électroniques, a été signée en mars 1989 par 190 pays.

Philippe Richard

L’épargne des Français finance toujours les énergies fossiles

La Caisse des dépôts et consignations (CDC) est une institution financière publique française. Elle gère notamment, en plus de ses fonds propres, une part importante de l’épargne des Français et des cotisations retraites. « Elle se positionne comme acteur à la pointe de la finance verte », rappelle Clémence Dubois, chargée de campagne pour 350.org qui demande de mettre fin immédiatement aux subventions consacrées aux énergies fossiles. Mais l’association dénonce notamment un manque de transparence sur ses placements, à l’exception du Fonds de réserve pour les retraites. Elle a donc décidé d’enquêter.

Depuis la COP21, « le fonds de réserve pour les retraites n’a pas diminué son exposition au secteur des énergies fossiles », dénonce Clémence Dubois. Ainsi, deux milliards d’euros en actions et en obligations seraient encore consacrés au pétrole, au charbon et au gaz. « On ne peut pas attendre du secteur financier qu’il s’autorégule, regrette la jeune militante. Il faut que l’État puisse définir des critères d’exclusion, notamment pour l’industrie fossile ».

Des milliards d’euros pour les énergies fossiles

350.org a identifié les investissements dans les entreprises directement impliquées dans les énergies fossiles. Notamment, la CDC et ses filiales possèdent 25 % des actions de GRTgaz. La CDC place également l’épargne du livret A et du livret de développement durable et solidaire sur les marchés financiers via son « fonds épargne ». Mais ce fonds possède notamment une participation significative dans l’entreprise Vallourec, présent dans plusieurs projets d’extraction de gaz de schistes. D’autres participations sont à ajouter dans des entreprises dont le charbon représente jusqu’à un quart de leur chiffre d’affaires. Sans oublier la BPIfrance, filiale à 50% de la CDC et à 50% de l’État, qui soutient des projets fossiles.

La CDC, ses filiales et les divers fonds qu’elle héberge sont notamment impliqués dans 12 nouveaux projets d’énergies fossiles. Que cela soit sous forme d’actions ou d’obligations dans les entreprises en charge de ces projets. Ce sont notamment des centrales au charbon en Chine, en Afrique du sud ou au Maroc, une mine de charbon à ciel ouvert d’Hambach en Allemagne. Côté pétrole, c’est la plateforme Goliat en Arctique, le Dakota Access Pipeline aux États-Unis, le Trans Adriatic Pipeline et des oléoducs pour transporter les sables bitumineux canadiens. Ce sont aussi les projets de pétrole offshore le long de la côte brésilienne. À cela, rajoutons le gaz de schiste algérien et des projets de gazoducs visant à l’exporter en Europe. Et l’exploitation de puits sous-marins au Mozambique dont le gaz sera converti en gaz naturel liquéfié pour l’exportation.

« Tous ces investissements sont contraires à l’esprit de la loi sur la transition énergétique, s’indigne Clémence Dubois. Ils sont contraires aux recommandations de la résolution pour accéder à une société bas-carbone, adoptée par l’Assemblée nationale au moment de la COP21 et qui encourageait les investisseurs institutionnels à cesser d’investir dans l’industrie fossile. » Le 12 décembre se tient à Paris le « One Planet Summit », placé sous le signe de « la finance publique et privée au service de l’action climat ». De quoi prendre des engagements forts ?

Par Matthieu Combe, journaliste scientifique

TOP 5 : les articles les plus lus #décembre2017

One Planet Summit: quels nouveaux engagements ?

Deux après l’Accord de Paris, le One Planet Summit s’est tenu à Paris le 12 décembre. L’occasion pour les pays les plus ambitieux d’annoncer les premières mesures visant à assurer la transition de leur économie.

One-planet-summit-macron

 

Les vidéos scientifiques les plus étonnantes de 2017

Revivez les moments forts de l’année à travers une cinquantaine de vidéos scientifiques insolites : une piste d’atterrissage circulaire, un taxi volant, une vidéo stockée dans de l’ADN, des plantes lumineuses, une ampoule en graphène…

revue-du-web-2017

 

Ces robots visiteront l’intérieur des pyramides

Deux robots, conçus par l’Inria, pourraient pénétrer puis observer les cavités découvertes il y a peu dans la Pyramide de Khéops. L’enjeu est de laisser un minimum de traces.

camera-pyramide-1140x336

 

Quand l’énergie solaire produit du pétrole

Belridge, l’un des plus vieux gisement de pétrole aux Etats-Unis, va se doter d’une gigantesque centrale thermo-solaire pour lui fournir de la vapeur d’eau. Aera Energy, l’opérateur du champ, explique vouloir ainsi réduire son empreinte carbone. Du solaire pour extraire du pétrole, un apparent paradoxe qui commence à séduire les pétroliers.

Aera-big

 

L’autoconsommation devient presque rentable en France

Les résultats de l’appel d’offres « autoconsommation » ont été rendus publics la semaine dernière. Il se caractérise par une baisse significative (-70%) des subventions accordées aux producteurs d’énergie grâce à la baisse des coûts du photovoltaïque. Produire sa propre électricité n’a jamais été aussi économique en France.

autoconsommation-photovoltaique-1140x336

Par I. B

Nouvelles formes d’emploi : enjeux et vécu des cadres

En France, le CDI reste la norme : 87 % des salariés du secteur concurrentiel occupent un contrat à durée indéterminée, une part relativement stable depuis les années 2000.

Après une forte régression au cours des années 1980-90, la part de l’emploi non salarié est en progression depuis 2008. Aussi, de nombreux articles de presse annoncent la fi n prochaine du salariat classique au profit des nouvelles formes d’emploi.

La création du régime d’autoentrepreneur (indépendant sans salarié) en 2008 a en effet entraîné une appétence nouvelle pour l’entrepreneuriat. La part dans l’emploi du travail indépendant était estimée à 12 % en 2016. Depuis 10 ans, l’emploi non salarié progresse plus vite que l’emploi total, en particulier dans le secteur tertiaire. Par ailleurs, les modalités d’exercice de l’emploi salarié sont bousculées avec une progression du temps partiel, des horaires décalés ou variables. Le développement de la pluriactivité, estimée à plus de 2 millions d’actifs, bouleverse également les relations à
l’emploi tout comme l’apparition des groupements d’employeurs et des entreprises de travail à temps partagé qui visent à faciliter le partage de main d’œuvre et la sécurisation des actifs.

Les formes d’emploi atypiques se révèlent nombreuses en nature mais relativement marginales en volume. Ainsi, 30 000 personnes seraient concernées par le portage salarial, 30 000 par les groupements d’employeurs et quelques centaines par le temps partagé. Toutefois, selon le CNIS, malgré la dynamique actuelle de ces formes d’emploi, le seuil des 100 000 emplois ne serait pas dépassé.

Selon l’enquête quantitative « Situation professionnelle et rémunération des cadres », les cadres connaissent plus ou moins bien ces nouvelles modalités d’exercice du travail. Pour autant, très peu les ont expérimentées. Le microentrepreneuriat est de loin le mode qui bénéficie de la plus forte notoriété chez les cadres en poste (87 % d’entre eux le connaissent) mais seulement 7 % déclarent avoir exercé une activité sous ce régime.

fig1apec

Globalement, ces nouvelles formes d’emploi suscitent un intérêt certain chez 7 cadres en poste sur 10. L’appréhension de ces nouvelles formes d’emploi évolue cependant au gré des caractéristiques des cadres, de leur poste ou encore de leur entreprise. Ainsi, le portage salarial est plus souvent connu par les cadres de 50 ans et plus, ceux ayant récemment changé d’employeurs ou encore ceux occupant un poste dans la fonction informatique.

Ces nouvelles formes d’emploi trouvent, en toute logique, un écho particulier chez les cadres sans emploi. Ces derniers sont plus nombreux, en proportion, à les connaître et à les avoir expérimentées.

En complément de ces éléments quantitatifs, les enseignements présentés ci-après s’appuient sur une étude qualitative conduite par l’Apec afin d’appréhender les motifs d’accès et de recours aux nouvelles formes d’emploi des cadres et leur vécu.

UNE MISE À DISTANCE DU SALARIAT OU UNE APPÉTENCE PARTICULIÈRE ?

L’accès aux nouvelles formes d’emploi relève avant tout d’une conjonction de facteurs de différents ordres. C’est en effet généralement un contexte particulier qui favorise la bascule vers une nouvelle forme d’emploi.

La volonté de (re)devenir acteur de ses temps professionnels et personnels

La majorité de l’échantillon interrogé s’est tournée vers une nouvelle forme d’emploi, notamment sous une forme entrepreneuriale, à la recherche d’un mode de production alternatif au salariat. Le premier motif d’accès ou de motivation était le souhait de recouvrer une certaine autonomie dans ses arbitrages professionnels ainsi qu’une meilleure conciliation avec la vie privée. Il s’agit dans la plupart des cas de restaurer de la flexibilité, d’avoir la possibilité de s’organiser différemment, même si, par ailleurs, la charge de travail peut être plus importante et plus chronophage dans le nouvel emploi que dans un emploi salarié classique. Ces aspirations sont partagées par l’ensemble des cadres interrogés : toutes classes d’âges confondues, des cadres les plus contraints (avec une charge de famille) aux cadres en fin d’activité professionnelle et largement par les plus jeunes. Toutefois, cette aspiration à un mode productif alternatif, plus souple mais également plus responsabilisant, n’est pas suffisante pour envisager de basculer sur une nouvelle forme d’emploi.

La maturité professionnelle et un désir d’autonomie

Dans un contexte professionnel estimé insatisfaisant, la maturité des compétences professionnelles et la confiance dans leur expertise métier sont, pour les cadres, des facteurs qui vont les encourager à poursuivre leur carrière sous une nouvelle forme d’emploi. Le sentiment de ne plus progresser dans leurs fonctions ou attributions, de ne pas avoir de perspectives d’évolution métiers au sein de l’entreprise (acquisition de nouvelles compétences ou de savoir-faire) et ne plus partager la vision ou l’orientation stratégique de l’entreprise portée par la hiérarchie ou l’encadrement constituent des motifs de bascule vers une nouvelle forme d’emploi. L’entrepreneuriat peut, en effet, permettre de valoriser des compétences, de les faire évoluer dans un rapport au travail renouvelé, notamment par une relation client plus engagée en offrant une offre de service plus personnalisée. Pour les cadres à l’expertise sectorielle plus limitée ou au parcours professionnel plus erratique, la recherche d’un environnement davantage centré sur des valeurs ou des conditions de travail plus en phase avec leurs aspirations les conduit à s’orienter vers une nouvelle forme d’emploi.

Un environnement sécurisé prégnant

Pour les cadres, bénéficier d’un environnement sécurisé, permettant le développement de leur projet, constitue également un facteur déterminant. En effet, l’ensemble des cadres interrogés ont pu concrétiser leur projet parce qu’ils se trouvaient dans un environnement favorable, susceptible d’amortir la prise de risque inhérente au choix d’une nouvelle forme d’emploi… Le soutien parental, en nature (hébergement, aide administrative…) ou financier pour les plus jeunes, est essentiel. La présence d’un conjoint actif, salarié est aussi l’assurance de bénéficier de protection en matière de risque maladie (accès à la mutuelle) et de revenus (sécurité d’un salaire). Le fait de ne pas avoir de charge familiale peut également être appréhendé comme un facteur de sécurisation voire de bascule vers une nouvelle forme d’emploi. Pris indépendamment, ces facteurs vont inciter et participer au fait que les cadres choisissent de s’engager dans une nouvelle forme d’emploi. Toutefois, c’est très souvent la conjonction de plusieurs de ces facteurs qui va favoriser le passage à l’acte.

UN DÉTACHEMENT CONTRAINT DU SALARIAT

Pour un tiers des cadres interrogés, l’accès à ces nouvelles formes d’emploi et plus précisément l’entrée en entrepreneuriat, même sous statut salarié, n’est pas un choix de première intention. Plusieurs situations peuvent conduire les cadres à envisager une nouvelle forme d’emploi.

Une rupture professionnelle subie

Pour certaines des personnes interrogées, l’orientation vers une nouvelle forme d’emploi intervient après un licenciement. Face aux difficultés rencontrées dans leur recherche d’un poste salarié, la plupart envisage assez rapidement une autre forme d’emploi orientée vers l’indépendance. Pour autant, ces cadres ne songeaient pas particulièrement à développer une activité en indépendance. Ils ne se projetaient pas dans la création d’activité et dans la posture d’entrepreneur nécessitant certaines compétences : vision stratégique, capacité commerciale, connaissances administratives et financières… L’activité en indépendance, au-delà du bouleversement de posture, suscite en outre des inquiétudes quant à la nature et au niveau de protection associée (santé, indemnisation chômage, retraite).

Une insertion professionnelle difficile pour les jeunes actifs

Dans un contexte d’insertion difficile pour les jeunes actifs sur le marché de l’emploi, l’accès aux nouvelles formes d’emploi, ou le passage par une de ces formes, s’inscrit pour eux (tout particulièrement pour ceux disposant d’une faible expérience professionnelle et / ou ceux souhaitant travailler dans des secteurs peu recruteurs) dans une logique d’adaptabilité. Les nouvelles formes d’emploi sont alors davantage perçues comme la matérialisation d’une précarisation générale des statuts et formes d’emploi qui fait écho aux difficultés d’insertion sur le marché de l’emploi.

UN IMPORTANT BESOIN D’INFORMATIONS ET DE CONSEILS PERSONNALISÉS

Par réflexe mais aussi par défaut, Internet constitue une première source d’information nécessaire mais non suffisante. Parmi les cadres interrogés, les plus experts dans leur recherche ont exploité l’ensemble des sites gouvernementaux, institutionnels et « communautaires » (forum d’autoentrepreneurs ou propres au secteur numérique) et tentent en complément de prendre contact, le plus souvent par téléphone, avec le RSI ou les services fiscaux. La plupart ont recours à leur cercle de proches, familles et amis, voire leurs connaissances, pour obtenir des précisions en matière comptable essentiellement (déclaration du chiffre d’activité, suivi de la comptabilité). Le caractère complémentaire de l’activité entrepreneuriale joue sans aucun doute sur le temps consacré à cette recherche et la nature des informations mobilisées. Hors autoentrepreneuriat, les autres formes d’emploi (portage, CAE, groupement d’employeurs) sont peu connues et ne font pas véritablement l’objet d’une recherche approfondie d’information. Les cadres en portage ont le plus souvent opté pour la société de portage suite à la recommandation d’un collègue ou d’un ami. Les cadres en coopérative d’activité, quant à eux, ont été le plus souvent orientés par les services de l’emploi dans le cadre d’un accompagnement au retour à l’emploi. Le manque d’opérationnalité et de personnalisation de l’information est souligné par les personnes interrogées. Plus qu’une recherche d’information au sens strict, les cadres sont en attente d’une information « orientée », « d’un accompagnement de l’information » et très rapidement d’un accompagnement personnalisé qui puissent faire cheminer leur projet.

Source : Apec

Les diatomées : une capacité sous-estimée à stocker le carbone dans l’océan profond

Depuis des millions d’années, les diatomées sont à la base des chaînes alimentaires les plus productives de l’océan et participent activement au transfert de carbone de la surface jusqu’aux couches profondes de l’océan. Lorsque les diatomées meurent et chutent dans les profondeurs de l’océan, il est actuellement admis que le carbone organique qu’elles ont synthétisé est facilement dégradé au cours de la chute et qu’il est presque entièrement régénéré sous forme de gaz carbonique avant d’atteindre 1 000 mètres de profondeur.

Pourtant, à partir de données recueillies dans l’océan actuel et provenant du paléo-océan, les chercheurs montrent que les diatomées peuvent transporter massivement et épisodiquement du carbone organique jusqu’aux couches les plus profondes de l’océan où il est stocké pour des temps supérieurs à un siècle. Toutes les diatomées n’ont pas le même potentiel de transfert : celui-ci varie selon la taille des diatomées, la forme de leurs cellules, leur degré de silicification (le rapport silicium/carbone de leurs coquilles), mais aussi l’environnement biogéochimique dans lequel elles évoluent.

Actuellement, les diatomées sont présentes à l’échelle planétaire et dominent les autres espèces phytoplanctoniques marines dans les eaux froides et turbulentes. Dans l’océan du futur, chaud et stratifié, les modèles prédisent un déclin global de ces micro-algues siliceuses, excepté dans l’océan Austral. Cependant, des adaptations de ces espèces au changement climatique et à l’acidification des océans pourraient contredire ces prédictions.

Cette étude internationale met en lumière l’intérêt de développer des stratégies pluridisciplinaires combinant des approches physiques, biogéochimiques et biologiques, de l’échelle globale à l’échelle locale, afin de comprendre le fonctionnement de la pompe biologique de carbone dans l’océan présent et futur.

fig1

fig2

Source : cnrs

Un nouveau procédé sans colle pour lier métal et composite

Baptisé PowderbondTM, ce nouveau process est l’héritier du projet de recherche européen Powderbond qui s’est déroulé entre 2013 et 2015 et qui visait à trouver une méthode de liaison entre matériaux différents à plus basse température afin de limiter la dépense énergétique [voir vidéo]. Mais finalement, Powdertech a mis au point une méthode qui se passe de l’adhésif.

Propre, simple et rapide

Le principe est très simple puisque le process se fait en une seule étape : enrober/couvrir la pièce métallique avec la poudre PowderbondTM et ensuite mouler le composite et le métal ensemble en suivant le cycle de durcissement habituel du composite, voire en utilisant un cycle plus court et à plus basse température.
L’utilisation du PowderbondTM ne nécessite ni la préparation de la surface du polymère, ni de période d’activation. Le process est donc extrêmement propre et rapide. En outre, le lien fabriqué s’est révélé même trois fois plus fort que ceux obtenus par des méthodes basées sur des adhésifs couramment utilisés.

Test grandeur nature réussi

Pour tester son process dans un environnement industriel, Powdertech a travaillé avec Ariel Motor, une entreprise britannique qui fabrique des voitures et motos de sports haut de gamme. Ariel Motor a testé le process pour le châssis d’une nouvelle voiture de sport électrique à la conception bas carbone, l’Hipercar dont la production est prévue en 2020.
Dans cet essai, le nouveau procédé a été testé pour lier des pièces d’aluminium à un composite polypropylène/fibre de verre. Les résultats ont dépassé toutes les espérances du fabricant : « Le process est propre et rapide et le lien ainsi fabriqué surpasse même de loin, les méthodes à base d’adhésif couramment utilisées », explique Simon Saunders, le fondateur d’Ariel Motor Company dans un communiqué de presse. En outre, alors que le châssis de ce genre de voiture est fabriqué de plusieurs centaines de pièces soudées et rivetées entre elles, avec ce nouveau type de lien, le nombre de pièces a été réduit de 75% par un moulage direct entre l’aluminium et les pièces en plastique.

Plus de productivité et de créativité

En évitant tout un travail de soudure, d’encollage ou de rivetage via une seule étape, ce nouveau process permet de gagner en productivité, en dépense énergétique et en quantité de travail. Tout en gardant les mêmes performances voire en les améliorant, puisque Powdertech annonce que la liaison entre les deux matériaux est trois fois plus forte que celle obtenue avec des adhésifs. Par ailleurs, cette liaison directe lors de la phase de moulage du composite ouvre de nouvelles possibilités en matière de design et de choix des matériaux : des formes compliquées peuvent être créées tout en incorporant des propriétés de résistance du métal et cela ouvre, pour les fabricants, une plus large gamme de matériaux légers utilisables.

Par Sophie Hoguin

L’Arctique devient une priorité pour la Russie

La vitrine Yamal

«Nous avons développé un programme de développement de l’Arctique. Ce qui est important, c’est la mise en valeur industrielle de l’Arctique, notamment l’extraction des matières premières», a déclaré Vladimir Poutine. La contrée glacée recèlerait quelque 100 milliards de barils de pétrole et 40 000 milliards de mètres cube de gaz techniquement récupérables, ainsi que de nombreux gisements de métaux et terres rares. La hausse des températures aux pôles et la réduction de la calotte glacière laissent entrevoir d’importantes opportunités pour les compagnies pétrolières et gazière russes qui voient leurs anciens gisements s’appauvrir.

Plateforme arctique Gazprom

Pour exploiter ces ressources en conditions extrêmes, il faut une technologie de pointe, détenue notamment par des Majors étrangères telles que Total. Le groupe français mène aux côtés de son partenaire russe Novatek, du chinois CNPC et de Silk Road Fund (9,9 %) le projet géant de Yamal dans le grand Nord. C’est une vitrine de la politique russe de développement de l’Arctique, en faisant jaillir en quelques années de nulle part un port, un aéroport, une installation de traitement de gaz et de liquéfaction avec trois trains d’une capacité de 5,5 millions de tonnes par an chacun, ainsi que des réservoirs de stockage. En décembre, Total a annoncé que la première cargaison de gaz naturel liquéfié (GNL) avait quitté le port de Sabetta. «Ensemble, dans des conditions extrêmes, nous avons fait sortir de terre un projet GNL de taille mondiale qui permet de valoriser les immenses ressources gazières de la péninsule de Yamal. Ce projet géant n’aurait pas été possible sans la force de notre partenariat avec Novatek et témoigne de l’engagement de Total envers la Russie», a déclaré Patrick Pouyanné, le pdg Total.

Contrôler les routes maritimes

Au-delà de l’exploitation des ressources naturelles, la Russie s’intéresse à la région pour des raisons de transport maritime. La fonte plus importante de la banquise en raison du changement climatique, créé des routes bien plus courtes en l’Asie et l’Europe notamment et pourraient devenir des trajets saisonniers utiles pour désengorger des points de passages comme le canal de Suez. Le ministère russe de la Défense a annoncé en novembre avoir découvert onze nouvelles îles et six détroits dans l’Arctique ces cinq dernières années, renforçant les prétentions de la Russie dans cette région disputée où elle a revendiqué en 2015 devant les Nations unies la souveraineté sur 1,2 million de km2. «D’après le scénario de base, le fret de la route maritime du Nord atteindra 70 millions de tonnes, et selon certains scientifiques elle pourrait s’élever jusqu’à 105 millions de tonnes d’ici à 2030», estime Evgeny Zagorodniy, le vice-président de la United Shipbuilding Corporation.

Sécuriser la route du Nord nécessitera une flotte conséquente de navires brise-glace. Dans ce domaine, la Russie détient une avance certaine avec des bâtiments à propulsion nucléaire gérés par Atomflot. Plus récemment, une méthanier brise-glace portant le nom de Christophe de Margerie (ancien PDG de Total décédé dans un accident d’avion en 2014), a été inauguré par Vladimir Poutine et a commencé à emprunter la fameuse route du Nord. Tout un symbole.

Romain Chicheportiche

Circuits électroniques sur tissu : maintenant à bas coût et lavables

Pour que l’électronique portable sur des textiles puisse être utilisée de manière courante, il faut encore passer plusieurs obstacles dont le lavage, l’utilisation d’encres non toxiques et le coût. Des chercheurs d’une équipe internationale menée par le centre de recherche sur le graphène de Cambridge et soutenu par le projet européen Graphene Flagship ont publié un article dans Nature Communications où ils expliquent comment ils ont réussi à relever ces trois défis. Leur technique a, en outre, permis d’imprimer des circuits intégrés complets sur des tissus polyester alors que jusqu’à maintenant on se contentait de créer des transistors uniques. Cette fois, des cellules de mémoire reprogrammables, des inverseurs ou des portes logiques ont pu être imprimés.

Ecologiques et économiques

Le travail des chercheurs a notamment porté sur la conception d’encres non toxiques avec un point d’ébullition bas permettant la création de circuits intégrés fonctionnant à température et pression ambiantes et facilement imprimable sur des tissus. Les encres créées par les auteurs de ces recherches sont à base de deux matériaux 2D : le graphène et le nitrure de bore hexagonal (h-BN). Ces encres de nécessitent pas de solvants toxiques et peuvent être portés sur le corps tout en étant bon marché, sûres et écologiques.

L’équipe a constaté que la rugosité des textiles diminuait les propriétés des composants électroniques imprimés. Aussi, pour minimiser cette interférence, ils ont utilisé une « couche de planarisation » en polyuréthane ; Elle lisse la surface du textile et permet d’améliorer les performances des dispositifs imprimés. Concernant les électrodes, les chercheurs ont choisi de remplacer les habituelles électrodes en argent par des électrodes PEDOT:PSS* qui sont plus adaptables pour un support flexible.

Une technique polyvalente

Cette technique ouvre la voie vers de véritables textiles intelligents dans lesquels l’électronique devient invisible. Elle permet de profiter du confort d’un vrai tissu (souplesse, aération) que n’offre pas les solutions actuelles qui consistent essentiellement à imprimer des composants assez rigides sur des matériaux portables (textiles, plastique ou caoutchouc) et qui résistent mal au lavage. Les circuits en matériaux 2D utilisés cette fois ont supporté jusqu’à 20 cycles de lavage dans une machine standard après avoir été recouverts par une couche de protection de polyuréthane appliquée par pression à chaud (120°C pendant 5s) sur le dessus et le dessous du dispositif. Par ailleurs, il semblerait que cela soit plus les torsions subies au lavage que l’eau et les agents lavants qui diminuent les performances du circuit au cours du temps.

Les applications devraient être multiples : des dispositifs médicaux portables à toute la sphère de l’internet des objets (IoT).

*poly(3,4-éthylènedioxythiophène) (PEDOT) et polystyrène sulfonate de sodium (PSS)

Par Sophie Hoguin

Revue de presse anglophone #12

Les meilleurs jeux pour apprendre votre enfant à coder !

Il n’est jamais trop tôt pour éveiller votre progéniture au codage.

Source : New York Times

Qui mange qui dans les grands fonds ?

Une caméra placée dans les grands fonds marins permet d’observer la prédation dans les grands fonds, en live.

Source : New York Times

Le Bitcoin ne constitue pas une menace pour la stabilité de l’économie

C’est en tout cas la conclusion d’un collège d’experts européens de la finance.

Source : The Guardian

Facebook reconnaît que l’utilisation de son site pourrait influer sur la santé mentale de ses usagers…

… et conseille pour remédier à ce problème d’encore plus utiliser son site !

Source : The Guardian

Les Etats-Unis accusent la Corée du Nord d’être à l’origine de « WannaCry »

 

WannaCry est un virus informatique qui a causé des bugs sur des millions d’ordinateurs à travers le monde ils y a quelques jours.

Source : Wall Street Journal

 

L’autoconsommation devient presque rentable en France

Le solaire brille

Le mécanisme d’appel d’offres «autoconsommation» a été mis en place en 2016 par le ministère de l’Ecologie, du Développement durable et de l’Energie pour développer les installations de puissance intermédiaire (entre 100 et 500 kW) en autoconsommation. Quelque 50 MW étaient en jeu et aucune technologie n’était privilégiée. Pour autant, le  solaire photovoltaïque a remporté absolument tous les projets. Les candidats ont demandé en moyenne une aide financière de 7,90 €/MWh, soit bien moins que lors du précédant appel d’offres (40,80 €/MWh). La chute des prix des modules PV, due à la situation actuelle de surproduction mondiale, explique en grande partie la domination totale du photovoltaïque sur les autres technologies renouvelables.

Selon le cabinet Finergreen, qui a analysé les résultats, les supermarchés sont largement présents, et remportent sur cette tranche près de la moitié des projets (71). Parmi les enseignes de grandes surfaces, le groupe Carrefour en gagne 31 et plus de 15MWc, soit environ 30% du volume total de l’AO. A noter également que le taux d’autoconsommation moyen des lauréats est évalué à 98%, ce qui signifie que la production d’électricité verte couvrira presque entièrement les besoins locaux des porteurs de projets.

Annonces en pagaille

Cet appel d’offres s’inscrit dans un plan gouvernemental plus large qui prévoit 9 sessions identique sur 3 ans pour un total de production autoconsommée de 450 MW.

Nicolas Hulot, ministre de la Transition écologique et solidaire, a également annoncé d’autres appels d’offres pluriannuels portant sur des volumes de 1,45 GW par an sur une durée de 3 ans. Par ailleurs, un autre concours dit bi-technologique (éolien et solaire), est prévu pour septembre 2018 et portera sur des projets d’une capacité comprise entre 5 à 18 MW.

Ces annonces ont vocation à élever les capacités électriques renouvelables de la France qui est «en retard sur ce sujet», comme l’a rappelé Emmanuel Macron dimanche dernier, notamment en raison des longueurs des procédures et des recours administratifs, à l’instar de l’éolien. Selon la dernière étude de RTE, le gestionnaire de réseau, le taux de couverture moyen de la consommation par les énergies renouvelables (hydroélectricité comprise) a été de 17,9 %, soit en-deçà de l’objectif de 23% que s’est fixé la France pour 2020.

Romain Chicheportiche

Laurence Tubiana analyse les avancées du combat climatique

Pour Laurence Tubiana, le temps est à l’action et la transition est engagée. Elle retient un élément particulièrement marquant de la COP23 : l’engagement des acteurs non gouvernementaux et les coalitions se structurent. Avant l’Accord de Paris, seuls les pays étaient invités à agir. «On va maintenant vers des choses très organisées autour du charbon, de la neutralité carbone, de la décarbonation des transports […] avec des coalitions où les gouvernements immédiatement appellent des villes, des régions, des entreprises à participer par rapport à un objectif», analyse-t-elle. Ces coalitions sont des coopérations renforcées pour aller plus vite que la démarche consensuelle des COP.

Le charbon a aussi été au coeur des discussions à la COP23. Des entreprises allemandes ont appelé Angela Markel à sortir du charbon, une campagne citoyenne a été lancée pour sortir du charbon en Europe. Et une alliance emmenée par le Canada et le Royaume-Uni invite à définir une date précise d’élimination du charbon dans le mix énergétique. Ce focus a continué à l’occasion du One Planet Summit où de nombreux acteurs ont appelé le secteur financier à se désinvestir du charbon et des autres énergies fossiles. Mais les résultats restent encore largement insuffisants.

Une dynamique qui reste à amplifier

Le dialogue de Talanoa doit se dérouler en 2018 pour revoir les contributions nationales à la hausse d’ici 2020. «On a les bases d’une COP24 réussie», estime Laurence Tubiana, mais les négociations seront intensives en 2018. La fondatrice et ancienne présidente de l’Institut du développement durable et des relations internationales (Iddri) estime que la condition essentielle pour relever ces contributions est que les pays définissent avant 2020 leurs trajectoires bas carbone pour 2050. «S’ils n’ont pas de trajectoire de long-terme, les choix seront mal faits», projette-t-elle.«Certains pays ont décidé dès 2050 d’aller vers la neutralité carbone : il faudrait que tous pays du G20 le fassent», prévient-elle. Ce travail concerne les gouvernements des pays, mais aussi les bailleurs de fonds et les industriels.

Certes, il y a eu des avancées. Mais «il y a encore beaucoup de secteurs où il ne se passe pas grand chose: l’aviation, le secteur maritime et de grands secteurs industriels», note Laurence Tubiana. Parmi ces derniers, il s’agit notamment des industries très émettrices : le ciment, l’acier et la chimie. Comment faire pour qu’ils soient compatibles avec l’Accord de Paris ? «Si l’on doit être dans une décarbonation nette zéro dans la deuxième partie du siècle, ce n’est pas encore clair», prévient-elle. Certains secteurs sont encore à la traîne, le secteur financier a commencé à bouger mais reste encore assez fragmenté. «Il n’ y a pas la boule de neige qui emporte tout», regrette-t-elle. L’agriculture était un sujet tabou, mais est le grand sujet politique majeur qui s’ouvre. «Après, ce sera sûrement le commerce international», projette l’experte des négociations climatiques.

Les avancées du One Planet Summit

Le One Planet Summit a été l’occasion de mettre la pression sur le secteur maritime et les industriels les plus émetteurs. Ainsi, 34 pays ont appelé à des avancées ambitieuses, au sein de l’Organisation Maritime Internationale, sur la régulation des émissions de CO2 liées aux transports maritimes. Celles-ci représentent aujourd’hui 3 % des émissions mondiales de CO2 mais pourraient augmenter, en l’absence d’actions ciblées, de 250 % d’ici 2050.

Par ailleurs, 225 grands investisseurs institutionnels pesant plus de 26.300 milliards de dollars ont lancé la coalition « Climate Action 100+ ». Avec pour objectif d’accompagner les 100 entreprises cotées les plus émettrices de gaz à effet de serre à présenter une stratégie de réduction de leurs émissions conformes aux objectifs fixés par l’Accord de Paris.

Par Matthieu Combe, journaliste scientifique

Solaire: les appels d’offres annuels passent à 2,45 GW !

Fin septembre 2017, le parc solaire atteignait une capacité installée de 7,2 gigawatts (GW). C’est 71 % des objectifs fixés à la filière pour 2018 (10,2 GW). Cet objectif ne sera clairement pas atteint. En effet, sur les 12 derniers mois, le parc n’a progressé que de 574 mégawatts. Pour 2023, les objectifs sont encore plus éloignés. Publiée en 2016, la Programmation pluriannuelle de l’énergie (PPE) veut atteindre une capacité solaire installée entre 18,2 et 20,2 GW pour fin 2023. Dans six ans, Il faudra donc avoir installé entre 11 et 13 GW de nouvelles capacités. Soit autour de 2 GW par an, ce qui signifie qu’il faut changer d’échelle.

Accélérer le développement solaire

Plusieurs appels d’offres ont été lancés fin 2016 pour développer les installations solaires au sol comme sur bâtiments. Ces appels d’offres pluriannuels portent sur des volumes de 1,45 GW par an sur une durée de trois ans. Déjà 1,3 GW ont été attribués. Mais cela reste insuffisant pour rattraper le retard. Nicolas Hulot a donc décidé de porter le volume des futurs appels d’offres à 2,45 GW par an. Avec 1,7 GW réservés aux installations au sol et 0,75 GW pour le solaire sur bâtiments.

«L’augmentation des volumes prendra effet progressivement, dès les prochaines périodes des appels d’offres, qui auront lieu en mars pour les installations sur bâtiment et en juin pour les centrales au sol», précise le ministère de la transition écologique et solidaire. Des mesures ont notamment été prises pour réduire les délais de réalisation des installations. Mais aussi pour augmenter les taux de réalisation des projets lauréats. Car tous les projets n’aboutissent pas. Par ailleurs, un plan pour accélérer le développement des énergies renouvelable devrait être annoncé en 2018.

Des énergies renouvelables compétitives

Mais ce n’est pas la seule nouveauté. Nicolas Hulot lance aussi un appel d’offres bi-technologique expérimental jusqu’en septembre 2018. Il mettra en concurrence la compétitivité des filières photovoltaïque et éolien terrestre pour un volume total de 200 MW. La puissance individuelle des projets doit être comprise entre 5 et 18 MW. «Le soutien aux projets prendra la forme d’un complément de rémunération et la sélection se fera uniquement sur la base d’un critère de compétitivité économique», avance le Ministère.

Les prix demandés par les lauréats des appels d’offres solaires continuent de chuter. Les derniers projets au sol vendent leur électricité à 63,9 euros par mégawattheure (€/MWh). Soit 9 % de moins que lors du dernier appel d’offres, quatre mois plus tôt. Pour les plus gros projets au sol (entre 5 et 17 MWc), le prix tombait même à 55,5 €/MWh. Une baisse similaire est observée sur les projets sur bâtiments. Les derniers lauréats proposaient un prix moyen de 93,4 €/MWh. Il atteignait 88 €/MWh pour les projets sur grands bâtiments. Une baisse de 10 %.

Par Matthieu Combe, journaliste scientifique

One Planet Summit: quels nouveaux engagements ?

En ouverture du One Planet Summit, Jean-Yves Le Drian, ministre de l’Europe et des Affaires étrangères a invité le monde à proposer des «solutions concrètes et efficaces». Objectif : «opérer sur le terrain le changement d’échelle indispensable». Car António Guterres, le secrétaire général de l’Assemblée générale des Nations unies, l’affirme : «la finance peut et doit être le facteur décisif». L’objectif annuel de 100 milliards de dollars consacrés à l’atténuation et à l’adaptation au changement climatique dans les pays en développement en provenant de financements privés et publics d’ici 2020 sera certainement atteint. Mais pour verdir l’ensemble du système financier international, cela restera plus difficile.

Les annonces réalisées dans le cadre de ce sommet sont assez disparates et restent une goutte d’eau face au défi qui attend le secteur financier. Car si les projets concrets sont en nombre croissant, leur enveloppe et le nombre d’acteurs restent encore largement insuffisants. Comme le rappelle le Premier Ministre des Fidji et Président de la COP23 Frank Bainimarama, «tous les nouveaux investissements devraient être regardés à l’aune de l’Accord de Paris». Il invite les acteurs privés et publics à « travailler main dans la main pour exploiter les capitaux et surmonter les défis » Mais les 12 engagements pris lors de ce sommet montrent qu’il reste encore beaucoup de travail à faire.

Arrêter de financer le charbon ?

Peu de banques commerciales et de développement se sont engagées à se détourner des investissements à destination des énergies fossiles. La seule banque à avoir pris des engagements sérieux est la Banque Mondiale. Elle arrêtera le financement des projets pétroliers et gaziers dès 2019. Mais le charbon ne sortira pas de son portefeuille d’investissements. Le Président de la Banque Mondiale a aussi précisé que des rapports sur les émissions de carbone seraient désormais publiés pour tous les projets financés. « C’est bien ce que fait la banque mondiale, mais toutes les banques doivent faire de même pour que tous les financements aux combustibles fossiles cessent », insiste toutefois Juha Sipilä, Premier ministre de la Finlande.

Notons tout de même la déclaration de la banque néerlandaise ING qui ne financera plus de nouveaux clients dont le business du charbon représente plus de 10% de son activité. Et dès 2025, cette part sera abaissée à 5 %. En revanche, rien n’a été annoncé pour les investissements existants. Par ailleurs, AXA, le géant français de l’assurance, s’éloigne progressivement des énergies fossiles. L’assureur met fin à l’assurance et aux investissements dans les sociétés de sables bitumineux et les pipelines. Il se désengage aussi des nouveaux projets de construction liés au charbon. En parallèle, il quadruple ses investissements dans les énergies renouvelables et les bâtiments pour atteindre 12 milliards d’euros en 2020.

Vers des marchés carbone suffisants ?

Les choses évoluent du côté du marché du carbone. Actuellement, seulement 15 % des émissions mondiales sont couvertes par des taxes carbones, dont les trois quarts sont à moins de 10 dollars la tonne. Mais la Carbon pricing leadership coalition, une coalition de plus de 40 entreprises, appelle à un prix du carbone aligné avec les objectifs de l’Accord de Paris. C’est-à-dire à la mise en place d’un prix autour de 40 euros la tonne en 2020.

Leur appel est entendu par plusieurs Etats et régions qui se sont prononcés en faveur de la mise en place d’un tel marché. C’est notamment le cas d’une coalition de pays européens dont la France et l’Allemagne. Par ailleurs, un marché commun devrait être mis en place dans les Amériques : Canada, Colombie, Chili, Mexique, Etats de Californie, Washington, Alberta, Colombie, Britannique, Nouvelle Ecosse, Ontario et Québec. Enfin, la Chine vient de lancer son marché du carbone, le plus grand de ce type au monde. « Par le biais de la construction d’un marché du carbone, nous allons mobiliser les entreprises, renforcer la finance verte et les assurances vertes et encourager les investissements vers les domaines bas carbone », détaille Ma Kai, vice-Premier ministre de la Chine. Reste à savoir quel sera le prix affiché par ces différents marchés.

Des annonces disparates !

Sous la pression d’Emmanuel Macron, tout le monde est venu avec sa petite annonce. Ce qui a parfois donné l’impression d’une succession d’annonces sans rapport les unes avec les autres. Parmi celles-ci, notons que, d’ici 2020, l’Union Européenne facilitera 9 milliards d’euros d’investissements en Afrique et dans ses pays voisins pour les  villes durables, l’énergie durable, l’agriculture durable, les entrepreneurs ruraux et l’agroalimentaire. La Commission européenne publiera aussi en mars 2018 un plan pour encourager la finance verte. Il devrait inviter les banques et les investisseurs à prendre en compte la durabilité dans leurs décisions, mais surtout clarifier ce qui peut être considéré comme une finance durable.

Un autre fonds vise à lutter contre la détérioration des terres et la désertification : c’est le « Land degradation Neutrality fund ». Il vise la restauration de 12 millions d’hectares dégradés chaque année sur un total de 2 milliards d’hectares concernés. Le fonds sera lancé en 2018 avec 300 millions de dollars. De son côté, le «Tropical Landscape Financing Facility» vise à mobiliser d’ici 2025 10 milliards de dollars de fonds privés pour financer des projets ayant un impact environnemental et social significatif dans les pays les plus vulnérables.

Si les banques rechignent à se détourner du charbon, l’alliance « Powering past coal » lancée à la COP23 le mois dernier comprend désormais 58 membres dont 26 pays, 8 gouvernements locaux et 24 entreprises dans le monde. Contre 25 membres lors de son lancement. Ils s’engagent à bannir le charbon de leur approvisionnement électrique d’ici 2030. À l’opposé, l’Alliance Solaire internationale souhaite mobiliser 1.000 milliards de dollars d’ici à 2030, auprès d’investisseurs publics et privés, pour développer le solaire. Enfin, 32 villes, 15 pays et plusieurs entreprises se sont engagés à atteindre la neutralité carbone d’ici 2050. Pour se préparer rapidement, ils publieront leurs stratégies avant 2020.

Par Matthieu Combe, journaliste scientifique