Revue du web #125 : les vidéos les plus étonnantes du mois

Un short « motorisé » pour se sentir plus léger

Des chercheurs de Harvard ont mis au point un short permettant d’assister la marche et la course à pied, afin de se sentir plus léger de 12 kilos. Mais ce short motorisé peut également venir en aide aux personnes souffrant d’une perte partielle de mobilité dans leurs déplacements pédestres.

Un « fish tube » pour transporter les saumons.

Ce tuyau pneumatique géant, dans lequel les poissons sont aspirés et propulsés à plus de 35 km/h en amont, a été imaginé par des ingénieurs pour les aider à franchir certains obstacles, comme les barrages hydroélectriques, lors de leur remontée des rivières.

— How Things Work (@ThingsWork) August 12, 2019

Un cathéter en réalité virtuelle pour les salles d’opération

Cette invention permet d’avoir un regard immersif dans les veines d’un patient. En effet, des capteurs sont disposés à la pointe du cathéter pour indiquer visuellement son emplacement dans l’artère ou la veine d’un patient afin que le chirurgien puisse la voir en version 3D. Cette technologie moderniserait largement l’actuelle vision 2D en noir et blanc des rayons X utilisés par les médecins.

Une langue artificielle pour goûter l’eau et le vin

Des chercheurs d’IBM Research ont développé une langue artificielle, Hypertaste, qui utilise l’apprentissage machine pour analyser la composition de liquides. Une solution rapide, précise et portable pour authentifier un vin, analyser la pureté d’un lac ou la composition d’un médicament.

Des micro-robots imprimés en 3D

Des chercheurs de Georgia Tech ont développé des micro robots imprimés en 3D, plus petits qu’une pièce d’un centime. Ce sont les pattes de ces petits robots qui ont été créées via une imprimante 3D. Les robots réagissent aux vibrations ressenties dans leurs pattes et pourraient détecter des maladies plus facilement dans le corps humain.

Airbus imagine la cabine des avions du futur

La compagnie Airbus explique se baser sur les tendances et les technologies actuelles. Dans cette vidéo, elle se distingue par de nombreuses innovations, notamment au niveau de l’espace, de l’affichage et des lumières.

Un nouveau prototype de voiture volante multicoptère

Dans sa vidéo, le groupe Japonais NEC dévoile son appareil électrique ou hybride, sans pilote et pouvant atterrir et décoller à la verticale. Équipé de batterie en lithium, il ne pourra effectuer que des trajets courts. Au Japon, les projets de voitures volantes soulèvent un fort enthousiasme et les projets de taxis aériens se multiplient.

Un procédé pour extraire le microplastique de l’eau

Un adolescent irlandais a remporté le Google Science Fair 2019 grâce à une technique pour extraire de l’eau une dizaine de types de microplastiques. Grâce à des ferrofluides, une combinaison d’huile et de poudre de magnétite, et des aimants, il a réussi à extraire tout le plastique de différents échantillons d’eau contaminée. Sur 1 000 essais, 87% ont été concluants. Ce projet pourrait constituer le début d’une solution efficace. La prochaine étape est de « passer à l’échelle industrielle ».

Ordinateur quantique : 3 défis technologiques à surmonter

E.T.I: Comment fonctionne l’ordinateur quantique ?

Clément Rinaudo: La meilleure méthode pour essayer de comprendre comment fonctionne un ordinateur quantique est d’essayer de le comparer à un ordinateur classique. Dans un ordinateur classique, on a des 0 et des 1 – des bits – qui transitent dans le système. A partir de là, soit il y a de l’électricité dans les composants, soit il n’y en a pas. C’est un système binaire, qui rend l’ordinateur classique très déterministe : si vous avez un jeu de données que vous faites passer par le même algorithme, vous obtiendrez toujours le même résultat à la fin.

L’ordinateur quantique fonctionne différemment.

L’ordinateur quantique, lui, ne fonctionne pas avec des bits mais des qubits. Les qubits sont des objets de physique : des électrons, des atomes… en fait, tout ce qui est régi par la mécanique quantique et dont les propriétés – quantiques – sont mesurables.

On peut utiliser n’importe quelle propriété de la physique quantique – un spin d’électron, une polarisation de photon dans la lumière – pour développer un ordinateur quantique. Les contraintes sont plutôt d’ordre technologiques.

Qu’est ce qui va différencier les bits et les qubits ?

A l’intérieur d’un qubit, tout se passe comme si on avait une superposition d’états simultanés. Du coup, le qubit, au contraire d’un bit classique qui ne porte qu’une information, en porte deux. Le problème que nous rencontrons est que quand le qubit est dans un état superposé, il ne peut pas nous donner les deux informations en même temps. C’est-à-dire que quand on le mesure, il va nous donner soit 0, soit 1, mais jamais les deux en même temps. C’est ce qu’on appelle l’effondrement, il est aléatoire, et on ne sait pas l’expliquer pour le moment.

Cette superposition d’états fait la particularité de l’informatique quantique.

Oui. Le résultat, c’est que l’ordinateur quantique n’est pas du tout déterministe comme peut l’être l’ordinateur classique : si je prends un jeu de données et que je leur applique le même algorithme quantique, je n’aurai pas le même résultat.

Il faut donc vérifier, a posteriori, que le résultat est le bon, avec des outils statistiques. Cela consiste à répéter l’expérience pour valider que le résultat obtenu est – statistiquement – le bon.

Les premiers ordinateurs quantiques ont fait leur apparition il y a peu.

L’ordinateur quantique existe aujourd’hui, au sens technologique du terme. IBM a présenté un ordinateur à 20 qubits, Dwave propose de manière commerciale son ordinateur quantique…

Quels sont les défis auxquels font face les chercheurs aujourd’hui ?

Aujourd’hui, les challenges que les chercheurs doivent surmonter sont d’ordre technologique : en effet, les ordinateurs quantiques ont un énorme problème de stabilité dans le temps.

Quand vous faites tourner un algorithme quantique sur un ordinateur quantique en réel, il y a énormément d’externalités qui peuvent venir perturber l’état quantique de votre programme, qui est déjà très fragile.

Comment cela se traduit-il ?

Cela veut qu’au niveau temporel, on est de moins en moins sûr d’obtenir le même résultat, à cause de l’instabilité du système. C’est un sujet de recherche très important aujourd’hui.

Pour illustrer la problématique de l’instabilité, il faut savoir que les chercheurs refroidissent ces systèmes jusqu’à une température extrêmement proche du degré absolu afin d’obtenir un environnement satisfaisant.

Cela pose aussi des problèmes quant à la quantité de qubits embarqués sur les ordinateurs quantiques.

Oui. Un autre challenge technologique concerne la quantité de qubits que l’on va pouvoir prendre en considération. A chaque fois qu’on augmente la capacité d’un ordinateur quantique d’un qubit, on divise sa stabilité par deux.

L’algorithmie contient également son lot de défis.

Ce challenge est plutôt d’ordre humain : en tant que développeurs, nous allons être obligés de repenser l’intégralité de l’algorithmie qu’on connaît pour l’adapter à l’informatique quantique. Nous n’avons pas à l’heure actuelle de passerelles efficaces entre l’informatique classique et l’informatique quantique.

Vos recherches sur les technologies quantiques ne se limitent pas à l’ordinateur quantique.

Je travaille aussi sur l’aspect communication quantique. Nous nous demandons comment on peut utiliser la mécanique quantique pour faire de la cryptographie quantique, notamment via la lumière. Nous utilisons donc les propriétés de la photonique afin de pouvoir, de manière sécurisée, partager des clés cryptographiques entre deux acteurs.

Aussi, les protocoles qui peuvent être mis en place sont capables de détecter si quelqu’un est sur la ligne de communication. Le protocole utilisé ici est le BB84, c’est le plus utilisé à l’heure actuelle pour pouvoir partager des clés cryptographiques via la photonique.

 

 

 

 

«Il n’est pas certain que la France et l’Europe aient accès aux technologies quantiques si elles ne les développent pas elles-mêmes»

E.T.I: Quelle est la génèse de quantonation ?

Christophe Jurczak: J’ai travaillé aux Etats-Unis jusqu’à l’année dernière, et j’ai commencé à noter les signaux avant-coureurs d’une évolution dans le domaine du quantique, sachant que j’ai une formation dans ce domaine avec un doctorat dans l’équipe d’Alain Aspect à la fin des années 90. De retour en France l’année dernière, je me suis associé à Charles et Olivier qui avaient identifié la même tendance, et fait déjà des investissements dans des technologies quantiques dites « de première génération », comme des lasers sophistiqués..

Vers 2015/2016 on a vu que les technologies commençaient à sortir des laboratoires, surtout en ce qui concernait les senseurs. Mais le marché des senseurs est plus petit que celui de l’ordinateur quantique, pour lequel le marché est gigantesque et les opportunités de distribution majeures. C’est également selon moi un marché beaucoup plus disruptif.

Qu’est-ce qui a accompagné cette “sortie des laboratoires” comme vous dîtes ?

C’est aussi à ce moment là qu’IBM a mis sa plateforme en ligne avec 5 qbits, que tout le monde a pu expérimenter. Cela a été également un gros facteur déclenchant. Tout cela m’a amené à réfléchir à la mise en place d’un véhicule d’investissement pour les start-ups du domaine.

Justement, quelles sont les particularités des technologies quantiques pour un fonds d’investissement comme le vôtre ?

Aujourd’hui le problème des jeunes pousses du secteur Quantique (et des Deep Tech en général) est le temps qu’elles passent au stade “pré-revenu”, qui est plus long que pour d’autres acteurs comme ceux du digital par exemple. Pour le quantique le temps de développement technologique est plus long. Il est donc plus compliqué de trouver des investisseurs, sans parler de la barrière de compréhension spécifique au domaine du quantique. Nous avons donc décidé de nous concentrer sur la deep tech qu’est le quantique, avec des retours sur investissements plus longs, mais également avec des attentes en termes d’impacts sociétaux beaucoup plus significatifs. Or, ce type de fonds d’investissements n’existait pas au niveau européen sous forme de véhicule spécialisé, d’où notre volonté de créer Quantonation.

Quels sont les profils des start-ups que vous avez décidé d’accompagner ?

Nous avons pour le moment réalisé 4 investissements, et deux sont en cours. Nous sommes également en train de réaliser une levée de fonds de 50 millions d’euros pour faire passer notre action à une autre échelle. Sur les 6 investissements faits et en cours, 3 concernent des start-ups françaises. Les trois autres sont canadienne, anglaise et suisse. Les activités de ces jeunes pousses sont diverses: computing, sensing, télécommunications, cybersécurité …

Le soutient public et privé des start-ups innovantes sur le domaine du quantique n’est pas qu’un enjeu technologique. Expliquez-nous pourquoi.

La BPI a lancé en France le plan deep tech en début d’année, qui a pour but d’aller chercher les technologies disruptives, qui sont aussi des enjeux de souveraineté, comme l’ordinateur quantique. Et pour être compétitif à ce niveau il faut développer un autre type d’investissement, plus risqué. Ce qui on l’a dit n’est pas une habitude chez les Européens. Par exemple, en France, on a pas de start-up de quantum software. C’est inquiétant, et très problématique pour l’avenir. C’est quelque chose auquel nous nous attelons et que l’on aimerait vraiment voir évoluer positivement dans les années qui viennent. Heureusement, rien n’est encore perdu à l’heure actuelle, et on voit des signes avant-coureurs – avec un plan National sur le Quantique qui se profile – qui nous permettent d’être optimistes, et la France a vraiment une carte à jouer pour prendre un rôle de leader dans le domaine..

Vous parlez de souveraineté. Qu’en est-il concrètement ?

Les enjeux de souveraineté autour des technologies quantiques touchent principalement deux sujets : le quantum computing et les communications quantiques. Commençons par le quantum computing : une des applications de l’ordinateur quantique, identifiée il y a déjà de nombreuses années, est de décomposer les grands nombres sous forme de multiples de nombres premiers de façon beaucoup plus rapide que ne peut le faire un ordinateur classique, une fois  que l’ordinateur quantique sera suffisamment mature. Or la difficulté intrinsèque de ce problème est au cœur de presque tous nos mécanismes d’encryption de données sensibles, et un ordinateur quantique remet donc tout en question. C’est une perspective encore lointaine mais crédible, et cela pose un problème critique en ce qui concerne nos données personnelles et les données d’internet en général.

Quel est le risque ?

Le risque existe aujourd’hui de faire face à des machines quantiques de grande taille qui puissent avoir accès à toutes les datas dans le monde. Il faut se protéger contre cela, et la physique quantique offre des solutions pour y parvenir : l’algorithmie de cryptage post-quantique par exemple. Nous avons d’ailleurs en France une start-up très en avance sur le sujet. Il y a également les solutions de distribution de clés quantiques. Le but étant , pour les Etats et les entreprises, de se protéger des entités qui posséderaient un ordinateur quantique performant dans le futur. C’est là que réside un des enjeux de souveraineté.

Par ailleurs, nous devons également avoir des ordinateurs quantiques performants, pour rester dans la course qui existe aujourd’hui, en particulier pour donner à nos industriels les moyens de calcul qui leur permettent de rester compétitifs dans leurs business, pour le développement de molécules en pharmacie par exemple. L’enjeu de souveraineté est tel qu’il n’est pas certain que nous puissions avoir accès à des technologies quantiques pour les communications et le calcul  si nous ne parvenons pas à les développer nous-mêmes, au moins au niveau européen. Des pays comme la Chine et d’autres mettront probablement en place des restrictions à l’accès sur certaines de ces technologies stratégiques..

Il est naturel de parler de risques, mais je voudrais aussi attirer l’attention sur l’opportunité. Ce qu’il faut bien voir c’est que, avec l’ordinateur quantique, on reconstruit un stack software complet, du hardware à l’application, avec des principes tout à fait différents. C’est une informatique complètement nouvelle, et une opportunité unique pour la France et l’Europe de reprendre la main dans les technologies de l’information.

Quand l’intelligence artificielle vient au secours de la découverte scientifique

Selon Gerbrand Ceder, du Berkeley Lab’s Energy Storage & Distributed Resources Division, l’utilisation de méthodes de text-mining permettrait “d’approfondir les connaissances scientifiques fondamentales” en exploitant simplement l’existant. En effet, alors que des dizaines de publications paraissent chaque semaine pour un thème de recherche donné, certains domaines d’étude ont près de 100 ans de publication derrière eux. Il n’est donc pas étonnant qu’aucun scientifique ne soit capable d’avoir une vue d’ensemble de son domaine, aussi intelligent soit-il. Par conséquent, qu’il soit possible, grâce au Machine Learning, d’exploiter ce savoir collectif sans aucune intervention de chercheurs humains apparaît comme une petite révolution.

L’application du text-mining à la thermoélectricité

Afin de démontrer l’intérêt du text-mining pour la recherche fondamentale, l’équipe de chercheurs de Berkeley a choisi d’analyser le domaine particulièrement ancien de la thermoélectricité. Plus de 3 millions : c’est le nombre d’abstracts analysés par l’algorithme mat2vec, dont le code est en plus disponible librement et basé sur Word2vec. Dans le monde de l’intelligence artificielle, Word2vec est connu comme un réseau de neurones artificiels à deux couches entraînés pour reconstruire le contexte linguistique des mots. Ainsi, en analysant les relations entre les mots, cet algorithme a été capable de détecter les abstracts associant le concept de thermoélectricité à certains matériaux.

Une IA intégrant des concepts scientifiques fondamentaux

Mais il y a plus étonnant encore. L’équipe dirigée par Anubhav Jain a découvert que l’algorithme était capable de reconnaitre les structures cristallographiques, les relations entre les éléments de la classification périodique et même de comprendre certaines équations, simplement en analysant les positions des mots dans les abstracts et leur co-occurrence avec les autres mots.

La preuve par l’analyse du passé

Pour vérifier la capacité de l’algorithme à faire des prédictions, l’équipe de chercheurs a ensuite limité le champ de recherche aux papiers publiés entre 1922 et l’année 2000. Ils ont ainsi constaté que les matériaux annoncés comme thermoélectriques potentiels ont été découverts par la suite avant 2008, dans trois prédictions sur cinq. Par conséquent, si cet algorithme avait été utilisé par le passé, il aurait permis de découvrir des matériaux thermoélectriques récents, plusieurs années en avance.

Quelques prédictions en science des matériaux

Les résultats de leurs travaux, publiés dans le n° 571 du journal Nature, présentent un intérêt certain pour les chercheurs du monde entier : en indiquant le Top 50 des prédictions de matériaux thermoélectriques, ils pourraient influencer les travaux de recherche future. Ainsi, Li2CuSb, Cu3Nb2O8 et CsAgGa2Se4 sont annoncés comme les prochaines découvertes dans ce domaine.23

Le carton pour des emballages alternatifs au plastique

Les industriels soulignent l’importance des propriétés barrières du plastique pour justifier le développement de ce matériau dans les emballages. Pour que le carton puisse être une alternative crédible au plastique dans les emballages alimentaires, il faut donc soutenir la recherche de solutions innovantes. C’est le but de la nouvelle convention pluriannuelle signée entre Citeo et le Centre technique du papier, organisme de référence pour la recherche dans le domaine de la filière papier-carton. Entre 2019 et 2022, Citeo va investir 1,8 million d’euros pour la recherche et l’industrialisation de nouvelles solutions d’emballages en papier-carton.

Remplacer le plastique par le carton lorsque cela est possible

Plus un emballage en plastique est complexe, plus il est difficle à recycler. À l’opposé, le carton a un avantage, souligne Citeo : il s’agit d’un matériau d’origine renouvelable, recyclable et biodégradable. Mais actuellement, les gobelets et les emballages de produits alimentaires en carton sont, pour la plupart, recouverts d’une fine couche en plastique.  Le papier-carton est donc aujourd’hui au cœur des enjeux d’éco-conception des emballages ménagers. L’objectif est de développer des emballages en carton recyclables dans les filières existantes, sans ajout d’autres matériaux. Cela nécessite l’ajout de nouvelles propriétés barrières, comme la résistance à l’eau, à l’air ou à l’huile, grâce à des traitements de surface physiques ou chimiques. Plusieurs pistes sont à l’étude : l’enduction, les microfibrilles de cellulose et la chromatogénie.

En particulier, la chromatogénie semble offrir de belles perspectives pour développer des emballages spécifiques en carton, comme les gobelets ou les barquettes. Naturellement, le carton absorbe l’humidité et l’eau. Cela le limite à l’emballage de produits secs ou rend nécessaire l’ajout d’un autre matériau pour le rendre hydrophobe. « La chromatogénie est une technologie qui permet de rendre hydrophobe, c’est à dire résistant à l’eau, sans y associer d’autre matériau, explique  Jean-François Robert, Directeur technique Fibreux de Citeo dans le magazine de Citeo. Comment ? en greffant une molécule d’acide gras sur une petite partie des molécules de cellulose qui constituent le papier-carton« . Le carton ainsi rendu hydrophobe reste recyclable.

Le partenariat cherchera aussi à alléger les emballages en carton, notamment pour les livraisons e-commerce. Un comité de pilotage se réunira régulièrement avec les parties prenantes afin de faire un bilan des avancées des projets menés dans le cadre de ce partenariat.

La biomasse aérienne de la végétation de la zone tropicale n’a plus d’impact positif sur le stockage du carbone

Comment les stocks de carbone changent-ils dans la biomasse de la végétation à l’échelle de la planète ? Quels facteurs expliquent ces changements ? Ce sont des questions centrales pour les sciences du climat et pour l’application des accords internationaux pour le climat. Les chercheurs de l’Inra, du CEA, du CNRS et du CNES en collaboration avec l’Université de Copenhague et de Nanjing, et de nombreux instituts de recherche internationaux ont publié en 2018 la mise au point d’une nouvelle approche permettant d’apporter une dimension temporelle à des cartes globales mais statiques de la biomasse aérienne de la végétation, qui avait déjà été produite sur la seule zone africaine .
Les travaux publiés aujourd’hui vont plus loin et analysent l’évolution observée des stocks de carbone dans la biomasse aérienne de la végétation de l’ensemble de la zone tropicale. L’étude met ainsi en avant la forte corrélation entre les variations de ces stocks et les variations de la concentration atmosphérique en CO2 de l’atmosphère, confirmant le rôle central de la biomasse végétale des écosystèmes tropicaux dans le cycle du carbone à l’échelle planétaire.
Le résultat majeur à retenir est la quasi-neutralité des forêts des tropiques dans le bilan de carbone, compte tenu de la déforestation, documentée pour la première fois avec des données d’observations directes et quantitatives de la biomasse aérienne. Le bilan de carbone de la biomasse aérienne s’établit ainsi à +0.11 Gt (milliards de tonnes) de carbone par an sur 2010-2017, compensant ainsi seulement environ 1% des émissions anthropiques des gaz à effet de serre. Toutefois, cette étude ne permet pas d’estimer le changement des stocks de carbone dans le sol ou dans la biomasse racinaire durant cette période, et constitue donc un bilan partiel du carbone.
Les seules données sur cette question provenaient jusqu’à présent de simulations via les modèles de végétation ou l’inversion de modèles de transports atmosphériques.
Le phénomène identifié est le suivant : l’effet positif de la végétation dans la zone tropicale qui limite l’augmentation du carbone dans l’atmosphère, via le stockage de carbone dans la biomasse aérienne devient neutre. En effet, les gains produits dans les régions où la forêt est un puits de carbone (estimés à +2,97 Gt C / an), par exemple les forêts préservées au centre des bassins d’Amazonie et du Congo, sont désormais quasiment compensés par des pertes de carbone (estimées à -2, 86 Gt C/ an), en lien avec la déforestation et le dépérissement lié à l’impact du climat (en particulier les conséquences des épisodes El Niño; l’épisode El Niño en 2015-2016 ayant été extrêmement sec et chaud).
Chaque année, la déforestation continue (voire elle accélère), ce qui diminue d’autant le potentiel des régions tropicales à piéger le carbone. Les résultats de cette étude suggèrent donc que nous traversons une étape de transition, au cours de laquelle les régions tropicales ont basculé du rôle de puits de carbone vers un rôle quasi neutre qui préfigure peut-être une future phase au cours de laquelle ces mêmes régions deviendraient une source de carbone atmosphérique, accélérant ainsi le réchauffement global.
Pertes de carbone et déforestation dans les tropiques (2010-2017) : cartes (a) des pertes brutes de carbone de la biomasse aérienne mesurées avec l’indice SMOS L-VOD (Mg C ha-1 an-1) et (b) des pertes de surfaces forestières liées à la déforestation (%) mesurées par Hansen et al. (Science, 2013). Les zones en rouge correspondent aux plus fortes pertes de biomasse végétale et aux zones de déforestation intense. On note en particulier (Fig. b), l’arc de déforestation en Amazonie et une activité intense de déforestation en Indonésie et dans les régions équatoriales centrale et ouest de l’Afrique, qui sont bien corrélés (Fig. a) à des pertes importantes de biomasse aérienne tropicale révélées par les observations spatiales SMOS. L’étude estime les pertes de biomasse liées à la déforestation dans les tropiques à 780 millions de tonnes de carbone par an.
Références
​’Satellite-observed pantropical carbon dynamics’. Lei Fan, Jean-Pierre Wigneron, Philippe Ciais, Jérôme Chave, Martin Brandt, Rasmus Fensholt, Sassan S. Saatchi, Ana Bastos, Amen Al-Yaari, Koen Hufkens, Yuanwei Qin, Xiangming Xiao, Chi Chen, Ranga B. Myneni, Roberto Fernandez-Moran, Arnaud Mialon, N. J. Rodriguez-Fernandez, Yann Kerr, Feng Tian, Josep Peñuelas. Nature Plants. 20 juillet 2019. DOI : 10.1038/s41477-019-0478-9
Source : cea

Le Big data du passé au service de l’IA

Fin 2017, la Commission européenne lance un appel à actions préparatoires pour les futures initiatives de recherche. Il s’agissait de relever les défis de la science et de la technologie.

Parmi les 33 propositions soumises, six avaient été sélectionnées par des experts indépendants de haut niveau. Un financement d’un million d’euros avait été octroyé pour que chaque projet puisse préparer sa feuille de route détaillée et la présenter d’ici mai 2020. À la clé, un milliard d’euros sur dix ans.

L’appel de 24 ministres

Mais coup de tonnerre en mars dernier. La Commission européenne abandonne finalement le concept de « FET Flagships » (pour Technologies futures et émergentes), ses vaisseaux amiraux de la recherche. Six projets, dont celui de Time Machine, sont recalés. Leurs concepteurs ont été informés récemment.

Cette décision a d’autant plus étonné les milieux scientifiques et culturels qu’il y a quelques jours, 24 ministres avaient déclaré qu’il fallait créer une plateforme de numérisation pour le patrimoine et Time Machine était cité dans ce communiqué de presse diffusé après cette annonce.

Impossible de connaître à l’heure actuelle les raisons du revirement de la Commission européenne. Time Machine est pourtant un projet très intéressant réunissant quelque 300 institutions qui n’avaient pas l’habitude de travailler ensemble ou même de numériser leurs données.

Ce projet visait à cartographier 2000 ans d’histoire européenne et transformer les archives et collections de musées en un système d’informations numériques.

Des données d’horizons géographiques et temporels

« L’idée était de concevoir une grande infrastructure européenne afin de prendre la numérisation du patrimoine au sérieux et de transformer cela en un « grand trésor » permettant de développer différents services (tourisme, la recherche…). Et si l’on dote l’IA du Big data du passé, elle aurait certainement une plus grande « largeur ».  Ce projet est susceptible de devenir l’un des systèmes d’intelligence artificielle les plus avancés jamais créés, exploitant les données d’horizons géographiques et temporels bien plus larges », a expliqué Frédéric Kaplan, concepteur de Time Machine, à la radio suisse TSR.

Le projet Time Machine n’est pas enterré. « Il pourrait intégrer le programme Horizon 2020 même si ce projet a vocation à être financé au niveau local, par des villes, et avec une gouvernance très large », indique Frédéric Kaplan qui travaille au Laboratoire d’humanités digitales à l’École polytechnique fédérale de Lausanne.

Les cinq autres projets viennent d’Allemagne pour trois d’entre eux, des Pays-Bas et du Danemark. Ils touchent les domaines de l’intelligence artificielle, du développement cellulaire, des thérapies géniques et des énergies renouvelables. Les trois Flagships déjà en cours, Human Brain Project, Graphene et Quantum, ne sont pas concernés par cette décision.

Comment le déclin des populations d’éléphants de forêt réduit les stocks de carbone dans la biomasse ?

Autrefois espèce répandue en Afrique, l’éléphant de forêt façonnait son habitat en piétinant les petits arbres au potentiel d’absorption carbonique faible. La régulation de ces arbres ne se faisant plus, ils prennent la place de ceux aux capacités d’absorption plus conséquentes. Cette nouvelle étude, menée par Fabio Berzaghi du Laboratoire des sciences du climat et de l’environnement (CEA/CNRS/UVSQ), consiste à vérifier l’hypothèse suivante : le déclin continu des éléphants dans les forêts d’Afrique centrale conduira à des forêts avec davantage de petits arbres à faible contenu de carbone, appelés « soft-wood ». Ils provoqueront alors une perte significative du stockage du carbone dans la biomasse. Sans les éléphants, les forêts d’Afrique centrale pourraient perdre jusqu’à 3 milliards de tonnes de carbone.
Pour vérifier cette hypothèse, les scientifiques ont collecté des mesures dans le bassin du Congo, puis ont comparé le nombre et la taille des arbres entre différentes forêts : certaines habitées par les pachydermes, et d’autres non. Cependant, les éléphants de forêt affectent des processus forestiers qui sont difficiles à observer à date avec seulement les expériences de terrain, puisqu’ils durent près d’une centaine d’année. Les scientifiques ont donc eu recours à un modèle de simulation informatique qui leur a permis de prévisualiser l’effet à long terme des éléphants sur les forêts : comment ceux-ci la structurent, elle et la biomasse, et quel potentiel de stockage du carbone en émane. Dans ce modèle, les différentes abondances d’éléphants ont un impact sur la façon dont les différents types d’arbres se font concurrence pour la lumière et l’eau.
« Les éléphants de forêt sont des gestionnaires naturels qui éclaircissent les forêts en « élaguant » ou en enlevant les petits arbres. Ces animaux augmentent la croissance des grands arbres et la production de bois » explique F. Berzaghi. « Notre étude montre que même à forte densité de population, les éléphants de forêt continuent d’améliorer le potentiel de stockage de carbone des forêts d’Afrique centrale : il n’y a aucune contre-indication écologique à leur retour« . Cette espèce favorise aussi la germination de plus de 100 espèces d’arbres en dispersant leurs graines, ceux-là mêmes qui fournissent ensuite nourriture et habitat aux primates, oiseaux et insectes. Option « gagnant-gagnant », la protection et l’expansion des populations restantes d’éléphants de forêt agira pour la faune sauvage, la biodiversité et la lutte contre le changement climatique.
Source : CEA

Un nouveau type de cellule tandem pour accroître le rendement des panneaux solaires

Ces résultats sont issus des conclusions du projet européen SWInG, coordonné par l’Interuniversitair Micro-Electronica Centrum (IMEC), un institut de recherche interuniversitaire flamand en microélectronique et nanotechnologies.

Une superposition de cellules solaires en tandem

Les matériaux constituant les cellules solaires permettent de convertir en énergie une partie du domaine spectral du rayonnement solaire, mais aucun n’est efficace sur l’ensemble du spectre. Par conséquent, pour accroître l’efficacité des cellules solaires, il est possible de superposer deux types de cellules, fonctionnant en complémentarité, car optimisées pour des domaines différents. Bien que l’efficacité des cellules solaires en tandem ait déjà été prouvée, les matériaux actuellement disponibles sur le marché présentent tous un inconvénient. D’après le professeur Bart Vermang de l’IMEC, ils sont soit trop chers, soit instables, trop rares ou pas assez performants.

Une alternative aux pérovskites

Les pérovskites sont souvent considérées comme des matériaux d’avenir dans le domaine du photovoltaïque. Néanmoins, ils ont des inconvénients majeurs comme leur mauvaise résistance à l’eau ou au rayonnement UV. Pire encore, ils sont potentiellement toxiques, car la plupart des formulations contiennent du plomb. Pour contourner ce problème, les chercheurs de l’IMEC se sont donc intéressés à une alternative aux pérovskites : les matériaux de type kësterite. Ils ont ainsi réussi à développer des absorbeurs à base de Cu2ZnGe(S,Se)4 ou Cu2ZnGeSe4, plus stables que les pérovskites, non toxiques et surtout très performants.

Un rendement stupéfiant et des avantages nombreux

Les résultats, publiés dans la revue Sustainable Energy & Fuels, sont plutôt prometteurs. Le professeur Vermang annonce un rendement énergétique record à l’échelle mondiale de 8,4 % pour ce type de cellules. Cela signifie que si le matériau était utilisé en tandem, le rendement des panneaux solaires en silicium pourrait dépasser la limite théorique de 30 %. Néanmoins, ces nouveaux absorbeurs en kësterite peuvent encore être optimisés. Ainsi, de nouvelles études sur l’amélioration des performances de cellules solaires sont d’ores et déjà prévues.

Prochaine étape : les vitrages tandem

Par ailleurs, les chercheurs ne comptent pas s’arrêter là. En effet, un nouveau projet européen appelé Tech4Win a été lancé, dont le but est, selon le professeur Vermang “de mettre au point des panneaux solaires transparents dans les années à venir”. Ces vitrages “high tech” seront constitués d’une combinaison de plusieurs revêtements. Une première couche inorganique sera déposée sur la vitre et fera office de filtre UV. Cette première couche sera ensuite recouverte d’un film solaire sélectif UV. Enfin, un film solaire sélectif infrarouge organique sera déposé dans l’espace intérieur du vitrage.

Les participants du projet Tech4Win espèrent ainsi que ces vitrages pourront permettre de générer une énergie renouvelable, tout en ayant un niveau de transparence supérieur à 60 % et une durée de vie supérieure à 10 ans pour des coûts de fabrication inférieurs à 200 € le mètre carré.

Source : D’après l’article de Pieter Van Nuffel, publié le 08/07/19 dans DataNews

Transformation du CO2 : vers un recyclage à grande échelle

En 2012, l’équipe de Marc Robert publiait un article dans le magazine Science sur un procédé innovant permettant de recycler le CO2, l’un des principaux gaz à effet de serre émis massivement par les activités humaines et connu pour son impact sur le changement climatique, en monoxyde de carbone (CO), une brique essentielle de l’industrie chimique.
Le principe ? Utiliser un électrolyseur fonctionnant avec du fer et de l’électricité d’origine renouvelable (solaire) pour réduire le CO2 en CO. Mais l’expérience était réalisée à une échelle incompatible avec une exploitation commerciale.

La phthalocyanine de cobalt, un catalyseur moléculaire abondant et efficace

Sept ans après, défi relevé pour l’équipe de Marc Robert qui a mis au point un nouveau dispositif capable d’assurer un meilleur rendement et de produire des quantités de monoxyde carbone beaucoup plus importantes. « La plupart des processus connus utilisent des catalyseurs basés sur des métaux rares et précieux. Nous, nous utilisons la phthalocyanine de cobalt, un catalyseur moléculaire largement disponible », explique Marc Robert. Le procédé utilise également de l’eau – qui se transforme en oxygène lors de l’expérience – et de l’électricité : que des éléments abondants ou renouvelables. Par ailleurs, « le processus catalytique fonctionne à pression et température ambiante, donc dans des conditions faciles à mettre en place. » Une innovation qui permet de préparer la prochaine étape : un déploiement à l’échelle industrielle. « La simplicité du dispositif, son efficacité, le fait que les matériaux utilisés soient abondants et que l’électricité provienne d’énergies renouvelables: tout cela crée un vrai potentiel en termes de développement à grande échelle, dans le respect de la planète. »

Le monoxyde de carbone, une « brique » multifonction

« Grâce à ce dispositif, le CO2 devient une matière première renouvelable, transformé en CO grâce à de l’électricité, elle-même renouvelable. Cela permet d’inclure le CO2 dans une économie circulaire, un cercle vertueux. » En effet, le monoxyde de carbone, issu de la réduction du CO2 lors du processus d’électrolyse, peut être lui-même transformé, notamment en carburant. « Le monoxyde de carbone a de nombreuses applications dans l’industrie chimique dont c’est une brique élémentaire essentielle. Il a également des applications dans le domaine de la santé. Mais on peut s’en servir aussi pour produire des carburants liquide ou gazeux comme le méthane qui n’est autre que le gaz naturel utilisé pour chauffer les habitations ou faire rouler des bus, ajoute Marc Robert. Ce méthane produit du CO2 lorsqu’il brûle… CO2 qu’on pourra à nouveau recycler. » Un pas de plus vers une énergie plus propre et renouvelable à l’infini.

Source : cnrs

Cartographier les lipides du cerveau une nouvelle méthode d’IRM quantitative

Dans un article publié dans Nature Communications, le Professeur Aviv Mezer et son équipe du Centre pour les sciences du cerveau Edmond et Lily Safra de l’Université hébraïque de Jérusalem (HUJI) ont réussi à mettre au point une méthode permettant de dresser de véritables lipidomes (carte des différents lipides présents dans un organe ou un tissu) des différentes parties du cerveau afin d’en suivre l’évolution au cours du temps.

Réussir à atteindre cette information de manière non invasive (biopsie) ou autrement que post-mortem est essentiel pour à la fois comprendre le fonctionnement du cerveau et notamment les mécanismes de son vieillissement mais c’est aussi une porte ouverte vers une signature précoce par l’imagerie de certains signes d’altérations non normaux, comme ceux provoqués par la maladie d’Alzheimer ou de Parkinson.

Améliorer les IRM quantitatives

La méthode mise au point par cette équipe israélienne s’appuie sur l’IRM quantitative (IRMq), aussi appelé IRM en tenseur de diffusion (IRM – DTI) qui mesure le mouvement des molécules d’eau dans les tissus. Cette technique fournit des mesures biophysiques du cerveau qui permettent déjà d’émettre des diagnostics sur le vieillissement normal ou anormal des tissus cérébraux. On sait que les paramètres de l’IRMq sont sensibles au microenvironnement du tissu cérébral (on les appelle même les outils d’histologie in vivo) mais on est encore aujourd’hui au balbutiement de l’interprétation biologique de la variation de ces paramètres. En effet, difficile de séparer les signaux consécutifs à un changement dans les tissus des signaux provenant de la teneur en eau du tissu. C’est tout l’objectif des travaux présentés ici, qui ont porté sur une généralisation du concept de relaxivité, habituellement liée à l’utilisation d’un agent de contraste. A la place de l’agent de contraste, les chercheurs ont cherché la mesure par IRMq de la fraction locale autre que l’eau pour évaluer la relaxivité du tissu cérébral lui-même. Il s’est avéré que cette approche permet de fournir des signatures uniques pour différents lipides cérébraux. En outre, il s’est aussi avéré que dans le cerveau humain, ces lipides produisent signatures uniques pour différentes régions. Les données obtenues par cette méthode concordent avec les mesures post-mortem de la composition lipidique et macromoléculaire du cerveau ainsi qu’avec des profils d’expression génique spécifiques.

Les régions du cerveau vieillissent différemment

L’équipe du Dr Mezer a testé cette méthode sur un échantillon comportant des individus d’âges différents. Les données obtenues ont permis de constater que les différentes régions du cerveau vieillissent différemment : la substance grise par exemple reste constante, il n’y a pas de différence majeure entre un sujet jeune ou âgé alors que le volume des autres tissus cérébraux diminue. Cependant, la signature moléculaire de la substance grise chez les sujets jeunes est différente de celle des sujets plus âgés. Cette mini-étude a permis de montrer que cette méthode, avec des échantillons plus grands et plus construits, prenant en compte d’autres paramètres comme le QI, le contexte socio-économique, les éventuelles pathologies etc., pourrait permettre de mieux comprendre les différents mécanismes de vieillissements du cerveau (physico-chimiques, biologiques, environnementaux, pathologiques) et de mieux traiter et détecter certaines anomalies. En outre, l’approche d’IRMq posée ici peut être élargie pour définir d’autres signatures moléculaires (protéines par exemple) et pour affiner celles définies dans cette étude.

Légende image : la nouvelle technique d’IRM fournit des cartes moléculaires des différentes régions du cerveau (ici un cerveau de porc). Credit: Shir Filo/Hebrew University

La transition énergétique est bonne pour l’économie

L’ADEME dresse un état des lieux des marchés et des emplois concourant à la transition énergétique. En premier lieu, l’agence évalue  le marché de la transition énergétique dans les transports. Pour cela, elle considère les infrastructures et équipements alternatifs à la voiture individuelle (ferroviaires, transports collectifs routiers, vélos urbains), les véhicules particuliers électriques, hybrides non rechargeables et neufs de classe A (dont les émissions sont inférieures ou égales à 100 g CO2/km). Ces marchés ont presque été multipliés par 4 en 11 ans. Ils atteignaient 33,5 milliards d’euros en 2017 et la filière employait plus de 94 000 équivalents-temps-plein (ETP). Malgré ces bons chiffres, en 2017, le marché de l’électrique représentait à peine plus de 1,2 % des immatriculations de véhicules neufs.

Les marchés de la transition énergétique en croissance

Pour évaluer l’ampleur de la transition dans les bâtiments résidentiels, l’agence prend en compte  le remplacement d’appareils de chauffage énergivores par des appareils plus performants, ainsi que la rénovation du bâti qui regroupe les activités d’isolation des parois opaques, de remplacement des ouvertures (portes et fenêtres), et l’installation d’appareils de Ventilation Mécanique Contrôlée (VMC).  « Les marchés de la rénovation énergétique des bâtiments ont augmenté de 79 % entre 2006 et 2017, représentant désormais un chiffre d’affaires d’environ 31 milliards d’euros. Dans cette même période, le volume d’emplois s’accroît d’environ 59 %, s’établissant à plus de 218 000 ETP« , révèle l’ADEME.

L’agence a enfin évalué le marché des énergies renouvelables et de récupération. Celui-ci a plus que doublé entre 2006 et 2017, avec une augmentation de 39 % des emplois. Le chiffre d’affaires représentait 26 milliards d’euros en 2017 et le secteur employait plus de 86 000 ETP. Les activités de pompes à chaleur domestiques, de bois énergie domestique, de l’éolien et de l’hydroélectricité ont généré la majorité des emplois.

Selon l’ADEME, les marchés du bâtiment et des transports sont surtout stimulés par la conception et l’installation des équipements et infrastructures. Cette partie du travail représente 72 % de l’activité dans les transports et 90 % dans le bâtiment résidentiel. Elle revêt cependant un caractère plus faible dans les énergies renouvelables, où elle couvre seulement 30 % du marché. La vente d’énergies et la maintenance des équipements représentent à eux deux 63 % des gains.

Les balances commerciales en question

La France possède de grands constructeurs automobiles. Grâce aux exportations de véhicules particuliers neufs de classe A, la balance commerciale du marché des transports est excédentaire :1,9 milliard d’euros. A l’opposé, la France importe beaucoup plus d’appareils électroménagers performants qu’elle n’en exporte. La France n’a pas su développer de réelle filière d’électroménagers performants. Cette dernière n’employait que 8.175 personnes en 2016, Résultat : le marché du bâtiment résidentiel est déficitaire d’1,9 milliard d’euros.

Enfin, le déficit de la balance commerciale du marché des énergies renouvelables se creuse : 0,7 milliard d’euros en 2017. L’ADEME le met en lien avec la forte hausse des installations éoliennes. Tout comme l’électroménager performant, les éoliennes sont fortement importatrices d’équipements. Les espoirs se tournent vers les implantations récentes et à venir d’usines en France, , notamment pour l’éolien en mer. Elles pourraient venir en partie réduire les importations.

L’ADEME suggère une opportunité : « développer l’économie circulaire, en favorisant le reconditionnement de l’électroménager performant, ou l’allongement de la durée de vie des éoliennes« .  Le gouvernement travaille justement sur le projet de loi anti-gaspillage pour une  économie circulaire. Il prévoit notamment l’ajout, à partir de 2021, d’un indice de réparabilité sur les produits. Le texte devrait être examiné au Sénat à la rentrée.

Vers un meilleur contrôle de la formation de la glace

Certains insectes, poissons ou bactéries, ont développé des systèmes leur permettant de se protéger du gel ou au contraire d’utiliser la glace pour attaquer leurs ennemis. Ces systèmes s’appuient sur la production de protéines nucléant la glace (INP) ou de protéines antigel (AFP pour antifreeze protein).

On savait que les INP sont généralement volumineuses, qu’elles forment des agrégats dans la membrane cellulaire et qu’elles permettent d’initier la nucléation de la glace à des températures plus élevées alors que les protéines antigel des insectes (AFP) sont solubles et généralement petites. Cependant, on n’était pas capable de quantifier et comprendre finement ces processus. Une avancée importante a été faite en ce sens grâce aux travaux de chercheurs de l’Université de l’Utah parus dans le journal de l’American Chemical Society (ACS). Ces travaux permettent de prédire la température à laquelle une bactérie va initier la nucléation de la glace en fonction du nombre de protéines de nucléation dont elle dispose. Une donnée clé qui peut aider à mieux comprendre certains phénomènes météorologiques et certains processus au sein des nuages pour prévoir les précipitations. En effet, si aux hautes altitudes, ce sont principalement les suies et les poussières qui déclenchent la nucléation dans les nuages et éventuellement les précipitations, à basse altitude, à des températures plus chaudes, ce sont les bactéries qui jouent ce rôle.

La bactérie qui gèle les plantes

Pseudomonas syringae (Ps. Syringae) est une bactérie qui a la particularité de faire nucléer la glace pour induire des dommages chez ses hôtes. Pour cela elle utilise des protéines qui favorisent la formation de glace. Rappelons que l’eau pure ne se transforme pas forcément en glace spontanément à son point de fusion 0°C mais qu’en raison de phénomènes de surfusion, il est courant qu’elle ne change de phase qu’à des températures de l’ordre de -35°C à pression normale. Ce sont les impuretés qui font ordinairement geler la glace à son point de fusion 0°C.

Les impuretés naturellement contenues dans l’eau qui circule sur Terre sont un point d’appui sur lesquels le réseau cristallin de la glace va se former ; c’est le phénomène de nucléation. Ps. Syringae utilise cette propriété pour accélérer la formation de glace : elle produit des protéines qui se lient aux cristallites de glace naissants et qui favorisent le recrutement de nouvelles molécules d’eau dans le réseau cristallin. Ces protéines peuvent aussi s’agréger pour renforcer ce pouvoir de nucléation. Cette famille de protéines désignées sous le terme d’INP peut être si efficace qu’elle peut former de la glace à des températures de -2°C là où elle se formerait à -35°C. Une entreprise américaine (Snomax International) commercialise d’ailleurs un additif contenant Ps. Syringae pour booster des canons à neige.

Les protéines antigel, de leur côté, fonctionnent aussi en se liant à la glace. Mais, elles donnent à la glace une surface incurvée qui inhibe le recrutement de molécules d’eau supplémentaires et qui nécessite des températures encore plus froides pour que la glace se forme. Contrairement aux INP qui sont grandes, volumineuses et qui s’agrègent, les protéines antigel sont petites, solubles et solitaires.

Une taille critique

Les chercheurs ont déterminé que les protéines antigel et les INP se lient à la glace avec une force sensiblement égale. Grâce à un ensemble de simulations des interactions moléculaires entre les molécules d’eau et les protéines antigel (TmAFP de 2,5 nm de longueur) agissant sur la nucléation, ils ont pu déterminer que les protéines antigel ne protégeaient plus de la nucléation à une température de l’ordre de -33°C ± 1 ° C (ce qui correspond aux données expérimentales). Ils ont ensuite allongé ces protéines avec des boucles de liaison à la glace, ce qui a augmenté la température de nucléation. Après une certaine longueur, on atteint un plateau, mais on n’atteint jamais les performances de Ps. Syringae. Ces simulations ont servi de base pour le calcul d’autres simulations, cette fois avec les INP de Ps. Syringae. Les chercheurs ont ainsi prédit, en fonction de la longueur et du nombre de protéines dans les agrégats, qu’il faut atteindre au moins 34 INP pour que la température de nucléation remonte à -2°C. En outre, les chercheurs ont observé qu’il faut aussi que la distance entre les protéines dans les agrégats soit optimale pour atteindre une congélation maximale. Ce qui implique que les bactéries exercent d’une manière ou d’une autre un contrôle subtil entre la distance entre les INP dans leur membrane pour ajuster la température de nucléation.

Ces résultats ouvrent la voie à la conception de nouvelles protéines ou matériaux synthétiques qui initient la nucléation de la glace à une température donnée.

Les forêts tropicales perdent de plus en plus leur carbone

Avec de nombreux instituts internationaux, des chercheurs de l’Inra, du CEA, du CNRS et du CNES ont suivi l’évolution des stocks de carbone des forêts tropicales par satellite. Plus précisément, ils se sont intéressés à l’évolution des stocks de carbone dans la biomasse végétale aérienne (située au dessus du sol et ne comprenant donc pas les racines) au niveau de l’ensemble de la zone tropicale, entre 2010 et 2017. Ils ont ensuite pu comparer  les variations interannuelles à la concentration atmosphérique en CO2.

Résultat : la biomasse aérienne produite a été presque intégralement compensée par les pertes liées à la déforestation et au dépérissement dû au réchauffement climatique, notamment du fait d’épisodes El Niño. « Ces régions tropicales, autrefois puits de carbone dans la biomasse aérienne, deviennent globalement neutres, alerte l’INRA. Elles pourraient même devenir une source de carbone atmosphérique dans un proche avenir, accélérant ainsi le réchauffement global ». L’étude met en avant la forte corrélation entre les variations des stocks de biomasse aérienne et les variations de la concentration atmosphérique en CO2 de l’atmosphère. Cela confirme le rôle central de la biomasse végétale des écosystèmes tropicaux dans le cycle du carbone à l’échelle planétaire.

Des forêts qui ne jouent plus leur rôle de puits de carbone

Là où les forêts tropicales sont préservées, elles continuent à jouer leur rôle de puits de carbone. C’est notamment le cas des forêts au centre des bassins d’Amazonie et du Congo. Au total, la biomasse aérienne des forêts tropicales stocke environ 2,97 milliards de tonnes de carbone par an. Mais les pertes de carbone, en lien avec  la déforestation et le dépérissement lié au réchauffement climatique, annulent presque intégralement cet effet positif. L’événement El Niño survenu entre 2015 et 2016 a notamment causé une baisse drastique de la capacité de stockage de carbone des forêts tropicales, relèvent les chercheurs. Les pertes globales de biomasse aérienne des forêts tropicales sont ainsi estimées à 2,86 milliards de tonnes de carbone par an.

En fin de compte, le bilan carbone de la biomasse aérienne des forêts tropicales s’établit à un stockage de 110 millions de tonnes de carbone par an sur la période 2010-2017. Il compense ainsi seulement environ 1 % des émissions de gaz à effet de serre d’origine humaine.

Une situation grave qui pourrait s’empirer

L’accélération de la déforestation et des impacts du réchauffement climatique risque de diminuer d’autant plus vite le potentiel des régions tropicales à piéger le carbone. « Nous traversons une étape de transition, au cours de laquelle les régions tropicales ont basculé du rôle de puits de carbone vers un rôle quasi neutre qui préfigure peut-être une future phase au cours de laquelle ces mêmes régions deviendraient une source de carbone atmosphérique, accélérant ainsi le réchauffement global », craint l’Inra.

La situation risque même de s’empirer rapidement. L’Amazonie connait actuellement ses taux de déforestation les plus élevés depuis dix ans. L’Institut national de recherche spatiale (INPE) brésilien, estime que la déforestation s’est élevée à 2.254 km2 en juillet 2019, contre 567 km2 en juillet 2018. Soit une  augmentation de 278 % sur un an.

L’INRA laisse toutefois entrevoir une lueur d’espoir. « Cette étude ne permet pas d’estimer le changement des stocks de carbone dans le sol ou dans la biomasse racinaire durant cette période, et constitue donc un bilan partiel du carbone« , note l’institut.

107 nouveaux projets de centrales solaires au sol en construction

L’appel d’offres CRE4 lancé en 2016 vise le déploiement de 3000 MW de centrales solaires au sol d’ici fin 2019. Pour cette nouvelle tranche de 853 mégawatts crête (MWc), les 107 lauréats bénéficient d’un tarif de rachat garanti par l’Etat de l’électricité produite à 64 € par mégawattheure (MWh) en moyenne. C’est 2% de plus que lors de l’appel d’offres précédent. Dans le détail, le tarif s’élève à  67,5 €/MWh pour les installations de puissance comprise entre 500 kilowatts crête et 5 MWc et à 59,5 €/MWh pour les installations dont la puissance dépasse 5 MWc. Il atteint 88,3 €/MWh pour les installations sur ombrières de parking.

En janvier dernier, le ministre de la transition écologique et solidaire François de Rugy avait annoncé le déplafonnement du seuil de 30 MWc imposé aux projets solaires dans les appels d’offres. Cette mesure est circonscrite aux seules installations situées sur des terrains dégradés. Une première installation de 32,37 MWc portée par Engie bénéficiera de ce déplafonnement en Gironde. Porté par la société ENGIE PV HAZIA 1, le parc  se situera  au lieu-dit « le Hazia », à 50 km au sud de Bordeaux, sur une ancienne plate-forme de stockage de bois.

Des projets solaires sur l’ensemble du territoire

Les projets sont répartis sur tout le territoire français grâce à des bonus octroyés en cas d’installation sur des terrains dégradés, comme une friche industrielle, une ancienne carrière, ou un ancien aérodrome. Ainsi,  44% des projets sont situées en dehors des quatre régions du sud de la France.

Parmi les lauréats, 58% des projets se sont engagés à impliquer des citoyens et des collectivités en pratiquant l’investissement ou le financement participatif. « Ces projets verront leur prime majorée », fait savoir le gouvernement.

« Ces 107 nouveaux projets sont équivalents à près de 10% de la capacité de production installée aujourd’hui de solaire photovoltaïque« , rappelle  Elisabeth Borne. En effet, la capacité de production du parc solaire photovoltaïque s’élève actuellement à 9,1 gigawatts (GW). La programmation pluriannuelle de l’énergie (PPE) vise un objectif de 20.6 GW en 2023 puis entre 35.6 et 44.5 GW en 2028. Les panneaux au sol devront y contribuer à hauteur de 11,6 MWc en 2023 et entre 20,6 et 25 MWc en 2028. Le reste sera fourni par des panneaux sur toitures.

Le mystère de l’élasticité des gels enfin élucidé

Les gels sont des matériaux particuliers. On les considère comme des matériaux semi-solides, car ils se comportent comme des fluides, mais contiennent également une forte proportion de particules solides. Bien que mal compris, ces matériaux sont pourtant partout : dentifrice, yaourt, produits cosmétiques, pharmaceutiques, etc.

Le comportement étrange des gels

Quand on examine un gel au microscope, on s’aperçoit que les particules solides qu’ils contiennent forment un réseau, exactement comme la structure d’un bâtiment. Si vous désirez étaler ce gel, il vous faudra écraser son squelette solide. Les gels plus fluides ont ainsi un module élastique faible, car la force à appliquer pour casser la structure est réduite, alors que les gels plus rigides demandent une force plus grande pour redevenir fluides.

Les agglomérats de particules seraient en cause

On sait donc partiellement pourquoi les gels sont élastiques : c’est leur microstructure qui en est responsable. Cependant, les scientifiques n’ont jamais su expliquer comment ces structures s’arrangent. C’est donc tout l’intérêt de la découverte de cette équipe de chercheurs appartenant aux prestigieuses universités américaines du Delaware, du Massachusetts Institute of Technology, de Caroline du Nord et du Michigan : l’élasticité des gels serait due à la présence d’agglomérats de particules qu’ils ont baptisés “locally glassy clusters”.

Une étude concernant les gels acryliques

L’étude publiée dans le magazine Nature concernait un gel fabriqué à partir de particules de polyméthacrylate de méthyle (PMMA), dispersées dans un mélange de cyclohexane et de bromocyclohexane. Ils ont ainsi découvert que ce gel était composé d’agglomérats vitreux de particules, connectées entre elles et séparées par des zones fragiles. L’équipe de scientifiques a donc cherché à déterminer les limites de ces chaînes d’agglomérats afin de mieux les comprendre. Les chercheurs ont utilisé des simulations numériques et appliqué la théorie des graphes pour comprendre les connexions entre agglomérats. Ils ont ensuite comparé ces résultats à des études physiques, ce qui leur a permis de confirmer leurs prédictions : l’agencement de ces agglomérats détermine le module élastique du gel.

Une découverte industriellement exploitable

Les entreprises qui formulent et vendent des matériaux sous forme de gel sont nombreuses. Néanmoins, elles rencontrent fréquemment des difficultés à créer des produits stables, dont la rigidité reste constante. Ainsi, de nombreux produits du quotidien vendus comme des gels ont souvent tendance à revenir vers un état liquide sans que les industriels sachent expliquer pourquoi. L’équipe de scientifiques américains espère ainsi que les résultats de leur récente étude aident les ingénieurs à formuler des agglomérats de particules de granulométrie maîtrisée afin de mieux contrôler la coulabilité, la dureté et la stabilité des gels.

Au plus froid des périodes glaciaires, des étés « chauds » faisaient fondre massivement les calottes de glace.

Ces « étés glaciaires » auraient occasionné d’importants épisodes de fonte des calottes de glace. Les apports gigantesques en eau douce ainsi générés auraient provoqué un ralentissement de la circulation océanique et impacté le climat de l’époque.
C’est ce que suggère l’étude de chercheurs de l’Ifremer, menée en collaboration avec des collègues de l’Université de Columbia, sur l’avant-dernière période glaciaire. Elle vient d’être publiée dans la revue Geology.

La découverte a été faite grâce à une carotte de sédiments prélevée dans l’Atlantique nord-est au large de Brest. Celle-ci contient des sédiments datant de 154 à 158 milliers d’années, déposés lors de l’avant-dernière période glaciaire qui a sévit il y a 130 à 190 milliers d’années. Le nord de l’Europe était alors recouvert d’une imposante calotte glaciaire et Homo Sapiens ne comptait qu’une centaine de milliers d’individus.

« À l’intérieur de cette carotte, nous avons retrouvé de graviers caractéristiques d’une période très froide dite de Heinrich, explique Samuel Toucanne, géologue au centre Ifremer de Brest. Charriés par les icebergs, ces morceaux de roche proviennent de l’ensemble des glaciers qui entouraient alors l’Atlantique nord, des Etats-Unis jusqu’aux îles britanniques ».

Mais l’équipe a également étudié de plus près les sédiments plus fins accumulés autour des graviers.«En analysant les isotopes en néodyme de ces sédiments fins, nous avons découvert qu’ils ne pouvaient provenir que d’Europe de l’est, au niveau du Danemark, de l’Allemagne et de la Pologne, précise Samuel Toucanne. Or à cette époque, une calotte de glace recouvrait cette zone terrestre. Sans contact avec la mer, elle n’a pas pu produire d’icebergs ». Comment alors ces sédiments fins ont-ils été transportés jusqu’au large de Brest ?

« La seule explication possible est que la calotte glaciaire qui recouvrait l’Europe du nord ait en partie fondue, l’eau de fonte entrainant via le fleuve Manche les sédiments jusque-là », propose Samuel Toucanne.

Des étés plus chauds que supposés

Ce mélange de dépôts sédimentaires témoins pour les uns d’une période particulièrement froide, et pour les autres d’un redoux, a conduit les chercheurs à élaborer une nouvelle hypothèse : « nous suggérons, contrairement à ce que l’on pensait, que même lors des périodes les plus froides des périodes glaciaires, il existait une forte saisonnalité, avec des hivers très froids et des étés courts mais suffisamment chauds sur le continent pour faire fondre des surfaces importantes de la calotte glaciaire ».

Une débâcle massive d’icebergs enfin expliquée ?

Cette hypothèse expliquerait également les débâcles massives d’icebergs enregistrées lors de ces périodes très froides dites de Heinrich et qui restaient jusque-là énigmatiques. « L’apport massif d’eau douce en provenance du glacier terrestre, lors des étés, aurait ralenti la circulation océanique globale et limité le mélange des eaux, explique le scientifique. La couche d’eau comprise entre 0 et 1500 mètres de profondeur se serait alors réchauffée. Sa propagation vers le nord aurait été suffisante pour déclencher d’une part la fonte des épaisses langues glaciaires qui baignent dans cette tranche d’eau, et d’autre part produire les icebergs à l’origine du dépôt des graviers retrouvés jusque dans l’Atlantique nord-est.

Une théorie qui force à revoir notre compréhension des climats passés

Si l’origine des grandes périodes de glaciation est liée à des cycles naturels très longs (de 20 000 à 400 000 ans), les changements climatiques ici étudiés portent sur des temps très courts. « On ne peut donc pas expliquer cette « saisonnalité » par des variations de l’insolation de la Terre dues à des modifications de l’orbite ou de l’axe de la Terre comme pour les glaciations », explique Samuel Toucanne. Leur origine est encore en débat au sein de la communauté scientifique.

Néanmoins, « cette nouvelle hypothèse invite à revoir certaines études sur les paléoclimats, car l’impact de la saisonnalité dans les périodes glaciaires y est sous-estimé, préconise Samuel Toucanne. Cela nous aidera à affiner notre compréhension des relations entre les calottes glaciaires, l’atmosphère et les océans ». Et d’ajouter : « la compréhension de ces phénomènes passés est essentielle pour nous aider à mieux appréhender ceux à venir dans un contexte de changement climatique ».

Les résultats de leur recherche ont été publiés dans le numéro de juillet de la revue Geology.

Source : Ifremer

L’Anses lance un appel pour évaluer la cancérogénicité du glyphosate

Une nouvelle étude au sujet du glyphosate est sur le point de voir le jour. À la demande du gouvernement, l’Agence nationale de sécurité sanitaire, de l’alimentation, de l’environnement et du travail (Anses) lance un appel à candidature pour financer une étude qui sera en charge d’évaluer la cancérogénicité du glyphosate. La sollicitation est adressée aux équipes de recherche publiques nationales et internationales.

Cet appel arrive quelques mois après la désignation de la France, aux côtés de la Hongrie, des Pays-Bas et de la Suède, par l’Union européenne à faire partie d’un comité technique sur les produits phytosanitaires. Par ailleurs, les résultats de l’étude française viendront compléter en 2022 le dossier de réexamen de l’autorisation du glyphosate par les États membres.

Des avis européens divergents sur la question du glyphosate

Cette décision fait suite à la restitution, début juillet, d’un avis relatif à un cahier des charges d’une étude sur le potentiel risque cancérogène du glyphosate aux ministères de l’Écologie, de la Santé et de l’Agriculture. Le 28 mars 2018, les quatre ministres – intégrant celui du ministère de la Recherche – avaient saisi l’Anses compte tenu des avis divergents rendus par différentes agences concernant le glyphosate.

Or, toutes ces informations contradictoires proviennent d’organismes faisant figure de références. Le Centre internationale de recherche sur le cancer (CIRC) avait été le premier en 2015 à considérer le glyphosate comme cancérigène probable. Huit mois plus tard, l’Autorité européenne de sécurité des aliments (Efsa) avait quant à elle affirmé qu’il était « improbable » que la substance soit cancérigène. Un avis confirmé par l’Agence européenne des produits chimiques (ECHA) en 2017.  En France, l’Anses partage l’avis de ces deux agences européennes.

Le gouvernement de nouveau méfiant à l’égard du glyphosate

L’étude qui devrait rendre des résultats dans 18 mois – soit en 2021 – sera financée à hauteur de 1,2 million d’euros grâce aux fonds du plan Écophyto. Ce plan gouvernemental  a pour objectif de réduire de 50% l’utilisation de produits phytosanitaires d’ici 2025, et de sortir du glyphosate d’ici fin 2020 pour ses principales utilisations, puis de l’interdire totalement à l’horizon 2022. Pour rappel, l’Union européenne avait renouvelé pour cinq ans la licence du glyphosate en Europe en 2017.

En France, le gouvernement a demandé à l’Anses de procéder, avec l’appui de l’Institut national de la recherche agronomique (INRA), au retrait de l’autorisation de mise sur le marché des produits contenant du glyphosate lorsque des alternatives qui l’évitent existent. Après avoir parfois adopté des positions ambiguës sur la question du glyphosate, la demande du gouvernement à l’Anses rappelle « l’engagement présidentiel de sortir du glyphosate ».

La DGCCRF appelle à la vigilance sur les offres d’isolation à 1 euro

La Direction générale de la Concurrence, de la Consommation et de la Répression des fraudes (DGCCRF) appelle à la vigilance sur les offres d’isolation à 1 euro. Les nombreuses plaintes font suite à du démarchage téléphonique frôlant le harcèlement, «  jusqu’à vingt appels par jour« , relève la DGCCRF. Les entreprises vont jusqu’à se faire passer pour des entreprises mandatées par des organismes officiels. Et elles cherchent à faire peur à leurs prospects : elles parlent de travaux d’économie d’énergie obligatoires, sous peine de payer une taxe carbone ou « autres pénalités environnement« .

Ces affirmations sont évidemment trompeuses. Pour motiver la personne au bout du fil, les entreprises mettent en avant le fait qu’elle n’aura qu’à acquitter une somme de 1 euro. Le solde serait pris en charge par un certificat d’économie d’énergie (CEE). Ce dispositif permet en effet des aides bonifiées pour plusieurs types de travaux, notamment l’isolation des combles perdus à 1 euro. Mais les entreprises oublient de dire que cette offre est soumise à conditions, notamment selon la nature des travaux et selon les revenus des ménages. « L’aide apportée est de 20 euros par mètre carré pour les ménages modestes et de 10 euros par mètre carré pour les autres ménages« , rappelle la DGCCRF. Pour que le ménage soit éligible aux aides, l’entreprise qui fait les travaux doit être signataire de la charte « Coup de pouce » du Ministère de la Transition écologique et Solidaire. Elle doit aussi être qualifiée « RGE » (Reconnu Garant de l’Environnement).

Des travaux mal faits et plus chers que prévu

Si le client accepte l’offre par téléphone, ses coordonnées sont immédiatement transmises à une société de travaux. Le stratagème est bien ficelé : « les salariés se présentent rapidement, parfois dès le lendemain« , note la DGCCRF.

Une fois le contrat signé, le piège se referme. « Les contrats conclus avec les consommateurs ne respectent pas les dispositions du code la consommation : formalisme du contrat non conforme, absence de bordereau de rétractation, perception immédiate du paiement, absence de qualification professionnelle« , résume la DGCCRF.

De surcroît, les travaux sont souvent mal faits. « Les matériels utilisés et installés peuvent être non conformes aux normes en vigueur, ajoute la Direction de la répression des fraudes. De nombreuses plaintes font état de malfaçons qui peuvent conduire à refaire des travaux d’isolation, aux frais du client, le certificat d’économie d’énergie n’étant délivré qu’une seule fois.« 

4 règles d’or pour éviter les arnaques

Pour éviter les mauvaises surprises, les professionnels donnent 4 conseils simples à suivre. Le premier est de ne jamais donner suite aux démarchages téléphoniques.. Il convient de fuir les entreprises qui se disent mandatées par des organismes publics ou qui font planer la menace de pénalités. Il faut ensuite exiger une visite technique préalable sur place pour vérifier la faisabilité du chantier, les conditions d’accessibilité et les éléments sensibles en termes de sécurité. Puis, la société doit vous donner un devis et vous accorder un délai de rétractation de 14 jours. Cela vous permettra de vérifier les données administratives de l’entreprise et sa qualification RGE. Un dernier conseil  : « lire attentivement les dispositions figurant en petits caractères« , rappelle la DGCCRF.

L’Agence départementale d’information sur le logement (Adil) ou le réseau FAIRE, service public de la rénovation énergétique, renseignent les ménages sur les aides publiques en matière d’isolation et peuvent fournir un accompagnement technique. Si une entreprise ne respecte pas ses obligations lors de la conclusion du contrat ou fait obstacle au droit de rétractation, la DGCCRF appelle les personnes lésées à contacter la direction départementale de la protection des populations (DDPP) ou la direction départementale de la cohésion sociale et de la protection des populations (DDCSPP) où l’entreprise est installée.

La découverte de 39 galaxies invisibles questionne nos théories sur l’évolution de l’Univers

Une équipe internationale publie une étude dans Nature, le 8 août 2019, révélant l’existence de 39 galaxies invisibles, dites « noires ». Elles constituent le chaînon manquant de l’évolution entre deux populations de galaxies déjà connues : les nombreuses galaxies jeunes et visibles de l’Univers lointain d’une part, et les galaxies « mortes » très massives et moins lointaines d’autre part. À masse égale, les galaxies noires sont dix fois plus abondantes et forment jusqu’à cent fois plus d’étoiles que la première population ! Elles témoignent d’un événement majeur dans l’histoire des galaxies et permettent notamment d’élucider l’origine des galaxies dites « massives », dont les descendantes sont aujourd’hui des galaxies « mortes », ne formant plus de nouvelles étoiles.

Ces galaxies noires parmi les plus massives de l’Univers jeune1 sont dix fois plus nombreuses que celles observées jusque-là en lumière visible avec le télescope spatial Hubble et sont, selon les chercheurs, les ancêtres des galaxies elliptiques2 plus massives encore que notre Galaxie. En effet, « ces galaxies détectées par Alma3 constituent probablement la première population de galaxies elliptiques massives formées dans l’Univers jeune », explique David Elbaz, astronome du CEA au laboratoire AIM (Université Paris Diderot/CEA/CNRS) et coauteur de la publication, « mais il y a un problème. Elles sont étonnamment abondantes ». En effet, 90 % des galaxies massives datant du premier milliard d’années après le Big Bang formèrent leurs étoiles de manière totalement invisible au télescope Hubble.

Cette découverte de l’équipe internationale est surprenante. Elle révèle que l’Univers a été capable en moins d’un milliard d’années de donner naissance à des galaxies aussi massives que la Voie lactée. En revanche, il paraît très compliqué d’expliquer, avec les modèles actuels, comment l’Univers a créé avec une très grande efficacité ces galaxies. Cela ouvre les portes de la compréhension des premiers milliards d’années de l’histoire de l’Univers.

Quatre des galaxies noires découvertes grâce au télescope ALMA et leurs positions dans une image Hubble. @CEA

Des galaxies massives dans d’épais nuages de poussière

Avant d’identifier ces galaxies noires, les chercheurs avaient d’abord remarqué la présence de sources de lumière dans l’infrarouge moyen sur les images du satellite Spitzer, dans des régions où les images de Hubble étaient complètement vides. Malheureusement la faible résolution spatiale du télescope spatial Spitzer ne permettait pas d’identifier ces tâches lumineuses.

Le télescope Alma, télescope le plus puissant au monde, basé au Chili dans le désert d’Atacama et composé d’une cinquantaine antennes radio de 12 mètres de diamètre, a permis, en moins de deux minutes, de percer le mystère des tâches de lumière. Avec une qualité d’image à très haute résolution spatiale grâce à la technique d’interférométrie4 et sa capacité d’analyse du rayonnement de la poussière d’étoiles, Alma a détecté ces galaxies très éloignées, enveloppées de poussière interstellaire qui produit un effet d’écrantage en lumière visible et les rend invisibles.

L’abondance de la poussière interstellaire est caractéristique de ces galaxies massives d’époques reculées. La poussière absorbe le rayonnement ultraviolet émis par les étoiles et réémet de la lumière dans l’infrarouge lointain qui est décalée jusqu’aux ondes submillimétriques par l’expansion de l’Univers. La recherche de ces galaxies avait jusqu’à présent échoué car elle reposait essentiellement sur des images dans le domaine visible ou proche infrarouge, où ces galaxies sont totalement invisibles. L’abondance de poussière interstellaire très supérieure à ce que prévoient les modèles représente également un nouveau défi à expliquer pour les astrophysiciens.

Cette figure montre la visibilité de cinq des 39 galaxies noires découvertes au télescope Hubble (première ligne), au télescope Spitzer (deuxième ligne) et au télescope ALMA (troisième ligne). @Nature

 

¹L’Univers jeune est la période qui s’est écoulée entre quelques centaines de millions d’années et deux milliards d’années après le Big Bang.

²Une galaxie elliptique est une galaxie de forme ellipsoïdale, dite « morte », car elle ne forme plus de nouvelles étoiles.

³Atacama Large Millimeter Array

4 L’interférométrie est une technique consistant à combiner les images de plusieurs télescopes pour obtenir un gain majeur en précision (résolution angulaire).

Références
A dominant population of optically invisible massive galaxies in the early Universe, T. Wang, C. Schreiber, D. Elbaz, Y. Yoshimura, K. Kohno, X. Shu, Y. Yamaguchi, M. Pannella, M. Franco, J. Huang, C.-F. Lim & W.-H. Wang, Nature, 8 août 2019, DOI : 10.1038/s41586-019-1452-4

Source : cea

Le bisphénol S pourrait être encore plus nocif que le bisphénol A

Choisi par les industriels pour remplacer le bisphénol A dans certains produits en plastique depuis 2012, le bisphénol S aujourd’hui inquiète. Ce composé chimique est notamment utilisé dans les revêtements intérieurs des canettes et boîtes de conserve, dans les tickets de caisse, les bouteilles d’eau, ou encore les récipients pour micro-ondes. Selon une étude menée par des chercheurs de l’École nationale vétérinaire de Toulouse (ENVT) et du laboratoire Toxalim (ENVT, INRA, Toulouse INP Purpan, UT3 Paul Sabatier) et publiée dans la revue Environmental Health Perspectives, la persistance du BPS dans l’organisme serait plus grande que celle du BPA.

Le bisphénol S testé et analysé sur les cochons

Les résultats des travaux indiquent donc que la quantité de bisphénol S qui passe dans la circulation sanguine est environ 100 fois supérieure à celle du bisphénol A. Ainsi, 57% du BPS ingéré passe dans le sang, contre 0,5% pour le bisphénol A. Les analyses ont été réalisées sur des porcelets car les fonctions gastro-intestinales de ces animaux ressemblent fortement à celles des humains. « À cause des propriétés œstrogéno-mimétiques du BPS comparables à celles du BPA, c’est-à-dire en mimant les effets des œstrogènes, le remplacement du BPA par le BPS conduit ainsi à multiplier par 250 les concentrations dans le sang d’une substance hormonalement active » explique Véronique Gayrard, professeure à l’ENVT.

Pour les besoins de l’étude, les animaux se sont vus administrer du bisphénol S par injection ou par voie orale. Dans le second cas, ils ont pu recevoir jusqu’à 5 grammes de BPS par kilo. Les résultats sont alarmants. L’intégralité du BPS est absorbé par l’organisme contre 77% pour le BPA. 41% du bisphénol S est excrété après un passage par le foie et les intestins contre 50% pour le bisphénol A. Enfin, le BPS met 3,5 fois plus de temps que le BPA à ne plus être détectable dans le sang. Notons néanmoins que cette dose est très largement supérieure à ce que permet actuellement la réglementation en vigueur pour les objets en plastique. Normalement, le taux d’absorption maximal par les aliments doit être de 0,05 mg par kilo.

Des perturbations endocriniennes toxiques pour la santé

En tant que composé hormonalement actif, le bisphénol S est un perturbateur endocrinien, qui pourrait avoir des effets importants sur la santé. Des études canadiennes et américaines menées entre 2013 et 2017 ont démontré que le BPS stimule les cellules cancéreuses, notamment dans le cas du cancer du sein, qu’il rendrait plus agressif. Et des chercheurs de l’Université du Texas ont prouvé que le bisphénol S active les récepteurs aux œstrogènes des membranes plasmiques. De fait, l’hypothèse de l’innocuité du BPS semble peu probable. Une autre étude américaine a démontré quant à elle que la bisphénol S avait des effets néfastes sur les capacités reproductives des souris. Chez les femelles, le BPS favorise le développement d’ovocytes chromosomiquement anormaux.

D’autres scientifiques ont démontré que le BPS représente aussi des risques pour l’homme. Chez les enfants, le bisphénol S favoriserait les risques d’obésité. Une étude réalisée par la faculté de médecine de l’Université de New-York (NYU School of Medicine) sur 1831 enfants âgés de 6 à 19 ans met en avant une corrélation entre exposition au bisphénol S et obésité. « Cette recherche est importante parce que l’exposition à ces produits chimiques est très courante. L’utilisation de bisphénol S est en augmentation parce que les fabricants remplacent le BPA par ces éléments, ce qui contribue au risque d’exposition. Remplacer le bisphénol A par des éléments similaires n’atténue en rien les méfaits d’une exposition aux produits chimiques sur notre santé » avertit Melanie Jacobson, auteure de l’étude.

Des tests sur la dangerosité du bisphénol S à venir en Europe

Face à ces découvertes pessimistes, Véronique Gayrard tient tout de même à rappeler ce que les analyses des chercheurs toulousains a permis de mettre en évidence. « Nous évaluons l’exposition à ces produits, le devenir de ces substances dans l’alimentation, mais pas sa dangerosité sur la santé. Mais bien que les données toxicologiques soient encore insuffisantes pour évaluer le danger associé, ces résultats pourraient permettre d’éviter une substitution regrettable » explique-t-elle. De plus, l’Agence nationale de sécurité sanitaire (Anses) rappelle qu’aujourd’hui il n’est « pas possible de conduire une évaluation des risques sanitaires liés à une utilisation de ces composés dans des produits de consommation, ce qui doit inciter à la plus grande prudence en matière de substitution par ces composés ».

Mais la réponse à ces interrogations pourrait arriver dans les prochaines années. En janvier 2019 a été lancé un projet européen coordonné par l’Institut national de la santé et de la recherche médicale (Inserm) nommé OBERON. L’objectif de ce programme est de développer les tests afin d’identifier le plus fidèlement possible les perturbateurs endocriniens dans les bisphénols. Ceci est d’autant plus crucial que les dangers liés au bisphénol S semblent se retrouver également dans le bisphénol F. « Ces tests sont notamment axés sur les effets de ces potentiels perturbateurs endocriniens sur le système métabolique et permettent de préparer la validation des tests plus prometteurs, à l’échelle européenne » énonce Véronique Gayrard.

Déchets nucléaires : premier feu vert pour la piscine géante d’entreposage d’EDF

Suite à une expertise de l’IRSN et une consultation publique, le 23 juillet 2019, l’Agence de sûreté nucléaire (ASN) a rendu son avis relatif au projet de »piscine d’entreposage centralisé de combustibles usés ». Ce projet est porté par EDF en prévision de la saturation des piscines d’Orano (ex-Areva) à La Hague, dans la Manche, à l’horizon 2030. Bilan : « L’ASN considère que les objectifs généraux de sûreté et les options de conception retenues sont globalement satisfaisants, fait savoir l’agence dans un communiqué. Des études et justifications complémentaires sont cependant nécessaires, notamment concernant la conception et la maîtrise de la fabrication pour garantir, sur la durée, l’étanchéité de la piscine. » Cette annonce ne va pas manquer d’alimenter le débat public sur le Plan national de gestion des matières et déchets radioactifs (PNGMDR).

Rappelons qu’en sortie de réacteur nucléaire, les combustibles usés sont refroidis dans des bassins situés au sein de la centrale où ils ont servis. Ils sontensuite transportés et entreposés dans de grandes piscines d’Orano à l’usine de la Hague . Ils y demeurent en moyenne pendant 8 ans, avant d’être retraités pour être à nouveau utilisés ou être vitrifiés et stockés en attendant la construction du centre de stockage profond Cigéo.

Des mesures complémentaires à envisager

EDF devra préciser les options de sûreté retenues et fournir les études et justifications complémentaires dans sa demande d’autorisation de création. En particulier concernant sa capacité à assurer le remplacement des patins antisismiques et pour démontrer que l’installation pourra s’adapter aux évolutions des conditions climatiques et météorologiques non connues à ce jour.

L’entreprise devra aussi y préciser « les objectifs et les dispositions qu’elle prévoit à la conception en matière de protection contre les rayonnements ionisants des personnes et de l’environnement », note l’ASN. Si le site d’implantation n’a pas encore été retenu par EDF, dès lors que le choix sera arrêté, l’entreprise devra vérifier que « les niveaux d’aléas retenus pour les agressions externes sont appropriés ».

Une nouvelle piscine géante pour contrer la saturation à venir

La durée de fonctionnement de l’installation est prévue pour une centaine d’années à partir de 2030. Sa capacité d’entreposage s’élèvera à 10 000 tonnes de métal lourd, principalement des assemblages combustibles à base d’oxydes mixtes d’uranium et de plutonium (MOX) et à base d’uranium de retraitement (URE). Soit l »équivalent d’environ 21 000 assemblages combustibles, résume l’ASN.

La piscine serait constituée de deux bassins d’entreposage semi-enterrés, de capacité et de conception identique. Leur mise en service serait échelonnée d’une dizaine d’années. EDF envisage une structure de protection dimensionnée à une chute d’aéronef et un terminal ferroviaire pour éviter les manutentions intermédiaires. Elle projette enfin la séparation géographique et la redondance de chacun des deux trains de refroidissement de la piscine.

La sécurité alimentaire au défi du réchauffement: le rapport du Giec adopté

Les délégations des 195 pays membres du Giec étaient réunies depuis vendredi à huis clos en Suisse pour examiner ce rapport spécial des experts de l’ONU pour le climat consacré au « changement climatique, la désertification, la dégradation des sols, la gestion durable des terres, la sécurité alimentaire et les flux de gaz à effet de serre dans les écosystèmes terrestres ». En clair : comment le réchauffement climatique affecte les terres consacrées aux cultures, à l’élevage ou encore les forêts, et par ricochet la sécurité alimentaire, mais aussi comment les pratiques agricoles ou la déforestation agissent sur le climat.

Le Giec a finalisé les termes de ce rapport thématique « après une session finale marathon » vers 10H30 GMT ce mercredi, a tweeté Stephen Cornelius, de WWF.

L’examen ligne par ligne du « résumé à l’intention des décideurs politiques » du rapport complet d’environ 1.200 pages aurait dû s’achever mardi en fin d’après-midi, mais les discussions se sont prolongées lors d’une session finale d’adoption d’environ 28 heures.

Le résultat des débats menés par consensus, ce qui peut conduire à édulcorer certaines formulations, sera rendu public jeudi matin à Genève.

« Nous sommes très heureux que le rapport ait été approuvé », s’est réjouie Fernanda Carvalho du WWF.

Ce texte est essentiel car il souligne « que la façon dont nous utilisons les terres n’impacte pas seulement le climat, mais la capacité des terres à fournir les moyens d’existence aux gens, à la nature et à la biodiversité », a-t-elle ajouté.

– Alimentation vs climat ? –

AFP / FABRICE COFFRINILe sigle de l’Organisation mondiale de la météolorogie où se tient une réunion des experts de l’ONU sur le climat (Giec), le 2 août 2019 à Genève

Cette expertise scientifique, la plus complète à ce jour sur le sujet, fait le point sur l’état des terres, les impacts des changements climatiques actuels et à venir, mais aussi sur la façon dont la modification de l’usage des terres joue sur le climat.

Ses auteurs se sont aussi penchés sur le système alimentaire mondial, ses limites et l’évolution des régimes alimentaires, avec une consommation croissante de viande. Environ 820 millions de personnes souffrent de la faim, deux milliards d’adultes sont obèses ou en surpoids et 30% de la nourriture serait perdue.

Le rapport aborde également la lutte contre la désertification, le rôle des femmes et des communautés autochtones.

Derrière ce sujet complexe, qui touche à des domaines très divers – les conditions de vie de nombreuses personnes, la préservation des écosystèmes, les intérêts de puissantes industries agro-alimentaires et forestières – se niche une question fondamentale: comment nourrir une population qui pourrait atteindre 11,2 milliards d’individus en 2100 tout en contenant le réchauffement climatique à 1,5°C, objectif idéal de l’Accord de Paris sur le climat?

Comment y parvenir sans créer une compétition intense pour l’usage des terres et dégrader encore plus les écosystèmes, alors que les activités humaines ont déjà abîmé environ un quart des terres émergées non couvertes par des glaces?

Certains sont partisans de solutions fondées sur les bioénergies, c’est-à-dire les énergies produites à partir de bois, de produits agricoles ou de déchets organiques, et la technologie des BECCS, qui visent à produire de l’énergie tout en retirant du C02 de l’atmosphère.

D’autres acteurs mettent en garde contre le danger que représente l’usage de ces techniques à grande échelle, car elles nécessiteraient des surfaces terrestres importantes, qui ne pourraient plus être consacrées à l’agriculture et à l’élevage.

Ce sujet a constitué un des principaux points d’achoppement des discussions à Genève, selon des observateurs.

Ce rapport spécial fait suite à celui consacré à la faisabilité de l’objectif de 1,5°C, publié en octobre. Il avait secoué l’opinion publique et conduit des centaines de milliers de personnes à descendre dans la rue pour exiger de leurs gouvernements qu’ils agissent plus vite.

Un troisième rapport « spécial » dédié aux océans et à la cryosphère (banquise, glaciers, calottes polaires) sera adopté fin septembre à Monaco, au moment où l’ONU organisera un sommet sur le climat à New York.

« Tous droits de reproduction et de représentation réservés. © 2019 Agence France-Presse. »

190 millions d’euros pour mieux collecter et trier les déchets

Sur un montant global de 190 millions d’euros, l’éco-organisme Citeo (ex Eco-Emballages) va consacrer près de 30 million d’euros à  l’accompagnement d’une centaine de collectivités locales et de centres de tri pour accélérer leurs performances. 22,4 millions d’euros seront dédiés à la modernisation des centres de tri et 6,7 millions d’euros au renforcement de la collecte.

9 millions de Français supplémentaires passeront en extension de consignes de tri d’ici la fin du premier semestre 2020. Les villes lauréates du deuxième appel à projet ont été dévoilées par Citéo courant juillet. Il s’agit de Lyon, Montpellier, Brest, Cambrai, Pontarlier ou encore Limoges.

L’extension des consignes de tri se traduit par la modernisation des centres de tri. Les procédés et installations doivent notamment être transformés pour accueillir l’ensemble de nouveaux emballages en matières plastiques jusqu’alors non triés, comme les pots, films et barquettes. Les dispositifs de collecte, bacs et camions, doivent également évoluer.

Mieux moderniser les centres et améliorer la collecte

Depuis 2015, déjà 42 centres de tri ont été modernisés pour accueillir l’extension des consignes de tri. Le nouvel appel à projet retient 26 nouveaux projets pour l’extension des consignes de tri. Cinq sont situés en Région Nord, cinq en région Ouest et cinq en région Sud-Ouest. Trois se trouvent en région Est, trois en région Centre-Est, trois en Ile-de-France et deux en région Centre-Ouest.

Cinq centres de tri déjà en extension bénéficieront d’améliorations complémentaires. Il s’agira de diminuer les refus de tri, notamment grâce à l’amélioration du tri des petits emballages, et de mieux trier les papiers.

79 projets ont été sélectionnés pour renforcer la collecte. Ils doivent améliorer la collecte de proximité, en harmonisant les modalités de collecte, développer des points d’apport volontaire, et tester des dispositifs pour collecter les gisements diffus.

Dans le cadre de la première phase de l’appel à projets lancé en avril 2018, 52 projets avaient été retenus, couvrant 90 collectivités et 9 millions d’habitants. Ils ont permis de recycler 26000 tonnes d’emballages plastiques supplémentaires. Soit une progression moyenne de 4 kg d’emballages supplémentaires recyclés par habitant.

Plomb à Notre-Dame : l’inquiétude persiste

Jusqu’à quel point Notre-Dame de Paris, son parvis et ses alentours sont-ils contaminés par le plomb ? Travailleurs et habitants des quatrième, cinquième et sixième arrondissements de la capitale sont-ils en danger ? Autant de questions auxquelles les autorités ont bien du mal à répondre. Comme l’indique Le Monde, l’association de protection de l’Homme et de l’environnement Robin des Bois a déposé, le 26 juillet dernier, une plainte contre X pour « carences fautives ayant pour conséquences la mise en danger délibérée de la personne d’autrui et la non-assistance à personne en danger ». Cette action vise particulièrement les mairies de Paris et des arrondissements précédemment cités, ainsi que l’Agence régionale de santé (ARS).

Le président de l’association Jacky Bonnemains déplore que la communication autour des risques liés à la contamination au plomb n’ait pas été plus rapide. Lors de l’incendie qui a ravagé la cathédrale le 15 avril 2019, plus de 400 tonnes de plomb avaient pris feu au niveau de la toiture et de la flèche de l’édifice. Cet embrasement a engendré des retombées de poussière de plomb aux alentours de la cathédrale, sans qu’il n’ait été défini de périmètre précis. Cependant, selon des informations révélées par Mediapart, la présence de plomb à l’intérieur et autour de la cathédrale atteignent entre 400 et 700 fois le seuil autorisé.

Plomb dans les écoles, risque de saturnisme

Malgré la volonté de rassurer les Parisiens, la mairie de Paris et l’ARS peinent à convaincre. Aurélien Rousseau, directeur de l’Agence régionale de santé, considérait en juillet que selon les données collectées, aucun individu ne devrait craindre pour sa santé. Peu de temps après, deux écoles situées rue Saint-Benoît dans le sixième arrondissement ont été fermées. Dans la cour d’au moins l’un de ces deux établissements, des concentrations en plomb supérieures à 5 mg/m2 ont été relevées. L’ARS recommande des taux de 1 mg/m2 maximum. Sur le parvis de la cathédrale, la pollution est bien plus élevée. Des précédents prélèvements ont mesuré des concentrations en plomb de 500 mg/m2 sur le parvis de la cathédrale, et de 200 mg/m² aux abords de la place Saint-Michel.

Ces chiffres inquiètent travailleurs et riverains pour des raisons sanitaires. L’Organisation mondiale de la santé (OMS) rappelle que le plomb est un « métal toxique », qui peut se diffuser dans l’organisme pour aller atteindre le cerveau, le foie, les reins, les os, et notamment les dents. Chez les hommes, le plomb peut sensiblement altérer la qualité du sperme. Les femmes enceintes qui inhaleraient ce métal risquent de voir la croissance de leur bébé fortement perturbée. De manière générale, l’exposition au plomb favorise le saturnisme, l’hypertension artérielle et la maladie des reins, notamment le cancer. À l’heure actuelle, il n’existe pas de seuil en dessous duquel il est considéré que le plomb ne représente aucun risque pour la santé.

La dépollution de Notre-Dame traîne

Face à ces risques d’envergure pour la santé, plusieurs acteurs ont demandé des mesures fortes. Début août, la CGT ainsi que plusieurs associations ont demandé le confinement de Notre-Dame de Paris. Un souhait faisant écho à Robin des Bois qui qualifiait la cathédrale de « déchet toxique » deux semaines après l’incendie. Fervent défenseur de la cathédrale, Monseigneur Chauvet refuse catégoriquement que Notre-Dame soit confinée. « Tout le monde a fait une plombémie, et je peux vous dire : on n’est pas plombés » a déclaré l’homme sur Europe 1 le 6 août dernier. Des propos temporisés par Graziella Raso, membre du comité CGT de l’Hôtel-Dieu qui indique que les agents de l’hôpital qui ont effectué cet examen attendent toujours leurs résultats.

Alors que de nouvelles mesures étaient attendues le 6 août dernier, aucune nouvelle donnée n’a finalement été dévoilée. Contrairement à ce qu’avait annoncé l’adjointe à la santé à la mairie de Paris Anne Souyris (EELV), les nouvelles données n’ont pas été immédiatement rendues publiques. Le service de communication de la mairie met en avant un « quiproquo », et explique que les données seront divulguées « dans les jours et les semaines qui suivent ». Et d’autres imprécisions subsistent. Anne Souyris souhaitait que la « dépollution » des sites soit ordonnée le plus rapidement possible, à l’aide d’un gel qui devrait rester plusieurs jours au sol. Or, le Ministère de la Culture n’a pas encore donné de date précise pour le début de la phase de nettoyage.

Le décret d’interdiction des plastiques à usage unique est en consultation

Le site dédié du ministère de la Transition écologique et solidaire est ouvert. Les fabricants, distributeurs et autres utilisateurs sont invités à apporter leurs commentaires. Une quarantaine de commentaires ont été postés à ce jour. Ces interdictions sont prévues dans le cadre de la mise en oeuvre de la loi de transition énergétique pour la croissance verte et de la loi agriculture et alimentation (Egalim). Le décret aligne ces interdictions avec les  dispositions prévues par la directive européenne sur les plastiques à usage unique. Les emballages seraient explicitement exclus du champ d’application de ces interdictions entre le 1er janvier 2020 et le 3 juillet 2021. Mais ensuite, tous les emballages seraient concernés.

Le projet de décret donne plusieurs définitions. En particulier, il tente enfin une définition officielle d’un « produit en plastique à usage unique ». Il s’agit d’un « produit fabriqué entièrement ou partiellement à partir de plastique et qui n’est pas conçu, créé ou mis sur le marché pour accomplir, pendant sa durée de vie, plusieurs trajets ou rotations en étant retourné à un producteur pour être rempli à nouveau, ou qui n’est pas conçu, créé ou mis sur le marché pour être réutilisé pour un usage identique à celui pour lequel il a été conçu ».

Des objets entièrement ou partiellement en plastique

L’interdiction concerne les « gobelets et verres » entièrement en plastique à partir du 1er janvier 2020. Au 3 juillet 2021 s’ajouteront ceux « composés partiellement de plastique ». Un arrêté précisera les teneurs maximales de plastique autorisées et prévoira « les conditions dans lesquelles la teneur de plastique est progressivement diminuée ».

Au 1er janvier 2020, les « assiettes jetables de cuisine pour la table » entièrement en plastique seront interdites. S’ajouteront celles recouvertes d’un film plastique en juillet 2021. Les interdictions de couverts concernent les fourchettes, couteaux, cuillères et baguettes en plastique. Une dérogation pour les établissements pénitentiaires, les établissements de santé, le transport aérien, ferroviaire et maritime est prévue jusqu’en juillet 2021.

Des interdictions échelonnées entre 2020 et 2021

Les pailles interdites dès 2020 seront celles « mises à disposition sur le lieu d’utilisation ou celles vendues à l’unité ou en lot au consommateur final ». Des dérogations sont prévues pour les pailles relevant des directives 90/385/CEE et 93/42/CEE relatives aux dispositifs médicaux.  A partir du 3 juillet 2021, ces dispositions seront remplacées par celles de la directive européenne.

Les « plateaux-repas, pots à glace, saladiers et boîtes » en plastique interdits dès 2020 sont ceux « prêts à consommer », « immédiatement », sur place, ou  à emporter, « généralement consommés dans le récipient ». Cette interdiction, si elle est maintenue, va plus loin que la directive européenne qui ne demande qu’une réduction de la consommation. Enfin, les interdictions des « couvercles à verre » ou à gobelet concerneront les gobelets pour boissons.

Du compostable en compostage domestique

Ce projet de décret prévoit une dérogation pour les ustensiles compostables domestiquement et constitués, en tout ou partie, de matières biosourcées. La part biosourcée minimale prévue par la loi est de 50% en 2020 et de 60% en 2025. Les fabricants soulignent qu’aucun ustensile en plastique rigide n’est compostable en compostage domestique. Ne pas autoriser les ustensiles compostables en compostage industriel reviendrait donc à les interdire tout simplement.

Reste à savoir quels amendements seront retenus. En particulier, les discussions liées au projet de loi relatif à la lutte contre le gaspillage et à l’économie circulaire, en septembre au Sénat, pourraient venir modifier le texte.

11,7 teslas, record mondial de champ magnétique pour un aimant d’IRM du corps humain

En cours d’installation sur le site CEA-Saclay depuis juillet 2017, le colosse magnétique de 132 tonnes est désormais pleinement opérationnel. Les équipes ont dû pour cela relever tous les défis que représente la mise en œuvre d’un tel équipement.

  • Connecter l’aimant aux équipements auxiliaires déjà installés et testés (usine cryogénique, alimentations électriques, système de contrôle-commande).
  • Atteindre une température homogène de 1,8 K : l’aimant doit être refroidi à 1,8 K (- 271 °C), température à laquelle l’hélium, son « liquide de refroidissement », est dans un état physique particulier, dit « superfluide ». À ce niveau de température, le conducteur qui compose l’aimant (alliage niobium-titane) n’oppose alors aucune résistance au courant électrique qu’il transporte, évitant ainsi toute dissipation du courant et tout échauffement : il est à l’état supraconducteur.
  • Monter par palier pour atteindre 11,7 T(1) : une fois le conducteur refroidi à sa température nominale, il a fallu ensuite injecter progressivement le courant dans l’aimant pour atteindre le champ magnétique prévu de 11,7 T. Cette « montée en puissance » s’est réalisée en plusieurs étapes, avec de nombreux essais électriques et magnétiques, ainsi que des tests des procédures d’arrêt d’urgence. En tout, 1 300 procédures prévues pour détecter l’apparition de défauts potentiels ont été testées.

Pour atteindre son champ magnétique nominal, l’aimant est alimenté par un courant de 1 500 ampères, et les bobines de conducteur sont en permanence refroidies par 7 000 litres d’hélium à l’état superfluide. Avec un champ magnétique de 11,7 T c’est un record mondial dans le domaine de l’IRM, et un record absolu avec ce type de matériau supraconducteur. La fabrication de ce prototype de 132 tonnes, de 5m de longueur pour 5 m de diamètre extérieur, et 90 cm de diamètre intérieur, aura demandé six ans dans les usines de Alstom – devenu GE – à Belfort ; et près de deux ans de travaux d’installation et de tests, pour arriver à sa mise en service opérationnelle.

Au cours des prochains mois, de nombreux équipements seront ajoutés à l’aimant pour le transformer en appareil d’IRM à même de réaliser des images du cerveau de volontaires : bobines de gradients, antennes radiofréquences, lit patient, habillage extérieur.

À propos du projet Iseult

Les neuroscientifiques ont voulu se doter d’un scanner IRM à 11,7 T afin de sonder le cerveau humain avec des qualités d’observation jamais atteintes, que ce soit au niveau de la résolution spatiale ou de la résolution temporelle, ou encore au niveau de la précision des images obtenues. Le projet Iseult est né au tournant du 21ème siècle avec l’objectif ambitieux de développer un aimant de très grande taille (90 cm d’ouverture) générant un champ magnétique de 11,7 T. Le projet a été porté conjointement par les chercheurs en neurosciences et des physiciens du CEA spécialistes des aimants à l’Irfu et de l’IRM à l’institut Joliot. La conception et la réalisation de cet aimant, cœur du scanner IRM, ont ainsi mobilisé les chercheurs et leurs partenaires – académiques et industriels – pour une livraison à Neurospin, sur le site du CEA-Saclay, en mai 2017.

Le projet Iseult s’intègre dans une coopération franco-allemande initiée en 2006. Il résulte d’une collaboration entre :

  • des partenaires industriels (Siemens Healthineers, Bruker Biospin, Alstom –intégré aujourd’hui à General Electric–, et Guerbet) ;
  • des partenaires académiques (l’Université de Freiburg, la Direction de la Recherche fondamentale du CEA) ;
  • un soutien financier partiel d’agences publiques (en France : Bpifrance, en Allemagne : le Ministère fédéral allemand de l’Éducation et de la Recherche).

(1) Champ magnétique terrestre : 5.10-5 T ; IRM hospitaliers standards : 1,5 à 3 T ; aimants du LHC : 8,5 T ; il existe également des IRM de faible diamètre, uniquement utilisés dans le cadre de recherches précliniques, pouvant atteindre des champs magnétiques de 17 teslas.

Source : CEA

La déforestation se durcit en Amazonie

Chose promise, chose due. Les uns après les autres, Jair Bolsonaro lève les freins à l’exploitation de la forêt amazonienne pour attirer les investisseurs agricoles et miniers. Après une réduction de 80 % du taux de déforestation de la forêt amazonienne entre 2006 et 2012, les gouvernements successifs ont assoupli les protections. L’année dernière, la déforestation a augmenté de 13%, atteignant son niveau le plus élevé en dix ans. Cette année est sur le point d’être bien pire et l’Amazonie pourrait rapidement renouer avec ses années les plus sombres.

Un article du New York Times rappelle que depuis janvier 2019, près de 3 500 km² de forêt amazonienne ont disparu. C’est 39% de plus qu’à la même période en 2018. Mais les choses s’accélèrent selon l’agence spatiale brésilienne. Sur le seul mois de juin, alors qu’a commencé une saison moins chaude et moins humide, plus propice au travail en forêt, 920 km2 de forêt tropicale ont disparu. C’est 88,4% de plus que l’année dernière. La déforestation pour le mois de juillet a atteint  1 864 km2 (+212 %).  Ricardo Galvão, le directeur de l’Institut national de recherches spatiales (INPE) divulguant les données sur la déforestation a été licencié le 2 août dernier. Jair Bolsonaro lui reprochait justement de rendre public, mois après mois, ces chiffres, qu’il qualifiait de « mensongers ». 

Le gouvernement brésilien ne semble pas disposé à combattre ces abattages illégaux. Au contraire, il laisse faire. Selon le New York Times, le nombre de sanctions – amendes, avertissement, saisi du matériel, voire sa destruction – émises par la principale agence environnementale du Brésil a baissé de près de 20 % dans les six premiers mois de l’année, alors même que la déforestation augmentait.

Vers des points de basculement

Selon un article paru dans The Guardian, la déforestation de l’Amazonie s’accélère vers un « point de basculement » au-delà duquel la forêt ne pourra plus être sauvée. Les scientifiques avertissent que la forêt risque de se dégrader de plus en plus en savane, après quoi sa capacité d’absorption du carbone sera sérieusement réduite, avec des conséquences pour le reste de la planète.

« Un certain nombre de points de basculement ne sont pas loin » , confie Philip Fearnside, chercheur à l’Institut national de recherche en Amazonie (INPA), à The Guardian. « Nous ne pouvons pas voir exactement où ils se trouvent, mais nous savons qu’ils sont très proches. Cela signifie que nous devons faire les choses tout de suite. Malheureusement, ce n’est pas ce qui se passe. Il y a des gens qui nient que nous ayons même un problème. »

Des indigènes menacés et une exploitation illégale en forte hausse

Il n’y a pas que la déforestation qui s’accentue. Le président brésilien favorise aussi le recul des zones réservées aux Indiens au profit des agriculteurs et des industriels. Des orpailleurs clandestins sont notamment suspectés du meurtre violent d’un chef indigène dans une réserve protégée le 23 juillet dernier.

Il y aurait une recrudescence de violence sur les terres autochtones depuis l’élection du nouveau président. Ayant à plusieurs reprises exprimé son opposition à l’exclusivité des terres amazoniennes pour les peuples indigènes, et sa volonté de légaliser l’orpaillage sur ces territoires, celui-ci estime que ne pas exploiter ces terres constituerait une entrave à l’économie brésilienne.

Les bâtiments tertiaires ont leur décret de rénovation

« Ce décret attendu depuis 2010 va permettre d’engager des actions concrètes pour réduire les consommations d’énergie sur l’ensemble du parc des bâtiments tertiaires », se félicite le SERCE, fédération regroupant 260 entreprises de la transition énergétique et numérique. Il concerne tous les bâtiments tertiaires d’une surface de plancher supérieure ou égale à 1000 m2.

La Directive européenne sur la performance énergétique des bâtiments demande aux Etats membres de se doter d’une stratégie nationale de rénovation de l’ensemble des bâtiments pour tendre vers un parc immobilier décarboné et à grande efficacité énergétique d’ici 2050.

Des objectifs ambitieux

La loi portant sur l’évolution du logement, de l’aménagement et du numérique (Elan) vise, pour les bâtiments tertiaires ou parties de bâtiments, une réduction des consommations d’énergie finale d’au moins 40% en 2030 puis de 50% en 2040 et 60% en 2050 par rapport à 2010. Les actions destinées à atteindre ces objectifs porteront notamment sur la performance énergétique des bâtiments ainsi que sur l’installation d’équipements performants et de dispositifs de contrôle mais aussi de gestion active de ces équipements.

Un arrêté fixera les seuils de performance à atteindre et les conditions de modulations prévues, en fonction des contraintes techniques, architecturales ou patrimoniales, d’un changement de l’activité et des coûts des actions par rapport aux avantages attendus en termes de consommation d’énergie finale.

Une plate-forme informatique pour suivre les données

Le décret prévoit la mise en place de la plate-forme informatique de recueil et de suivi de la réduction de la consommation d’énergie finale des bâtiments tertiaires. Tout propriétaire de bâtiment ou partie de bâtiment tertiaire devant réduire sa consommation énergétique devra déclarer ses consommations annuelles d’énergie à partir de 2021, au plus tard le 30 septembre pour l’année précédente. Un arrêté définira l’opérateur désigné en charge de cette plate-forme et les modalités traitement des données.

Cette plate-forme informatique permettra de vérifier au 31 décembre 2031, 2041 et 2051, la bonne atteinte des objectifs. En cas d’absence de déclaration ou de non-respect des obligations, le Préfet pourra prononcer une amende administrative au plus égale à 1500 euros pour les personnes physiques et à 7500 euros pour les personnes morales.

Comment bénéficier du dispositif « coup de pouce chauffage » cet hiver ?

Depuis le début de l’année, environ 20 000 travaux sont engagés chaque mois pour remplacer des chaudières polluantes par des chaudières écologiques, fait savoir Qualit’ENR, l’association pour la qualité d’installation dans les énergies renouvelables. Par chaudière écologique, le ministère entend une chaudière biomasse performante, une pompe à chaleur air/eau ou eau/eau, un système solaire combiné ou une pompe à chaleur hybride. Une aide est également prévue pour les chaudières au gaz à très haute performance énergétique. Plus de la moitié des travaux se font actuellement pour installer des équipements valorisant des énergies renouvelables.

Dans tous les cas pour pouvoir bénéficier des aides d’Etat, il convient de faire appel à un artisan ou une entreprise qualifiée RGE (« Reconnu garant de l’environnement ») et choisir une offre émanant d’un acteur signataire de la charte « Coup de pouce ». Qualit’ENR dresse donc un bilan pour montrer que les professionnels sont bien au rendez-vous.

Des qualifications RGE et des formations en forte hausse

Qualit’ENR regroupe actuellement 11 200 entreprises. Parmi elles, près de 6 300 entreprises sont qualifiées RGE pour les pompes à chaleur et plus de 3 100 pour les chaudières bois. Les qualifications RGE délivrées dans le domaine des énergies renouvelables ne cessent d’augmenter et les professionnels se mobilisent pour répondre à la hausse des travaux. « Au premier semestre 2019, Qualit’EnR a constaté un afflux inédit de demandes de qualification, qui s’est accentué au fil des mois, en augmentation de +20% à +50% par rapport aux volumes habituels à cette période de l’année« , fait savoir l’association.

Les formations dans les énergies renouvelables sont aussi en très forte hausse. L’association compte deux fois plus de stagiaires formés cette année, avec plus de 5 000 stagiaires recensés à date. La hausse est de + 106% par rapport au premier semestre 2018. L’association note un réel « effet coup de pouce chauffage« . Le nombre de professionnels formés au premier semestre 2019¨a augmenté de +264% pour les pompes à chaleur et de +168% pour les chaudières au bois par rapport au premier semestre 2018.

Le Coup de pouce chauffage monte jusqu’à 4 000 € pour les ménages modestes et 2500 € pour les autres. Une aide de 1200 euros est prévue pour les ménages modestes qui veulent s’équiper d’une chaudière au gaz à très haute performance énergétique. Elle est de 600 euros pour les autres ménages. « La prime à la conversion des chaudières est cumulable avec d’autres aides comme Habiter mieux agilité (Agence nationale de l’habitat, Anah), le crédit d’impôt pour la transition écologique (CITE), l’écoprêt à taux zéro… », précise le ministère. Ce dernier vous propose un simulateur pour calculer le montant de l’aide à laquelle vous pouvez prétendre.