revue de presse anglophone #11

  • Google récupère vos données de localisation même si le service est désactivé per l’utilisateur

Même si votre téléphone ne contient pas de carte SIM, même s’il est éteint, et même si vous avez désactivé ce service, les téléphones sous Androïd envoient les données de localisation de votre téléphone à Google, dès que celui-ci est connecté à nouveau. Lire

localisation-500x300

Source: Quartz

 

  • Les 40 meilleurs objets high-tech de l’année selon The Guardian

Le quotidien publie sa liste au père Noël: robots, consoles, appareils photos, téléphones, enceintes… tout y est. Lire

googles-500x200

Source: The Guardian

 

  • A-t-on le droit d’exploiter la lune ?

La question commence à se poser sérieusement: vu que la lune n’appartient à personne, comment imaginer exploiter ses ressources naturelles ? Lire

lune-500x300

Source: NYT 

 

  • Le Bitcoin passe la barre des 10 000 dollars

La valorisation de la monnaie cryptée virtuelle atteint des sommets, ce qui n’est pas sans poser quelques problèmes réels. Lire

bitcoin-500x300

Source: Tech Crunch

 

  • La ville de Chicago porte plainte contre Uber

 

uber-500x300

Après les révélation confirmant qu’Uber a tout fait pour dissimuler une faille de sécurité massive dans la protection des données de ses utilisateurs, la ville de Chicago a décidé de porter l’affaire en justice. D’autres villes pourraient lui emboîter le pas. Lire

Source: Washington Post

 

Astrophysique: une théorie se passe de la matière noire

Pour expliquer l’accélération de l’expansion de l’Univers, les mouvements des étoiles et des galaxies, les chercheurs ont émis l’hypothèse de l’existence d’une matière que l’on ne peut pas voir, la matière noire et d’une force supérieure à l’attraction gravitationnelle, l’énergie noire. Cependant, malgré tous leurs efforts, matière noire et énergie noire n’arrivent pas à être observée de manière formelle ou n’arrivent pas à définir réellement les propriétés et caractéristiques de ces deux entités. Un article d’un chercheur suisse paru dans l’Astrophysical Journal et disponible sur ArXiv vient bousculer cette vision.

Faire appel à l’invariance d’échelle du vide

André Maeder, professeur honoraire au département d’Astronomie de la Faculté des sciences de l’UNIGE (Université de Genève – Suisse), propose un modèle théorique où ces deux hypothèses seraient caduques. Les phénomènes que ces hypothèses sont censées expliquer peuvent l’être autrement en se basant sur les propriétés de l’invariance d’échelle du vide. Ne remettant pas en cause la théorie de base du Big Bang, André Maeder explique que si l’on garde les équations de la relativité générale d’Einstein, de la gravitation universelle de Newton et de la mécanique quantique, il faut ajouter un paramètre oublié jusqu’alors : le fait que le vide et ses propriétés ne changent pas suite à une dilatation ou une contraction. Or, précise-t-il, le vide joue un rôle primordial dans les équations d’Einstein en intervenant dans une grandeur nommée constante cosmologique et dont dépend le modèle d’Univers qui en découle. En se basant sur cette hypothèse, André Maeder reconsidère donc aujourd’hui le modèle de l’Univers et rappelle que l’invariance d’échelle du vide est aussi présente dans la théorie fondamentale de l’électromagnétisme.

Plusieurs grands mystères résolus ?

André Maeder a soumis son modèle à différents tests et il a constaté que les calculs théoriques qu’il permet correspondent aux observations. Mais il a aussi découvert qu’il permet de prédire l’accélération de l’expansion de l’Univers sans faire appel à de la matière noire ou de l’énergie noire. Ces dernières n’existeraient tout simplement pas, puisque les équations de la physique suffisent à expliquer les phénomènes observés !

Le chercheur suisse s’est ensuite intéressé au cas de la masse manquante de l’Univers. En appliquant sa nouvelle théorie à la loi de Newton, celle-ci est légèrement modifiée avec l’hypothèse de l’invariance d’échelle du vide. Comme l’explique le communiqué de l’Unige, «cette loi contient un très petit terme d’accélération vers l’extérieur, particulièrement significatif aux faibles densités». Quand on l’applique aux amas de galaxies, on obtient une masse pour ces amas en accord avec celle de la matière visible – contrairement aux calculs précédents qui trouvaient une masse manquante. Ainsi ce nouveau modèle permet d’expliquer les grandes vitesses des galaxies dans les amas. Mais il s’est aussi révélé tout aussi pertinent pour prédire les vitesses élevées des étoiles dans les régions extérieures des galaxies ou la dispersion des vitesses des étoiles oscillant autour du plan de la Voie Lactée. Cette dispersion, qui croît beaucoup avec l’âge des étoiles considérées, est très bien expliquée avec l’hypothèse du vide invariant alors qu’aucun accord n’existait sur l’origine de cet effet.

La théorie d’André Maeder devrait faire couler beaucoup d’encre dans les mois qui viennent car elle pourrait bousculer de nombreuses conceptions ou théories sur l’Univers et elle va certainement faire l’objet de très nombreuses vérifications de la part de la communauté des astrophysiciens.

Sophie Hoguin

Une start-up pour des batteries de plus en plus rapides

En novembre 2015, des chercheurs principalement du CNRS, du CEA et de plusieurs universités françaises3, regroupés au sein du RS2E, ont réussi à concevoir le premier prototype de batterie sodium-ion au format « 18650 », un format très répandu dans l’industrie, notamment pour les batteries lithium-ion. S’inspirant directement de ces batteries, il est doté de meilleures performances que celles-ci, notamment en termes d’espérance de vie, de rapidité de charge et décharge. Son principal atout est d’utiliser le sodium, un élément moins coûteux et plus abondant que le lithium (on trouve 2,6 % de sodium dans la croûte terrestre, contre 0,06 % de lithium à peine). De plus, le sodium se trouve partout sur la planète, notamment dans l’eau de mer, sous forme de chlorure de sodium (NaCl) alors que les ressources en lithium sont très localisées dans quelques régions du globe (Argentine, Chili et Bolivie détiennent les deux tiers des ressources mondiales).

La création aujourd’hui de la société Tiamat, dédiée au développement et à la production de ces alternatives au lithium-ion, s’inscrit dans la continuité de ces travaux. Son objectif cependant n’est pas de détrôner les batteries lithium-ion, qui équipent déjà la plupart des appareils électroniques mobiles. Tiamat se positionne sur la puissance et la continuité de service grâce à des batteries endurantes (plus de 10 ans d’espérance de vie contre 3-4 ans pour celles au lithium dans des conditions d’usage continu), des charges et des recharges 10 fois plus rapides. Ces performances ouvrent des possibilités d’utilisation pour des usages aujourd’hui peu exploités ou bien développés avec des technologies peu adaptées, comme le stockage stationnaire (stockage de masse des énergies renouvelables intermittentes, éolienne ou solaire) et le stockage mobile pour des véhicules électriques (les bus rechargeables en fin de ligne par exemple). Tiamat s’intéresse notamment aux flottes de véhicules en location, qui requièrent des temps de recharge courts et nécessitent une continuité de service aux usagers. La technologie sodium-ion permet ainsi d’envisager de nouveaux usages du quotidien, tels des véhicules électriques avec 200 km d’autonomie qui se rechargent en quelques minutes.

Après une phase d’homologation de ces technologies, la société basée à Amiens entend y développer son activité. Forte du soutien du RS2E, elle travaille d’ores et déjà en collaboration avec le tissu d’acteurs académiques et industriels de ce réseau. Un premier pas, avant de pouvoir lancer la production de ces batteries si possible sur le sol français, qui permettrait à la France de prétendre à un leadership dans ces nouvelles solutions de stockage de l’énergie.

L’ensemble de ces travaux de recherche a fait l’objet de plusieurs publications et de brevets déposés par le CNRS et le CEA. Il a bénéficié des soutiens notamment du ministère de l’Enseignement supérieur, de la Recherche et de l’Innovation4, du CNRS, du CEA, de l’Agence nationale de la recherche (Labex Store-Ex) et de la DGA (Direction générale de l’armement). Le CNRS fait partie des actionnaires de Tiamat.

Notes :
1 Pour en savoir plus Consulter le site web
2 Lancé en 2011 à l’initiative du CNRS et du ministère de l’Education nationale, de l’Enseignement supérieur et de la Recherche, ce réseau regroupe notamment 17 laboratoires de recherche en France, un centre de recherche technologique et d’intégration ainsi qu’un club des industriels (15 entreprises à ce jour). Voir Consulter le site web
3 Huit laboratoires et entités impliqués : six laboratoires français du réseau RS2E (Institut de chimie de la matière condensée de Bordeaux (CNRS), Laboratoire réactivité et chimie des solides (CNRS/Université de Picardie Jules Verne), Centre interuniversitaire de recherche et d’ingénierie des matériaux (CNRS/Université de Toulouse III – Paul Sabatier/INP Toulouse), Laboratoire « Chimie du solide et de l’énergie » (CNRS/UPMC/Collège de France), Institut Charles Gerhardt Montpellier (CNRS/Université de Montpellier/ENSC Montpellier) et Institut de sciences des matériaux de Mulhouse (CNRS/Université de Haute Alsace), Rosa Palacin, chercheuse à l’Institut des sciences des matériaux de Barcelone et le Liten, institut de CEA Tech
4 Tiamat fait partie des 62 lauréats 2017 du concours national i-Lab d’aide à la création d’entreprises et de technologies innovantes i-Lab, organisé par le ministère de l’Enseignement supérieur, de la Recherche et de l’Innovation.

Source : cnrs

La surveillance permanente des internautes

Décidément, la surveillance des internautes et des citoyens n’est pas un vain «maux». Chacun sait que des cookies ne sont pas de simples gâteaux, mais des petits mouchards. Mais l’analyse de nos moindres faits et gestes sur la toile est poussée à l’extrême par certains sites.

Hp.com, intel.com, gap.com, windows.com, toysrus.com, logitech.com, adidas.com, bose.com… Toutes ces marques ont inséré dans leurs pages web des codes Javascripts (des SRSc) qui enregistrent nos mouvements de souris, les contenus visités ou cliqués, les textes tapés dans les formulaires… Toutes ces informations alimentent les bases de données de sociétés spécialisées dans le marketing Web et l’analyse comportementale.

Il y aurait près de 500 sites aussi curieux ! C’est la conclusion d’une étude menée par trois chercheurs de l’université de Princeton. En analysant les 50 000 plus gros sites référencés par Alexa, ils ont constaté que 482 d’entre eux étaient des clients de l’un des sept plus gros fournisseurs de SRSc.

Des données non protégées

Le site 01net pointe du doigt un risque élevé : «les chercheurs ont pu mettre en évidence que pour quatre prestataires sur sept, un certain nombre de données personnelles – l’email, le nom, le numéro de téléphone, l’adresse, la date de naissance, le numéro de sécurité sociale – sont transmises sans anonymisation».

Le pire serait que ces informations sensibles soient stockées chez ces prestataires sans aucune sécurité. La multiplication des fuites majeures de données (la dernière concernant Uber et 57 millions de comptes, mais la plus importante étant celle de Yahoo! avec plus d’un… milliard de profils) a de quoi inquiéter…

On peut être un peu rassuré en apprenant, selon Motherboard, qu’Adblock Plus vient d’ajouter ces sept prestataires à sa liste noire.

Cette recherche universitaire confirme néanmoins que le respect de la vie privée est de moins en moins garanti. La situation est d’autant plus préoccupante que les sites, les marques et les systèmes d’exploitation récupèrent des données à notre insu.

Il y a quelques années, un rapport de l’équivalent de la CNIL en Belgique affirmait que Facebook procédait à un tracking des internautes non inscrits. Le réseau social avait parlé d’un bug… Mais cette pratique reste d’actualité selon des chercheurs français.

Android et le tracking GSM

Plus récemment, Wiko et OnePlus ont été mis sur la sellette pour des pratiques douteuses. Ainsi, le OnePlus 2 cache un mouchard qui envoie des données (numéro IMEI, noms des points d’accès Wi-Fi, adresses MAC…) au constructeur chinois.

De son côté, la marque française Wiko collecte des données même si l’utilisateur n’a pas accepté la « collecte des données anonyme ». Ces informations sont transmises depuis des mois (tous les téléphones produits à partir d’octobre 2016) à Tinno, la maison mère chinoise de la marque.

Enfin, des journalistes viennent de révéler que Google collecte en douce et en permanence la localisation (numéros de cellule GSM) de tous les smartphones Android. Pour ne pas être pistés, certains possesseurs désactivent la géolocalisation. Peine perdue ! Le tracking de Google reste actif, même en l’absence d’une carte SIM.

La révélation sur le tracking GSM complète une analyse faite par des experts français. Ils ont constaté que Google surveillait aussi le Wi-Fi.

Philippe Richard

Une nouvelle filière de recyclage pour les petits aluminiums

Moderniser les centres de tri est un défi majeur. La loi de transition énergétique pour la croissance verte promet une couverture nationale de l’extension des consignes de tri des emballages en 2022. À cet horizon, tous les emballages iront dans la poubelle de tri. Mais le Plan Climat de Nicolas Hulot se cantonne à un objectif de recyclage de 100 % des plastiques en 2025. Les professionnels du Projet Métal aimeraient aussi aboutir à la fin de l’enfouissement des métaux. Ils espèrent donc que les résultats obtenus sur les petits emballages métalliques trouveront leur place dans la feuille de route de l’économie circulaire qui sera présentée en mars 2018.

Recycler les petits emballages en métal

Le Projet Métal, lancé en 2014 par Citeo (ex Eco-Emballages), l’Association des Maires de France (AMF), le CELAA (Club du recyclage de l’emballage léger en aluminium et en acier ) et le Fonds de dotation pour le recyclage des petits aluminiums créé par Nespresso, peut en effet de se vanter de ses résultats. En 2016, le projet a permis de recycler 338 tonnes de petits emballages en aluminium supplémentaires. C’est une augmentation de 65 % par rapport à 2015 pour les neuf centres de tri nouvellement équipés. « En 2022, l’objectif est de multiplier ce volume de collecte par dix », prévient Harold de Jacquelot, Directeur Tri & Valorisation chez Citeo. Ces bons résultats ont convaincu dix nouveaux centres de tri de rejoindre le projet en 2017. Désormais, ce sont donc 19 centres de tri qui sont équipés en France sur les 200 que compte le pays. Et le taux de recyclage des emballages en aluminium atteint actuellement 43 % au niveau national, contre 32 % en 2009.

Les emballages concernés par cette extension sont divers. Il s’agit par exemple des capsules de bouteilles, des couvercles de bocaux et boîtes de conserves Mais aussi de tous les opercules et les papiers en aluminium, des dosettes de café et de thé, ou encore des petites canettes. Si ces emballages sont petits et non collectés, ils représentent tout de même 60.000 tonnes  d’aluminium. Soit 60% du gisement d’emballages en aluminium mis sur le marché en France.

Le Projet Métal veut changer d’échelle

Les membres du projet veulent aller plus loin. Notamment, ils souhaitent profiter de la modernisation des centres de tri pour les équiper également de nouveaux équipements capables de trier les petits emballages en aluminium et acier. Ces emballages refusés dès l’entrée des centres de tri ne seront plus envoyés à l’incinération ou en centre d’enfouissement. Les emballages en aluminium seront récupérés grâce à un courant de Foucault. Et les emballages en acier grâce à un aimant, un «overband».

En 2022, 60 centres de tri devraient avoir les équipements nécessaires. Dans les quatre vagues successives d’appels d’offres lancés par Citeo entre 2018 et 2021, il sera demandé aux centres traitant plus de 20.000 tonnes de déchets de trier également ces petits emballages. Globalement, il s’agit des centres collectant les déchets d’environ 400.000 habitants. «Nous avons défini ce seuil pour avoir des volumes suffisants, qui assurent la rentabilité de l »investissement», explicite Jean Hornain, Directeur général chez Citeo. Outre l’intérêt environnemental, il y a un intérêt économique certain à recycler l’aluminium. Une balle de canettes en aluminium en sortie de centre de tri est vendue autour de 300 euros. Et pour accélérer les décisions, le Fonds de dotation pour le recyclage des petits aluminiums de Nespresso promet même une prime supplémentaire. Celle-ci s’élève à 300 euros pour chaque tonne d’aluminium sortie des centres grâce au tri des petits emballages.

Créer une filière française ?

Les petits emballages en aluminium sont traités par pyrolyse. Si quelques initiatives sont en cours en France, la plupart de ces emballages nouvellement triés sont envoyés en Allemagne chez la société Pyral. «Les déchets en alluminium y sont envoyés dans des fours à 500°C sans oxygène, résume Jean Hornain. Cela permet d’éliminer les impuretés et il ne reste que l’aluminium non dégradé à la fin». Cette société serait prête à s’installer en France lorsque les volumes seront suffisants.

Par Matthieu Combe, journaliste scientifique

Des observations de l’ESO témoignent de l’étrange nature du tout premier astéroïde interstellaire détecté à ce jour

Le 19 octobre 2017, le télescope Pan-STARRS 1 détecta depuis Hawaï un petit point de lumière se mouvant dans le ciel. A première vue, il ressemblait à un astéroïde de faibles dimensions se déplaçant à vitesse élevée. Toutefois, des observations complémentaires ont permis de précisément définir son orbite. Les calculs révélèrent, sans l’ombre d’un doute, que son origine différait nettement de celle de l’ensemble des astéroïdes et autres comètes observés à ce jour. Cet objet provenait, non pas de l’intérieur du Système Solaire, mais de l’espace interstellaire, en effet. Bien que classifié en premier lieu parmi les comètes, les observations de l’ESO ainsi que d’autres observatoires ne révélèrent aucun signe d’activité cométaire lors de son passage à proximité du Soleil en septembre 2017. L’objet a donc été rangé dans la classe des astéroïdes interstellaires et baptisé 1I/2017 U1 (`Oumuamua) [1].

“Il nous fallait agir rapidement” précise l’un des membres de l’équipe, Olivier Hainaut de l’ESO à Garching en Allemagne. “ Oumuamua s’éloignait déjà du Soleil en direction de l’espace interstellaire”.

Le Very Large Telescope de l’ESO fut aussitôt réquisitionné dans le but de déterminer l’orbite de l’objet, sa brillance ainsi que sa couleur, avec une précision meilleure que celle caractérisant les plus petits télescopes. La rapidité d’exécution fut essentielle, la luminosité d’`Oumuamua diminuant drastiquement à mesure qu’il s’éloignait du Soleil, de l’orbite terrestre notamment, vers l’extérieur du Système Solaire. D’autres surprises étaient à venir.

En combinant les images acquises au travers de quatre filtres différents intercalés sur l’instrument FORS du VLT avec les clichés obtenus au moyen d’autres grands télescopes, l’équipe d’astronomes emmenée par Karen Meech (Institut d’Astronomie, Hawaï, Etats-Unis) a mis en évidence la variation périodique de luminosité de `Oumuamua : sa brillance varie d’un facteur dix en effet au fil de sa rotation autour de son axe, soit en l’espace de 7,3 heures.

Karen Meech revient sur cette découverte : “Cette variation importante et inhabituelle de luminosité s’explique par la forme très allongée de l’objet : il est une dizaine de fois plus long que large, d’apparence compliquée, ondulée. Nous avons par ailleurs constaté qu’il était de couleur rouge foncé, semblable à celle des objets situés en périphérie du Système Solaire, et qu’il était totalement inerte, aucune trace de poussière n’ayant été détectée dans son environnement proche.”

Ces propriétés laissent à penser que `Oumuamua est un objet dense, potentiellement rocheux voire majoritairement constitué de métal, dépourvu de quantités significatives d’eau ou de glace, et que la couleur sombre de sa surface résulte des effets de l’irradiation par les rayons cosmiques sur des millions d’années. Sa longueur est estimée à plus de 400 mètres.

Les calculs orbitaux préliminaires indiquent que l’objet provenait d’une région du ciel voisine de l’étoile Vega, dans la constellation boréale de la Lyre. Toutefois, bien qu’il se meuve à la vitesse éclair de 90 000 kilomètres par heure, le voyage depuis l’espace interstellaire jusqu’à notre Système Solaire dura quelque 300 000 ans. A cette époque reculée, Véga n’occupait pas sa position actuelle. `Oumuamua a probablement erré dans la Voie Lactée, indépendamment de tout système stellaire, des centaines de millions d’années avant qu’il ne rencontre fortuitement le Système Solaire.

Les astronomes estiment qu’un astéroïde interstellaire semblable à `Oumuamua pénètre à l’intérieur du Système Solaire chaque année ou presque. Toutefois, leur faible luminosité les rend difficiles à détecter. A l’heure actuelle, seuls les télescopes de sondage tel Pan-STARRS s’avèrent suffisamment puissants pour les détecter.

“Nous continuons d’observer cet objet si particulier”, conclut Olivier Hainaut, “et espérons déterminer, avec une précision accrue, sa provenance ainsi que sa destination prochaine au sein de la galaxie. Maintenant que nous avons découvert le tout premier rocher interstellaire, nous nous préparons à en observer d’autres !”

Notes

[1] L’équipe de Pan-STARRS a suggéré d’attribuer à l’objet interstellaire une appellation hawaïenne. Cette proposition a été retenue par l’International Astronomical Union, responsable de l’attribution des noms officiels aux corps du Système Solaire et au-delà. En outre, l’IAU a créé une nouvelle classe d’objets pour les astéroïdes interstellaires, dont cet objet constitue le tout premier représentant. Les références à cet objet figurent ci-après : 1I, 1I/2017 U1, 1I/`Oumuamua et 1I/2017 U1 (`Oumuamua). Le caractère précédant le O est un okina. Cette appellation se prononce comme suit : H O u  mu a mu a. Avant l’introduction de cette nouvelle nomenclature, l’objet était désigné A/2017 U1.

Source : eso

Black Friday

Pour accéder à l’article, cliquer sur le lien puis sur le bouton « Libre Accès » en haut de la page.

 

Dans l’offre AUTOMATIQUE ET INGÉNIERIE SYSTÈME :
Domaines d’application de la microrobotique

Dans l’offre ROTOTIQUE :
Microdrones bio-inspirés- Doter nos futurs robots aériens de l’agilité des insectes

Dans l’offre TECHNOLOGIES BIOMÉDICALES :
Implants dentaires : corrosion et traitements de surface

Dans l’offre MÉDICAMENTS ET PRODUITS PHARMACEUTIQUES :
Bioréacteurs à usage unique- Conception et principes

Dans l’offre DROIT ET ORGANISATION GÉNÉRALE DE LA CONSTRUCTION :
Diagnostic de pertinence- Comment évaluer l’opportunité d’un projet

Dans l’offre LE SECOND OEUVRE ET L’ÉQUIPEMENT DU BÂTIMENT :
Bonnes pratiques de l’éclairage dans l’habitat

Dans l’offre LES SUPERSTRUCTURES DU BÂTIMENT :
Construction mixte acier-béton – Calcul des poteaux mixtes

Dans l’offre TRAVAUX PUBLICS ET INFRASTRUCTURES :
Géomembranes

Dans l’offre VIEILLISSEMENT, PATHOLOGIES ET RÉHABILITATION DU BÂTIMENT :
Mise aux normes sismiques des constructions

Dans l’offre LA CONSTRUCTION RESPONSABLE :
Bois énergie. Propriétés et voies de valorisation

Dans l’offre MÉCANIQUE DES SOLS ET GÉOTECHNIQUE :
Bases de l’interaction sol-structure sous séisme. Principes généraux et effets inertiels

Dans l’offre TECHNIQUES DU BÂTIMENT : PRÉPARER LA CONSTRUCTION :
Cycle de réalisation d’ouvrages. Arrêts et reprises de bétonnage

Dans l’offre TECHNIQUES DU BÂTIMENT : L’ENVELOPPE DU BÂTIMENT :
Les fermetures d’habitations : fenêtres et volets

Dans l’offre TECHNIQUES DU BÂTIMENT : LE SECOND OEUVRE ET LES LOTS TECHNIQUES :
Systèmes de climatisation

Dans l’offre ÉLECTRONIQUE :
Cadre physique de la métrologie en compatibilité électromagnétique- Descriptif général

Dans l’offre TECHNOLOGIES RADARS ET APPLICATIONS :
Géoradar – Principes et applications

Dans l’offre OPTIQUE PHOTONIQUE :
Matériaux scintillateurs inorganiques

Dans l’offre PHYSIQUE ÉNERGÉTIQUE :
La loi Constructurale et sa place dans la thermodynamique

Dans l’offre RESSOURCES ÉNERGÉTIQUES ET STOCKAGE :
Systèmes de stockage associés aux énergies renouvelables

Dans l’offre THERMIQUE INDUSTRIELLE :
Fluides frigoporteurs. Propriétés

Dans l’offre FROID INDUSTRIEL :
Applications industrielles du froid. Généralités

Dans l’offre GÉNIE NUCLÉAIRE :
Analyse de sûreté des installations nucléaires. Principes et pratiques

Dans l’offre CONVERSION DE L’ÉNERGIE ÉLECTRIQUE :
Spectroscopie diélectrique appliquée aux polymères

Dans l’offre  RÉSEAUX ÉLECTRIQUES ET APPLICATIONS :
Transport électrique routier – Batteries pour véhicules électriques

Dans l’offre SÉCURITÉ ET GESTION DES RISQUES :
Prévention des risques professionnels. Acteurs de la prévention

Dans l’offre ENVIRONNEMENT :
Panorama sur la réglementation environnementale en France

Dans l’offre TECHNOLOGIES DE L’EAU :
Économie de l’environnement appliquée au domaine de l’eau

Dans l’offre BRUIT ET VIBRATIONS :
Phénomènes fondamentaux des vibrations des moteurs d’automobile

Dans l’offre MÉTIER : RESPONSABLE RISQUE CHIMIQUE :
Solvants verts

Dans l’offre MÉTIER : RESPONSABLE ENVIRONNEMENT :
Modélisation appliquée aux études environnementales

Dans l’offre MATHÉMATIQUE :
Unités légales et facteurs de conversion

Dans l’offre PHYSIQUE CHIMIE :
Méthodes de la chimie quantique

Dans l’offre CONSTANTES PHYSICO-CHIMIQUES :
Unités de mesure SI

Dans l’offre NANOSCIENCES ET NANOTECHNOLOGIES :
Glossaire de nanosciences et de nanotechnologies

Dans l’offre RÉSEAUX TÉLÉCOMMUNICATIONS :
Vers un Internet plus performant ?. Une introduction au protocole LISP (Locator/ID Separation Protocol)

Dans l’offre LE TRAITEMENT DU SIGNAL ET SES APPLICATIONS :
Méthodes mathématiques pour le traitement des signaux et des images

Dans l’offre DOCUMENTS NUMÉRIQUES GESTION DE CONTENU :
Moteurs de recherche web. Google Bing et leurs challengers

Dans l’offre TECHNOLOGIES LOGICIELLES ARCHITECTURES DES SYSTÈMES :
Monnaies cryptographiques et blockchains. Créer de la confiance

Dans l’offre SÉCURITÉ DES SYSTÈMES D’INFORMATION :
Sécurité dans le téléphone mobile

Dans l’offre TECHNOLOGIES RADARS ET APPLICATIONS :
Systèmes de navigation par satellites

Dans l’offre AGROALIMENTAIRE :
Fromage fondu : physico-chimie du processus de fonte

Dans l’offre CHIMIE VERTE :
Chimie et développement durable – Vers une chimie organique écocompatible

Dans l’offre OPÉRATIONS UNITAIRES. GÉNIE DE LA RÉACTION CHIMIQUE :
Usine du futur. Nouvelles approches dans les industries des procédés

Dans l’offre FORMULATION :
Planification d’expériences en formulation : optimisation

Dans l’offre BIOPROCÉDÉS :
Glossaire de biotechnologies

Dans l’offre MANAGEMENT INDUSTRIEL :
Règlement des litiges à l’international : arbitrage, ADR et prévention

Dans l’offre CONCEPTION ET PRODUCTION :
Fabrication additive. Principes généraux

Dans l’offre LOGISTIQUE :
Transport de matières dangereuses

Dans l’offre EMBALLAGES :
Complexes souples et rigides utilisés en emballage

Dans l’offre MAINTENANCE :
Responsabilité pénale en maintenance. Ce qu’il faut savoir a minima

Dans l’offre TRAÇABILITÉ :
Traçabilité et libertés individuelles

Dans l’offre MÉTIER : RESPONSABLE QUALITÉ :
Audits de systèmes de management : les fondamentaux

Dans l’offre MÉTIER : RESPONSABLE BUREAU D’ÉTUDE/CONCEPTION :
Écoconception dans le secteur textile

Dans l’offre INSTRUMENTATION ET MÉTHODES DE MESURE :
Étalons métrologiques fondamentaux

Dans l’offre MESURES PHYSIQUES :
Étalonnage d’une balance par les utilisateurs

Dans l’offre MESURES MÉCANIQUES ET DIMENSIONNELLES :
Mesure du champ de pesanteur terrestre

Dans l’offre CONTRÔLE NON DESTRUCTIF :
Magnétoscopie. Aspect pratique

Dans l’offre MESURES ET TESTS ÉLECTRONIQUES :
Les représentations temps-fréquence en traitement du signal

Dans l’offre TECHNIQUES D’ANALYSE :
Chromatographie de partage centrifuge. Principes et applications

Dans l’offre QUALITÉ ET SÉCURITÉ AU LABORATOIRE :
Les indicateurs de performance du laboratoire

Dans l’offre VÉHICULE ET MOBILITÉ DU FUTUR :
Biocarburants

Dans l’offre SYSTÈMES FERROVIAIRES :
Homologation du matériel roulant

Dans l’offre SYSTÈMES AÉRONAUTIQUES :
Les composites en aérospatiale

Dans l’offre TRANSPORT FLUVIAL ET MARITIME :
Transport et développement durable

Dans l’offre FROTTEMENT, USURE ET LUBRIFICATION :
Glossaire de tribologie

Dans l’offre FONCTIONS ET COMPOSANTS MÉCANIQUES :
Définition des chargements en fatigue

Dans l’offre TRAVAIL DES MATÉRIAUX – ASSEMBLAGE :
Impression 3D : niches applicatives porteuses

Dans l’offre MACHINES HYDRAULIQUES, AÉRODYNAMIQUES ET THERMIQUES :
Maintenance des machines et des moteurs

Dans l’offre INNOVATIONS TECHNOLOGIQUES :
Bioséquestration du carbone. Piégeage de carbone et bio-inspiration

Dans l’offre MANAGEMENT ET INGÉNIERIE DE L’INNOVATION :
Créativité industrielle. Définition et méthodes d’accompagnement

Dans l’offre ÉCO-CONCEPTION ET INNOVATION RESPONSABLE :
Fabrication additive et impact sociétal

Dans l’offre BOIS, VERRE, CÉRAMIQUE ET TEXTILE :
Matériaux dérivés du bois

Dans l’offre PLASTIQUES ET COMPOSITES :
Recyclage des caoutchoucs

Dans l’offre ÉTUDE ET PROPRIÉTÉS DES MÉTAUX :
Minerais de conflit utilisés dans l’industrie électronique

Dans l’offre TRAITEMENTS DES MÉTAUX :
Traitements thermiques des aciers inoxydables

Dans l’offre MATÉRIAUX FONCTIONNELS :
Textiles bioactifs et à activité biologique

Dans l’offre CORROSION VIEILLISSEMENT :
Corrosion atmosphérique

Dans l’offre ÉLABORATION ET RECYCLAGE DES MÉTAUX :
Métallurgie du zirconium et du hafnium

Revue du web #108 : les vidéos scientifiques les plus étonnantes du mois

Déverrouiller l’iPhone X avec… un masque

Apple nous jurait qu’il était impossible de déverrouiller le nouvel iPhone avec un simple masque.

C’était sans compter sur Bkav Corporation, une société vietnamienne spécialisée dans la sécurité des systèmes informatiques.  Le leurre ? Un masque imprimé en 3D d’une valeur de 150 dollars…

 

Contrôler un jeu vidéo par la pensée

Après Space Invaders, voici Brain Invaders ! Développé par le CNRS, ce petit jeu vous invite à détruire des extraterrestres comme son illustre aîné, mais sans les mains !

Grâce à un bonnet rempli d’électrodes, la machine peut analyser l’activité du cerveau. Voici comment rendre l’électroencéphalographie ludique !

 

Boston Dynamics vous présente SpotMini nouvelle version

SpotMini, petit frère des célèbres BigDog et Spot a bénéficié d’une cure de jouvence. Son design plus abouti, son agilité et sa légèreté lui ouvriront-ils les portes de la gloire robotique ?

 

 Les progrès accomplis par Atlas

Boston Dynamics n’a pas pour autant délaissé le jeune Atlas qui est désormais capable d’effectuer des saltos arrières parfaits.

L’entreprise démontre une fois encore sa maîtrise logicielle et matérielle.

 

Un taxi volant signé Airbus

Voici peut-être le transport urbain de demain : Vahana est un projet d’aéronef électrique capable de décoller et atterrir à la verticale.

Un prototype devrait être testé d’ici la fin de la l’année.

 

Ampoule en graphène

Des chercheurs américains et coréens ont créé l’ampoule la plus fine du monde : elle ferait un atome d’épaisseur.

Par I. B

Participer à EnerGaÏa, c’est accompagner la filière et contribuer à la transition énergétique

EnerGaïa est le Forum qui mobilise territoires et entreprises pour une économie bas carbone en Méditerranée.

A la fois Forum intégrant un cycle de conférences et de tables rondes abordant les nouveaux enjeux du marché, et convention d’affaires avec l’organisation de plus de 150 rendez-vous B to B ciblés, le Forum EnerGaïa conforte son positionnement de rendez-vous majeur des professionnels la filière des énergies renouvelables dans le Grand Sud.

Transition énergétique, nouvelles technologies, innovations … quelques-unes des thématiques phares qui seront abordées lors du cycle de conférences avec la participation d’intervenants tels que Bertrand Piccard (médecin-psychiatre, conférencier et aéronaute), Cynthia Fleury (Enseignant/chercheur en philosophie politique et psychanalyste), Cyril Dion (porte-parole et membre du cercle de pilotage du mouvement colibris)

Téléchargez votre badge gratuit sur : http://energaia.mediactive-events.com/index.php?langue_id=1

Plus d’infos sur www.energaia/fr

Politique industrielle : un fonds de 10 Md€ et des objectifs ciblés

Ce lundi 20 novembre, le Premier ministre, Edouard Philippe, et neuf de ses ministres se sont rendus à Bobigny (Seine-Saint-Denis) au centre de recherche de l’équipementier automobile Valeo pour marquer la volonté du gouvernement de soutenir l’industrie et lancer la réunion du Conseil national de l’industrie (CNI). Cette instance, qui réunit dirigeants d’entreprises, partenaires sociaux et pouvoirs publics, va être rénovée et devrait jouer un rôle plus important dans la gouvernance industrielle des années à venir.  Matignon a  décidé de nommer Philippe Varin au poste de vice-président du CNI, (ce qui correspond au poste de dirigeant opérationnel de du Conseil). Cet ancien PDG de PSA et actuel président du conseil d’administration d’Areva est aussi le président de la nouvelle instance représentative des patrons du secteur, France Industrie. En outre, comme annoncé début octobre, un délégué interministériel aux restructurations industrielles devrait être prochainement nommé. Il s’agira de Jean-Pierre Floris, ex-PDG de Verallia (ancienne filiale de St Gobain spécialisée dans l’emballage en verre). Un de ses rôles principaux sera de gérer les crises liées aux fermetures ou aux licenciements massifs.

Refonte du soutien à l’innovation

La plus grande annonce est bien sûr celle d’un fonds spécial pour l’industrie et l’innovation à hauteur de 10 Md€ dès janvier 2018. Le financement devrait en être assuré par les cessions de participations de l’Etat dans Renault et Engie (déjà 1,6 milliards d’euros ont été récoltés), le reste doit provenir des dividendes issus des entreprises où l’Etat est encore actionnaire. «Le rendement annuel du fond, estimé à 200-300 millions d’euros par an, sera sanctuarisé pour garantir l’effort en matière d’innovation» a affirmé le Premier minsitre. En parallèle, le gouvernement a aussi annoncé une refonte des aides à l’innovation, qui rappelons-le représentent au total 10Md€ d’aide au secteur industriel.

La Nouvelle France Industrielle passée au crible

Lancée en 2013 par Arnaud Montebourg, le programme de la Nouvelle France Industrielle, avait déjà été revu en 2015 par Emmanuel Macron. On était alors passé de 34 plans visant à faire émerger les inventions, les produits et les usines de demain à une matrice de 5 piliers et 9 solutions. Ce plan va être revu : les projets en cours vont être examinés et certains seront accélérés et d’autres freinés. Parallèlement, un audit des 14 comités stratégiques de filières qui pilotent habituellement la politique industrielle au sein du CNI va être mené en vue d’un réajustement des objectifs et des périmètres de chaque filière. L’annonce des nouvelles directions à prendre et de la suppression ou non de certains comités est d’ores et déjà prévue pour le 26 février 2018.

Excellence et ambitions

Pour rendre l’industrie française plus compétitive et lui faire prendre le chemin de l’industrie 4.0, l’Etat compte s’appuyer sur des leviers socio-économiques déjà présentés (réforme du code du travail, allégement de la fiscalité des entreprises – impôts, charges salariales, capital…) et sur des initiatives diverses allant de la création du label French Fab, vitrine d’excellence pour l’exportation, à la réforme de formation professionnelle. Le gouvernement s’est assigné quatre missions pour les mois à venir. Deux missions sectorielles concernant le positionnement de la France et ses industries autour du véhicule autonome et des batteries (suivront ensuite les secteurs de la nanoélectronique, du ferroviaire, des énergies renouvelables et des industries de santé). Et deux missions transversales : une réflexion pour faire émerger des champions européens sans que Bruxelles ne puisse invoquer une entrave à la concurrence et un nouvel effort de simplification réglementaire visant à soutenir la compétitivité. Il s’agira de rendre concret l’objectif de deux normes supprimées ou simplifiées pour une nouvelle norme créée et de proscrire toute surtransposition de directives européennes. Un inventaire des surtranspositions passées est en cours et doit être achevé au 1er mars 2018.

Sophie Hoguin

Modéliser les interactions sociales pour améliorer les prises de décisions collectives

Ils ont ainsi identifié cinq comportements présents dans les deux pays : une majorité des sujets font un compromis entre leur opinion et celles des autres (59% des personnes en France), certains conservent leur opinion (29% en France), alors que les autres suivent fidèlement, amplifient, ou contredisent les informations reçues. L’étude montre également comment un groupe peut accroître collectivement ses performances et la précision de ses estimations grâce à l’information sociale. Ces analyses ont permis d’élaborer un modèle reproduisant les résultats de l’étude et prédisant la performance d’un groupe selon la quantité et la qualité de l’information échangée entre ses membres. L’objectif serait in fine de développer des algorithmes d’aide à la décision. Les résultats de cette étude sont publiés le 6 novembre 2017 dans la revue PNAS.

Nous interagissons de plus en plus grâce au développement des technologies et contenus numériques. Ainsi, les réseaux sociaux sont d’importantes sources d’informations sociales dont nous décidons de tenir compte ou non. De plus, de nombreux sites de commerce en ligne utilisent très largement des systèmes de réputation et de notation qui permettent à leurs clients d’exploiter les avis d’autres utilisateurs pour réaliser leurs propres choix. La quantité d’information à laquelle chacun d’entre nous est soumis est cependant bien trop importante pour être toujours traitée correctement, sans compter les fausses informations qui sont parfois difficiles à déceler.

Ces constatations appellent au développement d’outils d’aide à l’intelligence collective, pouvant favoriser le traitement de l’information et la prise de décision dans un groupe par l’intermédiaire des interactions sociales. Le groupe de chercheurs s’est donc intéressé à l’impact de l’information sociale, c’est-à-dire la manière dont nous sommes affectés par ce que font les autres. Dans quelles conditions cette information sociale peut-elle accroître l’efficacité de nos prises de décisions collectives ?

Les expériences réalisées ont impliqué 186 personnes en France et 180 au Japon. Chaque participant devait estimer des valeurs, telles que l’âge de Gandhi lorsqu’il est décédé ou le nombre d’étoiles dans notre galaxie, tout en précisant son degré de confiance dans sa réponse. Suite à cette étape, la moyenne des réponses de participants précédents – l’information sociale – lui était fournie, et le sujet devait répondre à nouveau pour donner son estimation finale. L’une des originalités de cette étude réside dans l’introduction d’agents virtuels contrôlés par les chercheurs, à l’insu des participants, et donnant systématiquement la bonne réponse. Ces agents, dont le nombre pouvait varier, influençaient donc favorablement l’information sociale transmise aux sujets.

Ces travaux montrent comment l’information sociale conduit le groupe à accroître collectivement ses performances et la précision de ses estimations. Ils permettent également de mesurer précisément la sensibilité des sujets à l’information sociale. Les chercheurs ont ainsi identifié cinq profils de sensibilité indépendants du biais culturel, car présents dans les deux pays. En France, l’analyse de près de 11000 réponses montre que 29% des personnes interrogées maintiennent leur opinion, 4% suivent strictement l’information qui leur est fournie et 59% font un compromis entre leur avis initial et l’information sociale. Par ailleurs, 6% des personnes amplifient l’information sociale reçue, pensant que le reste du groupe a, de la même manière qu’eux, sous-estimé sa réponse initiale. Enfin, 2% finissent par contredire leur propre estimation et celle du groupe, le plus souvent sans pouvoir justifier leur décision. En outre, plus l’estimation personnelle d’un participant est éloignée de l’information sociale reçue, plus ce sujet est sensible à cette information. Autre résultat plus surprenant, les scientifiques montrent que la performance d’un groupe peut être améliorée grâce à une quantité limitée d’information incorrecte, celle-ci compensant un biais cognitif humain consistant à sous-estimer des quantités.

Par ailleurs, un modèle mathématique basé sur ces expériences a été développé. Il reproduit fidèlement les mécanismes de sensibilité à l’information sociale observés expérimentalement et prédit l’impact de la quantité et de la qualité de l’information échangée entre les individus d’un groupe sur leur performance collective. La compréhension des processus gouvernant l’influence de l’information sociale sur les choix individuels et collectifs ouvre ainsi de nouvelles perspectives. Des algorithmes personnalisés pourraient être développés afin d’anticiper les différents types de réponses selon la forme des informations sociales reçues et ainsi contribuer à l’amélioration de la coopération et de la collaboration à l’échelle des groupes.

Modéliser les interactions sociales pour améliorer les prises de décisions collectives
© Guy Theraulaz Dispositif expérimental utilisé pour analyser l’impact de l’information sociale sur les performances de groupes de sujets dans des tâches d’estimation collectives.

 

Notes :

1 Les laboratoires français impliqués sont :
Le Centre de recherches sur la cognition animale (CNRS/Université Toulouse III – Paul Sabatier)
Le Laboratoire de physique théorique (CNRS/Université Toulouse III – Paul Sabatier)
TSE Recherche (CNRS/Université Toulouse 1 Capitole/INRA/EHESS) laboratoire de l’école d’économie de Toulouse

Références :

How social information can improve estimation accuracy in human groups. Jayles, B., Kim, H-R., Escobedo, R., Cezera, S., Blanchet, A., Kameda, T., Sire, C., and Theraulaz, G., Proceedings of The National Academy of Sciences USA (sous presse)
DOI: www.pnas.org/cgi/doi/10.1073/pnas.1703695114

Source : cnrs

La COP23 lance une année clé pour le climat

La COP23 a été l’occasion de dresser un constat alarmiste de la situation climatique. La conférence s’est ouverte sur fond d’une année 2017 marquée par les catastrophes naturelles. L’ONU a jugé la situation du climat «catastrophique».

Elle a appelé l’urgence de revoir l’ambition des engagements nationaux pris lors de l’Accord de Paris pour limiter le réchauffement climatique à 2°C maximum d’ici 2100. Car la trajectoire actuelle mène la planète vers un réchauffement de 3°C. 15.000 scientifiques ont rejoint le débat pour alerter le monde sur l’urgence climatique. Et le rapport annuel du Global Carbon Project projette une hausse des émissions de gaz à effet de serre de +2 % en 2017, après trois ans de stabilité. Elles atteindront un record de 36,8 milliards de tonnes. Pour finir, les Etats-Unis ont confirmé leur volonté de sortir de l’Accord de Paris en 2020.

Quelles avancées à la COP23 ?

Le bilan n’est pas tout noir et il y a eu des avancées. La COP23 a notamment lancé le dialogue dit de Talanoa, «un dialogue facilitateur». Il  vise à revoir l’ambition des engagements étatiques d’ici 2020 en vue de mettre le monde sur la trajectoire d’un réchauffement sous les 2°C. Les pays auront douze mois pour répondre aux questions «Où sommes-nous ? Où voulons-nous aller ? Et comment y arriver ?»  Les décisions de fond sont donc renvoyées à la COP24, en décembre 2018 à Katowice, en Pologne. Mais l’Accord de Paris n’étant pas juridiquement contraignant, les différents engagements resteront volontaires. Rien ne garantit donc qu’ils suffiront à combler le fossé avec les besoins réels.

La COP23 a aussi été l’occasion de lancer de nouvelles alliances mondiales. Citons par exemple l’Alliance pour la sortie du charbon qui réunit 25 pays, États et régions, y compris la France. Elle vise à accélérer l’élimination du charbon et aider les travailleurs et les communautés touchés à faire leur transition. On regrettera néanmoins que cette alliance ne représente qu’une faible part de la consommation mondiale de charbon. Et l’absence d’engagements sur cette question de la Chine, de l’Inde, de l’Asie du Sud-Est ou encore de l’Allemagne.

Il y a eu aussi des avancées dans plusieurs autres secteurs. « Nous quittons Bonn avec, à notre actif, quelques réussites significatives, comme notre Ocean Pathway, l’accord historique sur l’agriculture ou encore celui sur le Plan d’action pour l’égalité des sexes et la Plateforme des peuples autochtones, relate Frank Bainimarama, président de la Conférence et Premier ministre des Fidji. Nous avons également obtenu plus de financement pour l’adaptation au changement climatique et lancé un partenariat mondial pour fournir à des millions de personnes vulnérables au climat, dans le monde entier, l’accès à un régime d’assurance abordable. »

Le One Planet Summit à Paris

Si la COP23 s’est clôturée le 18 novembre, les débats ne sont pas pour autant achevés pour l’année. Le déblocage des 100 milliards de dollars par an d’ici 2020 pour aider les pays en développement à prendre des mesures en faveur du climat pâtine toujours. Ainsi, la France organise le One Planet Summit à Paris le 12 décembre. Ce sommet devrait dévoiler de nouveaux engagements financiers. Ce sera l’occasion de mettre en évidence les premiers résultats concrets du combat climatique. Mais surtout de mobiliser les financements publics et privés et mettre sur la table le plan de bataille à venir. Emmanuel Macron souhaite aussi qu’il soit l’occasion de montrer que les engagements des villes, des Etats et des entreprises américaines sauront compenser le retrait du gouvernement fédéral de l’Accord de Paris.

Par Matthieu Combe, journaliste scientifique

En route pour des modulateurs acousto-optiques nanométriques

Les modulateurs acousto-optiques (MAO ou AOM en anglais) sont des systèmes qui permettent de modifier l’intensité d’ondes lumineuses via des ondes sonores. Ces MAO sont notamment utilisés dans des lasers pour la commutation-Q (technique de lasers pulsés), pour moduler des signaux de télécommunication ou pour le contrôle de fréquence en spectroscopie. Actuellement, un modulateur acousto-optique est composé d’un cristal dans lequel des ondes acoustiques sont générées et qui forment un réseau de diffraction. Ce réseau permet de moduler la lumière qui le traverse de manière dynamique par l’interaction entre ondes sonores et ondes lumineuses. Comme l’effet est faible par rapport au volume du cristal, il faut à la fois que le volume soit suffisant et que la modulation intervienne sur un temps long. Mais, des chercheurs de l’institut Femto-ST proposent, dans un article de la revue Optica, un modèle pour des MAO nanométriques.

modulation-lumiere-nano

La surface plutôt que le volume

Dans le modèle proposé par ces chercheurs, les interactions se produisent en fonction de la surface plutôt que du volume. En outre, le fonctionnement s’appuie sur une double résonance permettant d’atteindre une forte modulation dans les longueurs d’onde du proche infrarouge.

Le système présenté est composé d’un réseau de fentes en argent de 100nm de largeur et 300nm de hauteur disposées sur un substrat piézoélectrique de niobate de lithium. Quand les ondes acoustiques (signal radio) excitent ces fentes, elles vibrent à la manière d’un diapason et leur géométrie fluctue. La lumière qui passe dans ces fentes subit un phénomène de résonance qui dépend de leur forme. Dans les travaux décrits par les chercheurs, pour une fréquence acoustique de 0,5 GHz les fentes fléchissent d’une amplitude de 30nm et provoquent une modulation optique à 80% dans le proche infrarouge.

Cette structure nano-optique devrait pouvoir trouver des applications pour des outils photoniques ultra compacts.

Sophie Hoguin

Origine de la vie : une nouvelle pièce dans le puzzle moléculaire

Les scientifiques qui étudient les origines de la vie sur Terre s’accordent à dire que la phosphorylation est une réaction chimique centrale et essentielle pour l’assemblage de trois ingrédients clés des premières formes de vie : nucléotides pour stocker de l’information génétique, acides aminés pour initier les protéines qui assurent le travail cellulaire et précurseurs de grandes chaînes lipidiques pour former des structures d’encapsulation comme les parois cellulaires.

Jusqu’à maintenant, personne n’a réussi à trouver un agent de phosphorylation qui puisse à la fois avoir été plausiblement présent au début de l’existence de la Terre et qui puisse être capable d’initier la phosphorylation de ces trois classes de molécules dans des conditions identiques et réalistes.

Un agent unique ?

Les chimistes du TSRI (The Scripps Research Institute) en Californie pensent avoir trouvé le candidat idéal: le diamidophosphate (DAP).

Précédemment, L’équipe de Ramanarayanan Krishnamurthy avait montré que le DAP pouvait efficacement phosphoryler une variété de sucres simples pour construire des hydrates de carbones contenant des groupement phosphores que l’on suspecte d’être impliqués dans les premiers stades de la vie.

Cette fois, dans l’article de Nature où les chercheurs relatent leur découverte, le DAP s’est révélé capable d’initier la phosphorylation et la construction de chaînes de l’ensemble des classes de molécules que l’on retrouve dans les cellules.

L’action du diamidophosphate a été mise en évidence tout d’abord dans la phosphorylation de quatre nucléosides qui forment les briques élémentaires de l’ARN. La réaction s’est tenue dans de l’eau ou dans un milieu apparenté et ce sous une large plage de températures et des conditions très diverses. En ajoutant un autre catalyseur, l’imidazole, un composé organique simple que l’on pense présent facilement aux premiers âges de la Terre, l’activité du DAP a aussi amené à des chaînes de ces quatre blocs, ressemblant à des brins d’ARN.

Reprenant alors le même modus operandi, les chimistes ont montré que l’alliance DAP + imidazole permettait à des molécules élémentaires des lipides comme le glycérol et des acides gras de s’assembler pour former de petites capsules de phospholipides, des vésicules que l’on pourrait assimiler à des versions primitives des cellules.

De la même manière, le DAP dans de l’eau à température ambiante a aussi entraîné une réaction de phosphorylation de trois acides aminés (glycine, acide aspartique, glutamate) et les a aidés à construire une petite chaîne peptidique – une version courte d’une protéine.

La preuve impossible

Evidemment, plusieurs milliards d’années plus tard, il est difficile de prouver que c’est vraiment le DAP qui était présent à l’origine pour tous ces processus. La seule chose que l’on peut dire c’est que la chimie du DAP est très proche de ce qui se passe au cœur du métabolisme cellulaire aujourd’hui. L’équipe de Ramanarayanan Krishnamurthy compte poursuivre les recherches sur le DAP et devrait s’associer à des géochimistes pour identifier les sources potentielles de DAP ou d’un autre composé agissant de la même manière dans l’environnement de la Terre primitive. Une quête qui va de pair aussi avec le travail des astrobiologistes qui depuis quelques années découvrent des molécules prébiotiques dans le gaz et la poussières de l’espace interstellaire.

Sophie Hoguin

Industrie du futur : OptimData organise un évènement autour de témoignages d’acteurs industriels

Le développement des nouvelles technologies redessine et modifie en profondeur la chaîne de valeur dans la plupart des secteurs industriels. La digitalisation implique de profonds changements à la fois techniques, économiques et juridiques pour les entreprises. Au-delà des défis qu’elle représente pour ces dernières, elle permet avant tout de développer des nouveaux relais de croissance.

OptimData accompagne les industriels dans cette transformation en développant un outil qui capitalise sur l’internet des objets (IoT) et permet la création d’une intelligence artificielle pour les machines industrielles afin d’augmenter la performance de production.

Pour construire une chaîne de valeur complète et efficace, OptimData a développé un écosystème de partenaires et de savoir-faire. Son ambition collective est d’aider ses clients à tirer des bénéfices réels et rapides grâce à l’exploitation de leurs données.

L’événement, qui aura lieu le 29 novembre dans un lieu historiquement dédié à l’innovation, présente des témoignages d’industriels qui réalisent cette transformation en développant des services digitaux. L’objectif est de recueillir et capitaliser sur leur expérience. Trois axes majeurs seront développés dans le cadre de conférences à thème :

  • L’accessibilité aux données dans un contexte sécurisé
  • Concevoir un service digital par une intelligence artificielle
  • Innover avec de nouveaux business models

Un espace de démonstration des innovations et des réalisations permettra également aux visiteurs d’approfondir et d’échanger sur les expériences présentées.

Les inscriptions sont ouvertes au public et se font en ligne, dans la limite des places disponibles.

Pour vous inscrire : cliquez ici

Ciel, mon avion a été piraté !

Le doute n’est plus permis. Comme d’autres moyens de transport, les réseaux de communication des avions présentent des failles de sécurité. Cette fois, ce ne sont pas quelques hackers qui alertent l’opinion et les autorités, mais les autorités elles-mêmes qui le démontrent !

Même cela remonte à septembre 2016, l’information révélée récemment donne froid dans le dos. Des experts du Département de la Sécurité intérieure des États-Unis ou DHS (Department of Homeland Security) ont réussi à prendre le contrôle d’un Boeing 757.

Cette opération de hacking a été présentée le 8 novembre dernier par Robert Hickey, chef de programme aviation au sein de la division cybersécurité du directoire Science & Technologie du DHS, à l’occasion du CyberSat (Security in Aerospace) Summit en Virginie

Équipements radio : le maillon faible ?

Jusqu’à présent, il fallait entrer en contact physiquement avec l’avion pour tenter d’infiltrer ses connexions. En 2014 et 2016, des chercheurs en sécurité avaient réussi à accéder à l’avionique en exploitant des vulnérabilités dans des systèmes de divertissement embarqué (IFE). Mais cette fois, les hackers n’ont pas eu besoin de « toucher à l’appareil ; je n’avais pas de complicité interne », a déclaré Robert Hickey. Ils sont passés par des équipements radio. Difficile d’en savoir plus, car les détails techniques de l’opération conduite par le DHS sont classés secret défense.

« D’un point de vue technique si tout est sur le même réseau alors, c’est assez simple d’infiltrer dès que vous avez une prise RJ45. Il est possible aussi d’intercepter des ondes radio», constate un spécialiste français qui s’inquiète à propos de la flotte assez ancienne.

« Aujourd’hui, les avions sont totalement cybersafe. Le système informatique concernant le pilotage de l’appareil est physiquement séparé de celui dont les passagers se servent par exemple pour utiliser l’internet », explique Patrick Ky lors de la conférence « Cybersécurité dans l’aviation civile » qui s’est tenue le 8 novembre dernier en Pologne. Implicitement, le patron de l’Agence européenne de la sécurité aérienne (EASA) confirme les inquiétudes de notre expert français à propos des avions moins récents…

Or lors du colloque américain, Robert Hickey a précisé que « changer une ligne de code dans les avions coûte un million de dollars et prend un an ». Heureusement , le Boeing 757 n’est plus en production depuis 2004, mais la majorité des autres modèles reprenne de nombreuses caractéristiques du 757. « Ils représentent plus de 90 % des avions commerciaux encore utilisés aujourd’hui », a-t-il précisé. Il n’y a que les Boeing 787 et l’Airbus A350 qui ont été conçus dans un souci de sécurité.

L’erreur humaine

Mais les appareils ne sont pas les seuls « maillons faibles » du transport aérien. Des compagnies et des aéroports ont été victimes de piratage. Ce fut le cas en 2015 pour la compagnie polonaise Lot qui avait dû suspendre ses opérations. Plus récemment, les cyberattaques visant l’Ukraine ont eu un impact sur l’aviation notamment.

Et il ne faut pas oublier l’erreur humaine. En mai 2017, le code d’accès aux cockpits (instaurés après les attaques du 11 septembre 2001) des avions de la United Airlines aurait été divulgué par erreur. Un membre de l’équipage aurait mis en ligne les codes d’accès secrets par inadvertance. Il a fallu réinitialiser les codes d’accès de toute la flotte…

Par Philippe Richard

Piratage : transformer un robot en tueur

Selon le cabinet d’analystes, ABI Research, le marché des robots pour le grand public, pourrait atteindre 6,5 milliards d’ici quelques années. Tous les grands noms de l’high-tech commencent à s’intéresser à ce secteur, développent des projets ou commercialisent leurs modèles.

Leur principal objectif est l’ergonomie et l’imitation de la gestuelle humaine ou animale. Mais ces robots sont des objets connectés ; comme un ordinateur, ils pourraient donc être piratés ! Ces fabricants ont-ils intégré ce risque pour leurs clients, mais aussi pour elles, en terme d’image de marque ?

Tournevis

Apparemment, ce type de menace est loin d’être leur priorité. Pour l’instant ! Car les démonstrations de piratage se multiplient. La dernière en date a été menée par des hackers de l’IOActive, une entreprise américaine spécialisée en sécurité informatique, connue pour avoir révélé des vulnérabilités concernant des smartphones et des voitures.

Diffusés sur le web, leurs tests font froid dans le dos. Ils ont pu en effet modifier le comportement de robots afin qu’ils aient des comportements dangereux (prendre un tournevis et l’enfoncer sur tout ce qui se présente devant eux) ou pour écouter et voir leurs propriétaires sans que ces derniers ne le sachent.

L’une des vidéos prête à sourire avec ce robot Alpha 2 (du chinois UBTech) qui enfonce un tournevis dans une tomate. Imaginons la même scène avec une fourchette et un bambin… Tous les grands noms du secteur comme Softbank (avec ses robots NAO et Pepper), UBTech ou encore Universal présentent des failles qu’il est possible d’exploiter.

Jouets connectés, jouets piratés…

Le bilan est d’autant plus inquiétant que les marques semblent indifférentes à ce type d’alerte. Parmi la cinquantaine de robots testés, seulement quelques-uns ont vu leur système de sécurité logiciel renforcé alors que les tests ont été menés par l’IOActive il y a quelques mois…

Hélas, cette négligence ne concerne pas uniquement les fabricants de robots. Il y a quelques mois, l’association de consommateurs britannique Which? en collaboration avec l’Allemande Stiftung Warentest, avait mené des tests de sécurité sur les jouets connectés. Sur 7 produits testés, 4 se sont révélés vulnérables aux piratages. Très souvent, la connexion sans fil Bluetooth n’était pas assez sécurisée.

Bref, il s’agit dans la plupart des cas de failles connues et qui sont répertoriées sur le web… Certes, le risque zéro n’existe pas. Mais les marques jouent peut-être avec leur réputation.

Par Philippe Richard

Mémoire : des images vues pendant quelques secondes, reconnues une dizaine d’années plus tard

Le nombre de répétitions ou encore la dimension émotionnelle sont connus dans ce processus de mémorisation sur le long terme mais qu’en est-il d’une information sans réel contenu émotionnel et vue un petit nombre de fois ? C’est pour répondre à cette question que des chercheurs du Centre de recherches cerveau et cognition (CNRS/Université Toulouse III – Paul Sabatier)1 ont rappelé des participants qu’ils avaient testés au laboratoire il y a environ dix ans pour mettre à l’épreuve une nouvelle fois leur mémoire. Les résultats obtenus montrent que des images vues pendant quelques secondes peuvent être reconnues une dizaine d’années plus tard. Ces travaux sont disponibles en ligne depuis le 5 novembre 2017 dans le journal Cognition.

Lors de tests en laboratoire, il est difficile de contrôler les paramètres d’apprentissage dans le processus de mémorisation. Il est pourtant connu que plus une information est présentée et plus celle-ci pourra être maintenue en mémoire sur le long terme. Ou encore, qu’une seule exposition peut suffire pour conserver un souvenir tout au long d’une vie lorsque la dimension émotionnelle est impliquée.

Dans cette étude, les chercheurs ont pu maitriser ces paramètres clés – contexte émotionnel et nombre de répétitions – pour étudier une nouvelle forme de mémorisation. Pour ce faire, 24 participants, précédemment testés au laboratoire il y a environ dix ans et ne présentant pas de troubles de mémoire particuliers, ont été rappelés pour de nouveaux tests. A l’époque, des images très simples de type « clipart » leur avaient été présentées successivement quelques secondes seulement sans instruction particulière de les mémoriser. Les participants recontactés en 2016 ont dû identifier l’image qu’ils avaient vue dix ans plus tôt parmi deux choix d’images possibles.

En moyenne, les participants ont obtenu une performance de 55% de réponses correctes. Un score qui se révèle supérieur à celui de participants qui n’avaient jamais vu ces images auparavant (51%). De plus, les chercheurs ont montré que ce pourcentage montait à 57% de réponses correctes pour les images vues trois fois ou plus initialement et pouvait aller jusqu’à 70% pour certains participants (un tiers des sujets ont eu 60 à 70% de réponses correctes).

Dans les conditions de l’expérience, il semble donc que trois présentations puissent suffire pour maintenir une image en mémoire pendant 10 ans. Bien qu’un maintien en mémoire à un niveau implicite (c’est-à-dire sans accès conscient) était déjà connu depuis quelques années, cette nouvelle étude montre en plus que ces traces en mémoire peuvent influencer de manière directe le choix des participants allant, jusque dans certains cas, à produire un fort sentiment de familiarité.

Les chercheurs tentent maintenant de comprendre comment une telle mémorisation est possible d’un point de vue biologique. Les chercheurs suggèrent que ces mémoires puissent être sous-tendues par un petit groupe de neurones hyperspécialisés plutôt qu’un large réseau de neurones distribués.

Notes :

1En collaboration avec une chercheuse de l’institut de neurosciences des systèmes (AMU/INSERM)

Références :

Extremely long-term memory and familiarity after 12 years, C.Larzabal, E.Tramoni, S.Muratot, S.Thorpe, E.Barbeau, Cognition, 170: 254-262, doi: 10.1016/j.cognition.2017.10.009 Consulter le site web

Challenge « Industrie du Futur » : une finale riche en rebondissements

Une centaine de personnes étaient présentes pour assister à la finale du Challenge « Industrie du Futur », sur le site de SKF à St-Cyr-sur-Loire. Start-ups finalistes, collaborateurs et clients de SKF, Atos et Techniques de l’Ingénieur composaient l’assemblée.

Lancé en mai dernier par SKF et Atos, en partenariat avec Techniques de l’Ingénieur, pour accompagner la transformation digitale des usines de SKF en France, ce challenge a mis en lumière 14 start-ups françaises porteuses de solutions innovantes pour l’industrie.

Ce mercredi 8 novembre, les finalistes ont eu l’opportunité de pitcher devant plus de 100 personnes pour présenter leurs projets et tenter de décrocher l’un des 4 prix en jeu (Prix SKF, Prix Atos, Prix Industrie 4.0 et Prix Coup de Cœur).

2 lauréats du Prix Coup de Cœur

A l’issue de chaque pitch, le public était invité à évaluer les start-ups pour déterminer celle qui recevrait le Prix Coup de Cœur.  A la surprise générale, avec plus de 500 votants, cumulant les résultats des votes en salle et les votes sur le site Techniques de l’Ingénieur en octobre dernier, deux start-ups sont arrivées ex æquo !

Yves Valentin, Directeur Général de Techniques de l’Ingénieur, a donc remis le Prix Coup de Cœur aux start-ups Enovasense, spécialisée dans le contrôle non destructif, et Skeyetch, concepteur de drone pour la sécurité des sites industriels. Toutes deux ont remporté un accès à la ressource documentaire Techniques de l’Ingénieur de leur choix, pour une valeur de 3 000€.

Remise du Prix Coup de Coeur
Remise du Prix Coup de Cœur par Yves Valentin

Remise des Prix SKF, Atos et Industrie 4.0

Continuant sur sa lancée, Enovasense, finaliste dans la catégorie Matériaux & Procédés du futur, a également reçu le Prix SKF. Le Prix Atos a récompensé à nouveau Skeyetech, deux fois lauréate, et Tellmeplus, qui propose une solution pour automatiser la création de modèles prescriptifs. Toutes deux concouraient dans la catégorie Cybersécurité et Data science.

Enfin, le jury a distingué la start-up Energiency et son logiciel d’analyse de la performance énergétique de l’usine, avec le Prix Industrie 4.0.

Belle conclusion pour ces 14 start-ups qui, gagnantes ou non, ont eu la chance de participer à cette aventure aux côtés d’acteurs de renom et de présenter leurs solutions devant un public conquis. De quoi leur offrir visibilité et identification de nouvelles opportunités !

Retrouvez les présentations des 14 finalistes ici.

Glyphosate: la décision finale sera connue fin novembre !

Nouvel échec pour la Commission européenne sur le dossier du glyphosate. Lors de la réunion de ce matin, 14 pays ont voté pour un renouvellement du glyphosate de cinq ans dans l’Europe. Mais neuf pays ont voté contre. Parmi eux, on comptera la voix de la France, de l’Italie et de la Belgique. Et cinq pays, dont l’Allemagne, se sont abstenus. Ainsi, les pays en faveur du renouvellement ne représentent que 37 % de la population européenne. Pour passer, le vote devait obtenir la majorité qualifiée, à savoir 55 % des pays de l’Union européenne, représentant au moins 65 % de la population. Nicolas Hulot avait affirmé hier que la France ne voterait pas une autorisation supérieure à trois ans.

La Commission européenne aura le dernier mot

La proposition d’un renouvellement de cinq ans sera examinée par un comité d’appel fin novembre. Plusieurs issues sont alors possibles. Soit la proposition arrive à trouver une majorité qualifiée et elle est adoptée, soit il n y a pas de majorité qualifiée. Vu que ce comité est composé des représentants permanents des 28 Etats membres,  il semble peu probable que ces derniers changent de position en quelques jours.

En absence de majorité qualifiée, la commission européenne pourrait décider unilatéralement une extension de l’autorisation, comme elle l’a fait le 30 juin 2016. Mais le commissaire à la Santé, Vytenis Andriukaitis, a déjà rejeté plusieurs fois l’idée d’assumer seul la responsabilité d’une décision de renouvellement. Si la Commission ne prend pas cette décision unilatérale ou s’il y a une majorité qualifiée contre la proposition de la Commission, le glyphosate ne serait alors tout simplement pas réautorisé.

L’autorisation actuelle du glyphosate expire le 15 décembre prochain. En absence de renouvellement, il serait formellement interdit 18 mois plus tard.

Par Matthieu Combe, journaliste scientifique

Climate Policy Tracker décrypte les réglementations climatiques mondiales

Il peut être difficile de suivre les politiques climatiques pour les entreprises. En effet, selon la London School of Economics, il existe aujourd’hui environ 1.200 lois concernant le changement climatique dans 164 pays. Contre seulement 60 il y a 20 ans. Et depuis l’Accord de Paris, ces lois se multiplient pour mettre en oeuvre les contributions nationales (NDC). Elles transforment le paysage réglementaire pour les entreprises, secteur par secteur.

Suivre les réglementations climatiques mondiales

Un nouvel outil permettant de suivre l’évolution de ces réglementations vient d’être lancé : le Climate Policy Tracker. Il permet aux entreprises de suivre les politiques climatiques affectant leurs opérations et leurs chaînes d’approvisionnement dans différentes régions et pays. Pour le moment, l’outil inclut l’Union Européenne, les Etats-Unis, le Royaume Uni, la Corée du Sud, la Chine, le Japon, l’Inde, le Brésil et l’Afrique du Sud. D’autres pays sont à venir, tout comme certaines situations particulières, notamment des réglementations prises par des villes ou des régions.

Les entreprises peuvent rechercher les réglementations les plus pertinentes en les filtrant par activité et par pays. 15 activités y sont représentées, dont la cimenterie, la construction, l’énergie, la finance, l’alimentation, l’exploitation minière, la pharmacie, l’immobilier et les transports. Cet outil a été lancé par We Mean Business (WMB), une coalition engageant les entreprises à agir contre le réchauffement climatique et Business for Social Responsibility (BSR), un réseau mondial d’entreprises et d’expertise dédié au développement durable.

Le Climate Policy Tracker invite à l’action

Grâce à cet outil, les entreprises « peuvent être plus stratégiques dans leurs décisions d’investissement et tirer le meilleur parti de l’innovation, de la gestion des risques, de la compétitivité et des opportunités de croissance qu’offre la transition », estime WMB. En plus de fournir l’ensemble des réglementations et de rediriger vers les textes de loi en question, l’outil invite à l’action. Les entreprises peuvent voir ce qu’elles peuvent faire pour réduire le risque réglementaire, en s’appuyant sur la campagne Take Action de la coalition We Mean Business.

Déjà 630 entreprises sont engagées dans cette campagne/ Elles adoptent des mesures climatiques ambitieuses. Il y a les 317 entreprises qui s’engagent à adopter des objectifs de réduction d’émissions pour limiter le réchauffement à moins de 2°C. Mais aussi les 113 entreprises qui s’engagent à 100% d’énergies renouvelables. D’autres s’engagent à doubler la productivité énergétique (la production économique de chaque unité d’énergie consommée), d’autres à développer les véhicules électriques… «L’objectif est d’aider les entreprises à saisir l’une des opportunités d’affaires les plus significatives de ce siècle et de faciliter leur alignement sur la mise en œuvre de l’Accord de Paris», conclut David Wei, directeur du programme climat de BSR.

Par Matthieu Combe, journaliste scientifique

La réforme fiscale de Trump vise les renouvelables et protège les hydrocarbures

Le secteur vent debout

Le projet de loi présenté par les Républicains contient des articles visant les crédits d’impôt dont bénéficient les producteurs d’énergies renouvelables. La filière éolienne est la première touchée puisque son avantage est réduit d’un tiers, passant de 2,3 à 1,5 cents par kWh généré. Ce crédit d’impôt avait été négocié de haute lutte par le secteur et confirmé par un vote bipartisan (Républicains et Démocrates) en 2015 ce que n’a pas manqué de rappeler Tom Kiernan, président de l’American Wind Energy Association (AWEA) : «Malgré certains commentaires, cette proposition renie l’accord de réforme fiscale qui avait déjà été acceptée, et imposerait une hausse d’impôt rétroactive sur toute une industrie», déplore-t-il. L’association rappelle que les 3 759 MW éoliens actuellement en construction et 15 875 MW en développement pourrait pâtir de ce changement de cadre fiscal.

Les autres énergies renouvelables sont également impactées par le projet de réforme qui ne souhaite plus intégrer l’inflation dans les calculs des crédits d’impôts, ce qui élèvera mécaniquement les montants des taxes payées par les exploitants Enr. Les avantages fiscaux seraient supprimés au 1er janvier 2022 pour les Enr (éolien, solaire, pile à combustible, cogénération) et l’efficacité énergétique. La prime de 7 500 $ accordée aux acheteurs de véhicules électriques sera quant à elle supprimée. Une mauvaise nouvelle pour Tesla…

A l’inverse, les avantages fiscaux concédés à l’industrie pétrolière et gazière ont été, à de rares exceptions près, confirmés dans le texte de loi tout comme ceux liés à l’industrie nucléaire. Une décision qui intervient alors que les exploitants nucléaires ne parviennent plus à être rentables en raison de leurs coûts élevés, de la baisse des prix spot de l’électricité et de la concurrence féroce du gaz de schiste et des renouvelables.

Lobbying

Ces propositions doivent encore trouver une majorité à la Chambre des Représentants, puis au Sénat ce qui ne s’annonce pas si facile. En effet, Donald Trump ne bénéficie pas d’une majorité soudée, et les associations renouvelables mènent une campagne de lobbying actif auprès des représentants du Congrès pour amender le projet de loi. «La proposition de la Chambre mettrait en danger 100 000 travailleurs américains du secteur éolien et 500 usines américaines, y compris certains des emplois les plus dynamiques du pays. Nous attendons des membres de la Chambre et du Sénat qu’ils s’opposent à toute proposition qui ne respecte pas l’engagement (de 2015), et nous nous battrons pour que l’énergie éolienne continue de fonctionner en Amérique», a déclaré Tom Kiernan. Un premier signe en ce sens a été donné par Kevin Brady, élu Républicain siégeant au Comité responsable du texte, en indiquant que le projet pourrait encore être modifié.

Difficile pourtant de ne pas s’attendre à une baisse des investissements Enr aux Etats-Unis tant les signaux pro-hydrocarbures se multiplient au pays de l’Oncle Sam. Quelques jours après son intronisation, Trump a confirmé sa volonté de détricoter le Clean Power Act mis en place par Barack Obama pour favoriser les technologies propres. Il a également donné son feu vert à la construction de oléoducs contestés (Keystone XL et Dakota Access) qu’avait bloqués son prédécesseur. Plus récemment, et très discrètement, les Etats-Unis sont sortis de l’Extractive Industries Transparency Initiative, un groupe constitué de 52 pays s’engageant à plus de transparence dans le secteur des industries extractives (mine, pétrole et gaz) régulièrement mêlée à des scandales de corruption. Un nouveau signal négatif pour Corinna Gilfillan, directrice de Global Witness aux Etats-Unis : «Lorsque de grands groupes chinois et russes révèlent davantage d’informations sur leurs opérations internationales que leurs homologues américains, il faut se demander: que cherchent désespérément à cacher Exxon et Chevron ?». Une question à laquelle pourrait certainement répondre Rex Tillerson, ancien Pdg d’ExxonMobil, devenu responsable de la diplomatie américaine dans l’administration Trump…

Romain Chicheportiche

RTE pousse Hulot à reporter la baisse du nucléaire

Nicolas Hulot avait évoqué cet été la possible fermeture de «jusqu’à dix-sept» réacteurs nucléaires pour respecter l’objectif de la loi de transition énergétique française. Mais RTE est en charge de vérifier l’adéquation des objectifs de transition énergétique avec le réseau électrique français. Et le rapport du gestionnaire du réseau de transport d’électricité est formel: il n’est pas possible de réduire la part à 50 % en 2025 tout en fermant les centrales à charbon et en baissant les émissions de gaz à effet de serre.

Premier enseignement du rapport : les marges de manoeuvre seront très faibles cet hiver et ce jusqu’en 2020. RTE n’écarte pas la possibilité de procéder à des coupures d’électricité en cas de froid intense.

La fermeture des centrales au fioul françaises qui servaient de moyens de pointe en hiver ne sera pas compensée avant 2020. À cet horizon, les marges hivernales augmenteront grâce aux économies d’énergie, aux nouveaux parcs éoliens offshore, à une nouvelle centrale au gaz et à trois nouvelles interconnexions avec l’Angleterre et l’Italie, note RTE.

Réduire le nucléaire ou baisser les émissions de CO2?

Les marges nouvellement gagnées permettront alors soit de fermer les centrales à charbon soit les quatre réacteurs nucléaires atteignant 40 ans de fonctionnement. Mais «ces deux mesures ne peuvent être engagées conjointement», met en garde RTE. Cela sera donc soit les centrales à charbon, soit quatre réacteurs nucléaires. Et vu que le Plan Climat de Nicolas Hulot présenté en juillet prévoit la fin de la production électrique à partir de charbon d’ici 2022, le ministre peut difficilement repousser cette date.

Pour réduire la part du nucléaire à 50 % d’ici 2025, il faudrait fermer «de l’ordre de vingt-quatre» réacteurs nucléaire de 900 MW, estime RTE. Outre le maintien des centrales à charbon, il faudrait passer de 11,7 gigawatts (GW) d’éolien terrestre en 2016 à 30 GW en 2025 et de 6,7 GW de photovoltaïque à 24 GW. Et construire 11 GW de nouvelles centrales au gaz. Le mix électrique présenterait ainsi une part de 50 % de nucléaire, 34 % d’énergies renouvelables et 16 % de thermique contre 9 % en 2016. Mais dans ce scénario, les émissions de CO2 du système électrique français doubleraient, passant de 22 millions de tonnes (Mt) à 42 Mt en 2025.

Nicolas Hulot ne veut pas renier les engagements climatiques. Son Plan climat prévoit aussi la neutralité carbone en 2050.Il a donc décidé de repousser l’objectif hérité du précédent quinquennat. Le ministre promet toutefois que l’objectif de 50 % ne passera pas à la trappe. Il se donne quelques mois pour définir une «date réaliste». C’est-à-dire une date qui évite de devoir «relancer la production d’électricité à base d’énergies fossiles» sur la base des travaux de RTE.

Quel est le scénario réaliste pour RTE ?

En plus du scénario pour 2025, RTE en a établi quatre autres jusqu’en 2035. Le scénario le moins émetteur envisage de réduire les émissions à 9 Mt à cet horizon. Si la part du nucléaire reste dans ce cas à 56 % en 2035, l’objectif de 40 % d’énergies renouvelables dans le mix électrique serait en revanche respecté. Le scénario le plus ambitieux pour la réduction de la part du nucléaire qui atteindrait 11% en 2035 est aussi le plus émetteur : 32 Mt. Si ce scénario prévoit 52 GW d’éolien terrestre, 48 GW de photovoltaïque, il nécessiterait aussi 21 GW de nouvelles centrales au gaz.

Deux scénarios prévoient d’atteindre l’objectif des 50% de nucléaire en 2030 et conduisent à des émissions de CO2 comprises entre 12 et 19 Mt en 2035. Ils entérinent tous deux la fermeture des centrales au charbon. C’est sans doute le scénario le moins émetteur qui devrait retenir l’attention du ministre. Il ne demande pas de nouvelles centrales au gaz (contre 10 GW pour le scénario à 19 Mt) et mise sur 52 GW d’éolien et 48 GW de photovoltaïque.

Par Matthieu Combe, journaliste scientifique

Réchauffement climatique: une bombe pour la santé publique

C’est une nouvelle collaboration de recherche internationale qui va faire parler d’elle. Associant 24 institutions, dont l’OMS et la Banque mondiale, l’initiative Compte à rebours du Lancet : suivi des progrès sur la santé et la lutte contre les changements climatiques publiera désormais un rapport annuel de suivi des progrès en matière de santé et de climat dans le journal The Lancet. Cette initiative fait suite aux conclusions de la Commission 2015 du Lancet pour qui le changement climatique menaçait d’effacer tous les gains enregistrés en matière de santé publique depuis 50 ans. Et la première édition est riche d’enseignements.

D’abord, le réchauffement climatique n’est pas uniforme sur Terre. Et les populations sont malheureusement concentrées dans les zones où celui-ci est le plus important. Notamment en Inde, dans certaines parties de la Chine et en Afrique sub-saharienne. «Le réchauffement moyen auquel ont été confrontés les humains est de 0,9°C entre 2000 et 2016, soit plus du double de la hausse de la température moyenne mondiale sur la même période (0,4°C)», estime le rapport.

La population mondiale menacée par la chaleur

Ainsi, le nombre de personnes de plus de 65 ans exposées à des vagues de chaleur dans le monde a augmenté de 125 millions entre 2000 et 2016. Un nouveau record a été enregistré en 2015, à hauteur de 175 millions. Les experts s’attendent à ce que près d’un milliard de personnes supplémentaires soient exposées à des vagues de chaleur d’ici 2050.

Par ailleurs, la hausse des températures affecte particulièrement la productivité des travailleurs qui évoluent en extérieur en milieu rural. Le rapport estime que leur productivité a diminué de 5,3 % depuis 2000. En 2016, ce sont ainsi plus de 920.000 personnes qui ont été exclues du marché du travail, dont 418.000 en Inde.

Un air pollué qui condamne les plus pauvres

Dans le monde, 71% des 2.971 villes suivies par l’OMS présentent une concentration moyenne annuelle de particules fines (PM 2,5) dans l’air supérieure au seuil conseillé de 10 microgramme par mètre cube (µg/m3). L’exposition globale a augmenté de 11,2 % depuis 1990. Cela signifie que des milliards de personnes dans le monde sont exposées à des niveaux dangereux de particules fines. En France, cette concentration est en moyenne de 12 µg/m3, avec un pic national de 22 µg/m3 à Pantin.

La mauvaise qualité de l’air a des répercussions sur la santé en augmentant les taux d’accidents vasculaires cérébraux (AVC), de maladies cardiaques, de cancer du poumon et de maladies respiratoires chroniques et aiguës. Plus de 1,9 millions de décès prématurés ont été attribués à la pollution de l’air dans 21 pays d’Asie du sud-est en 2015. Deux pays, la Chine et la Corée du Nord, en ont comptabilisé plus de 700.000 chacun.

Sous-nutrition, dengue et dettes en perspective

Pour chaque degré de réchauffement climatique, les auteurs de l’étude estiment que la production mondiale de blé diminuera de 6 % et celle de riz de 10 %. La sous-nutrition serait ainsi l’une des principales menaces sanitaires liées au réchauffement. Dans un monde réchauffé, la dengue continuera aussi son expansion, alors que déjà 50 à 100 millions d’infections sont enregistrées chaque année. Deux types de moustiques ont en effet vu leur capacité vectorielle à transmettre la dengue augmenter de 3 % et 6 % depuis 1990.

Par ailleurs, plus d’un milliard de personnes dans le monde pourraient être forcés à émigrer d’ici 90 ans, en raison de l’élévation du niveau de la mer. Dernier enseignement et non des moindres : le monde aurait connu une augmentation de 46 % des catastrophes liées aux conditions météorologiques depuis 2000. Pour la seule année 2016, les pertes économiques causées par des événements climatiques se sont élevé à 129 milliards de dollars. Et 99 % de ces pertes ont eu lieu dans des pays à faible revenu et non assurés.

Malgré l’ampleur du défi, les auteurs restent convaincus que l’adaptation au changement climatique peut être l’occasion d’améliorer la santé publique mondiale. Les opportunités sont énormes : assainir l’air des villes polluées, offrir des régimes plus nutritifs, assurer la sécurité énergétique, alimentaire et hydrique, réduire la pauvreté, ainsi que les inégalités sociales et économiques. « Il est essentiel que les professionnels de santé fassent entendre leur voix afin de stimuler les progrès en matière de lutte contre le changement climatique et de tirer les bénéfices associés pour la santé », préviennent les auteurs.

Par Matthieu Combe, journaliste scientifique

La COP 23 en proie aux lobbies industriels !

Le Parlement européen a récemment appelé ses négociateurs à accorder la priorité à la lutte contre l’influence néfaste des intérêts industriels à la COP23.

Et ce n’est pas pour rien. Intitulé “Polluting Paris: How Big Polluters are undermining climate policy”, ce nouveau rapport analyse les diverses façons dont les entreprises, notamment celles des énergies fossiles, infiltrent les négociations. Elles orientent les discussions dans leur propre intérêt, dans des domaines aussi variés que l’agriculture, la finance, ou encore les technologies. Les négociations sont ainsi orientées vers des programmes commerciaux qui profitent aux groupes industriels, poussant parfois de fausses alternatives au dépit de solutions non marchandes, comme la finance directe et les réductions d’émissions contraignantes.

Première leçon : intégrer une association commerciale

Pour avoir une influence, il faut être très bien placé dans des associations commerciales. Les auteurs soulignent l’influence de telles associations, par exemple l’International Emissions Trading Association (IETA). Ses membres comprennent les géants pétroliers BP et Chevron, et des sociétés actives dans le charbon. L’IETA s’est immiscée directement dans les discussions, grâce à l’un de ses membres qui négocie au nom du Panama. Il est aussi l’un des co-coordinateurs sur les mécanismes de marché pour le G77 et la Chine.

Par ailleurs, des dirigeants de Shell et d’EDF ont occupé des postes importants au sein du comité consultatif du Centre et Réseau des Technologies Climatiques. Ce programme est en charge de la mise en œuvre des activités de transfert de technologies climatiques dans le monde. Et le Climate Technology Network compte comme membres l’Association mondiale du charbon et l’Institut mondial de capture et de stockage du carbone, qui représentent entre autres Shell et ExxonMobil. Ce groupe apporte une assistance et des conseils technologiques aux pays du Sud,

Deuxième leçon: Sponsoriser des événements climatiques

Des entreprises comme Suez et Engie ont pu accéder aux discussions sur le climat en finançant eux-mêmes la COP21. « Le parrainage de la COP par les entreprises est symptomatique d’un problème plus profond – les dirigeants politiques considèrent les entreprises qui détruisent le climat comme des partenaires pour résoudre une crise dont elles ont profité et dont elles ont retardé la résolution, estime Pascoe Sabido, chercheur à l’Observatoire des lobbies européens, Corporate Europe Observatory. Mettre fin à ce parrainage devrait être une évidence, et un pas petit, mais visible, dans la bonne direction.»

Pourtant, les grands sponsors de la COP23 comptent toujours de grandes entreprises polluantes comme BMW et Solvay. Les COP offrent ainsi aux pollueurs la possibilité de se faire passer pour la solution et non pour le problème, dénonce le rapport.

Troisième leçon: faire du neuf avec du vieux

Pour verdire des pratiques, il suffit de leur donner des noms modernes. Ainsi, les grandes entreprises agricoles qualifient désormais leurs pratiques dévastatrices sur le plan environnemental d’ « agriculture intelligente face au climat ». Ils retardent ainsi l’adoption de réglementations sur les émissions dans l’agriculture industrielle. C’est notamment le cas de Syngenta et Monsanto. Par exemple, le Roundup et le glyphosate deviennent une solution agroécologique moins polluante que le labour. En effet, les tracteurs utilisés pour labourer émetraient trop de gaz à effet de serre.

Au final, toutes ces techniques portent leurs fruits. Les investissements du Fonds Vert pour le climat sont attribués par des institutions internationales et des banques qui soutiennent le secteur privé. Ainsi, cinq banques et institutions transnationales seulement gèrent près de 75% des fonds et plus de 50% des fonds alloués jusqu’à présent ont été affectés à des projets du secteur privé.

Par Matthieu Combe, journaliste scientifique

Glyphosate: nouveaux éléments à charge dans son évaluation !

Il existe de nombreuses études indépendantes montrant la toxicité du glyphosate. Néanmoins, la plupart de leurs résultats ont été rejetés pour différentes raisons et n’ont pas été pris en compte pour le rapport d’évaluation des risques (RER) du glyphosate en vue de son renouvellement en Europe. Générations Futures a demandé à un consultant indépendant d’analyser les raisons qui ont poussé les régulateurs à rejeter ces études. Le rapport dénonce de nombreuses irrégularités.

tab

Premièrement, l’article 8.5 du règlement 1107/2009 demande à l’industriel qui fait la demande de joindre la documentation scientifique des 10 dernières années. Avec une petite recherche, les ONG ont trouvé 146 études portant sur la toxicité du glyphosate. Mais le RAR n’en a répertorié que 76, soit 51%. Sur l’ensemble de ces études non industrielles, seulement 24 ont été discutées. Quelques centaines d’études réalisées par l’industrie ont en revanche été évaluées. Au final, la plupart des études discutées proviennent donc de l’industrie.

Le rapport de Générations Futures s’intéresse à 16 motifs de rejets d’étude de toxicité du glyphosate, qu’elle soit réalisée par l’industrie ou par les universités. Au total, il a analysé 49 rejets de résultats de toxicité. Et sa conclusion est formelle : « sur 49 motifs de rejets ayant pu être expertisés, 45 l’ont été pour des raisons contestables ou très contestables scientifiquement ».

Glyphosate, des études injustement écartées

Grâce à ces techniques, l’industrie peut à la fois rejeter les conclusions de toxicité de la littérature scientifique, mais aussi de ses propres études. Les quatre raisons qui reviennent le plus? Les études ne suivent pas les lignes directrices et les Bonnes Pratiques de Laboratoire, elles ignorent les effets sur certains organes, les contrôles historiques sont malades bien que les contrôles négatifs de l’étude soient en bonne santé et elles ne montrent pas de relation dose/effet.

Lorsque les experts évaluent la qualité d’une étude, ils peuvent rejeter ses conclusions en faisant référence à des contrôles ou témoins issus d’autres études. Ces contrôles témoins sont souvent fournis par des bases de données secrètes de l’industrie, note Générations Futures. Résultat : il est possible de rejeter plusieurs études pour des raisons obscures. Par ailleurs, tout effet à faible dose peut être balayé sous prétexte qu’il n’y a pas de relation dose-réponse. « Il y a tout simplement trop de signes de toxicité en deçà de la dose qui serait la plus faible dose sans effet au monde; et trop de résultats n’ont pas été évalués », prévient le rapport de Générations Futures.

Un système d’évaluation des risques à revoir

Pour François Veillerette, porte-parole de Générations Futures, il faut revoir les méthodes de travail. Trop d’études sont écartées non pas sur leur fonds scientifique, mais pour des raisons de pratiques de laboratoire. De même, les effets à faible dose sont mis de côté : l’évaluation ne considère ainsi que les hautes doses. « Ce n’est pas une démarche scientifique », regrette-t-il . L’expert y voit aussi une question de charge de travail. Selui lui, les agences ne sont pas taillées pour pouvoir réellement vérifier et évaluer l’ensemble des études.

« Si on met systématiquement de côté les études dérangeantes, c’est problématique », assène François Veillerette. Générations Futures a donc commandé une étude similaire sur une dizaine d’autres pesticides. Son objectif : vérifier si ce dispositif de rejet systématique est généralisé et identifier les failles dans le système d’évaluation des pesticides pour proposer des améliorations.

Par Matthieu Combe, journaliste scientifique

Le Grand Jeu concours Techniques de l’Ingénieur

L’année 2017 a été une année riche en événements et innovations scientifiques et techniques. Vous les avez d’ailleurs retrouvées tout au long de l’année dans les articles du Magazine d’actualité.

Pour vérifier que vous n’avez rien oublié, Techniques de l’Ingénieur organise son grand jeu concours !

JOUER

Participez et tentez de gagner l’un des cadeaux suivants :

1 – Premier lot : 
Un ordinateur portable Asus
D’une valeur de 500 euros

2 – Deuxième lot : 
Un Google Home
D’une valeur de 150 euros

3 – Troisième lot : 
Un Google Home Mini
D’une valeur de 50 euros


JOUER

Il vous manque une réponse ? Retrouvez la dans l’un des articles suivants :

Bonne chance à toutes et à tous !

JOUER

 

La COP 23 marquée par les catastrophes naturelles meurtrières de 2017

Ouragans, feux de forêts et autres inondations, les catastrophes naturelles ont largement fait la une de l’actualité en 2017. C’est dans ce contexte particulier que s’ouvre la nouvelle conférence mondiale sur le réchauffement climatique, la COP 23. Les conséquences liées à de tels événements sont dramatiques pour les populations qui les subissent. Présidentes de cette nouvelle édition, les Îles Fidji ont elles-mêmes été confrontées en 2016 à un cyclone meurtrier. Bien que ce déchaînement de la nature soit inquiétant, la multiplication de ces phénomènes l’est davantage. En 2017, nombre d’épisodes de ce type ont causé des ravages sur toute la planète.

D’après « le Compte à rebours » du Lancet, les conditions météorologiques seraient à l’origine de 46 % de catastrophes naturelles de plus qu’en 2000. Le rapport indique également qu’en 2016, 129 milliards de dollars de pertes ont été causées par ces événements climatiques. La quasi intégralité des pays touchés par ces épisodes météorologiques sont des pays à faibles revenus et non assurés. Et selon l’observatoire des catastrophes et des risques naturels,selon l’observatoire des catastrophes et des risques naturels, 13.191 événements ont été recensés depuis 2001. La France est particulièrement concernée du fait des 1.600 épisodes survenus sur l’intégralité du territoire.

L’Europe en proie aux incendies et à la chaleur

Comme ailleurs, les épisodes météorologiques extrêmes se généralisent en Europe. En 2017, les catastrophes majeures en France ont été les feux de forêts. L’été dernier, les incendies du bassin méditerranéen ont causé l’évacuation forcée de plus de 20.000 touristes. Le drame portugais du mois d’octobre noircit le tableau. Attisés par l’ouragan Ophélia, plus de 700 départs de feux ont causé la mort de 41 personnes dans le nord du pays. Cela s’ajoute aux feux de forêts du début de l’été qui avaient déjà fait 60 victimes. Le gouvernement a estimé les pertes dans la région de Pedrógão Grande à environ 497 millions d’euros.

Ophélia a également fini par toucher l’Irlande, faisant trois morts. Cet ouragan de catégorie 3 a été le plus fort à frapper l’Irlande depuis 50 ans. Bien qu’Ophélia ait perdu de la puissance dans sa course, le pays a vécu des orages sans précédent. Le coût des dégâts est estimé entre 500 et 800 millions d’euros selon les assurances.

Par ailleurs, onze pays du sud et du centre de l’Europe ont connu d’importantes vagues de chaleur durant l’été, dépassant les 40°C. Les poids lourds n’étaient plus autorisés à circuler, et les viticulteurs italiens ont dû anticiper leurs récoltes. De telles températures sont évidemment extrêmement dangereuses pour l’homme. Les scientifiques estiment qu’actuellement les canicules estivales causent 3.000 décès par an en Europe. Si rien ne change, ce chiffre pourrait atteindre les 15.000 à la fin du siècle.

Le reste du monde en proie à des inondations violentes

Si l’Europe souffre de la sécheresse, d’autres régions du monde sont souvent inondées. En avril dernier, des précipitations ont causé inondations et glissements de terrains entre la Colombie, l’Équateur et le Pérou. Plus de 1,3 million de personnes ont été touchées, 90 ont perdu la vie au Pérou. 700.000 Péruviens se sont retrouvés sans abris. Le gouvernement a estimé que les reconstructions prendraient cinq ans et coûteraient 9 milliards de dollars. En Colombie, les coulées de boues ont causé le décès de 200 personnes. En septembre, les ouragans Harvey et Irma ont fait plus de 200 morts aux États-Unis et dans les Caraïbes. Ensuite, l’ouragan Maria a tué au moins 48 personnes à Porto Rico. D’autres chiffres avancent même que les victimes tuées pourraient être en réalité 450. L’accès à l’énergie et à l’eau potable n’était toujours pas rétabli un mois après le passage des ouragans.

Les inondations connues en Asie du sud-est sont aussi d’une violence rare. Cet été, plus de 1.200 personnes ont perdu la vie en Inde, au Bangladesh et au Népal. On estime qu’entre 30 et 40% des personnes décédées sont des enfants. Les dérèglements météorologiques ont malheureusement des impacts directs sur l’accès à l’école. Les pluies diluviennes ont dévasté environ 18.000 établissements scolaires, privant ainsi 1.8 million d’élèves de cours. Mais ces jeunes victimes ne sont pas les seules. Selon l’ONU, 41 millions d’habitants de cette zone auraient été affectés par ces pluies torrentielles. Les exploitations agricoles sont également en danger. Dans les trois pays précédemment cités, 2.4 millions de terres cultivées ont été réduites à néant en 2017.

Par Matthieu Combe, journaliste scientifique

Le raffinage menacé par le réchauffement climatique

Si l’on veut limiter le réchauffement à +2°C en 2100, le GIEC martèle à qui veut bien l’entendre qu’il faut laisser entre 80 et 90 % des réserves de charbon sous terre. Mais aussi 35 % des réserves de pétrole et 50% des réserves de gaz. Les différents rapports pointent aussi du doigt l’impact des politiques climatiques sur l’industrie et les transports. Mais ils ne portent jamais sur les entreprises intermédiaires, celles du raffinage. Dans le silence, celles-ci projettent d’ailleurs une demande en croissance régulière jusqu’en 2035. Carbon Tracker présente un nouveau rapport sur les capacités de raffinage mondiales et note que «cette prévision est incompatible avec les objectifs de l’accord de Paris sur le climat».

Un quart des raffineries fermeront d’ici 2035 !

Les carburants – diesel, essence et kérosène – sont les produits les plus rentables et comptent pour 70 % des marges du raffinage. Mais ce sont aussi «  les plus exposés à une baisse de la demande », prévient le think tank. Et selon une étude de février 2017, les compagnies pétrolières sous-estiment sérieusement la baisse de la demande dans le secteur des transports. Par exemple, les véhicules électriques pourraient représenter 35%  du transport routier en 2035, alors que BP table seulement sur une part à 6 % dans son « Energy Outlook ».

Dans ces circonstances, Carbon Tracker prévoit que dans un monde à 2°C, « un quart des capacités mondiales de raffinage ne seront plus viables économiquement et devront être fermées d’ici 2035 ». Et si les bénéfices cumulés du secteur étaient de 147 milliards de dollars en 2015, ils seront divisés par deux à cet horizon. Pour survivre, les raffineries devront donc diminuer leurs marges. En moyenne, elles s’élevaient à 5 dollars par baril en 2016. Elles diminueront de 3,5 dollars pour n’être que de 1,5 dollars en 2035. Ces calculs de l’organisation se basent sur le scénario 450 de l’Agence Internationale de l’Énergie (AIE) pour lequel la demande de pétrole culminera en 2020 puis diminuera de 23 % au cours des 15 prochaines années.

Total, Eni et les pays de l’OCDE seront les plus touchés

L’étude a porté sur 492 raffineries représentant 94 % de la capacité mondiale. Et environ 130 raffineries devront fermer. Les entreprises les plus touchées seront celles qui font beaucoup de raffinage mais à des marges faibles, prévient le think tank. C’est notamment le cas de Total dont 12 % du résultat opérationnel provient du raffinage mais dont la marge moyenne est seulement de 3 dollars par baril (contre 5 pour Shell et 7 pour BP). Le rapport estime ainsi que Total et Eni seront les plus exposés, risquant de perdre entre 70 % et 80 % de leurs bénéfices en 2035. Suivent Shell et Chevron avec une chute de 60 % à 70 % et ExxxonMobil et BP avec une baisse de 40% à 50%.

Pour les auteurs, les capacités mondiales des raffineries sont suffisantes pour répondre à la demande future. En revanche, les évolutions régionales de la demande pourront nécessiter de nouvelles capacités au Moyen-Orien et en Asie. Ainsi, l’industrie des pays de l’OCDE aura probablement besoin de réductions plus importantes que la tendance mondiale.Toutefois, ces fermetures pourraient menacer la sécurité d’approvisionnement de ces pays, note le rapport. Ces derniers pourraient donc décider de maintenir en activité des installations non rentables. Par exemple, 12 des 79 raffineries européennes sont menacées de fermeture. Et la France n’a plus que 8 raffineries contre 12 en 2008 et 20 en 1980. Le pays accepterait-il de laisser fermer toutes celles qui restent ? Rien n’est moins sûr.

Par Matthieu Combe, journaliste scientifique

L’ONU veut fortement durcir l’action climatique

En 2016, les émissions mondiales de gaz à effet de serre atteignaient 51,9 gigatonnes équivalent CO2 (GtCO2e). Pour atteindre l’objectif des 2°C, les émissions ne devraient pas excéder 42 Gt en 2030. Et s’il fallait réellement rester sous la barre des 1,5°C, elles ne devraient pas dépasser 36 Gt. Toutefois, l’ONU estime que si les contributions nationales (NDC) actuellement actées étaient respectées, le monde émettrait encore 52,8 Gt à cet horizon. De quoi faire grimper le thermomètre d’au moins 3°C à la fin du siècle. Si aucune mesure supplémentaire n’est mise en place, 80 % du budget carbone pour espérer limiter le réchauffement à 2°C sera consommé en 2030. Et il sera déjà trop tard pour limiter le réchauffement à 1,5°C.

Les contributions des pays ayant pris part à la COP21 ne représentent qu’un tiers de la réduction des émissions nécessaires d’ici 2030. Il devient donc urgent de les réviser fortement à la hausse  avant 2020. Et pour combler un écart entre 11 et 17 Gt, l’ONU propose plusieurs pistes.

Investir fortement dans des technologies éprouvées

Si les émissions mondiales de CO2 ont stagné entre 2014 et 2016, elles n’ont pas diminué. Et d’autres gaz à effet de serre, tels que le méthane, continuent à être de plus en plus rejetés. Rien n’est gagné. «Une accélération de la croissance économique mondiale pourrait facilement remettre faire repartir à la hausse les émissions de CO2», prévient l’ONU.

Grâce des solutions éprouvées, l’organisation propose de déployer rapidement des technologies dans six secteurs clés. À savoir l’agriculture, les bâtiments, l’énergie, la foresterie, l’industrie et les transports. Les experts identifient des réductions pouvant atteindre 36 Gt. Les investissements seraient inférieurs à 100 dollars la tonne de CO2 évitée. De quoi largement atteindre les objectifs.

Par ailleurs en concentrant l’action seulement dans quelques domaines – énergie solaire et éolienne, reboisement, efficacité énergétique, transports économes, fin de la déforestation – il serait possible de faire baisser les émissions jusqu’à 22 GtCO2e. «Toutes ces mesures peuvent être réalisées à des coûts modestes ou même négatifs, et dans la plupart des cas il y a des politiques éprouvées qui peuvent être répliquées», juge l’ONU.

D’autres actions en perspective

L’ONU propose aussi de faire jouer une plus grande part aux acteurs sous-nationaux et non étatiques. Les experts visent les régions, les gouvernements locaux et les entreprises. Particulièrement, les 100 entreprises les plus polluantes représenteraient environ un quart des émissions mondiales de gaz à effet de serre. Par ailleurs, le respect des engagements de l’amendement de Kigali au Protocole de Montréal pour mettre fin aux hydrofluorocarbures permettrait de diminuer les émissions de 0,7 GtCO2e en 2030.

Un secteur doit particulièrement être pris à bras le corps. C’est celui de la production d’électricité à base de charbon. L’ONU estime qu’il y a 6.683 centrales à charbon en activité dans le monde. Si elles sont opérées jusqu’à leur fin de vie sans système de capture et de stockage de CO2, elles émettront un total de 190 GtCO2e. Et avec les centrales en projet ou en cours de construction, elles pourraient entraîner l’émission de 150 GtCO2e. supplémentaires, pour un total de 340 GtCO2e. En comparaison, le budget restant pour espérer rester sous les 2°C est d’environ 1.000 GtCO2e et de 300 GtCO2e pour rester sous les 1,5°C. L’ONU prône donc leur fermeture progressive et leur remplacement par des énergies renouvelables.

Par Matthieu Combe, journaliste scientifique