Glyphosate: la Commission persiste vers un renouvellement

Le feuilleton dure depuis deux ans. Mais les choses s’accélèrent en cette fin d’année puisque la licence européenne du glyphosate expire le 15 décembre. À l’approche d’un nouveau vote, le Parlement européen s’était prononcé le 24 octobre pour une sortie programmée du glyphosate en 5 ans, incluant une extension (et non un renouvellement) de trois ans maximum. Le lendemain, alors que la Commission européenne prévoyait toujours un renouvellement de dix ans, elle n’a pas pu rassembler de majorité qualifiée. À savoir le vote d’au moins 55% des 28 Etats membres représentant 65% des habitants. 16 pays étaient pour, 2 pays voulaient s’abstenir et 10 étaient contre, dont la France et la Belgique. Le vote a donc été à nouveau reporté.

Face à la position du Parlement européen et en absence de majorité qualifiée, la Commission envisageait de mettre sur la table un renouvellement de 5 à 7 ans. Après deux jours de réflexion, la Commission proposera finalement un renouvellement pour cinq ans, fait savoir Anca Paduraru, porte-parole de la Commission Européenne. Toutefois, cette proposition ne mentionne aucune restriction ou une possible interdiction dans les années à venir. Si elle était votée, aucune sortie du glyphosate ne serait envisageable avant plusieurs années. Un nouveau vote sur cette proposition aura lieu le 9 novembre.

Opposition entre experts, ONG et industriels sur le glyphosate

Défenseurs et opposants du glyphosate s’affrontent à tous les niveaux. Ils se renvoient dos-à-dos les évaluations scientifiques. Il y a bien l’évaluation du Centre international de recherche sur le cancer qui l’a classé « cancérogène probable » en 2015. Mais toutes les évaluations ultérieures des agences sanitaires  (Efsa et Anses) et de l’Agence européenne des produits chimiques (ECHA) concluent à de faibles risques ou à l’absence de cancérogénicité chez l’Homme. Et puis, il y a aussi le scandale des Monsanto Papers et les accusations d’influence de Monsanto sur le rapport de l’Efsa reprenant des copiers-collers d’études de l’industriel. Pour mettre un peu plus de pression sur les politiques, une initiative citoyenne européenne demandant l’interdiction du glyphosate a été signée par 1,3 millions d’européens.

Les agriculteurs montent au créneau pour dénoncer l’absence d’alternatives à cet herbicide. La FNSEA dénonce notamment « des trajectoires d’interdictions et non des trajectoires de solutions » qui risquent de conduire à « des impasses techniques ». À l’opposé, « santé publique, principe de précaution, conflits d’intérêt, urgence environnementale : les arguments ne manquent pourtant pas aux décideurs politiques pour exiger l’interdiction du glyphosate sans attendre dans l’Union européenne », juge l’organisation Foodwatch.

Par Matthieu Combe, journaliste scientifique

Sites Web en France: une sécurité trop négligée

Faut-il encore s’étonner que des pirates prennent le contrôle de sites web où accèdent à des données sensibles ? Non. Trop d’entreprises ne prennent pas assez en compte ces risques et négligent la sécurité de leur site. C’est le constat que pourrait faire pour la deuxième année consécutive le cabinet Wavestone, spécialiste de la transformation des entreprises. Son tableau de bord n’est pas exhaustif puisqu’il repose uniquement sur le résultat d’audits qu’il a réalisés à la demande de ses clients, les résultats étant anonymisés.

Cette année, le rapport se base sur 155 tests d’intrusion réalisés entre juin 2016 et juin 2017, sur près de 120 sites accessibles en ligne, et 38 sites internes, privés. Le bilan n’est pas vraiment encourageant. Il est même inquiétant, car il concerne des secteurs sensibles, banque et énergie notamment.

Des failles graves

La totalité des sites étudiés présentait des vulnérabilités, quel que soit le contexte ou le secteur  ! La moitié de ceux accessibles sur Internet était affectée par «au moins une faille grave». Une faille «grave» permet d’accéder à l’ensemble du contenu du site et/ou de compromettre les serveurs. 45 % des sites ne sont touchés que par des failles importantes. Elles permettent d’accéder aux informations d’autres utilisateurs, mais en nombre limité ou de manière complexe.

Le recours à un chiffrement insuffisant (certificat invalide, protocoles vulnérables…) arrive en tête des vulnérabilités, présent dans 83 % des cas. Dans 76 % des cas, des informations techniques superflues sont diffusées (ex. : page d’erreur ou entêtes divulguant la version d’un composant, etc.). Dans 45 % des cas, les mécanismes d’authentification ne sont pas suffisamment robustes (ex : absence d’anti brute-force, complexité des mots de passe, etc.).

En interne, c’est pire : la proportion montre à 68 %. Preuve supplémentaire que ces entreprises négligent « dans la durée » la sécurité de leur site (qui est dans la majorité des cas la « vitrine » de leur activité) : «40 % des sites ayant déjà subi un audit de sécurité sont encore vulnérables», avec au moins une faille grave.

La pression des métiers et du… RGPD

Cela signifie que les mesures de sécurité (comme l’installation de correctifs) qui avaient été recommandées n’ont pas été appliquées. Dans de nombreux cas, le développement du site n’a pas intégré dès le départ la sécurité ; résultat, il faut revoir toute l’architecture du site. Trop long, trop cher pour de nombreuses entreprises…

«La gestion actuelle des projets ne laisse pas beaucoup de place à la sécurité : pression des métiers, mise en production urgente, projet dont on apprend l’existence à sa sortie, etc. L’intégration de la sécurité dès le début du projet est pourtant l’une des clés à maîtriser», constate ce cabinet.

L’entrée en application du Règlement européen sur la protection des données (RGPD) en mai prochain est peut-être une bonne nouvelle: les entreprises auront l’obligation de se concentrer sur la sécurité de leur site et de leurs applications dès leur conception…

Philippe Richard

La filière chimie organise sa promotion via un inter-réseaux

L’Union des industries chimiques (UIC), plusieurs pôles de compétitivité ( Axelera, Elastopôle, IAR, Matikem, Plastipolis, Trimatec, Xylofutur) et Novachim ont signé, jeudi 19 octobre, une convention de partenariat pour la création de CROSSCHIM, un inter-réseaux de la filière chimie qui doit unir sous une même bannière les acteurs de l’innovation du secteur.

Dans le cadre de la feuille de route stratégique dessinée par le Comité stratégique de filière (CSF) Chimie et Matériaux au sein du Conseil national de l’industrie, il a été décidé de favoriser la structuration concertée des différentes actions en faveur de l’innovation et du développement du secteur.

La création de CROSSCHIM en est le premier pas: réunir les différents acteurs de l’innovation de la chimie et de la première transformation des matériaux pour mener des actions partagées et d’intérêt collectif. Il s’agira par exemple de mener des actions de sensibilisation et de communication pour la promotion de la chimie et de ses entreprises, d’organiser les échanges, les concertations et le montage de projets concrets en matière de chimie durable et de compétitivité.

Cet inter-réseaux a aussi pour but de renforcer les coopérations inter-régionales en matière de transfert de technologies et de construire une visibilité internationale afin de conforter le dynamisme de la chimie française.

Cette initiative s’inscrit dans le cadre plus large de promotion de l’industrie française. Le secteur de la chimie ayant été identifié par l’Etat comme l’une des 19 filières industrielles stratégiques pour l’économie.

Pour rappel, le secteur industriel français de la chimie représente directement 164 000 emplois et a réalisé en 2016 un chiffre d’affaires de 71 milliards d’euros.

Sophie Hoguin

Voyager dans l’espace, c’est grave docteur ?

L’une des contraintes majeures du voyage dans l’espace est l’exposition aux radiations. Sortis de la protection de l’atmosphère terrestre et encore plus sortis de son bouclier magnétique (qui protège encore les astronautes dans l’ISS par exemple), la dose de radiation est-elle vraiment dangereuse pour l’homme ? Peut-on s’en protéger complètement ?

Copyright ESA
Copyright ESA

Trois types de radiations à éviter

Dans ce long périple spatial, les astronautes devront d’abord traverser les ceintures de Van Allen. Ces deux (parfois plus ) ceintures qui entourent la Terre et participent à sa protection contre les rayons cosmiques sont particulièrement dangereuses parce qu’elles accumulent les particules radioactives: protons dans la ceinture intérieure et électrons dans la ceinture extérieure. Le vaisseau devra donc les traverser le plus vite possible. Ensuite, dans l’espace interplanétaire, les radiations sont constituées d’une part des vents et particules solaires et d’autre part des rayons cosmiques. Il est facile de se protéger des premières en temps normal grâce à la paroi du vaisseau, à des réservoirs d’eau ou différents matériels faisant écran, mais lors d’une tempête solaire, l’équipage devra pouvoir se mettre à l’abri dans une zone de confinement prévue à cet effet et surtout être alerté de son arrivée. Pour les rayons cosmiques, c’est encore plus compliqué car les rayonnements passent à travers les matériaux et déclenchent des réactions en cascades: les radiations secondaires émises par les matériaux du vaisseau pourraient être plus délétères encore pour l’équipage. La Nasa étudie toutes les pistes de protection : création de champs de forces, nouveaux matériaux (notamment à base de nanotubes de nitrure de bore hydrogéné – BNNT) et médicaments. Et de son côté, l’ESA vient de lancer, fin septembre, un nouveau programme dédié à l’étude des radiations et à leur protection via une série d’expérience dans 5 accélérateurs de particules européens.

Grâce à la mission du Rover Curiosity encore en activité sur le sol de la planète rouge, on a évalué l’exposition probable d’un astronaute pour une mission longue, soit près de 2 ans et demi. On aboutit au total cumulé de 1,1 Sv (sievert). Si pour une exposition unique cette dose serait obligatoirement délétère, il n’y a pas aujourd’hui consensus scientifique concernant la dangerosité d’une telle dose par exposition chronique. On estime cependant qu’elle augmenterait le risque de cancer de 2% sur 30 ans. Mais, les différents boucliers et protections mis en place pendant le voyage et sur Mars devraient réduire fortement cette exposition.

Une apesanteur trop pesante ?

La deuxième grosse contrainte pour l’homme dans son périple pour Mars, c’est l’absence de pesanteur pendant de longs mois suivi par une pesanteur divisée d’un tiers sur Mars par rapport à la Terre. Les nombreux séjours d’astronautes dans l’ISS ont à présent permis d’en savoir beaucoup plus sur les effets de l’absence de gravité sur le corps humain. Perte osseuse et musculaire, troubles cardio-vasculaires, diminution des capacités sensorielles et motrices (notamment vision), mal de l’espace (trouble de l’oreille interne), perturbations immunitaire, problème de nutrition, possibilité de troubles neuro-comportementaux, d’inadaptation psychologique. Bien qu’entraînés et surpréparés, les astronautes actuels, après quelques semaines dans l’ISS mettent plusieurs jours ou semaines à recouvrer leurs capacités une fois de retour sur Terre. L’équipage vers Mars devra donc être très bien monitoré pour de nombreux paramètres médicaux et certainement avoir à son bord une ou plusieurs personnes capables d’effectuer certains actes chirurgicaux. Et il faudra prévoir une éventuelle incapacité des voyageurs à faire quoi que ce soit une fois arrivée sur place. Tout doit donc être prêt et automatisé. A ce jour aucun système réellement opérationnel ne permettant de créer une gravité artificielle n’ayant été mis au point pour un vaisseau spatial. Nasa et Esa notamment étudient les effets d’un passage temporaire ou permanent de personnes alitées dans des centrifugeuses créant une gravité artificielle pour évaluer si ce système pourrait compenser certaines perturbations de l’absence de gravité.

Facteurs humains: des erreurs à la claustrophobie

Monotonie, ennui, confinement, promiscuité… voilà les premières choses qui attendent nos voyageurs. Et plusieurs études en milieu spatial ou milieu extrêmes (bases Antarctique ou sous-marins notamment) montrent qu’au bout de seulement 30 jours on note une baisse d’énergie et une diminution des capacités intellectuelles et de la productivité, une fatigue, des états dépressifs, de l’irritabilité et de l’hostilité envers les autres. A ces manifestations bien documentées s’ajoutent des inconnues de taille : pour la première fois, des hommes seront presque totalement livrés à eux-mêmes pour une longue période hors de la planète Terre : pas de retour avant des mois, pas ou peu d’assistance à distance (le signal mettant entre 3 et 20 mn pour arriver sur Terre, il faut attendre parfois 40 min pour la réponse si elle est immédiate…). On voit là tout l’intérêt de réussir à sélectionner une équipe qui tiendra le coup… Les agences spatiales travaillent donc à étudier comment sélectionner les candidats idéaux. Différentes approches sont prônées sur le nombre de personnes idéales, sur la mixité ou non, le mélange de nationalités etc. Par ailleurs, tout un travail est aussi effectué pour pallier certains effets : on envisage par exemple d’utiliser la réalité virtuelle pour transporter régulièrement les astronautes dans des paysages terrestres et pourquoi pas avec des hologrammes de proches etc. Déjà de nombreuses simulations d’isolement en milieu ressemblant à Mars ont été menées par la Nasa (Hi-Seas de Hawai), par la Mars Society (base arctique et désert de l’Utah) ou conjointement par les Russes et les Européens (Mars 500).

Mais on voit bien qu’on est loin d’un scénario de colonisation de Mars et que l’on reste sur l’idée d’une mission technico-scientifique telle qu’on en a toujours fait dans l’espace pour l’instant.

Sophie Hoguin

 

Quels plans de vol pour aller sur Mars ?

La première contrainte du voyage vers Mars, c’est celle de la fenêtre de départ : avec les technologies actuelles de voyage dans l’espace, le départ n’est possible que tous les deux ans. En effet, la distance entre Mars et la Terre varie entre 56 et 400 millions de kilomètres selon leurs positions sur leurs orbites respectives. Et la bonne conjonction, qui permet un voyage le plus court, c’est-à-dire environ 7 mois, se situe quand Mars et la Terre sont en opposition, soit à peu près tous les deux ans. Du coup pour le retour cette contrainte impose de choisir entre deux versions : soit on reste un à deux mois maximum avant de repartir, soit on est obligé d’attendre plus d’un an et demi sur place.

Quels lanceurs lourds pour quitter la Terre ?

Décoller de la Terre pour aller dans l’espace est presque devenu un exercice de routine aujourd’hui, mais… c’est pour de petites charges utiles comme des satellites ou des sondes. Pour aller sur Mars, il faut propulser hors de l’attraction terrestre entre 300 et 500 tonnes. Deux options sont à l’étude actuellement, soit le lancement de plusieurs modules de l’ordre de 50-100t que l’on assemble dans l’espace ou qui voyagent séparément, soit un vaisseau géant que l’on fait décoller directement depuis la Terre.

La Nasa mise sur le multimodulaire

La première version est celle envisagée par la Nasa. Elle s’appuie sur la mise au point d’un nouveau lanceur lourd, le SLS (Space Launch System) dont les premiers vols avec la capsule de transport de passagers Orion sont planifiés pour fin 2018. Il doit être capable de mettre en orbite basse terrestre quelques 130t et de lancer vers Mars un module de 50t. La conquête de Mars par la Nasa a été beaucoup revue à la baisse et les derniers objectifs affichés prévoit d’abord la validation de toutes les étapes du voyage spatial via de petites missions (autour de la Lune, en contact avec un astéroïde etc.) avant d’envoyer des hommes vers Mars, un jour. La date de 2030 initialement prévue ayant été repoussée à une date inconnue. Et pour le moment, il n’est pas envisagé de s’installer sur Mars mais seulement de rester en orbite. La Nasa a construit différents projets pour Mars, tablant à chaque fois sur l’envoi de plusieurs modules. Par exemple, l’envoi d’un module autonome qui atterrit et prépare le terrain pour l’arrivée des astronautes, un module de voyage spatial qui reste en orbite et qui sert de base orbitale pour les astronautes. Un troisième module servant à faire la navette entre la planète rouge et ce vaisseau. Le nombre d’astronautes restant restreint à un équipage de 4 à 6 personnes.

Space X et son cargo géant

D’un autre côté, on trouve Space X dont le concept est celui d’un vaisseau unique qui décolle de la Terre, se pose sur Mars et revient. Bref, il reprend le concept de sa fusée réutilisable Falcon 9 et de sa capsule dragon mais à une toute autre échelle. Cet ambitieux projet, présenté fin septembre 2017, même s’il a été revu à la baisse par rapport à l’ITS (Interplanetary Transport System) annoncé en 2016, reste pharaonique.

Capture d’écran 2017-10-24 à 10.51.04

Le système, baptisé BFR (pour Big Falcon Rocket ou Big Fucking Rocket), est constitué de trois entités : un lanceur lourd (31 moteurs Raptors) capable de mettre en orbite basse 150t, un vaisseau spatial qui peut servir de cargo de marchandises ou de transports de passagers avec 40 cabines de 2-3 places et un système de tanker pour établir des réservoirs de carburant en orbite et ravitailler le vaisseau hors de l’atmosphère terrestre. Le tout étant récupérable et réutilisable. L’objectif pour la petite firme américaine : remplacer la gamme de fusées et de capsules par un seul système. Et pour rendre cela rentable, la BFR servirait donc à la fois de lanceurs de satellites, de lanceurs et vaisseau pour des missions cislunaires ou dans l’espace proche, de ravitaillement pour la (les) stations spatiales internationales et pourquoi pas de nouveau type de transport terrestre permettant de relier Bangkok-Dubaï en 27mn. Pour ce qui est du calendrier, tout le monde s’accorde à dire qu’il est intenable : le BFR vers 2020, les deux premières missions inhabitées sur Mars en 2022 pour préparer de manière automatisée l’arrivée des premiers voyageurs stellaires en 2024 ! Sachant que le premier pas à franchir pour SpaceX est la validation du lanceur Falcon Heavy (capacité de 30t en orbite basse) dont le premier vol est annoncé en novembre 2017 et la validation d’un vol avec un équipage pour la capsule Dragon.

D’autres candidats ?

Parmi les autres puissances spatiales, personne n’envisage de s’attaquer au vol habité vers Mars avec la construction d’un lanceur lourd. Car outre les défis technologiques, le coût est un frein indéniable. C’est d’ailleurs pourquoi cet été, la Nasa a annoncé que le vol habité vers Mars avec colonisation était remis aux calendes grecques. Et si le SLS et la capsule Orion ont été maintenu malgré leur coût annoncé de 2 Md$ de conception et d’un milliard de dollars pour chaque lancement c’est parce qu’ils  doivent servir au nouvel objectif américain d’installation sur la Lune. L’outsider Mars One, une entreprise privée fondée par le néerlandais Bas Lansdorp, dont la mission prévoit une installation sur Mars sans retour sur Terre, prévoit quant à elle d’utiliser le lanceur SpaceX Falcon Heavy pour sortir ses différents modules de l’atmosphère terrestre et le projet de Locheed Martin de camp martien s’appuie sur le SLS et la capsule Orion – capsule dont la conception est d’ailleurs assurée par Lockheed Martin.

Sophie Hoguin

Comment vivre sur Mars ?

Les projets sont plus ou moins ambitieux selon que l’installation est pensée comme définitive (version Mars One) avec terraformation, temporaire longue (SpaceX) ou temporaire courte (Lockheed Martin) ou encore totalement fictionnelle et terrestre (Mars Science City – Emirats Arabes Unis). Tout ou partie de ces recherches qui sont d’ailleurs menées d’abord en vue de la colonisation de Mars sont en train d’être transférées vers la Lune, nouvel eldorado spatial, qui semble un peu plus accessible à nos technologies actuelles.

Terraformation ?

Transformer Mars en une autre Terre… un sujet abordé dans la fiction et depuis quelques temps aussi dans la science. Comment injecter des tonnes de particules à effets de serre pour réchauffer l’atmosphère et la densifier ? Comment recréer un champ magnétique nécessaire pour retenir cette atmosphère ? Comment implanter des organismes vivants terrestres pour qu’ils s’adaptent, colonisent la planète rouge et produisent l’oxygène nécessaire à l’homme ? Autant de questions sur lesquelles planchent de temps en temps les scientifiques. Ce qu’il en ressort ? Le processus sera forcément long – plusieurs centaines de milliers d’années, il y a peu de chances qu’on sache le maîtriser une fois lancé – donc le résultat reste très aléatoire, et il faut d’abord régler la question de l’éthique.

Doit-on terraformer Mars ou pas, selon qu’on y trouve des traces de vie passées ou actuelles, est-ce utile, est-ce dangereux etc ? Un positionnement qui fait débat mais pour lequel se dessine tout de même un assez large consensus contre, en cohérence avec les préceptes des règles internationales de la conquête spatiale : on ne « pollue » pas, on transforme le moins possible les environnements extraterrestres avec du vivant en provenance de la Terre. Cependant, cette question se pose aussi pour une installation de longue durée : on ne peut pas stériliser un être humain autant qu’un rover ou un atterrisseur… Donc, dès lors qu’un humain arrive sur Mars, le risque de pollution biologique devient très important.

Des murs de briques… et de brocs

C’est la foire à l’imagination ! La conception d’habitats martiens (ou lunaires) est pléthorique. De glace puisée sur place, gonflables, de briques fabriquées localement, ou souterraines creusées par des robots, les habitations martiennes inventées sont l’oeuvre d’architectes, d’ingénieurs divers, de rêveurs et font travailler des centaines d’étudiants ou de cabinets d’études – pas seulement ceux du master dédié du centre international d’architecture spatiale de Sasakawa (Université de Houston) – mais tous ceux, par exemple, qui ont participé au concours de 2015 organisé par la Nasa et doté de 40 000$ de prix (voir les 30 premiers). Et avec l’essor de l’impression 3D et l’arrivée de nouveaux matériaux, tout semble à présent possible, y compris transporter depuis la Terre des habitats qui prendront forme en quelques minutes une fois arrivés. La plupart prévoit une architecture modulaire, des espaces communs et privés et une certaine esthétique pour soutenir le moral des colons, ainsi que, bien sûr, une protection totale contre les radiations et les intempéries martiennes.

Respirer, oui mais quoi ?

La question de l’air intérieur est plus compliquée qu’il n’y paraît. En effet, si on peut aujourd’hui maîtriser la création d’un air intérieur stable avec une bonne proportion d’oxygène, d’argon et d’azote, il reste encore à déterminer les différentes proportions et pression que l’on doit choisir. Car elle conditionnera les modalités de sortie des habitats – si trop de différence avec l’extérieur,  il faudra attendre longtemps dans un sas pour que le corps s’habitue, mais si trop semblable à l’extérieur il peut y avoir des gênes dans la vie quotidienne. En outre si la proportion d’oxygène est trop importante, les risques d’incendie sont surmultipliés.

Atteindre l’autonomie

Les expériences sur les stations spatiales ou les simulations terrestres d’habitats martiens comme ceux utilisés par la Mars Society permettent d’avoir un assez bon retour sur les moyens de recycler l’eau  (voir la vidéo Nasa système de recyclage pour de petits équipages). Et on maîtrise les processus pour transformer le dioxyde carbone de l’atmosphère martienne en eau et en oxygène ou en méthane avec de l’hydrogène importé. Cela permettrait de produire sur place du carburant (propergol de méthane) pour le retour notamment. Des technologies capables de creuser le sol pour en récupérer l’eau ou pour la filtrer sont à portée de main et Mars dispose de matériaux dans son sol permettant d’envisager la fabrication d’éléments de construction. Quant à la nourriture, elle sera principalement importée. Produire en quantité suffisante en serre de quoi nourrir sur plus d’un an, même un équipage restreint est actuellement utopique, mais emporter toute la nourriture nécessaire pour un aussi long voyage l’est tout autant. Des containers avec des réserves de nourriture placés avant l’arrivée des premiers colons est d’ailleurs une solution envisagée dans différents scénarios de colonisation. L’Esa et la Nasa planchent sur ces questions depuis longtemps et l’on sait maintenant que la préparation des repas, la variété sont des éléments essentiels pour maintenir le moral et la santé des astronautes. La connaissance du métabolisme d’un humain dans l’espace, ses besoins précis en calories et la relation avec son poids sont d’ailleurs actuellement à l’étude dans l’ISS.

Quelle énergie ?

L’un des plus gros défis reste celui de l’énergie. L’utilisation de panneaux solaires n’est pas idéal sur Mars, c’est une alimentation non continue soumise aux aléas des tempêtes de poussières et qui prend beaucoup de place. Les scénarios les plus aboutis et les plus ambitieux en matière d’installation sur Mars font appel à la fission nucléaire. Selon le très complet «essai d’analyse technique d’une colonie martienne» édité par Planète Mars en 2008, «de petites installations délivrant en continu 40kWe aurait une masse de moins de 5 T tout compris et un encombrement en configuration de transfert limité à 7m x 3,3m». De nombreuses autres possibilité sont cependant à l’étude tel que l’éolien ou l’hydraulique en sous-sol.

Une véritable ville en 2117 ?

Les études économiques, techniques et le retour d’expérience laisse à penser que l’homme peut poser le pied sur Mars dans les 20 ans à venir s’il s’en donne les moyens. Cependant, de là à établir un véritable village voire une ville, de très nombreux obstacles n’ont pas encore été franchis de manière formelle et en l’état actuel des moyens de transports l’établissement d’une base pourrait prendre des dizaines d’années. Une réalité qui n’a d’ailleurs pas échappé aux Emirats Arabes Unis dont l’ambition spatiale ne cesse de croître. Ainsi, leur projet de ville martienne est planifié pour dans 100 ans, d’où son nom de Mars 2117. En attendant, ils construisent déjà une simulation sur Terre avec Mars Science City, une ville artificielle, en plein désert, recréant sur 18 hectares les conditions de vie d’une ville martienne.

Copyright Government of Dubai
Copyright Government of Dubai

Conclusion

Imaginer un départ, un voyage, un atterrissage et une installation de longue durée sur Mars en se basant sur des technologies actuelles matures semblent encore un peu utopique ou un travail de très longue haleine. Cependant, dans de nombreux domaines, des percées technologiques sont peut-être sur le point de changer très vite la donne : des évolutions dans la propulsion spatiale, la maturation des technologies de fabrication 3D, de nettes améliorations dans la capacité de produire, stocker les énergies (miniaturisation, rendement), l’émergence de nouveaux matériaux à la fois plus légers, plus souples et plus solides, et aussi un marché du spatial qui s’est ouvert tant à de nouvelles nations spatiales (la Chine qui vise un atterrisseur et rover en 2020 ou les Emirats Arabes Unis et leur projet Mars 2117) qu’à des initiatives privées de milliardaires rêveurs ou à de nouveaux appétits industriels.

Sophie Hoguin

Sait-on faire atterrir des hommes sur Mars ?

Inutile de rappeler le douloureux échec du module européen Schiaparelli en octobre 2016 pour se rendre compte que les crashs à l’atterrissage sur Mars ne sont pas que ceux des Russes des années 1960. Mais pourquoi est-ce si dur d’atterrir sur Mars ?

Une atmosphère trop légère

Pour atterrir sur Terre ou sur Vénus ou même sur Titan, on se sert de la présence d’une atmosphère plutôt dense pour freiner les engins. Une fusée qui rentre sur Terre passe ainsi de 28000 km/h à 300km/h en quelques minutes juste par frottements avec l’atmosphère. Un (très) bon bouclier thermique suivi de l’ouverture d’un parachute suffisent à assurer un atterrissage en douceur. Mais sur Mars, l’atmosphère moins dense, ne permet de passer que de 21000 km/h à 1500km/h. L’ouverture du parachute permet alors de ralentir à 300km/h et pour la suite il faut donc ajouter des rétrofusées. A priori on sait faire – enfin pour des rovers, car le maximum pour l’instant c’est l’atterrissage de Curiosity qui ne faisait qu’une tonne. Sauf que cela consomme énormément de carburant et plus le module est grand, plus il faut de carburant. Ce qui pénalise beaucoup le décollage depuis la Terre (en puissance nécessaire et en coût). C’est pourquoi les missions envisagées ne prévoient que quelques passagers (4 à 6), ou une station relais orbitale avec une liaison Mars-station orbitale spécifique ou dans le projet de SpaceX un ravitaillement en orbite. Outre cette première difficulté, Mars est capricieuse, selon sa météo le taux de poussières dans l’air peut énormément varier : il en résulte que l’engin peut rencontrer l’atmosphère plus tôt que prévu car elle se dilate (ce qui va modifier sa trajectoire d’atterrissage) et les frottements des poussières érodent de manière plus importante le bouclier thermique des engins (il doit donc être plus épais). En outre, Mars est fréquemment parcouru de vents violents (jusqu’à 250km/h), imprévisibles qui peuvent déstabiliser le vaisseau et le dévier de sa zone d’atterrissage prévue. On voit là que réussir un atterrissage sur Mars nécessite de prévoir des moyens de réajuster la trajectoire ou le déploiement des différents systèmes. C’est d’ailleurs là qu’a échoué Schiaparelli : en arrêtant trop tôt les rétrofusées par une erreur d’appréciation de la distance avec le sol. Par ailleurs, pour un vaisseau qui emporterait des humains, l’option parachute n’est pas envisageable, on ne sait pas fabriquer un tel outil pour un engin de plusieurs dizaines de tonnes lancé à 1500km/h.

La navette de Lockheed Martin

Lockheed Martin, partenaire de longue date de la Nasa, déjà en charge de la conception et de la fabrication de la capsule de transport de passagers Orion, a présenté en 2016 son projet, Mars Space Camp. Une station orbitale martienne pour la direction de robots et l’observation scientifique de la planète rouge. Un projet que l’entreprise a peaufinée depuis pour en détailler de nouveaux pans à l’occasion du dernier congrès international d’astronautique qui s’est tenu fin septembre en Australie.

37272639941_f9642c30f3_z

Ainsi Lockheed Martin propose un véhicule capable de réaliser à peu près 6 allers-retours entre Mars et l’orbite. A l’occasion de chaque rotation, 4 astronautes peuvent descendre et séjourner sur la planète pendant 2 à 3 semaines. Baptisé le MADV pour Mars Ascent/Descend Vehicle, cette navette doit atterrir et décoller à la verticale. Le carburant utilisé serait de l’hydrogène liquide fabriqué à partir d’une électrolyse de l’eau séparant l’oxygène et l’hydrogène. L’énergie nécessaire à cette électrolyse serait fournie par des panneaux solaires. A l’origine, l’eau viendrait de la Terre mais à terme elle serait collectée depuis des glaces d’astéroïdes, de la Lune ou des lunes de Mars ou de Mars elle-même selon ce qui se développera dans l’avenir. L’eau sera livrée par des véhicules spatiaux dédiés qui pourraient être lancés par une entité commerciale à part. Deux MADV doivent être disponibles afin d’être sûr de ne pas laisser un équipage bloqué à la surface de la planète.

Le BFR en mode martien

De son côté SpaceX a donc misé sur un vaisseau unique. Le vaisseau BFR qui arrive sur Mars, entre dans l’atmosphère et atterrit sur le même modèle que les fusées Falcon 9 actuellement en service. Il utilise l’atmosphère de Mars pour le premier freinage et assure la fin du trajet en utilisant la technique de rétropropulsion supersonique. Avec cette technique, les moteurs de la fusée émettent un jet de réacteur contre le flot relatif supersonique de l’air qui augmente le freinage aérodynamique.

moon-bfr

La trajectoire hyperbolique commence à une vitesse de 7,5 km/s  et le pic d’accélération est de l’ordre de 5g (avec une référence terrestre). SpaceX estime que 99% de l’énergie sera dissipée aérodynamiquement. Vu le poids du vaisseau (à peu près 55 t), SpaceX a prévu de stocker pour l’ensemble du trajet 240 tonnes de méthane et 860 tonnes d’oxygène liquide. Mais la plus grande partie du carburant sert pour effectuer cette opération. Il faudra ensuite, produire ce carburant sur place pour assurer le redécollage et le retour vers la Terre.

Sophie Hoguin

Revue du web #107 : les vidéos les plus étonnantes du mois

Des combats de robots de plus en plus impressionnants… et inutiles

Haut de 5 mètres et pesant pas moins de 12 tonnes, deux robots – américain et japonais – se sont livrés un combat épique. Cette pratique se démocratise de plus en plus en Asie avec de plus petits robots…

Transport : La police de Dubaï à la pointe de la technologie

Non ce n’est pas de la science-fiction : la police de Dubaï possède des motos volantes, des engins hybrides mi-aériens mi-terrestres, et une moto capable de filmer à 360 degrés. Comme le présente la police de Dubaï, toutes ces innovations sont censées « renforcer la proximité avec le citoyen« . Retour vers le futur :

Une moto qui tient en équilibre toute seule

Honda vient de présenter une moto auto-équilibrée. La marque japonaise n’est pas la seule à travailler sur cette solution, mais c’est par contre la première à présenter un modèle valide, qui peut également se contenter de suivre son propriétaire de manière autonome:

Un robot souple et… comestible !

Des chercheurs de l’Ecole Polytechnique fédérale de Lausanne ont développé un robot à base de glycérine, d’eau et de gélatine.

Par Pierre Thouverez

 

xStorage Home, la batterie résidentielle pour l’autoconsommation

L’idée de stocker de l’énergie chez soi pour ensuite la consommer fait son chemin. Après Tesla, dont la batterie résidentielle Powerwall avait fait sensation il y a deux ans, l’industriel Eaton, spécialiste de la gestion énergétique, annonce à son tour sa solution xStorage Home. Quelques informations filtraient depuis quelques mois mais le lancement officiel et commercial a eu lieu ce jeudi 19 octobre, dans toute l’Europe. En France, Eaton s’appuiera sur le distributeur à valeur ajoutée Axdis Pro, dont les activités se concentrent sur le photovoltaïque et la transition énergétique dans le résidentiel. Formation aidant, un réseau d’installateurs agréés se met en place.

xStorage Home ressemble à un gros radiateur mural, pesant 135 kg et mesurant 1,20 mètre de haut. Cette imposante batterie Lithium-Ion bénéficie d’une capacité entre 4,2 et 7,5 kWh, selon les modèles, et coûte entre 1100 et 1350 €/kWh, hors installation. Connectée à la fois aux panneaux photovoltaïques (PV) existants, au tableau électrique (monophasé) de l’habitation et au réseau électrique, elle remplit plusieurs objectifs. En premier lieu, elle alimente les équipements électriques en énergie quand la production PV est opérationnelle, avec une puissance située entre 3600 et 6000 watts, et devient un moyen de réduire la facture d’électricité. Ensuite, elle emmagasine le surplus ou l’achemine sur le réseau du distributeur, moyennant rétribution. Enfin, en cas de coupure de courant, c’est une alimentation de secours qui subvient aux besoins énergétiques des équipements essentiels – réfrigérateur, éclairage… – en attendant que la situation normale se rétablisse.

Des batteries neuves ou deuxième vie

Outre des convertisseurs DC/DC et AC/DC, xStorage Home a l’avantage d’être équipé d’une sortie AC bidirectionnelle, qui injecte du courant alternatif sur le réseau électrique domestique ou, inversement, recharge la batterie à partir de ce même réseau. Le port USB pouvant accueillir une clé WiFi est une autre particularité qui en fait un dispositif connecté, pilotable à partir d’un smartphone. Mais les responsables d’Eaton n’ont pas été bavards sur les usages possibles, que ce soit en terme de contrôle, de supervision ou même d’interaction à plus grande échelle avec le Smart Grid. Pour l’anecdote, xStorage Home est un dérivé de xStorage Building, une offre professionnelle qui équipe un datacenter de l’opérateur Webaxys, au Havre, et le stade de football Amsterdam Arena, aux Pays-Bas.

Les batteries proviennent du fabricant automobile Nissan. «Notre collaboration avec Nissan, le CEA et l’Ecole polytechnique de Lausanne a débuté en 2012, raconte Christophe Bourgueil, responsable du développement commercial de xStorage en France. La réflexion portait sur les usages possibles de la deuxième vie d’une batterie, au bout de quatre à sept ans d’utilisation dans un véhicule électrique.» Si Eaton a insisté sur ce point, la fiche technique indique cependant que seul le modèle xStorage à 4,2 kWh recycle des batteries de seconde vie, issues des véhicules Nissan Leaf. Les deux modèles les plus performants sont gratifiés de batteries neuves. La garantie des batteries va de pair, de cinq ans pour le premier modèle à dix ans pour les deux suivants.

On ne saurait préjuger du succès ou non de xStorage, mais le cadre règlementaire en France est en tout cas favorable. Depuis février dernier, l’autoconsommation d’énergie est en effet favorisée au détriment de la seule revente d’électricité, de moins en moins rentable. Cette loi semble agir comme un détonateur : selon Enedis (anciennement ERDF), 14000 installations d’autoproduction énergétique ont été installées depuis l’an dernier, soit une progression de 50% en un an.

Frédéric Monflier

Le sulfoxaflor, nouvelle source de risque pour les abeilles

L’ambiance est à l’orage chez les apiculteurs. L’Union nationale de l’apiculture française dénonce une récente décision de l’Anses. L’Agence nationale de sécurité sanitaire a en effet proposé en septembre dernier une alternative à l’usage des néonicotinoïdes en France. Gilles Lanio, président de l’UNAF, rappelle qu’ils seront interdits dès septembre 2018, mais des dérogations existent jusqu’en 2020. La solution proposée aux agriculteurs est de remplacer les néonicotinoïdes utilisés sur leurs cultures. Ces pesticides neurotoxiques causent chaque année la mort de 300.000 à 400.000 colonies d’abeilles selon Henri Clément, secrétaire général de l’UNAF.

Le sulfoxaflor, une molécule très dangereuse

L’UNAF annonce que l’Anses a autorisé, de manière confidentielle, deux nouveaux pesticides à base de sulfoxaflor. Cette substance est officiellement reconnue comme dangereuse pour le monde aquatique, mais le problème ne s’arrêterait pas là. Le sulfoxaflor serait lui-même… un néonicotinoïde ! L’annonce de l’Anses déplaît car elle indique que le sulfoxaflor pourrait remplacer les néonicotinoïdes prochainement prohibés. Ceci est «pitoyable, pathétique et irresponsable», juge Henri Clément. En effet, selon une décision pénale rendue aux États-Unis, le sulfoxaflor est lui aussi un néonicotinoïde et interdit sur le territoire américain. Échaudés par la décision de jugement américain, l’UNAF est allée demander des comptes à l’Anses. Mais le dialogue est rompu entre les deux organismes, l’Anses ne répondant plus à l’Union française des apiculteurs. Ainsi, le problème des néonicotinoïdes ne serait pas du tout solutionné et tous les efforts de l’UNAF vains. C’est pourquoi elle exige que l’Anses ajoute le sulfoxaflor à la liste des substances néonicotinoïdes à interdire.

Si aucune interdiction n’est prise, le sulfoxaflor pourrait se retrouver épandu sur nombre de cultures. Le néonicotinoïde serait donc utilisé sur les cultures de céréales à paille (blé, orge, etc.) mais pas seulement. Le sulfoxaflor permettrait également de traiter des cultures légumières, les pommiers et les cerisiers. Et la position du ministre de l’Agriculture ne rassure pas l’UNAF. L’inquiétude vient du fait que Stéphane Travert ne semble pas favorable à l’interdiction des pesticides tueurs d’abeilles. Il avait indiqué en juin dernier qu’interdire les néonicotinoïdes «n’est pas conforme avec le droit européen». Bien que le gouvernement et le ministre de l’Écologie Nicolas Hulot aient contesté cela, l’UNAF craint les prochaines décisions. Pour Gilles Lanio, aucune tergiversation ne peut être permise de la part de la France. «Comme s’y est engagé le président Emmanuel Macron, la France doit supprimer tous les néonicotinoïdes» déclare-t-il.

Par Matthieu Combe, journaliste scientifique

Cybersécurité des voitures autonomes: un défi majeur

Peur sur la ville ! Les autorités californiennes vont-elles nous faire un remake de ce film policier franco-italien écrit et réalisé par Henri Verneuil, sorti en 1975. Le 11 octobre, elles ont annoncé une nouvelle réglementation qui autorisera les tests de voitures autonomes sur les routes de l’État sans exiger qu’un conducteur soit présent à bord du véhicule.

Faut-il s’en inquiéter et ne plus permettre aux bambins californiens de se promener en ville ? La question mérite de se poser, car la sécurité informatique de ces engins hyper connectés et bardés de capteurs est loin d’être optimisée. De là à penser que cet État autorise implicitement les fabricants de voitures et autres start-ups travaillant sur ce domaine à prendre les routes comme des laboratoires grandeur nature. C’est ce que pensent des organisations de défense des consommateurs aux États-Unis.

Failles informatiques

Les risques de piratages informatiques et de prises de contrôle à distance des voitures autonomes ont été relevés par des experts depuis quelques années. À mesure que ces véhicules gagnent en complexité, le nombre de vulnérabilités potentielles et les contraintes sur les algorithmes de protection augmentent.

Cette problématique est d’ailleurs traitée par la chaire « Voitures connectées et cybersécurité » (son nom officiel étant « Connected cars and cybersecurity ») qui a été lancée à Télécom ParisTech le 5 octobre dernier. Outre Télécom ParisTech, elle réunit la Fondation Mines-Télécom, Renault, Thalès, Nokia, Valéo et Wavestone (un cabinet spécialisé dans la transformation numérique et la cybersécurité).

Tous les experts de cette chaire estiment en effet que la situation est loin d’être maîtrisée. «Tant que nous n’arriverons pas à garantir qu’aucune cyberattaque ne peut mettre en danger un véhicule intelligent, ses passagers et son environnement, il n’y aura pas de voiture autonome», explique Guillaume Duc, enseignant-chercheur en électronique et spécialiste des systèmes embarqués à Télécom ParisTech.

Latence

Or, plus il y a d’appareils, plus la voiture compte de points de communication avec l’extérieur. Il s’agit souvent de connexions sans fil dont la sécurité laisse à désirer faute de mécanismes d’authentification des utilisateurs. Dès lors, une personne malveillante peut accéder à des données sensibles ou à des paramètres du système embarqué.

Mais à la différence de l’informatique domestique ou celle utilisée en entreprise, la conduite automobile exige des latences hyper courtes. D’où ce dilemme : comment vérifier l’identité des utilisateurs ou prendre la bonne décision dans un délai compatible avec la circulation ? Le véhicule doit en effet réagir au quart de tour pour éviter un accident par exemple.

Les mains sur le volant !

Pas évident, même si ces voitures embarquent de nombreux capteurs et des processeurs de traitement faisant appel au Machine Learning pour se prémunir de la défaillance d’un composant ou d’un programme et faire le bon choix sur la route. Mais ce n’est pas encore parfait en toute circonstance.

En mai 2016, un modèle autonome de Tesla a été impliqué dans un accident mortel aux États-Unis. «Éblouis par une forte luminosité, ni l’Autopilot, ni le conducteur n’ont vu la remorque blanche du camion, et le frein n’a pas été engagé», a expliqué Tesla. Le constructeur rappelle que les conducteurs sont censés garder leurs mains sur le volant et qu’ils doivent rester vigilants quand le pilote automatique est activé !

De quoi avoir peur en ville…

Philippe Richard

Kennedy Energy Park: Une centrale triple technologies en Australie

Echelle industrielle

Le Kennedy Energy Park ne sera pas un projet pilote mais bel et bien un site de production d’énergie renouvelable de taille industrielle. Il sera composé de 12 turbines éoliennes de 3,6 MW, soit 43,2 MW au total, d’une ferme photovoltaïque de 15 MW, et d’une série de batteries lithum-ion de 4 MWh, fournie par l’Américain Tesla. Le fabricant d’éolienne Vestas et l’entreprise Quanta se chargeront de la construction dont la finalisation est prévue pour fin 2018. Le complexe, dont l’investissement est supérieur à 100 M€, a un objectif d’injection sur le réseau de 210 GWh par an. Cette électricité a d’ores et déjà trouvé preneur puisqu’un contrat de vente a été signé en septembre dernier avec la compagnie CS Energy. Le projet a été soutenu financièrement par la Clean Energy Finance Corporation (CEFC) et l’Australian Renewable Energy Agency (ARENA) qui ont alloué un crédit cumulé de près de 75 M€.

Windlab2

Réduire l’intermittence

Ce projet de centrale hybride n’est pas une révolution dans le sens où d’autres entreprises ont déjà eu l’idée d’associer une énergie renouvelable à un système de stockage, notamment sur les îles ou d’autres territoires faiblement interconnectés. Mais ce modèle industriel à trois technologies est une première. En associant le solaire et l’éolien, dont les heures de production de pointe sont complémentaires, avec un système de stockage de 4 MWh, Windlab compte injecter une électricité fiable à moindre coût.

Une phase 2 est prévue dans un horizon plus lointain. Intitulé « Big Kennedy », il prévoit l’installation de pas moins de 1 200 MW d’énergie éolienne pour compenser les nombreux projets solaires en cours au Queensland.

Romain Chicheportiche

En route pour une membrane de désalinisation au graphène

La membrane se présente comme un support de polysulfone modifié avec de l’alcool polyvinylique sur laquelle est appliqué un revêtement à base d’un oxyde de graphène et d’un empilement de quelques feuilles de graphène. Cette membrane s’est révélée capable de résister à d’intenses flux, des hautes pressions et une exposition au chlore. Dès les premiers stades de développement, la membrane a permis de rejeter 85 % du sel. Certes un taux insuffisant pour produire de l’eau de boisson, mais suffisant pour des applications en agriculture.

graphene desalinisation
Crédit : Aaron Morelos-Gomez / Pennsylvania State University

En outre, cette membrane filtre 96 % des teintures, un atout pour des applications dans l’industrie textile encore très polluantes dans de nombreuses parties du monde. Théoriquement le graphène est un matériau idéal pour la désalinisation, notamment car il est particulièrement résistant face à l’agression des agents chimiques, mais de nombreux obstacles sont à franchir pour contrôler les défauts et assurer le transfert de ce matériau 2D. Ces travaux, publiés dans Nature Nanotechnology en sont une démonstration de la faisabilité.

Sophie Hoguin

Bon en avant pour la dialyse avec le graphène

Les dialyses, qui consistent à faire passer des molécules d’une solution vers une autre plus concentrée de manière sélective grâce à des membranes sont particulièrement utilisées dans le domaine médical (diagnostic, purification, hémodialyse) ou dans les laboratoires de chimie notamment. Aujourd’hui les membranes disponibles sur le marché sont assez lentes car très épaisses (20nm). Les chercheurs du MIT, dont les travaux sont parus dans Advanced Materials, ont fabriqué des membranes à partir d’une feuille de graphène d’une dimension de 1nm d’épaisseur pour la taille d’un ongle en surface. Ils ont testé leurs membranes dans plusieurs configurations sur de nombreux solutés différents.

Crédit : MIT News / avec l'autorisation des chercheurs 1- le graphène est fabriqué sur un support en cuivre et pressé contre une feuille de polycarbonate 2- le polycarbonate sert à récupérer le graphène sur le cuivre 3- en utilisant une technique de polymérisation interfaciale, les chercheurs réparent les défauts du graphène produit 4- ensuite ils utilisent un plasma d'oxygène pour fabriquer des pores d'une taille spécifique dans le graphène
Crédit : MIT News / avec l’autorisation des chercheurs
1- le graphène est fabriqué sur un support en cuivre et pressé contre une feuille de polycarbonate
2- le polycarbonate sert à récupérer le graphène sur le cuivre
3- en utilisant une technique de polymérisation interfaciale, les chercheurs réparent les défauts du graphène produit
4- ensuite ils utilisent un plasma d’oxygène pour fabriquer des pores d’une taille spécifique dans le graphène

Pour fabriquer leurs membranes, les chercheurs ont utilisé la technique de dépôt de vapeur chimique (CVD) pour produire le graphène lui-même et l’ont déposé sur une feuille de polycarbonate dont les pores sont plus larges que ceux du graphène. La feuille de polycarbonate sert notamment à rigidifier le graphène et à empêcher qu’il ne se replie sur lui-même. Les chercheurs ont ensuite créé les pores dans le graphène en exposant le feuillet à un plasma d’oxygène. Selon les caractéristiques du plasma, ils peuvent contrôler les tailles et la densité des pores. Les résultats obtenus sont plus que prometteurs, surtout quand on sait que la performance de la membrane à base de graphène peut être encore largement améliorée en optimisant la partie en polycarbonate, dont la conception pour ces travaux, ne permettait de rendre accessible que 10% de la surface du graphène.

Iran : Donald Trump met en danger l’accord nucléaire

Le deal

L’accord sur le nucléaire iranien a été conclu en juillet 2015 et est entré en vigueur en janvier 2016. Il prévoit un abandon du programme nucléaire militaire iranien et une réduction de la capacité de production et de stockage de matières fossiles du pays, en échange d’une levée progressive des sanctions économiques. Ainsi, le nombre de centrifugeuses opérationnelles autorisées a été fixé à 5 060 (contre environ 19 000 avant l’accord) et doivent être de 1ère génération (IR-1), les centrifugeuses IR-2M devant être placées sous contrôle de l’Agence internationale de l’énergie atomique (AIEA). Elles ne pourront enrichir l’uranium à un taux supérieur à 3,67 %. Pour rappel, un taux compris entre 3,5 et 5% permet de produire du combustible nucléaire, 20 % pour un usage médical et 90 % pour une bombe nucléaire. Le stock d’uranium faiblement enrichi de l’Iran devait passer de 10 000 à 300 kg, pour une durée de 15 ans, afin d’éviter tout détournement à d’autres fins.

Le réacteur à eau lourde d’Arak doit être modifié de façon à ne pas pouvoir produire de plutonium de qualité militaire. Les déchets produits seront envoyés à l’étranger pendant toute la durée de vie du réacteur. Aucun autre réacteur de ce type ne pourra être construit dans le pays.

Enfin, des inspecteurs de l’AIEA ont désormais accès à l’ensemble la filière nucléaire iranienne, de l’extraction d’uranium à la recherche-développement, en passant par la conversion et l’enrichissement d’uranium. En cas de soupçons d’activités nucléaires illégales, les inspecteurs doivent avoir un accès limité à des sites non nucléaires, notamment militaires.

Selon l’AIEA, qui s’est fendu d’un communiqué suite à l’annonce de Donald Trump, les inspecteurs nucléaires ont eu accès à tous les sites qu’ils souhaitaient visiter. Et d’ajouter que « l’Iran fait l’objet aujourd’hui du régime de vérification nucléaire le plus robuste du monde ».

Incertitudes

En ne certifiant pas l’accord, Donald Trump reste dans la droite ligne de son discours de campagne, qui considérait alors que ce deal était « le pire accord signé par les Etats-Unis ». Or, le Président américain a déjà certifié à deux reprises cet accord : en avril et en juillet dernier. Cela s’explique par l’obligation légale qui lui est faite d’assurer le Congrès de son approbation tous les 3 mois. La troisième certification n’a donc pas eu lieu, et Donald Trump a profiter de l’occasion pour annoncer une « nouvelle » stratégie sur l’Iran qui consiste à nouveau à appliquer d’importantes sanctions économiques à Téhéran pour le dissuader « de poursuivre son influence déstabilisatrice au Moyen-Orient et son soutien au terrorisme ». Pour cela les Etats-Unis comptent « revitaliser les alliances historiques » qu’ils ont noué dans la région, notamment avec Israël et l’Arabie Saoudite, qui n’ont pas manqué d’applaudir des deux mains l’annonce de la Maison Blanche.

Les Européens aussi ont réagi en rappelant que cet accord international (Etats-Unis, Russie, Chine, France, Royaume-Uni, l’Allemagne et bien sûr l’Iran) ne pouvait faire l’objet ainsi d’une rupture unilatérale, surtout si l’Iran prouve qu’il n’a pas contrevenu aux règles, et qu’une renégociation n’était pas à l’ordre du jour. Mais la capacité de nuisance américaine est suffisante en elle-même pour dissuader toute banque ou compagnie d’assurance, ayant des intérêts aux Etats-Unis, de participer à des opérations iraniennes.

Vers un nouveau risque de prolifération ?

Pour rappel, l’objectif de cet accord était d’enrayer la spirale de prolifération nucléaire qui s’annonce au Moyen-Orient. Les aspirations nucléaires de l’Iran ont fortement inquiété les monarchies du Golfe, qui y ont vu un signe belliciste, et naturellement Israël, ennemi désigné de Téhéran, et détenteur de l’arme atomique. Un Iran nucléarisé ne manquera pas de pousser les autres puissances de la région, à commencer par l’Arabie Saoudite, à se doter de l’arme nucléaire pour rééquilibrer les rapports de force. Une prolifération que le conseil de sécurité des Nations-Unis ne veut à aucun prix.

L’accord nucléaire avec l’Iran devait ouvrir une voie médiane en offrant à l’Iran une aide pour son programme nucléaire civil et une levée des sanctions, contre l’abandon de toute velléité militaire dans ce domaine. Le refus de Trump de certifier à nouveau l’accord n’est donc pas à prendre à la légère. Il créé une période d’incertitude à laquelle le Congrès américain sera amené à mettre fin, au moins partiellement. Il devra choisir dans les deux mois de réappliquer ou pas les sanctions en vigueur avant la signature de l’accord. Sans l’approbation des Etats-Unis, la possibilité de voir l’accord devenir caduc grandit, et le risque de prolifération nucléaire aussi.

Romain Chicheportiche

Des encres au graphène pour des lasers terahertz compacts

Le graphène, produit dans ce cas par exfoliation en phase liquide de graphite, puis transféré avec une imprimante jet d’encre, est à la base de la fabrication d’un absorbant saturable dans la gamme des térahertz, c’est-à-dire les fréquences de l’infrarouge lointain (aussi appelé rayons T) entre l’infrarouge et les micro-ondes.

Crédit : graphene-flagship.eu
Crédit : graphene-flagship.eu

Les absorbants saturables sont des éléments d’optiques qui servent à fabriquer des lasers où les impulsions émises sont très courtes (quelques femtosecondes à quelques picosecondes). Ces travaux parus dans Nature Communications montrent que cet absorbant possède des propriétés de résolution qui surpassent largement les meilleures du moment, ouvrant de nouvelles perspectives dans le domaine des lasers térahertz à très petite échelle. Nombre d’applications pourraient bénéficier de la flexibilité et de l’aspect compact que peut apporter le graphène dans la conception de lasers ultra-rapides telles que la technique du temps de vol en tomographie, la manipulation de systèmes quantiques, la spectroscopie à résolution temporelle pour les gaz et les molécules complexes ou encore le domaine des communications ultra-rapides.

Sophie Hoguin

Première détection d’un anneau autour d’une planète naine

La région transneptunienne est la vaste zone du Système solaire externe qui s’étend de la ceinture de Kuiper jusqu’au nuage de Oort. Pluton, découverte en 1930, et Éris, découverte en 2005 en font partie et sont les deux plus grandes planètes naines (en termes de taille) connues jusqu’ici. Située dans la ceinture de Kuiper, en moyenne à 43 unités astronomiques du Soleil, Hauméa appartient à cette même catégorie d’objet. Elle est dotée de deux satellites : Hiʻiaka et Namaka. Contrairement aux autres planètes naines, sa taille, sa forme, son pouvoir réflecteur (albédo) et sa densité étaient mal connus.

Le 21 janvier 2017, l’occultation de l’étoile URAT1 533-182543 par Hauméa a donné lieu à une vaste campagne d’observations coordonnée à l’échelle européenne par José Luis Ortiz de l’Institut d’astrophysique d’Andalousie (Espagne). Ces observations, dont le résultat est présenté dans une lettre de la revue Nature du 11 octobre 2017, ont permis d’affiner et de révéler les caractéristiques étonnantes de Hauméa, déjà connue pour sa forme ellipsoïdale, aux allures de cigare, et pour sa rotation rapide.

Hauméa est un ellipsoïde dont les trois axes ont pour longueur respective : 2 320 km, 1 705 km et 1 025 km. La valeur de 2 320 km est en fait une limite inférieure ; par ces dimensions, elle s’avère ainsi presque plus grande qu’Éris (d’un diamètre de 2 325 km), voire que Pluton (d’un diamètre de 2 375 km).

Plus surprenant encore. Les observations ont permis de mettre au jour l’existence d’un anneau dense autour de la planète naine, une première concernant les objets transneptuniens.

D’un rayon de 2 290 km, l’anneau orbite dans le plan équatorial de la planète ; il semble également coïncider avec le plan orbital de Hi’iaka, son satellite principal. Sa largeur est d’environ 70 km. Son opacité est d’environ 50 %, par conséquent il a absorbé environ la moitié du flux lumineux de l’étoile lors de l’occultation.

Cette découverte intervient à la suite de celle en 2013 d’un anneau dense autour de l’astéroïde Chariklo, objet beaucoup plus petit, de 260 km de diamètre environ, situé dans la région entre Saturne et Uranus. Les anneaux ne sont donc plus l’apanage des planètes géantes : Jupiter, Saturne, Uranus et Neptune. Ces découvertes récentes donnent à penser que leur présence autour de corps de glace situés dans la lointaine zone transneptunienne serait moins rare qu’on ne le supposait jusqu’à présent.

Cependant, l’origine et la stabilité des anneaux autour de Chariklo et Haumea suscitent de nombreuses interrogations. La présence de satellites autour de Haumea, ainsi qu’une famille de corps associés à cette planète naine, suggèrent en effet une origine collisionnelle pour cet anneau nouvellement découvert.

« En outre, la forme très allongée de Hauméa est susceptible de causer de fortes perturbations résonnantes sur un disque collisionnel qui l’entoure. Ceci pourrait expliquer la position actuelle des anneaux, relativement éloignés du corps central », indique Bruno Sicardy, codécouvreur de l’anneau.

Des travaux plus théoriques sont attendus très prochainement pour confirmer ces différentes hypothèses.

Référence Ce travail de recherche fait l’objet d’un article intitulé « The size, shape, density and ring of the dwarf planet Haumea from a stellar occultation », publié en ligne dans la lettre de la revue Nature, le 11 octobre 2017. doi : 10.1038/nature24051 http://dx.doi.org/10.1038/nature24051

 Source : cnrs

Des quotas d’émissions en plein bouleversements!

Chaque année, l’Union Européenne fixe un plafond pour les émissions globales produites par les centrales électriques, les industries grandes consommatrices d’énergie et les compagnies aériennes commerciales. Dans cette limite, ces entreprises peuvent acheter et vendre des quotas d’émission pour les utiliser. Chaque quota donne le droit à son détenteur d’émettre une tonne de CO2 ou une quantité équivalente d’un autre gaz à effet de serre.

La Commission, le Parlement et le Conseil négocient depuis avril 2017 pour réviser le système pour sa quatrième phase de fonctionnement (2021-2030). Pourquoi est-ce nécessaire? Tout simplement parce que les quotas étaient beaucoup trop abondants. L’offre dépassant la demande, les prix restent très faibles et ne convainquent pas les industriels à se décarboner. En janvier 2017, cet excédent atteignait 1,7 milliards de quotas, ce qui équivaut à un an d’émissions sur ce système d’échange. Depuis le début de l’année, le prix d’un quota oscille autour de 5 euros la tonne de CO2 équivalent et n’a jamais dépassé 10 euros depuis 2013.

Quelle est la réforme proposée par les instances européennes?

Entre 2013 et 2020, le plafond de quotas était réduit chaque année de 1,74 %. Après 2020, les quotas diminueront, de 2,2% pour l’ensemble des propositions. Le Parlement propose de prévoir la possibilité d’augmenter cette diminution à 2,4% après 2024 si besoin.

Si rien est fait, l’excédent de quotas accumulé sur le marché restera encore longtemps et ne permettra pas d’atteindre les objectifs. La principale nouveauté est donc la création d’un marché de réserve de stabilité (MRS). Il servira à retirer en partie du marché les quotas en excès accumulés depuis 2009. Le question est de savoir avec quelle rapidité. La Commission proposait de retirer automatiquement chaque année 12% de quotas du marché. Le Parlement et le Conseil proposent d’aller plus vite (-24%) durant les premières années : jusqu’en 2021 pour le premier et 2023 pour le second. Le Parlement et le Conseil s’accordent sur la nécessité de pouvoir annuler un certain nombre de quotas dans cette réserve, mais divergent sur la quantité et l’horizon.

La réforme du SEQE est-elle suffisante?

Selon le nouveau rapport élaboré par I4CE – Institut pour l’économie du climat -, Enerdata et l’IFPEN, les mesures sont insuffisantes pour créer un marché efficace sur la période. Les effets bénéfiques de la réforme ne seront observés qu’après 2030. En effet, les politiques européennes sur les énergies renouvelables et l’efficacité sénergétique suffiront à elles seules à respecter les objectifs du SEQE pour 2030. Par ailleurs, malgré le doublement du taux de retrait pendant les premières années de son fonctionnement, le MRS ne parviendrait pas à neutraliser l’effet des interactions avec les autres politiques énergétiques sur le SEQE.

Le SEQE est aujourd’hui aligné sur la trajectoire la moins ambitieuse de la politique climatique de l’UE pour 2050 (- 80 %). Celle-ci devrait être revue à la hausse pour intégrer les objectifs plus ambitieux de l’Accord de Paris : -95 %. C’est une condition pour mettre en place une trajectoire de décarbonation efficace.

Les auteurs analysent d’autres évolutions possibles d’ici 2040. Dans ce contexte, instaurer un corridor de prix carbone européen serait une solution au manque d’anticipation des opérateurs et permettrait d’anticiper les investissements dans les technologies les moins émettrices en CO2 pour avoir un SEQE fonctionnel. Ils proposent un prix de 25 euros la tonne de CO2 et un prix plancher de 50 euros en 2020, évoluant à un taux annuel de 7 %. Enfin le Brexit rajoute de l’incertitude. Si le Royaume-Uni décidait de sortir du SEQE, il faudrait adapter le plafond des émissions et reparamétrer le MRS. Le pays ayant déjà fait des réductions plus grandes que celles demandées, le nouveau cap deviendrait plus contraignant pour les autres pays.

Par Matthieu Combe, journaliste scientifique

Les attaques informatiques concernent toutes les entreprises

La protection des données sensibles est la principale priorité pour 76 % des entreprises en matière de sécurité IT. C’est la principale conclusion de l’Observatoire de la Cybersécurité réalisé par IDC en partenariat avec Malwarebytes.

Cette conclusion n’est finalement pas très étonnante étant donné le contexte. Les résultats de l’étude montrent que les entreprises sont très nombreuses à avoir subi les conséquences négatives de ces attaques sur leur activité au cours des 12 derniers mois. Elles sont près de 70 % à mettre en avant les conséquences directes de ces cyber-attaques sur leur activité : indisponibilité du site Internet de l’entreprise pendant plusieurs heures (39 %), retard de livraison auprès des clients (27 %) ou encore arrêt de la production pendant quelques heures.

Cycle de vie des données

Pour les entreprises, la problématique est complexe. D’un côté, les attaques informatiques se multiplient et de l’autre côté, les entreprises se lancent dans leur transformation numérique en multipliant les connexions et les appareils échangeant des données entre eux. Le but ? Être le plus réactives possible pour répondre aux exigences de leurs clients et des consommateurs.

Mais cet objectif ne peut plus être atteint sans respecter un parcours très balisé par le Réglement européen pour la protection des données (RGPD). Un des élément-clés de ce texte, qui entre en application en mai prochain, a été de renforcer les droits de personnes au regard de leurs données, et notamment de s’assurer qu’elles donnent leur consentement à leur traitement. Dorénavant, les entreprises doivent mettre en place différentes techniques renforçant leur sécurité, mais également gérer leur cycle de vie pour rester en conformité (de la création d’une data à sa suppression) comme les droits à la portabilité (transmission des données à des tiers) et à l’oubli.

3 milliards de comptes piratés !

À juste titre, on peut se demander si les entreprises, même internationales, protègent sérieusement les données qu’ils leur confient ! Début octobre, Yahoo! a annoncé que la cyberattaque massive dont il a été victime en 2013 a affecté l’ensemble des 3 milliards de comptes d’utilisateurs et non pas seulement 1 milliard comme initialement annoncé.

Pour renforcer la sécurité des données qu’elles stockent et échangent, de plus en plus d’entreprises (75 %, selon cette étude d’IDC réalisée auprès de 200 structures basées en France et regroupant chacune plus de 500 salariés) misent sur le Cloud.

Mais une politiquer de sécurité ne peut être efficace que si elle est globale. C’est un processus qui peut être long, mais qu’il est indispensable d’entamer le plus tôt possible. C’est le message qu’a martelé hier le directeur général de l’ANSSI (Agence nationale de la sécurité des systèmes d’information), Guillaume Poupard, aux Assises de la sécurité à Monaco : « Il n’y aura pas de transformation numérique sans sécurité numérique. (…) Nos PME sont sans doute les premières ciblées, probablement. Je suis incapable de mesurer malheureusement, ce n’est pas glorieux, car on n’a pas de statistiques fiables sur les attaques, mais les PME sont directement ciblées. Et il y en a qui meurent en silence, qui mettent la clé sous la porte à cause d’attaques informatique »

Philippe Richard

La production de la science moins concentrée dans les grandes métropoles mondiales

Dès le début des années 2000, les politiques d’enseignement supérieur de nombreux pays ont favorisé une concentration des moyens (financiers, humains) au profit de quelques grands pôles universitaires. D’un autre côté, la croissance exponentielle de la population étudiante à l’échelle mondiale a engendré une déconcentration spatiale des lieux de savoirs. Des chercheurs démontrent que ce phénomène de déconcentration touche non seulement la production d’articles scientifiques, mais aussi la visibilité et la qualité de ceux-ci, mesurées par le nombre de citations (autrement dit, combien de fois un article scientifique est pris comme référence dans d’autres articles scientifiques).

Afin d’évaluer la visibilité des publications mondiales, Marion Maisonobe et ses co-auteurs ont géocodé plus de 14 millions de publications parues entre 1999 et 2011 et recensés sur le Web of Science¹ – une base de données rassemblant les publications du monde entier et leurs liens de citations. Les résultats montrent que les villes dont les publications scientifiques sont historiquement les plus citées (New York, Londres, Tokyo, etc.) tendent à perdre sensiblement leur hégémonie. La part des 10 premières villes mondiales en nombre de citations reçues est passée de 23 % en 2000 à 17,3 % en 2010.

Les chercheurs ont aussi estimé l’évolution de l’influence scientifique des villes et pays du monde, en prenant comme indicateur le rapport entre la part des citations reçues et la part des articles publiés² . Toutes choses égales par ailleurs, les villes des pays émergents ont gagné en impact, au détriment des principales métropoles du monde occidental. C’est particulièrement remarquable pour les villes de pays d’Asie (Chine, Inde et Singapour) qui enregistrent les meilleures progressions toutes disciplines confondues. C’est aussi le cas des pays qui souffraient d’un déficit de visibilité : ainsi, l’Iran gagne 0,5 point d’impact en sciences de l’univers et 0,8 point en mathématiques entre 2000 et 2010 ; l’Afrique du Sud progresse de 0,3 point en médecine.

Les chercheurs ont montré que ce rééquilibrage dans la géographie des citations s’opère également au sein des pays. Aux Etats-Unis, la progression de l’impact de Chicago et Los Angeles intervient au détriment de celui de New-York. Côté français, l’avantage parisien est en diminution sur la période 2000-2010, puisque sa part nationale de citations passe de 41,7 % à 37 %.

Cette évolution est observée dans toutes les disciplines. Dans le cas des sciences humaines et sociales, une asymétrie persiste en faveur des pays anglophones, dont les publications restent les plus citées, mais elle tend à se résorber.

Ces résultats battent en brèche le postulat selon lequel les plus grandes métropoles mondiales seraient, par nature, un terreau favorable à la création d’articles scientifiques de qualité et seraient seules légitimes à absorber les moyens humains et financiers. La déconcentration de la recherche à l’échelle mondiale n’a pas accentué l’écart de qualité – mesurée par le nombre de citations – entre les villes-monde et les autres. Au contraire, on assiste à l’émergence de nouveaux pôles d’enseignement supérieur et de recherche de qualité.

Cette recherche a bénéficié du programme « Géoscience » soutenu par l’Agence Nationale de la Recherche (ANR-09-SSOC-010-GEOSCIENCE) et du programme « Netscience » soutenu par le LabEx « Structurations des Mondes Sociaux » (ANR-11-LABX-0066).

carte-publications-scientifiques
© Marion Maisonobe et al. à partir de données de Clarivate Analytics et d’un fond de carte Natural Earth. Évolution de la répartition des citations reçues par les publications parues entre 2000 et 2010. On observe une déconcentration géographique des citations avec une croissance très forte du nombre de citations reçues par les villes des pays dits « émergents » : Iran, Chine (en rouge très foncé).

 

Notes :

1 Le Web of Science Core Collection (WoS) recense près d’un million et demi de publications scientifiques par an. Il couvre le domaine des sciences expérimentales et des sciences de l’univers, la médecine, les sciences de l’ingénieur, et les sciences humaines et sociales.
2 En effet, même s’il a déjà été montré que les chercheurs des villes et pays émergents publient de plus en plus, cette croissance ne se fait-elle pas au détriment de la qualité des travaux ? Ceux-ci ont-ils une influence globale, ou seulement locale ou régionale ?

Références :
The global geography of scientific visibility: a deconcentration process (1999–2011), Marion Maisonobe, Michel Grossetti, Béatrice Milard, Laurent Jégou & Denis Eckert. Scientometrics, octobre 2017. DOI 10.1007/s11192-017-2463-2

Source : cnrs

Le graphène entre dans la 3e dimension

Ils ont appelé leur technique la « forge optique » (optical forging), car le procédé utilisé ressemble au travail d’un forgeron qui donnerait une forme 3D à une feuille de métal à l’aide d’un marteau.

Et de fait, le procédé mis au point au centre de nanoscience de l’université de Jyväskylä en Finlande, avec la collaboration des équipes de l’université centrale de Taiwan et de son synchrotron, est très simple et facile à mettre en œuvre. Nul besoin de doper le graphène ou de lui faire subir différents procédés. Il faut juste une feuille de graphène et un rayon laser pulsé.

Le défi a surtout été de comprendre ce qui c’était passé. En effet, les chercheurs ont d’abord irradié le graphène pour voir ce qui allait se produire. Ils sont restés interloqués. Les données recueillies ne correspondaient à rien d’attendu, l’échantillon montrait des propriétés différentes d’une feuille de graphène habituelle. C’est en croisant ensuite simulations informatiques et résultats des expériences qu’ils ont compris que cela était provoqué par la déformation de la feuille de graphène et non par l’incorporation d’autres atomes dans le graphène ou par des défauts dans la structure provoquées par le laser.

graphene en pyramide

Référence : Nano Letters 1909/2017 

Par Sophie Hoguin

Fin du tarif réglementé du gaz: Engie souhaite une « longue période de transition »

La fin des tarifs réglementés de vente (TRV) de gaz « n’est pas une décision d’Engie, mais du Conseil d’Etat, et qui s’adresse à l’Etat, à laquelle Engie doit s’adapter », a souligné le groupe mardi dans une déclaration à l’AFP.

Saisis par des concurrents d’Engie, le Conseil d’Etat a ordonné en juillet la fin des tarifs réglementés du gaz, contraires au droit européen.

« Engie demande qu’une loi puisse prévoir une période longue de transition et la synchronisation avec le TRV électricité pour éviter une distorsion concurrentielle entre les deux types d’énergie », ajoute-t-il.

Avec cette réaction, Engie confirme partiellement une déclaration de la CGT Mines-Energie affirmant que le groupe « prône la fin des tarifs réglementés de vente » et « attaque l’emploi et le statut social de ses salariés ».

Selon la FNME-CGT, Engie a fait « des propositions » au gouvernement et proposé « l’adoption très rapide d’une loi qui programme l’extinction des tarifs réglementés gaz, mais aussi électricité ».

Dans ses déclarations, Engie reprend son argumentaire, exposé à la mi-septembre lorsque le groupe avait annoncé avoir déposé un recours devant le Conseil d’Etat contre les tarifs réglementés de l’électricité, après la décision de la haute juridiction imposant la fin des tarifs réglementés du gaz pour se conformer au droit européen.

Dans son communiqué, la CGT Mines-Energie affirme aussi qu’Engie a présenté trois éléments « à inclure dans la loi ».

Selon le syndicat, Engie souhaiterait « la fin des contraintes (…) pour assurer la sécurité d’approvisionnement, ce qui permettrait d’alléger ses coûts ».

Le groupe voudrait aussi « un temps assez long (six ans) » pour « ajuster les effectifs », ce qui selon le syndicat signifie « la suppression des 811 emplois (…) affectés aux tarifs réglementés chez Engie ».

Enfin, toujours selon la CGT, la fin des TRV, « dernier dispositif de service public en matière de vente d’énergie » impliquerait pour Engie « la suppression du statut des IEG » (industries électriques et gazières) « pour l’activité commerciale ».

Le groupe a démenti cette affirmation: « Engie ne demande nullement la fin du statut IEG pour l’activité de commercialisation ».

Il « appartiendra aux pouvoirs publics de tirer équitablement les leçons de la fin des TRV, en ayant en priorité le souci d’accompagner les clients dans cette transition », ajoute t-il.

sbo/ef/fm

 

 

« Tous droits de reproduction et de représentation réservés. © 2017 Agence France-Presse. »

La Chine interdit l’importation des plastiques en mélange

Invoquant la protection de l’environnement et la santé de ses ressortissants, la Chine a annoncé le 18 juillet 2017 à l’OMC qu’elle interdirait l’importation de certains déchets d’ici la fin de l’année 2017. Sont notamment concernés 8 familles de déchets plastiques, les papiers en mélange, les matières textiles et les déchets provenant de la fabrication du fer ou de l’acier. Les licences d’importations des usines chinoises seront limitées, voire supprimées. Et les usines qui ne respectent pas les normes environnementales seront définitivement fermées. Tout aussi bien que celles qui ne respectent pas ces nouvelles directives, menace le gouvernement chinois.

La Chine accepte encore ces déchets jusqu’à fin octobre. Les problèmes vont donc s’observer en novembre et décembre. «Si la Chine n’accepte vraiment plus ces déchets, on va avoir de gros problèmes, car on n’a pas les infrastructures nécessaires actuellement pour les traiter», assure Christophe Viant, Président de Federec Plastiques, le syndicat professionnel des entreprises du recyclage. Dans un premier temps, les stocks vont augmenter dans les usines qui ne pourront plus exporter leurs matériaux. Mais il va falloir rapidement trouver une solution, car les centres de tri n’auront pas les capacités de stockage suffisantes sur le moyen-terme. En effet, à ce jour, aucune usine mondiale n’a la capacité de traiter ces volumes aujourd’hui importés par la Chine.

Plus que des plastiques de très bonne qualité ?

9 millions de tonnes de plastiques sont concernées par cette interdiction chinoise pour l’ensemble des pays. Il s’agit principalement de ceux en mélange, ou «à laver», à savoir le polyéthylène, des films plastiques, des styréniques, du PVC, du PET, du PET bouteilles, des polycarbonates CD/DVD et les autres déchets et rebuts plastiques.

«On envoie de tous les emballages en Chine : de la très bonne gamme à la moins bonne, explicite Christophe Viant. Aujourd’hui, les Chinois ne veulent plus que du monoproduit 100%, la top qualité». Si la Chine confirme sa décision, les centres de tri vont donc se retrouver avec d’importants volumes supplémentaires de plastiques bas de gamme en mélange. Il faudra les surtrier, les laver et faire des valorisations alternatives.

La situation est complexe et la filière manque de visibilité. Federec appelle à la création de nouvelles unités de lavage et des centres de surtri en France et Europe pour faire face à l’augmentation des volumes. Il faudra aussi créer des débouchés pour ces nouveaux plastiques. En attendant ces développements, ils seront vraisemblablement valorisés énergétiquement. Les pouvoirs publics doivent donc rapidement prendre à bras le corps ce problème.Ils doivent repenser la fabrication des produits et imposer plus d’éco-conception. En outre, ils doivent inciter les entreprises à utiliser plus de plastique recyclé et repenser la gestion des déchets.

Par Matthieu Combe, journaliste scientifique

Les éditeurs de logiciels français confirment leur dynamisme

Ce panorama annuel révèle un secteur dynamique et innovant qui se confirme au fil des ans. La croissance du secteur se maintient depuis 2010 et le chiffre d’affaires a bondi de 30% entre 2014 et 2016 (+12% entre 2015 et 2016) créant en parallèle quelques 8500 emplois sur les deux dernières années. Les 358 entreprises françaises du panel ont enregistré un revenu total de 13,5 Md€. A noter que ces bons résultats s’inscrivent dans la durée et que l’analyse d’EY relève que l’édition de logiciels «repose sur un modèle économique robuste et pérenne». A titre d’exemple, les sociétés réalisant un CA de moins de 5M€ sont plus de deux tiers à afficher un résultat opérationnel positif. Les éditeurs de logiciels sont résolument tournés vers l’avenir et visent désormais l’équipement des entreprises du secteur banque/assurances avant l’industrie et sont prêt à aller vers le secteur public.

L’activité SaaS confortée

Les activités Software as a Service (SaaS) et services Internet se posent comme un modèle économique rentable pour toujours plus d’éditeurs, notamment ceux qui débutent leur activité. La part du chiffre d’affaires de cette activité dans le panel du Top 250 atteint 32% en 2016, soit 7 points de plus qu’en 2015. Le choix stratégique d’orienter l’activité vers le SaaS s’est fait au détriment des activités de support et de maintenance. De manière générale, même lorsque l’activité n’est pas SaaS les entreprises privilégient de plus en plus le mode de contractualisation par abonnement, avec des durées d’abonnements de 3 ans et plus (56%).

Les plus gros visent l’international

La part du CA réalisée à l’étranger continue de croître. Et si, sans réelle surprise, ce sont les éditeurs avec un CA de plus de 100M€ qui réalisent la majorité de leurs ventes à l’export (62 % en 2016, contre 64 % en 2015), il ne faut pas négliger l’émergence d’entreprises qui se tournent vers l’international dès leur création : à titre d’exemple, le lauréat du prix de l’international en 2016, la société clermontoise Allegorithmic a réalisé 88% de son chiffre d’affaires à l’étranger. Les Etats-Unis restent le pays d’implantation privilégié pour 19% des entreprises exportatrices devant la Belgique, la Suisse et le Royaume-Uni.

Recrutement : le talon d’Achille du secteur

Le recrutement constitue toujours un défi pour le secteur : 78% des éditeurs du panel rencontrent des difficultés pour recruter et 83% estiment que les profils qu’ils recherchent sont rares. Les développeurs sont particulièrement demandés : 71% des éditeurs en recherchent. Le secteur a continué d’embaucher ces deux dernières années et les entreprises annoncent encore qu’elles prévoient d’augmenter leurs effectifs. Les emplois sont majoritairement situés en France (58% des effectifs totaux et 70% pour les entreprises «Pure players»). Certains chef d’entreprises n’hésitent pas à dire que la difficulté à recruter est telle qu’elle devient un frein à leur développement. Développement qui rappelons-le s’appuie sur un gros effort de R&D (chez les «pure players» la R&D atteint ainsi 18 % du chiffre d’affaires et 33 % des effectifs avec un fort ancrage sur le territoire puisque 74% des postes R&D sont basés en France).

Lauréats des trophées 2017

Trophée 2017 International : Allegorithmic, à l’origine de la solution Substance, une suite graphique qui s’est imposée sur la niche des textures pour modèles 3D, particulièrement utilisée par les studios de production de jeux vidéo à l’international.

Trophée 2017 Innovation : Arkamys, spécialisée dans le traitement numérique du signal audio pour améliorer la qualité du son des équipements électroniques à partir d’un procédé de spatialisation.

Trophée 2017 Jeux vidéo : Dontnod Entertainment, studio français de développement de jeux vidéo basé à Paris, connaissant un grand succès à l’international.

Trophée 2017 Prix du jury : AB Tasty, éditeur spécialisé dans les solutions de test et d’optimisation du parcours client sur les sites marchands destinées aux équipes marketing.

Sophie Hoguin

Challenge « Industrie du Futur » : votez pour votre start-up coup de cœur

La finale du challenge « Industrie du Futur », organisé par SKF et Atos en partenariat avec Techniques de l’Ingénieur, approche à grand pas. Elle se tiendra le 8 novembre 2017, à la SKF Solution Factory, à St-Cyr-sur-Loire.

Plusieurs prix à la clé

Depuis leur sélection en juillet dernier, les start-ups finalistes sont entrées en phase d’approfondissement aux côtés « d’experts métier » qui les accompagnent pour adapter leur projet au contexte industriel de SKF et d’Atos.

Après plusieurs mois de préparation, elles pitcheront devant les clients et directions de SKF, d’Atos et de Techniques de l’Ingénieur lors de la finale.  A l’issue de ces pitchs, quatre prix seront décernés : les prix Atos, Industrie 4.0, SKF et le prix « Coup de cœur » de Techniques de l’Ingénieur.

Le prix « Coup de cœur » : à vous de voter !

Les finalistes ont écrit un article et répondu à une interview pour présenter leurs innovations. (Re-)Découvrez-les ici !

Parmi les 14 finalistes, quelle innovation vous a le plus marqué ? Quel projet trouvez-vous le plus innovant ? Votez pour élire la start-up qui recevra le prix « Coup de cœur » de Techniques de l’Ingénieur lors de la finale.

bouton-voter

Vos votes, ceux de l’équipe Techniques de l’Ingénieur et ceux du public présent lors de la finale seront pris en compte pour élire la start-up « Coup de cœur » de ce challenge !

La gagnante aura accès à la ressource documentaire Techniques de l’Ingénieur de son choix et aura également la possibilité d’interroger les experts pendant un an.

Vous avez du 9 au 31 octobre 2017 pour voter pour votre start-up « Coup de cœur » ici.

bouton-voter

Retrouvez toutes les présentations des finalistes ici.

L’industrie française du futur en ordre de marche

Début octobre, le ministre de l’économie, Bruno le Maire, a donné le La avec l’annonce de la très prochaine nomination d’un commissaire interministériel à la réindustrialisation qui aura pour rôle de «prévenir les risques de fermetures d’usines» et d’ «accompagner les industries». Deux jours avant, il présentait le nouveau label de la France industrielle, le French Fab, qui espère copier la réussite du label French Tech créé pour soutenir la croissance des start-up. Symbolisé par un coq bleu en origami, cette marque portée par Bpifrance pourra être attribuée aux entreprises innovantes, collectives, qui se digitalisent, qui s’exportent… Elle doit devenir une vitrine pour l’élite de l’industrie française. Le ministre a par ailleurs expliqué que l’objectif est de créer des accélérateurs pour PME et ETI partout sur le territoire afin de les faire devenir des «champions de l’export».

De leur côté, les patrons de l’industrie ont annoncé la création de France industrie, une structure unique commune qui regroupe le Cercle de l’industrie et le Groupement des fédérations industrielles (GFI) afin que PME, ETI et groupes industriels parlent d’une même voix.

Enfin, côté opérationnel, l’Alliance industrie du futur (AIF) a présenté le fruit d’un travail qu’elle mène depuis début 2017 sur les opportunités et le déploiement de l’industrie du futur pour six filières sectorielles majeures en France : l’aéronautique, l’automobile, le ferroviaire, l’agroalimentaire, la construction et le naval. Les résultats font à la fois le bilan de chacune des filières et mettent en exergue comment l’industrie du futur peut les aider à se (re)dynamiser.

Intégrer l’ensemble de la chaîne

Le défi commun à toutes ces filières pour entrer pleinement dans l’industrie du futur, c’est de réussir à intégrer l’ensemble de la chaîne de valeurs et de sous-traitants dans la transformation numérique et de veiller à l’interopérabilité des différents systèmes choisis dans les entreprises. Deux études (*) viennent d’ailleurs d’être publiées s’alarmant du manque d’intérêt et d’actions des PME vers la digitalisation et du risque de voir certaines PME décrocher du marché. Manque de capacité d’investissement, désintérêt dû à une méconnaissance des bénéfices que l’on peut en tirer, peur de l’inconnu et de l’échec sont parmi les principaux freins identifiés. Selon les filières l’intégration sera plus ou moins facile : dans l’aéronautique et l’automobile ou les constructeurs sont extrêmement prescripteurs pour les sous-traitants cela devrait donc se faire plus naturellement que pour l’agroalimentaire ou la construction où la fragmentation du marché constitue un obstacle évident.

Etudes par filière : pour quoi faire ?

Grâce à ces études par filière, l’AIF propose une feuille de route pour le déploiement de la digitalisation et des nouveaux outils industriels à disposition des toutes les parties prenantes : instances représentatives, investisseurs, acteurs de l’innovation et ce sur toute la filière de l’amont à l’aval. L’objectif affirmé est de « créer de la mobilisation et de l’appropriation ». Le diagnostic et donc les remèdes préconisés sont différents selon les filières et les enjeux identifiés. Le document publié par l’AIF propose pour chaque enjeu identifié les solutions que l’industrie du futur peut offrir à court, moyen et long terme et soumet des exemples d’entreprises ayant mis en place ou entamé des initiatives dans ce sens.

Aéronautique : flexibilité et services

Affichant une valeur ajoutée et une productivité positive et en progrès grâce à des investissements importants, l’industrie aéronautique doit faire face à une demande de livraison importante, une mondialisation toujours accrue des schémas industriels, des évolutions dans l’après-vente et l’apparition de technologies de rupture dans la conception de produits (impression 3D par exemple). Le cabinet de conseil Roland Berger préconise donc de « développer la flexibilité de production, réduire les coûts et poursuivre les améliorations de produits et services ». Parmi les outils proposés, la généralisation de la virtualisation des lignes de production : en élaborant une simulation du processus complet de fabrication, on peut utiliser le « jumeau numérique » pour estimer les impacts d’un changement sur la ligne et ainsi optimiser les moyens et les temps de lancements et de mise en place par exemple. Trois études de cas illustre différentes solutions mises en place chez Airbus, Figeac Aéro ou Thalès.

Construction : maîtriser l’organisation et les défauts

Aujourd’hui, la filière construction doit faire face à des évolutions du marché et à un environnement plus technologique et plus exigeant en matière de qualité, d’organisation des opérations. L’analyse menée par Accenture estime que la filière « devra entre autre adopter les nouvelles méthodologies d’innovation et d’accélération go-to-market, accroître l’efficience de sa chaîne d’approvisionnement, réduire les risques d’accidents, fluidifier le partage d’informations (notamment liées aux projets) entre les différents acteurs / projets, et transformer son business model pour gagner en agilité dans un monde en constante évolution ». Parmi les solutions de l’industrie 4.0 qui peuvent contribuer à relever ces défis : le BIM, les matériaux augmentés (connectés et/ou éco-responsables), les travailleurs et équipements augmentés (mobilité, capteurs, drones, cobotique, réalité augmentée…) et l’analytique couplé au Big Data.

Ferroviaire : assurer l’avenir en se diversifiant

Même si le secteur affiche de bons résultats, l’avenir reste incertain car la mobilité évolue et la concurrence internationale s’est développée. Le rapport souligne la nécessité pour cette filière de repenser sa relation client en se diversifiant et en développant de nouveaux services, de monter en qualité opérationnelle (améliorer sécurité, sûreté, maintenance et aide à l’exploitation), moderniser l’outil industriel en le rendant plus flexible pour faire face à une baisse des activités à court terme. Parmi les solutions identifiées, le développement d’outils de cybersécurité (anti-intrusion pour les infrastructures, billetique, supervision), l’introduction de robotisation et d’ automatisation (pour assemblage des lignes et maintenance), le déploiement de la maintenance prédictive (réseaux de capteurs, automatisation de l’inspection, réalité augmentée), objets connectés et Big Data (autour du client pour développer les services). Le rapport met en exergue l’emploi des drones à la SNCF et la poursuite de l’automatisation de la ligne de 4 du métro à la RATP.

Automobile : retrouver de la valeur ajoutée

Depuis la crise, la valeur ajoutée de l’industrie automobile française s’est fortement réduite. La faible profitabilité a entraîné une réduction des emplois et de l’investissement.

Selon Accenture, pour redynamiser le secteur, il faut « améliorer la compétitivité, préparer le véhicule et les services du futur et se développer à l’international ». La difficulté pour cette filière réside dans le fait que pour accéder aux solutions proposées par les nouveaux outils industriels, il faut un changement des pratiques important et ce pour l’ensemble des acteurs de la filière. Par exemple l’introduction de la virtualisation des lignes de production ou la traçabilité des flux et de la supply chain doit se faire en intégrant les fournisseurs et les constructeurs pour que le bénéfice se fasse ressentir et qu’il y ait une véritable amélioration. Le cabinet Roland Berger a mené une étude prospective sur une usine équipementière et après implémentation des solutions de l’industrie 4.0 prévoit une rentabilité des capitaux investis (ROCE) de 42% au lieu de 15% auparavant.

Naval : moderniser la production

Depuis trois ans le secteur s’est relancé mais pour préserver l’avenir il faut à présent augmenter la compétitivité de la production. L’innovation est au centre de la stratégie des acteurs français et l’industrie 4.0 propose des solutions idéales pour réduire les coûts et assurer ce positionnement.

Comme pour les autres filières, de nombreuses améliorations dans le process de fabrication et dans la communication entre les donneurs d’ordre et les sous-traitants permettraient de réduire les délais et d’améliorer la qualité, la flexibilité et le suivi : maquette numérique partagée, travail collaboratif, réalité virtuelle et simulation tant pour la fabrication que pour la présentation au client, robotisation/automatisation pour la fabrication et la maintenance…

Agroalimentaire : une industrie prise en étau

L’Ania (association nationale des industries agroalimentaires) résume la situation difficile de son secteur par ces mots : « LES INDUSTRIES ALIMENTAIRES éVOLUENT ENTRE UN AMONT DONT LA COMPÉTITIVITÉ S’ÉRODE ET UN AVAL DONT LE POIDS DE NÉGOCIATION AUGMENTE ». Les marges diminuent et pour retrouver une bonne croissance cette filière doit jouer sur plusieurs leviers. A titre d’exemple, concernant l’amont de la filière, l’industrie du futur peut apporter plusieurs améliorations : en accompagnant une agriculture plus productive, rentable et raisonnée via l’utilisation de robots, capteurs, drones, algorithmes prédictifs ; en sécurisant les approvisionnements grâce à des plateformes big data et des analyses prédictives ; en reliant traçabilité et valeur ajoutée et en limitant le gaspillage via la création de blockchain, de plateformes collaboratives, d’outils de gestion du cycle de vie.

(*) Etude BVA pour l’association la Villa Numéris sur les salariés et la transformation digitale

Etude de la Bpifrance intitulée «Histoire d’incompréhension : les dirigeants de PME et ETI face au digital»

Sophie Hoguin

Les enjeux géopolitiques du référendum kurde

Alors que les médias européens avaient les yeux braqués sur Barcelone, un autre référendum se tenait quelques jours auparavant au Kurdistan irakien. A l’instar de la Catalogne, le Kurdistan irakien a organisé lui aussi une consultation populaire jugée illégale par le pouvoir. Cette région nord de l’Irak est également un poumon économique de l’Irak, dont une partie importante de sa population souhaite s’affranchir. Le parallèle s’arrête cependant là, tant les enjeux géopolitiques du Kurdistan dépassent les seules frontières irakiennes.

Une lutte ancienne

La minorité kurde d’Irak a régulièrement pris les armes durant le XXème siècle (et encore au XXIe) pour faire valoir ses droits face au pouvoir central de Bagdad. Une première autonomie est obtenue de haute lutte en 1991 suite à la défaite de Saddam Hussain lors de la guerre du Golfe, mais très vite une guerre civile éclate entre Kurdes irakiens. Une nouvelle étape est franchie en 2005 avec l’adoption d’une nouvelle constitution irakienne (suite à l’intervention américaine en 2003) prévoyant une certaine autonomie du Kurdistan dans le cadre d’un nouveau système fédéral. Une autonomie somme toute assez relative car les décisions du Parlement irakien s’impose à celui du Kurdistan dont le rôle est davantage consultatif. Par ailleurs, la région ne peut retirer elle-même les bénéfices de l’exportation du pétrole de son sous-sol, contrôlé par Bagdad. En contrepartie, la capitale s’est engagée à reverser 20% des revenus pétroliers au Kurdistan irakien.

qi16kurdes

La lutte contre Daech, et notamment la reprise de Mossoul cette année, principale ville du Kurdistan irakien, a donné l’occasion aux combattants kurdes, les Peshmergas, de faire parler d’eux. Les Peshmergas sont certes des combattants, mais aussi un formidable moyen de communication pour les dirigeants kurdes. On ne compte plus les reportages les montrant, notamment leurs bataillons de femmes soldats, lutter aux côtés de la coalition internationale contre Daech, participant à la renommée des combattant(e)s kurdes.

Vers une négociation ?

Si le péril Daech n’est pas encore totalement écarté – des combattants islamistes sont encore actifs le long de l’Euphrate et de la frontière syrienne – le rôle des Peshmergas est aujourd’hui davantage lié à la sécurisation des territoires repris. De fait, la politique a repris peu à peu sa place et le référendum organisé par Massoud Barzani, président du Kurdistan irakien, en est le symbole. Avec près de 80% de participation et 90% en faveur de l’indépendance, cette consultation a été naturellement très mal accueillie par Bagdad qui a pris des mesures : «Un embargo a été mis en place pour empêcher les avions d’atterrir au Kurdistan. Même les vols humanitaires éprouvent des difficultés à se poser», explique Benjamin Toubol, chercheur à l’Institut Français de Géopolitique. Une réaction forte mais qui ne présage pas forcément d’un envenimement de la situation. Présent à Paris le 5 octobre dernier dans le cadre d’une visite diplomatique, le Premier ministre irakien, Haïder Al-Abadi, n’a pas fermé la porte à la médiation que Ján Kubiš, émissaire de l’ONU en Irak, souhaite engager entre les parties.

La France, par la voie de son président, Emmanuel Macron, a indiqué vouloir « maintenir l’intégrité et l’unité de l’Irak tout en reconnaissant les droits des Kurdes ». Une position qui a vocation à ne froisser aucun des deux camps.

La Russie place ses pions

Face à une Union européenne inaudible, des Etats-Unis qui regardent davantage en Asie et une ONU impuissante, la Russie joue sa partition. «La nature a horreur du vide. Vladimir Poutine applique cette loi au cas kurde et avance ses pions», indique Benjamin Toubol. En juin dernier, la compagnie pétrolière russe Rosneft a ainsi signé, lors du Forum économique de Saint-Pétersbourg, un accord de coopération énergétique avec le Kurdistan. Le but étant de permettre au territoire kurde d’Irak d’exporter directement son pétrole sans passer par Bagdad. Quelque 500 000 barils par jour transitent déjà par le biais d’un oléoduc qui traverse le sud-est de la Turquie jusqu’au terminal de Ceyhan sur la Méditerranée.

Recept Erdogan, président de la Turquie, cultive également de bonnes relations avec le clan Barzani. Ce dernier a autorisé des opérations militaires turques dans le nord de la province pour chasser les combattants révolutionnaires kurdes du Rojava et de l’Anatolie du Sud-Est, honnis par Ankara. Une situation complexe résumée par le chercheur français : «Le Kurdistan d’Irak rencontre un paradoxe lié à l’histoire kurde de la région. Soit devenir un Etat et privilégier l’unité de tous les Kurdes au risque de froisser ses partenaires turcs et iraniens, ou devenir un État kurde, dont les enjeux et les représentations différeraient de ceux des Kurdes de Syrie et de Turquie, mués par un idéal révolutionnaire marxiste».

De fait, la Turquie et la Russie ont davantage intérêt à maintenir le statu quo, ce que semblent désormais refuser les dirigeants kurdes. Bagdad n’ayant pas les moyens de contenir les velléités indépendantistes du Kurdistan, il y a fort à parier que la résolution de ce dossier se jouera au niveau international. A suivre donc.

Romain Chicheportiche

Eolien et solaire: la dynamique reste à amplifier !

Pour le premier trimestre, le Ministère de la transition écologique et solidaire se félicitait du niveau record de raccordements éolien : 330 mégawatts (MW). Il s’agissait  du plus haut niveau jamais observé lors d’un premier trimestre pour l’éolien, environ deux fois plus qu’au premier trimestre 2016 (141 MW). Au deuxième trimestre, l’enthousiasme est beaucoup moins de mise. Seulement 200 MW ont été raccordés sur la période, contre 464 MW au deuxième trimestre 2016. C’est le constat dressé par le Panorama de l’électricité renouvelable, réalisé par Enedis, RTE, le Syndicat des énergies renouvelables (SER) et l’Association des distributeurs d’électricité en France (l’Adeef).

Concernant l’éolien, l’objectif fixé par la Programmation Pluriannuelle de l’Energie (PPE), est fixé à 15 gigawatts (GW) pour 2018. Il est actuellement atteint à 82,3 %. Loin de devoir ralentir, le rythme de raccordement annuel doit donc s’intensifier. Il devrait se rapprocher des 1.770 MW pour 2017 et 2018, calcule le rapport. « Le ralentissement observé sur le dernier trimestre, s’il se confirmait, mettrait alors aussi en question l’atteinte de la fourchette basse de 21.800 MW en 2023, notent les auteurs. Pour parvenir à la fourchette haute de 26.000 MW d’éolien raccordé en 2023, le rythme de raccordement doit encore s’accélérer de 50 % et s’établir à 2.100 MW par an ».

Un solaire encore plus à la traîne

Sur le solaire, 194 MW ont été raccordés durant le deuxième trimestre. C’est un record trimestriel depuis le troisième trimestre de 2015. Et la puissance raccordée ce deuxième trimestre, est en augmentation de 12,4 % par rapport au 2ème trimestre 2016. « Cette dynamique traduit les premiers effets des appels d’offres planifiés dans le cadre de la PPE », estime le rapport d’étude. Mais les efforts sont loin d’être suffisants. Fin juin, le parc solaire atteint une capacité installée de 7.064 MW, soit 69% des objectifs fixés pour la filière pour 2018 (10.200 MW). Ils ne seront pas atteints. Si l’on ajoute les projets en développement, la puissance s’élève à 9.632 MW. C’est 94,4 % de l’objectif national fixé à pour fin 2018.

Toutes filières confondues, la progression du parc de production renouvelable au deuxième trimestre 2017 a été de 417 MW, en net retrait par rapport à l’augmentation constatée au deuxième trimestre de l’année précédente (728 MW). Il s’agissait du niveau le plus important depuis 4 ans. Sur une année glissante, 2.030 MW ont été raccordés, contre 2.140 MW un an auparavant. Le rythme total des raccordements reste stable, mais aucune intensification n’est à l’oeuvre au moment où Nicolas Hulot vient de présenter son Plan Climat.

Par Matthieu Combe, journaliste scientifique

Moderniser les centres de tri: un défi majeur

À l’occasion des Assises des déchets de Nantes, les professionnels du recyclage ont insisté sur le défi majeur que pose la modernisation des centres de tri pour répondre à l’extension des consignes de tri des emballages. Cette dernière sera progressive à travers 4 vagues successives d’appels à projets étalés de 2018 à 2021. « L’ensemble des acteurs devront se positionner sur cette période », assure Carlos de los Llanos, Directeur Recyclage de Citeo, l’éco-organisme résultant de la fusion d’Eco-Emballages et Ecofolio.

Des centres de tri industriels pour plus de rentabilité?

«On a déjà procédé à une phase d’extension sur 15 millions d’habitants, le quart du territoire », rappelle l’expert du recyclage. « On a un peu plus de 200 centres de tri en activité en France, soit environ un centre de tri pour 300.000 habitants », prévient-il. Mais ce serait trop. « Les technologies qui existent aujourd’hui nécessitent des centres de tri de taille supérieure », complète-t-il. D’ici 5 ans, il devrait y avoir au maximum 130 centres de tri sur le territoire. Alors, comment se préparer à la reconversion des sites?

L’extension des consignes de tri impose de développer des centres de tri plus importants. Pour André Flajolet, Vice-président de l’Association des Maires de France (AMF), il faudra une couverture nationale cohérente. « Un certain nombre de centres peuvent être modernisés dans leurs bâtiments et leurs process, mais il va falloir construire de nouveaux centres sur de nouveaux périmètres », complète-t-il.

Une concertation indispensable en amont

Qui dit centre de tri plus important dit « bassin de tri » plus important, analyse Sylvain Pasquier, Coordinateur de secteurs à l’ADEME. Il va falloir créer des coopérations entre les territoires et conduire des études préalables pour savoir comment implanter de nouveaux centres ou en regrouper des existants. L’idée est bien d’avoir des implantations et des tailles adaptées, avec des solutions différentes. « L’objectif n’est pas d’arriver qu’à des gros centres, mais à des centres un peu plus importants dans des territoires vraiment ruraux », soutient-il.

Dans les territoires ruraux, « il faut avoir une réflexion pour avoir un seul centre de tri pour le département », prévient Sylvain Pasquier. Comme cela a été fait par Eco-Emballages dans son expérimentation, par exemple, pour la Lozère, le Jura et les Ardennes. En revanche, « au niveau des grosses agglomérations, il faut réfléchir à des centres de tri industriels qui vont desservir un million d’habitants », assure-t-il. Les centres desservant moins de 200.000 habitants, ne pourront en effet pas amortir les investissements de modernisation. Des travaux sont notamment en cours pour étudier la possibilité d’installer un tri en deux étapes sur les territoires les moins denses. Il consisterait à faire plusieurs premiers tri simplifiés qui redirigeraient les emballages vers un une seule usine industrielle pour un tri complémentaire. Les conclusions sont attendues pour la fin de l’année, avant le premier appel à projet.

Améliorer les taux de captage

L’extension des consignes de tri répond à une demande sociétale forte. Les citoyens veulent en effet des consignes simples et harmonisées. Grâce à elles, tout emballage ira désormais dans la poubelle de tri. Mais les refus de tri augmenteront inexorablement. Car il n’existe pas encore de filière de recyclage pour tous les emballages, notamment en plastique. Néanmoins, cette situation devrait être transitoire, car certaines filières apparaitront, avec l’augmentation des captages.

La France ne recycle encore que 24% de ses emballages en plastique, presque uniquement des bouteilles et des flacons. Une fois l’extension des consignes de tri réalisée, Citéo estime que ce taux grimpera autour de 40%. Il faudra travailler sur la recyclabilité et l’éco-conception des produits pour atteindre 55%. Et développer les technologies de recyclage chimique, notamment de dépolymérisation des plastiques pour espérer aller au-delà. Cela est possible : sur l’ensemble des emballages plastiques, entre 70 et 80% sont techniquement recyclables. Mais c’est la rentabilité qui fait souvent défault. En fin de compte, il faudra accepter qu’une part de ces emballages soit valorisée énergétiquement, notamment les emballages en polystyrène et certains films souples.

En revanche, que dit-on aux habitants? Ils ne veulent pas être trompés. « On doit leur dire qu’on va faire la meilleure valorisation possible : tout ce qui est recyclable doit être recyclé », assène Carlos de los Llanos. « Il y a la solution de l’incinération avec valorisation énergétique. Lorsqu’elle n’existe pas, il y a le développement des filières de combustibles solides de récupération (CSR)», prévient-il. « La valorisation énergétique, c’est le complément nécessaire, indispensable, à l’extension des consignes de tri des plastiques pour pouvoir dire aux habitants que tout ce qui rentre dans le bac jaune sera valorisé de la meilleure façon en fonction des technologies disponibles », ajoute-t-il. Les refus de tri ne finiront donc plus en décharge, comme le somme la loi de transition énergétique.

Par Matthieu Combe, journaliste scientifique