Nucléaire français : l’affaire du carbone tourne au scandale

L’audition de l’Opecst fait écho à une précédente réunion de juin 2015, suite à la découverte d’une concentration anormalement élevée de carbone au centre du  couvercle et de la cuve du futur EPR en construction à Flamanville. Des éléments fondamentaux d’un réacteur nucléaire qui ne peuvent souffrir d’aucune malfaçon. Le fabricant de ces composants, Areva, est alors entré dans une démarche de justification et de tests de résistance qu’a accepté l’ASN. Un dossier devant permettre l’utilisation de ces pièces majeures sera déposé auprès du gendarme du nucléaire fin 2016 qui devra arrêter une décision. Mais depuis, l’affaire a pris une autre tournure avec la multiplication des découvertes. « On est dans une toute autre situation que lors de ma dernière audition en juin 2015. On part de la cuve de l’EPR qui n’a pas de conséquence immédiate sur la sureté (car il est actuellement en construction) à une anomalie concernant des réacteurs en fonctionnement aujourd’hui », pose d’entrée Pierre-Franck Chevet, directeur de l’ASN. Et pour cause, les investigations de l’Autorité de sûreté ont conclu à une anomalie générique concernant de nombreux réacteurs français et plus seulement l’EPR de Flamanville. Pire, les recherches de l’ASN ont mis à jour de nombreuses irrégularités voire falsifications sur les rapports transmis par Areva.

Anomalie générique

L’anomalie constatée par le gendarme du nucléaire consiste en une concentration en carbone trop élevée sur des cuves, plaques tubulaires et fonds primaires de générateurs de vapeur, tous des éléments critique en terme de sûreté. « Ces concentrations de carbone altèrent les propriétés mécaniques et donc diminue la tenacité du matériau », explique Thierry Charles directeur général adjoint de l’IRSN. Or, la standardisation du parc français, qui a permis de notables économies d’échelle, implique que cette anomalie concerne une dizaine de réacteurs en fonctionnement. EDF mène alors des contrôles qui semblent démontrer que ces anomalies ne remettent pas en cause la sûreté de ces équipements. Sauf sur les fonds de cuve de générateurs de vapeur. L’ASN a en ligne de mire 12 réacteurs en particulier, équipés de générateurs de vapeur fabriqués par la Japan Casting & Forging Corporation (JCFC), un fournisseur d’Areva. Sept d’entre eux sont en cours de contrôle et cinq autres ont reçu l’ordre de l’ASN d’arrêter leur activité sous trois mois pour inspection. L’objectif de ces contrôles est de confirmer les hypothèses du dossier déposé par EDF. Le gendarme français du nucléaire l’étudiera et conclura, ou non, à la  sûreté des réacteurs au cas par cas. Mais l’histoire ne s’arrête pas là car en étudiant les archives de l’usine Areva de Creusot Forge, l’ASN a mis au jour de nombreuses « irrégularités » qui s’apparentent davantage à des falsifications. L’affaire prend alors une autre tournure.

Falsifications

C’est la partie explosive de cette audition fort heureusement ouverte à la presse. Lors de ses investigations l’ASN a découvert des « irrégularités sur des dossiers barrés » de l’usine de Creusot Forge. En étudiant de près ces documents, les inspecteurs ont pu constater des écarts importants sur des équipements de 24 réacteurs. « Il y a aussi des documents qui s’apparentent à des falsifications », indique Pierre-Franck Chevet. Preuves à l’appui, l’ASN démontre que les chiffres qui lui ont été transmis ne sont pas ceux observés lors des contrôles réalisés par Areva. Pire, il ne s’agit pas seulement d’équipements en cours de fabrication, mais en opération. C’est le cas du générateur de vapeur de Fessenheim 2, dont la virole basse fabriquée en 2008 par l’usine du Creusot n’a pas été rebutée comme il fallait,  « avec des conséquences potentiellement majeures sur la sûreté », affirme l’ASN qui a suspendu le certificat d’épreuve de ce générateur de vapeur.

Ces falsifications déjà nombreuses (87 cas déclarés) ne sont que la surface immergée de l’iceberg. « Nous découvrirons à n’en pas douter d’autres irrégularités. C’est une purge nécessaire qui n’est pas encore finie. Il y a encore 1 à 2 ans de travail pour vérifier pas à pas les 10 000 dossiers restants », prédit Pierre-Franck Chevet qui en a profité pour rappeler l’insuffisance des moyens humains qui lui sont octroyés, malgré la création cette année de 30 postes supplémentaires. L’une des principales questions à laquelle l’enquête de l’ASN devra répondre est de savoir si ces pratiques qui semblent avoir duré des années sont localisées uniquement au Creusot. Pour cela, le directeur de l’ASN prévient qu’il s’intéressera dans les prochains mois à d’autres usines du groupe Areva, notamment Chalon/St Marcel.

Le parc nucléaire français
Le parc nucléaire français

EDF et Areva font front commun

Très exposés lors de cette audition, les représentants d’EDF et Areva ont fait front commun. Ces derniers ont tenu des propos qui se veulent rassurants, et ce, malgré l’ampleur du scandale. Dominique Minière, directeur d’EDF en charge du parc nucléaire, a souligné la démarche vertueuse qu’avait entraîné la découverte de ces malfaçons, rappelant qu’il ne s’agit pas du premier problème générique auquel EDF doit faire face. « Dans le nucléaire on établit des marges importantes. Dans cette situation, on consomme de la marge, mais la sûreté reste assurée », indique Dominique Minière. Et de poursuivre : « Sur les 88 irrégularités  découvertes sur le parc en exploitation, une seule pourrait remettre en cause la sûreté : la virole de Fesseheim 2. Nous avons anticipé l’arrêt de tranche pour vérifier cette pièce. Par ailleurs, deux autres pièces sacrificielles ont été construites pour confirmer nos hypothèses ». Bernard Fontana, directeur d’Areva, était lui en première ligne et s’il juge ces falsifications « inacceptables », la question des sanctions et des éventuelles conséquences pénales est en revanche largement ignorée. « Il nous faut en tirer les enseignements pour sortir plus fort de cette épreuve », se contente Bernard Fontana.

Monique Sené, vice-présidente de l’Association nationale des comités et commissions locales d’information (Anccli), estime désormais que la confiance est rompu malgré la loi de 2006 sur l’industrie nucléaire qui devait instaurer plus de transparence à cette industrie. Interpellé par la solidarité affichée entre l’exploitant et son fournisseur, Yves Marignac, de l’association WISE, interroge EDF sur le fait qu’elle ne se retourne pas contre Areva, ni que l’agence de répression des fraudes ne soit associée aux derniers déroulements de l’affaire. EDF entretient certes une relation contractuelle avec Areva, mais il ne faut pas oublier que l’électricien, sous ordre du gouvernement, s’apprête à racheter la partie réacteurs de son fournisseur, qui inclut l’activité de forgerie. L’électricien n’a donc aucun intérêt à la mettre en difficultés, notamment judiciaires, et au contraire l’électricien appuie comme très souvent les efforts de son fournisseur pour rendre une copie satisfaisante à l’ASN.

Impact financier et international

Malgré l’ampleur de ces vérifications, EDF se dit « confiant » de voir ses réacteurs redémarrer au plus vite. Une nécessité économique pour l’électricien français qui estime sa perte à environ 1 million d’euros par réacteur et par jour. Au petit jeu des calculs, cela représente une perte de plus de 70 millions d’euros par semaine pour EDF, pour la dizaine de réacteurs concernés. Et ce, à la veille de l’hiver qui correspond à la période de l’année où la consommation française est la plus importante. Si ces réacteurs ne sont pas autorisés à reprendre le service, EDF devra importer l’électricité manquante à un coût élevé. Une perspective qui ne doit guère enchanter l’électricien déjà dans une situation financière très compliquée, qui a conduit à une augmentation de capital exceptionnelle de 4 milliards d’euros en juin dernier, dont les ¾ au frais du contribuable.

Si cette affaire secoue l’ensemble de la filière nucléaire française, ses implications devraient aller bien au-delà de nos frontières. Les deux réacteurs EPR en fin de construction à Taïshan (Chine) pourraient également avoir été l’objet de malfaçons comme tous les autres équipements fabriqués et exportés par l’usine du Creusot, voire d’autres usines d’Areva ou de ses sous-traitants. « C’est un sujet qui peut concerner d’autres pays », confirme Pierre-Franck Chevet. Affaire à suivre.

Romain Chicheportiche

Sea Bubble : les « bateaux volants » pour traverser Paris pourront-ils « voler » partout ?

Le concept est sexy et séduit. Et à juste titre car il s’agit du mode propulsion motorisé le plus efficace en milieu aquatique. Du moins quand la vitesse est suffisante pour le basculement du véhicule en mode « foil », c’est-à-dire qu’il puisse se dresser sur ses ailes et alors glisser au dessus de l’eau. Tant que le Sea Bubble (« bulle maritime ») est immergé il consomme autant d’énergie qu’un bateau classique. C’est-à-dire beaucoup plus, à vitesse égale, qu’un véhicule terrestre de gabarit équivalent.

Dans un article  intitulé «  Des voitures volantes pour traverser Paris en 15 minutes » RTL présente le navigateur Alain Thebault comme « leur inventeur ». Or à ce stade pas même un prototype n’a été construit. A l’inverse du Quadrofoil dont Techniques de l’ingénieur faisait écho dès 2014. Capable de se déplacer à 21 nœuds (40 km/h) le QuadroFoil (Vidéo) a été développé par une équipé d’ingénieurs basée en Slovénie, petit pays au bord de la mer Adriatique. Il faut que le QuadroFoil, véhicule deux places pesant seulement 100 kilos, franchisse les 6 nœuds (13 km/h) pour qu’il puisse sortir de l’eau. Avec le SeaBubble, quatre places, il est possible que la vitesse requise soit un peu supérieure. A fortiori si les passagers embarquent des bagages.

Selon la direction territoriale du basssin de Seine au niveau des îles Saint-Louis et de la Cité la vitesse de la navigation est limitée à 6 km/h. Le concept de « bateau volant » n’est donc pas valide dans ce secteur. Ailleurs « la vitesse maximale autorisée est de 18 km/heure, à condition que le bateau se trouve à plus de 20 m des rives et qu’il fasse moins de 20 tonnes de déplacement d’eau. Si non, elle est seulement de 12 km/heure. » A plus de 20 mètres des rives les Sea Bubbles pourront donc circuler au maximum à 18 km/h. A 18 km/h on parcourt 4,5 kilomètres en 15 minutes. A noter que « le dépassement ou trématage est interdit entre : le pont de Bir-Hakeim et la passerelle Debilly la passerelle Leopold-Sedar-Senghor (ex passerelle Solférino) et le pont des Invalides le pont Neuf et le pont d’Austerlitz ». C’est pas gagné pour battre un record de vitesse…

A Paris la circulation terrestre s’écoule à une vitesse moyenne d’environ 15 km/h. Avec SeaBubble, compte tenu du temps d’embarquement, de débarquement ainsi que de la traversée à vitesse réduite de la bande des 20 mètres au départ et à l’arrivée, il n’est pas certain que ce mode de déplacement soit plus rapide que les taxis.

Alain Thébault souhaite que traverser Paris en SeaBubble coûte moins cher que de le faire en taxi. La plus grosse partie du montant d’une course correspond au salaire du chauffeur. Etant donné que chaque Sea Bubble ne sera pas 100% autonome et devra faire appel à un pilote humain titulaire des permis requis, et que par ailleurs la consommation électrique en milieu aquatique, même en glissant sur l’eau, est supérieure à celle des taxis électriques terrestres, c’est peu probable. Sauf si la Mairie de Paris met en place un régime règlementaire particulier, ce qui serait déloyal et sans doute dénoncé par les chauffeurs de taxis. Chacun se souvient de leur réaction lors du débarquement des Uber POP.

Alimenter les batteries des Sea Bubbles avec de l’électricité solaire et non pas nucléaire optimisera l’image green des Sea Bubbles parisien. En ce qui concerne les micro-hydroliennes proposées par Alain Thébault le courant disponible en bord de Seine sera-t-il suffisant pour générer un kWh bon marché ?

A l’opposé des jetskis thermiques qui constituent une aberration complète en matière d’efficacité énergétique, les embarcations de type QuadroFoil / SeaBubble ne génèrent pas de vagues, d’émissions polluantes et de bruit : il peuvent circuler au niveau d’écosystèmes aquatiques fragiles avec un impact minimal sur la flore et la faune locale. Le tout en conférant un maximum de plaisir aux voyageurs.

Il faut néanmoins une eau bien lisse pour permettre une propulsion optimale du Sea Bubble. Car dès que des vaguelettes se forment le « bateau volant » redevient un bateau classique.

La Mairie de Paris a donné son feu vert à la piétonisation des berges de Seine. Peut-être cherche-t-elle à faire diversion en occupant le terrain médiatique avec les Sea Bubbles ? Des petites bulles pour tenter de faire éclater la contestation face aux temps de trajet des automobilistes qui s’allongent ?

La splendide devise de Paris,  « Fluctuat nec mergitur »  signifie « tangue mais ne chavire jamais ». La Déesse Isis sur sa barque portera-t-elle chance à Alain Thébault ?

Olivier Daniélo

Nouvel arrêté sur les pesticides agricoles : les futures conditions d’épandage divisent

Depuis 2011, la pulvérisation de pesticides est réglementée notamment à proximité de lieux qui accueillent du public comme les crèches, les parcs, les terrains de sport ou encore les maisons de retraite. Désormais le Comité de rénovation des normes en agriculture inclut également les habitations.
Voulu par le premier ministre et les représentants du secteur agricole, ce Comité a été instauré en mars 2015. Sa mission étant de simplifier les normes existantes et de revoir la méthode d’élaboration des normes applicables dans les exploitations agricoles.

Préserver la santé

Cependant, le monde agricole, particulièrement éprouvé, voit d’un mauvais œil ces futures recommandations, considérées comme de nouvelles contraintes. Pourtant, ce projet d’arrêté entend préserver aussi bien la santé des agriculteurs que celle des riverains. En effet, cet arrêté interministériel en cours de préparation compte définir avec précisions les zones traitées et celles non traitées. Depuis l’arrêté du 12 septembre 2006, les zones non traitées devaient respecter des distances de 5 à 100 mètres aux abords des points d’eau et un délai avant récolte de trois jours minimum et de 6 à 48h pour un retour de l’exploitant et des travailleurs sur la parcelle.

Une forte opposition bien marquée

Le syndicat majoritaire, la FNSEA, craint des conditions encore plus drastiques et la perte considérable de terrains cultivables. Il s’inquiète notamment de l’extension de ces zones dites non traitées le long des fossés, des forêts, des bosquets ou encore des nouvelles mesures de protection à proximité des habitations. La FNSEA demande également plus de souplesse. Dans Le Monde, elle réclame notamment la réduction du délai de retour sur les parcelles traitées, « soit un laps de temps de six ou huit heures au lieu des 24 à 48 heures actuelles, pour peu que le travailleur porte un équipement individuel de protection. » Pourtant, en juillet, l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail, l’Anses, confirmait dans un rapport le manque de données relatives aux expositions aux pesticides des personnes travaillant dans l’agriculture.

La crainte de pertes multiples

Dès l’annonce de la révision de l’arrêté de 2006 (qui ne sera plus applicable à partir du 06 janvier 2017 suite à l’annulation par le Conseil d’Etat), la FNSEA a invité ses adhérents à se mobiliser contre cet « arrêté phyto », comme elle le surnomme. Dans son communiqué de presse, elle évoque comme conséquence directe de ces restrictions, la perte de « milliers d’hectares qui viendraient à manquer pour produire et nourrir nos concitoyens ». Dans un courrier signé par plus d’une trentaine de représentants du secteur et adressé à Ségolène Royale, Ministre de l’environnement, ces représentants « demandent solennellement de ne pas en rajouter sur l’encadrement de l’utilisation des produits phytosanitaires. » Mettant en avant les nombreux efforts fournis (« l’engagement dans la mise en œuvre d’Ecophyto 2 », (dont l’objectif est la réduction de 50% du recours aux produits phytosanitaires en 10 ans) ; «la réduction de moitié de la quantité de produits phytosanitaires par hectare de surface agricole utile », etc.), ils s’insurgent contre la version actuelle du projet. « Appliquée en l’état, ce sont plusieurs millions d’hectares qui sortent de la production agricole (…) avec la suppression de milliers d’emplois agricoles et la perte de plusieurs milliards d’euros par an en termes de chiffre d’affaires agricole. »
Ce futur texte, en cours de rédaction, suscite donc déjà de vives réactions. Il est censé tout remettre à plat et tenir compte de plusieurs paramètres dans l’épandage : force et direction du vent ; distances minimales par rapport aux habitations et à un cours d’eau ; délais d’exposition minimaux, etc. Il devra prochainement donner lieu à une consultation publique sur internet.

Par Nadia Daki

« L’arbre à vent » d’Arnaud Montebourg déplumé (à tort ?) par le canard enchaîné

CvrrzYTXgAAToIu« Arbre à vent, route solaire, la capacité de certains politiques à promouvoir des miroirs aux alouettes énergétiques est sidérante » tonne Thierry Salomon, porte parole de l’association négaWatt. Ceci en réaction au lancement par Ségolène Royal de la construction d’une route solaire en Normandie ainsi qu’à l’article du Canard enchaîné intitulé « L’arbre à vent de Montebourg ? Du vent… ».

Cet ingénieur énergéticien pose une question fondamentale dans une perspective de développement vraiment durable à propos de ces deux innovations très médiatisées : « Une simple question : où sont les études sur le cycle de vie et le temps de retour énergétique (EROI) ? »

L’arbre à vent produit-il (bien) plus d’énergie qu’il n’en consomme ? « Une ACV (Analyse du cycle de vie) sera menée sur la série. Nous ne sommes pas parfaits mais faisons des efforts : bois, chanvre de lin et Steel roots » a déclaré NewWind aux Techniques de l’ingénieur. « Nous revendiquons le droit à nous améliorer, à tester, écouter, corriger, l’innovation c’est du work in progress ».

Thierry Salomon rappelle que « si l’EROI est proche ou inférieur à 1, ces techniques retardent la transition au lieu d’y contribuer ! ». Une remarque potentiellement dérangeante mais absolument essentielle. La meilleure défense sera donc de publier des études environnementales sérieuses.

Qui peut être contre l’innovation ? En fait, pas grand monde. Mais l’innovation peut-elle être sans limite ? Certaines approches sont pipées dans leur conception même. Si un jour un groupe d’ingénieurs propose de tester des éoliennes sur une planète dépourvue d’atmosphère ? Ou si une start-up propose d’installer une centrale solaire sous-marine au fond de La Manche, entre la France et la Grande-Bretagne afin de réduire son impact paysager ? Serait-il judicieux d’y injecter des millions d’euros ?

De l’électricité dans l’air

New Wind a décidé de porter plainte contre le Canard enchaîné, comme en témoigne un communiqué de démenti diffusé le 26 octobre 2016 par la start-up. Le journal fait écho de problèmes de sécurité que poserait l’arbre à vent, problèmes qui ont notamment entrainé l’intervention de l’Apave, spécialiste des risques. La direction de New Wind pense qu’il s’agit d’un coup monté par un salarié en cours de licenciement.

Le journal estime de son côté que « présentée comme une grande innovation » par Arnaud Montebourg, « cette mini-éolienne s’avère dangereuse pour le public, peu productive et chère. L’arbre à vent ne se vend pas. »

CvtMr60WcAAIStW
Dessin extrait de l’article du Canard enchaîné

Les informations rapportées par le Canard enchaîné dans le domaine de l’énergie ne sont pas toujours pertinentes rappelle Stéphanie Franck, journaliste au sein de la rédaction d’Enerpresse, le quotidien français de l’énergie. L’année dernière le canard affirmait que la moitié des éoliennes françaises ne sont pas raccordées au réseau électrique et donc tournent dans le vide, ce qui est faux.

Le journaliste s’était emmêlé les pâles avec les demandes de permis de construire. Malheureusement la fausse information avait trouvé un écho considérable dans la presse grand public qui bien (trop) souvent ne dispose pas de journalistes scientifiques spécialisés en énergies durables. Cependant les révélations du Canard ne sont pas systématiquement fausses.

Arnaud Montebourg a démissionné de son mandat de président du conseil de surveillance de NewWind en raison de sa candidature à la primaire socialiste pour la prochaine élection présidentielle. Mais il demeure actionnaire. Le socialiste a déboursé 56.000 euros.

L’arbre à vent perdra-il ses feuilles cet hiver ? Ou restera-t-il vert comme le sapin de Noël ? A suivre.

Olivier Daniélo

Revue du web #96 : les 10 vidéos étonnantes du mois

Un étrange phénomène observé lors d’une vidange de piscine intrigue le web

Postée sur Reddit, une nouvelle vidéo d’un étrange phénomène observé lors de la vidange d’une piscine gonflable a beaucoup fait parler. Voici quelques explications sur les mécanismes derrière cette manifestation.

Rassor 2.0, le nouveau robot de la Nasa

Voici Rassor 2.0, un petit robot plein de ressources étudié par la Nasa. Ce modèle, ou la génération suivante, sera peut-être dans les valises des premiers êtres humains à débarquer sur Mars à l’horizon 2030.

L’ouragan Matthew en time laps

Plongez au cœur d’une batterie Lithium ion

A l’heure où Samsung rappelle par millions des téléphones aux batteries défectueuses, visite en haute résolution à l’intérieur d’une batterie pendant son fonctionnement, afin de mieux comprendre comment elle s’abîme au cours du temps.

Le module Schiaparelli s’est-il écrasé sur Mars ?

Ce n’est qu’à 11 kilomètres de la surface que l’étalon italien, dont la vitesse ne sera plus que de 1 700 km/h, déploiera son parachute pour se poser sur la plaine équatoriale de Meridiani Planum qui avait déjà été choisie comme site d’atterrissage par le rover américain Opportunity.

La moto du futur

En 2016, l’année de son centenaire, le Groupe BMW est, plus que jamais, avec leurs yeux sur l’avenir et le développement d’une série de véhicules ciblés de propositions pour répondre aux besoins de mobilité des personnes 30 ans plus tard à partir de maintenant.

Renault Trézor

Ce concept-car électrique de la marque française a la particularité de ne posséder qu’une porte, qui s’ouvre via le capot à l’avant telle une soucoupe volante. L’inspiration vient directement d’une photo où l’on voit Steve McQueen passer littéralement par-dessus bord sa Jaguar XKSS

 

Voilà à quoi ressemble la musique pour sourds

Le mieux c’est d’écouter !

Jouer avec du plasma à la maison

Dans la série DIY (do ti yourself), la rédaction vous présente ce jeune homme, qui « joue » avec du plasma dans son garage…

Des robots mous pour imiter les muscles

Une équipe de l’EPFL a développé des robots flexibles, mous et reconfigurables, qui peuvent servir d’outils de réhabilitation. Mis en mouvement par injection d’air, ils imitent les muscles et peuvent être produits à large échelle.

La vidéo inutile de la semaine : tirer la chasse d’un WC rempli de mercure

Adepte d’expériences scientifiques, le Laboratoire de Cody a fait une trouvaille plutôt surprenante. Si vous vous êtes déjà demander ce que ça faisait de tirer la chasse de toilettes remplies de mercure, le youtubeur y répond dans une vidéo publiée mardi 27 septembre.

 

Revue de presse anglophone #2 : Apple car, Workplace, Asgardia, fruit miracle…

Voiture autonome

On commençait à penser que tout ce que touchait la pomme se changeait en or. Mais non. Apple pourrait bien passer à côté de la révolution automobile du futur. Et l’assume.

Source : Bloomberg

Management

Demain, tous sur Workplace ?
Facebook vient de lancer son réseau social professionnel. Bientôt la fin des échanges email et des sites intranet ?

Source : Quartz

 

Vous vous rendez au travail ? Selon une nouvelle étude, il vaudrait mieux laisser votre cerveau à la maison.

Volontiers provocateur, le chercheur André Spicer a baptisé sa théorie « le paradoxe de la stupidité » : trop de réflexion de votre part nuirait au fonctionnement collectif. On vous laisser juger.

Source : aeon

Robotique

Les robots et l’intelligence artificielle pourraient remplacer 6% des emplois aux Etats-Unis en 2021

Une mauvaise nouvelle pour les salariés ? Pas forcément. Ces nouvelles technologies devraient également produire de nouveaux emplois. De futures opportunités à saisir si vous avez toujours rêvé de manager un robot.

Source : Comptuterworld

 

Robots, avoir des bras solides ne suffit plus !

Désormais, on exige d’un robot qu’il fasse preuve d’intelligence et qu’il progresse grâce à sa propre expérience. C’est le principe du machine learning !

Neurosciences

Qu’est-ce qui pousse certaines personnes à rechercher le danger alors que, évolution oblige, nous serions plutôt programmés pour faire preuve de prudence ? L’adrénaline ? Pas seulement.

Source : The Conversation

10% de la population mondiale ! C’est ce qui s’appelle être en minorité. Mais pour quelle raison ? Le mystère n’est pas complètement élucidé.
Source : BBC
Une exploration virtuelle très réaliste.
Source : BBC
Première Nation de  l’espace, Asgardia compterait déjà plus de 370 000 citoyens. Décollage du satellite d’ici deux ans, selon les initiateurs du projet.
Source : The Guardian

Recherche

Le Synsepalum dulcificum, une baie originaire d’Afrique de l’Ouest, aurait la particularité de transformer un goût acide en saveur délicieusement sucrée grâce à une protéine. Des chercheurs étudient les potentielles applications.

Source : Food navigator

Par I. T

Une relation homme-machine plus collaborative

Depuis leur apparition sur les chaînes de production dans les années 1970, les robots industriels ont pris une place de plus en plus importante dans de nombreux secteurs d’activité. Plusieurs avancées techniques les ont rendus indispensables. Demain, ce sera encore plus le cas dans les usines connectées grâce à leurs facultés à s’autoadapter. En s’échangeant des données, ils pourront effectuer différentes tâches selon l’objet à traiter grâce à un système de vision et des capteurs plus évolués.

Ils pourront faire la différence entre des milliers et lancer l’opération qui convient. Mais ils ne remplaceront pas tous les ouvriers. « 8 % des tâches sont aujourd’hui automatisées. Nous estimons qu’avec l’industrie 4.0, ce taux passera à 25 % », estime Olivier Scalabre, directeur associé senior au Boston Consulting Group (BCG).

Autre concept censé optimiser la chaîne de production tout en rassurant les salariés :  la robotique collaborative. Appelée aussi « cobotique »,  un néologisme imaginé en 1999 par Edward Colgate et Michael Peshkin, professeurs à la Northwestern University. Ce sont des machines qui travaillent « avec » des personnes, et non « à leur place ».  On distingue plusieurs types de cobots : ceux pilotés par un opérateur situé à proximité immédiate du système, d’autres commandés à plus grande distance (ou téléopérés) et les exosquelettes, sortes de prolongements du corps humain.

Ils peuvent par exemple décharger la personne des tâches les plus complexes ou laborieuses au profit d’opérations à plus forte valeur ajoutée. La production y gagne aussi, car la technologie permet d’accéder à des pièces très petites, très grandes, trop lourdes ou dont les températures sont trop hautes ou trop basses. Mais la cobotique pourrait aussi d’améliorer les conditions de travail, en prévenant les troubles musculo-squelettiques ou en évitant l’exposition directe du technicien à des environnements dangereux.

À Saclay, en banlieue parisienne,  le BCG a aménagé un mini-showroom industriel, baptisé ICO (pour Innovation Center for Operations). Dans l’usine fictive qui représente une ligne d’assemblage de scooters à monter et démonter en permanence, les robots soulèvent les roues.

Mais selon le BCG, cette même ligne de production de scooters pourrait très bien fabriquer des sèche-linge. Un exemple de l’adaptabilité. Mais pour l’instant, ces cobots ne sont pas aussi performants que leurs grands frères industriels. Ce marché devrait évoluer dans les prochaines années au fur et à mesure grâce à l’intégration de nouveaux capteurs et de scanners laser.

Barclay Equity Research table sur 150 000 en 2020 (contre 4 300 unités dans le monde en 2015) car le prix d’un cobot est environ 10 fois moindre que celui d’un robot industriel classique. De quoi séduire des PME de s’équiper…

Cette agilité et cette interaction avec l’environnement impliquent de multiplier les échanges de données en temps réel via des réseaux Ethernet IP, Internet, mais aussi des technologies d’identification optique. Quel que soit l’événement (nouvelle commande, panne de composants, manque d’approvisionnement en matières premières…), il faut que la machine envoie l’information et prenne la décision à la place de l’homme.

Toutes les informations émises ou reçues par le robot devront remonter à un serveur central afin d’optimiser la gestion et la production. Mais « pour piloter finement les ateliers, il faudra donner du sens à un grand nombre d’informations présentes dans les machines et les différents systèmes de productions et d’exploitation. Si l’on n’est pas vigilant, on pourra très vite se noyer sous cette masse de données. La solution passe d’abord par la contextualisation de ces informations. Cette contextualisation ne peut se faire sans la simulation de différents scénarios potentiels qui peuvent se produire sur une ligne de production ou une machine », prévient, dans l’Usine Digitale, Matthieu Lassalle, directeur général de Rockwell Automation France.

Philippe Richard

L’usine 4.0, c’est quoi ?

L’usine connectée permettra-t-elle de rebattre les cartes de la mondialisation ? C’est l’avis d’experts et du gouvernement français qui a lancé en 2013 ses 34 plans de reconquête industrielle. L’usine du futur y est décrite comme un moyen de relancer l’industrie française. Pour relever ce défi, elle s’appuiera sur la convergence entre l’industrie et le monde du numérique. La « smart factory » – ou Usine 4.0 – vise à réaliser de nouveaux gains de compétitivité et à optimiser des consommations par l’efficacité énergétique. La production est notamment maximisée en fonction du coût de l’énergie et de sa disponibilité au cours d’une journée.

En théorie, ce rapprochement ne présente pas d’obstacles majeurs puisqu’il repose, en partie, sur des outils existant déjà : capteurs, automates, Big data, Internet des objets, Cloud Computing… Dans la pratique, le challenge ne sera peut-être pas aussi facile, car il implique la mise en place d’une nouvelle organisation du mode de production qui donne une plus grande importance au réseau. Connectées entre elles, les machines d’une usine (ou de plusieurs sites) et des capteurs s’échangent des informations. Cette communication continue et instantanée entre les différents outils et postes de travail intégrés dans les chaînes de fabrication et d’approvisionnement permet d’optimiser des process manufacturiers et d’améliorer la flexibilité afin de s’adapter à la demande en temps réel et de mieux satisfaire les besoins individuels de chaque client.

Pour relever ce défi de la personnalisation des services et des produits, l’usine connectée doit bénéficier d’une logistique parfaitement rodée. C’est un élément clé de l’Industrie 4.0. L’administration de la chaîne d’approvisionnement (supply chain management, en anglais) concerne notamment le stockage des produits, le transport, les équipements (camion, chariot élévateur…), les fournitures (emballage, carburants…), la planification et les systèmes d’information et de contrôle de gestion.

« Cela implique une amélioration des process, des méthodes et des qualifications dans des plates-formes de plus en plus complexes que les industriels doivent gérer de façon plus rapide. Comme il n’est pas possible de stopper une chaîne de production pour en créer une nouvelle, la solution passe par une formule incrémentale qui s’articule autour de deux points-clés. Premièrement, des Proof of Concept (POC) et, deuxièmement, des validations des méthodes retenues pour implémenter ces transformations. Cette solution permet d’y arriver progressivement sans jamais stopper ni retarder l’outil de production », explique Philippe Meleard, vice-président marketing & Communication chez Sogeti High Tech.

Les données représentent l’un des maillons essentiels de cette convergence. « Dans l’industrie, on ne fait pas du Big Data mais du Smart Data. Et le Smart Data, c’est capter la bonne donnée, la transformer (ou la contextualiser) et s’en servir pour optimiser son procédé de fabrication », indique Serge Catherineau, Directeur marketing Industrie automobile, aéronautique et système intégrateur chez Schneider Electric. Et d’après des industriels, ce concept porte déjà ses fruits. « Après être passé par l’étape des chantiers pilotes, nous avons désormais notre site d’Amberg qui regroupe tous les concepts de l’industrie 4.0, et qui a vu sa productivité multipliée par deux en quelques années », affirme Franck Mercier, chargé de mission « digital factory » chez Siemens.

Mais cette (r)évolution industrielle n’est pas qu’une affaire de programmes informatiques. Elle implique également une adaptation de la structure de l’entreprise. « Il y a un déplacement du rôle des managers vers beaucoup plus de transversalités. Avec la convergence du monde industriel et des technologies numériques, le partage des données sera facilité », déclare Philippe Meleard.

Philippe Richard

Piratage : les vulnérabilités de l’usine 4.0

De leur côté, les informaticiens qui travaillaient pour des industriels fréquentaient rarement les ateliers. Chacun de son côté…

Ce cloisonnement n’est plus adapté à l’évolution de l’industrie. Toutes les machines sont directement ou indirectement connectées à des réseaux et en particulier à l’internet. Et lorsqu’elles ne le sont pas, elles peuvent accueillir des clés USB ou des consoles de maintenance qui sont connues pour être des vecteurs majeurs de propagation de codes malveillants. L’idée que des automates et des robots peuvent être isolés est utopique.

L’évolution du monde industriel et l’avènement de l’Industrie 4.0, doivent impérativement s’accompagner d’un changement dans les organisations afin d’y

intégrer la cybersécurité. Les automaticiens et les informaticiens doivent travailler ensemble, car l’industrie du futur repose sur l’interconnexion de ces deux mondes ; ce qui induit une plus grande vulnérabilité.

Quels sont les principaux risques ? Des virus peuvent infecter un serveur hébergeant des données sensibles (quantité de matières premières utilisées, productivité, plan de maintenance…) des robots exploités par une usine. Ces informations peuvent être vendues à des concurrents désireux de connaître le savoir-faire de l’entreprise victime. Autre menace : un code malveillant modifie le fonctionnement d’une machine ce qui pourrait entraîner soit la fabrication de produits défectueux (ou non conformes à la législation) ou blesser des techniciens. Enfin, mécontente de sa situation, une personne en interne pourrait bloquer la chaîne de fabrication.

Face à ces menaces, la sécurité d’une installation ne se résume plus à des parades logicielles et matérielles visant à repérer et à éradiquer des codes malveillants. Elle doit garantir aussi la fiabilité du transfert d’informations intègres entre différents équipements. Une surveillance et une prévention permanentes des réseaux seront nécessaires pour réduire les risques de cyberattaques sur l’industrie. Objectif : localiser au plus vite une infection virale afin de limiter sa propagation à toute la chaîne de production. La détection rapide d’un piratage permettra soit d’isoler la machine impactée, soit de l’arrêter si son dysfonctionnement entraîne une modification des données.

Mais les contraintes de l’industrie et des entreprises ne sont pas les mêmes. Le cycle de vie des outils est beaucoup plus long dans l’industrie. Cela signifie que les systèmes informatiques doivent pouvoir continuer d’être protégés efficacement, alors même que Microsoft ne supporte plus ni Windows XP ni sa version 2003. L’autre spécificité repose dans le fait que ces systèmes de cybersécurité ne doivent à aucun moment perturber la production ou, pire, provoquer son arrêt inopiné et dans des conditions non standard.

L’usine 4.0 doit relever un défi. Il ne s’agit pas d’appliquer des méthodes éprouvées dans le monde de l’informatique, mais bien de les adapter, de les réinventer au regard de processus industriels complexes et hétérogènes.

Philippe Richard

Prospective: Panorama mondial de l’énergie d’ici 2060

« Les gains d’efficacité seront obtenus par le déploiement de ressources énergétiques plus efficaces, combiné à l’effet des technologies numériques qui contribueront à mettre en place les réseaux intelligents, les bâtiments intelligents, les maisons et bureaux intelligents et les villes intelligentes », préviennent les auteurs du rapport La grande transition.

Dans sa prospective, le Conseil mondial de l’énergie s’est basé sur 3 scénarios énergétiques possibles : Symphonie inachevée, Modern jazz et Hard rock. En 2060, le scénario le plus ambieux, Symphonie inachevée, imagine un monde où les gouvernements de tous les pays travaillent main dans la main sur les questions environnementales et économiques. Pour sa part, le scénario Hard Rock, le moins ambitieux, prévoit un monde fragmenté. Chaque pays fait passer ses intérêts nationaux avant la lutte contre les changements climatiques. Enfin, le scénario intermédiaire Modern Jazz repose sur des mécanismes de marché très complexes et concurrentiels apportant de l’efficacité, de l’inovation et le déploiement rapide des nouvelles technologies. 

Les trajectoires seront différentes selon les choix politiques et économiques qui seront faits dans les prochaines années. Mais de grandes tendances se dessinent. La demande en énergie primaire par habitant atteindra son pic vers 2030. Au global, la consommation d’énergie finale augmenterait entre 22% et 46% en 2060. Mais la demande en énergie primaire n’augmenterait qu’entre 10% et 34%, grâce au développement de l’énergie solaire et éolienne pour la production d’électricité. « Les taux de conversion pour ces sources d’énergie renouvelables sont beaucoup plus élevés que ceux des centrales à combustibles fossiles, ce qui signifie que moins d’énergie sera nécessaire à partir de la source primaire », précisent les auteurs.

Quelle évolution du mix énergétique mondial?

L’augmentation de la demande en énergie primaire concernera avant tout la demande en électricité qui doublera d’ici 2060, prévoit le rapport. L’électricité représentera entre 25% et 29% de la consommation d’énergie finale à cet horizon. Pour y parvenir, les investissements nécessaires en matière d’infrastructures et d’intégration des systèmes de production dans les trois scénarios s’échelonneront de 35 000 à 43 000 milliards de dollars.

La question sous-jacente est de savoir quel mix énergétique sera utilisé pour répondre à cette demande. Selon le Conseil mondial de l’énergie, le solaire et l’éolien poursuivront leur développement à un rythme sans précédent. Si ces deux énergies ne comptaient que pour 4% de la production électrique mondiale en 2014, ils atteindront entre 20% et 39% de cette production en 2060. Par ailleurs, si la part des combustibles fossiles n’a baissé que de 5% au cours des 45 dernières années, passant de 86% en 1970 à 81% en 2014, la dynamique des nouvelles technologies et des énergies renouvelables va bouleverser la situation.

La part des combustibles fossiles dans la demande en énergie primaire tomberait à 70% en 2060 dans le scénario Hard Rock, 63% dans Modern Jazz, et 50% dans Symphonie inachevée. L’évolution dépendra principalement de l’utilisation que feront la Chine et l’Inde du charbon en 2060. Suivant les scénarios, le pic de demande de charbon sera atteint en 2020 ou 2040. Pour le pétrole, le pic se situerait en 2030 ou entre 2040 et 2050. Seul le gaz naturel continuera à se développer pour remplacer le charbon.

Le pétrole restera néanmoins majoritaire dans le secteur des transports. Sa part passera de 92% en 2014 à 60% dans le scénario Symphonie inachevée, 67% pour Modern Jazz et 78% pour Hard Rock. Les progrès dans les biocarburants de deuxième et troisième générations permettront de jouer un rôle important. Ils représentent de 10% à 21% des carburants en 2060. Les scénarios Symphonie inachevée et Modern Jazz voient une pénétration rapide des véhicules électriques et des voitures hybrides rechargeables. Ces derniers représenteraient entre 26% et 32% des véhicules utilitaires légers en 2060. Les véhicules hybrides à essence ou gazoil représenteraient entre 24% et 31% de cette flotte.

Ces scénarios sont-ils climato-compatibles?

Suivant les scénarios, le pic d’émission de carbone est atteint entre 2020 et 2040. Dans le scénario Symphonie inachevé, le monde se rapproche des objectifs climatiques, avec une baisse des émissions de 61% en 2060 par rapport à 2014. Dans le scénario Modern Jazz, la réduction n’est que de 28%, alors que les émissions augmentent de 5% dans le scénario Hard Rock. Mais ces trois scénarios sont insuffisants pour limiter le réchauffement climatique à 2°C d’ici 2020.

Le budget carbone pour atteindre les objectifs est dépassé de 1.000 gigatonnes de CO2 vers 2040 dans les scénarios Modern Jazz et Hard Rock. Pour la Symphonie inachevée, il est dépassé avant 2060. De quoi faire réfléchir le monde politique et les industriels de l’énergie pour avancer des scénarios énergétiques encore plus ambitieux, climato-compatibles.

Par Matthieu Combe, journaliste scientifique

Au Danemark les émissions de CO2 baissent et le PIB augmente

Ces données issues du monde réel battent en brèche la théorie des promoteurs de la décroissance selon laquelle toute croissance du PIB ne peut s’accompagner que d’une hausse des émissions de CO2. Raison pour laquelle ils estiment qu’il faut passer à un taux négatif de croissance du PIB, autrement dit à la « décroissance » (degrowth en anglais).

La voie du « découplage », doctrine reposant sur la croyance qu’il est possible de concilier développement économique et préservation de l’environnement, est notamment prônée par le Programme des Nations Unies par l’Environnement (PNUE) dans son rapport intitulé « Decoupling ».

CvjIRPAXgAAqslv

Au Danemark plus de la moitié de la demande électrique a été couverte par le solaro-éolien durant l’année 2015. Le royaume de la petite couronne est suivi par le Portugal, l’Irlande et l’Espagne qui ont tous une part solaro-éolienne dépassant 20%. Pour l’Allemagne, la Grèce, le Royaume-Uni, l’Italie, la Roumanie, la Belgique et la Suède cette part est comprise entre 10 et 20%. La France est à moins de 5%, derrière la Pologne et la Bulgarie.

CtuHeTzWcAAmSsy

Les progrès danois, pays nordique, concernent aussi le chauffage, notamment grâce au CHP (Combined Heat and Power) décentralisé. Et aussi grâce aux transports de plus en plus efficients et électrifiés.

Le champion européen en matière d’électro-mobilité n’est cependant pas le Danemark mais la Norvège. Un pays où les voitures électriques sont propulsées par de l’hydroélectricité.

Olivier Daniélo

La rédaction de la revue « Casseurs de pub La décroissance » (n°135, dec 2016 – janv 2017, page 13) a publié un commentaire suite à cet article. Voici la réponse de l’auteur.

Californie et Mexique veulent synchroniser leurs réseaux

Fragile équilibre

La montée en puissance des énergies renouvelables dans le mix électrique complexifie chaque jour un peu plus la mission des gestionnaires de réseaux haute tension. Rarement mis sous les feux des projecteurs, ils accomplissent pourtant une tâche fondamentale : équilibrer en permanence la production avec la demande d’électricité. Sans l’action continue des gestionnaires (GRT dans le jargon) la population serait en proie à des coupures inopinées et répétitives du courant. Jusqu’ici, le travail, bien que minutieux jouissait d’une assez forte prévisibilité. La demande est estimée à l’avance avec, en général, une grande précision, obtenues par la compilation d’années de consommation et de modèles probabilistes. La production était jusqu’ici assurée par les grandes centrales (nucléaire ou autres) ayant des calendriers d’exploitation déterminés à l’avance. La hausse exponentielle des installations éoliennes ou solaires notamment, et leur priorité instaurée sur les réseaux, ont obligé les GRT à imaginer des outils avancés pour classer, traiter et mettre en valeur toutes ces informations.

Energy Imbalance Market

L’accord passé entre le Centro Nacional de Control de Energía (CENACE) et son homologue américain le California Independent System Operator (CAISO), fait suite à un Memorandum of Understanding signé entre Pedro J. Coldwell, le Secrétaire mexicain de l’Energie, et Edmund G. Brown Jr, Gouverneur de Californie en juillet 2014. Il prévoyait d’utiliser les deux interconnexions (Otay Mesa and Imperial Valley) entre la Californie (USA) et la Basse Californie (Mexique) pour imaginer comment l’intégrer au système d’équilibre. L’Energy Imbalance Market est déjà opérationnel dans 7 autres états des Etats-Unis : Oregon, Washington, Utah, Idaho, Wyoming, Arizona et le Nevada. Selon l’opérateur américain, l’EIM lui aurait fait gagner pas moins de 88 millions de dollars en favorisant la sélection de sources de production moins chères et moins polluantes. Le CAISO estime ainsi avoir évité l’émission de quelque 126 000 tonnes de CO2.

Alors que certains s’échinent à vouloir ériger des murs, l’initiative de ces deux opérateurs électriques montrent l’intérêt pratique de la coopération régionale. De surcroit dans des zones ou les caractéristiques de vent changent rapidement, obligeant ces derniers à constamment revoir leurs prévisions. Reste que cette initiative aura un impact limité. En effet, la région mexicaine de Basse Californie n’est pas interconnectée avec le reste du pays réduisant l’apport du parc mexicain à sa seule région frontalière. Symbole que même si le secteur électrique va avoir de plus en plus recours aux technologies de pointe, il lui faudra toujours installer des lignes électriques pour acheminer le courant…

Par Romain Chicheportiche

2000 euros le mètre-carré : la route solaire normande de Ségolène Royal

hors-la-loi
Les affiches de Greenpeace

« Ministre hors la loi ». L’ONG Greenpeace-France ne mâche pas ses mots suite au renoncement de la Ministre de l’écologie en matière de transition énergétique. « Ségolène Royal, 63 ans, n’a pas résisté au lobby nucléaire » s’indigne l’ONG. « Elle s’apprête à signer un décret pro-nucléaire en contradiction avec sa propre Loi ».

De son côté le PDG de Planète OUI, Nicolas Milko, appelle la ministre à mettre fin à une « écologie élitiste ». Pendant ce temps Ségolène Royal s’est rendue le 24 octobre 2016 dans l’Orne pour le lancement d’une route solaire d’un kilomètre.

Attention à la sortie de route

« Les panneaux mesurent 70 centimètres de large et 1.40m de long (soit une surface de 0,98 m2) et nous allons en installer 2600 unités sur cette route » a indiqué le 24 octobre 2016 à Tourouvre dans le Perche ornais Jean-Charles Broizat, le directeur de Wattway, propos rapporté par la chargée de communication de la Préfecture de l’Orne, jointe par téléphone. Autrement dit la surface concernée est de 2548 mètres carrés.

A quel prix ? 5 millions d’euros.Hors Taxes, selon la Préfecture de l’Orne. Chaque mètre carré va donc coûter 1962 euros pour le volet solaire.

20 fois plus coûteux que le solaire standard

routeSachant que selon le directeur de Wattway chaque mètre carré a une puissance de 110 Watts le coût de la route solaire Wattway (hors enrobé obligatoire) est donc de 17,8 € le Watt. Le coût du solaire PV au sol est à aujourd’hui de 0,7 à 1€/W, celui du solaire PV flottant d’1€/W, celui des ombrières solaires de 1,5 à 2€/W et celui du solaire PV en toiture de 1,5 à 2,5€/W. Et là il ne s’agit pas d’un petit démonstrateur de 50 mètres-carrés comme en Vendée (3200€ le mètre-carré selon le chargé de communication du Département) mais d’un projet à grande échelle, sur un kilomètre.

La Ministre a indiqué à de nombreuses reprises qu’elle veut 1000 kilomètres de route solaire, ce qui coûtera 5 milliards d’euros sur la base du coût du projet dans l’Orne. L’entreprise normande SNA doit produire 5000 mètres-carrés de panneaux Wattway d’ici 2017 pour alimenter le chantier de la route de Tourouvre mais aussi pour d’autres petits projets de 50 à 100 mètres-carrés l’unité. Il n’y a pas de substantielle réduction de coût à attendre avec un volume de production aussi faible. SNA, société qui a été dans le passé victime d’une escroquerie et placée en redressement judiciaire n’est pas au bout de ses peines.

Le coût astronomique des projets Wattway est en réalité l’arbre qui cache une forêt encore plus préoccupante : le coût économique est le reflet du coût énergétique de cette technologie. Il faut consommer énormément d’énergie pour produire la colle super-forte permettant aux panneaux de ne pas se décoller dès qu’un camion freine brutalement. Il faut de plus imperméabiliser les panneaux et une structure capable de résister à l’écrasement, ce qui est également coûteux en énergie.

Une route énergétivore

Pour plusieurs spécialistes du solaire il est possible que la route de Ségolène Royal soit en réalité une route à énergie négative, autrement dit qui consomme plus d’énergie pour la construire qu’elle n’en délivrera durant sa vie écourtée par le passage des véhicules.

Les panneaux posés à plat et à l’ombre des arbres et poteaux électriques normands n’amélioreront pas le bilan. Dr Franck Barruel, salarié du CEA et référent scientifique du projet Wattway avait annoncé en janvier 2016 à propos de l’EROI de Wattway qu’ « une première estimation pourrait être délivrée courant de l’année 2016 ». Contacté par Techniques de l’ingénieur il y a une semaine à propos de cette estimation ce scientifique, qui est le seul autorisé à communiquer sur Wattway au sein de l’INES, n’a pas répondu.

L’EROI, taux de retour énergétique, ratio de l’énergie produite sur l’énergie consommée, est pourtant un paramètre clé du développement vraiment durable. Comment envisager d’installer un kilomètre d’une telle route s’il n’a pas été calculé sérieusement ?  L’environnement, cela commence à bien faire ?

L’ex-compagne du Président de la République François Hollande pourrait être la candidate du parti socialiste à l’élection présidentielle de 2017.

Olivier Daniélo

Innover pour mieux recycler les véhicules

Chaque année, environ 1 million de véhicules hors d’usage (VHU) sont traités en France. Ceux-ci transitent en premier lieu par l’un des 1.700 centres agréés. Les professionnels y retirent les pièces à valoriser ou traiter : pneus, batteries, fluides dangereux, pare-chocs, réservoirs, pots d’échappement… Puis, les carcasses sont envoyées vers l’un des 45 broyeurs en fonctionnement sur le territoire national.

Sur les 5 broyeurs que possède le groupe Ecore en France, 200.000 tonnes de véhicules sont broyés par an. Cela en fait le deuxième opérateur national, derrière Derichebourg. Les broyeurs sont d’énormes machines qui vont broyer les véhicules dépouillés. « Grossièrement, une apiration récupère la fraction légère : mousses, textiles, plastiques légers. Ce qui reste est la fraction lourde qui concentre des caoutchoucs, des métaux non ferreux, des minéraux et des plastiques. Un gros aimant récupère l’acier qui sera revendu aux aciéries », simplifie Nicolas Thibault, Responsable Environnement du site de Rocquancourt. « Le traitement des éléments post-broyage des véhicules hors-d’usage est un véritable défi technologique », prévient Philippe Chemineau, directeur du développement de GDE.

Grâce à ses innovations, GDE atteint un taux de réutilisation et de valorisation de 96,1% pour les VHU, contre 91% en moyenne pour la filière. C’est plus que l’objectif réglementaire de 95% qui aurait dû être atteint par toute la filière début 2015. Le recyclage atteint 83%, la valorisation sous forme énergétique en cimenterie 13,1%. Il reste 3,9% de déchets ultimes non toxiques qui rejoindront un centre de stockage de déchets non dangereux. Ils sont constitués de poussières, terres, mousses diverses, verres de textiles et de caoutchoucs. Le défi reste donc de développer des solutions pour valoriser ce gisement résiduel. L’objectif de la R&D de GDE est d’aboutir à 0% de déchets ultimes, grâce à une séparation par granulométrie la plus fine possible.  Pour y parvenir, GDE va consacrer 12,5 millions d’euros par an à la recherche et au développement.

Comment sont triés les résidus de post-broyage?

Le site de Rocquancourt réceptionne l’ensemble des résidus de broyage (RB) légers et lourds du groupe pour les trier. Les RB légers sont traités dans un bâtiment dédié. Transportés sur des tapis roulants, la matière est séparée au fur et à mesure en fonction de la granulométrie par aspiration, aimantation ou optique. « Globalement, il y a deux types de machines : celles qui vont induire une force dans la matière, comme l’induction, et celles qui vont repérer un objet et vont demander à l’éjecter. L’idée est de concentrer les flux et de travailler sur les refus pour avoir le maximum de valorisation », résume  Nicolas Thibault.

Le tri des RB légers permet de récupérer plusieurs flux : des mousses, un mix de métaux ferreux, un mix de métaux non ferreux, du bois et un mélange de plastiques lourds qui vont être redirigés vers le traitement des RB lourds. Les mousses aspirées sont broyées, dépoussiérées, puis pressées. On obtient ainsi des « pellets de mousse », un combustible solide de récupération à très haute valeur ajoutée. « Le pouvoir calorifique du produit obtenu se rapproche du charbon ou le coke de pétrole. Il peut directement être injecté à la flamme en cimenterie », assure l’ingénieur.

Les RB lourds sont traités dans un autre bâtiment. Grâce à une séparation densimétrique par flottation dynamique, puis différents criblages par tri optique, magnétique ou infra-rouge et dépoussiérage, on obtient des métaux ferreux, des plastiques et des pellets de mousse.

GDE est l’une des rares entreprises capable de trier les plastiques contenus dans les résidus de broyage. En fin de chaîne, des plastiques styréniques (polystyrène et ABS) et des polyoléphines (PP/PE) sont réduits en petits agrégats. Outre les résidus de broyage, le site trie en mono-flux le plastique des batteries, des pare-chocs et des réservoirs, extraits en amont du broyage dy VHU, et le revend à des plasturgistes. 600 tonnes de plastiques sont récupérées par mois.

Réorganiser la filière?

Les 1.700 centres pour véhicules usagés mis en place par les constructeurs en France ne collectent pas l’ensemble du gisement. Environ 150.000 tonnes de VHU disparaissent des flux officiels chaque année vers les pays transfontaliers, notamment en Belgique et en Allemagne, où les déchets peuvent être payés en liquide. Une pratique totalement interdite en France. « C’est une concurrence déloyale, source de fuite de matière, car lorsqu’un déchet est payé en cash, il n’y a pas de traçabilité », regrette Philippe Chemineau.

Pour améliorer cette traçabilité, la ministre de l’environnement Ségolène Royal, travaille sur un projet de décret visant à créer un éco-organisme agréé par l’Etat. Un décret qui pourrait entrer en consultation d’ici la fin de l’année, mais qui fait peur aux constructeurs et recycleurs. Les constructeurs devraient ajouter une éco-contribution au prix de vente des véhicules. De leur côté, les recycleurs craignent qu’il affaiblisse la rentabilité d’une filière déjà mise à mal par l’effondrement du prix des matières recyclées. Philippe Chemineau propose plutôt l’interdiction du paiement en liquide dans l’Union Européenne, l’harmonisation de la réglementation et la prise en compte des taux de valorisation des VHU dans les marchés publics.

Par Matthieu Combe, journaliste scientifique

Stock-R, le chauffage nocturne d’origine solaire

Le jour, accumuler la chaleur gratuite distribuée par le soleil. La nuit, la libérer dans tout le logement afin d’économiser l’énergie. Ce principe est la clé de Stock-R, l’accumulateur de chaleur solaire conçu par Systovi, une PME de la région nantaise. Cette société, fondée en 2008 par deux anciens ingénieurs de Vaillant (un industriel spécialisé dans le chauffage), s’était déjà distinguée avec R-Volt, son panneau solaire hybride, photovoltaïque et aérothermique. «Nous avons entrepris de valoriser l’énergie solaire non transformée en électricité, soit environ 700 watts sur 1000 watts/m2 d’énergie incidente, explique Mohamed Benabdelkarim, cofondateur et directeur technique de Systovi. L’air chaud est récupéré sous le panneau, puis redistribué dans l’habitat. Mais R-Volt ne fonctionne a fortiori que la journée et les résidents, absents le plus souvent, n’en profitent pas.»

D’où l’idée de relier ces panneaux à une batterie qui puisse emmagasiner une partie de ces calories et les relâcher une fois le soleil couché, au moment le plus utile. Une première version de cette batterie, équipée d’une échangeur air/eau, est finalisée en 2012. Trop complexe, elle n’a pas le succès escompté. Une deuxième version est aussitôt mise en chantier, avec pour objectif de remplacer l’eau. Les ingénieurs de Systovi se tournent vers les matériaux à changement de phase, capables de stocker une grande quantité de chaleur latente de fusion. «Nous avons opté pour le carbonate de calcium hydraté et avons ajouté notre poudre de perlimpinpin, qui abaisse le point de fusion, s’amuse Mohamed Benabdelkarim. La chaleur latente s’élève à 220 joules/kg à 30°C. Une quantité d’eau 50 fois supérieure aurait été nécessaire pour parvenir au même résultat.»

Des plaques en aluminium étanches à vie

Le changement d’état de ce sel permet d’obtenir le déphasage recherché. «Le jour, le carbonate de calcium fond sous l’effet de l’air chauffé à 35°C, en provenance des panneaux solaires, et absorbe la chaleur, précise Mohamed Benabdelkarim. La nuit, l’air à 20°C aspiré à l’intérieur de la maison solidifie le sel, qui restitue son énergie. L’air à la sortie atteint une température de 26 à 27°C.» Aucun apport électrique ou mécanique n’est nécessaire à cette transformation. D’autre part, le sel n’est jamais au contact de l’air et ne dégrade donc pas. «Il est emprisonné dans des plaques en aluminium serties et étanches à vie, ajoute Mohamed Benabdelkarim. L’anodisation de l’aluminium empêche son oxydation. BASF et DuPont ont déjà mené des travaux sur le sujet mais se servaient de plâtre pour enfermer le sel. Faute de débit d’air suffisant, ces recherches n’ont pas porté leurs fruits.» Stock-R requiert en effet une ventilation assez puissante pour compenser la mauvaise conduction thermique de ces matériaux à changement de phase. «Pendant la charge de la batterie, l’air circule à 300 m3/h, indique Mohamed Benabdelkarim. La nuit, lors de la décharge, le débit diminue à 200 m3/h pour atténuer le bruit produit par l’insufflation d’air.»

Stock-R pèse 26 kg et bénéficie d’une capacité de 2,4 kWh, qui lui offre une autonomie d’environ 5 heures. Commercialisé depuis le 1er octobre, ce dispositif coûte environ 2000 € à l’unité, sans compter les panneaux solaires et les accessoires. L’installation se justifie davantage dans les habitations récentes, même bien isolées. «La nuit, la chaleur se déperd très vite au travers des grandes surfaces vitrées notamment, constate Mohamed Benabdelkarim. Le besoin de déphasage est plus important. Au contraire, dans les maisons les plus anciennes construites en pierre, ce sont les murs épais qui jouent ce rôle de batterie à la nuit tombée.» Selon les premiers résultats analysés par Systovi, Stock-R exploite 30% d’énergie solaire supplémentaire, si on se réfère à une installation basée uniquement sur des panneaux R-Volt.

Frédéric Monflier.

La barre des 500 GW éolien dépassée avant fin 2016 !

21,7 gigawatts (GW) d’éolien ont été installés sur les 6 premiers mois de l’année, une croissance similaire à l’an passé. Au total, 4 pays ont installé plus de 1 GW sur cette période : la Chine (10 GW), l’Inde (2,4 GW), l’Allemagne (2,4 GW) et le Brésil (1,1 GW). Désormais, l’éolien répond à près de 4,7% de la demande électrique mondiale.

La croissance devrait s’accentuer au deuxième semestre. L’Association Mondiale de l’Énergie Éolienne prévoit une hausse des capacités éoliennes d’au moins 45 GW. La barre symbolique des 500 GW devrait ainsi être atteinte avant la fin de l’année. L’éolien permettra alors de répondre à 5 % de la demande électrique mondiale.

tab-solaire
Evolution des capacités éoliennes mondiale entre fin 2013 et Juin 2016 en gigawatts (GW) ou mégawatts (MW)

Un développement poussé par l’Asie

La croissance mondiale de l’éolien est poussée par la Chine qui représente 46% des nouvelles capacités au premier semestre. Fin juin 2016, la puissance installée en Chine atteint 158 GW, soit 35% des capacités mondiales.

En ce début d’année, la croissance est particulièrement importante pour l’Inde. Sur 6 mois, le pays a installé près de deux fois plus d’éolien qu’au 1er semestre 2015 (1,3 GW) et 2014 (1,1 GW). Les capacités y atteignent désormais 27,15 GW.

Situation contrastée en Europe

L’Allemagne est le leader incontesté de l’éolien en Europe avec une puissance installée de 47,42 GW. Suivent l’Espagne (22,99 GW), le Royaume-Uni (13,94 GW), la France (10,86 GW) et l’Italie (9,10 GW).

Pour la deuxième année consécutive, l’Allemagne et la France sont particulièrement dynamiques. L’Allemagne gagne 2,4 GW, pendant que la France, deuxième pays le plus dynamique en Europe, a installé 568 MW. Le développement devrait s’intensifier en Allemagne d’ici la fin de l’année, avant l’entrée en vigueur d’un système d’enchères pour les nouveaux projets. La baisse des subventions devrait y ralentir le rythme de développement dans les prochaines années. Par ailleurs, l’Italie continue sa faible progression, pour la deuxième année consécutive, avec une hausse de 143 MW de sa puissance éolienne.

Mais la situation n’est pas rose partout. Si l’Espagne représente encore la cinquième puissance éolienne au monde, le pays n’a pas installé de nouvelles capacités depuis fin 2014. Le développement de l’éolien au Portugal est également en stand-by, puisque seulement 6 MW y ont été installés au premier semestre. Au Royaume-Uni, le rythme de développement s’est aussi considérablement ralenti, avec seulement 320 MW d’installé, contre 872 MW dans la première moitié de 2015.

Amérique du Nord contre Amérique du Sud

Sur le début de l’année, la situation est difficile en Amérique du Nord. Les Etats-Unis n’ont installé que 830 MW, contre 1,99 GW sur les 6 premiers mois de 2015. Néanmoins, le marché devrait rapidement reprendre dans le pays. Suite au prolongement du crédit d’impôt en faveur de l’énergie solaire ou éolienne par le Congrès américain à la fin de 2015, plus de 12,5 GW d’éolien sont en effet en construction.

Si le Canada demeure la septième puissance éolienne avec ses 11,3 GW, le rythme de développement s’essouffle. Le pays n’a installé que 109 MW sur 6 mois, contre 510 MW sur la même période en 2015 et 723 MW en 2014.

A l’opposé, le Brésil fait figure de moteur en Amérique latine. Sur le début de l’année, le Brésil surpasse l’Italie et devient le 9e plus gros marché mondial. L’Association Mondiale de l’Énergie Éolienne s’attend à ce que le Brésil continue son fort développement. Il pourrait devenir le sixième marché mondial avant 2018.

Par Matthieu Combe, journaliste scientifique

Jeu concours : Êtes-vous incollable sur l’actualité scientifique 2016 ?

Un tirage au sort désignera les 5 gagnants parmi les participants ayant donné les bonnes réponses.

Ces derniers gagneront le numéro spécial « Les grands événements de l’année 2016 » (format papier, A4).

Une sélection d’articles de fond pour analyser, approfondir et prendre du recul face à l’actualité de l’année 2016 marquée par les 3 grands événements suivants :

– les jeux olympiques d’été à Rio de Janeiro (l’occasion de mettre en évidence l’apport des sciences et des techniques au domaine du sport) ;

– les 30 ans de l’accident de Tchernobyl (comment sont gérés les accidents nucléaires et quelles sont les exigences de sûreté des centrales en France et dans le monde ?) ;

– enfin, le caractère exceptionnel du point de vue mathématique du nombre 2016 (une bonne année pour découvrir le monde fascinant des mathématiques !).

Retrouvez le règlement ici.

Les réponses aux 3 questions du quiz se trouvent dans les articles de notre espace Actualité, accessibles en cliquant sur les liens :
SUB 2 : courir un marathon en moins de 2h
Tchernobyl contamine toujours les Alpes
Les mathématiques pèsent pour 15% du PIB de la France

Bonne chance à tous !

L’éolien pourrait représenter 20% de la production électrique en 2030

Les professionnels de l’éolien réunis au sein du GWEC sont optimistes. Entre 2013 et 2015, le parc éolien mondial a augmenté de 36% pour atteindre les 433 GW. Et cela ne serait que le début selon les projections réalisées par l’industrie.

Quatre scenarii

Pour arriver à ces chiffres, le GWEC s’est appuyé sur quatre scenarii : les deux premiers (New Policies Scenario – et Scenario 450) proviennent de l’Agence internationale de l’énergie (AIE) et les deux autres (modéré et avancé) ont été élaborés par le GWEC sur des bases plus optimistes. Il faut dire que les prévisions de l’AIE il y a dix ans sur les énergies renouvelables avaient sous-estimées le développement de ces dernières. Fort du succès de l’accord de Paris, les équipes du GWEC ont estimé que l’apport de l’éolien devrait être encore plus grand : « Atteindre les objectifs de Paris signifie un approvisionnement en électricité complètement décarboné bien avant 2050, et l’énergie éolienne jouera un rôle majeur pour nous amener dans cette direction », assure Steve Sawyer, Secrétaire général du GWEC.

Année Capacité installée mondiale

(GW)

% de la consommation électrique
2030 1 260-2 110 12-20
2040 2 053 -3 721 16-29
2050 2 870-5 806 20-41

Concrètement, le parc éolien mondial sera compris entre 1 260 et 2 110 GW en 2030, entre 2 053 et 3 721 GW en 2040 et 2 870 et 5 806 GW en 2050. Des fourchettes qui s’élargissent logiquement avec le temps et qui donne à l’énergie éolienne, dans les scenarii du GWEC, un poids jusqu’ici inconnu. Dans le scenario avancé, le vent répondra ainsi à 20% de la demande d’électricité mondiale en 2030, 29% en 2040 et 41% en 2050.

Chute des coûts

Si ces prévisions sont à prendre avec précaution, il n’en reste pas moins que l’industrie éolienne bénéficie d’une excellente dynamique qui n’est pas seulement liée aux engagements internationaux en matière de lutte contre le changement climatique. La technologie éolienne se porte bien grâce à sa courbe de coût. Evalué en 2015 à 1 571 €/kW, le coût de l’éolien est désormais devenu compétitif comme le démontrent les nombreux appels d’offres (AO) internationaux qui ont eu lieu ces derniers mois. En Amérique Latine notamment, se pratique un nouveau type d’appel d’offres dits non-discriminatoires. En clair, le gouvernement lance une consultation pour un nombre défini de MW ou MWh sans indiquer le type de technologie (éolien, solaire, gaz, pétrole, nucléaire, géothermie, etc). Les meilleurs projets et les moins coûteux remportent les lots. A ce petit jeu, l’éolien et le solaire se sont taillés la part du lion lors des récents appel d’offres au Mexique, Chili et Argentine notamment.

Reste à l’industrie éolienne à relever le défi de la mer. Car si les coûts ont assurément baissé dans l’éolien terrestre, l’éolienne offshore n’en est qu’à ses balbutiements. Or, avec des capacités installées bien supérieures que sur terre, ces installations seront, à n’en pas douter, la clé de la réussite prédit par le GWEC.

Par Romain Chicheportiche

La fin des HFC programmée pour 2050

Ce samedi, les 197 Parties au Protocole de Montréal ont adopté l’amendement de Kigali. Ce nouvel accord historique programme la fin des hydrofluocarbures (HFC), des molécules utilisées comme réfrigérants, dans les climatiseurs et les réfrigérateurs, mais aussi dans certains aérosols et mousses isolantes. Ces produits sont utilisés depuis les années 1990 en remplacement des CFC (chlorofluorocarbures), et des hydrochlorofluorocarbures (HCFC), bannis pour provoquer la destruction de la couche d’ozone. La fin d’un problème en a néanmoins créé un autre qu’il fallait combattre. En effet, si les HFC ne détruisent pas la couche d’ozone, ils présentent un pouvoir de réchauffement 14 000 fois plus puissant que le CO2.Cela en fait de redoutables gaz à effet de serre.

7 années de négociations auront été nécessaires pour aboutir à l’amendement de Kigali. L’élimination des HFC est l’un des leviers d’atténuation du changement climatique les plus rapides. « Faute d’accord, les experts estimaient que ces substances seraient à l’origine de 20% des émissions de gaz à effet de serre en 2050, et auraient généré jusqu’à 0,5°C de réchauffement de la planète d’ici à 2100 », rappelle Ségolène Royal dans un communiqué. Car, selon une étude de l’université de Berkeley, leurs émissions progressent aujourd’hui à un rythme annuel de 10 à 15 %. C’est la plus forte progression pour des gaz à effet de serre. Leur fin progressive permettra d’atteindre ¼ des objectifs fixés par l’Accord de Paris.

L’accord devrait permettre d’éviter l’émission d’environ 72 milliards de tonnes équivalent CO2 d’ici à 2050, soit près de 10 années d’émissions de la Chine à leur rythme actuel. Le protocole de Montréal est un accord juridiquement contraitement qui engage tous les pays signataires à des mesures d’atténuation obligatoires. Des sanctions sont prévues pour les pays qui n’honorent pas leurs objectifs.

Des objectifs différenciés

Des fluides frigorigènes alternatifs sont d’ores et déjà disponibles : hydrocarbures, dioxyde de carbone, ammoniac, eau et hydrofluoroléfines (HFO). A l’instar de l’accord de Paris sur le climat, l’amendement au Protocole de Montréal prévoit des objectifs différenciés de réduction, selon les pays et leurs degrés de développement. Le calendrier de mise en œuvre distingue trois groupes de pays : d’un côté les pays développés et de l’autre, deux groupes de pays en développement.

La substitution commencera dans les pays développés, comprenant les Etats-Unis et l’Union européenne. Ce groupe s’engage à diminuer l’usage des HFC de 10 % d’ici 2019 par rapport aux niveaux de 2011-2013, pour les supprimer totalement d’ici à 2050, avec une étape à 85% en 2036.

Le groupe ambitieux de pays en développement, qui inclut la Chine, le Brésil et la plupart des pays africains, a décidé de geler leur production d’ici 2024. Une réduction de 10% par rapport aux niveaux de 2020-2022 devra être atteinte pour 2029, cette réduction devant atteindre 80% d’ici à 2045. Le groupe de pays le moins ambitieux, comprenant l’Inde, l’Arabie saoudite, le Pakistan, l’Iran et le Koweït, des pays fortement consommateurs de systèmes de climatisation, gèlera la production de HFC d’ici 2028. Ils réduiront ensuite progressivement leur consommation. Une diminution de 10% par rapport à la période 2024-2026 devant être atteinte pour 2032, puis de 85% pour 2047. L’accord prévoit une clause de révision. Son calendrier pourra être renforcé en fonction des progrès technologiques et des retours d’expériences des pays les plus ambitieux.

Fin septembre, 16 pays – dont les États-Unis, le Japon, l’Allemagne et la France – et 19 organismes et donateurs privés réunis à New York ont promis une aide de 80 millions de dollars (71,5 millions d’euros) pour aider les pays en voie de développement dans cette transition. Mais le financement est loin d’être encore à la hauteur : le total des financements nécessaires est estimé à plusieurs milliards de dollars. Le montant exact sera discuté lors de la prochaine réunion des Parties en 2017.

Par Matthieu Combe, journaliste scientifique

Contrôler des molécules magnétiques bistables auto-organisées avec de la lumière

Les molécules magnétiques bistables s’avèrent particulièrement intéressantes pour la spintronique moléculaire, car le passage d’un état à l’autre peut être piloté par un stimulus extérieur tel que la température, la pression ou l’absorption de lumière. Toutefois, si cette propriété est bien connue lorsque ces molécules forment un solide ou lorsqu’elles sont en solution, persiste-t-elle lorsque les molécules sont adsorbées sur une surface ? Pour répondre à cette question, des physiciens du laboratoire Matériaux et phénomènes quantiques (MPQ, CNRS/Univ. Paris Diderot) et du Service de physique de l’état condensé (SPEC, CEA Saclay), ainsi que des chimistes de l’Institut de chimie moléculaire et des matériaux d’Orsay (ICMMO, CNRS/Univ. Paris Sud/Univ. Paris Saclay) ont étudié des molécules bistables à base de fer, déposées sur un substrat métallique. Des mesures réalisées au microscope à effet tunnel révèlent que ces molécules s’organisent en un réseau régulier composé d’un tiers des molécules dans l’état magnétique et deux tiers dans l’état non magnétique. Les chercheurs ont également réussi à commuter ces molécules, c’est-à-dire à les faire transiter d’un état à un autre, à l’aide d’une lumière bleue. Ce travail fait l’objet d’une publication dans Nature Communications.

bellec

En premier lieu, les chimistes ont synthétisé la molécule de FeII(([3,5-CH3]2Pz)3BH)2 (Pz = pyrazolyl), qui présente une bistabilité en volume, facilement sublimable sous ultravide. Lorsque la température est supérieure à 150 Kelvin,n cette molécule se trouve dans l’état magnétique ; à température inférieure, elle se trouve dans l’état non magnétique. Dans un second temps, les physiciens ont déposé ces molécules sur une surface d’or, puis les ont observées par microscopie à effet tunnel à très basse température, de l’ordre de 5 Kelvin. Les molécules apparaissent sous forme d’une couche épaisse et s’organisent en îlots dont la taille typique s’élève à quelques centaines de nanomètres et comportant quelques dizaines de milliers de molécules. A l’intérieur de ces îlots, les molécules sont au contact les unes des autres et s’organisent en un réseau périodique. En changeant la tension d’imagerie du microscope, les chercheurs ont mis en évidence un sous-réseau régulier au sein duquel un tiers des molécules s’avèrent plus conductrices – elles se trouvent dans l’état magnétique – que les autres (non magnétiques). La combinaison de mesures par spectroscopie tunnel et de calculs ab initio confirme la coexistence des deux états magnétique et non magnétique sur la surface. En éclairant la jonction tunnel par une lumière bleue, le changement d’état des molécules a pu être suivi en direct. Ce travail démontre pour la première fois la possibilité d’induire la photocommutation de molécules en contact avec une surface métallique, de l’état non magnétique vers l’état magnétique.

Source : CNRS

L’Autorité de sûreté nucléaire met à l’arrêt 5 réacteurs

Cette action s’inscrit dans le cadre d’une vaste enquête du gendarme français du nucléaire suite à la découverte fin 2014 d’une anomalie sur le couvercle et la cuve du réacteur de Flamanville actuellement en construction. Elle concernait la composition chimique de l’acier dans la partie centrale du couvercle et du fond de la cuve du réacteur EPR fabriquée par Creusot Forge.

Concentration de carbone

Selon l’Institut de radioprotection et de sûreté nucléaire (IRSN), L’anomalie constatée est relative à la présence de carbone, en excès par rapport aux spécifications, dans l’acier constitutif des calottes hémisphériques utilisées pour fabriquer le couvercle et le fond de la cuve du réacteur EPR. C’est pourquoi l’ASN a demandé, d’une part que soient identifiés l’ensemble des composants des réacteurs d’EDF en fonctionnement qui ont été obtenus par la même technique de fabrication que celle des calottes hémisphériques de la cuve de l’EPR de Flamanville, d’autre part que soit menée une revue des pratiques et de la maîtrise de la qualité des pièces produites par Areva NP.

Fond-primaire-de-generateur-de-vapeur_fullscreen

 

La conséquence de la présence de carbone en excès dans un acier comme celui utilisé pour la fabrication des composants de la cuve ou des générateurs de vapeur (acier dit ferritique) est notamment un affaiblissement des propriétés mécaniques de résistance à la fissuration (la ténacité de l’acier). Les justifications permettant de montrer que cet affaiblissement est sans conséquence pour la sûreté ont pu être apportées rapidement pour les couvercles de cuve et des éléments avaient été fournis antérieurement pour les plaques tubulaires. Le cas des fonds primaires de générateurs de vapeur nécessite quant à lui des investigations complémentaires.

Fabrication japonaise défaillante

Les fonds primaires de générateur de vapeur, dont l’acier présente un excès de carbone (au-delà d’une concentration de 0,22 %) du fait de leur mode de forgeage, ont été produits par seulement deux fabricants : Creusot Forge (CF) et la Japan Casting and Forging Corporation (JCFC). La grande majorité des irrégularités relevées lors de la revue de la qualité des pièces produites à l’usine du Creusot a été instruite, permettant de conclure à l’absence de conséquences pour la sûreté des réacteurs concernés. Ce qui n’est pas le cas du fournisseur japonais. Les connaissances de l’exploitant sont moins détaillées pour les fonds fabriqués par JCFC que pour ceux fabriqués par CF. De par leur fabrication, les fonds de générateur de vapeur de JCFC sont décarburés en surface extérieure, ce qui interdit les mesures de concentration de carbone sur ces surfaces. Les mesures réalisées sur le méplat des générateurs de vapeur des réacteurs n°1 et 3 de Tricastin montrent des concentrations de carbone atteignant 0,39 % (les valeurs mesurées jusque-là ne dépassaient pas 0,32 % et restaient proches de celles rencontrées pour les calottes hémisphériques de la cuve de l’EPR de Flamanville). Ces valeurs remettent donc en cause les hypothèses retenues jusqu’alors.

18 réacteurs concernés

L’IRSN a dénombré 46 générateurs de vapeur répartis sur 18 réacteurs de 900 ou 1450 MWe (la France en compte 58) dont les fonds sont affectés par cette anomalie. Depuis, 6 réacteurs ont été autorisés à reprendre leur activité sous réserve que les mesures de concentration de carbone et les contrôles non destructifs ne remettent pas en cause les hypothèses de l’analyse d’EDF. 12 réacteurs, dont les fonds des générateurs de vapeur ont tous été forgés par le japonais JCFC pour le compte d’Areva, sont encore concernés. 7, sont actuellement en l’arrêt pour maintenance programmée, et ont fait ou vont être l’objet prochainement de contrôles Enfin, les 5 derniers devront être arrêtés prématurément. EDF se dit confiant dans sa capacité à apporter les preuves de la sûreté de ses installations. L’enjeu est grand pour l’électricien qui sort, comme chaque année, de la période estivale consacrée à la maintenance du parc nucléaire. La disponibilité de celui-ci doit être maximum en hiver pour couvrir les pics de consommations liés notamment au chauffage électrique. Chaque réacteur compte. Et l’arrêt ne serait-ce que de l’un d’eux complique l’équilibre du réseau sans parler des pertes financières pour l’exploitant. L’ASN indique qu’elle « examine, avec l’appui de l’IRSN, les éléments de justification transmis par EDF. Cette instruction nécessitera quelques semaines, voire davantage si le dossier transmis appelle des compléments ».

Comme la loi le prévoit, c’est l’ASN qui aura le dernier mot.

Romain Chicheportiche

BTP : les chantiers de construction passent au numérique

En 2011, Finalcad lance son application mobile pour smartphones et tablettes visant à simplifier la vie des hommes sur les chantiers. La numérisation des données collectées permet un suivi en temps réel, la prédiction d’éventuels risques et la vérification de la conformité par rapport aux plans d’origine. Ainsi, différents profils sont créés en fonction de la personne qui utilise l’application. Les différents points de contrôle sont signalés en temps réel et visibles par tous les profils autorisés. Ces technologies ont de suite trouvé preneur. En 2014, la jeune pousse fait une première levée de fonds et collecte 2,1 millions d’euros.

Deux ans plus tard, l’entreprise poursuit son essor et vient de lever près de 20 millions de dollars auprès de Serena Capital, Caphorn Invest et Aster Capital, qui lui témoignent ainsi toute leur confiance. Aujourd’hui donc, avec 10 000 projets dans 30 pays, son ambition est clairement affichée : faire entrer la construction dans l’ère du numérique.

« Se débarrasser du papier »

Dans une vidéo de présentation sur le site internet de l’éditeur, le message est sans équivoque. « Nous voulons changer la façon de construire, augmenter la qualité et réduire les coûts », peut-on lire. Pour améliorer la productivité, il faut « se débarrasser du papier ». « Les processus papier gaspillent de l’énergie et du temps », jusqu’à trois heures par jour selon Finalcad. Les chantiers restent peu numérisés. Ce sont surtout les étapes en amont qui ont vu leurs pratiques modifiées par les technologies du numérique. Les modélisations et les maquettes utilisent déjà ces technologies prédictives. Mais sur le terrain, l’utilisation reste marginale.

Améliorer la productivité

Cette numérisation des chantiers est une véritable révolution. Le milieu du BTP est réputé confidentiel. Mais les éventuelles réticences ne devraient pas résister longtemps face à l’argument de gain en productivité et en coût. En effet, si Finalcad propose la digitalisation du suivi de chantier aux professionnels du bâtiment, c’est surtout pour améliorer leur rentabilité. « Avec cet outil, nous voulons les aider à aller chercher ces points de marge si difficiles à obtenir », explique aux Echos Jimmy Louchart, président et cofondateur Finalcad.

Même si le marché du BTP a reculé ces dernières années, le potentiel reste énorme. « Depuis un demi-siècle, l’industrie de la construction a vu sa productivité baisser, là où celle des autres industries a progressé, poursuit Jimmy Louchart dans un communiqué. L’industrie de la construction représente actuellement un marché de 9500 milliards de dollars. Celui-ci devrait doubler de taille d’ici à 2030. »

S’ouvrir à d’autres secteurs

Numériser et normaliser tous les processus sur le terrain afin de pouvoir capitaliser sur les bonnes pratiques, faire vivre la maquette numérique sur le chantier et faciliter la collaboration entre les différents intervenants, voilà les objectifs visés par les applications développées par la start-up française. Parmi ses clients, elle peut se vanter d’avoir déjà des grands noms du BTP : Eiffage, Vinci Construction, Bouygues Construction, pour la France et l’Europe mais aussi Daewoo Engineering, Fujita Corporation, Shimizu Corporation ou Takenaka Corporation, à l’international.

D’ailleurs, cette levée de fonds devrait lui permettre de se développer davantage à l’international et en particulier en Asie. L’entreprise réfléchit également à étendre son activité à d’autres secteurs comme l’énergie par exemple et à développer de nouvelles applications (intelligence artificielle, analyses prédictives en temps réel et en mobilité). Elle espère également doubler ses effectifs d’ici à la fin de 2017 pour atteindre les 150 collaborateurs et porter son chiffre d’affaires à 89 M€ à l’horizon de 2020.

Par Nadia Daki

Powerships : des navires pas comme les autres

Record battu ! La compagnie turque Karpowership a mis sur le marché un nouveau powership d’une capacité jusqu’ici inégalée : 486 MW. A l’instar de ces prédécesseurs, les turbines (à gaz en l’occurrence) sont installées sur un navire grand comme trois terrains de football, le bâtiment n’a besoin que de 5 mètres de profondeur pour opérer ce qui lui donne accès à la majorité des ports. Supportant des variations de températures de -20 C° à 50 C°, le powership permet d’apporter rapidement l’électricité dans les zones côtières en ayant besoin.

Une technologie éprouvée

Le concept de powership est né aux Etats-Unis dans les années 30, mais c’est durant la Seconde Guerre mondiale qu’il a été largement utilisé. Fournis par General Electric, ces navires procuraient le courant nécessaire aux troupes américaines. Depuis leur utilisation n’a jamais cessé et s’est même déclinée en barges. Le système est identique à la différence que celles-ci ne sont pas équipées de moteurs et doivent donc être tractées.

On retrouve ces installations partout dans le monde et majoritairement en Asie et au Moyen-Orient, des régions qui ont connues des hausses importantes de leur consommation d’énergie ces dernières années auxquelles il fallait répondre. Elles seraient environ 75 en opération aujourd’hui, produites par des compagnies telles que  Power Barge Corporation, Waller Marine Inc, Hyundai, IHI Corporation, Mitsui, Karadeniz Energy, MAN ou encore Wärtsilä.

Si ces navires sont généralement équipés de turbines diesel ou gaz, la Russie a quant à elle développé un modèle nucléaire. Fabriqué par Rosatom, ils doivent permettre d’alimenter, entre autres, les sites très éloignés de Sibérie où construire des lignes haute tension sur des milliers de kilomètres est très coûteux. La flexibilité qu’apportent les powership est l’une des clés du succès de ces navires pas comme les autres. Néanmoins, il est indispensable qu’un réseau électrique à terre existe pour distribuer cette source d’électricité additionnelle.

Par Romain Chicheportiche

100% d’énergie renouvelable en France : un projet «délirant» ?

« Comment une telle imposture-peut-elle avoir lieu ? » poursuit sur son blog Philippe Hansen. Ce professeur de sciences physiques au Lycée International de Valbonne à la technopole Sophia-Antipolis est co-auteur avec d’autres membres du réseau « sauvons le climat » dont fait partie l’ingénieur le plus médiatisé de France, Jean-Marc Jancovici, d’ un papier où est proposé de mettre en service 7000 GW de réacteurs nucléaires dans le monde entre 2060 et 2100. En août 2015 la puissance électrique installée du parc électro-nucléaire mondial s’élevait à 378 GW.

Contrairement aux scénarios proposés par l’ADEME qui ne portent que sur le remplacement du mix électrique actuel très largement dominé par le nucléaire par des mix à haute teneur en électro-EnR, le scénario WWS-France de Stanford porte sur le mix énergétique global, y compris transports et chauffage.

Une énergie 100% renouvelables en France, est-ce possible ?

Grâce à l’efficacité intrinsèque de l’approche WWS intégralement basée sur les électro-EnR la demande énergétique de la France estimée par les chercheurs californiens est de 1384 TWh (158 GW x 8760 heures) à horizon 2050.

Contacté par les Techniques de l’ingénieur suite à l’article de Philippe Hansen, Mark Jacobson a souligné que pour la France « les 158 GW en 2050 d’électricité WWS constituent une réduction de 40,9% des 267 GW du scénario BAU (Business as usual) ». Le scientifique ajoute : « ceci en premier lieu grâce à un meilleur ratio énergie:travail de l’électricité comparativement à la combustion (23,1%), en second lieu par l’élimination de l’énergie dépensée dans l’extraction minière et le raffinage des combustibles fossiles et de l’uranium (9,1%) et enfin par les gains d’efficacité au niveau des usages finaux comparativement au BAU (8,7%). »  Autrement dit, à niveau de confort égal (et même supérieur compte-tenu de la préservation de l’air, de l’eau, des sols et de la biodiversité) l’approche WWS est presque deux fois plus efficiente que celle BAU.

Contrairement au solaire et à l’éolien, la filière nucléaire repose sur une ressource finie et très limitée, l’Uranium 235. Dans une perspective de durabilité le peak uranium est tout aussi problématique que le peak oil. Au niveau des coûts les filières reposant sur l’Uranium 238 seront encore moins viables que les filières nucléaires actuelles. Or le solaire et l’éolien sont dès à présent bien meilleurs marché que le nouveau nucléaire EPR qui repose sur l’Uranium 235.

L’équipe dirigée par Mark Jacobson a passé en revue les 50 états des USA et 139 pays dans le monde. Un scoop: la France fait partie du monde !  Dans le cas de l’hexagone les 1384 TWh d’électricité requis (contre environ 500 TWh aujourd’hui) sont répartis entre 57% d’éolien, 37% de solaire et 5% d’hydroélectricité.

Plus précisément 31,12% d’éolien terrestre, 25,94% d’éolien marin, 9,57% de solaire PV en toitures résidentielles, 8,40% de solaire PV au niveau des toitures des collectivités ou des commerces, 7,78% de solaire PV au sol et 11,29% de thermosolaire (CSP) avec stockage thermique. S’ajoutent 5,25% d’hydroélectricité ainsi que d’autres filières plus marginales: 0,49% d’houlomoteur, 0,02% de géothermie et 0,14% de marémoteur.

Ces données sont disponibles sur le site de l’université Stanford (cliquer sur xlsx spreadsheet) :

Image1

Les ressources renouvelables disponibles en France sont-elles compatibles avec l’ambitieux scénario WWS-France ? Dans le rapport de l’ADEME (2015) sur le 100% EnR sont estimés, sur la base d’hypothèse extrêmement conservatrices, les potentiels des différentes filières. Celui de l’éolien terrestre est évalué à 374,2 TWh et celui de l’éolien offshore à 269,5 TWh (190.4 TWh d’offshore classique et 79,1 TWh de farshore flottant, une technologie émergente). En retenant des hypothèses un peu moins rigides les 429 TWh d’éolien terrestre et les 359 TWh d’éolien offshore du scénario WWS-France sont tout à fait atteignables.  Par exemple en doublant le potentiel de l’éolien farshore.

Dans le cas d’une faible acceptabilité sociale de l’éolien (les enseignants et les journalistes ont un rôle clé à jouer sur le plan pédagogique pour expliquer les enjeux) il est tout à fait possible de muscler davantage le volet solaire en France et de passer par exemple à 50% de solaire + 40% d’éolien + 5% d’hydroélectricité + 5% de marélien (une nouvelle filière prônée par François Lempérière de l’association Hydrocoop).

Le potentiel purement théorique du solaire en France est supérieur à 70.000 TWh

L’ADEME estime à 403,1 TWh le potentiel du solaire PV en toiture. C’est largement assez pour répondre aux 239,6 TWh requis dans le scénario WWS-France (123,4 TWh au niveau résidentiel + 116,2 TWh au niveau des autres toitures).

Le potentiel du solaire au sol (62,5 TWh) retenu dans l’étude ADEME est presque 7 fois inférieur à celui du solaire PV en toiture, ce qui constitue à l’évidence une aberration. Sont ignorés le solaire flottant (Lire :  La PME Ciel et Terre construit la plus grande centrale solaire flottante du monde au Japon. Pas en France) ainsi que l’approche du solar sharing consistant à coupler production agricole et énergétique (Lire: L’île d’Ukushima accueille le plus grand projet Solar Sharing du monde).

D’un point de vue purement théorique si l’on couvrait intégralement la France métropolitaine (551.500 km2) avec une centrale solaire PV semblable à celle installée à Cestas par le groupe Neoen (puissance installée de 300MW, production de 350 GWh/an, surface totale de 2,6 km2), ce ne sont pas moins de 74.240 TWh par an qu’il serait possible de produire en métropole. La région de Bordeaux jouit d’une ressource solaire au km2 proche de la moyenne française.

La valeur retenue par l’ADEME (62,5 TWh) est donc équivalente à 0,08% de ce potentiel purement théorique. Le scénario WWS-France estime nos besoins énergétiques totaux à seulement 1384 TWh pour 2050, ce qui est équivalent à seulement 1,8% du potentiel. Plus de la moitié de la surface française est aujourd’hui utilisée (SAU, Surface Agricole Utile) pour capter l’énergie solaire nécessaire à la croissance des plantes alimentaires (photosynthèse). Serait-il vraiment aberrant que 1% de cette surface serve à produire de l’énergie parfaitement durable et qu’ainsi la France devienne énergicultrice ?

Environ 2,5% de la surface nationale suffira pour que la France devienne totalement renouvelable

« Nous avons calculé que la surface nécessaire pour le scénario WWS-France est de 0,36% (footprint) pour le solaire PV et CSP » souligne Mark Jacobson. « Pour l’éolien la surface requise (spacing) est de 1,9 à 3% mais cette surface pourra être utilisée parallèlement pour d’autres usages comme l’élevage, les cultures végétales ». L’espace est en effet libre entre les mâts des éoliennes. Le scientifique californien insiste : « ces chiffres sont valables pour la totalité des usages énergétiques et avec la demande énergétique de 2050 ».

Deux facteurs peuvent expliquer la timidité de l’ADEME et sa difficulté à être aussi ouverte que Stanford University. Tout d’abord la France est le royaume de l’atome et la pression contre les électro-EnR est considérable compte-tenu des enjeux financiers pour EDF qui a misé presque exclusivement sur la fission. Le solaire PV, dont la production est maximale en milieu de journée, agit comme un poignard perforant le business-model nucléaire d’EDF. Comme l’a souligné le réseau TEPOS l’étude de l’ADEME a failli terminer cachée dans un tiroir du ministère de l’écologie dirigé par Ségolène Royal, car ses conclusions dérangeaient.

Dans le documentaire  « Les voleurs de feu, qui a peur de l’énergie solaire ? » qui sera diffusé le lundi 24 octobre sur France 3 et qui est disponible dès à présent via le site de l’association Hespul, la journaliste et réalisatrice bretonne Brigitte Chevet explique sur la base de l’analyse de nombreuses personnalités dont celle de l’ingénieur catalan André Joffre (bureau d’études Tecsol à Perpignan) ainsi que celle de l’avocate Corine Lepage, comment EDF a tout fait pour empêcher l’émergence du solaire en France.

Un second facteur est aussi impliqué : celui de l’idéologie de la décroissance qui s’est développée au sein du milieu écologiste en réaction à la mise en place du parc électro-nucléaire hexagonal. Ce parc construit sans concertation avec la population nationale a conduit à l’émergence d’une méfiance généralisée vis-à-vis des sciences & technologies ainsi que de la « fée électricité ». Les dégâts du tout nucléaire vont bien au-delà du seul domaine de l’énergie.

La communication écologiste, en réaction à ce déni de démocratie, a alors été principalement construite dans une perspective de sobriété et d’économies d’énergie. Mais pour le psychothérapeute Bertrand Piccard, père de l’avion Solar Impulse qui est bardé de produits high-techs et qui a fait le tour du monde sans brûler une seule goutte de carburant, cette stratégie des écologistes n’est pas la bonne. Il préconise au contraire de « montrer que le développement durable peut être sexy » et qu’« il ne signifie pas retourner en arrière » ou se priver.

Le solaire contre la décroissance

Dans une tribune publiée le 13 octobre dans Les Echos Xavier Fontanet, président du groupe Essilor (58.000 employés) propose comme axe stratégique « le solaire contre la décroissance ». Pour ce  membre du conseil d’administration des groupes L’Oreal et Schneider electric « l’impact (de l’émergence du solaire PV ndlr) est plus profond, il est d’ordre philosophique : la sauvegarde de la planète ne passe plus nécessairement par des stratégies de décroissance. Derrière cette bonne nouvelle, une réalité simple qu’on avait oubliée : la plus grosse centrale nucléaire de l’univers travaille chaque seconde pour notre bonne vieille Terre c’est… le Soleil ! »

Un climat d’affrontement particulièrement stérilisant a émergé en France, avec beaucoup de haine de part et d’autre, faisant perdre beaucoup de temps. Les articles du blog Energie-Crise.fr en sont l’illustration. Les uns dénoncent un projet de « retour à la bougie », et symétriquement les autres dénoncent un programme de transformation de la France en Tchernobyl ou Fukushima.

S’opposent par exemple les promoteurs du scénario « négaWatt » contre ceux du scénario « négaTEP » porté par l’association sauvons le climat (TEP pour tonne équivalent pétrole). Pour les seconds faire reculer le nucléaire conduirait mécaniquement à faire monter les énergies fossiles : les promoteurs des électro-EnR en France sont alors traités de criminels climatiques. Cet affrontement négaWatt (sous-entendu Watt nucléaire) versus négaTEP s’inscrit dans une dynamique de néga-tivité, et même d’auto-destruction nationale, une forme de suicide français. En France le scénario « posiWatt » n’existe toujours pas et il est par conséquent difficile de positiver.

Un seul point de convergence est apparu entre anti-atomes et pro-atomes: développer la biomasse pour les applications thermiques. Les pro-atomes l’utilisent pour s’offrir un parapluie pro-renouvelable tout en protégeant le nucléaire. De leur côté les scénarios négaWatt, même s’ils évoluent peu à peu, misent beaucoup sur cette énergie renouvelable reposant sur la photosynthèse. Or c’est précisément la filière que le scientifique Mark Jacobson rejette car son bilan dans les études environnementales et multicritères n’est pas bon.

Les filières biomasse sont en effet basées sur la combustion (avec comme corrélat l’émission de particules et autres composés polluants) et diffèrent en réalité assez peu des filières fossiles: charbon pétrole et gaz naturel constituent de la biomasse fossilisée. De plus le rendement de la photosynthèse est très médiocre : son développement conduirait à un gaspillage surfacique peu souhaitable dans un contexte de démographie mondiale croissante. La filière microalgale, au rendement un peu moins médiocre, devra de son côté affronter la problématique du peak phosphorus et prouver que son équation économique peut devenir solide.

Frédéric Livet, Polytechnicien et Docteur en Physique confiait ceci en 2009, à une époque où le solaire PV était très coûteux, ce qui n’est plus le cas aujourd’hui: « J’espère que mon scepticisme à l’égard des renouvelables et en particulier à l’égard du solaire ne gênera pas un rapprochement que je pense nécessaire entre écoles de pensées (école de pensée de Stanford University versus celle du lobby atomique en France, ndlr) Ce scepticisme n’est d’ailleurs pas partagé par tous les amis de SLC. ». Ce Directeur de recherche CNRS et membre de Sauvons Le Climat ajoutait: « La position non-scientifique et religieusement critique à l’égard du progrès technique (qu’on me pardonne mes facilités polémiques!) de beaucoup de nos amis écologistes a beaucoup contribué à ce que je me décide à intervenir, en particulier par l’intermédiaire de « sauvons le climat » dans les débats sur le problème des GES. Après la canicule de 2003, il m’a paru urgent de contribuer à l’information sur les énergies décarbonées. »

Il est vrai que l’image donnée à l’écologie par une partie de celles et ceux qui se présentent comme les propriétaires du label « écologiste » est potentiellement nuisibles à l’image des EnR qu’ils prétendent promouvoir. Quand Cécile Duflot, après avoir pulvérisé le groupe écolo à l’Assemblée Nationale, parle de solaire cela peut donner l’envie à certains ingénieurs  de balancer volontairement des déchets radioactifs dans la nature ou de rouler dans un gros 4×4 carburant au charbon liquéfié. N’est-il pas grand temps d’effectuer un nettoyage paradigmatique en France et de construire le débat énergétique sur des bases saines, c’est-à-dire scientifiquement rationnelles ? Puissent les réflexions de l’équipe de Stanford University y contribuer.

Dès 1869 le professeur français Augustin Mouchot écrivait : « Si dans nos climats l’industrie peut se passer de l’emploi direct de la chaleur solaire, il arrivera nécessairement un jour où, faute de combustible, elle sera bien forcée de revenir au travail des agents naturels. Que les dépôts de houille et de pétrole lui fournissent longtemps encore leur énorme puissance calorifique, nous n’en doutons pas. Mais ces dépôts s’épuiseront sans aucun doute : le bois qui, lui, cependant, se renouvelle n’est-il pas devenu plus rare qu’autrefois ? Pourquoi n’en serait-il pas de même un jour d’une provision de combustible où l’on puise si largement sans jamais combler les vides qui s’y forment ?[…] On ne peut s’empêcher de conclure qu’il est prudent et sage de ne pas s’endormir à cet égard sur une sécurité trompeuse ».

Un siècle plus tard Nicholas Georgescu-Roegen, devenu plus tard le pape des idéologues de la décroissance, tenait ces intéressants propos : « Si l’énergie utilisable a quelque valeur pour l’humanité, c’est dans la mesure où elle est aussi accessible. L’énergie solaire et ses sous-produits nous sont accessibles pratiquement sans effort ». Comme le souligne Elon Musk, a quoi sert-il de s’embêter à construire des centrales nucléaires sur Terre alors que nous en avons une énorme dans le ciel: le Soleil ? Nicholas Georgescu-Roegen ajoutait dans son livre The entropy law and the economic process publié en 1971 :« Nous devrions nous concentrer sur l’amélioration des utilisations directes de l’énergie solaire, la seule source propre et essentiellement illimitée (…) Bien sot serait celui qui proposerait de renoncer totalement au confort industriel de l’évolution exosomatique. L’humanité ne retournera pas dans les cavernes »

Le blog energie-crise.fr de Philippe Hansen avait initialement comme adresse energie-gouv.fr. Suite à la demande d’une importante organisation française le gouvernement a exigé le retrait du .gouv compte-tenu du fait que cela pouvait induire en erreur les lecteurs.  Le délire, manifestement, n’est pas du côté des chercheurs de Stanford.

Le Portugal (pays étrangement oublié par le PDG d’EDF) répond à présent aux deux-tiers de sa demande électrique avec les énergies renouvelables, principalement de l’éolien. Ayant pourtant la même densité démographique, le pays du roi soleil serait-il incapable de faire aussi bien que celui du Fado ?

A la question posée par nos confrères de l’Usine Nouvelle, « L’Ademe a révélé un scénario d’une France 100 % renouvelable en 2050. Y croyez-vous ? », l’ingénieur des Mines Isabelle Kocher devenue CEO du géant français de l’énergie ENGIE a répondu :« Oui, j’y crois, à condition de mettre en place un écosystème qui le permette. Il ne faut pas que les renouvelables créent une volatilité insupportable sur les prix et des problèmes d’intermittence. Cela demande de développer des solutions de stockage. Si le stockage suit des courbes d’évolution technologique et de réduction des coûts aussi rapides que celle du photovoltaïque, il sera prochainement compétitif à toutes les échelles. En ajoutant des outils de gaz renouvelable, le scénario 100 % renouvelable est peut-être crédible à l’horizon 2050. »

Du délire ? « Souviens-toi quand nous avons commencé les gens nous riaient au nez et disaient que nous étions fous d’essayer, mais cela nous convenait tout à fait » chante Vienna Teng, artiste sino-américaine associée aux World Energy Innovation Forum qu’organise chaque année Elon Musk dans l’usine Tesla de Fremont en Californie. Elon Musk est déjà passé du rêve à la réalité : SpaceX lance à présent des fusées recyclables, une révolution. Il est bien parti pour la conquête de la planète Mars. Et la Tesla X, un SUV 100% électrique doté d’une autonomie de 500 km, passe de 0 à 100 km/h en 3 secondes. Le tout avec des électrons générés par SolarCity.

L’art occitan du trobar

Aliénor d’Aquitaine avait contribué à ce que les troubadours puissent exprimer leur poésie en recourant à la langue d’oc. Dans la même lignée n’est-il pas temps de laisser aux Girondins la possibilité de déployer leurs énergies citoyennes et leurs impulsions solaires ?

L’esprit de pionnier, qui est au cœur du message porté par Bertrand Piccard, et la créativité ne peuvent s’épanouir que dans un climat propice à l’innovation et acceptant l’échec. Isabelle Kocher a décidé de récompenser la « Best Failed idea ». Echouer (comme Shaï Agassi avec BetterPlace, associé au français Renault) c’est mûrir, et cela conduit à augmenter la probabilité de faire mieux la prochaine fois si l’on tire les leçons de cet échec.

Isabelle Kocher résume son projet par cette formule : « transformer une baleine (l’ancien système énergétique centralisé ndlr) en banc de poissons rapide, agile et cohérent ».Comment ? « par une révolution des esprits » répond cette dirigeante visionnaire. L’esprit de pionnier si cher à Bertrand Piccard.

« Les idées de vérité, de rationalité et de responsabilité intellectuelle sont à la base, conformément à ce que nous avons admis, des deux éthiques professionnelles, l’ancienne et la nouvelle » analysait le philosophe des sciences Karl Popper « Mais l’ancienne éthique était fondée sur l’idée du savoir personnel et certain, et par conséquent sur l’idée d’autorité ; tandis que la nouvelle éthique est fondée sur l’idée d’un savoir objectif et incertain. » Le droit d’échouer…

Un membre de Sauvons Le Climat ex-directeur de centrale nucléaire a déclaré aux Techniques de l’ingénieur: « mon maître en matière d’économie est Marcel Boiteux qui a été traîné dans la boue par Télérama ». Marcel Boiteux est l’ancien directeur d’EDF. L’ancienne éthique fabrique des « experts », des hommes considérés comme parfaits, infaillibles, qui n’ont pas le droit à l’erreur. Mais comme tous les êtres humains, ils en commettent. Ce qui, en contexte nucléaire, peut avoir des conséquences très graves. Non seulement pour eux-mêmes mais pour des millions de personnes. Cependant, sous la pression du système qui leur a délivré leur statut de super-expert, ils ne peuvent reconnaître de telles erreurs. Quand émerge une innovation qu’ils n’ont pas vu venir et qui remet en cause leurs dogmes, ils entrent dans une attitude de déni et même parfois dans un violent mépris.

« L’ancienne éthique que je décris nous interdit de faillir. Une faute est absolument inenvisageable. C’est pourquoi ces fautes ne peuvent être avouées » souligne Karl Popper, auteur notamment du livre « La société ouverte et ses ennemis ». « Je n’ai pas besoin de souligner à quel point cette ancienne éthique professionnelle est intolérante. Elle a toujours été intellectuellement malhonnête : elle a mené à la dissimulation de fautes en raison de l’autorité ».

Aucun domaine n’est épargné, ni celui de la médecine, ni celui de l’énergie. Des super-experts sont alors hyper-médiatisés par le système qui les a engendré, imposant une pensée monolithique et incapable de s’adapter au monde qui change. Sauf dans quelques cas, en nombre par ailleurs croissant. Alain Grandjean, économiste collègue de l’ingénieur Jean-Marc Jancovici, a par exemple prononcé cette phrase remarquable lors d’un débat avec une personne coincée dans ses certitudes anti-solaires: « l’histoire humaine est faite de ruptures qu’on n’a pas vu venir, non? ».

Encore mieux, Alain Grandjean est à l’origine de l’étude sur le solaire PV + stockage de la Fondation Nicolas Hulot (2015) dont il a confié la réalisation à l’ingénieur des Mines Nicolas Ott, étude qui est une synthèse du meilleur de la littérature scientifique mondiale sur le sujet et qui casse des dogmes et idées reçues malheureusement encore très présentes dans le débat énergétique en France. Nicolas Ott, avec l’appui d’une bonne dizaine de spécialistes du solaire, montre par exemple que même en prenant les hypothèses les plus conservatrices l’EROI (paramètre clé du développement vraiment durable) du solaire PV est à présent de 8:1. Et que le stockage batterie intraday ne l’impacte que très marginalement, de l’ordre de -10%.

Autre exemple, David Dornbusch, polytechnicien ex-super-expert du nucléaire (AREVA & CEA), est devenu un remarquable pédagogue des EnR et a fondé l’association Cleantuesday dont le rayonnement est à présent international.

Elon Musk, Shaï Agassi, Bertrand Piccard et Mark Jacobson, la tête dans les étoiles et les pieds bien sur Terre, sont des troubadours des temps modernes. Autrement dit, et au sens étymologique de ce mot occitan et excitant, des trouveurs.

L’innovation est le fruit des délires alimentés par des racines rationnelles.

Olivier Daniélo

Cet article a fait l’objet d’un droit de réponse à lire ICI

Batteries miniatures nomades : nouveau design 3D

A l’heure des objets connectés, les micro-capteurs intelligents et connectés nécessitent des sources d’énergie embarquées miniatures de grande densité d’énergie. Pour les micro-batteries extra-plates, dites planaires, augmenter cette densité d’énergie passe par l’utilisation de couches de matériaux plus épaisses, ce qui présente une limite évidente. Une seconde voie – suivie par les auteurs de la publication – consiste à usiner un wafer de silicium et fabriquer une structure 3D originale, à base de micro-tubes simples ou doubles. La batterie 3D, conservant son empreinte surfacique de 1 mm2, développe ainsi une surface spécifique de 50 mm2 : soit un gain de surface d’un facteur 50 ! Robustes, ces micro-tubes sont assez larges (de l’ordre du micron) pour être enduits de plusieurs couches de matériaux actifs.

Le principal défi technologique consistait justement à déposer les différents matériaux composant la batterie, en couches fines et régulières sur ces structures 3D complexes. Grâce une technologie de pointe, le dépôt par couche atomique (ALD en anglais pour Atomic Layer Deposition), les matériaux ont pu épouser parfaitement les formes 3D du socle, sans boucher les structures tubulaires. Les chercheurs ont ainsi créé une couche isolante, un collecteur de courant (en platine), une électrode négative et un électrolyte solide. Les différentes analyses et caractérisations (nanotomographie par rayonnement X synchrotron et microscopie électronique à transmission) montrent que les couches successives sont d’excellente qualité, avec une conformité proche de 100 %. Les interfaces sont propres (pas d’interdiffusion entre les différents éléments chimiques) et aucun trou, fissure ou craquelure n’a été détecté.

Le phosphate de lithium, l’électrolyte de cette future micro-batterie 3D, est sous forme solide. Après l’avoir déposé par la même technologie ALD, les chercheurs ont montré qu’il combine une fenêtre de stabilité électrochimique élevée (4,2 V), une haute conductivité ionique et une faible épaisseur (10 à 50 nm) générant une faible résistance surfacique : des éléments très encourageants pour la performance de la batterie 3D à venir.

La prochaine étape consistera à mettre au point des films minces de matériaux d’électrode positive par ALD pour créer les premiers prototypes 3D fonctionnels et très certainement bien plus performants que les micro-batteries planaires actuelles.

Ces travaux impliquent des chercheurs de l’Institut d’électronique, de microélectronique et de nanotechnologie (CNRS/Université de Lille/Isen Lille/Université Valenciennes Hainaut-Cambresis/Ecole centrale de Lille), de l’Unité de catalyse et de chimie du solide (CNRS/Université de Lille/ ENSC Lille/Ecole centrale de Lille/Université Artois), de l’Institut des matériaux de Nantes Jean Rouxel (CNRS/Université de Nantes), du Laboratoire réactivité et chimie des solides (CNRS/Université Picardie Jules Verne) et de l’Argonne national Lab aux Etats-Unis.

Ce travail a fait l’objet d’un brevet : « Substrat microstructuré », C. Lethien, P. Tilmant, E. Eustache, N. Rolland, T. Brousse, WO2015/052412 A1.
Cette étude a été financée par l’ANR, la DGA, le réseau Renatech, et le réseau RS2E.

Des nanofils supramoléculaires intégrés pour une photodétection rapide

Ils sont ainsi parvenus à  intégrer des nanofils supramoléculaires dans un réseau présentant des (nano)électrodes. Ils ont obtenu une conversion photovoltaïque de haute efficacité, ouvrant ainsi la voie à la réalisation de dispositifs optoélectroniques basés sur des nanostructures organiques. Ces travaux sont parus dans la revue Nature Nanotechnology.

Les nanofils supramoléculaires constitués de briques organiques semi-conductrices auto-assemblées sont des composants appropriés pour le développement de dispositifs optoélectroniques en raison de leurs propriétés optiques (absorption et sensibilité à la lumière), électroniques (transport de porteurs de charge) et morphologiques (rapport surface sur volume) supérieures. La fabrication de dispositifs à base de nanofils organiques reste toutefois difficile, principalement à cause d’un manque de contrôle du contact entre le nanofil et les électrodes.

Des équipes du Laboratoire de nanochimie et du Laboratoire des nanostructures de l’Institut de science et d’ingénierie supramoléculaires ont ainsi développé une nouvelle stratégie pour connecter simultanément des centaines de nanofils supramoléculaires à des nanoélectrodes et assurer une collecte directe et efficace de l’énergie lumineuse. A cet effet, un réseau en nid-d’abeilles de millions de nanoélectrodes en forme de puits a été fabriqué en combinant lithographie par nanosphères et gravure ionique réactive. Un semi-conducteur organique de type n (transporteur d’électrons) disponible dans le commerce a été choisi comme brique moléculaire pour former des nanofils supramoléculaires robustes.

Après auto-assemblage des nanofils, dépôt sur la structure à nanomailles et traitement thermique sous atmosphère inerte, un effet photovoltaïque attribué à l’absorption de la lumière par les nanofils supramoléculaires a été observé. Les dispositifs photoniques présentent alors des caractéristiques exceptionnelles, comme un rapport signal sur bruit élevé (107), un temps de photoréponse ultra-rapide (10 ns) et une efficacité supérieure à 55%.

Ces résultats sont prometteurs pour la réalisation de dispositifs optoélectroniques de haute performance basés sur des nanostructures organiques, comme par exemple des diodes électroluminescentes.

Source : CNRS

La Russie poursuit sa politique de contournement
 avec TurkStream

La signature de l’accord a eu lieu quelques heures après le début du World Energy Congress qui se tient actuellement à Istanbul. C’est également la première visite de Vladimir Poutine sur le sol turc depuis la crise diplomatique née entre les deux pays en novembre 2015 suite à la destruction d’un bombardier russe, en opération en Syrie, survolant le territoire turc.

Un projet gelé diplomatiquement

turkstream-map-2016-09-09-en
Le tracé du Turkstream

Le projet TurkStream était déjà bien avancé en 2014 lors de la signature d’un Memorundum of Understanding entre Gazprom et Botas, les deux compagnies en charge du dossier. Mais l’attitude diamétralement opposée des présidents russes et turcs sur la crise syrienne ont nettement détérioré les relations diplomatiques, et de fait, gelé le projet dont l’appui politique est indispensable. Mais depuis un an, les deux parties ont multipliés les signes de réconciliation avec une première invitation de Tayyip Erdogan en Russie l’été dernier lors de laquelle il s’est excusé à demi-mots de l’incident survenu l’hiver précédant. Un message entendu par le Kremlin qui porte un intérêt géostratégique à TurkStream.

Objectif Europe

TurkStream serait concrètement équipé de deux tubes courant sur 660 km et d’une capacité de 15,75 milliards de m3 chacun, pour un coût évalué à 11 milliards d’euros. Le premier sera dédié exclusivement à la fourniture de la demande turque en forte croissance : en 2015, la Turquie a consommé 43,6 milliards de m³ de gaz naturel, en hausse de 62 % depuis 2005. Le deuxième en revanche devrait alimenter l’Europe grâce à une ou des extensions du gazoduc dans le sud-est de l’Europe. De nombreux pays tels que la Grèce, l’Albanie, la Macédoine sont intéressés par ce projet qui ferait d’eux des pays transitaires.

Plusieurs tracés sont possibles pour relier TurkStream au réseau européen. Le premier viserait le hub gazier de Baumgarten en Autriche en passant par la Grèce, la Macédoine, la Serbie et la Hongrie. Le deuxième passerait directement à l’Est pour alimenter la Bulgarie, la Roumanie et la Slovaquie. Enfin une troisième voie, sous la mer Adriatique, pour atteindre directement l’Italie depuis la Grèce. Interrogé à ce sujet en juin 2015, Alexeï Miller a sous-entendu que le premier tracé tiendrait la corde : « Concernant la route à travers la Serbie, la Hongrie et l’Autriche, cette section possible est dans un état de préparation élevé, avec toutes les approbations et autorisations nécessaires obtenues, puisque ce travail a été réalisé dans le cadre du projet (abandonné depuis) South Stream. Si les parties serbes et hongroises trouvent notre participation dans le projet possible et nécessaire, nous envisagerons certainement cette possibilité et peut-être prendrons-nous une décision positive », avait-il déclaré.

Contournement

Alimenter l’Europe par le sud-est répond à une problématique géopolitique pour la Russie : se défaire de la dépendance vis-à-vis du turbulent partenaire ukrainien. Les deux pays sont dans une énième querelle sur le tarif de transit. Selon Alexeï Miller, l’Ukraine souhaiterait voir le prix passé de 2,7 $/1 000 m3 à 5$. « Inacceptable », répond sèchement le patron de Gazprom. Le contrat ukrainien actuel court jusqu’en 2019 mais ceux liés avec d’autres pays vont bien au delà comme la Slovénie, qui dépend très largement du transit par l’Ukraine, et qui a signé un contrat de fourniture avec Gazprom jusqu’en 2028…

TurkStream s’intègre parfaitement dans la stratégie de contournement de l’Ukraine mise en place par le Kremlin. D’abord avec North Stream, inauguré en 2011, et qui relie directement la Russie à son premier client européen : l’Allemagne. Le blocage de son équivalent dans le sud (South Stream) par l’Union européenne n’y aura finalement rien changé puisque qu’une partie du tracé de TurkStream est identique. Ce nouveau gazoduc augmente les capacités d’exportation de la Russie vers le Vieux Continent sans passer par l’Ukraine, affaiblissant de fait son pouvoir de négociation et surtout ses rentrées fiscales. A n’en pas douter, l’empressement de Vladimir Poutine à renouer le dialogue avec Tayyip Erdogan répond à une logique d’opportunité, alors que les Etats-Unis, la France, et l’Allemagne entrent tous les trois dans une phase d’élections générales, généralement synonyme d’une certaine passivité internationale. C’est cette même logique qui avait permis au président russe d’envahir la Crimée et de l’annexer sous les yeux de l’Otan, alors en pleine préparation de frappes aériennes en Syrie.

Par Romain Chicheportiche

Sondage : quelle sera l’innovation marquante des 30 prochaines années ?

Pour vous aider à répondre, la rédaction vous propose une petite présentation de ces 10 innovations :

Habiter dans l’espace

On en parle depuis longtemps mais le rêve se concrétise. La Nasa a demandé à six entreprises aérospatiales de développer des prototypes de modules d’habitation spatiale. Chaque système possédera les infrastructures nécessaires à une occupation suffisamment longue pour l’exploration de l’espace lointain.

orbitalatk-nextstep2-ich-high-res

Sur le même sujet :

 

L’homme augmenté (plus fort, plus vieux, plus intelligent)

Prothèses, implants, organes artificiels… Aujourd’hui, le corps se répare. Mais demain les progrès technologiques redessineront l’humain tel que nous le connaissons : plus fort, plus rapide et plus intelligent. Les dérives possibles alimentent déjà le débat éthique.

Sur le même sujet :

 

La réalité augmentée dans nos rues

La réalité augmentée et la réalité virtuelle s’annoncent-elles comme le prochain eldorado dans le secteur des nouvelles technologies ? C’est plausible quand on examine les projections du cabinet d’études de marché Digi-Capital : ces technologies devraient peser quelque 150 milliards de dollars en 2020, la réalité augmentée s’octroyant la majeure partie, soit 120 milliards.

pokemon

Sur le même sujet :

 

Une imprimante 3D dans tous les salons

Jusqu’à présent, l’impression 3D était réservée à des prototypes coûteux. Aujourd’hui, avec les possibilités des imprimantes par extrusion et les outils de conception plus abordables, la production est devenue bien plus accessible et l’on pourra bientôt lutter contre l’obsolescence programmée en remplaçant uniquement la pièce défectueuse d’un appareil ménager coûteux qui fonctionne parfaitement par ailleurs.

Test-impression-3D-1024

Sur le même sujet :

 

Partir en vacances sur une autre planète

Le 1er août, Virgin Galactic a annoncé que le Bureau de la FAA-AST, organisme en charge de la régulation des vols commerciaux aux États-Unis, lui avait attribué une licence d’exploitation pour sa nouvelle navette SpaceShipTwo (Virgin Spaceship Unity). Le début d’une nouvelle forme de tourisme ?

Virgin-Galactic

Sur le même sujet :

 

Se faire conduire par une voiture autonome

Cet été, le Conseil des ministres a adopté un projet d’ordonnance présenté par Ségolène Royal et Emmanuel Macron pour faciliter les expérimentations des véhicules autonomes. Les premiers freins au développement du véhicule autonome seront bientôt levés. A quand les voitures autonomes sur nos routes ?

voiture-autonome1024

Sur le même sujet :

 

Tous nos colis livrés par drone

Amazon a annoncé cet été avoir obtenu le feu vert des autorités britanniques pour tester son service de livraison par drone. Ce projet incroyable, si souvent raillé, est donc en passe de se concrétiser. Mais il faudra sûrement attendre quelques années avant de le voir concurrencer la Poste…

drone-livraison4-bis1024

Sur le même sujet :

Des robots partout (aide-ménager, aide-soignant, etc.)

A l’avenir, ce ne sera peut-être plus le personnel de l’hôtel qui se présentera devant la chambre du client pour livrer une boisson ou un encas… mais un robot. Ce projet est emblématique de la robotique de service professionnelle, qui désigne les robots qui n’accomplissent pas des tâches de production et de fabrication industrielles. Les secteurs d’activités couverts sont donc diversifiés, allant de la chirurgie en milieu hospitalier à la logistique dans les entrepôts.

esssai-robot1024

 

Sur le même sujet :

 

Des Hyperloop à la place des TGV

Hyperloop, le train futuriste imaginé par Elon Musk est en train de prendre forme. L’entreprise Hyperloop One a achevé son premier test dans le désert du Nevada, près de Las Vegas. Le véhicule a atteint près de 187 km/h sur une piste de moins de 1 km, avant de finir dans un banc de sable 5 secondes plus tard.

Hyperloop

Sur le même sujet :

 

Nos données stockées dans notre ADN

Stockées suivant ce procédé, à une température de –18 °C, les informations pourraient être préservées pendant des centaines de milliers d’années. Avec l’ADN, les capacités de stockage sont en outre démultipliées : les disques durs actuels permettent de stocker jusqu’à 5 To, quand une molécule d’ADN permettrait de stocker 300 000 To.

ADN

Sur le même sujet :

 

Par Iris. T

Solaire : L’accord anti-dumping avec la Chine n’a servi à rien

Pour JA Solar l’accord signé avec l’Union européenne est obsolète. Le prix plancher, au-dessous duquel les fabricants chinois s’étaient engagés en 2013 à ne pas vendre sur le marché européen, fixé par la Commission européenne à 0,56 €/Watt ne serait plus d’actualité. La chute massive des prix du photovoltaïque partout dans le monde rendrait cette évaluation caduque. De fait, de plus en plus d’entreprises chinoises qui avaient signé l’accord (environ 90) pensent s’y retirer, voire le contourner.

Détournement

Si la course à la baisse des prix a mis à bat l’accord sino-européen sur le solaire, ce dernier était déjà largement usé par la découverte de fraudes massives de la part de plusieurs acteurs chinois ayant signé ledit accord. Ces derniers auraient modifié la « configuration de leurs échanges » pour mettre en place un système de fraude douanière. Afin de faire disparaître l’origine du module photovoltaïque (l’accord ne s’applique qu’à la Chine), les compagnies chinoises les facturaient à des sociétés (écran ou non) situés dans des pays-tiers (Taïwan, Malaisie) avant d’être à nouveau expédiés, cette fois-ci en Europe. Le 29 mai 2015, la Commission a estimé disposer de suffisamment de preuves pour ouvrir deux enquêtes contre l’industrie solaire chinoise pour « contournement des mesures compensatoires et des mesures antidumping ».

Force est de constater que l’accord signé il y a trois ans n’a pas servi à grand chose. Les acteurs chinois continuent à dominer outrageusement le marché des modules photovoltaïques et la tentative de juguler la concurrence n’a eu comme d’autre résultat que de doper les exportations de Taïwan et des autres pays limitrophes.

Romain Chicheportiche

Des scientifiques dessinent une nouvelle carte du cerveau

Des chercheurs américains (neurologues, ingénieurs, spécialistes en informatiques) ont établi une nouvelle cartographie du cerveau humain, avec un degré de précision inédit, en identifiant 97 nouvelles régions cérébrales.

Ce sont ainsi pas moins de 180 régions distinctes du manteau extérieur (le cortex), qui ont désormais été cartographiées – soit plus du double de celles connues jusqu’ici. Ainsi, avant cette étude, les neurologues n’avaient identifié que 83 régions cérébrales… ces identifications remontant à 1909, et aux travaux du neurologue allemand Korbinian Brodmann

1469026202421104

Scans IRM et Machine Learning

Pour réaliser leur prouesse, les chercheurs ont analysé des données issues de scans IRM du cerveau de 210 personnes, recueillies dans le cadre du projet “Human Connectome”, qui consiste à cartographier les connexions cérébrales de milliers de volontaires, afin de dresser un inventaire complet des connexions du cerveau.

Un logiciel et des algorithmes de Machine Learning ont permis aux scientifiques américains, non seulement d’identifier de nouvelle zones, mais aussi de générer des cartographies individuelles, afin de comparer les zones étudiées au sein du groupe de 210 personnes, lors de la réalisation de tâches précises (notamment cognitives), permettant d’activer différentes régions corticales.

« La situation est comparable à l’astronomie où les télescopes basés sur terre produisaient des images floues du ciel, avant l’arrivée d’optiques adaptatives et de télescopes spatiaux », selon Matthew Glasser, neuroscientifique à l’Université Washington de Saint-Louis, directeur de l’équipe de recherche.

Sur la nouvelle cartographie obtenue, différentes aires du cerveau sont associées à un code couleur : le bleu correspond à la vision, le rouge correspond à l’audition, le vert correspond aux capacités motrices et sensorielles. Et déjà, des observations peuvent être faites. “Il n’y a pas de frontière nette entre ce qui apparaît en bleu et ce qui apparaît en vert. On observe plutôt des transitions graduelles, ce qui indique qu’il existe un entremêlement et une coordination entre différentes modalités sensorielles et différents domaines cognitifs”, remarque ainsi David Van Essen, membre de l’équipe de chercheurs, dans Vice.

1469033651181585

 

 

 

 

 

Pas un “Google Maps du cerveau”

Pour David Van Essen, qui a publié ses travaux dans la revue Nature, ce travail de cartographie est analogue à celui effectué avec les cartes de la planète Terre. Ainsi, les plis du cerveau peuvent être comparés à la topologie terrestre, et les zones identifiées dans la carte seraient comparables aux “subdivisions politiques à la surface de notre planète” – elles ne sont pas, indique le scientifique, “basées sur les plis du cortex en soi”, mais sur la communication, les interactions, et “les connexions complexes entre les milliards de neurones qui composent le cortex cérébral”.

Selon David Van Essen, “ces travaux seront utiles à tous”, constituant une grande avancée dans le domaine neurologique et médical. Pour les neuroscientifiques, la nouvelle “carte” du cerveau dessinée devrait ainsi constituer un outil précieux pour repérer et identifier les zones du cerveau, dans les domaines de la chirurgie du cerveau et de la neuropathologie notamment. Pour Bruce Cuthbert, directeur de l’Institut américain de la santé mentale, qui a cofinancé les recherches, “ces nouvelles connaissances devraient aussi permettre d’expliquer comment notre cortex a évolué et le rôle de certaines zones”.

Mais les chercheurs nuancent vite la portée de leur cartographie du cerveau, loin d’être complète – reconnaissance la présence de zones encore inconnus dans notre crâne. “Notre ambition est de mettre au point les meilleures cartes possibles, mais nous devons rester honnêtes : avec nos connaissances actuelles, il ne s’agit en aucun cas d’une Google Map du cerveau”, indique David Van Essen à Vice. Ainsi, selon lui, “nous sommes encore loin de pouvoir explorer le cortex cérébral jusqu’au niveau des neurones individuels.”

Par Fabien Soyez