Un seuil record de CO2 franchi dans l’hémisphère Sud

Or, cet observatoire est celui où l’on relève les concentrations en CO2 les plus basses au monde (hors cycles saisonniers), du fait de son éloignement des sources anthropiques. Le seuil de 400 ppm avait déjà été franchi dans l’hémisphère Nord au cours de l’hiver 2012/2013. Par ailleurs, l’augmentation du CO2 dans l’atmosphère s’accélère avec un taux de croissance supérieur à 2 ppm par an depuis quatre ans. Ces données sont recueillies depuis 35 ans à l’observatoire d’Amsterdam par le service national d’observation ICOS-France du Laboratoire des sciences du climat et de l’environnement (LSCE, CNRS / CEA / UVSQ), avec le soutien de l’Institut polaire français Paul-Emile Victor (Ipev).

De par son isolement, l’île d’Amsterdam possède un des airs les plus purs au monde : on y enregistre les concentrations en dioxyde de carbone (CO2) les plus basses (hors variations saisonnières dans l’hémisphère Nord où, chaque été, la quantité de CO2 dans l’atmosphère diminue en raison de son absorption saisonnière par les plantes). Elle est devenue un site de référence en chimie atmosphérique pour l’hémisphère Sud et fait partie des trente stations du réseau global OMM de suivi de la composition atmosphérique. Les mesures qui y sont effectuées permettent notamment de suivre l’évolution des gaz à effet de serre (CO2, CH4, N2O…) et de mieux quantifier le rôle de l’océan Austral en tant que puits de carbone. Ces relevés sont effectués dans un observatoire intégré au Service national d’observation ICOS-France, aujourd’hui coordonné par Michel Ramonet et Marc Delmotte, chercheurs au LSCE (CNRS / CEA / UVSQ). L’observatoire bénéficie de l’expertise de ce laboratoire et du soutien de l’Ipev depuis sa création en 1981. La maintenance des installations est assurée par des volontaires au service civique.

La concentration en dioxyde de carbone dans l’atmosphère y est ainsi mesurée en continu depuis 35 ans. Première historique : elle a dépassé les 400 ppm en mai 2016. Or, la valeur du COenregistrée par cet observatoire varie peu selon les saisons (<1 ppm) : l’augmentation observée est donc représentative de la tendance sur le long terme.

Depuis 1981, la concentration de dioxyde de carbone est ainsi passée de 339 à 400 ppm (+ 18 %), soit une augmentation moyenne de 1,75 ppm par an. Par ailleurs, les chercheurs ont relevé des taux de croissance plus élevés ces dernières années : l’augmentation du CO2 dans l’atmosphère s’accélère puisque le taux de croissance annuel observé, d’une valeur de 1,30 ppm par an dans les années 1980, atteint plus de 2 ppm par an depuis 2012.

La valeur de 400 ppm a déjà été dépassée dans les stations de mesure de l’hémisphère Nord durant l’hiver 2012/2013. Aussi, franchir les 400 ppm à Amsterdam signifie que cette valeur est atteinte sur quasiment l’ensemble de notre planète.

Source : cnrs

La PME Ciel et Terre construit la plus grande centrale solaire flottante du monde au Japon. Pas en France

Les centrales au sol sont bien plus pertinentes d’un point de vue économique (0,8€/W) que les  ombrières de parking (1,5€/W) et a fortiori que le solaire en toitures (2€/W). Mais même s’il est possible d’élever des moutons, de semer des plantes mellifères propices à l’apiculture, ou de cultiver des plantes de semi-ombre sous les panneaux (concept de Solar Sharing) l’argument de l’empiètement sur les terres agricoles continue de freiner ce type de centrales en France.

La PME Lilloise a alors innové en partenariat avec l’Institut Français du Pétrole (IFP Energies Nouvelles) pour mettre au point une technologie de solaire flottant.  « Lacs de carrières, lacs de barrage, réservoirs d’irrigation, sites de traitement d’eau, sites aquacoles, terrains inondables… : les sites potentiels sont nombreux en Europe et dans le monde entier, et se situent souvent à proximité des réseaux de transport d’électricité » explique Ciel & Terre. RTL en fait écho : cette entreprise construit actuellement la plus grande centrale solaire flottante du monde au Japon.

Le coût de la technologie Ciel & Terre est aujourd’hui de seulement de 1€/W. Soit 25 fois moins que la route solaire de Ségolène Royal installée en Vendée (Un entretien avec le Député de la Vendée à ce sujet).

La fraîcheur de l’eau est un véritable atout car le rendement et la durée de vie des cellules photovoltaïques sont thermo-sensibles. De plus les panneaux contribuent à limiter l’évaporation des réservoirs d’eau douce et à diminuer la prolifération des algues vertes: l’ombre réduit l’activité photosynthétique. « Le seul état du Karnataka en Inde, dispose de 36 000 lacs d’irrigation de plus de 10 hectares » souligne Ciel & Terre.

Mais en France, la CRE (Commission de Régulation de l’Energie), via le système des appels d’offre, bloque ces projets pourtant très prometteurs. Ciel et Terre a déposé il y a trois ans un projet très bien ficelé. « Nous proposions 12 centimes le kWh mais il a été refusé » rappelle Alexis Gaveau, directeur de la PME. « L’administration nous a dit que notre technologie n’était pas assez innovante pour être retenue ». Du coup, faute de soutien dans son propre pays, c’est au Japon que l’entreprise développe ses projets de solaire flottant.

En quoi la technologie du solaire flottant serait-elle moins innovante et moins pertinente que la route solaire de Ségolène Royal ? « Il faut avoir un grand nom pour être écouté auprès du gouvernement » soupire Alexis Gaveau, contacté par Techniques de l’ingénieur.

« Nous essayons d’avancer tout simplement en faisant des projets au Japon, en Angleterre, en Malaisie et bientôt en Chine. Mais nous aimerions bien avoir des projets en France. » Les coûts de Ciel et Terre ont baissé. « Malheureusement nous avons encore été recalé au dernier appel d’offre avec un prix de 8c€/kWh ! » s’indigne l’ingénieur.

Un espoir à l’horizon ? « Nous avons rencontré dernièrement le président d’ENERPLAN (le syndicat des professionnels du solaire ndlr). Il pense pouvoir nous aider à nous faire entendre en France. A nous d’essayer d’être plus entendu… »

Au royaume de l’atome les sourds sont rois.

Olivier Daniélo

Écran de smartphone et empreintes digitales : une solution efficace ?

La sécurité n’a jamais fait bon ménage avec la facilité d’usage. L’innovation de LG risque d’être une preuve supplémentaire. Le conglomérat coréen annonce avoir développé un écran pouvant reconnaître des empreintes digitales. Son procédé repose sur un sillon de 0,3 mm de profondeur sur la partie inférieure du verre de protection permettant d’y insérer un capteur d’empreintes.

L’authentification de l’empreinte digitale est la mesure biométrique la plus employée dans le monde depuis les années 60. Pour renforcer la sécurité des smartphones, différents fabricants (Apple, Samsung…) proposent cette solution depuis quelques années. Lors du Mobile World Congress 2014 de Barcelone, Samsung avait même présenté son Galaxy S5 comme un porte monnaie électronique. Il intègre en effet une technologie d’authentification biométrique permettant aux utilisateurs PayPal de régler leurs achats en magasin et en ligne par reconnaissance de leurs empreintes digitales.

Cette intégration dans un smartphone apparaît comme la première adaptation concrète des travaux menés la FIDO Alliance. Créé en juillet 2012, ce consortium réunit notamment Google, Netflix, PayPal, des établissements bancaires, mais aussi Bank of America ou Target.

Pour éviter un piratage, les données biométriques ne sont pas stockées dans l’appareil mobile, mais dans le Cloud.

La FIDO Alliance propose deux protocoles spécifiques, le standard U2F (Universal Second Factor) s’appuyant sur un code PIN associé à toute forme d’appareil (clé USB, mobile NFC, etc.) et d’autre part le standard UAF (Universal Authentication Framework) comprenant toutes les solutions biométriques. Ces solutions s’appuient toutes sur une clé cryptée, une méthodologie déjà établie permettant d’établir une connexion de confiance.

Mais ce procédé biométrique est-il efficace ? Son principe est le suivant. Une quinzaine de points caractéristiques (les minuties, codifiées à la fin des années 1800 en « caractéristiques de Galton »,) correctement localisés permettent d’identifier une empreinte parmi des millions. Par ailleurs, la probabilité de trouver deux individus avec des empreintes similaires est de 1 sur 1024.

Présentée comme une solution pratique et sécurisée, l’authentification digitale a été rapidement mise à mal par les hackers. « C’est complètement stupide d’utiliser comme élément de sécurité quelque chose qu’on laisse si facilement traîner derrière soi », a expliqué le président du Chaos Computer Club, Frank Rieger.

Résultat, les capteurs d’empreintes du Galaxy 5 et de l’iPhone 5S ont été piratés quelques jours après leur sortie par les chercheurs allemands du SRLabs.

L’équipe a également constaté que le smartphone coréen était moins bien sécurisé que son concurrent américain, car il n’y a pas de deuxième couche de sécurité (Code PIN sous l’iPhone 5S).

Certes, la technique utilisée par les chercheurs allemands n’est pas à la portée du premier venu (la photo d’une empreinte a été transférée sur un support à base de colle à bois, lequel est apposé sur un moule) mais elle est inquiétante : « lier le capteur à des applications aussi sensibles que PayPal va inciter encore plus les pirates à apprendre à usurper des empreintes digitales, une compétence aisée à maîtriser » souligne le SRLabs.

Le plus surprenant est que les mises en garde contre les limites de ce type d’authentification sont récurrentes depuis quelques années.

En mai 2002, Tsutomu Matsumoto, de la Yokohama National University, a développé une technique permettant de concevoir de fausses empreintes digitales avec la gélatine alimentaire, utilisée pour la fabrication des bonbons. Il affirme être parvenu, 8 fois sur 10, à duper les 11 systèmes de reconnaissance d’empreintes qu’il a testés. Autre variante proposée et testée pour des empreintes laissées sur des verres : de la colle ultra forte et un logiciel de retouche photo pour augmenter le contraste de l’image avant de l’imprimer sur un transparent.

Pour réduire les risques, des chercheurs américains de l’Université de Virginie ont constaté fin 2005 qu’il fallait prendre en compte la transpiration. Ils ont effectué une série de tests pour lesquels ils ont utilisé une soixantaine de faux échantillons (à partir de pâte à modeler, d’argile, de gélatine et de plâtre dentaire). Ils ont également utilisé des doigts prélevés sur des cadavres humains. Leur étude a confirmé qu’il était facile de tromper la majorité (90 %) des lecteurs d’empreintes. Par contre, le taux d’erreur n’atteint que 10 % lorsque la sueur est prise en compte. Leur algorithme détecte et prend en compte la trame de la transpiration lorsque le lecteur contrôle une image d’empreinte digitale. De quoi intéresser la NSA qui a financé ce projet à hauteur de 3,1 millions de dollars…

Philippe Richard

Rançongiciels : le racket version numérique

Rançongiciels et ransomwares : derrière ces termes un peu abscons se cachent une technique de racket version numérique. Un rançongiciel est un programme malveillant transmis en pièce jointe (aux formats ZIP, RAR, SRC, CAB mais aussi des documents bureautiques) par email ou « caché » dans un document en PDF par exemple sur un site Internet. Une fois ouvert, il vise à chiffrer (on dit souvent par erreur « crypter ») partiellement ou entièrement les données sur le système cible, en l’occurrence un ordinateur (ou un serveur) ou plusieurs postes de travail dans des entreprises ou de particuliers.

Un message s’affiche alors sur l’écran : « Tous les fichiers de votre disque dur ont été cryptés. Pour les déchiffrer et les récupérer, vous devez nous payer. » L’objectif de cette attaque est en effet de récupérer une rançon en échange de la « libération » des fichiers chiffrés.

Les plus connus de ces rançongiciels s’appellent Teslacrypt, CTB-Locker et Cryptowall.

Contrairement à une idée répandue, cette technique n’est pas récente. Mais elle a pris de l’ampleur depuis un an environ. Selon l’éditeur d’antivirus Kaspersky Lab, au 1er trimestre 2016, les ransomwares ont représenté 30 % des attaques. Cette épidémie se répand facilement, car les antivirus ont du mal à suivre la cadence. Les pirates publient en effet de très nombreuses variantes. Selon, ce même éditeur, environ 2900 variantes de rançongiciel ont été repérées sur les trois premiers mois de l’année. Impossible pour les antivirus de mettre à jour en permanence leurs bases virales et leurs techniques d’analyse comportementale. Résultat, ils ne détectent pas tous ces virus. Heureusement, certains s’en sortent mieux que d’autres. L’AFP a été visée par ce type d’attaque en mars dernier : près de 400 boîtes email avaient reçu un message infecté par le ransomware. L’infection n’a pas eu lieu, car l’antivirus de l’agence avait reconnu la signature de ce logiciel et l’avait bloqué immédiatement.

Auparavant, les maitres chanteurs s’attaquaient à de grosses entreprises, afin de toucher le jackpot. Aujourd’hui, ils se recentrent sur les PME et les particuliers, parce qu’ils ont compris que même si les sommes obtenues sont moindres, l’activité se révèle moins risquée et plus facile.

Face à ces menaces, les entreprises et les particuliers ne savent pas toujours comment réagir. En mai, le Kansas Heart Hospital (aux États-Unis) avait été victime d’un ransomware et avait choisi de payer les hackers. Mais il n’avait jamais reçu la « clé » permettant de déchiffrer les documents comme cela était annoncé par les escrocs. L’établissement avait même reçu une nouvelle demande de rançon. Cette fois, il avait refusé de payer.

Aucune solution ne permet d’éradiquer ou de repérer tous ces codes malveillants. Pour corser l’éradication, certains pirates utilisent une clef unique ; il devient dès lors impossible de la découvrir.

Il est donc indispensable d’appliquer les bonnes pratiques en cas d’infection par un rançongiciel. Premier réflexe : déconnecter immédiatement l’ordinateur de l’Internet (arrêt du Wi-Fi, câble Ethernet débranché). Ensuite, il ne faut pas payer la rançon : le paiement ne garantit en rien le « déchiffrement » des données et peut compromettre le moyen de paiement utilisé (notamment carte bancaire). Si l’antivirus ne repère pas ce virus ou s’il n’est pas possible de trouver la clé qui permettrait de déchiffrer les fichiers, il faut formater le disque dur et réinstaller une sauvegarde qui n’aura pas été compromise.

S’il n’existe pas de sauvegardes, les données seront certainement perdues. Avec toutes les conséquences que l’on peut imaginer pour une entreprise…

Il est donc primordial de prévenir les risques en effectuant des sauvegardes fréquentes voire quotidiennes, pour les documents les plus sensibles. Autre précaution : ne jamais ouvrir les emails dont vous n’êtes pas certain de l’expéditeur et encore moins les pièces jointes au format zip ou SCR ou CAB (extensions de compression actuellement utilisées dans la campagne CTB-LOCKER). Enfin, il convient de mettre à jour son antivirus.

Philippe Richard

Agence du numérique : lancement officiel

Près d’un an et demi après sa création par décret (3 février 2015) et un an après la nomination de son directeur, Antoine Darodes, en juillet 2015, l’Agence du numérique vient d’être officiellement inaugurée le 7 juin dernier. Née de la nécessité d’une approche globale du numérique dans les territoires, l’Agence mutualise pour le moment trois missions autrefois indépendantes :

  • la mission French Tech dédiée au développement des écosystèmes de start-up et d’innovation ;
  • la mission Très Haut Débit consacrée au déploiement du très haut débit sur l’ensemble du territoire ;
  • et la Délégation aux usages de l’internet, rebaptisée programme « Société numérique », chargée de favoriser l’accompagnement de la population dans la connaissance et la maîtrise de ces nouveaux outils.

Une agence « autrement »

Cette nouvelle agence se veut l’incarnation d’une approche innovante dans la mise en œuvre des politiques publiques. Une approche qui se traduit par  :

  • une vocation à mener des actions de terrains, concrètes, en lien direct avec les acteurs (entrepreneurs, élus, services des collectivités…) ;
  • une administration « à la demande » dont les actions ne sont pas gravées dans le marbre mais évoluent avec les besoins des publics ;
  • Des solutions sur-mesure, évolutives, voire disruptives trouvées par une équipe d’une quarantaine de personne dont la moyenne d’âge de 31 ans veut illustrer la capacité d’innovation et d’adaptation aux nouveaux usages du numérique ;
  • Un ancrage territorial et l’association des acteurs publics et privés pour tous les projets.

Un conseil d’orientation indépendant

Pour choisir les grandes orientations de l’Agence et pour réussir à prendre du recul sur les actions et les modes d’actions, l’Agence du numérique est dotée d’un conseil d’orientation stratégique indépendant. En cours de création, il  compte pour l’instant dans ses rangs des entrepreneurs, des élus, des personnalités du monde du numérique.

La French Tech agite les régions

Au sein de l’Agence du numérique, la mission French Tech lancée fin 2013 est un bon exemple de cette autre manière d’aborder les politiques publiques. Dans ce processus, la French Tech regroupe l’ensemble des acteurs qui œuvrent dans ou pour les start-up françaises qui s’appuient sur le numérique. Qu’elles soient en France ou à l’étranger. L’État n’encadre pas, mais soutient les initiatives qui ressortent de cette communauté. Un label territorial a par exemple vu le jour : le label Métropole French Tech obtenu lorsqu’une métropole prouve qu’elle offre un écosystème attractif pour les start-up : culture entrepreneuriale, maîtrise technologique, financement… A ce jour, 13 écosystèmes ont reçu le label Métropole French Tech et 4 à titre pilote. Le label est obtenu pour 2 ans. Depuis janvier 2016, la French Tech agite les régions via un nouvel appel à labellisation pour des réseaux thématiques : en six mois on compte pas moins de  113 candidatures déposées par 37 territoires et positionnés sur une quarantaine de thématiques. Les lauréats devraient être connus d’ici la fin du mois.

Sophie Hoguin

Viv, une « interface intelligente pour tout faire »

Alors que Google, Microsoft et Facebook rivalisent de projets pour développer des “chatbots” et des assistants personnels toujours plus efficaces et un peu plus pro-actifs, à l’instar de Google Assistant, Cortana et “M”, et qu’Apple prépare sa riposte avec un Siri remanié, une autre IA pourrait révolutionner le secteur.

Conçue par les fondateurs de Siri, Adam Cheyer et Dag Kittlaus, Viv propose d’aller plus loin que les assistants “intelligents” des géants du Web, en répondant à des questions véritablement complexes, formulées en langage naturel – les IA de Google, Microsoft et Facebook ayant encore le même défaut : les réponses sont écrites à l’avance par les développeurs.

Viv, une IA “vraiment intelligente”

L’idée de Viv : interpréter les différentes conditions d’une question (posée vocalement), et composer à la volée des portions de code (de petits programmes informatiques), afin de répondre à des questions très élaborées, comportant un grand nombre de contraintes. Alors que Google Assistant peut répondre à des “questions à 2 niveaux” – en répondant à une première question puis en retenant la réponse pour répondre à une seconde -, Viv peut répondre aux 2 questions contenues en une seule. Exemple : “quelle est la population de la ville où est né Abraham Lincoln ?”, qui contient la question “où est né Abraham Lincoln” et “quelle est la population de cette ville”.

Viv décompose chaque phrase prononcée par l’utilisateur, et identifie ses élements (temporalité, point d’intérêt, nature de la requête). Il décode les instructions formulées en valeur relative, plutôt qu’en valeur absolue, en une dizaine de millisecondes. Autre exemple de question à la formulation complexe, qui nécessite à l’IA de franchir 44 étapes, mais décryptée par Viv avec succès : “Fera-t-il plus chaud que 25 degrés près du Golden Gate Bridge après 17 heures, après-demain?”

imagea

 

Viv, “vraiment intelligente”, récupère aussi une multitude d’informations contextuelles, notamment sur Internet. Il contourne les applications mobiles, ne s’adressant pas à elles, mais directement aux services tiers. Puis il crée des “bases de connaissance”, afin de proposer à l’utilisateur le service qui répond à ses besoins. Il va ainsi plus loin que les simples requêtes de type “recherches en ligne” de ses concurrents : il est possible d’envoyer de l’argent à un ami (“envoie 30 euros à Julien”) via la plate-forme Venmo (filiale de Paypal), ou encore de réserver un hôtel après quelques instructions vocales. Comme l’a présenté Dag Kittlaus lors du TechCrunch Disrupt NY, en mai 2016, l’IA permet de commander des fleurs, en proposant d’acheter celles que le destinataire (par exemple, votre mère) préfère, à partir d’une boutique partenaire, et en récupérant l’adresse finale dans le carnet d’adresses.

Autre exemple : si vous dites à Viv que vous avez trop bu, le service récupérera les données GPS du bar où vous vous trouvez, et contactera une compagnie de taxis pour vous. En bref, il comprendra le contexte de votre requête et répondra à vos questions sans réponses pré-programmées, mais en les bâtissant lui-même, en développant lui-même le programme lui permettant de trouver la réponse.

Si l’utilisateur demande “quel est le meilleur siège disponible sur le Virgin 351 de mercredi prochain ?”, Viv se rendra sur une plateforme de données de vol, Travelport (utilisé par Expedia), et trouvera 28 sièges disponibles. Sur SeatGuru.com, il ira ensuite se renseigner sur la répartition des sièges de chaque vol, puis ira regarder les préférences personnelles que l’utilisateur lui aura appris (par exemple, le fait de préférer être côté hublot), afin de lui proposer le meilleur vol et le meilleur siège.

La plateforme au centre de vos objets connectés

Grâce au deep learning (apprentissage profond), Viv s’améliore au fur et à mesure des interactions, afin de rendre ses réponses toujours plus pertinentes. Ses créateurs, Dag Kittlaus et Adam Cheyer, l’envisagent comme une plateforme, communiquant avec des services tiers et avec tout objet connecté. Plutôt que de rester un assistant personnel “enfermé” dans un monde restreint, Viv pourra être utilisé sur smartphone (iOS uniquement, pour l’instant), mais aussi sur des appareils domotiques (frigo, thermostat, réveil, etc.), ou avec une voiture intelligente.

C’est la grande différence entre Viv et ses concurrents (Siri, Google Assistant, Cortana) : l’assistant vocal a pour ambition d’infiltrer tous vos terminaux, sans se limiter à une marque ou à un type d’appareil. Crédo de Viv : “Intelligence becomes a utility”. L’IA se présente en outre comme une “interface” entre l’utilisateur et une multitude de services en ligne tiers. Sachant tout de vous, car vous lui confierez des informations relatives à vos “préférences” (et choisirez ce que vous voudrez que l’IA “oublie”), Viv permettra aux entreprises d’avoir un rapport direct et privilégié avec vous, au-delà de la pub ciblée actuellement pratiquée sur le Web.

Même si l’IA est encore en cours de peaufinage, ses fondateurs ayant besoin du concours des développeurs pour mettre en place des API, Kittlaus et Cheyer annoncent Viv comme la future “interface intelligente pour tout faire”, à utiliser pour “discuter” avec tout appareil sans avoir besoin d’installer d’applications supplémentaires. Des collaborations seraient envisagées avec des fabriquants, afin d’intégrer Viv à leurs appareils connectés, et de lancer l’IA d’ici la fin de l’année 2016. Des partenariats ont aussi été noués avec des services tiers, comme Uber ou Zocdoc, qui permet de prendre des rendez-vous avec un médecin – ou encore avec les sites de e-commerce WineStore et FindWine, ce qui vous permettra par exemple de demander à Viv d’acheter une bouteille de vin sur la route vous menant chez votre frère, afin d’accompagner un plat de lasagnes.

1-OKvmyWM9fiYR9r6gqW39VA (1)

Le gros risque qui pèse sur Viv, c’est finalement la prédominance de certains cybermarchands parmi les futurs services phares qui communiqueront avec lui. Mark Gabel, “chercheur en chef” dans l’équipe de Viv, reconnait ainsi dans Esquire, que “ les sites existants comme OpenTable domineront probablement les réservations dans les restaurants, les sociétés comme Yelp auront une avance énorme sur les nouveaux arrivants”. Il explique que le défi futur sera de “préserver la personnalisation des marques”. Car, explique Gabel, “on n’a pas vraiment envie que ça devienne comme en Russie Soviétique : achetez-moi la voiture officielle de l’État. Réservez-moi la chambre d’hôtel officielle de l’État.”

Quoi qu’il en soit, Viv ringardisera-t-il Siri et Alexa, l’IA d’Amazon en devenant le “standard de l’industrie des objets connectés” ?  Bien que “neutre” et non-affilié à un quelconque géant du Web, Viv, plateforme ouverte à tous, attire les convoitises : Marc Zuckerberg (Facebook) et Jack Dorsey (Twitter) ont déjà investi dans l’IA en tant qu’appuis financiers. Facebook et Google auraient déjà fait une offre d’achat, selon le Washington Post, mais pas question pour Kittlaus et Cheyer de vendre leur IA : leur objectif est de proposer leur service sous licence aux fabriquants et aux fournisseurs de services.

Par Fabien Soyez

REACH : un deuxième bilan plutôt positif

L’Agence européenne des produits chimiques, l’ECHA, a présenté son deuxième rapport quinquennal sur la mise en place des règlements REACH et CLP : un bilan qu’elle estime plutôt positif, soulignant un usage plus sûr des produits chimiques. Cependant, l’Agence insiste sur le fait que la qualité des enregistrements et la classification des données soumises par les entreprises peut encore beaucoup s’améliorer.

Une information désormais disponible

Pour Jukka Malm, directeur exécutif adjoint de l’ECHA, l’avènement de REACH marque une avancée majeure vers un meilleur management de la sécurité des produits chimiques. Comme il le fait remarqué : « on en a jamais su autant sur les produits chimiques en Europe et cette information est accessible à tous via le site de l’Echa ». Une information qui a permis aux entreprises de s’interroger sur l’emploi des substances chimiques et leurs risques, de chercher des alternatives ou des moyens d’en limiter les effets nocifs. Une information qui permet aussi aux autres acteurs, institutions, associations de disposer de données fiables pour jouer leur rôle de citoyens.

Des lacunes dans les enregistrements

Mais, souligne Jukka Malm, « nous attendons encore des entreprises qu’elles soient plus pro-actives et qu’elles mettent à jour les informations sur les substances lorsqu’elles en ont. » En outre, insiste le rapport, la qualité des informations soumises est encore insuffisantes, parfois pas assez fiable ou compréhensible. Et il faut alors que l’Echa fasse un rappel aux entreprises pour finir par obtenir des données exploitables. L’Agence encourage les pays membres à rappeler les obligations des entreprises en matière de mise à jour des informations. Par ailleurs, le défi posé par les nanomatériaux n’est pas encore réglé. Les entreprises gardent pour l’instant les informations concernant les nanoformes par devers elles. L’Echa appelle la Commission européenne à clarifier les exigences légales en la matière pour que les entreprises soumettent les données dont elles disposent.

Articuler les différentes législations

La cohérence et l’articulation entre les différentes législations (européennes et nationales) sur les produits chimiques reste une autre difficulté de taille pour optimiser l’efficacité de REACH et de CLP. L’Echa note par exemple, que les entreprises fournissent des classifications contradictoires sur certaines substances. Elle conseille la mise en place d’un partage de données et d’un accord entre les entreprises à l’instar des SIEF de REACH.

L’économie circulaire appelle plus d’informations

Dans le contexte de la mise en place de plus en plus extensive de modèles d’économie circulaire, l’information concernant la composition des produits finis sur le marché est vraiment essentielle. Notamment pour des substances extrêmement préoccupantes. L’ECHA appelle les entreprises à notifier la présence de telles substances dans leurs produits comme cela est prévu par le règlement. Une action que très peu d’entreprises ont pour l’instant effectuée.

2018… et après ?

Pendant les premières années, l’ECHA a ressemblé à une simple chambre d’enregistrement. Mais cette phase est sur le point de s’achever et le rapport montre que, désormais, l’Agence est passée d’une organisation de recueil d’information à une organisation du management de la connaissance dans le but d’identifier les risques et les mesures possibles pour mieux gérer les substances chimiques. L’année 2018 marquera la fin de la mise en place des procédures d’enregistrements avec la deadline pour les substances utilisées en petites quantité. Mais l’agence européenne rappelle que ce n’est pas la fin du voyage : les informations doivent rester vivantes et Reach devra réussir à intégrer les défis posés par les nanomatériaux, les perturbateurs endocriniens et les effets cocktails liés aux mélanges des produits.

REACH en chiffres

  • Plus de 120 000 produits renseignés dans la base de l’ECHA.
  • Sur le site de l’ECHA : 54000 dossiers d’enregistrements disponibles pour 14000 substances.
  • 168 substances extrêmement préoccupantes identifiées : 31 sous un régime d’autorisation préalable pour leur usage ; 20 placées sous restrictions d’usage
  • 10 000 entreprises ont enregistré des produits chimiques
  • 10 000 ont renseigné la classification de leurs produits chimiques.

Par Sophie Hoguin

Les TIC réduiront-elles les émissions européennes ?

Selon les prévisions de BT, l’un des principaux fournisseurs mondiaux de solutions et de services de communication, les Technologies de l’Information et de la Communication (TIC) pourraient réduire les émissions de CO2 de l’Union Européenne (UE) de plus de 1,5 gigatonne (Gt) en 2030. Cette économie représente 37 % des émissions totales de l’UE en 2012 et équivaut à près de 19 fois l’empreinte carbone attendue pour ce secteur en Europe en 2030.

Le rapport de BT se penche sur le potentiel spécifique de 12 applications des TIC. Il s’intéresse ainsi à l’ensemble des solutions intelligentes : la logistique, la production, les bâtiments, l’éclairage, l’agriculture, la route et le véhicule connectés. Sans oublier l’e-commerce, l’e-learning l’e-travail, l’e-santé et l’e-banque. Il prévoit ainsi un potentiel de baisse de près de 0,48 Gt pour la production industrielle intelligente, 0,34 Gt pour les solutions énergétiques intelligentes, 0,31 Gt pour les bâtiments, 0,17 Gt pour la mobilité et la logistique, 0,11 Gt pour l’alimentation, 0,06 Gt pour le travail et le business, 0,05 Gt pour la santé et 0,01 Gt pour l’éducation. La production intelligente, l’énergie et les bâtiments intelligents sont donc les 3 applications les plus prometteuses, totalisant 74% du potentiel de réduction.

Par ailleurs, le secteur des TIC pourrait générer 678 milliards d’euros de nouveaux revenus et contribuer à réaliser 643 milliards d’euros d’économies. En France, la contribution économique des TIC pourrait dépasser 191 milliards d’euros – avec la réduction des émissions de carbone qu’elles génèrent – contre 117 milliards d’euros en Italie et 113 milliards d’euros en Espagne.

« BT considère que les TIC peuvent permettre de réduire rapidement et de façon importante les émissions de carbone en contribuant à la transformation numérique des pays et à des gains d’efficacité énergétique à grande échelle », estime  Larry Stone, président Government & Public Affairs de BT. « En intensifiant le recours aux Nouvelles Technologies, l’Union Européenne augmenterait ses chances de tenir ses objectifs de réduction des émissions de carbone », prévient-il.

L’Europe s’est engagé à réduire d’au moins 40 % ses émissions de CO2 d’ici 2030 par rapport à 1990. A côté du stockage du carbone et du développement des énergies renouvelables, les TIC pourraient permettre d’atteindre cet objectif. Plus largement, les TIC pourraient être un catalyseur des réductions mondiales de carbone. Selon le rapport SMARTer2030, publié par GeSi en décembre 2015, les TIC ont le potentiel de réduire de 20 % les émissions mondiales de carbone en 2030, les maintenant à leur niveau de 2015.

Par Matthieu Combe, journaliste scientifique

Le Portugal 100% renouvelable pendant 4 jours ?

The Guardian et The Independant, 20Minutes.fr, Klimaretter ou MondoPortugues, ont fait écho de cette nouvelle : le Portugal n’aurait eu aucun recours aux énergies fossiles durant 4 jours.

Or des centrales thermiques portugaises ont bien fonctionné pendant cette période. Les MWh thermiques correspondants ont été dissimulés dans l’électricité exportée, notamment vers la France, via les liaisons électriques établies par l’hexagone avec la péninsule ibérique à travers la chaîne pyrénéenne.

tab1

Selon le centre d’information de REN (« Redes Energéticas Nacionais », Réseaux Energétiques Nationaux), dont fait écho le site Lifegate.com, 632,7 GWh ont été consommé par le Portugal durant les 4 jours en question. Et 153,7 GWh ont été exportés, soit 19,5% de l’électricité totale produite (solde exportateur net).

On mesure ici l’importance des interconnexions électriques entre régions et pays, outil de flexibilité particulièrement utile pour parvenir à de hauts niveaux de renouvelables. Une situation que l’on retrouve aussi au Danemark qui est électriquement relié à la Scandinavie et à l’Allemagne.

97%, et non pas 100%

Le 7 mai la production thermique a été quasi-nulle. Le 8 mai complètement nulle. Donc oui, pendant une journée entière le Portugal a fonctionné sans brûler aucun combustible fossile, et uniquement avec les EnR. Mais pas 4 jours. Le 9 mai la production thermique a été de 5,6 GWh (3,4%).  Idem le 10 mai avec 5,6 GWh (3,0%). Et le 11 mai, 22,2 GWh (12,4%).

Globalement la part thermique du 7 au 10 mai (4 jours) a été de 1,6%. Et de 3,8%  du 7 au 11 mai (5 jours). Si l’on prend la période de 107 heures retenue par REN (de 6:45 du matin le 7 mai à 17:45 le 11 mai), alors on obtient une valeur d’environ 3%.

tab2

Autrement dit 97% de l’électricité portugaise a été d’origine renouvelable durant cette période. Et 3% d’origine fossile, à base de charbon et de gaz naturel. C’est remarquable. Mais ce n’est pas 100%.  Considérer que l’intégralité des électrons sortant des centrales thermiques fossiles ont été expulsés vers l’étranger est un peu grossier.

Les centrales thermiques sont utiles pour parvenir à de très hauts niveaux d’EnR. Bien sûr les centrales thermiques  seront dans le futur remplacées par tout un panel d’outil de flexibilité disponibles dès aujourd’hui, dont les solutions de stockage à base de batteries. Mais en attendant, en transition, elles sont vitales. Les groupes énergétiques leaders dans le secteur des centrales à gaz ont donc une carte majeure à jouer dans la révolution énergétique en cours. Le gaz, par ailleurs beaucoup moins émetteur en CO2 que le charbon et que le fioul, est le meilleur allié des EnR.

tab3

Quelle a été la contribution de chaque filière EnR durant ces 4 jours historiques ? 45% d’éolien, 45% d’hydro, les 10% restants partagés entre la bioélectricité et le solaire selon le REN.  Le Portugal démontre ainsi concrètement qu’il est possible d’atteindre presque 50% d’EnR fluctuantes (solaro-éolien) sans poser de problèmes de contrôle de la fréquence et de la tension électrique. C’est-à-dire de stabilité du réseau électrique. Les centrales hydroélectriques et bioélectriques portugaises permettent d’offrir un socle de puissance permettant de réaliser cette performance.

Les EnR ont répondu à 95,5% de la demande électrique portugaise au cours de l’ensemble du mois d’avril 2016 (30 jours).  En 2005 seulement 16% de l’électricité de ce pays du littoral atlantique était renouvelable, un niveau aussi modeste que celui observé aujourd’hui en France. Le seuil des 50% a été franchit dès 2010 selon le site allemand Energie transition, The German Energiewende. Soit seulement 5 ans après. La transition énergétique, quand on a vraiment la volonté de la réaliser, peut ainsi être très rapide. La STEP (Station de Transfert d’Energie par Pompage) d’Alqueva II, équipées par le français Alstom, a été inaugurée en 2013.  En 2014, le Portugal a atteint 63% d’EnR.

Début 2016 le pays du Fado comptait une puissance installée de 6024 MW d’hydraulique (dont 5360 MW de grands barrages), 5033 MW d’éolien, 566 MW de centrale bioélectriques, 474 MW de solaire PV, et 29 MW de centrales géothermiques. De nouveaux records seront vraisemblablement battus cette année.

im4

Vers 50% de solaro-éolien en France ?

La densité de population au Portugal (114 habitants au kilomètre-carré) est identique à celle de la France (112). En France l’hydroélectricité peut répondre à 15% de la demande électrique nationale, et la bioélectricité 10%. En ajoutant 25% d’électricité à base de gaz naturel il est possible d’intégrer 50% d’éolien et de solaire.

En ajoutant le marélien, une énergie marine à haute prévisibilité et à potentiel important en France, ainsi que de l’électro-méthane (obtenu par électrolyse puis méthanation) alors la part du gaz fossile peut être fortement réduite. Le gaz naturel est l’énergie fossile la moins sale. Un mix électrique composé par exemple de 90% d’EnR et de 10% de gaz naturel peut être considéré comme très propre. D’ici que les 75% d’EnR soient atteints l’efficacité et le coût de la technologie power-to-gas aura probablement baissé et son efficacité augmenté.  Une perspective  100% EnR est ainsi tout à fait rationnelle.

Une étude réalisée par la R&D d’EDF,  entreprise qui a pourtant des intérêts directs dans le business nucléaire, conclue d’ailleurs que parvenir à 40% d’EnR variables est tout à fait possible dans l’Union Européenne. En ajoutant l’hydroélectricité, la bioélectricité et les autres EnR (géothermie et énergies marines) les ¾ de l’électricité européenne peuvent être d’origine renouvelable. Un bon socle de centrales à gaz  garantira une stabilité du réseau : les centrales nucléaires, qui sont beaucoup moins flexibles, ne sont pas indispensables.

Des études publiées par des scientifiques  indépendants dans des revues scientifiques à comité de lecture estiment que l’on peut aller bien au-delà des 40% d’EnR variables. Un rapport gouvernemental de prospective piloté par l’ADEME, publication décriée dans le milieu pro-nucléaire, parvient à la conclusion qu’il est possible d’intégrer 80% de solaro-éolien en France (63 % d’éolien terrestre et en mer, 17 % de solaire). Des travaux menés dans de nombreux pays du monde, des USA à la Chine parviennent à de résultats comparables : de très hauts niveaux d’EnR sont possibles.

Des chercheurs de Stanford University estiment que la France peut répondre à 100% de ses besoins énergétiques (y compris transport et chaleur) uniquement avec le trio Wind Water Sun. Autrement dit sans aucune combustion, pas même celle de la biomasse (source d’émissions polluantes, dont notamment le carbone-suie).

Ceci sans aucun effort, c’est-à-dire sans intégrer le volet « sobriété » des études de l’association française négaWatt. Une Solar « Electron Economy », formule visionnaire du physicien suisse Ulf Bossel, est en effet intrinsèquement efficiente. Un véhicule électrique est par exemple 3 à 4 fois plus efficace qu’une voiture thermique équivalente.

Vers une révolution solaire mondiale ?

Au premier quadrimestre de 2016 pas moins de 64% des nouvelles puissances installées aux USA ont été photovoltaïques. Et 33% éoliennes. Le charbon et le gaz n’ont pesé qu’1%. Et le nucléaire 0%.

Selon les dernières statistiques mondiales de BP sur l’énergie  (rapport qui vient de paraître) la production électrique solaire PV pèse à présent un dixième de celle du nucléaire (253 TWh versus 2577 TWh).

Alors que la production d’électricité nucléaire n’a augmenté que de 34 TWh, celle des énergies renouvelables a augmenté de 252 TWh, sept fois plus.  A ce rythme, le solaire, à lui seul, dépassera le nucléaire vers 2025 au niveau mondial, malgré tous les réacteurs nucléaires en construction à ce jour et le redémarrage d’une partie des réacteurs japonais. Dans moins de 10 ans.

Le nucléaire mondial ne produit pas plus d’électricité en 2015 qu’il y a quinze ans (2.582 TWh en l’an 2000). Ceci alors que l’hydraulique en produit 48% de plus (2.662 TWh en 2000) et les autres énergies renouvelables sept fois plus (229 TWh en 2000).

Le solaire, devenu très compétitif et dont la ressource, gratuite, est illimitée, attire naturellement les géants mondiaux de l’énergie. Dont les français Total et Engie (ex-GDF Suez) qui ont entamé un changement stratégique profond.

Engie a phagocyté Solairedirect en 2015, tout en préservant son esprit de start-up. Et ce Gargantua multiplie les acquisitions dans le domaine du digital, secteur clé dans la perspective d’un futur à hauts niveaux d’EnR.

Dès 2011 Total a pris 60 % du capital de SunPower, pour 1,38 milliard de dollars. En mai 2016 il a mis un milliard d’euros pour acheter le champion tricolore de fabrication de batteries, Saft.

De son côté EDF, plombé par ses actifs nucléaires, est en train de vivre le syndrome de Kodak.

Olivier Daniélo

Le bio français en fort développement !

Fin 2015, 1,375 million d’hectares étaient cultivés selon les principes de l’agriculture biologique en France. Une hausse de 23 % par rapport à 2014 ! 1,063 million d’hectares avaient alors déjà obtenu la certification, alors que 312 500 hectares étaient en conversion, dont environ 226 000 hectares en première année. Les surfaces en première année de conversion ont triplé en 2015 par rapport à l’année précédente : cette amplification de la dynamique de conversion  témoigne d’un intérêt certain de la part du monde agricole, dans le contexte de crise qu’il traverse. Au vu des surfaces en conversion fin 2015, les surfaces certifiées bio devraient augmenter de plus de 8 % en 2016,et de plus de 20 % en 2017et répondre ainsi au développement du marché.

Si les surfaces augmentent, le nombre de fermes engagées dans le bio également Plus de 200 fermes ont reçu leur certification bio chaque mois en 2015. Ainsi, entre 2014 et 2015, le nombre de fermes a augmenté de 9 %, soit un rythme deux fois plus élevé qu’entre 2013 et 2014. Fin 2015, 28 884 fermes bio étaient recensées, ce qui représente 6,5 % des exploitations agricoles françaises. On dénombrait 13 528 transformateurs, distributeurs, importateurs et exportateurs (+5 %) et 42 412 opérateurs exerçant une activité bio (+8%).

La tendance se poursuit début 2016. Plus de 3 200 producteurs se sont engagés dans une démarche d’installation ou de conversion de leur exploitation en bio entre le 1er janvier et le 15 mai 2016. Cela représente 11 % des fermes déjà engagées. Toutes les filières sont concernées par la dynamique de conversions en 2016 et plus particulièrement les élevages bovins laitiers, l’élevage allaitant et les exploitations de grandes cultures. Le secteur viticole poursuit aussi son développement avec plus de 150 nouveaux domaines engagés au premier semestre 2016.

A lire aussi :

Par Matthieu Combe, journaliste scientifique

Technologies 2020 : 47 technologies clés pour l’avenir

Devenue un document de référence pour les acteurs industriels, économiques ou académiques, l’étude prospective sur les technologies clés vient compléter cette fois un ensemble de décisions ou de programmations stratégiques nationales ou européennes tels que le programme d’investissements d’avenir (PIA), le plan Usine  ou encore le fonds européen d’investissements. Cette 5ème édition, se veut encore plus ambitieuse que les précédentes. En effet, Technologies 2020 est un opus de 640 pages, qui veut se poser en guide opérationnel pour orienter les stratégies de R&D des entreprises.

Neuf domaines, 47 technologies

Le document est construit autour de 9 domaines du développement économique : alimentation, santé et bien-être, sécurité, environnement, habitat, énergie, mobilité, numérique, loisirs et culture. Pour chacun de ces domaines un ensemble de technologies clés, spécifiques ou transversales sont listées et re-contextualisées via une analyse du marché international, de la réglementation et des différents enjeux sociétaux liés à certaines innovations. Car, comme le relève Alain Bugat, président de l’académie des technologies, « les technologies n’ont pas de frontière et nos entreprises doivent intégrer cette dimension mondiale des marchés. Le succès d’une innovation réside dans une combinaison d’approches Technology push et Market driven. Trop souvent nos entreprises se focalisent sur la seule approche scientifique et technologique et passent à côté de marchés porteurs pour avoir considéré tardivement les enjeux de marché. »

Le numérique porte les technologies transversales

Cette étude est fortement marquée par la présence des technologies liées au numérique tels que les capteurs, la robotique, les objets connectés ou le traitement des données. Mais l’impact de la révolution numérique se lit aussi dans l’évolution économique de nombreux secteurs où l’on assiste à l’affaiblissement de certains intermédiaires (« uberisation de l’économie »). Le particulier commande un produit, un service via une plate-forme informatique mettant en relation directe d’autres particuliers, des fabricants etc. Le numérique peut aussi faire évoluer la conception même du produit. Alain Bugat cite ainsi l’exemple de l’automobile où la voiture, autrefois pensée autour d’une motorisation, pourrait être pensée autour d’un système d’exploitation à l’instar de la Google Car ou de l’Apple Car.

Énergie, environnement sont les autres porteurs

Après le numérique, l’énergie et l’environnement sont les principaux domaines porteurs des technologies clés identifiées par cette étude. On y trouvera par exemple les technologies de recyclabilité des matériaux, toutes les énergies alternatives, les procédés de chimie verte ou encore l’habitat à haute qualité environnementale et la dépollution des sols. Le canevas ainsi dessiné, laisse entrevoir une société où les relations entre acteurs économiques et sociaux sont plus horizontales (moins hiérarchisées), dans un idéal construit autour des préceptes du développement durable et qui fait la part belle à la maîtrise des énergies et de la sphère biologique (contrôle des plantes et de la biodiversité, contrôle du corps humain).

Par Sophie Hoguin

La transformation digitale de l’industrie: une aubaine pour les pirates

Selon une étude de PwC, menée entre novembre 2015 et janvier 2016 auprès de plus de 2 000 cadres dirigeants d’entreprises industrielles dans 26 pays, dont 101 en France, le digital va envahir les usines.

À l’échelle mondiale, d’ici 2020, les entreprises issues des secteurs industriels étudiés (industries manufacturières, ingénierie et construction, chimie, électronique, transports & logistique, automobile, métaux, aéronautique & défense) investiraient quelque 907 milliards de dollars par an.

Cette transformation vers une « smart factory » vise à réaliser de nouveaux gains de compétitivité. Avec l’Usine 4.0, il s’agit donc de faire mieux avec des moyens toujours plus intelligents. « Le Big data et l’internet des objets sont indispensables à l’optimisation des flux logistiques et des chaines de production afin de satisfaire les clients et partenaires. L’analyse de ces importants volumes de données fournis par des capteurs permet par exemple d’accroître la maintenance prédictive. Enfin, l’industrie automobile et les raffineries peuvent faire d’importantes économies en s’équipant de capteurs capables d’alerter les équipes de maintenance et garantir une continuité de productivité accrue », explique Philippe Meleard, vice-président marketing & Communication chez Sogeti High Tech, filiale à 100 % du groupe Capgemini.

Mais cette même étude de PwC relève aussi l’inquiétude des dirigeants vis-à-vis des risques de cyberattaques. Principaux objectifs : le vole de données sensibles et la paralysie des outils de production. La situation est d’autant plus alarmante que ces attaques sont en constante progression avec une augmentation de 51 % en 2015.

Les techniques d’infection sont connus comme le rappelle la start-up française Sentryo spécialisée dans la sécurité des réseaux industriels. La première consiste à introduire un code malveillant via le système informatique de l’usine, pour accéder aux réseaux industriels. Outre les fameuses pièces jointes, il y a aussi les clés USB (ou un appareil mobile). C’est ce type de périphérique qui a été utilisé pour infecter une usine d’enrichissement d’uranium iranienne avec le virus Stuxnet.

L’infection par l’insertion d’une clé USB est efficace, car elle repose sur un ressort humain bien connu : la curiosité. En mars dernier, des chercheurs américains ont réparti près de 300 clés USB sur des campus en modifiant leur apparence (avec une étiquette « Confidentiel », avec le logo d’une société high-tech…). Résultat : 98 % des clés ont été récupérées par des passants et presque la moitié (45 %) ont été insérées et des fichiers ouverts.

La seconde technique consiste à identifier la cible sur le réseau industriel. Une fois à l’intérieur du système d’information, un virus va lancer des tests de « découverte ». « Cela se matérialisera, par exemple, par un envoi en masse de messages à toutes les adresses possibles du réseau, par le biais d’un scan. C’est ce que fait le Cheval de Troie BlackEnergy, malware qui serait à l’origine de l’attaque d’une centrale ukrainienne », indiquent les chercheurs de Sentryo.

Enfin, la dernière méthode possible consiste à lancer une attaque de « déni de service » (DoS – « Denial of Service »).  Une attaque DoS vise à rendre un serveur, un service ou une infrastructure indisponibles en surchargeant la bande passante du serveur, ou en accaparant ses ressources jusqu’à épuisement. Une multitude de requêtes sont envoyées simultanément, depuis de multiples points du Net. L’intensité de ce « tir croisé » rend le service instable, ou pire, indisponible.

Lancée contre une centrale électrique, par exemple, une attaque DoS se matérialise par un arrêt de la distribution d’électricité à la population, comme ce fut le cas en Ukraine fin 2015.

« Les techniques et méthodes des hackers ont évolué pour s’adapter au fonctionnement du monde industriel. Les protocoles ne sont plus inconnus, ce qui témoigne de la vulnérabilité de l’Internet industriel, autrefois univers clos et quasiment inaccessible.

Tout n’est pas négatif : des solutions existent, elles passent souvent par une meilleure connaissance de son propre système, des éléments à protéger et des risques », rassure-t-on chez Sentryo.

Philippe Richard

Lanceurs réutilisables: l’Inde, la France et le Japon rejoignent la course

Quelles que soient les options choisies, l’objectif reste partout le même : réduire les coûts d’accès à l’espace. Côté américain, SpaceX, après avoir essuyé plusieurs échecs, vient maintenant de faire atterrir le premier étage de sa fusée Falcon9, trois fois de suite en 7 semaines sur la mer (8 avril, 5 mai, 27 mai 2016). Des succès notables car ils ont montré que la récupération du premier étage était aussi possible pour de vrais lanceurs, après des mises en orbites géostationnaires, et pas seulement après un vol suborbital d’une petite fusée comme celle utilisée par l’américain Blue Origin.

Inde : premier vol réussi du démonstrateur

Le 23 mai dernier, l’agence spatiale indienne, l’ISRO a lancé une mini-navette spatiale en vol suborbital. Ce premier vol d’essai s’est passé sans encombre : attachée à un booster HS-9, RLV-TD s’est détachée de son lanceur à 56 km d’altitude pour atteindre seule 65 km avant de redescendre. L’engin a amerri à 450 km de son site de lancement en remplissant tous les objectifs de la mission. La récupération du véhicule n’était pas prévu à ce stade. Il inaugurait la première phase de test d’un programme de lanceur réutilisable indien. Ce premier vol visait à tester le système de navigation et l’amerrissage contrôlé, le fonctionnement de la propulsion et la protection thermique de l’engin. Les prochaines étapes testeront respectivement, l’atterrissage sur piste, comme le faisait les navettes spatiales américaines, puis un atterrissage en toute autonomie et le lancement via un statoréacteur supersonique. Cette dernière étape, notamment, est particulièrement ambitieuse, car la propulsion par statoréacteur supersonique n’a jamais été développé autrement que pour des prototypes. L’Inde pourrait, si elle réussit son pari, disposer d’ici 10 à 15 ans d’un avion orbital basé sur un superstatoréacteur, allié à un lanceur classique pour le deuxième étage qui mettrait des satellites en orbite.

France / Japon : ne pas rester hors course

Le CNES et l’agence spatiale japonaise Jaxa viennent de rendre publique leur collaboration autour d’un projet d’engin spatial réutilisable dont le premier démonstrateur pourrait décoller en 2020. Une coopération initiée à travers un contrat signé en octobre 2015 entre les deux agences. Pour l’instant, ce sont des études préliminaires qui sont en cours. Si elles s’avèrent concluantes, les partenaires espèrent présenter un démonstrateur dès 2020. Un véhicule spatial miniature de 10m de hauteur pour 1 m de diamètre qui ferait un vol suborbital à 100km avant de revenir sur Terre. Son nom a déjà été trouvé : Callisto. Le choix de ne pas passer par l’agence spatiale européenne, a notamment été dicté par des impératifs temporels. Un cadre multilatéral permet d’avancer plus rapidement et d’initier le projet tout de suite. D’autres partenaires sont attendus, tels que l’Allemagne via son agence spatiale DLR qui vient d’être associée au projet. Pour le moment, les Japonais disposent déjà d’un moteur cryogénique prévu pour la récupération et les Français mettront à disposition le centre spatial guyanais de Kourou pour les tirs. Mais, ils restent encore de nombreuses technologies à maîtriser. L’objectif du projet est clairement de disposer des technologies nécessaires à la récupération comme alternative économique au développement actuel d’Ariane 6 dont les coûts d’exploitation doivent être bien moindre que ceux d’Ariane 5.

Sophie Hoguin

La SNCF et le CNES sur les rails pour innover ensemble

L’utilisation des outils ou de technologies spatiales vers l’industrie ferroviaire est une des pistes pour accélérer le renouveau technologique que traverse actuellement ce secteur des transports terrestres. Bien sûr, comme le souligne Guillaume Pepy, président du directoire de la SNCF dans le communiqué de presse « Il faudra  adapter les technologies et en optimiser fortement les coûts – comme pour tout passage à une échelle industrielle». Mais la SNCF et le CNES sont tous deux persuadés que c’est possible.

Guillaume Pepy, président du directoire de SNCF et Jean-Yves Le Gall, président du CNES, le 27 mai 2016, au siège du CNES, à Paris. Crédits : CNES/S. Godefroy
Guillaume Pepy, président du directoire de SNCF et Jean-Yves Le Gall, président du CNES, le 27 mai 2016, au siège du CNES, à Paris.
Crédits : CNES/S. Godefroy

Déjà quatre pistes de recherche

La création officielle de ce comité de coordination « Rail et Espace » qui se réunira une fois par an vient formaliser un partenariat qui existe déjà de fait puisqu’une première réunion a eu lieu en février 2016 et a permis d’identifier quatre pistes principales de recherche :

  • la modernisation du système de contrôle-commande via l’utilisation du système européen de navigation Galileo
  • la connectivité à très haut débit des trains grâce aux nouveaux satellites en bande Ka
  • la sûreté du réseau ferré grâce à l’imagerie optique
  • l’utilisation de radars pour la surveillance des voies et de leurs abords

La réflexion plus précise sur ces thèmes se fera via des groupes de travail qui vont être mis en place.

L’expérience européenne est probante

Au niveau européen, l’ESA a déjà pris une telle initiative pour rendre le spatial utile au ferroviaire, via Space4Rail. Un programme de recherche qui comprend de nombreux projets dont plusieurs sont déjà en phase de démonstration. Ainsi, en novembre 2015, l’ESA annonçait que pour la première fois, des trains avaient pu être suivis par satellite via un système de télécommunication 3G/4G. Les essais ont été pratiqués en Sardaigne avec pour objectif de valider une méthode de suivi par satellites compatibles avec le système des gestion du trafic ferroviaire européen ERTMS (European railway traffic management system). L’avantage d’un tel système est par exemple de remplacer les coûteuses balises terrestres dédiées au réseau de télécommunications des trains par des points de contacts digitaux précisément géolocalisés. Une économie qui peut être décisive pour la sauvegarde de lignes isolées ou peu fréquentées.

Par Sophie Hoguin

Argentine : Imbroglio sur les tarifs d’électricité

Luis Arias, un juge de Buenos Aires, est devenu en quelques jours une personnalité. En suspendant la hausse des tarifs de l’électricité dans sa juridiction, il a créé un drôle d’imbroglio. Le magistrat a motivé sa décision par l’absence de concertation et de progressivité dans le rattrapage tarifaire décidé en février dernier par le gouvernement nouvellement élu. Considérant qu’élever les tarifs, jusqu’à 1 000% selon les cas, était d’une trop grande brutalité, le juge a estimé que « toute coupure d’électricité pour impayé est désormais interdite ».

Marche arrière

Faisant face à un mécontentement grandissant, le gouvernement de Mauricio Macri a décidé de revoir sa copie. Le ministre de l’Energie, Juan José Aranguren, très exposé dans cette crise, a reconnu que la hausse initiale « excédait la capacité de la population à pouvoir l’absorber ». Ecartant d’un revers de main une possible démission, il a en revanche annoncé un « plafond » de hausse fixé à 400% pour l’ensemble du pays et 500% pour les commerces, PME et hôtels. Pour protéger les plus gros consommateurs, une liste d’environ 400 entreprises électro-intensives a été élaborée par le ministère de l’Energie. Ces dernières auront droit à un rabais de 20% sur leur facture.

Pour rappel, les tarifs d’électricité en Argentine ont été maintenus artificiellement très bas pour des raisons populistes. Le nouveau président élu a décidé de mettre fin aux subventions du secteur afin d’attirer à nouveau les investissements étrangers, notamment dans les énergies renouvelables, vers lesquels le pays souhaite se tourner.

Romain Chicheportiche

Vie sur Terre, panaches martiens… le Soleil est en cause

High-altitude_plume_on_Mars_mediumIl y a plus de 4 milliards d’années, notre Soleil n’était encore qu’une toute jeune étoile. Bien froide comparée à aujourd’hui (-30% de luminosité) mais beaucoup plus agitée. Du coup, d’après les modèles bâtis sur l’observation de systèmes comparables, il n’aurait pas dû y avoir d’eau liquide sur Terre à cette période, mais seulement de la glace. Pourtant, les traces géologiques nous indiquent le contraire. Une énigme, baptisée le « paradoxe du jeune Soleil faible » (Faint Young Sun Paradox) dont des chercheurs de la Nasa pensent avoir trouvé la clé.

Bain continuel de tempêtes solaires

Pour ces scientifiques du Goddard Space Flight Center, dont l’étude est parue dans Nature Geoscience, ce sont les éruptions solaires – 10 à 50 millions de fois plus énergétiques que celles que nous observons actuellement et qui se produisaient plusieurs fois par jour – qui auraient induit un réchauffement planétaire suffisant pour, non seulement, maintenir l’eau à l’état liquide, mais aussi initier la création des molécules complexes de la vie comme l’ARN ou l’ADN.

Effet de serre et réactions en chaîne

A cette époque, on estime que le champ magnétique terrestre était bien plus faible et que l’atmosphère était composée à 90% de diazote (N2). Sous l’effet continuel de fortes rafales de vents solaires, les chercheurs pensent que des particules énergétiques de ces vents auraient réussi à atteindre l’atmosphère terrestre au niveau des pôles et auraient alors initié des réactions chimiques en chaîne :  séparation des atomes d’azote du diazote, séparation du CO2 en monoxyde de carbone et oxygène et réassemblage de l’azote et de l’oxygène en oxydes d’azote. Notamment en protoxyde d’azote, un gaz à effet de serre 300 fois plus puissant que le CO2. Dès lors, l’atmosphère de la Terre se serait suffisamment réchauffée pour laisser place à de grandes quantités d’eau liquide. Les chercheurs vont même plus loin dans leur explication. Ils supposent que l’énergie apportée par ces tempêtes aurait aussi été suffisante pour la formation des molécules à la base de la vie comme l’ARN ou l’ADN. Une explication qui pour autant laisse entière la magie de l’apparition de la vie et de son maintien, car l’équilibre qui a permis à la Terre de garder son atmosphère est complexe et fragile et cette dernière aurait tout aussi bien pu disparaître sous le bombardement solaire continu comme cela a été le cas sur Mars.

Les panaches de Mars expliqués

De temps en temps, l’atmosphère de Mars présente des panaches nuageux s’élevant à plus de 250 km d’altitude (contre 100 km habituellement). Les derniers observés datent respectivement de février 2015, avril 2012 et mai 1997. Jusqu’alors, mêmes si les scientifiques avaient émis de nombreuses hypothèses quant à leur formation, le mystère restait entier. Des scientifiques de l’institut suédois de sciences spatiales révèlent avoir trouvé une explication plausible dans le Journal of Geophysical Research : les explosions solaires en seraient la cause directe. Et notamment les éjections de masse coronale (CME). Ces explosions magnétiques de la couronne du Soleil projettent un plasma ionisé dans l’espace et transportent des milliards de tonnes de matière, créant sur Terre, en interagissant avec le champ magnétique terrestre, des aurores boréales ou des orages géomagnétiques. Sur Mars, ces éjections perturberaient l’ionosphère de la planète et permettraient aux poussières et grains de glace de la haute atmosphère martienne d’être éjectés plus haut que d’habitude, leur donnant l’aspect de panaches nuageux.

Par Sophie Hoguin

80% de renouvelables ne poseront aucun problème au réseau électrique allemand

Le facteur de charge du parc électro-nucléaire français a été de 75,2 % durant l’année 2015. Une production annuelle de 416,8 TWh pour une puissance de 63,13 GW, selon RTE (2015). Celui de l’éolien s’est élevé à 24,3% (2129 heures équivalent pleine puissance), toujours selon RTE. En région PACA, il a atteint 16,8% (niveau le plus élevé du pays) pour le solaire PV, contre 10,8% en Ile de France (niveau le plus faible). Soit une valeur moyenne entre ces deux extrêmes de 13,8% (1208 heures équivalent pleine puissance).

Certains commentateurs d’ancienne école, notamment dans le milieu pro-nucléaire, s’empressent alors de conclure que dépasser un quart d’éolien dans un mix électrique serait impossible. Et que le nucléaire serait donc incontournable dans une perspective de limitation du recours aux combustibles fossiles nuisibles sur le plan climatique.  Il s’agit d’une erreur majeure d’un point de vue théorique. Mais aussi d’un point de vue concret compte-tenu du déphasage avec ce qui est observé dans le monde réel.

Flexibilité

Dans le cadre d’une longue interview pour le média allemand Tagesspiegel, Boris Schucht, directeur de l’opérateur du réseau 50Hertz, siffle la fin de la récré: « 80% de renouvelables ce n’est pas un problème » affirme sans ambages ce spécialiste. 50Hz n’est pas un petit joueur. Il  dessert 18 millions de personnes. C’est l’un des réseaux électriques les plus performants d’Europe. « 50Hz coordonne les interactions de toutes les parties prenantes du marché de l’électricité dans les états fédéraux de Berlin, Brandenbourg, Hambourg, Mecklenbourg-Poméranie occidentale, Saxe, Saxe-Anhalt et Thuringe » peut-on lire sur le site officiel de l’opérateur.

« Notre zone de réseau couvre environ un tiers de l’Allemagne (au nord et à l’est du pays ndlr). L’année dernière, la part des énergies renouvelables dans la consommation d’électricité a été calculée à 49,5% » rappelle Boris Schucht. Voilà des données non pas théoriques mais issues du terrain, du monde réel. « Il y a quelques mythes dans l’industrie de l’énergie » explique avec pédagogie l’expert. «  L’un d’eux est l’idée que l’intégration des énergies renouvelables requiert immédiatement davantage de flexibilité dans le système. Ceci est un mythe. Nous avons dès à présent en place dans le système beaucoup plus de flexibilité que nécessaire. » L’Allemagne est la première puissance industrielle européenne. « Et nous avons aussi un énorme potentiel supplémentaire » ajoute Monsieur 50Hz.

Boris Schucht rappelle aussi que durant l’éclipse solaire du 20 mars 2015 une montée en puissance de 14 000 mégawatts a été réalisée en 45 minutes. Ce qui illustre la robustesse du système électrique allemand et sa capacité à faire face aux fluctuations solaires (Lire à ce sujet sur Techniques de l’Ingénieur:  Eclipse solaire: l’Allemagne passe avec succès le stress-test de sa transition énergétique).

1

Du pays de Goethe à celui de Lao Tseu

Le directeur de la State Grid of China, Liu Zhenya, tient exactement le même discours que Boris Schucht.  Le site australien RenewEconomy, spécialisé en énergie vraiment durables, dans un article intitulé « “Base load” power: a myth used to defend the fossil fuel industry » a rapporté son analyse. Pour cet expert chinois « le seul obstacle est le paysage mental » de ceux dont la doctrine est archaïque.  « Il n’y a pas du tout de défi technique ».

Comme le souligne le professeur Mark Jacobson, directeur du Département énergie et atmosphère de l’Université Stanford, le concept de « baseload » (production en base) est en réalité utilisé par les lobbyistes des énergies sales. L’expert australien Mark Diesendorf, spécialiste des énergies durables et professeur à l’Université de Sydney, a publié le 10 mars 2016 un article richement documenté sur ce thème : « Dispelling the nuclear ‘baseload’ myth: nothing renewables can’t do better ! »

Précisons  qu’il serait absurde de considérer de manière séparée le solaire PV et l’éolien, ce que font bien souvent les solaro-sceptiques défenseurs de l’atome, étant donné que ces deux filières vraiment durables sont parfaitement complémentaires à l’échelle saisonnière (voir par exemple ci-dessous -cliquer sur l’image pour l’agrandir- la diapo n°49 de ce document réalisé par Bernard Chabot, expert et formateur en EnR).

3

Le solaro-éolien, appuyé d’outils de flexibilité dont le stockage (STEP, batteries, power-to-gas) mais aussi les réseaux électriques et la gestion de la demande (comme le pilotage des ballons d’eau chaude ou de la charge des véhicules électriques), peut se substituer aux réacteurs nucléaires en France, et ceci n’importe quel mois de l’année. L’ADEME, notamment en collaboration avec Artelys (fondé par des anciens d’EDF) et Mines Paristech,  a d’ailleurs publié une très intéressante étude à ce sujet. Les conclusions de cette agence d’état ont été résumées avec talent par Pierre Le Hir, journaliste au Monde, dans l’article « En France, 100 % d’électricité renouvelable n’est pas plus coûteux que le nucléaire ».

L’Agence Internationale de l’Energie elle-même, pourtant très conservatrice, a souligné qu’intégrer de hauts niveaux de solaire et d’éolien n’est pas un problème.

Avec Engie, « le soleil éclaire maintenant le jour et la nuit »

A la question posée par un journaliste de l’Usine Nouvelle (« L’Ademe a révélé un scénario d’une France 100 % renouvelable en 2050. Y croyez-vous ? »), Isabelle Kocher, Agrégée de Sciences physiques, ingénieur des Mines et  directrice d’Engie, le numéro 1 mondial de l’énergie, a répondu : « Oui, j’y crois, à condition de mettre en place un écosystème qui le permette. Il ne faut pas que les renouvelables créent une volatilité insupportable sur les prix et des problèmes d’intermittence. Cela demande de développer des solutions de stockage. Si le stockage suit des courbes d’évolution technologique et de réduction des coûts aussi rapides que celle du photovoltaïque, il sera prochainement compétitif à toutes les échelles. En ajoutant des outils de gaz renouvelable, le scénario 100 % renouvelable est peut-être crédible à l’horizon 2050. »
2

Jean Fluchère, lui, manifestement, n’y croit pas. En partie à cause des écolos (des employés de l’ADEME ?) qui sévissent dans notre pays : « il est inutile de songer à faire de nouvelles STEP dans un pays où une horde de chevelus ont empêché la réalisation de la flaque d’eau de Sivens » estime cet ex-directeur régional d’EDF et ex-directeur de la centrale nucléaire du Bugey en région Rhônes-Alpes suite à cet article publié par Techniques-ingénieur.fr et signé Mathieu Combe, journaliste scientifique et fondateur du site Natura-Sciences.  Une STEP (Station de Transfert d’Energie par Pompage), intégrant solaire et éolien, va être construite en Bretagne sous la houlette de la société Tri’Nerzh. Il y a pourtant  des Druides aux cheveux à la Samson chez les Bretons.

En cas de problème François Lempérière, ex-président du Comité Français des Grands Barrages, propose de les construire en mer. On peut aussi mettre en place un câble HVDC sous-marin entre la France et la Norvège et tirer profit de l’énorme réservoir hydroélectrique scandinave. Denis Payre, fondateur de Man & People First et de Nous citoyens propose de son côté des micro-STEP urbaines intégrées aux bâtiments.

La capitalisation boursière d’Engie est 50% supérieure à la somme de celles d’EDF et d’AREVA. Fort de 155.000 salariés ce géant français a placé le solaire, les gaz verts et le digital au cœur de sa nouvelle stratégie. A l’occasion du Smart Energies Summit Isabelle Kocher a expliqué le 1er juin 2016 sa vision dans le cadre d’une excellente conférence :

Jean Fluchère a également exprimé son solaro-scepticisme dans un commentaire suite à un article publié récemment sur Techniques-ingénieur.fr : Le solaire PV génère-t-il vraiment davantage d’emplois que le nouveau nucléaire EPR ?.  Ces interventions ont un contenu similaire à celles d’Alain Marcadé, ex-directeur de la centrale de Saint-Alban-du-Rhône (Lire sur Techniques-ingénieur.fr : EnR en France : un ex-directeur de centrale nucléaire et un expert de l’Agence Internationale de l’Energie livrent leurs analyses).

Jacques Treiner, professeur à Sciences Po, spécialiste en fluides quantiques, membre de la très pro-nucléaire association « Sauvons le climat » et du comité scientifique de « The Shift Project » fondé par Jean-Marc Jancovici, l’ingénieur pro-nucléaire le plus médiatisé de France,  a de son côté  attaqué récemment Thierry Lepercq, le fondateur de Solairedirect devenu directeur général adjoint d’Engie (en charge de l’innovation), ainsi que l’ancienne ministre de l’environnement Corinne Lepage, tentant de les faire passer pour des incompétents en matière de solaire. Alors que Thomas Piquemal, l’ex-directeur financier d’EDF (qui a depuis rejoint la Deutsche Bank) livrait le 4 mai 2016 un inquiétant témoignage sur le nouveau nucléaire (« une technologie dont on ne sait toujours pas si elle fonctionne »), Jacques Treiner a publié 3 jours après les propos suivants: « l’examen de la liste des rédacteurs (du rapport « L’Economie du Nouveau Monde » ndlr) fait apparaitre qu’il n’y a parmi eux aucun scientifique professionnel, mais qu’il y a Thierry Lepercq, PDG de Solaire Direct, une entreprise française spécialisée dans le photovoltaïque. Il devrait donc savoir, lui ! Oui … mais non, car il vient d’HEC, ce qui est parfait pour monter des entreprises et lever des fonds, mais moins bien, apparemment, pour évaluer les potentialités physiques du photovoltaïque. Nous y reviendrons. » Manifestement la révolution solaire en cours à l’échelle mondiale ainsi que la nouvelle stratégie d’Engie dérangent fortement.

L’Engie Open Innovation Week se déroule du 6 au 11 juin 2016. Le mardi 7 juin le thème de la journée sera : « Le nouvel âge du renouvelable ».

Fierté

Le 13 juillet 2011, sur le site de « Sauvons le climat », Jean Fluchère a expliqué son parcours: « J’ai fait partie de l’équipe de démarrage de Fessenheim de 1972 jusqu’à 1976 et j’ai participé à l’ensemble des essais des matériels et des systèmes (…) Les anciens d’EDF sont fiers d’avoir donné aux français un système de production d’électricité à la fois fiable et compétitif. Ils sont fiers de l’avoir fait dans le cadre d’un service public soucieux à la fois de qualité et de performance économique. Ils s’interrogent sur ce qui conduit une partie importante des médias et une écologie politique dont le fond de commerce est d’attaquer la production nucléaire d’électricité, à les traiter comme des parias, voire des criminels.  Les médias ne leur donnent qu’exceptionnellement la parole et il en résulte une désinformation qui, désormais, pèse lourdement sur une opinion manipulée plus qu’informée. »

Les pro-nucléaires n’auraient pas accès aux médias ? Ce qui est certain, c’est qu’ils n’apprécient pas la critique. Selon l’observatoire de la publicité le journal La Tribune a eu « son budget publicité EDF gelé suite à un article qui n’aurait pas plu à l’entreprise du nucléaire.»

Sur le fond le nucléaire est-il une source de production d’électricité vraiment continue ? Que se passe-t-il quand on injecte un 9 avril 2014 du bore dans un réacteur nucléaire à Fessenheim ? Et bien on perd subitement 900 MW. Combien de temps faut-il pour remettre en service le réacteur nucléaire de Paluel 2 sur lequel est tombé, le 31 mars 2016, un générateur de vapeur de 400 tonnes, haut de 22 mètres ? Et que se passe-t-il quand on coupe l’intégralité des alimentations électriques du circuit de refroidissement d’une centrale nucléaire à cause d’un tsunami le 11 mars 2011 au Japon ou d’une action terroriste possible dans les mois ou années à venir en Belgique ou en France ?

Les habitants de Fukushima connaissent la réponse.
Le retour à la bougie.

Olivier Daniélo

Les Smart Grids changent d’échelle

Avec ces 3 nouveaux projets, les expérimentations changent d’échelle et les technologies de réseaux électriques intelligents seront désormais déployées sur de grands territoires, incluant plusieurs départements. Il ne s’agira plus de simples démonstrateurs, mais de véritables vitrines technologiques de réseaux intelligents.

Smile, Flexgrid et  You & Grid seront subventionnés à hauteur de 50 millions d’euros, dans le cadre des Investissements d’Avenir. Les dossiers Flexgrid et Smile bénéficieront par ailleurs d’un investissement total de 80 millions d’euros sur les réseaux de transport et de distribution de l’électricité, par RTE et ERDF.

Smile : un Smart Grid pour le Grand Ouest

Le Smart Grid Smile a été officiellement lancé le 22 avril 2016 à Lorient. En construction en Bretagne et en Pays-de-la-Loire, les deux régions estiment à 260 millions d’euros les investissements à réaliser dès 2017 et pour une période de trois ans. Le projet tire parti des démonstrateurs précédents : Smart Grid Vendée et Solenn. Smile devrait créer près de 10 000 emplois directs ou induits dans ces deux régions.

La zone de déploiement comprend des situations variées: une façade maritime, des zones touristiques (avec des pics saisonniers de consommation), des îles, des ports et des zones industrielles.17 projets soutenus par 160 structures dont une centaine d’entreprises, de la start-up aux grands groupes et aux collectivités seront mis en oeuvre.

Le but est de déployer massivement les solutions pour les réseaux électriques intelligents en vue de bâtir d’ici 2020 un grand réseau électrique intelligent sur le Grand Ouest, incluant les départements du Morbihan, d’Ille-et-Vilaine, de Loire-Atlantique et de Vendée. Sont notamment prévus l’intégration de 1 000 bâtiments à énergie positive, 20 000 points lumineux intelligents et 1 000 bornes de recharge publiques pour véhicules électriques. Le stockage pour favoriser l’intégration des énergies renouvelables sera également testé. Enfin, plusieurs projets seront liés à la réalisation de plateformes numériques pour gérer les données et maîtriser, stocker ou distribuer l’énergie en fonction des besoins.

eolienne1

Flexgrid : un Smart Grid pour le Sud Est

Flexgrid est le Smart Grid porté par La Région PACA. Le projet tire parti des démonstrateurs précédents : CityOpt, Premio, Nice Grid, Inifini Drive et Reflexe. Doté d’un budget de 200 millions d’euros, il devrait permettre la création de 6 200 emplois directs et indirects.

Le projet incluera  des zones climatiques variées, des métropoles côtières, des zones industrialo-portuaires, des stations de ski et des zones électriquement isolées. 34 projets sont prévus, soutenus par 145 partenaires.

Le territoire bénéficiera du déploiement des technologies Smart Grids mises au point par les gestionnaires de réseau RTE et ERDF et notamment de l’installation de 1,5 million de compteurs Linky. Flexgrid travaillera également sur l’incorporation optimale de 1.180 mégawatts (MW) d’énergies renouvelables électriques et 230 MW de réseaux de chaleur/froid. Pour synchroniser au mieux la production et la consommation, les 34 expérimentations agiront sur plusieurs leviers : la gestion des données, la prévision des productions des énergies renouvelables intermittentes, leurs combinaison pour assurer leur complémentarité, le développement de l’autoproduction et de l’autoconsommation de l’énergie photovoltaïque. Par ailleurs, elles chercheront à mieux piloter en temps réel les installations énergétiques en développant les capacités d’effacement (bornes de recharge des véhicules électriques, équipements industriels ou résidentiels…) et de stockage.

eolienne2

YOU & GRID est le Smart Grid porté par la région Nord-Pas-de-Calais et la Métropole de Lille. Son budget est estimé à 165 millions d’euros. Il n’est pas détaillé pour le moment, mais devrait s’intéresser aux solutions d’autoconsommation de l’énergie photovoltaïque et à leur business model, ainsi qu’au déploiement à grande échelle des bornes de recharge.

Ces 3 projets permettront d’accélérer le déploiement des réseaux électriques intelligents et crédibiliseront la filière française des smartgrids à l’export. Dans cette perspective, l’ambition du plan industriel « Réseaux Electriques Intelligents » est de passer de 15 000 à 25 000 emplois et de 3 à 6 milliards d’euros de chiffre d’affaires d’ici 2020.

Par Matthieu Combe, journaliste scientifique

Le nucléaire américain a-t-il un avenir ?

L’annonce est presque passée inaperçue. Pourtant, la fermeture de deux centrales nucléaires pour cause de non-rentabilité est un symbole fort. Face aux nouveaux équilibres énergétiques qui se mettent en place aux Etats-Unis, le nucléaire paraît bien mal positionné.

Non rentables

C’est par un communiqué que le plus grand électricien américain, Exelon, a annoncé la fermeture de deux centrales nucléaires, Clinton et Quad-Cities, respectivement le 1er  juin 2017 et 2018. « Nous avons travaillé pendant plusieurs années pour trouver une voie de sortie durable en partenariat avec des organismes fédéraux de régulation, les opérateurs de marché, les décideurs politiques, et les différentes parties prenantes. Malheureusement, la législation n’a pas été adoptée, et maintenant nous sommes obligés de fermer ces sites », explique Chris Crane, le pdg d’Exelon. Et pour cause, sur les sept dernières années, les deux centrales ont cumulé des pertes atteignant 800 millions de dollars.

Cette décision ne devrait pas être isolée. « Cela va précipiter sûrement d’autres fermetures », indique Fitch, qui estime que les centrales de Byron, Ginna, Nine Mile Point et Three Mile Island pourraient à leur tour fermer leur porte dans un proche avenir. Les autres électriciens sont également concernés : Entergy Corp et Dominion Resources ont déjà annoncé des arrêts de centrales nucléaires. Ainsi, le site James A. FitzPatrick en Nouvelle-Angleterre stoppera sa production d’ici début 2017 et celle du Massachussets (Pilgrim Nuclear plant) pourrait cesser de fonctionner en 2019.

Quid de l’atome ?

L’Institut américain de l’énergie nucléaire s’est déclaré la semaine dernière très préoccupé par cette « tendance alarmante » à la fermeture des sites de production nucléaire et affirme que cela rendra plus difficile l’atteinte des objectifs en matières d’émission de gaz à effet de serre. En effet, à l’heure actuelle, l’atome représente 60% de l’électricité non-émettrice directe de CO2 aux Etats-Unis. Si la défense du couple nucléaire/ENR est un plaidoyer bien connu en France, il ne pèse guère aux au pays de l’Oncle Sam où seule la loi du marché prévaut. Ainsi, l’abondance de gaz naturel sur le marché américain a permis à des électriciens de concurrencer frontalement les centrales nucléaires lors des appels d’offres organisés par les états fédérés. Ce glissement du mix énergétique vers le gaz risque d’impacter fortement les compagnies comme Exelon qui, avec 64% de sa production issue de l’atome, doivent revoir leur business model. Le manque à gagner des fermetures anticipées, combiné aux coûts encore non déterminés du démantèlement de ses 23 réacteurs pourrait sérieusement mettre en danger la santé financière de la compagnie privée et hypothéquer l’avenir des l’atome aux Etats-Unis.

Par Romain Chicheportiche

FRIPON, un réseau de surveillance du ciel français pour pister les météorites

Né de l’expertise scientifique conjuguée de l’Observatoire de Paris, du Muséum national d’Histoire naturelle, de l’Université Paris-Sud, d’Aix-Marseille Université et du CNRS, ce maillage vise à détecter les chutes de météorites, à mesurer leur trajectoire et enfin à déterminer leur zone de chute pour organiser des campagnes de recherche sur le terrain.

L’explosion le 15 février 2013 d’une très grosse météorite au-dessus de la ville russe de Tchéliabinsk a surpris le monde entier et a déclenché une véritable prise de conscience auprès de l’opinion publique et des pouvoirs publics : un tel événement pouvait se reproduire n’importe où, n’importe quand.

De façon générale, la grande majorité des bolides et météores se désintègre totalement en pénétrant dans l’atmosphère terrestre et finit en poussière sans même avoir atteint le sol. Mais parfois, il est possible qu’un objet céleste de quelques mètres puisse produire des météorites. On estime qu’il tombe une dizaine de météorites par an en France, cependant on constate qu’actuellement, on n’en retrouve qu’une tous les 10 ans. Étonnamment ce taux était cinq fois plus important au XIXe siècle. On peut expliquer ce fait de nombreuses façons, mais une chose est claire : la très grande majorité des météorites tombant en France sont à jamais perdues !

carte-meteorites

Sur ce constat, les chercheurs François Colas (chercheur CNRS à l’Observatoire de Paris), Brigitte Zanda (enseignant-chercheur au Muséum national d’Histoire naturelle) et Sylvain Bouley (enseignant-chercheur à l’Université Paris-Sud), forts de leurs expertises complémentaires, œuvrent depuis 2013 à la mise en place du dispositif FRIPON, acronyme pour « Fireball Recovery Interplanetary Observation Network » (en français : Réseau de recherche de bolides et de matière interplanétaire).

Ayant bénéficié d’un financement de 550 000 euros par l’Agence nationale de Recherche (ANR), ce dispositif de grande ampleur consiste en un déploiement sur tout le territoire français d’un détecteur qui comprendra à terme 100 caméras et 25 récepteurs radio. Les données des radars météo et des sismographes seront également utilisées pour repérer les bolides.

Le principe

Trois à neuf caméras sont implantées en moyenne par région, à des distances de 50 à 100 kilomètres. Toits d’observatoires, d’universités, de muséums, d’associations de culture scientifique… les lieux d’implantation sont multiples et mobilisent à ce jour au total près de 150 acteurs.

Simples d’installation et d’utilisation, ces caméras sont dotées d’un objectif fisheye, permettant une vue très large à 360° de la voûte céleste, sur une seule image. Elles sont raccordées à des ordinateurs munis d’un logiciel développé spécialement pour analyser les images et détecter les événements lumineux. Lorsqu’une détection survient, une alerte est transmise au calculateur central situé à l’Université Paris-Sud, qui recueille les données de tout le réseau en temps réel. Toute la chaîne de calcul est opérationnelle. Sur la base d’une observation il est ainsi possible de déclencher une campagne de recherche de l’impact sur le terrain en 24 h environ.

Avec plus d’une soixantaine de caméras installées à ce jour et actives en France, FRIPON est aujourd’hui opérationnel. Son déploiement à l’étranger a déjà commencé. On peut obtenir les images en temps réel sur le site www.fripon.org. « Il permet de détecter en temps réel, les objets sous plusieurs angles et ainsi de calculer leurs trajectoires en 3D, leur vitesse et leur point d’impact éventuel avec une précision de l’ordre de quelques centaines de mètres », précise François Colas, astronome, responsable du projet FRIPON à l’Observatoire de Paris, au sein de l’Institut de mécanique céleste et de calcul des éphémérides.

Les objectifs

Cette surveillance à l’échelle nationale a de multiples enjeux : le but est de déterminer l’origine et le flux de matière extraterrestre sur Terre et de retrouver des météorites afin de mieux connaître le Système solaire.

La collecte de ce matériau brut en provenance de l’espace apporte des informations d’une valeur inestimable sur la composition du Système solaire à son origine, sur celle des planètes et leur évolution, notamment la Terre. « Notre planète est un agglomérat de météorites transformé par les processus géologiques. Ayant peu évolué depuis la formation du Système solaire, celles qui tombent à l’heure actuelle peuvent, à travers leur analyse, aider à comprendre la Terre primitive », indique Brigitte Zanda, météoritologue au Muséum national d’Histoire naturelle.

« En pénétrant dans l’atmosphère, l’objet se désintègre en débris. La répartition des débris sur l’ellipse de chute occasionne en général une zone de recherche de plus 20 km2 », précise Sylvain Bouley, planétologue à l’Université Paris-Sud. Dans les faits, le dispositif FRIPON sera relayé sur le terrain par le réseau VigieCiel, piloté par le Muséum national d’Histoire naturelle et qui sera lancé en 2017. Ce programme de science participative va permettre d’organiser des recherches sur le terrain rapides et efficaces. Des battues seront organisées avec la participation de bénévoles chercheurs de météorites, formés grâce au projet Vigie-Ciel.

photo-observatoire
Caméra FRIPON implantée sur le toit de l’Observatoire de Paris. © François Colas / Observatoire de Paris / IMCCE
cartecap
Implantation des 60 caméras actives fin mai 2016, le réseau sera complété courant 2016. On peut noter qu’une caméra est installée à l’observatoire de Turin, c’est la première du futur réseau Italien. © FRIPON

Source : cnrs

Le robot Charman soude les coques des bateaux

Les robots conquièrent tous les secteurs de l’industrie, y compris la construction navale. C’est en l’occurrence la filière professionnelle empruntée par Charman, dont la tâche consistera à assembler par soudure les morceaux de coques préfabriqués d’un navire. Ce chariot autonome robotisé multifonctions pour applications navales, abrévié en Charman donc, a été élaboré par l’Institut de Recherche Technologique (IRT) Jules Verne, un centre de recherche semi-public dédié à la production industrielle. Des partenaires tels que Bureau Veritas, la DCNS (anciennement Direction des constructions navales) et STX France, constructeur maritime, sont associés au projet, qui a débuté en janvier 2014.

Charman a été conçu pour répondre à plusieurs problématiques de cette industrie. «Ces opérations de soudage sont longues et éprouvantes et Charman a pour vocation de soulager l’opérateur et de prévenir les troubles musculosquelettiques, précise Philippe Piard, responsable du développement des filières navale/énergie au sein de l’IRT Jules Verne. Par ailleurs, les constructeurs rencontrent des difficultés pour recruter des soudeurs en France.» La brochure de l’IRT Jules Verne évoque en supplément la suppression des coûteux échafaudages et la diminution des risques d’accident encourus par les opérateurs, contraints de travailler à plusieurs dizaines de mètres du sol.

Une productivité améliorée de 50%

Ce robot – ou plutôt cobot car c’est un robot collaboratif qui accompagne les professionnels humains – se déplace sur ces parois verticales et métalliques à l’aide de chenilles magnétiques. L’aimantation résiste à une force d’arrachement d’une quarantaine de kilos, soit le poids de Charman. L’équipement est complété par l’appareillage de soudure et un profilomètre qui mesure le relief de la surface. Autonome, Charman ajuste la trajectoire programmée par l’opérateur et analyse la configuration (épaisseur, chanfrein…) du joint à souder pour optimiser la répartition des cordons de soudure. «Il peut travailler sur des coques de 8 à 25 millimètres d’épaisseur, explique Philippe Piard. Sauf celles des sous-marins, les constructions militaires étant plus exigeantes.» Selon le site internet de l’IRT Jules Verne, la reproductibilité de l’opération est meilleure et la productivité progresse de 50%.

Charman a été évalué en 2015 par STX France, sur le site de Saint-Nazaire. Les essais ont été concluants puisque ce projet pourrait être industrialisé en fin d’année par la société Servisoud, qui commercialise des équipements de soudage. Une deuxième version est toutefois en cours de test. «Les évolutions sont techniques et esthétiques, développe Philippe Piard. Par exemple, un nouveau système de crémaillères permet d’améliorer les déplacements sur des trajectoires horizontales. L’idée, par la suite, serait d’ajouter une caméra et un dispositif de contrôle par ultrasons, afin que Charman puisse aussitôt vérifier la qualité de la soudure.»

Par Frédéric Monflier

L’infatigable Captain DC inspecte les fermes de serveurs

L’intégrateur de solutions informatiques Econocom devrait annoncer officiellement vers la mi-juin une offre robotisée dédiée à la surveillance des datacenters (ou fermes de serveurs). Le robot en question, nommé Captain DC, était présenté au salon Innorobo cette semaine à Saint-Denis. Il a été développé en partenariat avec EOS Innovation, spécialisée dans la robotique. Cette société s’était distinguée il y a trois ans avec une précédente réalisation, e-vigilante, en service dans quelques entrepôts en France.

Captain DC suit le même principe de fonctionnement que son aîné : c’est un robot autonome et mobile, capable d’effectuer des rondes 24h/24 en suivant un parcours prédéfini. Un opérateur peut en prendre le contrôle à distance si le besoin s’en fait sentir, pour lever le doute notamment. Selon un porte-parole d’Econocom rencontré à Innorobo, «Captain DC analyse la température, l’hygrométrie et est équipé d’un micro et de caméras à vision nocturne. Il est capable de distinguer la couleur des diodes des serveurs et peut transmettre des alertes en cas d’incident. Le centre de supervision pourra ainsi identifier la panne à distance.»

Les datacenters sont en effet souvent isolés et les interventions de diagnostic et de maintenance des installations sont susceptibles d’être longues et coûteuses. Avec Captain DC, Econocom cherche à résoudre cette problématique et se construit du même coup une image de modernité auprès de sa clientèle. A condition, bien sûr, que Captain DC remplisse sans faille les missions qui lui sont allouées.

IMG_3206-1000

Par Frédéric Monflier

Un coup de main à l’interaction homme-machine

Mandarin ne ressemble pas du tout aux robots humanoïdes qui arpentent les couloirs du salon Innorobo ou assemblent des pièces mécaniques à toute vitesse. Et pourtant, c’est bel et bien un projet qui promet d’améliorer l’interaction homme-machine, enjeu important de l’industrie robotique. Mandarin, donc, est un gant à retour de force, développé par le CEA-LIST (Laboratoire d’intégration de systèmes et des technologies du CEA) en partenariat avec l’INRIA, Haption, l’Université technologique de Compiègne ou encore Renault. Il bénéficie du soutien financier de l’Agence Nationale de la Recherche. «L’objectif est d’achever un prototype pré-industriel d’ici à la fin de l’année 2016» déclare Florian Gosselin, l’ingénieur de recherche qui coordonne ce projet.

Figure_MANDARIN01024

Les dispositifs haptiques (qui procurent la sensation du toucher, NDLR) et à retour d’effort sont utilisés dans l’industrie pour piloter à distance des robots ou interagir avec des maquettes numériques dans les environnements de réalité virtuelle. «Traditionnellement, il s’agit de robots équipés de poignées excluant la manipulation dextre des objets en question, explique Florian Gosselin. Des gants similaires existent sinon, mais ils se limitent à deux doigts, avec un certain degré de perfectionnement, ou à plusieurs doigts, avec une sophistication moindre. Le principe du projet Mandarin est d’obtenir une interaction naturelle à deux mains (un gant pour main gauche a aussi été développé) qui implique tous les doigts sauf le petit. Cette configuration permet de couvrir la plupart des cas d’usage.»

Moteurs vibrants et capteurs optiques

Figure_MANDARIN02Imiter la cinématique d’une main constitue toutefois un défi technique et oblige à des compromis. «Normalement, trois petits moteurs associés à chaque bout de doigt seraient nécessaires pour reproduire tous les degrés de liberté, précise Florian Gosselin. Mais avec quatre doigts, cela devient trop complexe, lourd et encombrant : il fallait simplifier. Les alternatives consistant à déporter les moteurs, moyennant une câblerie supplémentaire, ou à réduire le nombre de doigts ont été rejetées. Pour ce projet, nous avons décidé d’innover en insérant quatre moteurs dans la paume du gant, qui régulent l’effort de pinçage lors de la saisie d’un objet. Quatre autres moteurs miniatures servent à déformer la pulpe des doigts, par exemple en vibrant selon les mouvements.»

Le poids, l’encombrement et l’ergonomie sont les autres facteurs décisifs. «La structure est compacte, proche des doigts de l’utilisateur, décrit Florian Gosselin. Nous avons également opté pour des capteurs optiques innovants placés autour des axes des articulations, de manière à gagner en intégration.» Mandarin, grâce à ses embouts, a de plus l’avantage de s’adapter à toutes les tailles de main et longueurs de doigts. Bien des applications industrielles lui iraient comme un gant…

Par Frédéric Monflier

L’Ademe décortique le gaspillage alimentaire

Selon cette nouvelle étude de l’ADEME, au regard des poids de produits transitant par chaque acteur, la part de produits alimentaires perdus et gaspillés reste relativement faible : de 3,3 % pour la distribution à 7,3 % au stade de la consommation. Mais mis bout à bout, ce sont 10 millions de tonnes de produits destinés à l’alimentation humaine qui sont perdus chaque année. Sur ce total, moins de 2 millions de tonnes sont valorisées pour l’alimentation animale. La valeur théorique de ce gaspillage est évaluée à 16 milliards d’euros et son impact carbone estimé à près de 15,3 millions de tonnes équivalent CO2/an, soit environ 3% des émissions nationales.

Quelles pertes et gaspillages le long de la chaîne ?

L’étude révèle que 32% du gaspillage est généré au stade de la production, 21% lors de la transformation, 14% lors de la distribution et 33% au niveau de la consommation à domicile. Elle fournit un enseignement important : un Français gaspille 4 fois plus en restauration collective et commerciale qu’au foyer. Ces pertes constituent 42% du gaspillage au stade de la consommation, alors que les repas hors-domicile ne représentent que 15% des repas pris par nos concitoyens.

Sur l’ensemble de la chaîne, de la production à la consommation, 24% des légumes, 23% des fruits, 20% des produits issus des grandes cultures et 13% des produits des filières animales sont gaspillés. Mais le gaspillage alimentaire varie fortement d’un produit à un autre : de 9% pour les œufs à 57% pour les salades !

tableau-gaspillage-alimentaire
Evaluation globale des pertes et gaspillages pour l’alimentation humaine sur l’ensemble de la chaîne, de la production à la consommation

Comment réduire ces pertes et gaspillages ?

La France a adopté un Pacte national de lutte contre le gaspillage alimentaire visant à réduire de moitié le gaspillage alimentaire à l’horizon 2025 et la LOI n° 2016-138 définissant un panel de mesures pour réduire et gérer ce gaspillage, notamment au stade de la distribution. Un nouveau Pacte national « anti-gaspi » est prévu pour octobre 2016. France Nature Environnement espère que ce nouveau plan constituera « un plan d’action détaillant des engagements et des objectifs par secteur d’activités et par filière de produits ».

En attendant, l’Ademe et le Ministère de l’Environnement de l’Énergie et de la Mer viennent de lancer une campagne de communication nationale en direction de tous les acteurs de la chaîne alimentaire pour les inciter à lutter, chacun à leur niveau, contre le gaspillage.

Par Matthieu Combe, journaliste scientifique

Nouveau président et objectifs « durables » pour la chimie française

Pascal Juéry Comex member @JM Byl – Solvay photolibrary

Jeudi 26 mai, l’assemblée générale de l’Union des industries chimiques (UIC) a élu un nouveau président en la personne de Pascal Juéry. Il remplace Philippe Goebel qui a assuré cette fonction pendant 4 ans. Membre du comité exécutif de Solvay depuis 2014, membre du comité exécutif de l’UIC depuis 2010, Pascal Juéry affiche son ambition pour l’avenir de la chimie en une phrase:  « construire l’industrie chimique durable de demain, attractive, innovante, responsable ». En bref, persévérer dans les actions déjà entreprises par ses prédécesseurs pour rendre la chimie française durable : en alliant respect de l’environnement et compétitivité et en la rendant plus transparente, y compris sur des sujets délicats.

Une chimie toujours plus « eco-friendly »

L’industrie chimique s’est engagée dans un processus de respect de l’environnement et de maîtrise de l’énergie depuis plus de 30 ans maintenant. Dans son rapport de développement durable 2015, l’UIC indique ainsi que le secteur a diminué de 50% ses émissions de gaz à effet de serre (GES) et de 20% sa consommation d’énergie depuis 1990. Pour la période 2012-2025, les objectifs sont d’améliorer l’efficacité énergétique d’encore 12% et de réduire encore les GES de 13%. Un travail sur les entreprises elles-mêmes qui vient compléter une réalité de la production : la chimie française est aussi très investie dans la recherche pour trouver des solutions vertes dans l’énergie ou les matériaux.

Recyclage des matériaux : plastiques à la Une

En matière de réutilisation des déchets, la chimie a encore une grande marge de manœuvre. Par exemple, sur la filière plastiques, seuls 0,6 Mt de déchets sont recyclés sur les 3,5Mt qui atterrissent dans les poubelles. Depuis 3 ans, une réflexion est en cours pour organiser la filière. En mars 2015, les résultats d’une première étude menée avec l’Ademe sur l’analyse de la chaîne de valeur de cette filière ont été présentés. Un réseau collaboratif a été monté et le travail se poursuit actuellement pour faire vivre concrètement cette filière. Des actions qui seront d’ailleurs au cœur des discussions du comité stratégique de filière « chimie et matériaux » qui se réunit à Lyon ce vendredi 3 juin. Une réunion qui abordera aussi bien sûr, l’étude Chimie 2030, lancée en mars 2016 qui a déjà donnée lieu à plusieurs ateliers avec les industriels et dont les conclusions doivent être rendues le 29 juin prochain à Bercy.

Une transparence à améliorer

Dans une interview accordée à L’Usine Nouvelle, Pascal Juéry reconnaît que si l’UIC est respectée des pouvoirs publics, sa communication auprès des parties prenantes de la société civile est encore à améliorer. Pour pallier ce handicap, le nouveau président veut « mettre les PME au cœur des actions » en les incitant à ouvrir leurs portes au public et en leur apportant plus de services. Il faut dire que la chimie française compte quelques 3335 dont 94% de TPE/PME, une réalité méconnue, cachée par la mise en avant dans les médias de grands groupes internationaux, souvent au cœur des scandales autour de la santé-environnement.

Le durable a ses trophées

Chaque année, depuis 26 ans, l’UIC récompense 4-5 entreprises qui se sont particulièrement illustrée en matière de développement durable via le trophée des Responsible Care. Pour l’édition 2016, 50 entreprises ont candidatées.

Palmarès :

Trophée Environnement :

ELBÉ PÉTRO pour la mise au point de flotteurs biomimétiques sur des réservoirs de liquides inflammables permettant de limiter l’évaporation.

Trophée Santé :
Steiner pour la conception et construction d’une cabine de ventilation au poste de travail.

Trophée Sécurité :
L’Association des industriels de la Plateforme de Carling Saint Avold (AIPCSA)  pour l’organisation d’une sensibilisation Sécurité commune à l’ensemble des industriels de la plateforme.

Trophée RSE :
SOBEGI  pour soutenir l’éducation à l’environnement par une opération de tri des déchets.

Le coup de cœur du Jury a été décerné à SIKA France SAS pour son accueil et intégration des personnes en situation de handicap.

Par Sophie Hoguin

Congo : un projet de barrage géant crée la polémique

C’est un projet gigantesque dans lequel souhaite se lancer Kinshasa. Avec un objectif total de 40 000 MW, Grand Inga a vocation a devenir le plus grand complexe hydroélectrique du monde, loin devant l’actuel premier : le site des Trois Gorges (22 500 MW) en Chine. Estimé à 100 milliards de dollars (90 mds €), le projet a reçu le soutien de la Banque Africaine de Développement et de la Banque Mondiale qui en 2013 et 1014 l’ont financé à hauteur 141 millions de dollars. La première phase (Inga 3), estimée à 14 milliards de dollars (12,6 mds €) prévoit la construction d’une première centrale de 4 800 MW sur le fleuve Congo. Le gouvernement devrait donner dès cet été les résultats de l’appel d’offres. Les groupes chinois de construction seraient très bien placés pour gagner ce contrat géant et les travaux pourraient débuter dès novembre.

Polémique

L’empressement de Kinshasa à vouloir lancer rapidement la construction a mis en alerte les ONG environnementales, généralement opposées à ces grandes infrastructures énergétiques (cf. Belo Monte). Peter Bosshard, directeur par interim de l’ONG Rivers, s’indigne de l’absence de la moindre étude d’impact environnementale. Il estime que les conséquences sociales et environnementales seraient dramatiques, avec notamment le déplacement forcé de 60 000 personnes. Mais Kinshasa est décidé à aller de l’avant affirmant qu’il s’agit de l’unique solution pour apporter de l’électricité à ceux qui en sont privé. Un argument peu convaincant sachant que les grandes centrales électriques ont vocation à alimenter les industries électro-intensives, comme l’industrie extractive, pilier de l’économie de la RDC. Le problème de l’accès à l’électricité en Afrique est avant tout un problème de réseau… Inga offrira aussi au pays de confortables revenus d’exportation de l’électricité. Un contrat de fourniture de 2 500 MW a déjà été signé entre la RDC et l’Afrique du sud. Il prévoit la mise en service d’Inga 3 dès 2021, ce qui explique en partie la volonté du gouvernement de voir le projet aboutir rapidement. Mais pas seulement. Le second mandat du président est arrivé à son terme il y a six mois, et malgré les manifestations, Joseph Kabila s’est inscrit dans cette dramatique habitude locale de garder le pouvoir. Grâce à des manipulations diverses, il s’est assuré qu’aucune nouvelle élection ne pourrait être organisée cette année. Le temps de finaliser les derniers détails du contrat ?

767px-Inga_2006-projet.svg

Par Romain Chicheportiche

Transition énergétique : ExxonMobil et Chevron disent « No we can’t » !

Frappées de plein fouet par la chute des cours du baril du brut, les compagnies américaines ExxonMobil et Chevron persistent dans les énergies fossiles. L’enjeu n’était pas tant d’abandonner l’exploration et l’exploitation pétrolière que d’évaluer l’impact financier des politiques publiques environnementales sur leur activité. En clair, d’estimer le manque à gagner lié aux développement d’énergies alternatives et aux efforts d’efficacité énergétique. Un exercice jugé inutile par 61,8% des actionnaires d’ExxonMobil et 59% de ceux de Chevron.

Optimisme béat

Si d’aucuns préfèrent se concentrer sur la baisse significative des votes « contre », il n’en reste pas moins que les deux grandes compagnies américaines semblent ne pas prendre la mesure des enjeux, alors que dans le même temps, en Europe, les groupes pétroliers annoncent leur entrée sur ces nouveaux marchés. Une stratégie risquée alors que les indicateurs montrent une consommation pétrolière mondiale atone et des surcapacités structurelles. Dernier symbole fort, la fondation Rockefeller (le milliardaire a fondé la Standard Oil Company qui deviendra plus tard ExxonMobil) a annoncé cette année se débarrasser de toutes ses participations dans le groupe. Une annonce qui fait suite à des révélations sur les méthodes de désinformation sur le changement climatique utilisées par la Major pendant des années.

Par Romain Chicheportiche

Relay, le robot-livreur dédié au «room service»

A l’avenir, ce ne sera peut-être plus le personnel de l’hôtel qui se présentera devant la chambre du client pour livrer une boisson ou un encas… mais un robot. C’est en effet le rôle que pourrait tenir le robot Relay, conçue par la société californienne Savioke et prochainement distribué en France par Awabot.

Relay+lobby

Ce projet est emblématique de la robotique de service professionnelle, qui désigne les robots qui n’accomplissent pas des tâches de production et de fabrication industrielles. Les secteurs d’activités couverts sont donc diversifiés, allant de la chirurgie en milieu hospitalier à la logistique dans les entrepôts. Selon l’International Federation of Robotics (IFR), ce marché pesait quelque 3,7 milliards de dollars dans le monde en 2014. Soit une hausse de 3% par rapport à l’année précédente, consécutives à une progression de 11,5% des ventes.

Ce robot ambulant d’intérieur, doté d’un coffre d’une vingtaine de litres, est conçu pour livrer des petits objets d’un point A à un point B. Il parcourt le trajet de manière autonome, une fois le plan des locaux mémorisé. «Il est équipé d’un sonar, de caméras et d’un LIDAR (détection via un laser, NDLR), précise Jérémie Koessler, directeur général d’Awabot. A l’aide de ces dispositifs, il scrute son environnement en permanence.» La fiche technique fait également état du LTE et du WiFi, apportant à Relay des capacités d’interaction avec des réseaux de communication à l’intérieur des bâtiments. Une fonction mise à profit dans les déplacements et les relations avec la clientèle. «Relay est capable de prendre l’ascenseur tout seul, explique Jérémie Koessler. Quand il arrive devant la porte de la chambre, il envoie un message pour prévenir le client, lequel dispose d’un code pour déverrouiller le coffre. L’écran sert entre autres à valider la livraison et à noter la prestation.» Relay bénéficie d’une autonomie de 6 heures environ et, à l’instar d’un aspirateur-robot, retourne automatiquement à sa base de recharge.

Onze mille livraisons réussies

L’an dernier, Relay a d’ores-et-déjà été évalué en conditions réelles aux Etats-Unis notamment, dans quelques hôtels de la chaîne Crowne Plaza. Selon le fondateur de Savioke, Steve Cousins, la flotte de Relay mise en service – le nombre précis n’est pas indiqué – aurait déjà réussi quelque 11000 livraisons et parcouru l’équivalent de 3000 kilomètres.

Relay-delivery

Cependant, le «room service» n’est pas la seule activité que pourrait exercer ce robot, à écouter Jérémie Koessler :  «si nous visons la même clientèle, c’est-à-dire les opérateurs hôteliers, nous estimons aussi que Relay peut livrer du courrier et des documents dans n’importe quelle entreprise, ou transporter des petits objets entre des bureaux d’étude.» Une même question revient souvent : Relay va-t-il remplacer du personnel humain ? Il s’agit plutôt, pour Jérémie Koessler, de «libérer les humains de tâches à faible valeur ajoutée.»

Par Frédéric Monflier

Le Vietnam au cœur d’une guerre d’influence

La Russie propose depuis des années ses services en matière d’énergie au Vietnam mais les négociations se sont accélérées pour répondre à la demande croissante d’énergie du pays. En novembre 2013, Gazpromneft et Petorvietnam ont ainsi signé un accord posant les bases d’un projet d’entrée au capital de la raffinerie de Zung Kuat afin d’y réaliser divers travaux d’amélioration. Estimés à 1 milliard d’euros ils devraient permettre de faire passer sa production de 6,5 à 12 millions de tonnes par an.

Toujours dans le secteur de l’énergie, c’est encore la Russie qui a remporté l’appel d’offres international lancé par le Vietnam pour la construction de sa première centrale nucléaire, Ninh Thuan. Suite à l’accident nucléaire de Fukushima en mars 2013, le gouvernement vietnamien avait mis en veille le projet et demandé aux Russes un renforcement des mesures de sécurité. Le Premier ministre a depuis approuvé la reprise des travaux. La mise en service des deux réacteurs est prévue pour 2023-2024. A noter que la Russie a octroyé une ligne de crédit de 8 milliards de dollars, soit la quasi totalité du coût de construction.

Géostratégie

L’intérêt russe pour le secteur énergétique vietnamien n’est pas dénué d’arrière-pensées. Au-delà des contrats commerciaux, la présence russe au Vietnam est éminemment géopolitique. Allié historique lors de la Guerre Froide, les deux pays ont gardé des relations très fortes et les militaires russes ont une présence à Cam Ranh Bay, une ancienne base aérienne américaine. Ce qui déplait fortement aux Américains qui multiplient les gestes envers leur ancien ennemi. Ainsi Barack Obama a annoncé, lors de son déplacement officiel au Vietnam fin mai, la levée de l’embargo sur la vente d’armes létales notamment celles destinées à des fins de sécurité maritime en vigueur depuis la Guerre Froide.

South-China-sea-disputes

L’administration américaine est même allée plus loin puisque depuis 2014, elle a versé 45,7 millions de dollars au Vietnam pour mettre en place des programmes de coopération militaire. Pour Russes et Américains, l’objectif est clair : donner au Vietnam les moyens de contrer l’expansionnisme chinois en mer.

Les îles Spratley et Paracels (voir carte), sur lesquelles du pétrole a été découvert au début des années 1990, sont au cœur des tensions régionales. Le Vietnam et la Chine s’en disputent la souveraineté, ainsi que la Malaisie, Bruneï, Singapour et l’Indonésie…

Non-aligné

Historiquement, les forces armées vietnamiennes se sont peu projetées sur les mers. Et pour cause, leur principale priorité a été de se défendre sur leur territoire. Mais les ambitions chinoises ont poussé en 2007 le bureau politique du parti communiste vietnamien a lancer une stratégie maritime. Dans ce grand échiquier asiatique, Hanoï ne semble pas vouloir favoriser une alliance plus qu’une autre. Au contraire, elle fait monter les enchères. Ainsi le très prisé port international de Cam Ranh, reçoit des bâtiments militaires de toutes nationalités, le dernier en date étant français. Le FS Tonerre est arrivé le 2 mai 2016 pour quatre jours. Il a été précédé par un vaisseau singapourien mi-mars et deux navires japonais en avril. Cette base stratégique offre un point d’appui rêvé pour les flottes des grandes puissances.

Mais Hanoï opte également pour des partenariats régionaux. En octobre 2014, le gouvernement indien a accordé une ligne de crédit de 100 millions de dollars pour des achats d’équipements militaires. Le Japon s’est lui engagé en 2014 à lui vendre six navires patrouilleurs. Une multiplication d’accord qui n’est pas sans déplaire à Pékin qui joue le chaud et le froid avec son voisin.

Nathalie Fau, Maître de conférences à l’Université Paris-Diderot, et spécialiste du Vietnam, conclue : « Ce qui n’a pas réellement changé en revanche, c’est l’alternance entre phase de frictions, de négociations et d’avancées diplomatiques dans les relations entre le Viêt Nam et la Chine. Cette ambiguïté est bien visible dans la gestion différente entre d’un côté les espaces maritimes insulaires (Paracels et Spratleys) qui demeurent des lieux des frictions et de l’autre le golfe du Tonkin où la délimitation officielle de la frontière maritime a abouti à la création d’une Zone commune de développement. Indique ».

Romain Chicheportiche

Hinkley Point : en cas de retard, les Anglais renégocieraient

Emmanuel Macron l’avait suggéré, les Anglais le confirment. Selon le contrat qui lie EDF au gouvernement britannique, un retard de 8 ans ou plus sur la livraison des deux réacteurs EPR, rendrait caduque la rémunération fixée entre les parties. Une hypothèse qui ne peut plus être décemment écartée au regard des chantiers de Flamanville et Olkiluoto, et des procédures internes à EDF.

Opposition interne

La direction d’EDF est largement soutenue par le gouvernement qui annonce une décision finale d’investissement au plus tard en septembre. Le problème est interne. Une opposition grandissante se fait entendre dans l’entreprise, et ce jusqu’au sommet depuis la démission fracassante de Thomas Piquemal le 1er mars dernier. Conformément aux statuts de l’électricien public, les élus du comité central d’entreprise ont usé de leur droit de commander une étude indépendante dont les conclusions devraient être rendues courant juin. Les risques du projet seraient sous-estimés par EDF qui espère tirer profit des expériences précédentes alors que les modifications demandées par l’Autorité de sûreté britannique sont telles (notamment sur le contrôle-commande) que les EPR d’Hinkley Point se rapprocheraient davantage de têtes de série. D’où les réserves exprimées par Jean-Luc Magnaval, secrétaire du CCE, qui estime que « en l’état, nous ne donnerions certainement pas le feu vert ».

Pour rappel, le projet Hinkley Point C prévoit la construction d’une centrale nucléaire en Angleterre. Les deux EPR doivent être mis en service en 2025-2026 et apporteraient 7% de la consommation britannique. Evalué à 23 milliards d’euros, dont les 2/3 à la charge d’EDF qui assure avoir les ressources financières pour supporter cet investissement, ainsi que ceux liés au grand carénage, à Cigéo, Linky, etc…  Jean-Bernard Lévy, son président, rappelle à l’envi que ce contrat sera très profitable avec un MWh garanti à 92,5 livres sur 35 ans, soit 126 euros. Un prix très au-dessus du marché actuel.

Par Romain Chicheportiche