Renouvelables : des objectifs durs à atteindre en 2018 !

En 2016, l’éolien a connu une croissance sans précédent, selon le Panorama de l’électricité renouvelable 2016, publié notamment par RTE et le Syndicat des énergies renouvelables. 1.345 mégawatts (MW) ont été raccordés sur l’année, soit 35% de plus qu’en 2015 (999 MW). A la fin de l’année, le parc éolien français atteint 11,67 GW. Malgré cette performance, les éoliennes n’ont produit que 20,7 térawattheures (TWh) sur l’année, contre 21,1 TWh en 2015. En cause : un vent assez faible entre le deuxième et le quatrième trimestre qui a engendré un facteur de charge éolien de 21,7 %, contre 24,5% en 2015. L’éolien a tout de même permis de couvrir 4,3 % de la consommation électrique française.

La Programmation pluriannuelle de l’énergie (PPE) prévoit d’atteindre 15 gigawatts (GW) d’éolien fin 2018. Pour respecter cet objectif, la croissance annuelle du parc devrait être portée à 1.665 MW par an, une croissance jamais atteinte. Soit une hausse de 24% par rapport à 2016.

Lire aussi : Quels objectifs pour la programmation pluriannuelle de l’énergie?

Le solaire : une croissance en demi-teinte

Pour le solaire, la croissance est moins radieuse. Seulement 576 MW ont été raccordés sur l’année, contre 895 MW en 2015. Soit une baisse de 36% des nouvelles installations raccordées. Le parc solaire photovoltaïque atteint ainsi 6,67 GW. L’objectif de la PPE est d’avoir un parc de 10,2 GW en 2018. Pour atteindre ce niveau, la croissance annuelle devrait frôler les 1.765 MW, soit trois fois plus qu’en 2016. Mais ce niveau est proche du record de 2011 où 1.690 MW avaient été installés.

S’il y a eu peu de vent en 2016, il y a en revanche eu pas mal de soleil. La production photovoltaïque a ainsi bondi de 11% pour atteindre 8,3 TWh. Ce qui a permis de couvrir 1,7% de la consommation électrique française.

Et les bioénergies et les barrages ?

Les bioénergies électriques ont gagné 215 MW pour atteindre 1.918 MW, soit une hausse de 12,6 %. 881 MW fonctionnent avec des déchets ménagers comme combusible, 390 MW avec du biogaz, 591 MW avec le bois-énergie et autres biocombustibles renouvelables et 57 MW avec des déchets de papeterie.

La production renouvelable de la filière – hors électricité produite par des déchets ménagers – s’élève à 6,5 TWh sur l’année, en hausse de 7,4 %. En incluant la part non renouvelable, la production atteint 8,5 TWh. Soit de quoi couvrir 1,4% de la consommation électrique française. Les objectifs de la PPE pour 2018 sont peu ambitieux concernant le développement du bois-énergie : avec ses 591 MW, la filière dépasse déjà les 540 MW prévus pour 2018 et est à 75 % du scénario bas 2023 (790 MW).

Enfin, le parc hydraulique a gagné 51 MW en 2016, pour atteindre 25,48 GW. La production a été de 59,2 TWh, soit 9% de plus qu’en 2015, grâce à des conditions météorologiques favorables au printemps. Cela a permis à la production hydraulique renouvelable de couvrir 12,2 % de la consommation électrique. En termes de puissance, les objectifs de la PPE 2018 sont déjà atteints (25,3 GW). Néanmoins, il faudra encore gagner 1,8 TWh pour atteindre l’objectif en termes de quantité d’hydroélectricité produite.

Par Matthieu Combe, journaliste scientifique

Diagnostic médical: plus petit et plus près du patient

Deux projets, l’un européen, l’autre américano-suédois, illustrent bien cette tendance. Dans le premier cas, il s’agit de réaliser des avancées en matière d’imagerie photo-acoustique en rendant la technique opérationnelle et miniaturisée et dans l’autre cas, il s’agit de rendre le diagnostic de certaines maladies possibles dans des régions reculées ou pauvres.

L’imagerie photo-acoustique opérationnelle

Le projet européen FullPhase, coordonné par l’université de Twente (Pays-Bas) a permis la mise au point d’une nouvelle technologie combinant photo-acoustique et ultrasons pour diagnostiquer l’arthrite des doigts, la fibrose du foie (chez les souris) et la mesure de la vitesse du sang. Les chercheurs visent aussi à pouvoir détecter le cancer de la peau, les brûlures et le durcissement des artères. Le tout dans un outil portatif ressemblant à une douchette de caisse enregistreuse. Les applications commerciales sont prévues à court terme annonce l’université néerlandaise dans un communiqué. L’appareil ne permet pas pour l’instant d’aller au-delà d’une profondeur de 15mm ce qui limite le nombre d’applications mais un autre projet européen a déjà démarré pour réussir à atteindre de plus grandes profondeurs.

Trois utilisations testées

A ce jour, l’équipement a réussi avec succès à détecter l’absence ou non d’inflammation des articulations chez des patients atteints d’arthrite rhumatoïde grâce à l’observation des nombreux vaisseaux sanguins supplémentaires qui se forment sur la zone d’inflammation. Il a aussi permis d’observer des fibroses du foie chez des souris, de manière simple et non invasive, ce qui pourrait permettre de réduire le nombre de souris utilisées pour les études sur les médicaments du foie. Enfin, il permet aussi de faire de la recherche médicale sur le sang:  vitesse d’écoulement, quantité de vaisseaux créés, niveaux d’oxygène et de nutriments. Un partenariat a déjà été créé autour de ce sujet avec l’University College de Londres.

Un smartphone pour détecter des mutations tumorales

Des chercheurs de l’université de Stockolm (Suède) et de l’UCLA (université de Los Angeles – Californie) ont équipé un smartphone d’un module, imprimé en 3D, permettant la détection d’oncogènes in-situ. Au lieu d’envoyer l’échantillon d’ADN du patient dans un laboratoire, le médecin ou le biologiste peuvent l’analyser via ce module qui comprend deux diodes lasers pour réaliser une imagerie en fluorescence. Le téléphone muni d’une caméra et d’une lentille spéciale peut alors analyser les différentes fluorescences des bases de l’ADN et repérer des mutations connues. Le système a été testé avec succès sur le gène KRAS qui est muté dans un tiers des cancers colorectaux. La détection peut à terme être élargie à diverses autres mutations ainsi qu’à la détection de certaines bactéries ou à des résistances aux antibiotiques.

Outre l’avantage de la portabilité, le système pourrait être produit à un prix très abordable, de l’ordre de 500 euros s’il était produit en masse, a précisé l’un des auteurs de l’étude dans un communiqué de l’UCLA accompagnant la parution de l’article scientifique de Nature communications.

Sophie Hoguin

De l’instabilité des modèles de l’Univers

Faut-il revoir le modèle cosmologique ?

Cette question se pose régulièrement face à certains résultats qui ne collent pas avec la théorie actuelle du modèle standard cosmologique. C’est notamment le cas de nouvelles mesures de la constante de Hubble (H0) qui représente la vitesse d’expansion de l’Univers.

Le satellite Planck qui a observé le fond diffus cosmologique (c’est-à-dire les restes des rayonnements émis lors du Big Bang) a fourni des données grâce auxquelles les chercheurs ont construit un modèle cohérent de l’histoire de l’univers. En se fondant sur leur modèle, ils estiment H0 à 67,8 km/s et par mégaparsec (Mpc).

Cependant, voilà que deux études trouvent une valeur plus élevée incompatible avec le modèle issu de Planck.

Tout d’abord, l’équipe de l’américain Adam Riess, qui a publié l’an dernier une étude évaluant H0  à 73 km/s/Mpc, en utilisant une méthode fondée sur la distance et la vitesse d’étoiles spécifiques (les Céphéides) et les explosions d’étoiles.

Ensuite, l’étude publiée par Vivien Bonvin, Frédéric Courbin, Sherry Suyu et leurs collègues, issue de nombreuses observations de la collaboration H0LiCOW et dont la méthode s’appuie sur une approche totalement différente: celle des lentilles gravitationnelles appliquées aux quasars (en observant les photons émis par un quasar à travers une galaxie, ils apparaissent déviés, démultipliés et pour certains retardés – voir cette vidéo. Ils ont alors estimé H0  selon différents modèles cosmologiques ou différentes hypothèses concernant la matière noire. Parmi leurs résultats, utilisant le modèle cosmologique issu de Planck, l’estimation de H0 est de 71,9 km/s/Mpc, avec une précision de 3,8%. Ce qui semble corroborer la mesure faite par l’équipe d’Adam Riess, mais ce qui n’est plus en accord avec celle trouvée par la collaboration Planck.

Où est la faille ? Soit il existe des biais dans les études récentes, soit l’interprétation du fond diffus cosmologique doit être revu. Et dans ce cas, quelles sont les hypothèses qu’il faut revoir ? La réponse viendra-t-elle d’une meilleure connaissance de cette “énergie noire”  ou de la découverte d’une physique totalement différente dans les premiers âges de l’univers ? Adam Riess, lui-même s’interroge.

Et si, aux premiers temps, l’univers n’était qu’un hologramme ?

univers holographiqueDes chercheurs britaniques, canadiens et italiens viennent de publier une étude dans le  journal Physical Review Letters qui remet au goût du jour l’hypothèse d’un Univers holographique née dans les années 1990. Cette hypothèse pourrait permettre d’unifier la physique relativiste et la physique quantique. En étudiant le fond diffus cosmologique, ils ont trouvé des preuves, substantielles, en faveur d’une explication holographique de l’Univers. Selon eux, on pourrait ainsi imaginer qu’aux premiers temps, l’Univers était dans une phase holographique où l’espace et le temps ne sont pas encore définis et qu’il serait entré dans une phase géométrique plus tardivement (voir schéma). Les propriétés physiques de la phase holographiques obéiraient à la physique quantique quand celles de la phase géométrique seraient mieux décrites par la physique relativiste.

Recherche matière/énergie sombre désespérément

Les recherches pour caractériser et trouver cette fameuse matière/énergie sombre sont pléthores et plusieurs pistes font l’objet d’études poussées.

C’est ainsi que dans le cadre du projet européen DarkMatterAMS qui s’appuie sur les données recueillies par un détecteur de particules (AMS-02) monté sur l’extérieur de la station spatiale internationale, les chercheurs estiment qu’il existe une source active de positrons dans notre galaxie qui ne proviendraient donc pas des rayons cosmiques. L’hypothèse aujourd’hui  privilégiée serait celle de nombreuses collisions de matière sombre engendrant ce surplus de positrons à des énergies faibles.

Sur Terre, c’est l’IceCube Neutrino Observatory qui a publié de nombreux résultats entre septembre 2016 et mi-janvier 2017 dont une synthèse de ses observations. Cet observatoire enterré sous 1,45 km de glace en Antarctique est dévoué à la détection des neutrinos. La glace opérant comme un filtre naturel pour isoler les effets des neutrinos par rapport aux autres particules et radiations.
L’un des objectifs de cet équipement est de mieux caractériser les trois saveurs de neutrinos connus actuellement (tau, muon et électron neutrino) et leurs différents mélanges, voire de réussir à trouver un quatrième type de neutrinos (les neutrinos stériles) qui pourrait expliquer la masse manquante de l’univers. Les premières analyses sont en défaveur de l’existence d’un neutrino stérile léger mais il reste beaucoup d’observations à faire. En attendant, IceCube a cependant déterminé qu’il n’y a pas de source unique de neutrinos dans l’Univers. Leur origine pourrait provenir de multiples sources (blazars, explosion de supernova tout comme d’autres corps peu lumineux de haute densité).

La Voie Lactée, poussée et tirée à la fois

Notre galaxie, la Voie Lactée se déplace non pas seulement attirée par un zone de haute densité de matière, mais aussi sous la poussée d’une zone de vide que des chercheurs français et israeliens ont détecté. Cette découverte résout une énigme de plus de 40 ans sur les forces expliquant le déplacement particulier de la Voie Lactée et de sa voisine Andromède (voir cet article pour plus de détails).

Notre système solaire évolue

Alors que l’on croyait que notre système solaire n’avait pas vraiment bougé depuis au moins un milliard d’années, l’analyse de météorites tombés lors de l’Ordovicien (-500 millions d’années) dont la composition est totalement différente de ceux d’aujourd’hui laissent à penser qu’il y a eu de forts remaniements au sein de notre système solaire à cette époque pouvant expliquer cette différence dans le flux météoritique selon une étude parue dans Nature Astronomy.

Sophie Hoguin

La cour des comptes épingle le recyclage à Paris

En 2014, l’Ile-de-France ne recyclait que 28 % des 462 kg de déchets ménagers et assimilés produits par habitant de la région. A Paris, ce taux est encore plus faible, puisqu’il n’atteignait que 17,4%. Ces mauvais résultats sont loin de la moyenne française (39 %). Et pourtant… Ces résultats nationaux sont déjà loin de la moyenne européenne de 44,6 %. Sans parler des allemands qui recyclent 64% de leurs déchets. La loi Grenelle avait fixé un objectif de 45% de déchets recyclés pour 2015. Et la loi de transition énergétique pour la croissance verte va encore plus loin, puisqu’elle prévoit un objectif de recyclage de 55 % en 2020 et de 65 % en 2025.

La Cour des comptes dénonce la précarité du recyclage en Ile-de-France. Mais encore davantage à Paris. Un immeuble sur trois n’y a pas de bac pour les bouteilles et un sur six pour les papiers les emballages. La capitale ne comprend que 887 conteneurs à verre pour 2,2 millions d’habitants. Par ailleurs, la région ne compte que 174 déchetteries publiques, dont 75% en grande couronne. Cela équivaut à une installation pour 69 000 habitants, contre une pour 14 000 habitants dans le reste de la France. Mais Paris intra-muros ne compte que 8 déchetteries. 10 nouvelles devraient être installées d’ici 2020.

Même lorsque les Franciliens trient, la qualité n’est pas au rendez-vous. La Cour des comptes note que la qualité de la collecte est « très médiocre» et « sans amélioration depuis 2005 ». En effet, à l’entrée des centres de tri, 25,7% des déchets collectés étaient encore refusés en 2014, sans amélioration depuis des années. Le plan régional fixait un objectif de 20 % en 2014 et de 15 % en 2019… Et pour cause : les Franciliens font beaucoup trop d’erreurs de tri. La Cour des comptes note une communication beaucoup trop faible sur les consignes de tri qui sont « parfois obsolètes et souvent mal comprises ».

Des biodéchets à recycler !

La collecte sélective des biodéchets est « inexistante », note le rapport. Pourtant, les biodéchets alimentaires représentent un quart des déchets collectés dans les ordures ménagères. Les sages notent que même pour les restaurants produisant plus de 300 repas par jour et des commerces alimentaires, la collecte des biodéchets alimentaires reste quasi-inexistante en Île-de-France, alors que la loi l’impose depuis janvier 2016 et prévoit sa généralisation d’ici 2025. Des villes telles que Lorient et Montpellier sont pionnières en France.

Pour améliorer le recyclage, la Cour propose de développer le dépôt volontaire de bacs par quartier, de moderniser les centres de tri, et d’organiser la collecte selon 4 flux de matériaux : le verre, les emballages légers, les biodéchets et les cartons/papiers. La Ville de Paris a récemment annoncé  le lancement d’une expérimentation pour la collecte des  biodéchets des particuliers dans les 2e  et 12e  arrondissements ainsi qu’une collecte pour le secteur de l’hôtellerie et de la restauration.

Une organisation «  éclatée » et peu performante

Malgré ces faibles performances, les coûts sont élevés. Le coût de gestion du service public des déchets s’élève à 72€ HT par habitant, contre 63€ HT en moyenne en France. La Cour des comptes souligne une organisation «  éclatée » et peu performante qui ne prend pas en compte la recomposition en cours de l’intercommunalité. En effet, 26 organismes différents s’occupent du traitement des déchets  pour 12 millions d’habitants. La moitié s’occupe également de la collecte. Le Syctom s’occupe des déchets de 5,6 millions d’habitants et traite à lui seul 44 % des déchets franciliens. Le Sirédom dans l’Essonne, deuxième syndicat francilien en termes de population couverte, ne traite que 7% des déchets.16 % des déchets franciliens sont traités par 12 syndicats qui couvrent chacun moins de 200 000 habitants. Le Smirtom du Vexin couvre le plus petit bassin de collecte, avec 66 918 habitants.

La Cour des comptes propose d’interdire pour une intercommunalité d’adhérer à plusieurs syndicats de traitement afin de permettre aux préfets « d’engager la recomposition de ces syndicats de traitement, selon un calendrier progressif, tenant compte des contraintes d’exploitation des  équipements ».

Une collecte trop chère !

Pour financer la collecte, les collectivités franciliennes ont choisi à 95% la  taxe d’enlèvement des ordures ménagères (contre 68% au niveau national) et à 4%  la redevance d’enlèvement des ordures ménagères (contre 29% au niveau national). Seulement 19 communes  financent la collecte grâce à leur budget général. La tarification incitative qui permet de moduler la contribution des usagers en fonction de la qualité de déchets réellement produite, n’est appliquée que par quatre communes franciliennes. La Cour des comptes propose de la développer.

Les déchets issus de l’industrie, des commerces et des services peuvent être collectés et traités en tant que déchets « assimilés » aux déchets ménagers. Ils représentent le quart des déchets collectés en Ile-de-France. Ces organismes générateurs de déchets ne sont mis à contribution via la redevance spéciale que par 30% des communes, pour un montant global correspondant à 5% du coût de gestion. Quant aux producteurs de produits mis sur le marché, partiellement assujettis au financement via les filières de responsabilité élargie du producteur (REP), avec 8% des déchets pris en charge, leur contribution en Île-de-France est inférieure à la moyenne nationale. La Cour des Comptes propose donc de revoir le barème de contribution des éco-organismes Eco-Emballages et Eco-Folio.

Par Matthieu Combe, journaliste scientifique

vr-bnb, ou la réalité virtuelle à la demande

D’un côté, des industriels possédant des équipements de réalité virtuelle/réalité augmentée (RV/RA) et des salles immersives (ou « caves ») utilisés ou occupées à temps partiel seulement. De l’autre, des professionnels et des entreprises souhaitant faire usage de ces outils pour développer leur activité, mais n’ayant pas le budget ou la volonté d’en faire l’acquisition. D’où l’idée de créer une plateforme, nommée vr-bnb, grâce à laquelle les uns et les autres puissent entrer en contact. Inspiré par Air-bnb, ce service de location consacré à la réalité virtuelle a été annoncé mi-décembre à l’occasion du salon it3D Summit. Il sera opérationnel vers la mi-mars, selon le compte à rebours affiché sur le site officiel (www.vr-bnb.com).

La société bordelaise Immersion, intégrateur spécialiste de ces technologies, est à l’origine du concept. «L’enjeu est de mettre à disposition les salles des industriels, tels que Alstom et Volvo, ce qui permet à ces derniers de rentabiliser leurs équipements et de couvrir les frais de fonctionnement et de maintenance, explique Christophe Chartier, le PDG d’Immersion. Le demandeur, quant à lui, s’inscrit sur le site Internet et renseigne plusieurs critères de recherche: distance, équipement souhaité, etc. De là, il prend connaissance de la salle correspondante et de sa disponibilité, avant de la louer pour une période donnée. Sur place, il sera accompagné par un expert-ingénieur, délégué par l’industriel en question. A terme, cet expert pourrait être un tiers

De 400 à 4000 € HT la salle

Le délai de quelques mois entre l’annonce et l’ouverture officielle du service a été mis à profit pour répertorier un nombre suffisant de salles de RV. «Le service à son lancement en comptera plus d’une centaine à l’échelle internationale » estime Christophe Chartier. Et quel est le modèle économique? «Nous prélèverons une commission sur chaque location» répond-il. Le prix d’une salle s’échelonne de 400 à 4000 € HT selon la durée et la typologie de l’équipement.

Immersion est à la recherche de fonds pour soutenir sa plateforme, qui ne manquera pas d’évoluer. «Nous prévoyons d’équiper toutes ces salles avec notre solution de collaboration Shariiing, déclare Christophe Chartier. D’une salle à l’autre, les clients retrouveront ainsi la même interface, les mêmes outils… Ensuite, ces salles seront interconnectées à des fins de collaboration distante. Nous ajoutons les briques à notre solution Shariiing pour ce faire.» Au delà d’un service pratique de mise en relation, vr-bnb pourrait rendre service… à la réalité virtuelle elle-même. «C’est une plateforme qui facilite l’accès à ces technologies et qui contribuera à les populariser, 09pense Christophe Chartier. Ne serait-ce que cartographier les salles existantes dans de grands groupes industriels, c’est déjà intéressant

Par Frédéric Monflier

Jusqu’à 11.000 microplastiques ingérés par an !

Une étude parue fin 2014 estime que les océans et mers du monde contiennent plus de 5.250 milliards de particules de plastiques. Avalés par la faune marine, ils contaminent la chaîne alimentaire et envahissent nos assiettes. Selon les recherches du Dr Colin Janssen à l’Université de Gand, les fragments de plastique de moins d’un millimètre se retrouvent largement dans les moules, huîtres et autres fruits de mers. L’étude en question n’a pas encore été publiée, mais a été révélée en exclusivité pour le documentaire de Sky News « Plastic Tides » (Marées Plastiques) diffusé pour lancer la campagne « Sky Ocean Rescue » fin janvier.

Les moules filtrent entre 20 et 25 litres d’eau par jour et ingèrent donc des microplastiques. Ces fragments sont pour la plupart excrétés, mais une moule renferme en moyenne au moins un petit fragment de plastique logé dans ses tissus, selon le Dr Janssen. Le chercheur estime ainsi qu’un plat de moules servi au restaurant peut contenir environ 90 particules de plastique.

Que devienent les microplastiques ingérés ?

Au total, les chercheurs estiment qu’un amateur de fruits de mer belge ingère entre 2.000 et 11.000 fragments de plastique chaque année, en fonction de sa consommation. Dans la première évaluation des risques menée sur le sujet, les chercheurs estiment que 99% des microplastiques ingérés par l’homme sont excrétés par le cors humain. Au final, moins de 60 fragments passeraient donc dans le sang et s’accumuleraient dans le corps chaque année.

« Maintenant que nous avons établi qu’ils [les microfragments] entrent effectivement dans notre corps et peuvent y rester pendant un bon moment, nous avons besoin de connaître le sort de ces plastiques. Où vont-ils ? Sont-ils encapsulés par des tissus et oubliés par le corps, ou est-ce qu’ils causent des inflammations ou autres problèmes ? Les produits chimiques s’échappent-ils de ces plastiques et causent-ils alors de la toxicité ? Nous ne le savons pas et nous devons savoir. » prévient le Dr Janssen.

Les scientifiques alertent sur le fait que cette contamination va s’intensifier à mesure que la pollution océanique va s’aggraver. D’ici 2100, les consommateurs réguliers de fruits de mer pourraient avaler 780.000 fragments de plastique par an. 4.000 microfragments seraient alors accumulés dans leur tissus chaque année.

Visionner le documentaire A Plastic Tide de Sky News

Par Matthieu Combe, journaliste scientifique

Etoile de tabby : un feuilleton qui touche à sa fin ?

Située à quelques 1480 années-lumières de la Terre, KIC 8462852 a été baptisée étoile de Tabby après que l’astronome Tabetha S. Boyajian ait dévoilé, en septembre 2015, les étranges baisses de luminosité de cette étoile et que scientifiques et grand public commencent à échafauder les hypothèses les plus créatives. Au point que chaque hypothèse et nouvelles données donne lieu à un épisode d’un feuilleton à succès : des milliers d’articles de presse, de messages dans les forums et une conférence TedX de la chercheuse qui compte plus de 2 millions de vues à ce jour…

En quoi Tabby est-elle différente ?

L’étoile de Tabby, comme des milliers d’autres a été scrutée pendant des années par le satellite Kepler dédié à la recherche et à l’étude des exoplanètes. Pour cela, Kepler s’appuie sur les baisses de luminosité des étoiles observées lorsqu’un astre s’interpose entre le satellite et l’étoile. Une baisse intermittente mais revenant régulièrement est généralement le signe de la présence d’une planète. Mais dans le cas de Tabby, les changements de luminosité sont importants et irréguliers. En outre, découvriront un peu plus tard, d’autres scientifiques, sur les 1600 derniers jours d’observations, la luminosité baisse de manière continue sur les 1000 premiers jours avant de connaître une brusque diminution pendant 200 jours.

Des hypothèses peu satisfaisantes

Au début du feuilleton, les scientifiques eux-mêmes lancent des hypothèses peu orthodoxes comme la présence d’une sphère de Dyson construite par des extra-terrestres ou les restes d’une planète détruite par une guerre interstellaire. Ou, plus “terre-à-terre” la présence d’un nuage de poussières dans un disque entourant l’étoile ou la présence d’un essaim de comète.
Cependant, ces hypothèses sont vite réfutées : pas de signal radio, pas de signature dans l’infrarouge comme ça serait le cas pour la présence de poussière ou d’un artefact extra-terrestre.

Une origine interne ?

En décembre 2016, plusieurs articles lancent des hypothèses scientifiques écartant les mégastructures extraterrestres. Ainsi, une équipe a simulé la présence de quatre objets massifs entourés d’un nuage de poussière issu d’une même origine. Les résultats, même si la simulation demanderait à être complexifiée, montrent une bonne corrélation avec les observations. Une autre équipe de chercheurs publie dans The Physical Rewiew Letters, l’hypothèse que l’origine de ces changements erratiques de luminosité seraient dus à une activité interne de l’étoile. Ils s’appuient pour cela sur les similitudes d’un modèle mathématique décrivant les avalanches ou les tempêtes solaires. Ils émettent l’hypothèse que Tabby serait une étoile très active avec des explosions massives occultant de manière arbitraire une partie de sa lumière. Enfin, une troisième équipe, a publié sur ArXiv, une hypothèse qui fait en quelque sorte la synthèse des deux précédentes. Selon ces chercheurs, Tabby aurait englouti une exoplanète entre 10 000 et 200 ans auparavant. Au moment de l’engloutissement, l’apport d’énergie gravitationnelle l’aurait rendu plus brillante. La baisse de luminosité régulière enregistrée depuis un siècle serait en fait un retour à la normal. Quant aux baisses de luminosité plus erratiques et brutales, elles seraient produites par des débris issus de cet engloutissement ou d’un autre événement lié ou non à l’étoile elle-même mais ayant produit plusieurs corps stellaires qui passent devant l’étoile.
Alors fin d’un feuilleton ? Pas tout à fait, puisque ces hypothèses sont déjà discutées (voir le site qui suit l’actualité de cette étoile) et que dans tous les cas, il faudra des observations complémentaires qui pourraient bien prendre… des années.

Par Sophie Hoguin

Le Danemark teste une éolienne de 9 MW

MHI Vestas Offshore Wind a optimisé son éolienne offshore V164-8.0 MW, en test depuis 2014 à Østerild, au nord du Danemark. Grâce à ces améliorations, l’éolienne a atteint une puissance nominale de 9 mégawatts (MW), « aux conditions spécifiques du site », précise l’entreprise. Ainsi, le 1er décembre 2016, elle a produit 216 mégawattheures d’électricité en 24 heures. Cette éolienne détient donc le nouveau record de production pour une éolienne offshore commerciale.

C’est mathématique : plus les turbines sont puissantes, moins il faut en installer pour atteindre la puissance d’une ferme éolienne offshore. L’entreprise annonce donc des économies sur l’installation et la maintenance grâce à sa nouvelle monture. L’ancienne version, la V164-8.0 MW est déjà installée sur le parc éolien Burbo Bank Extension de 258 MW, au large de Liverpool. Son carnet de commande comprend des projets totalisation 1,6 gigawatts.

Quelles sont les caractéristiques de cette éolienne ?

L’éolienne de MHI Vestas Offshore Wind est plus qu’imposante : le prototype d’ Østerild mesure 220 m de hauteur, ses pales s’étendent sur 80 m et pèsent chacune 35 tonnes. Cela lui permet de balayer 21.124 m2 d’air, soit plus que la grande roue de Paris. Sa nacelle mesure 20 m de long, 8 m de hauteur et de largeur, pour un poids d’environ 390 tonnes. Par ailleurs, cette turbine détient un autre record : elle est recyclable à hauteur de 80%, au terme de sa durée de vie opérationnelle prévue à 25 ans.

L’éolien en mer a battu tous ses records en termes d’installation l’an dernier, avec 30 milliards de dollars investis dans le monde, soit 40 % de plus qu’en 2015. En 4 ans, le coût de production de l’électricité générée par les éoliennes en mer au Royaume-Uni a baissé de 30%. Il atteint aujourd’hui une moyenne de 97 livres sterling (112,80 euros), selon un rapport publié par le Offshore Wind Programme Board. Très en retard, la France ne détient encore aucune éolienne offshore. L’électricité produite par les parcs éoliens en mer actuellement prévus d’ici 2023 coûteront plus de 220 euros par mégawattheure.

Le 30 janvier, Siemens a annoncé pour sa part l’installation de son prototype d’éolienne de 8 MW, également à Østerild. De son côté, Adwen a testé son prototype d’éolienne de 8MW dans le champ d’essai d’éoliennes offshore à Bremerhaven en Allemagne en 2016. Cette éolienne doit notamment équiper les parcs éoliens français de Saint-Brieuc, Le Tréport et Yeu-Noirmoutier.

Par Matthieu Combe, journaliste scientifique

Audit énergétique en entreprise : jusqu’à 30% d’économies !

L’audit énergétique est obligatoire depuis le 5 décembre 2015 pour les entreprises de plus de 250 salariés ou celles qui réalisent un chiffre d’affaires annuel supérieur à 50 millions d’euros et présentent un total de bilan supérieur à 43 millions d’euros. Cet audit concerne notamment les bâtiments, les procédés industriels et les activités de transport et couvre au moins 80 % du montant des factures énergétiques acquittées par l’entreprise. Les organisations concernées doivent renouveler l’expérience tous les 4 ans.

Des économies rapidement rentabilisées ?

AFNOR Energies a analysé 72 rapports d’audits énergétiques réalisés par ses soins selon la norme volontaire NF EN 16247. L’enseignement principal est qu’un audit énergétique identifie en moyenne un gisement de 20 à 30 % d’économies, « qu’elles soient exprimées en kilowattheures d’énergie primaire ou en euros, […] que l’audit se focalise sur les bâtiments et/ou sur les procédés industriels », assure le bureau d’études. « Cette fourchette correspond à l’objectif d’amélioration de la performance énergétique des bâtiments tertiaires prévu dans le projet de décret d’application de la loi Grenelle 2 et de la loi de transition énergétique : – 25 % à échéance 2020 », se félicite Catherine Moutet, responsable d’AFNOR Energies. Ce qui justifie donc pleinement l’intérêt de cette réglementation.

audit-procedes

Les différentes actions sont rentabilisées très rapidement. Pour les procédés, les investissements représentent 46% de la facture d’énergie annuelle et sont rentabilisés en 2 ans et demi. Pour les bâtiments, les investissements sont plus conséquents : ils s’élèvent à 106% de la facture annuelle, mais sont rentabilisés en tout juste plus de 4 ans. En moyenne, AFNOR Energies estime que l’investissement total s’élève à près des ¾ de la facture énergétique annuelle pour un retour sur investissement inférieur à 3 ans et demi.

Quels travaux sont finalement réalisés ?

L’audit énergétique découle sur une série de propositions pour économiser l’énergie. Si l’entreprise n’a aucune obligation de lancer un plan d’actions, AFNOR Energies assure que les entreprises jouent le jeu dans la plupart des cas et s’approprient la démarche. Ainsi, 80% déclarent vouloir déployer les actions d’amélioration de la performance énergétique, 36% déployer un système de management de l’énergie ISO 50001 et 8% un plan de mesurage de l’énergie.

Malgré ce bilan positif, AFNOR Energies regrette que les entreprises investissent presque tout sur le matériel, au détriment de la mesure et du management. En effet, 88 % des actions préconisées et retenues se focalisent sur le matériel, contre seulement 12% pour le système de management au sens large. Le bureau d’étude rappelle donc l’importance de suivre les résultats dans le temps et d’acquérir des outils de mesure et de vérification de la performance énergétique.

Par Matthieu Combe

Fukushima : Tepco croit avoir trouvé le corium

Radiations mortelles

Un robot envoyé par Tepco dans le bâtiment réacteur n°2 de Fukushima a relevé des niveaux de radioactivité allant jusqu’à 530 sieverts par heure. C’est extrêmement élevé. Les experts considèrent qu’un débit de dose reçu de 5 sieverts par heure tuerait la moitié de ceux exposés en un mois, et qu’un débit de dose de 10 sieverts/heure serait mortel en quelques semaines.

Les robots ne sont guère mieux lotis et ont tous péri après quelques heures, non sans avoir livré de précieuses informations. Le dernier à s’être introduit dans l’enceinte de confinement du réacteur 2 a envoyé, grâce à sa caméra embarquée, des images d’un trou d’un mètre carré environ, sur une plateforme métallique située sous la cuve qui contient le cœur du réacteur. « Il peut avoir été causé par la chute du combustible qui aurait fondu et percé la cuve, mais ce n’est à ce stade qu’une hypothèse », indique Tatsuhiro Yamagishi, un porte-parole de Tepco à l’AFP. Cela coïnciderait avec les niveaux extrêmement élevés de radioactivité dans cette partie du bâtiment. « Nous estimons que les images recueillies cette fois constituent de précieuses informations, mais il nous faut encore investiguer, sachant qu’il est difficile de présupposer l’état réel à l’intérieur », souligne le porte-parole.

schéma REB (2)

Cadarache étudie le corium

Ces images et relevés de radioactivité intéressent au plus au point les ingénieurs de Tepco qui n’ont toujours pas pu localiser les combustibles nucléaires fondus des trois réacteurs endommagés. Or, le trou observé laisse craindre à un percement de la cuve, voire du radier, la dalle de béton constituant la partie basse de l’enceinte du réacteur. C’est justement ce qu’une équipe du Commissariat à l’énergie atomique (CEA) de Cadarache cherche à savoir. En partenariat avec la Japan Atomic Energy Agency, ils ont reconstitué en janvier dernier un corium similaire à celui de Fukushima pour « observer et mesurer la capacité du corium à provoquer l’ablation d’un béton représentatif de celui du radier. Ces résultats permettront à nos partenaires japonais de développer des systèmes de récupération, de découpe et de traitement du corium qui pourront être utilisés pour le démantèlement des réacteurs de Fukushima-Daïchi », indique le CEA. Tepco a annoncé la poursuite des recherches avec l’envoi d’un nouveau robot sur le réacteur n°1 cette fois.

Romain Chicheportiche

L’Usine du futur prend forme en Moselle

Quelques jours après l’inauguration d’Air Liquide le 26 janvier dernier, d’un centre de pilotage qui gérera à terme la production pour ses 22 usines 24h/24 et 7j/7, c’était au tour d’un autre membre de l’Alliance Industrie du Futur de lancer ses premières installations. Le CEA Tech, direction de la recherche technologique du CEA, vient en effet d’ouvrir sa plateforme FFLOR (Future Factory @ Lorraine) sur le site de PSA à Trémery (Moselle).

Un équipement au service de tous

Cette plateforme de 1000m2 est au service des industriels, quel que soit leur secteur d’activité et leur taille. Elle offre aux adhérents, au choix, soit la possibilité d’assister à des démonstrations soit de réaliser des essais à partir des équipements disponibles. Objectif: apporter un soutien technique, faire monter les compétences pour structurer la filière “usine du futur” de la région. Pour son montage initial, FFLOR a bénéficié de fonds publics (à parts égales région Grand Est et Etat) pour un montant de 4 millions d’euros. Déjà onze partenaires ont signé une charte de collaboration avec le CEA. L’organisme en attend une vingtaine d’ici la fin de l’année. Parmi eux, on retrouve PSA bien sûr, mais des acteurs divers comme Opteamum, entreprise spécialisée dans les systèmes automatisés ou WM88, un spécialiste de l’ameublement basé dans les Vosges.

Quatre thématiques, une vision globale

Les équipements installés couvrent quatre grandes thématiques d’innovation industrielle:

  • la réalité virtuelle et la réalité augmentée notamment en vue de la conception de nouveaux postes de travail, de formation des opérateurs ou d’analyse ergonomique;
  • la robotique collaborative (cobotique) via 15 robots collaboratifs (prévus d’ici fin 2018) dont 7 seront sur base mobiles (avec des partenaires tels que Kuka et sa technologie IIWA, ABB et son robot YuMi ou Universal Robot et ses bras robotiques), deux convoyeurs de 10m, le manipulateur Cobomanip de Sarrazin Technologies pour les charges lourdes et le cobot de Isybot, une start-up du CEA créée en décembre 2016, qui va tester l’assistance de l’opérateur pour les tâches de finition de ponçage/polissage.
  • La logistique intelligente disposant de trois chariots automatisés autoguidés (société Asti) pour l’approvisionnement automatique en bord de ligne par exemple. Huit sont prévus à la fin 2018.
  • La connectivité et l’interopérabilité via une architecture réseau de 1Gbit permettant la connexion de l’ensemble des équipements sur 300 point de raccordement. La communication entre les différents systèmes s’appuyant sur Tango Controls, une boîte à outils logiciel open source.

Selon ses ambitions, l’industriel peut tester tout ou partie des équipements sur des projets pouvant aller jusqu’à un an. En outre, cette plateforme sera aussi l’occasion de créer des groupes de travail sur certaines problématiques communes.

Par Sophie Hoguin

Les entreprises toujours dans le viseur des cybercriminels

Les quelques 7 000 participants de la 9e édition du FIC sont unanimes : en étant de plus en plus connectées à divers réseaux, les entreprises multiplient à l’envi les risques d’être infectées par un code malveillant visant à chiffrer leurs données (ransomware) ou à les espionner. Et aucun signe ne montre une évolution positive de cette tendance plus ou moins anxiogène pour de nombreux décideurs.

En menant une stratégie de « transformation digitale », les entreprises doivent être à la fois agiles, performantes, productives et… sécurisées. Est-il possible de relever ce défi ? Pour l’instant, de nombreuses organisations privilégient l’efficacité, pour gagner des parts de marché, au détriment de la confidentialité de leurs informations, fussent-elles « critiques ».

Demande de rançon sur les smartphones

« Mobile first » est le maître mot des décideurs. Leurs collaborateurs doivent être très réactifs afin de répondre précisément aux demandes des clients qui ont eux-mêmes leur smartphone à portée de main. D’où l’intégration de plus en plus poussée des téléphones et du Cloud dans les Systèmes d’information (SI) pour satisfaire à ces exigences d’immédiateté.

Seul souci : la gestion de ces terminaux mobiles et des accès aux applications en ligne (en mode SaaS) laisse très souvent à désirer. D’où une multiplication des attaques informatiques en 2016. Et cette année, ce sera pareil. « En 2017, on devrait observer une évolution des attaques dites “ransomware” vers l’environnement mobile. L’an dernier, on a vu des attaques ransomware commencer à s’attaquer à Android. En 2017, une recrudescence de nouvelles attaques de ce type sur mobile devrait voir le jour. Au-delà d’Android, cette tendance devrait s’accroître et s’étendre aux autres systèmes d’exploitation », avertit Lookout est une société de cybersécurité leader, spécialisée dans le tout mobile.

Sabotage et pertes humaines

Autre maillon faible exploité par les pirates : les objets connectés. Mal ou pas du sécurisés, les capteurs IoT offrent un boulevard aux cybercriminels. 2016 l’a démontré avec le « botnet » Mirai (un réseau de machines infectées et contrôlées par des pirates) qui a infecté des millions d’objets connectés, notamment des caméras vidéos, pour ensuite lancer des attaques contre des entreprises, comme l’hébergeur français OVH.

Lors du FIC, Guillaume Poupard, le patron de l’Agence nationale de la sécurité des systèmes d’information (Anssi) a même évoqué des pertes humaines. Dans une interview accordée à Industrie & Technologies, il a avoué que sa grande crainte était le « sabotage. C’est-à-dire quelqu’un qui voudrait, dans le meilleur des cas, éteindre le système pour l’empêcher de fonctionner. Mais dans le pire des cas, il y a évidemment la volonté de provoquer des catastrophes. Quand on s’attaque au monde du transport, on peut vite avoir des effets absolument dramatiques y compris sur les vies humaines ».

Philippe Richard

Le casse-tête du démantèlement nucléaire

Les conclusions de la mission d’information conduite par les députés Julien Aubert (LR) et Barbara Romagnan (PS) pour le compte de la Commission du développement durable de l’Assemblée nationale sur le démantèlement nucléaire ne sont guère réjouissantes. Les travaux sur les installations nucléaires françaises prendront plus de temps que prévu et coûteront plus cher. Pire, certaines problématiques techniques sur les filières « bis » ne sont pas encore résolues.

Faisabilité pas assurée

L’industrie nucléaire française a étudié et construit plusieurs modèles de réacteurs nucléaires avant d’opter pour la production en série du REP (réacteur à eau pressurisée) sur 3 paliers de puissance (900, 1 300 et 1 450 MW). Si EDF semble mener à bien le premier démantèlement de REP, en l’espèce Chooz A, toujours en cours, il n’en va pas de même pour ses premiers réacteurs construits en France. L’électricien est confronté à des difficultés sur les six réacteurs dits « uranium naturel graphite-gaz » (UNGG), ainsi que sur Brennilis et Superphénix, des réacteurs atypiques « dont le long démantèlement se poursuit dans la douleur », expliquent les rapporteurs. Les premières expériences de l’électricien en matière de démantèlement sont préoccupantes, tant sur le plan technique que sur celui des délais.

Brennilis

Fonctionnant par intermittence entre 1967 et 1985, cette centrale expérimentale d’une puissance de 70 MW est la seule en France à avoir fonctionné avec un réacteur à eau lourde. Aujourd’hui, EDF estime que le démantèlement complet pourrait être achevé en 2032, soit 47 ans après la mise à l’arrêt de la centrale. Son coût devrait lui atteindre les 482 millions d’euros, soit 20 fois plus que prévu.

Les réacteurs au graphite

La principale difficulté du démantèlement des réacteurs graphite-gaz, après enlèvement des éléments de combustibles nucléaires, consiste à traiter les empilements de couches de graphite. Il est procédé à ce traitement par une méthode originale de démantèlement « sous eau » qui consiste à remplir d’eau le caisson de béton afin de protéger les ouvriers de la radioactivité pour procéder à la découpe de la partie haute du caisson avant d’atteindre l’empilement de graphite, l’eau étant en circulation permanente, ce qui permet de la filtrer. Cette méthode de démantèlement sous eau a été utilisée avec succès lors du démantèlement du réacteur de Fort Saint-Vrain, dans le Colorado, aux États-Unis, qui était un réacteur de la filière dite HTGR (high temperature gaz cooled reactor). Le réacteur a été définitivement démantelé en 1997, moins de dix ans après sa mise à l’arrêt, pour un coût de 283 millions de dollars (263 M€). Unique en son genre mais présentant des caractéristiques communes avec les réacteurs de la filière UNGG, ce démantèlement a été pris en exemple par EDF pour ses réacteurs graphite.

Les opérations semblaient se dérouler de façon satisfaisante mais EDF a changé récemment de stratégie en raison de « différences matérielles » entre le réacteur américain et le modèle français rendant impossible le démantèlement sous-eau. La découverte de cette impossibilité technique après 15 ans d’études, plus de 20 ans après la fermeture de la dernière unité de production (site du Bugey 1 en 1994) et 19 ans après l’achèvement du démantèlement sous eau du réacteur de Fort Saint-Vrain arrive pour le moins tardivement. Ce sont les réponses à l’appel d’offres lancé par l’électricien qui l’auraient convaincu de changer de stratégie dans la mesure où l’extraction du graphite demandera – aux dires des sous-traitants – environ 15 ans, contre trois envisagés précédemment. Or laisser sous eau une telle structure pendant aussi longtemps poserait inévitablement des problèmes de corrosion. C’est la raison pour laquelle un allongement des délais a été décidé, d’autant que l’électricien souhaite valider sa méthode de démantèlement sur un premier réacteur, d’ici à 2060 environ, avant de déconstruire les cinq autres, au cours des 40 années suivantes, soit au-delà de 2100.

Le cas Superphénix

Situé sur le site de Creys-Malville, en bordure du Rhône, Superphénix est un réacteur nucléaire entré en service en 1985 et arrêté en 1996. C’était à l’origine un prototype de réacteur à neutrons rapides à caloporteur sodium succédant aux réacteurs nucléaires expérimentaux Phénix et Rapsodie. Mais son facteur de charge (6%) a été inversement proportionnel à son coût dont les estimations varient allègrement.

Le déchargement du combustible nucléaire a duré 3 ans mais là n’est pas la partie la plus complexe de ce démantèlement atypique compte tenu de la technologie utilisée. Le traitement du sodium constitue une phase très délicate dans la mesure où, à l’état liquide le sodium explose au contact de l’eau et s’enflamme au contact de l’air. Superphénix renfermait au total 4 700 tonnes de ce produit : 3 500 tonnes radioactives du circuit primaire (cuve) et 1 200 tonnes du circuit secondaire des échangeurs de chaleur. Pour le maintenir à l’état liquide, l’ensemble du sodium est chauffé à 180 C° depuis l’arrêt définitif du réacteur, soit 19 ans.

EDF prévoit la fin des travaux à l’horizon 2028. Si aucun retard n’est enregistré, la durée du démantèlement sera donc presque 3 fois plus longue que celle de son activité (11 ans). Dans son rapport de janvier 2012, la Cour des comptes estimait le coût du démantèlement de Superphénix à 955 millions d’euros. Pour Bernard Laponche, de l’association Global Chance, « Il n’est pas déraisonnable de penser que le coût sera plutôt de l’ordre de 2 milliards d’euros ».

Effet de série limité

A l’instar des économies d’échelles obtenues par la production en série de réacteurs nucléaire en France, EDF estime pouvoir bénéficier d’un effet similaire pour le démantèlement. Cette position s’appuie sur l’étude Dampierre qui fait l’hypothèse que les sites sur lesquels se trouvent des réacteurs définitivement arrêtés comportent, pendant toute la durée du démantèlement, une ou deux tranches en service ou en construction à proximité, ce qui permet de mutualiser les services de soutien entre les tranches en production (ou en construction) et celles en démantèlement. Cette hypothèse est très favorable à l’exploitant puisqu’elle lui permet d’éviter de dupliquer un grand nombre de frais. Mais elle est, à bien des égards, problématique car elle signifie tout simplement qu’EDF ignore la loi sur la transition énergétique : « EDF considère qu’il y aura un réacteur en construction ou en exploitation sur tous les sites. Il s’agira la plupart du temps de nouveaux réacteurs dont la construction n’est actuellement pas décidée. Ainsi, EDF considère que le programme nucléaire français va se poursuivre comme par le passé, sans tenir compte de la loi de transition énergétique qui limite à 50 % la part de nucléaire dans d’électricité produite en France ». Comme l’a fait remarquer André-Claude Lacoste, ancien président de l’Autorité de sûreté nucléaire que la mission a entendu, « l’idéal pour tout grand électricien serait de disposer, sur un même site, d’un réacteur en construction, d’un autre en exploitation et d’un troisième en cours de démantèlement ». Mais cela relève davantage du souhait que de la réalité.

Pas assez de provisions

La mission d’information, comme la Cour des Comptes en son temps, a mis en garde EDF contre l’insuffisance des provisions. Selon les comptes consolidés d’EDF au 31 décembre 2015, sur les 75 milliards d’euros de charges brutes estimées par l’électricien pour le démantèlement de l’ensemble de son parc nucléaire, 36 milliards d’euros de provisions ont été, pour l’instant, constituées. Mais sur cette somme, seuls 23 milliards d’euros étaient couverts par des actifs dédiés. Par ailleurs, les députés estiment que les hypothèses optimistes sur lesquelles EDF a bâti ses prévisions, de même qu’un certain nombre de dépenses lourdes négligées, conduisent à s’interroger sur la validité des prévisions, d’autant que dans le même temps, certaines charges semblent sous-évaluées voire non-prises en comptes : le retraitement du combustible usagé, les taxes et assurances ou encore le coût social.

Romain Chicheportiche

Des avancées majeures pour le photovoltaïque organique

ArtESun, le projet d’un consortium européen d’entreprises et d’instituts de recherches sous la coordination de l’institut de recherche finlandais VTT a présenté ses premières applications basées sur le photovoltaïque organique. Issus de trois ans de recherches fructueuses ces modules présentent un haut rendement (c’est-à-dire supérieur à 15%), une durée de vie augmentée et des coûts de production abaissés.

artesun panneau

Des démonstrateurs de toutes formes

Pour illustrer sa nouvelle technologie, ArtESun a produit plusieurs modules intégrés à des applications très différentes.

La première est une étiquette RFID dans laquelle la batterie est remplacée par un module solaire organique de la taille d’une carte de crédit. Le module est capable d’alimenter les communications sans fil entre l’étiquette RFID et son lecteur, ainsi que le dispositif de capteur intégré pour une utilisation sur des véhicules ou des bâtiments par exemple. Le fonctionnement est garanti jusqu’à une journée complète dans des conditions de faible luminosité.

La deuxième application proposée est celle d’une antenne solaire souple, en l’occurrence sous la forme d’une fleur qui a été fabriquée par héliogravure. Le module est capable d’alimenter une radio et un capteur environnemental pour être intégré à un réseau de capteurs sans fil par exemple. Il peut être utilisé pour une surveillance environnementale comme celles requises dans le secteur agricole.

artesun fleurEnfin, les chercheurs ont construit des modules de grande surface assemblés dans un élément de façade vitré destiné aux bâtiments. D’une taille d’161 cm sur 38 cm, cet élément peut être intégré dans une façade ventilée. Testé auprès d’un panel d’experts de l’inspection visuelle, son taux d’acceptation global a été compris entre 7 et 8 (sur une échelle de 10).

Deux percées technologiques majeures

Depuis plusieurs années, la recherche de rendement du photovoltaïque organique est active. L’équipe internationale a réussi à créer des cellules photovoltaïques organiques dont le rendement est supérieur à 15% dans des environnements favorable en combinant de nouveaux matériaux de couche active et d’électrode à des techniques de revêtement et d’interconnexion de module. Par ailleurs, les modules ont été produits par des techniques de revêtement et d’impression 3D rouleau-à-rouleau (roll-to-roll – R2R) sans aucun traitement sous vide ce qui as permis une grande liberté de forme aux différents modules et ce qui diminue considérablement les coûts de fabrication industrielle comparé au photovoltaïque inorganique.

Sophie Hoguin

Le PDG de Total défend un prix mondial du carbone

« En l’absence de prix du carbone, le mix énergétique va profondément évoluer vers un mix charbon – renouvelables », analyse Patrick Pouyanné, PDG de Total. Et ceci partout dans le monde ! « C’est assez paradoxal, mais vrai pour beaucoup de pays », ajoute-t-il. C’est déjà le cas de l’Allemagne et  du Danemark proche de nous. Mais c’est aussi vrai dans les grands pays asiatiques tels que la Chine, l’Inde ou le Japon.

La transition énergétique, c’est favoriser les économies d’énergies, augmenter la part des énergies renouvelables, diminuer les énergies fossiles, mais surtout lutter contre le charbon. « Il n’y a qu’une seule façon de le faire, c’est le prix du carbone », défend Patrick Pouyanné. Un signal de prix assez fort permettrait de faire un « switch  du charbon au gaz », renforcer la compétitivité des énergies renouvelables avec moins de subventions et inciter à développer les technologies de captage/stockage du CO2.

Preuve de ce combat pour un prix du carbone, le PDG rappelle l’appel qui a été fait par Total en mai 2015, aux côtés des britanniques BG et BP, de l’italien Eni, de l’anglo-néerlandais Shell et du norvégien Statoil pour des mécanismes de tarification du carbone s’appliquant dans tous les pays du globe. Les différents acteurs s’accordent pour dire qu’un prix situé entre 20 et 30 euros, serait suffisant pour remplacer le charbon par le gaz. Mais il ne faut pas chercher à avoir un prix unique dans le monde et « il ne faut pas parler d’une taxe à 100 euros ou 100 dollars la tonne qui fait peur à tout le monde», s’alarme le PDG. Il défend ainsi un marché européen plus efficace que l’ETS (Emission Trading system), le marché européen actuel du carbone, où le prix de la tonne de CO2 avoisine les 6 euros. Les Anglais ont décidé d’agir de façon unilatérale et instauré une taxe carbone de 20 euros la tonne il y a deux ans. « Cela a suffit pour que le système électrique britannique switche du charbon au gaz », rappelle Patrick Pouyanné.

En août 2015, Total confirmait la fin de toutes ses activités liées au charbon. En avril 2016, l’entreprise annonçait un virage stratégique pour renforcer ses activités dans les énergies renouvelables et le gaz naturel. Mais Total restera une major des hydrocarbures. D’ici 20 ans, « notre mix énergétique sera peut-être 35-40% de pétrole, 45-50% de gaz et le reste dans les énergies bas carbone : biomasse, solaire et stockage », prévient le PDG.

Par Matthieu Combe, journaliste scientifique

Le Raspberry Pi 3 en route pour l’embarqué et l’Internet des objets

Le Raspberry Pi est un ordinateur qui se caractérise par sa compacité et son petit prix. Ces deux atouts lui ont valu l’estime d’une large communauté de développeurs et informaticiens, avec à la clé un beau succès commercial. Depuis sa première apparition en 2012, ce nano-ordinateur s’est en effet écoulé à 10 millions d’unités à travers le monde, selon les chiffres communiqués en septembre 2016 par la fondation du même nom. Conçu à des fins pédagogiques pour le secteur éducatif notamment, il s’étend sur d’autres territoires, dont l’industrie, l’Internet des objets et les applications professionnelles dans l’embarqué. Annoncé il y a quelques jours, le Compute Module 3 (CM3) est un moyen d’entériner cette stratégie : c’est une version miniaturisée du Raspberry Pi 3B (en fait la 4e génération), commercialisé depuis février 2016.

Disponible au format standard SO-DIMM, le CM3 ne mesure plus que 67×30 mm, contre 85×56 mm pour son aîné. Il bénéficie toutefois d’une puissance de calcul identique, apportée par un processeur Broadcom BCM2837, lui même basé sur un processeur à quatre cœurs ARM Cortex-A53 à 1,2 GHz. A titre de comparaison, les performances sont dix fois supérieures à celles du Raspberry Pi initial. Le CM3 embarque également 1 Go de mémoire vive. Deux modèles coexistent, le CM3 et CM3 Lite, selon la présence ou non de 4 Go de mémoire de stockage de type Flash eMMC. Le gabarit est quasi-identique à celui du module CM qui avait complété en 2014 l’offre Raspberry A+/B+, avec le même objectif. Le CM3 peut donc remplacer son prédécesseur dans une application existante sans modification matérielle. A pleine puissance, il consomme environ 4 watts et ne se destine pas aux «petits» produits, fonctionnant sur batterie.

Première application dans des écrans NEC

La fondation Raspberry a annoncé dans le même temps la sortie de sa nouvelle carte d’entrée/sortie dédiée au module CM3. Elle comprend une connectique identique (port GPIO 46 broches, 1 USB type A, 1 micro USB type B, port HDMI, WiFi/Bluetooth…) avec en supplément un port de carte SD, utile pour le modèle CM3 Lite. Cette carte de référence permet aux ingénieurs de tester les performances du CM3, avant d’élaborer leur propre carte mère en phase avec les besoins de l’application visée. Avant même son annonce officielle, le CM3 a trouvé un premier point de chute chez NEC à la fin de l’année dernière. Les derniers écrans LCD à affichage dynamique de l’industriel japonais, qui relaient des messages informatifs ou promotionnels dans les commerces ou les espaces publics, incorporent en effet un module CM3. Ces terminaux sont alors dotés d’une certaine capacité informatique in situ et peuvent héberger des logiciels de création de contenu et de supervision. Ce concept modulaire est appelé à se développer un peu partout dans les industries.

Le CM3 et le CM3 Lite sont disponibles chez le partenaire distributeur habituel de Raspberry Pi, à savoir RS sur le sol européen. Les prix respectifs sont de 31,85 € HT et 25,95 € HT. La carte E/S est quant à elle vendue 113,28 € HT.

Par Frédéric Monflier

L’Anses s’attaque aux risques émergents

Concernant les nouvelles technologies, l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) va étudier cette année l’impact potentiel sur la santé, notamment sur le système visuel, des casques de réalité virtuelle. Elle va aussi examiner les modifications de comportements et les impacts que peuvent faire peser les nouvelles technologies de l’information et de la communication sur la santé psychique des individus. En ligne de mire : l’usage quotidien des smartphones et autres dispositifs nomades et la multiplication des objets connectés.

L’Anses mettra aussi à jour son expertise sur les effets sanitaires des LED. Elle s’attachera à distinguer les différents types d’application : ampoules, jouets, écrans, phares… et mettra en perspective les risques liés à la lumière bleue et les risque d’éblouissements des LED avec les autres technologies d’éclairage. L’expertise évaluera aussi les risques environnementaux liés à lapollution lumineuse, aux déchets et à la composition des LED.

Toujours sur les perturbateurs endocriniens

L’Anses va étudier l’impact de l’exposition précoce des enfants aux contaminants environnementaux durant la période dite des « 1000 jours » : in utero et en bas âge. Objectif : déterminer l’existence de fenêtres de sensibilités particulières sur le développement neurologique et cognitif. L’agence approfondira également son travail sur les phtalates pour évaluer les risques sanitaires liés à un mélange de phtalates, en prenant en compte plusieurs voies d’exposition : alimentation, jouets, air, poussières…

Suite à la détection de résidus de substances toxiques dans les produits d’hygiène intime féminine par la revue « 60 millions de consommateurs », l’Anses va s’intéresser à la sécurité de ces protections intimes. Objectifs : identifier les substances chimiques préoccupantes susceptibles de les contaminer, évaluer les risques sanitaires, faire des propositions pour définir des limites maximales de résidus et mieux informer les consommateurs. Une étude similaire portera sur les couches pour bébés.

Mais aussi pollution de l’air, éoliennes, pesticides , eau…

L’ Anses va rendre cette année son travail sur l’efficacité des masques antipollution pour la population et les travailleurs. Contre quels polluants sont-ils efficaces et dans quelles conditions ? Ont-ils des effets sanitaires indésirables et ont-ils de réels bénéfices ? Autant de questions auxquelles l’agence répondra.

Du côté des zones rurales, les riverains des éoliennes se plaignent souvent d’une gêne spécifique liée aux basses fréquences et aux infrasons. Début 2017, l’agence rendra un travail très attendu sur ces risques sanitaires potentiels. Cette fois-ci, chez les riverains de zones viticoles et arboricoles, en commençant par la pomiculture, elle étudiera la possibilité de lancer une grande étude sur l’exposition aux pesticides. L’étude mesurera les résidus de pesticides dans le corps des riverains et dans l’environnement.

Enfin, l’agence rendra son travail sur l’impact du traitement de l’eau par des orthophosphates, dans le but de réduire la teneur en plomb de l’eau distribuée au robinet des usagers. L’agence restera par ailleurs évidemment mobilisé sur l’ensemble des grands enjeux sanitaires qu’elle traite depuis longtemps : perturbateurs endocriniens et Bisphénol A, pesticides, biocides, expositions liées à l’alimentation, nanomatériaux, radiofréquences, lutte contre l’antibiorésistance animale, qualité de l’air…

Par Matthieu Combe, journaliste scientifique

Ecophyto 2 : un peu moins de pesticides !

Selon les chiffres publiés par le Ministère de l’agriculture, de l’agroalimentaire et de la forêt, le nombre de doses-unités épandues à l’hectare (NODU), l’indicateur d’utilisation des pesticides du plan Ecophyto, enregistre une baisse de 2,7 % entre 2014 et 2015 pour les usages agricoles. C’est une bonne nouvelle, après une hausse  spectaculaire de 9,4% entre 2013 et 2014 et une hausse de 9,2 % entre 2012 et 2013. Néanmoins, sa valeur moyenne triennale augmente de 4,2 % entre les périodes 2012-2014 et 2013-2015. Une hausse inférieure aux hausses triennales précédentes :  5,8 % entre 2011-201 et 2012-2014.

Pour les zones non agricoles (jardiniers amateurs et collectivités), la réduction de l’usage des pesticides est largement supérieure : – 14 %. L’interdiction de l’usage des pesticides par l’État et les collectivités pour l’entretien des espaces verts, prévue par la loi de transition énergétique pour la croissance verte, votée à l’été 2015, semble déjà porter ses fruits.  Dès 2019, viendra s’y ajouter l’interdiction de la vente de pesticides aux jardiniers amateurs.

Pour rappel, l’objectif du plan Ecophyto était de parvenir à une baisse de l’usage des pesticides de 50% entre 2008 et 2018. Face à l’absence de résultats, Stéphane Le Foll, ministre de l’agriculture, a lancé le plan Ecophyto 2 en octobre 2015. Il vise désormais une baisse de l’usage des pesticides de 25 % en 2020, et de 50 % en 2025.

Amplifier la dynamique grâce aux fermes Dephy et aux CEPP

Le ministre compte sur la diffusion des bonnes pratiques expérimentées dans les fermes Dephy, ces exploitations engagées dans une démarche volontaire de réduction de l’usage de pesticides. «  Ces exploitations, à compter de leur entrée dans le réseau, affichent une baisse moyenne de leur indice de fréquence de traitement de 18 % par rapport à la moyenne des années 2013-2015 », assure Stéphane Le Foll dans un communiqué. Ce réseau a été élargi à 3.000 fermes en 2016, contre 2.000 auparavant.

Le plan Ecophyto 2 est doté d’un budget de 41 millions d’euros chaque année au niveau national, dont 2,3 millions d’euros sont alloués à la recherche et à l’innovation. Depuis 2016, « il bénéficie d’un financement complémentaire de 30 millions d’euros par an en région, pour accompagner les agriculteurs dans le changement de leurs pratiques et soutenir les investissements dans les exploitations agricoles », précise Stéphane Le Foll. La FNSEA en profite pour demander à ce qu’une partie « conséquente » de ces moyens soit investie davantage dans la recherche et l’innovation. Pour que les résultats soient au rendez-vous, « l’idée est bien d’avoir des solutions alternatives, applicables et prêtes à l’emploi pour les agriculteurs qui sont concernés », rappelle la Fédération.

Le dispositif des certificats d’économie de produits phytosanitaires (CEPP) est la grande nouveauté du plan Ecophyto 2 adopté en octobre 2015. Retoqués par le Conseil d’État pour des questions de procédures fin décembre 2016, ils ont été réintégrés à la loi Potier sur l’accaparement des terres agricoles et le développement du biocontrôle, votée à l’Assemblée nationale le 18 janvier. Elle doit désormais passer au Sénat le 7 février, avec passage en commission mixte paritaire.

Par Matthieu Combe, journaliste scientifique

Poussée par un vide, notre galaxie surfe à plus de 2 millions de km/h

Dans notre voisinage extragalactique existe une immense région vide qui exercerait une force de répulsion sur notre galaxie, la Voie lactée. Ce « repousseur » contribue aux forces gravitationnelles qui nous font naviguer à près de 2,3 millions de km/h sur la toile cosmique, la structure suivant laquelle la matière s’organise à grande échelle, notamment sous la forme de filaments qui connectent des galaxies entre elles et séparent des vides.

Quand attraction et répulsion se conjuguent pour nous mettre en mouvement Ce mouvement de notre galaxie (et de sa compagne, la galaxie d’Andromède) était déjà connu des astrophysiciens qui en recherchaient l’origine depuis 40 ans. Pour expliquer ce déplacement, les recherches se sont historiquement d’abord portées sur la possibilité d’un excès de galaxies situées dans la direction générale de notre mouvement.

Le suspect initial a été appelé le Grand Attracteur, une région d’une demi-douzaine d’amas riches en galaxies à une distance de 150 millions d’années-lumière de nous. Puis, l’attention a été portée sur une entité plus importante, toujours dans la même ligne de visée et directement derrière le Grand Attracteur : la Concentration d’amas de galaxies de Shapley, située à 600 millions d’années-lumière de nous. Mais, au fil des ans, le débat s’est enlisé sur l’importance relative de ces deux attracteurs, ceux-ci ne suffisant pas pour expliquer notre mouvement, d’autant qu’il ne pointe pas exactement dans la direction de Shapley comme cela devrait être le cas.

L’hypothèse d’une région sous-dense, un « vide » extragalactique, est alors avancée pour élucider ce phénomène. Obtenir une confirmation de l’observation d’un tel vide est extrêmement difficile. C’est pourquoi les chercheurs ont décidé, au lieu de regarder la répartition de la partie immergée de la masse (celle qui est visible : les galaxies), de cartographier en trois dimensions les mouvements de toute la matière (matière visible, dite aussi baryonique, et matière invisible, dite noire ou plus justement : transparente).

Daniel Pomarède, ingénieur-chercheur au CEA1 , explique que : « C’est grâce au rayonnement microonde émis il y a plus de 13 milliards d’années que le mouvement de la Voie lactée est détecté. Cette lumière nous parvient de toutes les directions, mais du fait de notre déplacement, on l’observe avec un décalage spectral vers le bleu dans la direction de notre mouvement et un décalage spectral vers le rouge dans la direction opposée. Et c’est en analysant cet effet dipolaire qu’on peut en déduire notre vitesse de 630 km/sec. » Hélène Courtois, astrophysicienne à l’Université Lyon 1 2 , complète : « En analysant les champs de vitesse de milliers de galaxies peuplant notre univers local, nous avons identifié le déplacement de « fleuves de matière », comme ceux qui parcourent Laniakea », notre superamas de galaxies découvert en 2014 par la même équipe. « Ces fleuves sont une conséquence directe de la distribution de la masse totale, qui s’éloigne des régions vides et se dirige vers les régions de plus haute densité. »

L’équipe a ainsi découvert qu’à l’emplacement de notre galaxie les forces répulsives et attractives provenant d’entités lointaines sont d’importances comparables et en a déduit que les influences majeures qui sont à l’origine de notre mouvement sont l’attracteur Shapley et une vaste région de vide (c’est-à-dire dépourvue de matière visible et invisible), précédemment non identifiée, qu’ils ont nommé le Dipole Repeller. Cette découverte, publiée le 30 janvier 2017 dans Nature Astronomy, permet en effet d’expliquer l’origine du dipôle (voir l’encadré plus bas) observé dans le rayonnement du fond diffus cosmologique, un ingrédient essentiel du modèle de standard de la cosmologie.

cap-galaxie
Cette cartographie des courants de matière (les flèches directionnelles) et des surfaces équipotentielles gravitationnelles (régions de l’espace « ressentant » la même attraction de gravitation – en vert et en jaune) permet, en visualisant son influence, de matérialiser la région du Dipole Repeller, ainsi que les nœuds et filaments de la toile cosmique (surfaces rouges et grises). La structure à grande échelle de notre Univers local est ainsi représentée. La flèche jaune est positionnée sur notre galaxie la Voie lactée et indique la direction du dipôle du fond diffus cosmologique. Cette cartographie couvre une région de notre Univers d’environ 2,5 milliards d’années-lumière de large. © Y. Hoffman, D. Pomarède, R.B. Tully, H. Courtois

Dorénavant, les astrophysiciens savent enfin quelle voie suit notre galaxie, attirée par la lointaine concentration de masse Shapley et repoussée par le Dipole Repeller, une région faite de « rien », même pas de matière invisible, dont finalement on ne connaît encore presque rien… C’est pourquoi les astrophysiciens préparent maintenant des relevés ultra-sensibles en optique, proche-infrarouge et radio qui permettront d’identifier les rares galaxies qui peuvent résider dans et autour d’un tel vide afin d’en approfondir notre connaissance.

 Source : cnrs

Présidentielles 2017: les Français s’intéressent aux énergies renouvelables

Selon le 7e baromètre de Qualit’ENR publié le 1er février, 77% des Français estiment que les énergies renouvelables ne sont pas suffisamment abordées dans la campagne présidentielle. Les jeunes sont particulièrement concernés (81% des 18-24 ans), tout comme les ruraux (84%). Cette étude a été réalisée auprès d’un échantillon de 1001 personnes, représentatif de la population française  par questionnaire en ligne entre le 5 et le 9 janvier 2017.

Questionnés sur le candidat en qui ils ont le plus confiance pour développer les énergies renouvelables en France, les sondés répondent Emmanuel Macron (En Marche) à 29%, Jean-Luc Mélenchon (France Insoumise) à 26%, François Fillon (Les Républicains) à 24%, Benoît Hamon (PS) à 21%, Marine Lepen à 18% et Yannick Jadot (Europe Ecologie – les Verts) à 17%. Plus globalement, ils sont 71% à estimer que le prochain président devra amplifier le rythme de développement des énergies renouvelables. 25% sont moins ambitieux et pensent qu’il faudra stabiliser ce rythme. Seulement 3% des Français sont pour un ralentissement de leur développement.

Les énergies renouvelables bénéficient toujours d’une bonne image chez les Français. Ils sont 93 % à penser que les énergies renouvelables sont respectueuses de l’environnement, 89 % qu’elles favorisent l’indépendance énergique et 79 % qu’elles permettent de faire des économies.

Quelles filières d’énergie renouvelable développer ?

98% des Français encouragent le développement d’au moins un type d’énergie renouvelable. En tête : le solaire thermique, avec 92% d’avis favorable. Suivent l’éolien (85%), la pompe à chaleur (83%), les panneaux photovoltaïques (82%) et le bois énergie (69%). Les énergies fossiles résistent dans l’opinion publique. Notamment, le gaz naturel gagne 4 points par rapport à 2016 et monte à 69% d’avis favorable. Le nucléaire continue de partager les Français ; il stagne à 40% d’opinions favorables. Le fioul  (22%) et le charbon (17%) résistent et gagnent respectivement 2 points et 1 point. Le gaz de schiste continue son recul et finit à 20% (- 4 points).

Quelles positions pour les différents candidats ?

Le nouveau Livre Blanc du syndicat des énergies renouvelables (SER), publié à 3 mois de l’élection Présidentielle, est l’occasion d’interroger les candidats sur leur politique de déploiement des énergies renouvelables. Le SER demande notamment de respecter les trajectoires fixées par la loi de transition énergétique pour la croissance verte et la Programmation Pluriannuelle de l’Energie (PPE), de garder une bonne visibilité sur les appels d’offres et le fonds chaleur. Il plaide par ailleurs résolument pour fixer un vrai prix au CO2, réduire encore les délais d’instruction et des recours et appelle les candidats à soutenir l’offre industrielle française et européenne pour construire des champions industriels, notamment dans le solaire.

A l’occasion du 18e colloque du SER le 31 janvier 2017, des conseillers et porte-paroles des principaux candidats à l’élection présidentielle se sont prononcés sur ces propositions. Globalement, France Insoumise et EELV défendent une France 100% renouvelable et sans nucléaire à l’horizon 2050. Les Républicains et Le Front national veulent garder un nucléaire fort et garder le développement des énergies renouvelables pour remplacer les énergies fossiles. Pour ces deux partis, la part du nucléaire dans la production d’électricité restera proche de 75%. Pour le mouvement« En marche » d’Emmanuel Macron, le cadre est désormais bien posé par la loi et il faut arrêter les « stop and go législatifs ». Il faut respecter les objectifs actuels, à savoir, abaisser la part du nucléaire de 75% à 50% dans la production d’électricité à l’horizon 2025. Les énergies renouvelables devront atteindre une part de 32 % dans la consommation énergétique finale en 2030 (40% pour l’électricité). Aucun représentant de Benoît Hamon pour le PS n’a fait le déplacement. Néanmoins, son programme propose 50% d’énergies renouvelables dès 2025 et la fermeture des centrales nucléaires en fin de vie. Il devrait donc également respecter les objectifs de la loi de transition énergétique.

Par Matthieu Combe, journaliste cientifique

100% business et innovation

Chaque année, TECHINNOV apporte une solution ultra efficace aux décideurs de l’innovation. En une seule journée, c’est 5 conventions d’affaires, des Start-up Challenges, 5 expositions thématiques et de nombreuses conférences animées par des leaders de l’industrie européenne qui contribuent à faire de TECHINNOV depuis 11 ans l’évènement le plus efficace pour identifier et trouver vos partenaires technologiques de demain. Les frais de participation ? à partir de 195 €HT…un ROI exceptionnel !

Liste des participants : Télécharger la liste des participants   Plus d’information : Site Internet ou au 01 46 90 19 05

Investissements dans les start-up : le Royaume-Uni toujours en tête, la France bonne deuxième

Le baromètre “European innovation financing” établi par la banque d’affaires Clipperton et le cabinet d’études Digimind, fait le bilan des financements levés par les entreprises de technologies en Europe tous les six mois. La dernière édition fait le point sur 2016 et révèle encore une année record pour les start-up européennes.

Toute l’Europe en profite, sauf l’Italie

Le trio de tête reste le même: le Royaume-Uni qui se taille la part du lion avec plus de 4 milliards de dollars d’investissement en 2016 (+9%) devant la France 2,7 Md$ (+22%) et l’Allemagne 2,6Md$. Mais cette dynamique n’est pas limitée à ces trois pays, la plupart des pays européens en profitent et Martin Vielle, vice-président de Clipperton explique, dans une interview accordée à Challenges, que la Scandinavie se maintient malgré tout, que l’Espagne et le Portugal sont actuellement très dynamiques et que les pays de l’Est commencent à arriver. “En revanche, en Italie, on ne voit pas le même mécanisme qu’en Espagne, précise-t-il, c’est un pays plus conservateur dans son mode de consommation et son économie.“

Des opérations plus petites mais plus nombreuses

Outre les chiffres globaux qui sont positifs, l’analyse montre aussi un fait intéressant: les opérations plus petites, inférieures à 30M$ sont de plus en plus nombreuses et sont venues compenser des opérations plus marquantes. Le document rapporte ainsi 943 levées de fonds comprises entre 1 et 10M$ en hausse de 50% par rapport à 2015.

Les plus fortes levées de 2016

On notera que la France compte trois entreprises dans les cinq plus grosses levées enregistrées en 2016.

Les 10 plus grosses levées de fonds européennes (tous secteurs) en 2016 

Entreprise Pays Montant secteur
OVH France 279 M$ Hébergement internet
Deliveroo Royaume-Uni 275M$ Livraison plats cuisinés
Sigfox France 162M$ Objets connectés, télécom
Oxford Nanopore Royaume-Uni 126M$ Séquençage adn
Devialet France 115M$ Hi Fi audio
ADC Therapeutics Suisse 105M$ Médicaments (anticorps)
Kymab Royaume-Uni 100M$ Médicaments, vaccins
Carrick Therapeutics Irlande 95M$ Médicaments (cancers)
Hellofresh Allemagne 93M$ Livraison de repas
Sonnen Allemagne 85M$ Energie (batterie)

(Source “European innovation financing” Janvier 2017 Clipperton)

Les 12 levées de fonds françaises supérieures à 30M€ en 2016

On peut voir arriver dans le classement, Deezer qui n’apparaît pas dans le baromètre construit par Clipperton et des chiffres annoncés qui diffèrent selon les deux sources.

Entreprise Montant secteur
OVH 250 M€ Hébergement internet
Sigfox 150M€ Objets connectés, télécommunications
Deezer 100M€ Streaming audio
Devialet 100M€ Hi Fi audio
LinkbyNet 50M€ Hébergeur internet
Teads 43M€ Publicité vidéo
Acco 35M€ Circuits intégrés (pour solutions mobiles)
Navya 34.1M€ Bus (sans chauffeur)
MedDay Pharmaceuticals 34M€ Traitement sclérose en plaques
Drivy 31M€ Location voiture entre particuliers
Wynd 30M€ Digitalisation commerce
Ecovadis 30M€ Agence notation RSE

(source usine digitale.fr)

 

Par Sophie Hoguin

Énergies renouvelables: un élan mondial à amplifier

Les installations électriques renouvelables continuent leur développement : 70 gigawatts (GW) de solaire ont été installés à travers le monde en 2016, contre 56 GW en 2015. Elles fournissent désormais près de 24% de la consommation électrique mondiale, part qui devrait atteindre 28% en 2021, selon l’AIE. « Cet élan réel est encore insuffisant pour atteindre les objectifs de lutte contre le réchauffement climatique », plaide néanmoins Jean-Louis Bal, Président du Syndicat des énergies renouvelables.

L’éolien et le photovoltaïque sont désormais compétitifs dans de nombreuses parties du monde. « Il est courant d’entendre des prix de l’ordre de 30 à 40 dollars par mégawattheure pour les grands champs éolien terrestre ou solaire dans les zones où les ressources sont les plus favorables », rappelle Jean-Louis Bal. En 2016, cela a notamment été le cas au Chili pour le photovoltaïque et au Maroc pour l’éolien terrestre. En Europe, les derniers appels d’offres éolien se situent plutôt entre 80 et 90 €/MWh, raccordement compris.

Malgré l’urgence, les investissements en baisse

Si les capacités installées augmentent d’année en année, le niveau des investissements dans le domaine des énergies renouvelables a reculé de 18 % dans le monde en 2016, selon un rapport de Bloomberg New Energy Finance. Les investissements dans les énergies renouvelables et l’efficacité énergétique atteignent ainsi 287,5 milliards de dollars (Mds$), contre 349 Mds$ l’année précédente. Pour la deuxième année consécutive, les investissements des pays émergents et en développement ont dépassé ceux des pays développés.

Pour Michael Liebreich, fondateur de Bloomberg New Energy Finance, cette baisse d’investissements est imputable à deux causes majeures. La première : la baisse des prix des équipements, en particulier dans le photovoltaïque. La deuxième : si plusieurs pays ont sensiblement maintenu leur niveau d’investissements, à l’instar des Etats-Unis, du Brésil, de l’Inde et de la France, cela n’a pas été le cas dans les deux marchés clés que sont la Chine et le Japon. Il faut dire que la Chine est de loin le premier investisseur dans les énergies propres au monde et pousse le marché. Ainsi, les investissements chinois dans les énergies renouvelables ont chuté de 26% en 2016 à 87,8 Mds$ et les investissements japonais de 43% à 22,8 Mds$. Par ailleurs, dans plusieurs pays émergents, beaucoup de projets n’ont pas encore finalisé leur financement. Les investissements ont par exemple reculé de 76% en Afrique du Sud, à 914 millions $, et de 80% au Chili, à 821 millions $.

Au final, il y a eu plus de capacités installées en 2016 qu’en 2015, tout en dépensant moins. C’est une bonne nouvelle.

Mais il faudrait plutôt profiter de ces prix bas pour faire exploser la dynamique, d’autant plus que nous sommes loin d’atteindre les objectifs de lutte contre les changements climatiques. « Pour atteindre l’objectif des 2°C, il faudrait rapidement atteindre un investissement de 600 milliards de dollars par an dans les énergies propres », prévient Michael Liebreich. Soit doubler les investissements actuels. Pour l’agence internationale des énergies renouvelables (IRENA), il faudrait même tripler ces investissements pour atteindre environ 900 Mds$ par an en 2030.

Par Matthieu Combe

Obligation verte : La France détient le record !

Si cette émission n’est pas une première mondiale – des entreprises et certains pays tels que la Pologne ont déjà émis de tels titres – il s’agit en revanche de la plus importante à  ce jour : 7 milliards d’euros levés en une fois. D’une maturité longue (22 ans), cette obligation prendra fin en juin 2039 et bénéficie d’un taux de 1,75%.

Succès international

La demande totale pour cette émission obligataire verte a atteint un montant de plus de 23 milliards d’euros, soit trois fois plus que ce qui était offert par l’agence en charge du refinancement de la dette publique française. Elle a été souscrite pour plus d’un tiers par des investisseurs français (37%), suivis par les néerlandais (19%), britanniques (18%), nordiques (7%), asiatiques (3%) et américains (2%). Cette demande émane de gestionnaires d’actifs (33%), de banques (21%), de fonds de pensions (20%), d’assureurs (19%), d’institutions publiques (4%) et de gestions alternatives (3%).
25596

Conformément aux engagements pris par la France pour la mise en œuvre de l’Accord de Paris sur le climat à travers la loi de transition énergétique pour la croissance verte, l’obligation verte de la France ciblera des dépenses du budget de l’État et du Programme d’Investissements d’Avenir (PIA) sur la lutte contre le changement climatique, l’adaptation au changement climatique, la protection de la biodiversité, et la lutte contre la pollution. Le montant total des dépenses vertes éligibles identifiées par l’Agence France Trésor au cours de l’année 2017 étant supérieur à 10 milliards d’euros, les débouchés ne manqueront donc pas .

Suivi

L’État français publiera annuellement à destination des investisseurs, jusqu’à l’allocation complète des fonds, un reporting sur l’allocation des fonds, sur la performance des dépenses vertes éligibles, sur les impacts environnementaux, selon le type de dépense considérée, « ce qui constitue un engagement de reporting inédit pour une obligation verte et participe à l’établissement de standards élevés au sein de ce marché », explique l’AFT.

Un conseil d’évaluation de cette obligation verte, composé de 6 à 8 experts indépendants, va être mis en place. « Nous allons prendre un peu de temps pour bien les choisir », précise le ministère de l’Energie et du développement durable dans un communiqué. Poussée le succès de cette première émission obligataire verte, l’Agence France Trésor a d’ores et déjà annoncé qu’elle réaliserait d’autres émissions de ce type pour assurer la liquidité de ce nouveau produit financier.

Romain Chicheportiche

Marché des drones: Parrot se coupe une aile pour mieux redécoller

Dans un communiqué du 9 janvier, la société française spécialiste des drones de loisirs annonçait la mauvaise nouvelle: “Parrot envisage […] un plan qui pourrait aboutir à réduire les effectifs d’environ 290 personnes sur un total de 840 salariés actuellement dédiés aux activités Drones du Groupe”.

L’impossible combat contre les géants chinois

Dès septembre 2016, un premier communiqué annonce déjà que ça va mal et revoit les perspectives de croissance à la baisse. La période de Noël n’aura pas suffit. Car depuis les succès de 2010 avec le lancement de son premier drone pilotable par smartphone, le marché des drones de loisirs a bien changé. Des géants chinois sont arrivés tels que Dji ou Xiaomi. Des produits à bas coûts et une force de vente sur le secteur des jouets et du loisirs sans commune mesure avec l’entreprise française. A titre d’exemple, on estime le chiffre d’affaires de Dji à 1,5 milliards de dollars en 2016 (+50% par rapport à 2015). Cependant, si les résultats ont été pires que prévu, il ne faut pas penser que Parrot ne s’y était pas préparé.

Recentrage ves les drones professionnels

Sur le secteur des loisirs, Parrot va donc resserrer sa gamme et vise une clientèle haut de gamme exigeante et prête à mettre le prix de l’innovation technologique. Du coup, Parrot va suivre l’évolution du marché et se recentrer très clairement sur le secteur des drones professionnels. Plusieurs acquisitions (Sensefly, Airinov, PIX4D) en 2015 et 2016 le laissait déjà pressentir. Concrètement, les premiers services arrivent. Ainsi, Parrot a annoncé mi-janvier le lancement d’un service commun entre Air Parrot Support et Bureau Veritas. Ce service clé-en-main d’inspection par drone pourra servir tant dans l’industrie que le bâtiment (inspection de bâtiment, d’infrastructures par photographie aérienne, modélisation 3D, thermographie etc.). Dans la même veine, le groupe annonçait début janvier l’alliance entre Sensefly et Agribotix (société proposant acquisition de données agricoles par drones et gestion des données sur une platforme en ligne) afin d’offrir un service encore plus varié. Car plus encore que sur le drone lui-même, dans le secteur professionnel c’est le service qui va faire la plus-value. A ce titre, PWC estimait en 2016 que le marché mondial des services commerciaux par les drones pourrait atteindre plus de 120 Md d’euros d’ici 2020.

Alliance et cession d’actifs

En parallèle de cette restructuration, sur le marché automobile, Parrot Automotive, qui fournit aux constructeurs des équipements pour les voitures connectées, devrait s’allier avec Faurecia pour conforter sa place sur ce secteur. L’accord avec Faurecia, actuellement en discussion, doit aboutir à une prise de participation progressive de l’équipementier automobile dans Parrot qui pourrait se transformer dans les 5 ans à un rachat complet. Par ailleurs, Parrot a cédé Varioptic (start-up française acquise en 2011 spécialisée dans les lentilles optiques liquides), à l’américain Invenios, spécialiste des dispositifs à base de verre (capteurs, microstructure 3D…) pour un montant non communiqué.

Sophie Hoguin

Les chiffres clés du numérique en France

La France est reconnue dans le monde entier pour le haut niveau de ses écoles d’ingénieurs et de mathématiciens. Près de 180 start-ups françaises étaient présentes à l’Eureka Park lors du dernier Consumer Electronic show (CES) qui s’est tenu récemment à Las Vegas. Le Royaume-Uni n’était représenté que par 14 entreprises, l’Allemagne n’en avait que 10. Seuls les États-Unis nous dépassaient avec 204. Autant d’arguments pour que le numérique booste l’économie française et incite les entreprises à s’équiper.

Et pourtant, le paysage numérique français présente un bilan contrasté.

Dans le secteur des TIC, le nombre d’entreprises était de plus de 130 000 en 2014 (les derniers chiffres connus dans les statistiques Insee). Parmi elles, 6 582 exerçaient dans le commerce de gros d’équipements de l’information et de la communication, 1650 étaient dans la catégorie « Industries » (composants et cartes électroniques, équipement de communication, ordinateurs et équipements périphériques, etc.) et 123 603 dans la catégorie « service » (programmation, conseil et autres activités informatiques, réparation d’ordinateurs et d’équipements de communication, télécommunication, etc.).

Ce secteur embauche 684 949 personnes en équivalents temps plein.  La plupart sont affectées à la catégorie « service » (582 508).

La transformation digitale : un défi

En 2014, les TIC ont créé une valeur ajoutée de 75 milliards d’euros. Les services représentent à eux seuls 66 milliards d’euros, soit 87,7 % de l’ensemble de la VA. L’industrie et le commerce de gros d’équipements des TIC se partagent presque équitablement le montant restant. Mais la valeur ajoutée par les services TIC ne représente que 3,60 % du PIB en 2014, contre 3,8 % outre-Rhin. Ce faible résultat concerne particulièrement les « industries des TIC », c’est-à-dire la fabrication de matériels.

Du côté de l’équipement numérique, l’utilisation des TIC a été mesurée selon trois critères : la connectivité, les usages d’outils avancés et les usages émergents. En termes de connectivité, l’hexagone fait mieux que la moyenne européenne avec 99 % des entreprises connectées à l’internet haut débit.

Mais d’autres résultats sont inquiétants quant à la capacité des entreprises à relever le défi de la transformation digitale. Seules 67 % des entreprises tricolores disposent d’un site Internet, contre 75 % pour la moyenne européenne. Autre lacune : moins d’une entreprise française sur cinq dispose d’un spécialiste en TIC contre 20 % en Europe.

28 % des entreprises ont une présence sur les réseaux sociaux, contre 36 % pour la moyenne européenne…

Philippe Richard

La Russie inaugure un gazoduc la reliant à la Crimée

Ce gazoduc de près de 400 kilomètres n’est qu’un début. Il vise à répondre en urgence à la demande en gaz et électricité des habitants de Crimée. En novembre 2015, le gouvernement local s’est déclaré en état d’urgence à la suite du sabotage des quatre lignes haute tension qui reliaient la péninsule au système électrique ukrainien, provoquant un black-out. Depuis, Moscou mène plusieurs projets énergétiques pour relier la Crimée au circuit énergétique russe.

Gab 6:01:2014

Gaz et électricité

La stratégie du Kremlin consiste à interconnecter autant que faire se peut la péninsule de Crimée au territoire russe pour y exporter gaz et électricité. Moscou a élaboré un plan d’investissement sur quatre ans ayant pour objectif de construire 2 500 km de gazoducs et deux centrales électriques fonctionnant au gaz de 480 MW chacune dont la mise en service est prévue pour 2018. A cela s’ajoute une première interconnexion électrique inaugurée par Vladimir Poutine en mai 2016. Elle permet d’apporter depuis le territoire russe jusqu’à 800 MW à la péninsule ce qui permet, avec les centrales sur place, de couvrir les 1 300 MW de sa consommation en pointe.

Symbole

Si ces investissements énergétiques répondent à un besoin réel, ils n’en représentent pas moins une superbe occasion pour Moscou d’affirmer son contrôle sur la péninsule de Crimée annexée illégalement en mars 2014. Les liens énergétiques tels que des gazoducs ne se détachent pas facilement et participent à la lutte d’influence. Mais ils ne sont pas les seuls. La construction d’un pont sur le détroit du Kerch est également à l’étude. Il permettrait de relier physiquement la Crimée à la Russie ce qui favoriserait les échanges et le tourisme, selon le Kremlin. Plus encore, son inauguration serait une occasion savoureuse pour Vladimir Poutine de faire un pied de nez aux membres de l’OTAN qui ont condamné en bloc, mais en vain, l’annexion de la Crimée. Une première depuis 1945.

Romain Chicheportiche 

Objectif Lune : il n’en reste plus que cinq !

Mais au fait c’est quoi le Google Lunar Xprize ? Une compétition technologique organisée par la fondation Xprize, et dotée par Google, de plusieurs prix : 20 millions de dollars au premier, 5 millions au second et 5 millions pour l’équipe qui saura se distinguer par sa contribution dans la connaissance de la Lune. Des prix bonus ont déjà été distribués. Le dernier en date, d’un million de dollars a été décidé le 24 janvier 2016. Il sera partagé entre les 16 équipes participantes pour leurs efforts en faveur de l’éducation et la diversité.

Pour gagner, il faut constituer une équipe, issue de fonds privés, et être le premier à placer un engin spatial à la surface de la lune, avancer sur 500m et transmettre des images haute définition à la Terre. Pour participer à cette phase finale, les candidats devaient réussir à obtenir un contrat de lancement de leur engin spatial avant le 31 décembre 2016 et décoller avant le 31 décembre 2017. Cinq équipes sur les seize au départ ont atteint cette étape. Les organisateurs, viennent cependant de repousser la date limite de décollage. Peut-être pour permettre à certaines équipes dont les lanceurs sont à l’essai de prendre le temps de la réussite…

La compétition et… au-delà

Ce concours, débuté en 2014, souligne aussi combien l’exploration spatiale est aujourd’hui un secteur fondé sur des coopérations internationales dépassant largement tant les frontières géographiques que les frontières entre économie publique et privée. Alors, 2017, sera bien l’année de la Lune avec, aussi prévue en fin d’année, une mission de retour d’échantillons chinoise (Chang’e 5).

Space IL , une équipe israélienne basée à Tel Aviv qui a signé un partenariat avec SpaceX (via sa filiale Spaceflight Services) pour un départ fin 2017 et dont l’engin spatial muni de pieds doit se poser, redécoller pour parcourir 500m en volant puis se reposer de nouveau. Premier engin spatial israélien, ce vol pourrait aussi devenir le premier vol de la fusée Falcon 9 à envoyer une charge au-delà de l’orbite de la Terre.

Les américains de Moon Express, basés en Floride à Cap Canaveral, première entreprise privée à obtenir l’autorisation de leur gouvernement à opérer sur la Lune, travaillent avec la Nasa et Rocket Lab. En ligne de mire, pour Moon Express, développer une activité minière sur la Lune. A noter que, le lancement fin 2017, doit être assuré par Rocket Lab via sa nouvelle fusée Electron dont les premiers vols ne sont prévus que cette année depuis sa nouvelle plateforme de Mahia, en Nouvelle-Zélande.

L’équipe internationale de Synergy Moon, composée d’individus de tous horizons et de plus de 15 nationalités est portée par Interorbital systems corporation, une entreprise basée à Mojave en Californie qui doit fournir le lanceur: la fusée Neptune 8. Une fusée encore en test qui décollera depuis l’océan, au large de la Californie au deuxième semestre 2017. Cette compétition sera vraiment l’occasion de découvrir les nouvelles générations de lanceurs légers dont les projets naissent un peu partout.

Les indiens de Team Indus ont conçu un petit rover qui emporte avec lui des instruments de pointe de grands partenaires comme le CNES qui fournit les caméras permettant au Rover de se diriger et d’éviter les obstacles. Le départ, prévu le 28 décembre 2017, depuis Sriharitoka en Inde, se fera via une fusée bien rôdée de l’agence spatiale indienne, la PSLV. Mais Team Indus sera accompagnée. En effet, cette fusée embarquera aussi, les concurrents japonais !

Les japonais de l’équipe Hakuto ont réussi à nouer des partenariats de taille tels que KDDI (télécommunications) et Suzuki, mais aussi, fait marquant, un contrat à long terme avec l’agence spatiale japonaise Jaxa pour l’exploration des ressources de la Lune.

Sophie Hoguin

L’Iran ouvre ses portes à 29 compagnies pétrolières

Cette liste était attendue depuis longtemps par les compagnies pétrolières désireuses de renouer leurs liens économiques avec l’Iran. Parmi elles, la Française Total figure en bonne place, aux côtés des Russes (Gazprom, Lukoil) et Chinois (CNPC, CNOOC, Sinopec). Les deux majors anglo-saxones, BP et surtout ExxonMobil, dont le pdg Rex Tillerson a été nommé secrétaire d’Etat par Donald Trump, sont les grandes absentes de cette sélection. Le nouveau président américain n’a jamais caché son hostilité à cet accord international.

Quête d’investisseurs

La participation des compagnies étrangères est une nécessité pour la République islamique tant d’un point de vue technologique que financier. Les sanctions à l’encontre du pays ont entraîné un sous-investissement massif dans les infrastructures pétrolières et gazières, pourtant première source de devises de l’économie iranienne. De fait, le gouvernement a mis en place un nouveau système de concession plus en phase avec les standards internationaux pour inciter les investisseurs étrangers encore méfiants, notamment depuis les élections américaines. Le ministre iranien du Pétrole, Bijan Namdar Zangeneh, a estimé que les besoins d’investissements dans l’industrie des hydrocarbures s’élevaient au bas mot à 200 milliards de dollars sur cinq ans.

Ces capitaux doivent élever la production pétrolière à un niveau correspondant à celui d’avant les sanctions, soit 4,4 millions de barils jour (Mbj), contre 3,9 Mbj l’année dernière. L’Iran a en effet obtenu d’être le seul pays à ne pas participer à la restriction d’exportation voulue par l’OPEP en décembre 2016, pour faire remonter les cours du brut.

Réarmement

Le nouveau cadre économique mis en place vise à attirer les compagnies étrangères mais surtout à redonner un statut de respectabilité au régime des Mollahs. Car au-delà des ressources pétrolières, Téhéran compte bien profiter de son retour dans le concert des nations pour obtenir des technologies d’armement, notamment de la France, de la Russie ou de la Chine. A l’instar de ses installations pétrolières, la marine militaire iranienne est vieillissante et le gouvernement souhaite la renouveler pour renforcer sa présence dans le stratégique golfe d’Aden. Sous couverts de lutte contre la piraterie, un phénomène réel, les marines des puissances du Golfe mais aussi américaines, françaises britanniques, chinoises, indiennes ou encore russes intensifient leurs opérations dans ce couloir maritime stratégique. La marine iranienne rêve de posséder un porte-avions mais la technologie et les financements manquent pour l’instant. Dernier indice, en décembre dernier, le président iranien Hassan Rouhani a demandé à l’agence nationale du nucléaire de développer la technologie de propulsion nucléaire pour équiper les futurs porte-avions et sous-marins du pays. Une annonce qui intervient ironiquement un an après l’accord iranien sur le nucléaire.

Romain Chicheportiche

Le bioéthanol séduit les Français

Les politiques anti-diesel profitent à l’essence. En 2017, la consommation d’essence est repartie à la hausse (+2,7%), après une forte baisse de 40% entre 2004 et 2014. Sur l’année 2016, la part de marché du SP95-E10 monte à 35,5%, contre 29% en 2013. C’est aussi 2,3% de plus qu’en 2015, pour une consommation totale proche de 3,5 milliards de litres. En décembre 2016, cette part atteint même 38% et s’approche fortement de celle du SP95 qui baisse à 40%.

En 2017, la filière bioéthanol s’attend à ce que le SP95-E10 devienne la première essence de France. Fin 2016, 5.500 stations proposent ce carburant qui est compatible avec 97% du parc roulant des véhicules essence.

L’E85 et l’ED95 pour booster la production de bioéthanol

Du côté du superéthanol-E85, même constat. 96 millions de litres ont été consommés en 2016, soit 1% du marché des essences. Le parc de stations distribuant ce carburant atteint 871 fin 2016. « Les volumes ont augmenté de 11%, près du double de la croissance de 2015 », se félicite la filière bioéthanol. Par ailleurs, les professionnels l’attendaient depuis longtemps : un arrêté définissant une procédure d’homologation pour les boitiers de conversion au superéthanol-E85 et leurs conditions d’installation devrait paraître mi-avril 2017. Les kits Ethanol E85 Flex Fuel seront ainsi homologués pour transformer n’importe quel véhicule essence classique en véhicule « flex-fuel » et carburer au superéthanol.

Egalement, l’arrivée sur le marché du carburant ED95, destiné aux bus et aux poids lourds, va booster la filière en 2017. Ce carburant est composé de 95% de bioéthanol et 5% d’additif pro-cétane, permettant la combustion par auto-inflammation du mélange. Enfin, le Parlement européen a voté fin 2016 l’augmentation de 7% à 7,5% de l’objectif d’énergies renouvelables dans l’essence. De quoi booster la filière française qui produit du bioéthanol à partir de sucre des betteraves, de l’amidon des céréales ou de résidus de leur transformation. Une filière qui mobilise près de 50.000 agriculteurs chaque année, 1% de la surface agricole utile et produit 9000 emplois directs, indirects et induits.

Par Matthieu Combe, journaliste scientifique