La sécurité des voitures connectées dans le radar des gendarmes

La connectique et l’informatique se sont progressivement invitées dans l’habitacle. Avec les réseaux mobiles et la miniaturisation des composants électroniques, cette tendance s’est accentuée ces dernières années. La voiture connectée a pour finalité de faciliter la conduite de l’automobiliste et de rendre plus agréable le temps de parcours pour tous ses occupants (accès au web, musique en streaming…).

Mais ce n’est qu’un début. Les véhicules connectés vont passer la vitesse supérieure avec la connectivité coopérative. Jusqu’à présent ce sont des capteurs sur la route qui transmettaient des informations aux voitures. Demain, ces données seront échangées directement entre les véhicules eux-mêmes, mais aussi entre les véhicules et les infrastructures. Ces échanges utiliseront le réseau Wi-Fi sur une fréquence dédiée de 5.9 GHz et transiteraient par la plate-forme SCOOP (Projet de déploiement pilote de systèmes de transport intelligents coopératifs) pour être relayée aux autres véhicules.

Pour PSA, à terme, la voiture connectée devrait permettre de satisfaire quatre besoins du client : le gain de temps, la sécurité, l’économie d’argent et la distraction.

Mais attention, « la voiture connectée ce n’est pas un smartphone avec des roues mais deux tonnes qui roulent à 130 km/h et qui transportent des êtres humains à l’intérieur » a tenu à rappeler fort justement Jean-François Huère, délégué à la sécurité routière pour PSA Peugeot Citroën lors du FIC (Forum International de la Cybersécurité), à Lille fin janvier.

Lors de ce colloque sur la cybersécurité organisé par la Gendarmerie, les forces de l’ordre se posent de sérieuses questions quant à la protection des données transitant dans tous ces véhicules (ce qui inclut aussi les trains et les aéroplanes). Le Colonel de Gendarmerie Franck Marescal, responsable de l’observatoire central des systèmes de transports intelligents, a indiqué qu’un cahier des charges est en cours d’élaboration pour rassembler des préconisations et éviter dans les années à venir des attaques de type ransomware (véhicule bloqué jusqu’au paiement d’une rançon) et DDoS contre l’adresse IP d’une voiture connectée. « La démarche générale de sécurité, les constructeurs automobiles l’ont bien comprise », a déclaré le Colonel de Gendarmerie Franck Marescal.

Cette prise de conscience est indispensable, car les vecteurs d’attaques se sont multipliés : modem 4G/LTE, Wi-Fi, Bluetooth, les prises USB internes ou encore le port ODB. Difficile de tout contrôler, car le nombre de composants a explosé. Ainsi sur une Tesla S, il y a près de 5 300 composants informatiques et électroniques et les mises à jour de l’OS embarqué se font Over The Air. Pas étonnant dans ces conditions que des experts puissent pirater facilement une voiture. L’une des plus éclatantes démonstrations a été menée il y a quelques par deux chercheurs en sécurité pour le compte du magazine Wired. En quelques minutes, ils avaient pris le contrôle d’une Jeep Chrysler. Depuis, son constructeur a déployé un correctif de sécurité…

Autre problématique à gérer : le respect de la vie privée. Dans une note du Centre de Recherche de l’École des Officiers de la Gendarmerie nationale, datée de 2014, le colonel Laurent VIDAL s’inquiétait déjà : « Les systèmes de connexion des véhicules vont engendrer des masses de données qui iront s’accumuler dans des data centers, au milieu d’un cloud toujours plus gros. La question de la propriété de ces données est posée. Le constructeur, le propriétaire, passager, le gestionnaire d’infrastructure, la plate-forme de gestion du trafic, le fournisseur des boîtiers, les opérateurs de télécommunication, les organismes de sécurité publique peuvent tous en revendiquer une parcelle. »

Face à de telles menaces, la CNIL prône autant que possible l’anonymisation des données et leur minimisation.

Philippe Richard

La Mö d’Evovelo : l’e-plein solaire, s’il vous plaît

Avec ses 2 mètres de long et 1,40m de large,  l’empreinte surfacique de la , véhicule deux places, est faible. Ce qui est idéal un milieu urbain. Il s’agit d’un vélo évolué : les trois roues permettent une stabilité optimale (pas de risque de chute) et la carrosserie hyper légère protège de la pluie et du vent. La Mö ne pèse que 85 kilogrammes.  Contre par exemple 445 à 473 kg pour le quadricycle Renault Twizy et plus de deux tonnes pour la Tesla Model S.

Cette légèreté a des conséquences très positives en permettant au solaire de jouer un rôle clé dans la propulsion ainsi que de réduire la capacité des batteries nécessaires pour le stockage de l’énergie.

Pas besoin de permis de conduire, la Mö est homologuée comme vélo à assistance électrique.

MÖ Evovelo - ETI (1)La batterie (48V x 15Ah = 720Wh) est amovible, on peut donc soit laisser le véhicule charger au soleil, soit charger la batterie dans son appartement en ville. « Les futures versions de la Mö seront équipés d’une batterie de 1000 Wh » indique Gonzalo Chomón, ingénieur  et directeur  d’Evovelo, joint par téléphone.

La batterie peut être chargée sur une prise ordinaire à 80% en une heure, et à 100% en deux heures. Les cellules photovoltaïques sur le toit totalisent une puissance de 200 Watts permettant à Malaga de collecter en 4 heures de pleine exposition au soleil 800 Wh et ainsi de parcourir 44 km en mode 100% électro-solaire, et le double avec assistance musculaire. « Nous passeront prochainement à une version de 225 W de cellules solaires » précise Gonzalo Chomón.

Sur la base d’une consommation d’environ 18 Wh/km, l’autonomie est d’environ 40 km avec la batterie actuelle, bien entendu variable en fonction du relief et de la charge transportée. Cette autonomie peut être augmentée au moins par deux grâce au pédalage musculaire. Il est également possible de s’équiper d’une ou deux batteries supplémentaires si nécessaire.  Le Mö permet d’atteindre une vitesse de pointe de 50 km/h.

Le moteur, pour être en conformité avec la réglementation
européenne sur les vélos à assistance électrique, est bridé à une puissance de 250 W sur routes plates. Mais il libère une puissance de 1200 W lors de la montée des pentes. La Mö est équipé de ceintures de sécurité, de rétroviseurs, de freins hydrauliques et offre un grand champs visuel optimisant la sécurité.

A Paris le taux d’occupation des voitures est d’1,4. La distance moyenne des trajets parcourus dans le cadre d’Autolib est de 9 kilomètres. Et la vitesse est limitée entre 30 et 50 kilomètres. Autrement dit Mö est parfaitement adapté pour la mobilité parisienne.

La Mö est en vente depuis le 1er février 2016 au prix net de 4500€. Evovelo étant une start-up en phase de lancement industriel, les livraisons sont effectuées 12 mois après la commande.

« La Tierra ya no puede esperar. Tú tampoco. Cambiate a la movilidad sostenible ya », tel est le slogan d’Evovelo, basé à Malaga.  « La Terre ne peut plus attendre. Toi non plus. Passe à la mobilité durable, maintenant. ». Gonzalo Chomón pose la question : « utilisez-vous un lit géant pour dormir ? Non ? Alors pourquoi utiliser un véhicule de 1000 kilos pour vous déplacer ? ». Evovelo démontre qu’il est possible de disposer d’un vélo protégeant autant des aléas météorologiques qu’une voiture.

La Mö ? Une Mö-bilette particulièrement éco-intelligente.

Par Olivier Daniélo

L’hydrogène vu par l’Ademe

« Les véhicules électriques intégrant une pile à combustible alimentés à l’hydrogène sont une solution adaptée pour des niveaux de services supérieurs ou des profils d’usage plus exigeants que ceux auxquels répondent aujourd’hui les véhicules électriques à batterie seule », prévient l’Ademe dans son nouvel avis publié le 4 février. 

Comparé au véhicule électrique à batterie, le véhicule pile à combustible« full hydrogène » permet en effet une recharge rapide en moins de 5 minutes, une autonomie proche de 600 km et un impact quasiment nul sur le réseau électrique. Ces véhicules embarquent une pile à combustible à forte puissance (> 70 kW), qui assure seule la traction du véhicule, et une quantité d’hydrogène embarquée importante (≥ 5 kg). Des constructeurs étrangers parient sur cette technologie, notamment Toyota, Hyundai, Honda, Daimler.

En France, PSA et Renault ne s’intéressent pour le moment qu’à des systèmes d’extension d’autonomie pour les véhicules électriques à batteries, afin d’atteindre jusqu’à 300 km d’autonomie. Ces sytèmes embarquent une pile à combustible de faible puissance (≤ 20 kW), associée à une quantité d’hydrogène embarquée plus faible (< 3 kg). La traction est essentiellement assurée par la batterie de forte capacité. Symbio FCell commercialise cette offre, avec ses Renault Kangoo H2 et Renault Trucks Maxity H2.

Au-delà des simples voitures, l’hydrogène présente un intérêt pour les bus et les bennes à ordures ménagères. Dans ce cas, il est utilisé en mélange avec du gaz naturel pour véhicules (GNV) ou son pendant d’origine renouvelable, le bioGNV. Il peut alors être incorporé jusqu’à 20 % en volume. Des développements sont aussi en cours pour les poids lourds, les engins de manutentions, les bateaux, etc.

Une recharge qui n’impacte pas le réseau électrique

L’hydrogène est aujourd’hui très majoritairement produit par vaporeformage de gaz naturel, process émetteur de gaz à effet de serre et utilisant une énergie fossile. Néanmoins, ce vecteur énergétique présente tout son intérêt lorsqu’il est produit par électrolyse de l’eau à partir d’énergies renouvelables. « Le procédé d’électrolyse permet de produire de l’hydrogène à partir d’électricité, lorsque par exemple celle-ci est abondante et décarbonée, l’hydrogène étant ensuite stoké en station, explique l’Ademe. L’hydrogène peut alors être introduit dans le réservoir des véhicules à la demande et permet la recharge de la batterie sans sollicitation du réseau électrique ».

Par ailleurs, « c’est à une échelle locale que l’hydrogène peut apporter de la flexibilité aux systèmes énergétiques et que les bénéfices environnementaux liés à son emploi seront les plus grands », souligne l’agence. Cela tombe bien, la plupart des projets de stations à hydrogène pour véhicules s’engagent vers la fourniture d’hydrogène produit par des énergies renouvelables locales. Ils participent ainsi à l’optimisation des ressources énergétiques d’un territoire.

Développer l’industrialisation et la compétitivité

« Comme toute nouvelle technologie, celles relevant de l’hydrogène énergie présentent encore des coûts élevés », relève l’Ademe. Pour assurer le développement du véhicule à hydrogène au-delà des simples flottes captives et atteindre le grand-public, le maillage du territoire national par des stations est un « préalable au développement de ce marché ». Avant d’entreprendre un tel maillage, l’Ademe avertit : il faudra fiabiliser les briques technologiques et industrialiser les process pour diminuer les coûts.

Selon la Position technique de la filière automobile sur l’hydrogène et les piles à combustibles « L’émergence d’un marché de véhicules à hydrogène est conditionnée par l’existence d’un « écosystème hydrogène » bien plus large que la mobilité, qui dépend essentiellement des stratégies énergétiques des Etats. Dans ce cadre, la mobilité hydrogène peut y avoir sa place, mais ne peut être à elle seule le facteur déclenchant d’un déploiement large de l’hydrogène. » Ainsi, sans politiques publiques et choix industriels forts, le marché de l’hydrogène demeure incertain.

Développer le stockage de l’électricité par l’hydrogène

Dans son avis, l’Ademe s’intéresse également à l’intérêt du stockage d’électricité par le vecteur hydrogène. Elle identifie notamment l’importance de ce vecteur énergétique pour assurer « un stockage de longue durée, en complément des technologies de stokage de courtes et moyennes durées (stations de transfert d’énergie par pompage – STP, stockage électrochimique) ». Pour limiter les investissements élevés nécessaires au stockage stationnaire d’hydrogène, la voie privilégiée consisterait à l’injecter dans les réseaux existants de gaz naturel. L’hydrogène serait ainsi mélangé au gaz naturel et injecté dans le réseau de gaz, à une teneur pouvant aller jusqu’à 20%, ou serait combiné avec du CO2 pour former du méthane de synthèse.

Le stockage de l’électricité via l’hydrogène devrait se développer après 2030, pour le stockage au-delà d’une douzaine d’heures et notamment pour le stockage inter-saisonnier à grande échelle. Dans son étude prospective 100% d’énergies renouvelables, l’Ademe identifiait des besoins en capacités de stockage inter-saisonnier s’élevant à 17 gigawatts.

Par Matthieu Combe, journaliste scientifique

Projet d’OS souverain : une fausse bonne idée

Des Gaulois veulent résister à l’empire américain ! Quelques députés ont déposé le 13 janvier un amendement N°CL116 au projet de loi pour une République numérique pour proposer la création d’un OS souverain à l’usage de tous et un autre (N°CL129 )  pour la mise en place d’un commissariat à la souveraineté numérique.

Pour ces députés, cet OS national sera l’outil clé de « la souveraineté sur les services, systèmes et réseaux numériques » et « le socle de l’écosystème numérique national et sera pleinement efficace en étant étendu et partagé au niveau européen ». Derrière ces objectifs, il y a la volonté de protéger les données stockées et échangées sur les ordinateurs. En clair, réduire l’espionnage nord-américain en particulier puisque les principaux éditeurs sont Microsoft, Apple, Google…

Mais faut-il pour autant créer un OS souverain ? Une question qui revient régulièrement à la surface. En mai 2014, le ministre de l’Économie, du redressement productif et du numérique, Arnaud Montebourg, avait déjà proposé cette idée. En 2010, Stéphane Richard, patron d’Orange, avait invité à Paris les patrons de Vodafone, Telefonica et Deutsche Telekom pour « réfléchir en commun à la création d’un système d’exploitation, qui est le cheval de Troie utilisé par les Google et autre Apple pour établir leur propre relation avec nos clients ».

Il y a 35 ans, l’État avait même lancé le LSE (Langage Symbolique d’Enseignement) destiné à l’Éducation Nationale de développer. Un fiasco complet : epi.asso.fr

Tous ne semblent pas connaître le monde libre, car il existe en effet des systèmes d’exploitation qui pourraient être considérés comme « souverain ». Plutôt que de créer un nouvel OS, il pourrait être judicieux de s’appuyer sur une solution qui a fait ses preuves comme la distribution française GNU/Linux Mageia. Développée depuis des années par toute une communauté, ce fork de Mandriva (qui avait d’ailleurs répondu à un appel d’offres de la Gendarmerie, mais cette dernière avait retenu Ubuntu…) est reconnu pour sa stabilité.

Les députés qui ont déposé cet amendement auraient pu aussi citer CLIP (Certifiable Linux Integration Platform), un système d’exploitation dit ultrasécurisé. Basé sur Linux, il a été développé par l’ANSSI (Agence nationale de la sécurité des systèmes d’information) pour les besoins de l’administration et plus récemment auprès d’industriels. Développé depuis 2005, ce système « intègre un ensemble de mécanismes de sécurité qui lui confèrent un très haut niveau de résistance aux codes malveillants et qui lui permettent d’assurer la protection d’informations sensibles », explique l’agence. Et d’ajouter qu’il fournit des « mécanismes de cloisonnement qui rendent possible le traitement simultané, sur le même poste informatique, d’informations publiques d’une part et sensibles d’autre part, au sein de deux environnements logiciels totalement isolés, dans l’objectif d’éliminer les risques de fuite des informations sensibles sur le réseau public. »

Reste la principale question : les Français et les entreprises vont-ils utiliser cet OS souverain ? «En Corée du Nord, citée plus haut, pas de problème, il suffit qu’on leur demande gentiment et tous les citoyens le font. Mais en France ? Il faudrait convaincre les citoyens », explique Stéphane Bortzmeyer, ingénieur R&D à l’Association française pour le nommage Internet en coopération.

Quelle que soit la décision de l’État français, il faut espérer que cet OS souverain ne coûtera pas aussi cher au contribuable que les deux plates-formes de Cloud souverain. (Cloudwatt et Numergy ont englouti 156 millions d’euros d’investissements en trois ans et cumulé 108 millions de pertes…

Par Philippe Richard

Argentine : les tarifs de l’électricité explosent

L’arrivée au pouvoir de Mauricio Macri, le nouveau Président argentin, n’est pas passée inaperçue. Face à une situation économique compliquée, ce quinquagénaire libéral n’a pas tardé à faire voter des mesures d’urgence comme la dévaluation du peso (- 27%) ou la hausse sensible des tarifs d’électricité dans la région métropolitaine.

macri

Multiplication par 8

S’il n’est pas rare de voir les tarifs de l’électricité subitement monter à l’occasion d’un changement de majorité politique, l’ampleur de ce rééquilibrage est en revanche inhabituelle. Selon les cas, les habitants de Buenos Aires et de ses environs pourront voir leur facture s’envoler jusqu’à 700% !

Une hausse massive qui s’explique d’abord par un tarif de base très faible qui rend toute révision incroyablement impopulaire. C’est pourquoi le pays affiche depuis des années des tarifs de l’électricité parmi les plus bas du continent. Et ce, alors que les coûts sont plus élevés que les recettes des deux compagnies électriques : Edenor et Edesur. Ce bilan négatif était jusqu’ici compensé par le gouvernement à coups de milliards de pesos. « Ce que nous sommes en train de réaliser par cette reconfiguration tarifaire, c’est reconnaître les coûts de la production, et de façon progressive, aller sur le chemin de la couverture de ses coûts pour réassigner les subventions », a indiqué lors d’une conférence de presse Juan José Aranguren, le ministre de l’Energie, en charge de mener à bien ce dossier. Selon les estimations du ministère, le pays pourrait économiser 4 milliards de dollars dès cette année grâce à cette mesure.

Economies d’énergies

Concrètement, un usager qui consomme en moyenne 202 kilowatts-heure (kWh) par mois, verra sa facture passer de 26 à 158 pesos. Cette hausse massive s’accompagne d’une stratégie d’incitation aux économies d’énergie, généralement peu en vogue dans les pays où l’énergie est bon marché. Ainsi, les consommateurs pourront diminuer leur tarif électrique à mesure des économies d’énergie réalisées. Si le foyer parvient à diminuer de 10% sa consommation électrique par rapport à l’année précédente, il bénéficiera d’un tarif de 128 pesos par mois (contre 158). Si la baisse est de 20%, le tarif passera à 106 pesos par mois.

Par ailleurs, de nombreuses exceptions permettront de limiter la hausse pour les populations les plus vulnérables. Ainsi, les retraités, les chômeurs et les bénéficiaires de programmes sociaux en général, bénéficieront d’un traitement social qui prévoit la fourniture des 150 premiers kilowatts-heure par mois gratuitement. Selon les calculs du gouvernement, quelque 900 000 personnes devraient bénéficier de ce tarif social, sur les 4,6 millions de consommateurs que compte la région. Pour rappel, avant la mesure, il étaient 4,2 millions à en bénéficier, soit 90% des clients d’Edenor et Edesur…

Equilibre

Malgré la hausse massive des tarifs, le gouvernement a sous-entendu qu’il ne s’agirait que d’une première étape d’une réforme plus profonde du marché électrique. Ce dernier n’est plus du tout concurrentiel et les tarifs artificiellement bas imposés par la présidence de Cristina Kirchner, a sapé le signal prix, tant pour les consommateurs que pour les investisseurs qui ne peuvent rentabiliser le moindre projet dans ces conditions. Pour Mauricio Macri, l’objectif est donc clairement de redonner un signal-prix fort pour attirer à nouveau les capitaux étrangers. Selon le Juan José Aranguren, les tarifs devront à terme rejoindre les coûts de production estimés à 770 pesos par MWh.

L’Argentine est l’un des pays les plus riches d’Amérique du sud, mais il est frappé, à intervalles réguliers, par de terribles crises financières et/ou de surproduction qui ont alternativement poussé le pays vers un libéralisme ou un protectionnisme exacerbé.

Par Romain Chicheportiche

Fusées et lanceurs réutilisables : la course a commencé

22 janvier 2016 – Van Horn, Texas. La firme commerciale Blue Origin, fondée par Jeff Bezos (PDG d’Amazon) fait un doublé mondial. Première réutilisation d’un lanceur, premier lanceur à ré-atterrir deux fois sur la terre ferme en position verticale. La petite fusée New Shepard avait en effet déjà fait son premier vol et son premier atterrissage réussi le 23 novembre 2015. Après nettoyage, révision et quelques améliorations, elle a réitéré son exploit. Blue Origin vient ainsi de damner le pion à son principal rival commercial, Space X avec sa Falcon 9. Néanmoins, on peut nuancer, New Shepard est une fusée qui n’assure que des vols suborbitaux. Elle se compose d’un petit premier étage et d’une capsule destinée à accueillir les premiers touristes de l’espace pour un séjour de quelques minutes en apesanteur à 100 km d’altitude. Assez loin donc de la beaucoup plus massive Falcon 9 qui a déjà ravitaillé plusieurs fois la station spatiale internationale à plus de 400 km de la Terre.

Falcon 9 de Space X : prometteuse

Un mois après son rival, la fusée Falcon 9 de l’entreprise commerciale Space X fondée par Elon Musk (entre autre aussi cofondateur de Zip2, Paypal et Tesla motors) réussissait son premier atterrissage sur la terre ferme. Depuis, l’entreprise essaye de réussir un amerrissage. Mais elle en est déjà à son troisième échec. Le dernier datant du 17 janvier 2016. Pourquoi insister pour savoir amerrir si on sait déjà atterrir ? Pour des raisons de coûts ! Ainsi pas besoin de rediriger la fusée forcément vers la Terre. Car l’objectif n’est pas seulement technologique, il est aussi commercial, réutiliser le 1er étage d’un lanceur doit avant tout permettre de diminuer les coûts d’accès à l’espace. Première raison pour laquelle les navettes spatiales ont été abandonnée : elles revenaient plus chère qu’un lanceur classique. Pour Space X, il reste donc à prouver sa capacité à réutiliser un lanceur qui aurait été récupéré et à montrer que le concept est intéressant commercialement.

Adeline, l’outsider d’Airbus DS, pas avant 2025 !

Airbus Defence and Space a dévoilé en juin 2015 son propre projet de récupération partielle de lanceur. Baptisé Adeline (Advanced Expandable Launcher with Innovative Engine Economy), le concept consiste à intégrer un module retour au premier étage de la fusée qui s’activerait au moment du largage du réservoir et ramènerai sur Terre la baie de propulsion, les moteurs et l’avionique. Le tout ressemble à un petit drone à hélice. Airbus DS espère pouvoir réaliser un gain de 30% sur le coût de lancement d’une fusée avec un supplément de seulement 2 tonnes de kérosène. Mais le premier vol inaugural n’est prévu qu’en 2025 !

Altaïr, un porteur réutilisable pour petits satellites

Dans la famille des réutilisables, l’Onera travaille pour le Cnes sur un autre concept. Un porteur (qui ressemble à un petit avion) amènerait en altitude le lanceur et ses petites satellites (10-50 kg). Ce type de lancement aéroporté présente de très nombreux avantages : structures au sol légères, lancement sur des sites différents envisageables, élargissement des possibilités en terme d’azimut de tir, lanceur beaucoup plus petit… La phase d’étude débute seulement pour une période de 3 ans au terme de laquelle un business plan pourra être proposé à différents partenaires.

Sophie Hoguin

Pesticides : une avancée majeure dans l’évaluation des risques cumulés

Les résultats de ces évaluations seront publiés d’ici la fin de l’année et seront pris en compte par l’EFSA lorsqu’elle développera les deux rapports scientifiques sur l’évaluation des risques cumulés pour la thyroïde et le système nerveux programmés pour 2017.

À plus long terme, l’EFSA espère commencer à intégrer progressivement des évaluations de risques cumulés dans son analyse annuelle des risques chroniques et aigus posés par les pesticides pour les consommateurs. Cette analyse se base sur des données recueillies par les États membres.

Le logiciel – connu sous le nom d’« outil d’évaluation des risques Monte Carlo » (MCRA) – a initialement été développé grâce à un projet financé par la Commission européenne impliquant des chercheurs, des scientifiques et des régulateurs de 14 pays supervisés par l’Institut national de la santé publique et de l’environnement des Pays-Bas (RIVM).

En 2015, l’EFSA a financé le développement ultérieur de l’outil MCRA dans le but de permettre le traitement de groupes d’évaluation cumulative de pesticides contenant jusqu’à 100 substances actives, conseillée en cette matière par le groupe scientifique de l’EFSA sur les produits phytopharmaceutiques et leurs résidus. Cette année encore, l’EFSA soutiendra financièrement d’autres améliorations à cet outil pour des aspects liés à l’accessibilité par les utilisateurs externes ainsi qu’à l’organisation et au formatage des données.

L’expérience acquise dans les évaluations initiales sera utilisée pour optimiser le logiciel afin d’assurer son utilisabilité dans le contexte des décisions réglementaires portant sur des demandes liées aux limites maximales de résidus (LMR) de pesticides dans l’alimentation. Ce volet du projet est étroitement coordonné avec la Commission européenne, qui a mis en place un groupe de travail pour garantir que le projet réponde bien aux besoins des gestionnaires de risques.

Luc Mohimont, de l’unité Pesticides de l’EFSA, a déclaré : « C’est un jalon passionnant et important dans nos travaux. On a fait des progrès dans le développement d’une approche permettant de réaliser des évaluations fiables de l’exposition à de multiples pesticides, ce qui nous rapproche d’un pas de notre but ultime : évaluer de façon complète les effets combinés des pesticides sur l’homme, plutôt que les effets de substances chimiques individuelles. »

Les substances sélectionnées pour les évaluations  pilotes ont été identifiées par les experts en pesticides de l’EFSA, qui ont utilisé une méthodologie spécialement conçue pour classifier les pesticides en « groupes d’évaluation cumulative » (GEC, voir ci-dessous). Au cours des années à venir, des GEC seront définis pour d’autres organes, tissus et systèmes. Des données sont actuellement déjà recueillies pour définir des groupes de pesticides susceptibles d’affecter le foie, les reins, les yeux ainsi que les systèmes reproductif et développemental.

Contexte

Le règlement de l’UE sur les LMR dans les aliments stipule que les décisions sur les LMR doivent tenir compte des effets cumulés des pesticides lorsque des méthodes permettant d’évaluer ces effets sont disponibles. En outre, le règlement relatif à la mise en place de pesticides sur le marché stipule que les pesticides ne devraient pas avoir d’effet nocif – y compris les effets cumulés – sur l’homme.

Groupes d’évaluation cumulative

En juillet 2013, le groupe scientifique de l’EFSA sur les produits phytopharmaceutiques et leurs résidus a publié une méthodologie générale pour classifier les pesticides en  groupes d’évaluation cumulative (GEC). Cette méthodologie repose sur l’hypothèse que les pesticides qui engendrent les mêmes effets phénoménologiques spécifiques, bien définis en termes d’emplacement et de nature, peuvent produire une toxicité cumulée conjointe, même s’ils n’ont pas les mêmes modes d’action.

Source : efsa

Une galaxie « propre et bien ordonnée » voisine de la Voie Lactée

IC 1613 est une galaxie naine située dans la constellation de la Baleine. Cette image acquise par le VST [1] révèle l’extraordinaire beauté de cette galaxie dans ses moindres détails – aussi bien les étoiles dispersées que le gaz d’un rose étincelant.

L’astronome allemand Max Wolf captura la faible lueur en provenance d’IC 1613 en 1906. En 1928, son compatriote Walter Baade parvint à isoler chacune des étoiles qui la constituent au moyen du plus puissant télescope de 2,5 mètres de l’Observatoire du Mont Wilson en Californie. Ces observations ont conduit les astronomes à supposer que cette galaxie devait se situer à grande proximité de la Voie Lactée. En effet, seules des étoiles appartenant à une galaxie très proche de la nôtre peuvent être observées individuellement.

eso1603b

Depuis lors, les astronomes ont confirmé l’appartenance d’IC 1613 au Groupe Local, un ensemble constitué de plus de 50 galaxies dont la nôtre, la Voie Lactée. IC 1613 se situe à 2,3 millions d’années-lumière de nous. Sa proximité en a fait un objet d’étude privilégié. Il est ainsi apparu qu’elle présente l’aspect d’une naine irrégulière, dépourvue toutefois de quelques caractéristiques communes aux galaxies de petite taille, tel le disque étoilé.

Ce qu’IC 1613 perd en terme de forme, elle le gagne en terme de propreté. La grande précision avec laquelle nous connaissons la distance d’IC 1613 s’explique en partie par la faible quantité de poussière contenue à l’intérieur de la galaxie ainsi que le long de la ligne de visée – ce qui permet d’effectuer des observations bien plus claires [2].

Le fait que cette galaxie abrite un certain nombre d’étoiles particulières – des variables Céphéides et des variables RR Lyrae [3] dont la taille et la luminosité augmentent périodiquement, à intervalles donnés, (eso1311), explique également la précision avec laquelle nous connaissons la distance d’IC 1613.

Des objets brillants tels que des ampoules ou des flammes de bougies nous apparaissent d’autant plus faibles qu’ils se situent à distance élevée. De la même façon, les astronomes peuvent déduire de la luminosité intrinsèque des objets célestes, lorsqu’ils la connaissent, leur éloignement exact.

Les variables de types Céphéides et RR Lyrae présentent la particularité suivante : leurs variations périodiques de luminosité sont directement liées à leur luminosité intrinsèque. En mesurant leurs périodicités, les astronomes peuvent donc déterminer leurs luminosités propres. Il leur suffit ensuite de comparer les valeurs ainsi obtenues aux mesures de leurs brillances apparentes pour connaître la distance à laquelle elles nous apparaissent les plus faiblement lumineuses.

En astronomie, les étoiles dont la luminosité propre est connue sont classées parmi les chandelles standards. Elles se comportent à l’image d’une bougie dotée d’une luminosité donnée et dont le scintillement de la flamme indiquerait la distance à laquelle elle se trouve.

Grâce aux chandelles standards – parmi lesquelles figurent les étoiles variables d’IC 1613 ainsi que les explosions de supernovae de type IA plus rares mais visibles sur de plus grandes échelles de distance, les astronomes ont constitué une échelle des distances cosmiques s’étendant sur des régions toujours plus profondes de l’Univers.

Voici des décennies, IC 1613, au travers des étoiles variables qui la constituent, a aidé les astronomes à mesurer l’étendue de l’Univers. Pas mal pour une galaxie informe et de taille réduite.

Notes

  1. OmegaCAM est une caméra CCD constituée de 256 millions de pixels installée sur le télescope de sondage de 2,6 mètres du VLT à l’Observatoire Paranal au Chili. Plus d’images prises par OmegaCAM accessibles via ce lien.
  2. La poussière cosmique est composée d’éléments lourds tels le carbone et le fer, ainsi que de molécules plus larges. La poussière ne bloque pas seulement la lumière, compliquant l’observation des objets qu’elle encercle, elle diffuse de préférence également une lumière plus bleue. De sorte qu’au travers des télescopes, les objets apparaissent davantage rouges qu’ils ne le sont en réalité. Les astronomes peuvent tenir compte de ce rougissement affectant les objets qu’ils étudient. Toutefois, plus ce rougissement est faible, plus les observations sont supposées fiables.
  3. Nettement différente des deux Nuages de Magellan, IC 1613 est la seule galaxie naine irrégulière du Groupe Local au sein de laquelle des étoiles variables de type RR Lyrae ont été identifiées.

Source : eso

Un bilan électrique 2015 mitigé !

Fin 2015, la production nette d’électricité atteint 546 térawattheures (TWh), soit une hausse de 1,1 % par rapport à 2014. La consommation française repart également à la hausse (+ 2,2 %), passant à 475,4 TWh. Corrigée de l’effet météorologique, la consommation augmente plus faiblement, + 0,5 % pour atteindre 476,3  TWh, soit le niveau de 2013.  Dans un contexte économique plus favorable, cette  hausse est attribuée aux industries telles que l’automobile et la métallurgie, mais aussi à la canicule de juillet qui a fait tourner les climatiseurs. Au cours de l’année, les importations et exportations avec les pays voisins ont atteint 120,9 TWh d’électricité.

Avec un solde d’exportation de 61,7 TWh, la France demeure le premier pays exportateur d’électricité en Europe.

Par ailleurs, l’effacement gagne du terrain : RTE dispose désormais d’une puissance d’effacement mobilisable d’un maximum de 1,9 gigawatts (GW), contre 1,2 GW en 2014.

Un autre fait est marquant : les émissions françaises de CO2 liées à la production d’électricité ont augmenté en 2015 de 21,7 % par rapport à 2014, atteignant 23,1 millions de tonnes (contre 19 millions l’année précédente). La majeure partie de ces émissions est due à l’augmentation de la production thermique à gaz (+ 3,5 millions de tonnes). Rappelons qu’en 2014, les émissions avaient connu une chute historique de 40 %.

Portrait du parc électrique français : capacités et production

Fin 2015, la puissance installée des centrales électriques françaises s’élève à 129,3 GW, en hausse de 0,5 % par rapport à 2014.  Les 58 réacteurs nucléaires représentent toujours 63,1 GW de puissance installée, soit, 48,8 % de la puissance du parc électrique français. Il constitue toujours la source de production numéro 1, avec 76,3 % de l’électricité produite (416,8 TWh).

L’hydroélectricité demeure en deuxième position grâce à ses 25,4 GW, soit 19,7 % du parc installé. Elle permet d’assurer 12,6 % de la production (58,7 Twh), malgré une baisse de 13,7 % de  production due à une pluviométrie inférieure à 2014.

En troisième position, on retrouve les centrales thermiques utilisant des combustibles fossiles (charbon, fioul et gaz). Leurs capacités sélèvent à 22,6 GW pour une production de 34,1 TWh fin 2015 (22,1 TWh de gaz, 8,6 TWh de charbon et 3,4 TWh de fioul. Ces centrales représentent 17,4 % du parc installé, mais seulement 6,2 % de la production. Malgré la fermeture de 1,5 GW de centrales à charbon, et une baisse globale de 5,9 % des capacités de centrales thermiques à combusibles fossiles, la production d’origine fossile croît de 9,7 TWh par rapport à 201 (+ 31,9 %). Cette année, c’est la production de gaz qui a le plus augmenté ( + 54,8 %), en raison des besoins en chauffage lors des premiers mois de l »année.

On retrouve ensuite l’éolien et le solaire. Pour ces énergies renouvelables intermittentes, les écarts entre puissance installée et production se creusent.  Entre 2014 et 2015, le parc éolien a gagné 999 MW et le parc solaire 895 MW. Avec des facteurs de charges supérieurs à 2014, le parc éolien a produit en moyenne à 24,3 % de sa capacité contre 22,6 % fin 2013 et le parc solaire à 15 % contre 14 % en 2014, ce qui a engendré d’importantes hausses de production. Fin 2015, si l’éolien représente 8 % de la puissance installée avec ses 10,3 GW, le parc produit 3,9 % de l’électricité française (21,1 TWh, en progression de 23,3% par rapport à 2014). Avec 4,8 % de la puissance installée (6,2 GW), le parc solaire représente 1,4 % de la production française (7,4 TWh, en hausse de 25,1 % par rapport à 2014).

Enfin, le parc de la filière bioénergies électriques est de 1,7 GW, soit 1,3 % du parc français pour une production de 7,9 TWh (1,4% de la production). Il se compose d’installations fonctionnant à partir de déchets ménagers, de biogaz, de bois-énergie et autres biocombustibles renouvelables, ainsi que de déchets de papeterie. Fin 2015, la production renouvelable de cette filière s’élève à 5,9 TWh, soit 1,1 % de la production totale. Une hausse de 8 % par rapport à l’année précédente.

Au final, si l’on combine la production de la part renouvelable de l’hydraulique et des bioénergies, les renouvelables ont produit 88,4 TWh, soit 16,2 % de la production électrique française.

Selon la méthodologie de calcul reprise de la directive européenne 2009/28/CE, la part annuelle de la production issue des sources d’énergies renouvelables par rapport à la consommation d’électricité atteint 18,7%, contre 19,6% en 2014.

Pour préparer le réseau aux objectifs de la transition énergétique, qui visent à porter à 40 % la part des énergies renouvelables dans le mix électrique en 2030, RTE a investi 1,4 milliard d’euros dans l’adaptation, le renforcement et l’entretien du réseau. C’est 28 millions d’euros de plus que l’année précédente.  De quoi intégrer notamment une part croissante d’éolien et de solaire.

Par Matthieu Combe, journaliste scientifique

Plus on est compétent, plus on est responsable

Il s’agit d’une conséquence du principe selon lequel chacun est responsable des accidents causés par les appareils dont il a la garde en qualité d’utilisateur ou de propriétaire.

La Cour a jugé qu’un architecte était censé avoir connaissance du mauvais fonctionnement de sa pompe à chaleur puisqu’il était un professionnel de la construction. Le dysfonctionnement, qui créait un danger, était pour lui un « défaut apparent », a dit la Cour. En revanche, le même défaut sur la pompe à chaleur du voisin, kinésithérapeute, n’a pas été jugé « apparent », son propriétaire n’ayant aucune compétence en la matière.

La pompe à chaleur laissait couler de l’eau de condensation qui formait une plaque de verglas sur le sol et avait provoqué un accident. La victime devait être indemnisée. Ayant glissé sur la glace, les juges ont exclu toute faute de sa part puisqu’elle n’avait fait qu’accomplir un geste de la vie quotidienne qui ne nécessite pas de précautions particulières.

Condamnés, les deux propriétaires de l’appareil ont donc connu un sort différent. L’architecte condamné ne s’est vu reconnaître aucun recours contre le fabricant ou l’installateur de la pompe à chaleur alors que le kinésithérapeute a pu faire valoir qu’on lui avait installé un appareil défectueux et se retourner contre ses fournisseurs.

Pour la justice, même si le dysfonctionnement provenait d’une mécanique interne automatique, il devait être connu d’un propriétaire ou utilisateur reconnu compétent, et ce dernier devait le faire réparer.

(Cass. Civ 3, 21.1.2016, P 14-20.308).

« Tous droits de reproduction et de représentation réservés. © 2016 Agence France-Presse. »

DEEE : une collecte record en 2015

La collecte avait stagné entre 2011 et 2013 autour de 7 kg, avant d’atteindre 7,4 kg en 2014. Mais en 2015, avec l’équivalent de 9 kg par habitant, le taux de collecte atteint 43,8 %, un taux supérieur à l’objectif  réglementaire de 40 %. La progression de 2015 est donc un record, correspondant à une croissance de près de 25%, soit 90 000 tonnes de DEEE collectés supplémentaires.

« Cette progression se répartit à hauteur de 33 000 tonnes émanant de collectivités nouvellement desservies par Eco-systèmes et 57 000 tonnes issues des actions annoncées en 2014 : création de nouveaux canaux de collecte, développement des collectes de proximité en zones urbaines denses et investissements en communication », fait savoir Eco-systèmes.  Les collectes en zones urbaines denses ont notamment montré leur efficacité. « Etendues à 13 nouveaux arrondissements de Paris et à 2 départements d’Ile de France, elles ont également démarré dans les 9 arrondissements de Lyon et à Bron, ainsi qu’en centre-ville de Toulouse, rappelle Eco-systèmes. Ces opérations (4 h le samedi matin) ont permis de collecter […] en moyenne 9 kg/apporteur. Ce résultat est à comparer à la performance nationale en zone urbaine de 2,4 kg/hab en 2014. » Ces actions seront poursuivies en 2016 avec une nouvelle priorité : accompagner les producteurs dans leurs démarches d’éco-conception (grâce au nouvel outil ReeeCyc’Lab lancé en mars 2016) et encourager leurs initiatives en matière d’économie circulaire.

Dans le détail, la collecte des petits appareils électriques est en hausse de 8 % (contre une hausse de 20,2% en 2014). Malgré une communication accrue, la hausse de l’apport des petits appareils électriques en magasins dans les meubles de collecte libre-service diminue donc. La plus forte augmentation de la collecte vient cette année des appareils de gros électroménager hors froid, grâce à une contractualisation rapide des entreprises de recyclage métaux et les opérateurs de broyage : + 30 %, contre + 8 % en 2014. Par ailleurs, la collecte des gros appareils froids augmente de 9 %, contre 4,7 % en 2014. Seule ombre noire au tableau : la collecte des écrans est en baisse de 4 %.

Conformément à la Directive Européenne DEEE 2, les objectifs sont d’atteindre une collecte d’environ 14 kg de DEEE en France en 2019. Cela représente 65 % du poids moyen d’appareils mis sur le marché chaque année. Il faudra alors collecter 6 kg de DEEE supplémentaires par habitant.

Par Matthieu Combe, journaliste scientifique

L’US Navy se met au biocarburant

De la graisse de bœuf. C’est la matière première utilisée pour produire le biocarburant qui servira à propulser quatre bâtiments de l’US Navy. Une première saluée par le secrétaire d’Etat à la Marine, Ray Mabus et à l’Agriculture Tom Vilsack, présents à San Diego (Californie) pour l’occasion.

Great Green Fleet

Cette expérience s’inscrit dans une stratégie plus globale résumée par l’expression : « Great Green Float ». Elle consiste à substituer la moitié de la consommation de pétrole et dérivés de la marine américaine par des carburants de substitution. Et ce, afin de diminuer son empreinte carbone certes, mais surtout réduire sa dépendance envers un produit importé, et dont les cours peuvent affecter la conduite de la guerre.

160120-N-SU278-024 SAN DIEGO (Jan. 20, 2016) – SAN DIEGO -- The Arleigh Burke-class guided-missile destroyer USS Stockdale (DDG 106), departs Naval Base San Diego as part of the Great Green Fleet, for a scheduled deployment. The Great Green Fleet is an initiative optimizing energy use to increase optimal range, endurance and payload, turning energy into a force multiplier. (U.S. Navy photo by Mass Communication Specialist 2nd Class Will Gaskill/RELEASED)

Cette stratégie a été élaborée alors que les Etats-Unis déployaient de nombreuses troupes au Moyen-Orient et que les cours du baril de pétrole dépassaient allégrement les 100$. Elle doit également participer à augmenter l’autonomie des troupes. Une doctrine résumée par le secrétaire d’Etat à la Marine : « La Grande Flotte Verte montre comment nous sommes en train de transformer notre utilisation de l’énergie pour faire de nous de meilleurs combattants, pour aller plus loin et délivrer davantage de puissance de feu. En bref, cela nous permet de remplir notre mission, à savoir une présence globale ».

Réalisable mais coûteux

Les quatre navires bénéficient d’une technologie développée par la société américaine AltAir Fuels, qui raffine les déchets issus des plusieurs fermes bovines de Californie. Ces carburants alternatifs sont compatibles avec les moteurs actuels et ne nécessitent pas d’adaptation. Le procédé reste néanmoins coûteux ce qui explique pourquoi l’armée s’est résolue à n’intégrer ce combustible alternatif qu’à hauteur de 10% dans le mix total, contre 50% initialement envisagé. La diminution des coûts est donc l’objectif principal du secteur des biocarburants, qui a bénéficié de quelque 500 millions de dollars de la part du gouvernement fédéral pour y parvenir. D’aucuns émettent de sérieux doutes sur l’intérêt réel des biocarburants. Outre le risque de concurrence sur les terres agricoles, ces carburants alternatifs ne donneront pas une meilleure autonomie aux navires américains, et ne résolvent en rien la problématique logistique de son acheminement jusqu’aux théâtres d’opération. C’est le principal inconvénient du recours aux carburants fossiles.

C’est pourquoi, l’US Navy travaille sur d’autres pistes que les biocarburants. Son laboratoire dédié, le Naval Research Labaratory, avait fait sensation en 2014 en annonçant avoir réussi à faire voler un avion télécommandé grâce à un carburant fabriqué à base… d’eau de mer ! Le procédé, qui consiste à extraire simultanément le CO2 et l’hydrogène de l’eau de mer pour en faire du kerosène, est en cours de développement à plus grande échelle. L’océan en guise de station-service, un rêve pour tout marin.

Romain Chicheportiche

Nucléaire : Test de refroidissement réussi pour l’EPR

La Chine avance à grands pas vers la mise en service de ses deux EPR. Elle a franchi une nouvelle étape avec ses tests de refroidissement. Leurs objectifs étaient d’obtenir une première série de données sur les équipements, d’assurer la compatibilité de l’opération avec l’interface système et de vérifier la performance de l’ensemble.  « Il s’agit des premiers tests de refroidissement réalisés sur un EPR », s’est félicité la compagnie chinoise. En effet, bien qu’ayant été mis chantier en 2009, soit deux ans après Flamanville, le premier réacteur de Taïshan devrait entrer en service au premier trimestre de l’année prochaine, suivi d’une deuxième EPR en fin de cette même année.

TaïshanPour rappel, il existe deux autres EPR actuellement en construction dans le monde. L’EPR de Flamanville a multiplié les retards et surcoûts. Il a été l’objet d’un nouveau calendrier, présenté par Jean-Bernard Lévy, pdg d’EDF, qui prévoit désormais sa connexion au réseau, au plus tôt, fin 2018.

Le chantier finlandais d’Olkiluoto est un peu particulier. Démarré en 2005, il a lui aussi multiplié les retards en raison d’un conflit entre Areva et l’électricien finlandais TVO qui a commandé le réacteur. Des incompréhensions avec l’autorité de sûreté finlandaise auraient également enlisé les opérations. Il pourrait finalement être opérationnel en 2018. Les EPR chinois seront donc, sans aucun doute, les premiers à entrer en fonctionnement.

Romain Chicheportiche

Grandes manœuvres dans le nucléaire français

Il y a un an, François Hollande, après l’annonce de la perte record d’Areva sur l’exercice 2014 (4,8 Md € tout de même et 6000 suppressions de poste en conséquence), prophétisait qu’il y aurait une nouvelle stratégie industrielle pour la filière nucléaire française. Une filière qui ne compte pas pour du beurre : 2500 entreprises et 220 000 salariés et dans laquelle l’Etat joue un rôle crucial d’orientation bien sûr mais surtout de financement. Mais la crise est profonde et touche tous les chaînons : de l’extraction de l’uranium à la gestion des déchets, en passant par la sûreté.

En amont, Areva minée par l’uranium

Présente sur presque tous les continents Areva n’en reste pas moins une entreprise très ancrée en France : les deux tiers de ses 45000 salariés y travaillent. Mais la recapitalisation en cours aujourd’hui est l’aboutissement de choix stratégiques et d’investissements hasardeux. Tel que l’affaire Uramin, un rachat de gisements d’uranium en Afrique qui se sont révélés complètement sur-évalués et ont fait perdre 2,6 Md € au groupe tout en exposant au grand public les pratiques douteuses des responsables d’Areva (voir la nouvelle enquête publiée par Mediapart).

Sur un autre plan, les travailleurs locaux d’Areva commencent aussi à se faire connaître, tel ce groupement d’anciens ouvriers des mines au Gabon qui ont exigé le 23 janvier dernier une indemnisation au titre des fortes radiations reçues lors de l’exploitation des mines. (voir cet article du journal gabonais info241). Le tout dans un marché de l’uranium excédentaire depuis la catastrophe de Fukushima en mars 2011.

Areva démantelée, EDF récupère les réacteurs

C’est mercredi 27 janvier que la nouvelle filière française du nucléaire a été décidée officiellement : EDF rachète pour 2,5 Md € la branche réacteurs et services d’Areva (Areva NP) et l’Etat recapitalise Areva à hauteur de 5 MD€. Aussitôt la bourse applaudit, le titre grimpe de plus de 30%. Mais rien n’est encore gagné. Il faut trouver d’autres investisseurs – sinon, l’opération risque d’être recalée par la Commission européenne – les deux pistes principales évoquées pour l’instant sont koweitienne et chinoise.

Enfin, une autre difficulté reste à régler : celle de l’EPR finlandais dont EDF refuse d’assumer la charge. En effet, cet EPR a déjà 9 ans de retard et a coûté 3 fois son prix de départ atteignant les 8 Md€. Fin janvier, les gouvernements français et finlandais ont donné 1 mois à Areva et TVO (l’industriel finlandais) pour régler leur litige financier. EDF a déjà suffisamment à faire avec ses propres projets d’EPR.

EDF peut-il tenir encore ?

En ce mois de janvier, EDF a confirmé 3350 suppressions de postes. Mais cela ne représente qu’une goutte d’eau au vu de l’argent nécessaire pour renflouer le groupe : 37 Md € de dette et des besoins d’investissements faramineux : 55 Md € pour les travaux de maintenance et de mise à niveau des centrales nucléaires d’ici à 2030 (si l’ASN vote pour les prolongations), 16 Md€ pour le projet d’EPR britannique d’Hinkley Point et la demande en augmentation constante pour mettre en place la gestion des déchets. On peut comprendre les craintes des syndicats qui ne veulent plus prendre le risque Outre-Manche. D’autant que l’EPR français de Flamanville est lui aussi menacé de ne jamais voir le jour : les anomalies trouvées sur la cuve pourraient obliger à tout détruire et reconstruire : Impensable !

Le nucléaire scientifique patine aussi

Les EPR, ITER ne sont pas les seuls projets qui prennent l’eau. Le réacteur de recherche du CEA, le RJH (réacteur Jules Horowitz) a aussi plombé les comptes de la DCNS : 100 millions de perte sur 2015 pour le groupe naval. Il faut dire que la facture globale de ce réacteur est passé de 630 M€ à près d’1,4 Md€ entre 2007 et 2015. Quant à la mise en service prévue pour 2016, ce sera plutôt 2022…

Et si la sûreté passait à l’as ?

M.-Pierre-Franck-Chevet-presente-ses-vaeux-a-la-presse-le-20-janvier-2016_large
Pierre-Franck Chevet, président de l’autorité de sûreté nucléaire (ASN)

C’est la plus grande crainte de Pierre-Franck Chevet, président de l’autorité de sûreté nucléaire (ASN). Tout d’abord car les autorités de contrôle et de surveillance que sont l’ASN et l’IRSN estiment de pas avoir les moyens de leur mission : le gouvernement a débloqué 30 postes là où l’ASN en réclame 200. Et devant la charge de travail, les contrôles ne pourront porter que sur les installations en fonctionnement et pas sur les nouvelles. Une situation qui ne serait pas forcément pour déplaire à EDF qui, comme le suggérait Mediapart en juin 2015, aurait mis comme condition du rachat d’Areva un assouplissement des exigences de l’ASN vis-à-vis des anomalies trouvées à Flamanville.

Sans oublier le trou de la gestion des déchets

bureEn début d’année, Ségolène Royal, ministre de l’énergie annonçait le coût estimé de Cigeo, le projet de stockage profond des déchets de moyenne activité à vie longue, à 25 Md€. Plus que l’estimation faite par les industriels  – 20 Md€ – mais beaucoup moins que celle faite par l’Agence nationale des déchets radioactifs (Andra) – presque 33 Md €. Un débat financier qui s’accompagne d’une relance du bien-fondé et de la sécurité de cette solution en raison d’un accident mortel sur le site laboratoire d’enfouissement de Bure actuellement en construction.

Les citoyens, oubliés du nucléaire ?

A l’heure de la démocratie participative, des espaces de discussion au travail, la filière du nucléaire, pour laquelle le contribuable va encore payer (via des hausses de tarifs, d’impôts ou des coupes claires dans d’autres secteurs), reste assez hermétique à la participation du public. Une position que voudrait faire évoluer l’ASN. L’autorité a ainsi ouvert aux citoyens les commentaires sur ces projets de décisions et Pierre-Franck Chevet a clairement évoqué l’idée de faire participer les Français à la décision ou non de poursuivre la durée de vie de certaines installations en 2018.

Sophie Hoguin

Les changements magnétiques solaires de 2011 à 2015

Les forces magnétiques produites par le soleil, invisibles à l’œil nu, déclenchent d’incroyables éruptions solaires dont la puissance est telle qu’elles seraient capables de pulvériser tous nos systèmes électriques.

La compréhension de la structure magnétique du soleil est cruciale pour les scientifiques afin  de comprendre et prévoir ces événements. Les chercheurs utilisent notamment un magnétographe, qui mesure la force et la direction des champs magnétiques.

La vidéo ci-dessous, produite par Goddard Space Flight Center de la NASA, montre les changements du champ magnétique du soleil au cours des quatre dernières années.

Par Iris Trahin

Des machines qui se souviennent, le défi des intelligences artificielles à venir

La satisfaction de l’équipe Google est compréhensible, ses réalisations anticipent de dix ans les prédictions des spécialistes.

La centaine de chercheurs réunis à Londres a montré son efficacité depuis l’absorption de DeepMind en 2014, en prenant le meilleur sur le programme Darkforest de Facebook, lui aussi chargé de s’ouvrir la voie du succès au jeu de go.

Les spécialistes du secteur sont sur la brèche. Les résultats et codes révélés sont vite assimilés par les laboratoires en pointe qui les mettent à leur tour en œuvre.

hippocampe_coraline

Les techniciens ambitionnent désormais de construire un système d’intelligence artificielle « généralisé », qui tire de ses apprentissages établis dans des environnements préalables des moyens transmissibles à d’autres tâches. C’est aussi la capacité humaine à décomposer les problèmes en problèmes plus petits et à envisager les conséquences d’actions distantes.

Les chercheurs s’intéressent ainsi au fonctionnement de l’hippocampe, siège de la mémoire, pour reproduire les mécanismes de transfert d’expérience et ainsi créer des automates d’un nouveau genre.

Leur couplage avec d’autres technologies informatiques, telle l’ordinateur quantique élaborée par la société D-Wave au Canada pour résoudre des problèmes mathématiques, elle aussi passée dans le giron de Google.

Par Etienne Monin

Les performances derrière la victoire d’AlphaGo

Des pierres de handicap (coups d’avance) leur sont encore attribuées dans les parties contre des professionnels.
AlphaGo explore aussi les données de cette manière, en comparant la partie en cours à des échantillons de trente ans millions de positions de parties professionnelles inventoriées.

AlphaGo a en outre été entraîné en jouant virtuellement avec 50 autres ordinateurs, améliorant son système d’interprétation et de prédiction par l’apprentissage renforcé.

Fan Hui, son adversaire, a reconnu qu’il aurait pu croire affronter un humain au jeu parfois « étrange » mais « très fort ». Il a adopté un style plus agressif après la première partie, sans déstabiliser la machine au style plus défensif, « territorial ». Il abandonne dans la cinquième partie, ayant accumulé un retard de dix points.

Un commentateur professionnel coréen sur un portail de go juge qu’AlphaGo a surpassé son adversaire par des coups « solides et souples », sans commettre de graves erreurs.

L’enthousiasme de l’équipe de Google est d’autant plus grand que personne ne s’attendait à ce qu’un ordinateur parvienne aussi rapidement à ce niveau de jeu.

Pour son artisan Demis Hassabis, AlphaGo a acquis la capacité d’inventer par lui-même des choses nouvelles, qui repoussent ce que les meilleurs humains avaient pu concevoir.

Le prochain affrontement avec le coréen Lee Sedol s’annonce ainsi ébouriffant. La communauté du go soutient son champion mais la balle est dans le camp de l’intelligence artificielle qui poursuit sa préparation depuis sa victoire d’octobre 2015.

Lee Sedol a annoncé « considérer ce match comme un moment important de l’histoire du go » mais demeurer « confiant dans le fait de pouvoir gagner. » Un programmateur de Deep Mind se demande quelles ruses il trouvera à opposer à l’algorithme, « qui ressemble à un mur ».

Par Etienne Monin

Des programmes informatiques qui apprennent à jouer

L’algorithme, dit de « minimisation rétrospective du regret », construit un arbre de décision à partir des résultats de chaque partie, associés à un degré de « regret ». Il réévalue également les décisions prises dans les tours précédents.

Le bluff est généré par fréquences statistiques calculées à partir des observations. Ces technologies font envisager des applications pour l’aide à la décision dans les domaines médicaux, biologiques ou financiers.

L’innovation de l’algorithme DeepMind est de pouvoir évoluer dans des environnements différents et d’y former chaque fois par apprentissage un schéma d’action. Il apprend formellement à reconnaître les configurations favorables de pixels.

Les ingénieurs l’ont d’abord entraîné à jouer à 49 jeux d’arcades, tels Pong, Space invaders et Breakout. Dans chacun d’eux, l’algorithme a décidé d’un comportement jusqu’à jusqu’à totalement « maîtriser » le jeu. Demis Hassabis, co-fondateur de DeepMind, en fait la démonstration avec le jeu Breakout (une plaque mobile renvoie une balle verticalement pour casser des briques.

L’algorithme après 300 parties gagne à tous les coups. Au bout de 500 parties, il a identifié une stratégie optimale, renvoyant la balle de manière à creuser dans les briques par le dessus.

Par Etienne Monin

Les machines à apprendre : réseaux neuronaux et apprentissages en profondeur

Son algorithme décompose l’analyse d’un ensemble de données complexes couche après couche pour extraire de cette information brute un schéma structuré, « créer des règles à partir de rien ».

Le programme initial mis en place au Google X Lab en Californie en 2011 consistait en un réseau d’un million de neurones simulés, dotés d’un milliard de connexions, répartis entre 1000 ordinateurs. Il a montré la performance des réseaux neuronaux dans l’identification d’images et la reconnaissance vocale, suivant la méthode de « l’apprentissage en profondeur ».

Cette approche, initiée dans les années 1980, vise à renforcer les interconnexions pertinentes entre couches neuronales simulées. Yann LeCun, aujourd’hui directeur de la recherche en intelligence artificielle à Facebook, produit à cette époque un programme d’identification des chèques bancaires.

La révolution numérique des années 2000 ouvre à de nouvelles expériences par la masse des données disponibles et la puissance de calcul accrue. Les projets menés autour de la reconnaissance vocale améliorent de 25 % la qualité dans le cas du logiciel Siri intégré à la plateforme IOS d’Apple.

L’algorithme d’identification d’images remporte en 2012 la compétition ImageNet : les programmes « apprennent » à partir d’un stock d’un million d’images étiquetées en catégories. Un test les soumet à une série d’images inconnues dont ils doivent dire l’étiquette.

Le taux d’erreur passe avec ce nouvel algorithme de 25 % à 15 %. Pour cela, les « filets neuronaux profonds » – deep neural nets – exploitent une deuxième stratégie, l’apprentissage par renforcement, qui institue un système de décision, par des mécanismes de récompense et de validation, comme un score, à chaque expérience.

L’algorithme apprend par essai-erreur quelles actions maximisent sa récompense à n’importe quel moment en environnement complexe. Plus la quantité d’information traitée est importante, plus algorithme s’améliore.

Par Etienne Monin

Google DeepMind : la machine surpasse une nouvelle fois l’intelligence humaine

Le jeu de go, jeu millénaire dont les origines légendaires se confondent avec les fondements de la civilisation chinoise, gardait la réputation d’être irréductible au calcul informatique, même si des programmes récents approchaient d’un niveau respectable.

Au long d’une divulgation médiatique soigneusement préparée par la publication d’un article dans la revue Nature[1], l’équipe de développement de DeepMind, le programme d’intelligence artificielle de Google, a annoncé la victoire de son programme AlphaGo contre le joueur professionnel et champion d’Europe de go en titre, Fan Hui, dans un match en cinq manches disputé au mois d’octobre, où le champion a chaque fois été dominé.

Google-humilie-le-champion-d-Europe-du-jeu-de-go_article_landscape_pm_v8

Ce résultat, inespéré autant que spectaculaire, prend appui sur la technologie des réseaux neuronaux, inspirée du fonctionnement cognitif du cerveau humain. Elle vise spécifiquement à fonder le fonctionnement de la machine sur un processus d’apprentissage, inscrit dans un « entraînement », pour répondre à un objectif donné.

Cette nouvelle prouesse issue des laboratoires du géant californien laisse présager d’applications numériques nombreuses.

En arrière-plan se joue une bataille qui promet d’être homérique avec Facebook, attelé au développement d’une technologie similaire et pour l’heure distancé.

Fort de son avance, Google impose son calendrier : prochaine étape, son programme AlphaGo affrontera Lee Sedol, joueur de go coréen au sommet de la hiérarchie mondiale, dans une nouvelle série de rencontres prévues au mois de mars.

[1] Silver D. et al., 2016, « Mastering the game of Go with deep neural networks and tree search », Nature, vol. 529, 28 janvier 2016, p. 484-489.

Par Etienne Monin

Le laser s’installe dans les communications par satellite

EDRS (European Data Relay System) ou encore de son petit nom SpaceDataHighway (« autoroute des données spatiales »), est un programme de télécommunication entrepris par l’Agence spatiale européenne (ESA) qui vise à fournir un accès en temps réel aux données satellitaires – notamment d’observation de la terre. EDRS repose sur un partenariat public-privé entre l’ESA et Airbus Defence and Space. Sa mise en service devrait permettre d’améliorer le temps de réaction nécessaire pour réaliser de nombreuses opérations de sécurité et de sauvetage, particulièrement dans le domaine maritime et fournira à l’Europe une meilleure indépendance vis-à-vis des stations au sol hors de son territoire.

Un relais pour les satellites en orbite basse

Lancement de EDRS-A, charge utilse du satellite Eutelsat-9B, le 29 janvier à 22h20 TU par une fusée Proton depuis Baïkonour, au Kazakhstan
Lancement de EDRS-A, charge utilse du satellite Eutelsat-9B, le 29 janvier à 22h20 TU par une fusée Proton depuis Baïkonour, au Kazakhstan

Le principe du système EDRS est de relayer les données des satellites en orbites basses vers la terre en temps quasi-réel. En effet, l’inconvénient des satellites en orbite basse est qu’ils doivent être visibles depuis le sol pour pouvoir envoyer leurs informations. Sur 100 minutes nécessaires à leur orbite, les satellites ne peuvent communiquer que 10 minutes.

L’ensemble des satellites EDRS, grâce à des positions géostationnaires, pourront recevoir ces informations presque en continu et les relayer directement au sol. La mise en place de ce relais devrait en outre participer à la décongestion des radiofréquences traditionnelles des satellites qui commencent à être encombrées.

Une technologie laser de pointe

Les liaisons optiques semblent être le futur des communications par satellites : capables de connecter des systèmes sur de très longues distances, de manière plus fiable que les ondes radio et avec une quantité de données bien plus importantes.

c295wLes satellites EDRS pourront communiquer avec les satellites d’observations de la Terre, mais aussi des avions ou drones de surveillance soit par laser soit par radiofréquence (bande Ka – 400 MHz jusqu’à 300MBit/s) et par laser avec des stations au sol installées en Allemagne, en Belgique et au Royaume-Uni avec un débit de 1,8GBit/s. Le laser a été fabriqué par l’entreprise allemande TESAT et financé par l’agence spatiale allemande (DLR). Il peut verrouiller une cible de 135 mm de diamètre jusqu’à 45 000 km de distance en moins de 1 minute. La capacité de transmission est évolutive et peut être augmentée jusqu’à 7,2 Gbit/s. Ce premier réseau de transmission de données laser inter-orbital relaiera à terme quelque 50TBit de données par jour.

Quelle est la suite du programme ?

Dans les semaines qui viennent, les premiers essais de liaisons seront effectués avec les premiers clients d’EDRS : les satellites Sentinelles du programme Copernicus de la Commission européenne. Le démarrage de l’exploitation réelle est prévu pour l’été 2016. Il est déjà prévu que la Station spatiale internationale bénéficie du service de relais de données à partir de 2018. Le système sera complété l’année prochaine par la mise en orbite du deuxième nœud, un satellite dédié baptisé EDRS-C qui sera lui-aussi géostationnaire au-dessus de l’Europe. Un troisième nœud devrait compléter le système en 2020, doublant la couverture grâce à sa situation au-dessus de la région Asie-Pacifique.

Sophie Hoguin

La libéralisation profite des prix bas de l’énergie

Depuis le 1er janvier 2016, des centaines de milliers de sites professionnels ont dû quitter les tarifs réglementés de l’électricité et de gaz pour une offre de marché. Une obligation inscrite dans la loi Nome (Nouvelle Organisation du Marché de l’Electricité), votée en 2010, visant à libéraliser un marché énergétique dominé par les acteurs historiques que sont EDF et Engie (ex-GDFSuez).

Nome

La loi Nome répond à une exigence de Bruxelles de libéraliser le marché français de l’énergie. Un sujet sensible dans l’Hexagone et qui a abouti à protéger encore sous le parapluie des tarifs réglementés les particuliers. Tous les clients non-domestiques dont la puissance souscrite est supérieure à 36 kVA, devaient basculer, le 31 décembre 2015 au plus tard, sur une offre de marché. Selon la Commission de régulation de l’énergie (CRE), au 21 décembre 2015, environ 145 000 sites sur un total de 468 000 étaient encore aux tarifs réglementés d’électricité. Pour le gaz, environ 33 600 sites n’avaient pas encore souscrit d’offre de marché sur un total de 108 000. Le régulateur du secteur rappelle que, depuis le 1er janvier 2016, les contrats de fourniture de ces récalcitrants sont passés en « offres transitoires », dont les tarifs sont en moyenne supérieurs de 5 % aux tarifs réglementés de vente d’électricité. Une aberration au regard des économies réalisées par certains consommateurs.

Rabais de 15%

C’est le cas des 3 000 personnes publiques qui ont bénéficié de l’énorme appel d’offres (3 300 GWh) organisé en 2015 par l’UGAP, une centrale d’achat public. Les résultats ont été annoncés fin janvier et les lots ont été attribués. L’écart par rapport aux derniers tarifs réglementés est d’environ 43 millions d’euros par an pour la totalité des marchés, soit un gain moyen de 15%. Par ailleurs, les offres devaient favoriser le développement d’énergies propres en contenant des garanties selon le choix de chaque bénéficiaire (mix énergétique standard, 50%, 75% et 100% d’électricité renouvelable).

Le même jour, le groupe gestionnaire de copropriétés Foncia, annonçait avoir choisi Engie pour la fourniture des 120 GWh/an d’électricité destinés à ses 950 copropriétés en France, elles aussi concernées par la loi Nome. « Grâce à ce contrat de fourniture d’électricité, les immeubles concernés par cet appel d’offres vont bénéficier, en moyenne, d’une économie potentielle de l’ordre de 13% par rapport aux tarifs réglementés de vente », s’est félicité Foncia.

Libéralisation en demi-teinte

La libéralisation de ce pan du marché français de l’énergie ne s’est pas traduite par une hausse des prix, ce qui est assez rare pour être souligné. Au contraire, les clients ont bénéficié assez largement de l’ouverture du marché. D’aucuns pourraient penser qu’il s’agit de la saine concurrence qui s’est instauré dans l’Hexagone et qui a tiré les tarifs vers le bas, mais il n’en n’est rien. Les vainqueurs de l’appel d’offres de l’UGAP sont en effet les leaders historiques du secteur EDF et ENGIE, accompagnés d’Energies Strasbourg et Gaz Electricité de Grenoble, dont ils sont respectivement actionnaires… Aucun nouvel entrant. Ces offres compétitives résultent davantage d’un contexte de prix mondiaux de l’énergie (électricité, pétrole, gaz, charbon) très bas. Reste à savoir combien de temps les prix demeureront à ce niveau, et comment impactera leur inéluctable remontée sur la facture des professionnels.

Romain Chicheportiche

Danemark : Record éolien battu !

Avant-gardiste sur les énergies renouvelables, le Danemark va une nouvelle fois faire parler de lui. Le pays est parvenu à produire 42% de son électricité grâce à l’énergie éolienne, un record mondial sur une année. Cette montée en puissance des énergies vertes a permis au pays de réduire fortement l’usage des centrales thermiques alimentées par des énergies fossiles. Ainsi, le 2 septembre dernier, l’électricité consommée par les Danois provenait à 100% de l’énergie du vent, pas une seule centrale thermique n’ayant fonctionné ce jour là. Un autre jour du juillet, la production était telle que 40% des électrons ont été exportés dans les pays voisins (Norvège, Suède, Allemagne). Plus précisément, sur les 8 760 heures que compte l’année, la production éolienne a surpassé la consommation totale du pays durant 1 460 heures.

Ces performances s’expliquent par une année particulièrement venteuse, et ce, alors que deux grandes fermes éoliennes (Anholt et Horns Rev 2) étaient à l’arrêt pendant respectivement 1 et 2 mois. Le Danemark est régulièrement désigné comme précurseur dans la transition vers des énergies décarbonées. Des performances également liées aux interconnexions électriques qui permet au pays d’exporter ses surplus vers ses voisins et d’importer l’électricité de ces derniers lorsque les éoliennes ne peuvent subvenir aux besoins du réseau.

Romain Chicheportiche

Politiques d’innovation : un soutien très fort mais illisible

La Commission nationale d’évaluation des politiques d’innovation (CNEPI) installée depuis fin juin 2014 a pour ambition d’émettre des recommandations pour rendre plus efficaces et efficients les efforts publics en matière de soutien à l’innovation. Sa première tâche a consisté à établir un état des lieux des dispositifs existants. Le fruit de ce travail a fait l’objet d’un rapport présenté le 21 janvier 2016.

Plus de 10 milliards d’euros sur la table

Premier constat : après consolidation, l’ensemble des aides à l’innovation représente 10 Md€. « Un montant considérable, supérieur de plus de 25% au budget de la justice par exemple », explique les rapporteurs. L’évolution sur 15 ans montre que le soutien financier à l’innovation a doublé en euros constants. Et que l’effort a été maintenu quelque soit la tendance politique au pouvoir. La nécessité pour les acteurs économiques d’innover pour rester compétitifs fait en effet consensus.

Trop de dispositifs

Malheureusement, le financement par les pouvoirs publics de l’innovation passe par de multiples dispositifs et instruments, trop souvent instables dans le temps ou dans leur forme. Le rapport illustre ce propos par des chiffres effarants : « en 2000, l’Etat et ses opérateurs géraient près de 30 dispositifs nationaux. Aujourd’hui il y en a 62 ! Et ce sans compter ceux qui sont gérés par les collectivités territoriales. » On se doute qu’il y a alors redondance et impossibilité pour la plupart des acteurs publics ou privés de maîtriser les instruments à leur disposition.

Moins d’aides directes, plus d’incitations fiscales

Alors qu’il y a 15 ans, plus de 80% des aides étaient directes, celles-ci représentent maintenant moins de 20% des aides (une division par 2 à peu près en termes de montants réels). A la place, le gros des aides passe par le crédit impôts recherche (CIR) ou d’autres formes d’incitations fiscales : 6,4 Md € soit quelque 60% du soutien total. Il est à noter que ses aides passent désormais par deux grands acteurs financiers : le commissariat général à l’investissement (CGI) qui gère notamment les programmes d’investissement d’avenir (PIA) et la banque publique d’investissement (BpiFrance). Mais les aides viennent aussi des collectivités, notamment des régions (5,4% du total mais surtout 15,2% des aides directes) et de l’Union européenne (4,5% du total et 12,7% des aides directes).

Le soutien va à la R&D et aux entreprises innovantes

Le rapport souligne que les dispositifs poursuivent 5 objectifs principaux. Le plus soutenu d’entre eux est l’augmentation des capacités privées de R&D qui mobilise à lui seul deux tiers des moyens alloués à l’innovation (6 Md €). Loin derrière, le soutien au développement des entreprises innovantes pour 16,4% des soutiens. Les trois autres objectifs (accroître les retombées économiques de la recherche publique ; développer les projets de coopérations entre acteurs ;
promouvoir l’entrepreneuriat innovant) ne profitent que de 13,4% du total des aides mais sont concernés par 32 dispositifs.

Beaucoup de questions en suspens

En conclusion le rapport souligne surtout que cet état des lieux n’est pas suffisant à lui seul pour guider des changements en matière de politique de soutien à l’innovation. Trop de questions restent en suspens quant à l’efficience réelle des dispositifs, la capacité des acteurs à se les approprier ou encore la pertinence d’un système palliatif d’aide quand des actions pourraient être menées plus en amont par des réformes structurelles par exemple.

Par Sophie Hoguin

EYE verrait mieux et plus vite à travers la fumée

Détecter la fumée avant même qu’elle n’atteigne le détecteur ? C’est le principe du EYE, un détecteur autonome avertisseur de fumée (ou DAAF) dont la commercialisation est prévue au printemps.

eyeEYE est un produit de la marque Nodon, elle-même propriété du groupe Altyor, un sous-traitant industriel basé à Orléans. «C’est le fruit d’une collaboration entre le bureau d’étude PDCi (appartenant à Altyor, NDLR), qui a planché sur la technique de détection, les équipes de Nodon, qui ont travaillé sur la connectivité, et aussi des chercheurs américains, détaille Thomas Gauthier, président de Nodon. Onze brevets ont été déposés.»

Deux particularités distinguent EYE de ses concurrents : il est dépourvu de chambre optique, l’espace interne où s’opère la détection de la fumée, et est équipé de deux diodes LED, l’une infrarouge, l’autre bleue. D’ordinaire, une chambre optique est composée d’une LED infrarouge, d’une cellule photoélectrique et d’un écran qui empêchent l’une et l’autre d’être en regard direct. En temps normal, le faisceau infrarouge n’est pas dévié. Quand de la fumée pénètre dans la chambre optique, les particules qu’elle contient dispersent le faisceau dont une partie frappe la cellule photoélectrique, ce qui déclenche l’alarme. Cette technique de détection s’oppose à la détection ionique, interdite partout en France depuis 2011 à cause de la présence d’éléments radioactifs.

EYE est construit de manière différente : les LED et la cellule photoélectrique sont externes et affleurants. «Cette absence de chambre optique annule les habituelles contraintes mécaniques et de design, explique Thomas Gauthier. On pourrait envisager d’encastrer cette technologie ou de l’intégrer à d’autres produits. Autre bénéfice de cette configuration, la LED IR peut scruter l’environnement avec une portée de 30 cm. La détection de fumée est deux fois plus rapide que dans une chambre optique.» La LED bleue sert quant à elle à affiner l’analyse. «Elle permet de déterminer la nature de la fumée et de discriminer les types de feu, en particulier la vapeur d’eau qui émane d’une simple cuisson, ajoute Thomas Gauthier. L’objectif est de réduire le nombre de fausses alarmes, raison pour laquelle certaines personnes finissent par ôter les piles.»

L’innovation se niche dans l’algorithme

Renforcer la détection avec une LED bleue n’est cependant pas si nouveau. La dernière édition du Nest Protect, le DAAF de Nest, incorpore déjà un tel dispositif et la société américaine s’enorgueillit d’être la première à l’employer dans un détecteur à usage domestique. Publié en juin 2015, un document technique publié par Nest Labs précise qu’un feu ne produit pas le même type de particules selon qu’il soit assorti de flammes ou non et selon la nature du matériau. Ce même document décrit les avantages de combiner deux LEDs : les longueurs d’onde vers le bleu (450 à 500 nanomètres, nm) sont plus efficaces pour repérer les petites particules d’environ 50 nm, le phénomène de dispersion étant plus intense. Les longueurs d’ondes supérieures, dans le proche infrarouge au-delà de 800 nm, interagissent avec les plus grosses particules, de l’ordre de 250 nm.

De fait, Thomas Gauthier promeut surtout l’algorithme, qui décide notamment s’il faut déclencher l’alarme ou non : «Celui-ci concentre l’essentiel de l’innovation. Nous avons dû modéliser tous les types de feu puis créer une base de données pour son développement. C’est aussi une solution algorithmique qui nous a permis de réussir le test d’éblouissement réalisé par l’organisme de certification belge ANPI.» Un éclairage trop intense peut en effet fausser la détection, et l’instrumentation externe du EYE y aurait été d’autant plus sensible.

Innover, c’est aussi l’occasion de justifier un prix d’achat supérieur. EYE sera vendu 49 € en version non communicante, avec une pile CR2 lui octroyant 5 ans d’autonomie. Dans la mouvance des objets connectés, une version Z-Wave (avec deux piles CR2), du nom d’un protocole utilisé en domotique, sera aussi commercialisée à 79 €. Enfin, une version Wi-Fi est prévue en fin d’année.

Frédéric Monflier

Route solaire Wattway : une innovation peut à la fois être française et inefficiente

Quand les premières tentatives de remplacement des carburants pétroliers par des biocarburants ont été effectuées, l’enthousiasme a été général. Une fleur de tournesol a même été érigée comme étendard par un parti politique. Puis les premières études indépendantes concernant leur bilan énergétique et leur bilan environnemental sont apparues. Les ONG environnementales sont alors peu à peu parvenues à freiner une dynamique industrielle dévastatrice. Le mot « biocarburant » a alors été remplacé par « agrocarburant ». Al Gore, aux USA, a déclaré regretter d’avoir encouragé dans le passé le développement de l’éthanol de maïs.

Tout ce qui est a priori « bio » et « renouvelable » n’a pas forcément un bon bilan. Pour certains agrocarburants il faut dépenser plus d’énergie pour obtenir un litre que le contenu énergétique de ce litre. Autrement dit leur EROI (taux de retour énergétique, ratio de l’énergie produite sur l’énergie consommée)  est inférieur à 1:1. L’EROI est LE paramètre-clé du développement vraiment durable. Il correspond à la durée de vie d’un système divisé par son Energy Payback Time, c’est-à-dire son temps de retour énergétique.

Il se pose aujourd’hui exactement le même problème dans le domaine du solaire avec l’innovation Wattway. Le solaire est attirant, et même éblouissant. Mais au pays de Descartes, la rationalité s’impose. Si l’EROI du grand PV au sol est aujourd’hui de 7,5 :1 d’après une synthèse de la littérature scientifique effectuée par la Fondation Nicolas Hulot dans son excellent rapport sur le solaire (2015), Wattway, dans sa conception même, pourrait fortement le dégrader (Lire à ce sujet ce dossier : Les routes solaires Wattway consomment-elles davantage d’énergie qu’elles n’en délivrent ?).

A ce stade l’EROI du système Wattway n’a pas été calculé selon l’INES, l’Institut National de l’Energie Solaire. « Une première estimation pourrait être délivrée courant de l’année 2016 » a  révélé Dr Franck Barruel, chef de laboratoire des systèmes PV et référent scientifique INES-CEA du projet Wattway, joint par téléphone. Cette étude sera-t-elle réalisée par des experts totalement indépendants ? L’ingénieur Rodolphe Morlot, coordinateur EnR de l’ADEME, indique de son côté qu’à sa connaissance « aucune analyse de cycle de vie (ACV) n’a été réalisée sur ce produit. »

« Eiffel doit se retourner dans sa tombe »

Pour Mark Jacobson, directeur du département énergie et atmosphère de l’Université Stanford en Californie « Les routes solaires en France sont beaucoup moins efficientes et beaucoup plus coûteuses que le solaire en toiture ou au niveau d’ombrières de parking, et aussi que le grand solaire PV au sol.

Image3Ce projet (de Ségolène Royal NDLR) constitue une façon très inefficiente  de dépenser des fonds peu abondant ».  Mark Jacobson n’est pas un opposant des énergies renouvelables mais au contraire le fondateur de  « The Solutions Project » : comment 139 pays (dont la France) peuvent atteindre 100 % d’énergie renouvelable, y compris transport et chauffage.

Pour Craig Morris, rédacteur en chef du magazine Renewables international basé en Allemagne mais aussi fondateur du site « The German Energiewende » sur la transition énergétique allemande, « les routes solaires doivent être stoppées ». Non sans humour, il ajoute le 29 janvier 2016 : « Apparemment il n’y a pas de toitures disponibles en France », propos dont fait écho le site australien de référence RenewEconomy.

Dans son rapport sur  le 100% renouvelable en France, l’ADEME estime pourtant à 364 GW le potentiel hexagonal du PV en toiture. Soit assez pour produire plus de 400 TWh/an, ce qui n’est pas négligeable dans un pays dont la demande électrique totale est d’environ 500 TWh/an.

Le site de référence américain CleanTechnica a diffusé une vidéo (en anglais) au contenu pédagogique et humoristique permettant de comprendre pourquoi les routes solaires constituent une impasse.  Pour Paul Gipe, analyste de l’industrie des EnR et fondateur de Wind-works.org, avec ce projet de routes solaires « Eiffel doit se retourner dans sa tombe ».

Oui à l’innovation. Non à la dilapidation des fonds publics

Pour Yannick Régnier, responsable Territoires  au sein du CLER et animateur du réseau TEPOS (territoires à énergie positive), ces routes solaires constituent « une mauvaise idée ». Raphaël Claustre, directeur du CLER, estime néanmoins que « toute forme d’innovation mérite sa chance, la recherche et le développement doivent nous aider à mettre en œuvre la transition énergétique. » Mais cet expert en solutions énergétiques vraiment durables souligne aussitôt qu’« il y a un paradoxe à s’emballer pour des projets dont la faisabilité est encore très complexe alors que la filière solaire sur toiture est techniquement mûre et a tant besoin d’être soutenue. » Raphaël Claustre lance cet appel : «  A quand un soutien au solaire sur-imposé (non intégré au bâti ndlr) sur les toitures, il coûte moins cher ? A quand un vrai travail sur les coûts du raccordement électrique, très souvent sur-évalués et qui mettent en péril les projets ? ».

L’analyse d’un ingénieur ayant une solide expérience en tant que chef de projet construction de centrales PV au sol est la suivante: « Que les centrales Wattway consomment plus d’énergie pour la fabrication que les centrales solaires traditionnelles me semble logique : encapsulage beaucoup plus conséquent pour résister aux véhicules, câblage nettement plus important, pose plus complexe. » Et l’expert ajoute : « Évidemment l’EROI doit être largement supérieur à 1 pour qu’une technologie renouvelable ait du sens. Mais dans le cas des routes solaires, ce qui va être le vrai frein, c’est le coût : à 6€/W (alors qu’en solaire au sol on est déjà autour de 0,8-1€/W), je me demande comment notre ministre de l’écologie a pu annoncer vouloir 1000 km de routes solaires d’ici 2021 ! Un tarif garanti hors appel d’offres pour les centrales au sol, de l’ordre de 8 c€/kWh seulement (avec un petit bonus de 10% pour la partie nord de la France), serait un moyen bien plus efficace, et à coût nul pour le consommateur d’électricité, pour que le solaire explose vraiment en France. ».

Bien sur tout ingénieur est favorable à l’idée de progrès, ainsi il ajoute : « je pense néanmoins que l’innovation est toujours positive, qui sait Colas ou d’autres fabricants arriveront peut être à diviser leur coûts par 5 (à l’INES la baisse envisagée est d’un facteur 2 dans le moyen-terme pour le volet CAPEX, voir 3 dans le long-terme ndlr). Et donc que cette innovation soit encouragée modérément par l’Etat (donc le contribuable…) ça serait une bonne chose. Mais pas 1000 km sans même savoir si cette technologie est pérenne, sur un produit en situation de monopole sans concurrence, avec un coût astronomique, qui au final sera toujours supporté par le citoyen. »

Pour Jean-Philippe Brette, ingénieur et membre du conseil d’administration de l’association française Sauvons Le Climat, « prix, usure, salissures, stockage, rendent cette expérimentation peu prometteuse à grande échelle. »

Une annonce à 2700 millions d’euros. « Grands travaux » ou grande gabegie ?

Le dimanche 31 janvier 2016, à 19H31, Ségolène Royal a publié sur son compte Twitter le message suivant : « La route photovoltaïque, innovation française, sera installée sur 1000 km en France. Grands travaux ». La route solaire semble a priori sexy quand on ne s’est pas penché sur les aspects techniques et financiers.

Mais le projet annoncé par Ségolène Royal, sur la base des coûts disponibles depuis le site officiels Wattway et dont la PDG de Colas a fait écho dans le journal Le Monde (14 octobre 2015), soit 6€/W, va coûter 2700 millions d’euros (130 W/m2). Ceci en espérant une largeur de route ne dépassant pas 3,5 mètres. Qui va payer ? Les contribuables français. Cela sera autant d’euros en moins de disponibles pour soutenir les autres projets EnR. Dans le cadre d’une démocratie énergétique participative, il convient de prendre le temps de la consultation et de choisir collectivement.

La centrale PV de Cestas, la plus grande d’Europe (300 MW) a coûté 360 M€ (2014), soit 1,2 €/W. Le grand solaire PV au sol coûte aujourd’hui (2016) entre 0,8 et 1€/W.  Le site Batiactu.com rapporte que cabinet Xerfi vient de publier une note où est indiqué que le MWh du grand PV est à présent entre 70 et 110 €, en fonction de l’ensoleillement du site étudié : « En comparaison, l’accord signé entre EDF et le gouvernement britannique garantit un prix d’achat de 126 €/MWh pour l’électricité produite par la future centrale EPR d’Hinkley Point » affirment les analystes.

Désir d’avenir

Le grand solaire PV est en outre parfaitement compatible avec l’élevage de moutons et l’apiculture comme l’illustre la splendide centrale agrosolaire d’Ortaffa en pays catalan.

Mais aussi avec le maraîchage dans le cadre du Solar Sharing (partager culture de plantes et capture photovoltaïque), dynamique par exemple actuellement en cours sur l’île d’Ukushima au Japon.

Par ailleurs l’entreprise française Ciel & Terre a mis au point une technologie de solaire PV flottant bon marché qui permet de limiter l’évaporation des réserves d’eau douce ainsi que la prolifération des algues vertes. Les brevets sont français.

Pourquoi ne pas faire du solaire flottant un fleuron du génie photovoltaïque français ?  Et peut-on suggérer à Ségolène Royal d’appliquer le principe de précaution en matière de solaire underground ?

Dans Les Echos (14-10-2015), le PDG de Colas envisage  « l’indépendance énergétique de la France » avec la technologie Wattway. La technologie développée par Colas intègre une capacité dégivrante, argument mis en avant dans les médias par le groupe. Or à 0 °C, la chaleur latente de fusion de la glace est de 333 kJ·kg-1. Laissons à Madame La Ministre le soin de calculer la quantité d’énergie qu’il faudrait dépenser pour faire fondre, sur les un million de kilomètres du réseau routier français, un centimètre de pluie verglaçante tombée pendant la nuit, c’est-à-dire quand les panneaux PV ne produisent pas un seul kWh.

Lutter contre l’eau glacée avec une technologie photovoltaïque au bilan énergétique douteux, est-ce vraiment une solution contre le réchauffement climatique ? D’après le site Neowin ce projet de 1000 km de routes solaires pourrait être en parti financé par une nouvelle taxe sur l’essence. Les automobilistes apprécieront.

Olivier Daniélo

Vers une sortie du charbon en Allemagne ?

« Le ministre allemand de l’Economie, Sigmar Gabriel, a repris la première de nos propositions, annonçant la mise en place d’une table-ronde en faveur d’un consensus sur la question du charbon, prévient Dimitri Pescia, du think-thank Agora Energiewende. Nos propositions sont accueillies plutôt favorablement par une grande majorité des acteurs concernés, à l’exception notoire du syndicat représentant les employés de l’industrie minière – IGBCE ».

Concrètement, Agora Energiewende invite les parties prenantes à trouver un consensus en faveur de la sortie du charbon d’ici la fin de l’année. Ce consensus devrait s’articuler autour de trois principes de base : fixer une date d’arrêt de l’utilisation du charbon, déterminer une trajectoire de sortie du charbon et adopter un cadre législatif. Le think-thank propose de fixer une trajectoire de 2018 à 2040, aboutissant à une sortie définitive du charbon à cet horizon. Les centrales les plus polluantes devraient être fermées en premier.

Prendre des mesures économiques fortes

Pour préparer au mieux cette sortie du charbon, Agora Energiewende incite le Gouvernement fédéral à geler les nouveaux projets de construction de centrales à charbon et à ne pas autoriser de nouvelles exploitations minières en Allemagne. Agora Energiewende propose dès lors la création d’une fondation « chargée de prendre en charge les coûts de la renaturation/réhabilitation des mines de lignite ». Elle serait financée par une taxe sur la production électrique du lignite à hauteur de 2,5 euros par mégawattheure. Par ailleurs, le think-thank propose la création d’un fonds fédéral « chargé d’accompagner et de financer les mesures de restructuration socio-économique dans les régions concernées », à hauteur de 250 millions d’euros chaque année.

Pour assurer cette sortie du charbon de 2018 à 2040, 20 GW de nouvelles centrales électriques au gaz devraient être nécessaires pour remplacer les centrales mises à l’arrêt. « Il faudra s’assurer que les conditions de marché permettent la réalisation de ces investissements », prévient Agora Energiewende. Par ailleurs, il faudra renforcer le système d’échange de quotas d’émissions sur le marché ETS (Emission Trading Scheme) et supprimer les « surplus de CO2 liés à la sortie du charbon ».

Cette sortie du charbon devrait entraîner une hausse du prix de l’électricité de 2-3 euros par mégawattheure. Agora Energiewende propose d’adopter des mesures de soutien pour les entreprises électro-intensives, dont la compétitivité est fortement liée au prix de l’électricité.

Par Matthieu Combe, journaliste scientifique

Enerfip : 50 000 € récoltés pour deux centrales solaires

Suite à une première récolte réussie en septembre 2015 avec 60 000 récoltés, la société Hurrisun a réitéré l’expérience pour financer deux centrales photovoltaïques en toiture situées dans le Lot et Garonne (47) et l’Aveyron (12), sur deux fermes laitières. Hurrisun est pour le moment la seule entreprise à avoir tenté l’expérience avec Enerfip, mais a réussi à atteindre rapidement les objectifs de ses deux collectes.

46 contributeurs ont investi sur son dernier projet à partir d’un montant de 100 €. La durée du prêt est de 4 ans avec un taux d’intérêt brut annuel de 4,5%. Grâce aux fonds récoltés, Hurrisun pourra installer deux toitures photovoltaïques dont l’énergie sera consommée localement par les exploitations laitières et le surplus de production injecté sur le réseau.

Enerfip, une nouvelle plateforme pour financer les ENR

Sur Enerfip, tout citoyen ou entreprise peut investir dans l’un des projets d’énergie renouvelable proposé et devenir ainsi acteur de la transition énergétique. Tout le monde est gagnant : pour l’épargnant, les projets sont rémunérés entre 4 et 6 % d’intérêts par an, un taux supérieur aux produits bancaires, et pour le porteur de projet, cela offre une source de financement alternative et complémentaire des solutions classiques. Les investissements se font sur une durée allant de 4 à 12 ans.

La sélection des projets est rigoureuse. Les projets doivent avoir un réel intérêt environnemental, être rentables pour les investisseurs avec un taux d’intérêt intéressant et présenter une viabilité technique et économique pour minimiser le risque pour les investisseurs. Enerfip a obtenu l’agrément «Conseiller en Investissements Participatifs» par l’Autorité des Marchés Financiers en avril 2015, confirmant le sérieux de la plateforme.

Par Matthieu Combe, journaliste scientifique

Total récupère son permis de Montélimar

La ministre de l’Environnement Nathalie Kosciusko-Morizet avait abrogé le permis d’exploration de Total en 2011, au motif de la loi du 13 juillet 2011 qui interdit l’utilisation de la fracturation hydraulique en France. Mais le Tribunal Administratif a décidé de rendre ce permis à Total, au motif que le rapport technique de Total ne comprend aucune mention de la fracturation hydraulique, même si le groupe reste flou sur les moyens qu’il pourrait déployer pour forer.

En clair : « La loi n’interdit que la technique de la fracturation hydraulique », une faille qui est vivement critiquée par les collectifs anti-gaz de schistes, depuis le début. José Bové et Michèle Rivasi, députés européens écologistes, appellent l’Etat à faire appel de cette décision de justice et le Gouvernement à lever les ambiguïtés de la loi du 13 juillet 2011 pour interdire l’exploration quelle que soit la technique utilisée. Par exemple, en faisant voter rapidement la proposition de loi relative au dialogue environnemental de Sabine Buis, députée PS de l’Ardèche déposée à l’Assemblée nationale. Elle propose dans son article 9 d’inscrire dans le code minier le principe de « l’interdiction de toute exploration e exploitation d’hydrocarbures liquides ou gazeux non conventionnels » et ce, « quelle que soit la technique d’extraction utilisée ».

Même si la justice a rendu son permis à Total, il ne s’agit que d’une victoire symbolique. En effet, le permis accordé en mars 2010 pour une durée de 5 ans, s’est périmé en mars 2015.

Si le groupe pétrolier décidait de s’engager dans cette exploration, il devrait demander un renouvellement de ce permis. Mi-janvier, le PDG de Total Patrick Pouyanné avait toutefois affirmé que le groupe ne passerait pas en force contre la volonté du Gouvernement, qui avait abrogé son permis. Devant l’Assemblée nationale, Ségolène Royal a fait savoir le 12 janvier qu’elle n’accorderait plus un seul permis d’exploration, conventionnel ou non, en accord avec la loi de transition énergétique qui prévoit une baisse de la consommation des énergies fossiles. Les opposants et collectifs anti-gaz de schistes appellent déjà à manifester le 28 février à Barjac (Gard).

« Nous nous félicitons de la position courageuse de Ségolène Royal qui a annoncé à l’Assemblée Nationale qu’aucun permis d’extraction ne serait accordé ou reconduit. Après l’Accord de la COP 21 à Paris, les énergies fossiles doivent rester dans le sol et la transition vers des énergies décarbonnées mises en œuvre. » rappellent José Bové et Michèle Rivasi dans un communiqué.

Par Matthieu Combe, journaliste scientifique

Challenger : 30 ans après, un cas d’école pour l’analyse des risques

challenger-téléQuand la navette Challenger explose à peine 1 minute après son décollage ce 28 janvier 1986, c’est un traumatisme vécu en direct par des millions de personnes. Pour la première fois, la Nasa, fleuron de la technologie américaine perd des astronautes en vol. Outre les larmes, c’est la consternation. Comment est-ce arrivé, qu(i) est-ce qui a failli ? Très vite, une commission d’enquête s’attache à répondre à cette question.

De l’origine technique au rôle de l’organisation

Après trois mois de recherches et d’entretiens, la commission d’enquête sur l’accident de Challenger conclut que des managers de la Nasa ont violé des règles de sécurité pour tenir les délais de lancement, ignorant les alertes concernant un joint qui va être l’origine technique de l’explosion.

Décollage de challenger

A l’époque, pour les enquêteurs c’est déjà énorme de s’apercevoir que ce n’est pas qu’un simple problème technique qui est en cause mais que c’est un dysfonctionnement humain ou organisationnel. Cependant, l’enquête officielle s’arrêtera à ces fautes humaines. Personne ne pense à se pencher plus avant sur le problème. Personne, sauf Diane Vaughan, une sociologue américaine qui va finalement passer 10 ans sur le sujet avant d’aboutir à un pavé de quelques 600 pages*. Elle y décortique les processus complexes qui ont abouti à ce drame. Son travail va poser ou conforter les bases de l’analyse d’accident technologique d’aujourd’hui : le rôle des organisations, les déviances et leur normalisation, ou encore la détection et l’analyse des « signaux faibles ».

Normalisation de la déviance et risque acceptable

Très vite dans son enquête, Diane Vaughan s’aperçoit que les managers et ingénieurs de la Nasa n’ont pas réellement enfreint de règles.

challengerx-large
Explosion de Challenger

Il n’y a donc pas faute mais seulement erreur. Mais le problème n’en est alors que plus intrigant. Comment des gens si rationnels ont été amenés à accepter de tels risques ? La sociologue va finalement comprendre qu’il faut regarder l’évolution de l’organisation depuis une dizaine d’années. Dix ans pendant lesquels, certaines anomalies comme des dommages sur les joints des boosters ont été considérées comme mineures ou sans influence sur la sécurité générale et donc finalement acceptées comme normales. Au point que plus aucune alerte les concernant ne peut aboutir à une décision de sécurité majeure. C’est ce que Diane Vaughan a désigné comme une normalisation de la déviance.

Des procédures qui cachent les signes avant-coureurs

L’autre grand paramètre qui a influencé la décision de lancer Challenger en dépit d’une alerte du sous-traitant fabricant les joints à l’origine de l’accident, c’est l’organisation de la Nasa elle-même. La sociologue américaine, au fil de son ouvrage, montre comment la culture de la Nasa est passée de celle d’un groupe d’ingénieurs menant des expériences spatiales à celle d’un organisme assujetti à des impératifs financiers et temporels liés aux contrats noués avec le secteur privé et à des budgets beaucoup plus limités. Les opérateurs techniques deviennent ainsi des bureaucrates qui doivent suivre des procédures pour toutes leurs relations en interne, en externe et pour la prise de décision. Cette codification des actes s’est appliqué aussi à l’évaluation des risques et a amené, de manière insidieuse, à ignorer ou sous-évaluer certains signes avant-coureurs, certains signaux faibles.

30 ans après, a-t-on appris de Challenger ?

Aujourd’hui encore l’étude de Diane Vaughan fait référence. Pour autant les enseignements que l’on peut en tirer sont loin d’être acquis et acceptés par tous. L’erreur humaine continue de servir de bouclier pour éviter la remise en cause profonde des organisations aussi dysfonctionnelles soient-elles. La Nasa va par exemple réitérer les mêmes travers avec Columbia en 2003. Et si des experts comme Michel Llory et René Montmayeul, dans leur ouvrage « L’accident et l’organisation » (Editions Préventique – 2010) développent cette idée du rôle central des organisations et posent les bases d’une analyse organisationnelle des accidents, il faut reconnaître que sur le terrain, cette approche est encore très timide.

La vidéo complète de l’accident de Challenger :

Sophie Hoguin

*The Challenger Launch Decision. Risky Technology, Culture, and Deviance at NASA – Diane Vaughan – University of Chicago Press – 1996