A la redécouverte de nos villes

Quels sont les défis qui attendent les espaces urbains, qui accueillent plus de la moitié de la population mondiale ? Comment les villes se transforment-elles et quels sont les impacts sur la vie des habitants ? Voici quelques thématiques abordées par l’exposition «Mutations urbaines», qui se déploie sur 1000 m² à la Cité des sciences et de l’industrie, à Paris.

«Il s’agit de faire un état des lieux des zones urbaines, explique Marie-Christine Hergault, chef de projet. L’exposition se répartit en trois sections. La première, nommée «Villes sous tensions», invite le visiteur à explorer ces multiples enjeux en devenant acteur.» Les problématiques que sont la densité immobilière, le transport ou encore les usages du numérique sont ainsi mises en scène au travers d’une vingtaine d’ateliers : mini-jeux, sondages, maquettes et et animations audiovisuelles, y compris une démonstration de réalité virtuelle qui téléporte le visiteur en haut d’un gratte-ciel au cœur de Hong-Kong.

N BretonEPPDCSI_32

N BretonEPPDCSI_13

La deuxième partie, les «Devenirs Urbains», se consacre à l’ingéniosité, pas seulement d’ordre technique. «Ces innovations viennent de tous les endroits du monde et sont à l’initiative des collectivités, de l’Etat, de l’industrie, des citoyens. Tout a représenté sur le même plan, sans préférence» enchaîne Marie-Christine Hergault. Ces solutions ont été conçues pour préserver l’environnement, améliorer la sécurité ou accroître l’autonomie énergétique ou alimentaire, de manière très diverse. Ainsi une ferme végétale, îlot de verdure érigée à la verticale, côtoie-t-elle un arbre à LED.

La planète urbaine en chiffres

Ce potager représente à l’échelle 1/3 de véritables usines à légumes de 9 mètres de haut, en service à Singapour depuis 2012. Cette ville-état importe en effet 93% des légumes consommés par ses habitants, en raison d’une pénurie de terres cultivables. La société Sky Greens développe alors l’idée de fermes verticales, de superficie réduite : les bacs à plantes trempent cycliquement dans une eau riche en nutriments, en position basse, avant de prendre un bain de soleil, en position haute.

Sky-Greens

L’arbre à LED illustre quant à lui un concept opérationnel à Nice, Issy-les-Moulineaux et Toulouse. Les capteurs de présence qui équipent les lampadaires publics sont un moyen d’économiser jusqu’à 40 % d’énergie. D’autres capteurs permettent d’analyser la température, le bruit, le trafic…Ces paramètres ne forment qu’une partie de l’afflux de données qui irriguera les projets de «smart city». Lesquels, rien qu’en France ces 10 prochaines années, pourraient rapporter quelque 135 milliards d’euros aux industries de l’informatique.

De données il est aussi question dans la dernière partie de l’exposition. Projeté sur un écran hémisphérique de 8 mètres de long, le film d’animation graphique «Terre Urbaine» déroule sur une quinzaine de minutes une impressionnante quantité de chiffres relatifs à la démographie urbaine, à la richesse et aux inégalités, à la pollution… On y voit à quel point les villes sont devenues le pivot de notre civilisation.

N BretonEPPDCSI_14

«Mutations urbaines», à la Cité des sciences et de l’industrie, jusqu’au 5 mars 2017

Impression

Par Frédéric Monflier

Le satellite Gaia livre la position d’un milliard d’étoiles

Le satellite Gaia tourne sur lui-même et autour de la Terre tout en scrutant l’espace avec ses deux télescopes. Équipé de 106 capteurs qui forment l’équivalent d’un appareil photo d’une résolution d’un milliard de pixels, il observe ainsi quotidiennement 50 millions d’étoiles, avec dix mesures à chaque passage, ce qui représente une masse de 500 millions d’éléments par jour. Cette quantité énorme de données a permis la publication d’un catalogue des positions dans le ciel de 1,15 milliard d’étoiles. La précision va de 0,5 à 15 millièmes de seconde de degré, sachant qu’un millième de seconde de degré correspond à l’angle sous lequel on verrait une pièce de 1 euro placée à 4 000 km.

Pourvu de 200 millions d’étoiles de plus qu’initialement prévu, ce catalogue va permettre aux chercheurs d’établir de précieuses statistiques sur les différents types d’astres, qui seraient inexploitables sans un inventaire aussi vaste. On y retrouve ainsi des données pour 250 000 quasars et 3 000 étoiles variables4 de type Céphéides et RR Lyrae. La mission Gaia a livré les courbes de lumière de ces dernières, c’est-à-dire l’évolution de leur luminosité, afin de mieux comprendre les phénomènes physiques qui régissent les étoiles variables.

Les positions de 2 millions de ces étoiles ont également été combinées aux mesures effectuées 23 ans auparavant par la mission Hipparcos de l’ESA. La différence a permis de calculer la vitesse et la distance de ces astres par rapport au système solaire. La récolte des informations utilisées dans ce catalogue s’est arrêtée en septembre 2015 mais, comme Gaia continue toujours d’amasser des données, les chercheurs comptent comparer de la même manière les futures positions des étoiles à celles présentées ici. Ils devraient ainsi obtenir, vers fin 2017, la vitesse et la distance de ce milliard d’étoiles.

Les organismes français jouent un rôle de premier plan dans cette mission et sont représentés par une centaine de chercheurs, ingénieurs et techniciens au sein du consortium. Ils participent aux nombreuses missions indispensables au succès de la mission : organisation des observations au sol nécessaires pour le traitement des données, fourniture des éphémérides du système solaire, observation quotidienne du satellite Gaia lui-même par des moyens optiques (afin de connaître sa position et sa vitesse avec une précision extrême), validation des traitements des données, etc.

Source : cnrs

Le Cetim valorise les boues d’usinage

Chaque année, les industries de la mécanique produisent quelque 50 000 tonnes de boues d’usinage – un mélange de micro-copeaux, de fluide de coupe et d’eau. Elles contiennent une importante pro – portion de métal, environ 60%.

À ce jour, 80% de ces boues ne sont pas réutilisées et finissent en décharge. Conscient de l’immense potentiel de valorisation de ces déchets, l’institut Carnot Cetim, aidé par l’abondement Carnot, s’est attaqué au problème. « Nous avions l’idée de réaliser des briquettes à partir de ces boues afin de les valoriser en fonderie ou en aciérie », explique Jérôme Ribeyron du Cetim. Moins simple qu’il n’y paraît.

Les faisabilités technique et environnementale devaient être démontrées. En outre il fallait débloquer quelques verrous technologiques afin de produire des briquettes avec une bonne tenue mécanique et diminuer très significativement leurs teneurs en huile et en eau afin que le produit soit composé à 90% de métal.

Suite à la validation de ces faisabilités de mise en œuvre d’une filière, une série de développements technologiques a permis d’atteindre la tenue mécanique espérée pour les différents types de boues d’usinage. Cela, grâce à un codéveloppement mis en œuvre avec la société SFH. À cette occasion, deux brevets ont été déposés par la PME, spécialiste notamment du traitement des copeaux. Cela dit, l’aspect technique, tout important qu’il soit, n’était qu’une des facettes de cette recherche.

« En réalité, le but de cette action était de structurer une filière de valorisation métallurgique des boues d’usinage pour leur réutilisation dans les industries sidérurgiques et les fonderies », rappelle Jérôme Ribeyron.

Ainsi, au-delà de la mise au point des technologies de briquetage adaptées, le Cetim a travaillé sur les moyens de garantir la qualité et la traçabilité des briquettes et, surtout, sur la définition de modèles économiques et organisationnels propres à pérenniser une filière complète de production et de valorisation (projet Valbom financé par l’Ademe, labellisé par les pôles de compétitivité Viaméca et Team2, regroupant SFH, Defontaine Group, SKF, ArcelorMittal, SNF Floerger, NTN SNR, le CTIF et le Cetim). À grands traits, le Cetim propose ainsi trois types de solutions de valorisation.

Pour les entreprises productrices de gros volumes, la plus adaptée consiste tout simplement à s’équiper de la briqueteuse sur site et à valoriser ses briquettes. C’est d’ailleurs déjà chose faite dans le cas de la société SKF qui s’est dotée de la machine de SFH. Pour les producteurs de volumes moyens, la location d’une machine apparaît comme la solution la plus viable économiquement. Quant aux petits producteurs – dans l’industrie mécanique les petites PME sont légion – la seule façon d’exploiter ce gisement très clairsemé consiste à se rendre sur site avec la machine.

Ce texte est extrait du livre « Nous construisons votre futur, 34 exemples de ressourcement scientifique », Association des instituts Carnot, édition 2015

Ce livre peut être consulté à l’adresse suivante : www.instituts-carnot.eu/livres/recherche-pour-entreprise-carnot-prepare-avenir

 CARNOT_1105_Cetim

Le CEA LETI réinvente le microscope

Le premier microscope sans lentille est français. Il est commercialisé par une start-up, Iprasense, et il doit tout aux recherches de l’institut Carnot CEA LETI.

Intérêt de la technologie ? Elle est très intégrée, peu coûteuse et ouvre un champ radicalement nouveau à l’industrie des bioprocédés. Les microscopes optiques utilisés pour observer les cellules et bactéries ne permettent de voir qu’un nombre très restreint de spécimens. Quant à l’observation des virus elle impose de recourir aux très chers microscopes électroniques.

La technologie du LETI s’affranchit de ces limitations : « avec elle, on détecte – à faible coût – des virus de la taille de 100 nm. Quant aux bactéries et cellules, il est possible d’en observer plusieurs dizaines de milliers simultanément » indique Jean-Marc Dinten, responsable de l’activité imagerie et systèmes d’acquisition au CEA LETI.

Un microscope sans lentille se compose de trois éléments : une LED qui éclaire les cellules, un capteur CMOS et… du logiciel. La lumière de la diode laser, diffractée par les cellules, crée un hologramme. Ces informations acquises par le capteur sont alors traitées par des algorithmes donnant naissance à l’image souhaitée.

Cette technique a été imaginée en… 1948 par Dennis Gabor, le père de l’holographie, mais jamais mise en œuvre aussi simplement. Jusqu’au jour où un chercheur du laboratoire a pris conscience que, grâce à la vaste diffusion des téléphones mobiles dotés d’appareils photos, le marché allait rapidement offrir des capteurs d’une grande surface et d’une très grande résolution à un coût très faible.

De quoi réaliser enfin le microscope sans lentille de Gabor à un prix abordable. Cette idée, le Leti n’était pas le seul à l’avoir eue. Un autre pionnier travaillait sur le sujet, le groupe du Professeur Ozcan à l’Université de Californie Los Angeles. L’abondement Carnot a permis à l’institut d’accélérer la manœuvre, de lever certains verrous technologiques, notamment en donnant les moyens d’envoyer un post doctorant à Los Angeles pour travailler avec le laboratoire américain. « Les équipes du professeur Ozcan étaient plus avancées que nous en ce qui concerne les algorithmes de traitement ; mais, de notre côté, nous avions mis au point une technique originale, dite de film ultra mouillant, qui permettait de détecter des bactéries de taille micrométrique et des virus de la taille d’une centaine de nanomètres, ce que le laboratoire de Los Angeles ne maîtrisait pas » rappelle Jean-Marc Dinten.

En parallèle, l’institut Carnot CEA LETI a mené des recherches spécifiques qui lui permettent aujourd’hui de voir, caractériser et analyser plusieurs milliers de cellules de 2 à 100 microns à la fois et de filmer leur évolution. Il peut aussi détecter des objets d’une taille de la centaine de nanomètres. Cette technologie de rupture permet désormais l’analyse automatisée en temps réel de phénomènes tels que la croissance cellulaire, le comptage cellulaire, la morphologie, la migration. Plusieurs publications, dont une dans Nature Photonics, et une dizaine de brevets ont suivi ces travaux. Surtout, trois laboratoires communs ont été créés avec des industriels. Le premier avec Iprasense qui commercialise aujourd’hui un microscope destiné à suivre et à contrôler en temps réel des cultures cellulaires pour la bioproduction. Les deux autres exploitent la capacité d’observer simultanément un grand nombre de cellules pour développer de nouveaux systèmes de diagnostic rapide et délocalisé.

L’histoire ne s’arrête pas là : « Aujourd’hui, nous poursuivons activement la recherche pour conserver notre avance »dit Jean-Marc Dinten. Premier objectif, ne plus se contenter de détecter des cellules submicroniques, mais être également capable de les caractériser. Seconde recherche, mettre au point des techniques de visualisation en trois dimensions, ce qui intéresse beaucoup l’industrie pharmaceutique.

Ce texte est extrait du livre « Nous construisons votre futur, 34 exemples de ressourcement scientifique », Association des instituts Carnot, édition 2015

Ce livre peut être consulté à l’adresse suivante : www.instituts-carnot.eu/livres/recherche-pour-entreprise-carnot-prepare-avenir

CARNOT_Leti

Chimie Balard trouve un substitut au Bisphénol A

«Lorsque les industriels sont face à un problème, ils ont besoin d’une réponse rapide ; notre travail de chercheur au sein d’un institut Carnot est d’anticiper leurs besoins afin d’être prêts à fournir cette réponse dès que la question se pose » dit Sylvain Caillol, directeur adjoint de l’activité Chimie Durable au sein de l’institut Carnot Chimie Balard. C’est exactement ce qu’a mis en pratique cet institut.

Alors qu’en 2008 le bisphénol A (BPA) n’était pas encore sur les écrans radar de l’industrie, « nous pressentions que cette molécule utilisée dans les résines époxy, pour les revêtements alimentaires en particulier, courait le risque d’être interdite à terme car elle avait été identifiée comme un perturbateur endocrinien. Nous avons donc lancé une action de ressourcement scientifique afin de mener des recherches destinées à trouver un substitut au BPA. » L’institut Carnot avait vu juste. Dès 2013, le BPA était interdit en France dans les biberons. Depuis janvier dernier, il l’est désormais dans tous les emballages alimentaires. Durant ce temps, avec le chercheur postdoctoral embauché pendant un an grâce à l’abondement Carnot, l’institut n’a pas chômé. Il a travaillé sur l’identification de composés non toxiques, d’origine renouvelable, susceptibles de remplacer le BPA dans les résines époxy. Il a ainsi identifié, en lien avec l’Inra de Montpellier, des phénols naturels issus des tannins présents notamment dans les écorces des arbres.

Ces tannins ont été fonctionnalisés de façon à pouvoir être utilisés dans des résines époxy et l’institut a démontré qu’ils pouvaient être utilisés efficacement comme substitut au BPA. L’intérêt de cette découverte est indéniable. Outre le fait de fournir une réponse à la réglementation – et à celles qui pourraient très probablement s’étendre à d’autres produits comme les composites… – ces molécules présentent en effet un autre atout : les résines époxy incluant des BPA ne sont pas recyclables en fin de vie, ce qui n’est plus le cas avec les phénols issus des tannins. Ce travail a donné lieu à un brevet et à trois publications. Ces dernières ont suscité d’autres travaux sur la substitution du BPA à partir d’autres ressources renouvelables, recherches qui, à leur tour, ont conduit à plus d’une dizaine de publications de rang A. Ces travaux ont également reçu le prix des techniques innovantes au salon Pollutec en 2010. Mais, surtout, cette recherche a donné à l’institut Carnot une nouvelle et très forte compétence dans le domaine des BPA et de la chimie des résines, ce qui lui a permis de signer des contrats sur ces thèmes avec plusieurs entreprises. Il a ainsi travaillé avec Bois d’Oc sur l’identification et la valorisation des tannins. Avec Sogatra autour de la problématique des résines époxy dans les peintures. Avec Innobat sur la mise au point de résines et avec Cop Chimie, qui a embauché le chercheur postdoctoral ayant travaillé sur le substitut au BPA, pour la fabrication des tannins. Ces nouvelles connaissances lui ont également ouvert de nombreuses collaborations avec des laboratoires français et étrangers (LCPO Bordeaux, IPREM Pau, NSDU USA…) sur ces sujets. Mieux encore. L’institut a récemment créé un consortium industriel avec cinq entreprises (Protéus, Résipoly, Lefrant Rubco, Prospa, Alliance Forêt Bois) et deux autres laboratoires (IATE et SPO) afin de mettre en place une filière complète de production des tannins issus des écorces des arbres, depuis leur extraction et leur production, en passant par leur formulation. Cet ambitieux projet fait l’objet d’un financement par le Fonds Unique Interministériel (FUI).

Ce texte est extrait du livre « Nous construisons votre futur, 34 exemples de ressourcement scientifique », Association des instituts Carnot, édition 2015

Ce livre peut être consulté à l’adresse suivante : www.instituts-carnot.eu/livres/recherche-pour-entreprise-carnot-prepare-avenir

 CARNOT_Chimie-Balard-Cirimat

IFPEN Transports Energie récupère l’énergie des gaz d’échappement

Avec l’utilisation de systèmes ORC (Organic Rankine Cycle) basés sur le cycle thermodynamique de Rankine, l’industrie sait de longue date récupérer des flux de chaleur importants (de l’ordre de plusieurs mégawatts) et les convertir en «énergie-travail». En bref, un dispositif ORC utilise la chaleur pour vaporiser un fluide et cette vapeur fournit de l’électricité via une turbine.

Cette chasse à la chaleur fatale est en revanche rarement possible pour les petites pertes de chaleur, autrement dit celles situées dans la gamme de 100 kW à 1 MW. C’est d’autant plus regrettable qu’il y a là un potentiel très important de récupération d’énergie. Songez par exemple à l’énergie perdue dans les gaz d’échappement de tous les moteurs stationnaires (groupes électrogènes, etc.) et plus encore à tous ceux des véhicules, depuis les voitures jusqu’aux bateaux en passant par les locomotives diésel. L’institut Carnot IFPEN Transports Energie connaît bien le problème.

Il travaille le sujet de la récupération de l’énergie via des ORC depuis plus de 8 ans et, concernant les faibles pertes de chaleurs, a clairement identifié comme verrou technologique le développement de petites machines de détente, le composant clé d’un cycle de Rankine. « Le problème est encore plus aigu lorsqu’on songe à équiper un véhicule automobile d’un tel dispositif car, pour des raisons évidentes d’encombrement, se pose le problème de la miniaturisation de l’appareil » explique Pierre Leduc, chef de projets Système Rankine et ORC au sein d’IFPEN. Sans compter une difficulté supplémentaire dans le cas des mobiles.

Contrairement aux moteurs stationnaires, vu le régime très variable des moteurs, le flux des gaz d’échappement des véhicules subit de très importantes fluctuations de température, rendant l’exploitation de la chaleur récupérée encore plus difficile.

Grâce à une action de ressourcement scientifique d’une durée d’un an, une partie des difficultés liées à ce type de récupération de chaleur a été surmontée. « Cette action nous a permis en particulier de mener une campagne de tests de validation de principe sur un banc d’essai moteur. Cette étape a conduit non seulement à valider des aspects matériels mais aussi à valider un premier niveau d’algorithmes de contrôle-commande liés à la grande variabilité de la source chaude dans le domaine du transport » raconte Pierre Leduc.

En réalité, la recherche a mené beaucoup plus loin que prévu. Non content de bien cerner le cahier des charges d’une petite machine de détente et les difficultés liées au développement d’un tel composant, l’institut Carnot a été amené à participer à la conception et à la production de machines ORC.

Cette incursion dans le domaine de la production, il la doit à la collaboration avec une jeune entreprise, Enogia. La start-up, rencontrée à l’occasion de cette recherche, s’était lancée sur le marché de la récupération de chaleur sur les groupes électrogènes utilisés dans les entreprises agricoles. Le contrat de collaboration établi avec Enogia permet à la PME non seulement de créer une gamme de produits ORC couvrant plusieurs niveaux de puissance mais également de les adapter progressivement aux contraintes du domaine des transports.

Outre un appui scientifique et technique, notamment au travers de la réalisation de recherches amont basées sur des simulations numériques, d’une aide à la conception (études électrotechniques, études thermiques, études matériaux) mais aussi de campagnes d’essais expérimentaux, IFPEN apporte un soutien juridique, technico-commercial et en communication à la PME.

Ce texte est extrait du livre « Nous construisons votre futur, 34 exemples de ressourcement scientifique », Association des instituts Carnot, édition 2015

Ce livre peut être consulté à l’adresse suivante : www.instituts-carnot.eu/livres/recherche-pour-entreprise-carnot-prepare-avenir

Logo IC-IFPEN Transports Energie_RVB

3BCAR invente un carburant solide

Ce fut une rencontre… explosive entre deux chercheurs de l’institut Carnot 3BCAR. Xavier Rouau est chercheur dans l’unité Ingénierie des Agropolymères et Technologies Emergentes (INRA, CIRAD et Montpellier SupAgro). Il travaille notamment sur le  fractionnement  des céréales et sur un problème qui lui est   lié : l’explosibilité des poussières de céréales. Gilles Vaitilingom, lui, travaille au laboratoire Biomasse, Bois, Energie, Bioproduits (UR40 BioWooEB du CIRAD), autre composante de 3BCAR, et s’intéresse aux carburants alterna- tifs. Leur rencontre produit une étincelle : « Et son récupérait lénergie explosive des poudres pour en faire un carburant ? »

« L’idée était de mettre au point un nouveau biocarburant simple et économique, sachant que ceux qui sont utilisés aujourd’hui sous forme liquide (biodiesel, bioéthanol) ou gazeuse (biogaz) sont complexes et onéreux à produire et seront loin de couvrir la demande future »   raconte XavierRouau.

Intérêt de cette nouvelle voie, la poudre est très facile à obtenir et à manipuler, la ressource est très largement disponible, son prix est réduit. En outre la technologie en elle-même est simple. Mais il y a beaucoup de chemin à par- courir avant de faire tourner un moteur thermique avec ce carburant solide. « C’était un réel défi scientifique, je n’ai pas connaissance que cette démarche ait été entreprise ailleurs. »

A l’aide de biomasse lignocellulosique broyée finement à l’Inra et d’essais menés sur le banc moteur du Cirad, les chercheurs vont explorer cette piste tout à fait nouvelle pendant  deux ans, jusqu’à ce que l’abondement Carnot leur permette de passer à la vitesse supérieure. « Il nous a notamment permis de recruter un jeune post-doctorant, Bruno Piriou, pour travailler à plein temps sur le sujet et participer à l’aventure jusqu’au bout. »

L’intuition des deux chercheurs était bonne. Un carburant solide, c’est possible. La preuve : ils sont parvenus à faire tourner un moteur diesel standard avec leur nouveau, et inattendu, carburant. Le ressourcement scientifique entrepris leur a en effet permis de développer les méthodes de raffinerie sèche du végétal ainsi que les tech- niques d’instrumentation moteur permettant de comprendre le comportement des particules végétales lors de la combustion explosive. Deux brevets ont été déposés à cette occasion.

La recherche a donc montré qu’il est possible de produire par un procédé simple (broyage poussé + éventuellement prétraitement et séparation) des poudres lignocellulosiques de diverses origines capables de faire fonctionner un moteur à combustion interne. Bien. C’est une belle avancée scientifique qui met l’institut Carnot à la pointe sur le sujet. Pourquoi s’arrêter là ? « Nous avons désormais l’ambition de participer à la valorisation industrielle de cette avancée » disent les chercheurs.

Cela se traduit par des contrats de R&D en cours de signature avec une société, créée fin 2014 pour développer et commercialiser ce concept, en exploitant une licence exclusive des deux brevets.

Les contrats concerneront la raffine- rie des poudres-carburant et le développement moteur. Cette nouvelle société qui exploitera l’ensemble poudres-carburant / moteurs est une filiale d’un groupe national opérateur d’énergies renouvelables. L’une des premières applications sera la production d’électricité/ chaleur par groupes moto-générateurs alimentés à la poudre de biomasse lignocellulosique produite sur site.

Ce texte est extrait du livre « Nous construisons votre futur, 34 exemples de ressourcement scientifique », Association des instituts Carnot, édition 2015

Ce livre peut être consulté à l’adresse suivante : www.instituts-carnot.eu/livres/recherche-pour-entreprise-carnot-prepare-avenir

 CARNOT_1105_3BCAR

ekWateur, nouveau fournisseur d’énergie vert et collaboratif

ekWateur rejoint la liste des fournisseurs alternatifs d’électricité et de gaz. Une première particularité : l’entreprise propose de l’électricité 100% verte, mais aussi du gaz naturel associé à 5% de biométhane, avec une option 100% biométhane, une première ! Cela, grâce à des certificats de garanties d’origine français ou européen pour l’électricité et écossais pour le gaz. Deuxième particularité : c’est le premier fournisseur d’énergie collaboratif.

Le tarif est avantageux pour la plupart des Français : si le prix de l’abonnement est plus élevé que celui des tarifs réglementés, le kWh est bien moins cher (de -11% à -22%). Au final, le fournisseur estime qu’il est moins cher pour 97% des Français qui se chaufferaient à l’énergie souscrite (et pour 85 % des clients, toute situation confondue). Par exemple : un client chauffé au gaz et qui utilise de l’électricité va faire en moyenne 200 € d’économie par an : 125 € sur le gaz et 75 € sur l’électricité.

Le modèle économique d’ekWateur est principalement construit sur la vente de services à ses clients. « Nous ne pouvons pas casser les prix, car nous ne gagnons déjà que 1 à 2 euros sur le prix de vente d’un mégawattheure, explique Julien Tchernia, Président d’ekWateur. Pour baisser les prix, nous proposons soit de faire participer nos clients et de les rémunérer, soit de leur proposer des services qui conduisent à des économies d’énergie ».

Un fournisseur collaboratif qui rémunère ses clients

ekWateur veut être le premier fournisseur d’énergie collaboratif. Si l’entreprise dispose d’un call center en Moselle, elle lance en plus la première hotline collaborative énergétique. Ce sont les clients qui pourront répondre eux-mêmes aux clients potentiels de la marque. Cela se passera depuis chez eux, via deux canaux : par chat ou par téléphone. La hotline collaborative sera dans un premier temps limitée aux prospects de l’entreprise. Les clients-entrepreneur seront rémunéré à l’acte, facturé à un tarif proche de 25 € brut par heure.

Par ailleurs, en s’impliquant, les clients vont gagner des « joules » qui leur permettront de bénéficier d’offres spéciales chez les partenaires de l’entreprise. L’entreprise émet aussi auprès de ses clients des obligations vertes sur 3 ans, à partir de 25 euros, à un taux de 7 % brut  par an. Cela se passe sur le site de financement participatif Lumo avec pour objectif de réunir 150 000 euros.

Un business model basé sur les services

ekWateur partagera librement et anonymement les données de consommation de ses clients, avec leur accord, auprès de start-up qui proposent des services d’économies d’énergie. L’objectif est de créer une plateforme ouverte qui propose aux clients une large gamme de services destinés à faire baisser les consommations le plus vite et au meilleur coût possible : thermostat intelligent, domotique, vente d’électroménager… « Notre métier est plus proche de celui d’informaticien qu’énergéticien », prévient Julien Tchernia. Et cela se voit bien : sur les 18 collaborateurs actuels, 16 sont informaticiens!

« Notre intérêt est de faire faire des économies d’énergie à nos clients grâce à la vente de services et non pas de les faire consommer plus,  explicite Julien Tchernia. C’est un modèle fait pour être gagnant-gagnant ».  Ainsi, grâce à des partenariats ciblés, l’idée d’ekWateur est d’assurer à ses consommateurs qu’ils feront des économies. Un nouvel appareil électroménager, une nouvelle chaudière ou un nouveau thermostat? ekWateur calculera en amont l’économie d’énergie que cela permettra et le temps de retour sur investissement. Un modèle économique, proche de celui d’Easyjet, qui gagne de l’argent non pas sur les places d’avion à bas prix mais sur les services annexes. Une comparaison, largement assumée par Julien Tchernia.

ekWateur travaille d’ores et déjà avec la start-up In Sun We Trust, qui mesure le potentiel solaire des toitures et propose une projection de bilan financier personnalisé sur 20 ans. ekWateur espère pouvoir racheter l’électricité produite à ses clients dès mars 2017, l’entreprise étant encore en attente de licence pour ce faire. L’entreprise réfléchit également à une offre concernant l’autoconsommation.

ekWateur est une marque de la société Joul & Cie, créée, en novembre 2015 par Julien Tchernia et Jonathan Martelli, d’anciens salariés de Lampiris. Ayant remporté le quatrième lot de l’appel d’offre de l’Etat concernant les petites puissances, ekWateur fournira  en électricité verte 54 services de l’état, parmi lesquels Météo France, la Sorbonne, le musée Picasso et l’ADEME. Ce contrat de trois ans atteint une valeur de 4,5 millions d’euros et concerne la fourniture de plus de 2.600 sites à partir du 1er janvier 2017.

Par Matthieu Combe, journaliste scientifique

Des macromolécules organiques détectées par Rosetta dans la comète Tchoury

Les comètes sont parmi les objets contenant le plus de carbone dans le système solaire. La couleur sombre de leur noyau a d’ailleurs souvent été associée à sa présence. Elles ont pu apporter sur la Terre primitive des molécules organiques (à base principalement de carbone, hydrogène, azote et oxygène) qui ont pu jouer un rôle dans l’évolution chimique qui a conduit à l’apparition de la vie sur notre planète.

La nature des molécules cométaires pourrait aussi nous aider à déchiffrer l’histoire de la matière depuis son origine dans le milieu interstellaire jusqu’à son incorporation sur Terre. Ainsi, nous comprendrions mieux la formation et l’évolution de notre système solaire dans son ensemble.

L’un des objectifs de la mission Rosetta de l’Agence spatiale européenne est de dresser un inventaire le plus complet possible des ingrédients chimiques constituant le noyau de la comète 67P/ Churyumov-Gerasimenko (Tchoury). L’un des instruments de la sonde, ROSINA, a déjà mesuré une très grande diversité de molécules gazeuses relativement légères dans l’atmosphère de la comète, dont des hydrocarbures, alcools, aldéhydes, ou encore récemment de la glycine.

Ces mesures ont été complétées par la détection d’autres molécules en phase gazeuse mesurées à la surface du noyau par les instruments COSAC et PTOLEMY à bord de l’atterrisseur Philae.

L’instrument COSIMA est un spectromètre de masse dédié à l’étude des particules solides présentes dans l’atmosphère cométaire. Il est placé sur la sonde spatiale qui continuera à naviguer à proximité de noyau jusqu’au 30 septembre 2016, date à laquelle la sonde européenne Rosetta terminera sa mission.

Depuis août 2014, cet instrument a collecté plusieurs dizaines de milliers de petites particules solides éjectées depuis le noyau de la comète. Certains de ces fragments du noyau ont été analysés à bord de Rosetta. Les chercheurs ont détecté des macromolécules organiques solides dans les particules de la comète.

Cette matière est si complexe qu’on ne peut pas lui attribuer une formule chimique, ni même un nom suivant la nomenclature chimique usuelle. Elle présente des analogies avec la matière organique insoluble contenue dans les météorites carbonées, mais elle contient plus d’hydrogène que celle-ci, ce qui laisse penser qu’elle serait plus primitive.

Elle aurait ainsi été moins altérée dans les comètes que la forme présente dans les météorites qui a été chauffée et transformée depuis son origine. Elle résulterait donc de processus présents lors des tout premiers stades de formation du système solaire. En s’appuyant, entre autres, sur des simulations en laboratoire, les scientifiques s’attendaient aussi à trouver une multitude de molécules organiques, avec des formules dans le prolongement de ce qui a été détecté en phase gazeuse, mais en plus lourd, sous forme solide et avec des structures bien définies.

Ces molécules de masses intermédiaires n’ont pour l’instant pas été détectées en phase solide dans les particules cométaires. La discontinuité entre les familles de composés gazeux détectés par les autres instruments de Rosetta, et cette phase organique macromoléculaire mise en évidence par COSIMA, suggère qu’il pourrait y avoir plusieurs sources distinctes de matière organique qui ont été mélangées lors de la formation du noyau cométaire.

Le fait que les macromolécules détectées soient omniprésentes, et qu’elles soient la seule forme de matière organique détectée à ce jour dans les particules cométaires, sont des indices précieux pour comprendre la formation des comètes et déchiffrer l’histoire des tous premiers temps du système solaire.

Références :
High-molecular-weight organic matter in the particles of comet 67P/ChuryumovGerasimenko,
Fray, N., Bardyn, A., Cottin, H., Altwegg, K., Baklouti, D., Briois, C., Colangeli, L., Engrand, C., Fischer, H., Glasmachers, A., Grün, E., Haerendel, G., Henkel, H., Höfner, H., Hornung, K., Jessberger, E.K., Koch, A., Krüger, H., Langevin, Y., Lehto, H., Lehto, K., Roy, L.L., Merouane, S., Modica, P., Orthous-Daunay, F.-R., Paquette, J., Raulin, F., Rynö, J., Schulz, R., Silén, J., Siljeström, S., Steiger, W., Stenzel, O., Stephan, T., Thirkell, L., Thomas, R., Torkar, K., Varmuza, K., Wanczek, K.-P., Zaprudin, B., Kissel, J. and Hilchenbach, M. Nature, 7 septembre 2016, (http://dx.doi.org/10.1038/nature19320)

Source : cnrs

La France s’intéresse aux obligations vertes !

Lancées en 2007, les obligations vertes ou « green bonds » sont en plein développement ces trois dernières années.

Au niveau mondial, les volumes annuels d’obligations vertes émis sont passés de 1,8 milliard de dollars en 2011 à 13 milliards en 2013 et 48 milliards en 2015. Ils devraient atteindre 100 milliards de dollars en 2016, selon le Crédit Agricole.

Les obligations vertes représentent malgré tout encore moins de 0,1% du marché obligataire mondial, qui pèse environ 100.000 milliards de dollars. En 2015, 38% des obligations vertes ont été émises par le secteur public, 15% par les collectivités locales, 28% par les entreprises et 19% par les banques commerciales.

En 2015, la France était le deuxième pays émetteur d’obligations vertes au monde, après les Etats-Unis. Mais au cours des sept premiers mois de 2016, les émissions d’obligations vertes ont explosé en Chine, pour atteindre environ 18 milliards de dollars, soit près de 40% du total mondial sur cette période.

Qu’est-ce qu’une obligation verte?

A l’instar des obligations standards, les obligations vertes sont un titre de dette émis par une entité pour emprunter des fonds sur le marché. Après leur émission, les obligations sont généralement cotées sur les marchés financiers, ce qui permet aux investisseurs de les acheter et de les vendre avant leur échéance, de façon flexible, contrairement à un crédit classique. L’emprunteur s’engage à rembourser chaque obligation après un temps donné à un taux d’intérêt prédéfini.

Les obligations vertes présentent deux particularités par rapport aux obligations traditionnelles. Premièrement, elles s’accompagnent d’un reporting régulier sur les impacts environnementaux et sociaux des fonds utilisés. Deuxièmement, elles ne financent que des projets « verts » pour la transition énergétique et écologique, notamment des infrastructures. On citera pêle-mêle : les énergies renouvelables (éolien, photovoltaïque, méthanisation, barrages…), les usines de recyclage, les stations d’épuration, la rénovation énergétique des bâtiments existants et les bâtiments à faible consommation énergétique, les transports en commun…

S’assurer que les projets sont réellement verts!

Comment s’assurer qu’un projet est « vert »? Le Ministère de l’Environnement rappelle que si les obligations vertes sont définies dans leur principe, « aucun standard précis ne caractérise la dimension environnementale des projets financés ». Globalement, cela signifie que c’est l’entité qui émet l’obligation qui définit ce qui est vert, sans référence à une norme juridique établie. Ainsi, les obligations vertes pourraient financer des grands barrages, des centrales nucléaires, des incinérateurs… Des projets parfois qualifiés de « vert », mais qui demeurent controversés. Le WWF s’alarme de cette situation qui peut présenter un « risque réel de greenwashing ». Une situation qui pourrait porter préjudice au développement des obligations vertes. Dans son rapport Les obligations vertes doivent tenir leur promesses de juin 2016, le WWF plaide pour l’élaboration de « normes fiables, crédibles, suffisamment précises et largement acceptées ». « Seule une obligation pour laquelle l’émetteur peut démontrer des bénéfices environnementaux tangibles et mesurables, certifiée par un organisme indépendant selon les normes largement acceptées, devrait être considérée comme une obligation verte », prévient l’ONG de défense de la nature.

Des travaux sont en cours à plusieurs niveaux pour définir des standards. Il existe pour le moment des règles tacites, à l’instar des Green Bond Principles (GBP), édictés par l’Association internationale des marchés de capitaux (ICMA).Il s’agit notamment de « définir au préalable les activités potentiellement éligibles aux fonds levés par les obligations vertes, mettre en place un dispositif de contrôle surveillant de manière indépendante le caractère écologique de l’émission, ou avoir un reporting annuel public permettant de suivre l’avancement des projets », énumère le rapport Les obligations vertes au service de la transition énergétique et écologique publié par le Ministère de l’Environnement en septembre 2016. De son côté, la Climate Bonds Initiative a entrepris un long travail pour définir, pour chaque secteur d’activité, les pratiques éligibles aux obligations vertes.

Par ailleurs, la France a instauré un label national début 2016 pour valoriser les fonds d’investissement qui financent l’économie verte. Baptisé « Transition énergétique et écologique pour le climat » (TEEC), il labellise pour le moment 7 fonds pour un montant total de 816 millions d’euros (223 millions d’euros sont en cours de labellisation). La France souhaite ainsi définir un standard reconnu à l’international.

Des obligations vertes souveraines

La France va devenir « le premier pays à émettre un emprunt d’Etat vert », se félicite Ségolène Royal, ministre de l’environnement. Les obligations vertes proposées par l’Etat s’inscriront dans le programme de financement de l’Etat pour 2017. Elles devraient s’élever à 9 milliards d’euros sur trois ans et seront émises par l’Agence France Trésor, comme pour les autres obligations souveraines françaises. Elles permettront notamment de financer les investissements verts du 3ème programme d’investissements d’avenir (environ 6 milliards d’euros), programme qui sera inscrit dans le projet de loi de finances pour 2017 présenté cet automne.

Avec ces obligations vertes, Michel Sapin, Ministre de l’Économie et des Finances, veut faire de Paris « l’une des places financières de référence dans le soutien à la transition énergétique ». Un groupe de travail interministériel sera créé pour définir les modalités d’émission de ces obligations portant notamment sur la nature des projets financés et la traçabilité des fonds.

Par Matthieu Combe, journaliste scientifique

Batteries Lithium: Tesla devra affronter une très forte concurrence

Le géant Byd, appuyé par le milliardaire américain Warren Buffett, envisage de produire 34 GWh/an dès 2020. Et un autre groupe chinois, Contemporary Amperex Technology (CATL) annonce de son côté 26 GWh/an à cet horizon. Ce qui fait un total de 60 GWh rien que pour ces deux acteurs de l’empire du milieu.

En ajoutant 35 GWh/an en provenance d’autres acteurs, la capacité mondiale de production pourrait ainsi atteindre 130 GWh par an dans 4 ans estime l’agence Bloomberg New Energy Finance, parlant d’un véritable « assaut » dans une note dont fait écho la MIT Technogy Review.  Bloomberg s’appuie notamment sur  des données et analyses provenant des constructeurs ainsi que de Bank of America et de Merrill Lynch Global research.

Le coréen Samsung va construire une grosse usine en Hongrie et LG veut s’installer en Pologne. « Le vieux projet d’usine française, à Flins, pour alimenter les voitures Renault, paraît bien loin » remarque Les Echos. Ségolène Royal, Ministre de l’écologie, a annoncé qu’elle souhaite que Tesla construise une usine de batteries sur le site nucléaire de Fessenheim en Alsace. Cette annonce sera-t-elle concrétisée ou est-ce uniquement une banderole médiatisée à finalité électoraliste ?

960x0Le président de Volkswagen, Matthias Müller, a indiqué fin août 2016 qu’il étudie la chaîne de production des batteries et qu’il se prononcera à la fin de l’année. « Le groupe allemand réfléchit aux étapes de la production qu’il pourrait réaliser (approvisionnement en matières premières, production, assemblage en batteries, etc.) » rapporte le Comité des Constructeurs Français d’Automobiles. Volkswagen cherche notamment à se libérer de l’image déplorable résultant de la fraude sur les tests des émissions polluantes émanant des véhicules diesel.

Le géant allemand envisage de produire en masse des véhicules électriques avec une autonomie comparable à celle des véhicules Tesla, notamment une Golf 100% électrique permettant de réaliser 500 km et capable de faire le plein d’électrons en 15 minutes.

Les batteries recyclables, un énorme gisement

Les batteries Tesla nouvelle génération sont de 100 kWh, ce qui offre une autonomie de 600 km en condition d’usage standard.  Bloomberg indique que les pionniers de la voiture électrique ont un avantage : les batteries de la première génération vont pouvoir être recyclées pour en produire de nouvelles. 5 GWh de batteries recyclées arriveront sur le marché en 2020 selon l’analyste Claire Curry. Et 29 GWh dès 2025.

tesla-gigafactory (1)Un cercle vertueux et véritablement durable se mettra alors en place. La giga-usine Tesla dans le Nevada, dont une partie a été inaugurée en juillet 2016, intègre précisément un volet recyclage. Contrairement au pétrole qui une fois brûlé n’est pas recyclable, « chaque batterie est une mine de lithium concentré » a souligné le multi-entrepreneur à succès Elon Musk. Tesla va devenir maître de l’ensemble de la chaîne de valeur du stockage, de A à Z.

Un stockage aussi bon marché qu’avec les très grands barrages hydrauliques dès 2030

L’analyste Julia Attwood estime que le coût des batteries Lithium va s’effondrer de 14% pour chaque doublement de production dans les années à venir. Sur cette base, alors qu’elles coûtaient 384 dollars le kWh en 2015 elles tomberont à  182 dollars en 2025 et à 126 dollars en 2030.

Ces batteries alimenteront tout autant le marché du stockage embarqué que celui du stockage stationnaire. La demande en batteries pour ce second marché est très forte, notamment en Australie, à Hawaï et en Allemagne.

Quoi qu’il advienne pour Tesla, pionnier de l’utilisation des batteries lithium pour les applications automobiles, l’américain a réussi son pari: faire sortir la voiture électrique de son image de voiturette de golf au style « pot de yaourt ». Et, à l’inverse, l’associer à performance, design et durabilité.

Olivier Daniélo

Quand les pirates se lancent dans la franchise de virus

Le marché de la franchise se développe avec de nombreux réseaux comme Celio, Quick, Buffalo Grill ou encore Monceau Fleurs. Il faudra peut-être ajouter les réseaux de pirates !

Depuis quelques années, des particuliers, mais aussi des entreprises, sont victimes de rançongiciels. Appelés également ransomware, ces virus chiffrent (on dit trop souvent par erreur « crypter ») les fichiers stockés sur un ordinateur et même ceux partagés entre différents salariés via des serveurs. Impossible d’accéder à ces données, sauf à payer une rançon dont le montant varie entre quelques centaines d’euros et des sommes à quatre ou cinq chiffres selon le profil de la cible.

Un service professionnel…

Pour atteindre leur objectif, les pirates utilisent une technique classique, mais hélas toujours aussi redoutable : l’émail avec une pièce jointe contenant un code malveillant (caché dans une photo ou un document bureautique). L’autre variante est le courrier électronique avec un lien dirigeant la personne vers un site infecté.

Cette méthode est efficace puisque de plus en plus d’entreprises et d’internautes en sont victimes depuis quelques mois. Une preuve supplémentaire que les antivirus n’assurent pas une protection très élevée…

Mais il semble que certains pirates aient envie de gagner encore plus d’argent que d’autres. Pour toucher plus de cibles, ils ont décidé de mettre en place une… franchise. C’est ce qui se passe avec le rançongiciel Cerber. Repéré en février 2016 par l’un des leaders mondiaux du domaine de la cybersécurité, Check Point, il s’appuie sur des affiliés qui toucheraient 60 % du montant de la rançon (le reste allant dans les poches du développeur du code malveillant).

« Des personnes non qualifiées à qui il manque des connaissances techniques normalement requises peuvent aisément entrer en contact avec des développeurs, via quelques forums dédiés. Pour une petite somme, elles obtiennent une version du ransomware. Ensuite, elles mènent aisément des campagnes actives, depuis une interface web basique », explique Check Point. Les développeurs derrière Cerber sont très professionnels : ils proposent même des interfaces de contrôle traduites dans une douzaine de langues.

Avec un tel service, il n’est pas étonnant que ce rançongiciel soit efficace. Quelque 160 campagnes actives (avec des variantes du virus), touchant quelque 150 000 victimes, ont été répertoriées. Selon l’étude de cette société, 0,3 % des internautes ciblés ont choisi de payer la rançon (en moyenne 500 €, réglables en Bitcoin). Environ 190 000 euros auraient été extorqués. Les pays où le virus se répand le plus restent la Corée du Sud, les États-Unis, Taïwan, la Chine, le Royaume-Uni, l’Allemagne et la France.

Rester vigilant

Comment réagir en cas d’attaque ? Il faut commencer par déconnecter immédiatement l’ordinateur (ou tous les postes de travail s’il s’agit d’une entreprise) de l’Internet. Le Wi-Fi doit être désactivé et les câbles Ethernet débranchés. L’objectif étant de limiter la propagation.

Ensuite, payer la rançon ne garantit en aucune façon que le pirate débloquera les fichiers chiffrés. Un hôpital américain en a fait les frais. Après une première somme versée, le pirate en a exigé une seconde !

Différentes sociétés de sécurité proposent des « vaccins » contre ces codes malveillants. La plupart ne sont pas du tout efficaces. La seule méthode sérieuse est d’anticiper ce type d’arnaque en réalisant régulièrement des sauvegardes (il faut aussi vérifier que leur restauration ne pose pas de soucis). Ainsi en cas d’infection, vous pourrez formater votre disque (ou les disques durs) afin d’éradiquer définitivement le ransomware.

C’est la seule façon d’être sûr que le virus n’est pas encore présent dans votre ordinateur après avoir payé la rançon.

Et il faut appliquer quelques règles de base qui sont essentielles : ne jamais ouvrir une pièce jointe envoyée par un inconnu, ne jamais cliquer sur un lien sous prétexte d’une mise à jour importante ou d’un blocage de votre compte bancaire.

La vigilance reste la meilleure des protections.

Philippe Richard

Le stockage solaro-éolien par Micro-STEP urbaines : une technologie française au potentiel mondial. Interview de Denis Payre

L’eau est pompée quand la ressource solaro-éolienne est abondante, et à l’inverser turbinée quand elle devient rare. Le rendement d’un cycle complet est généralement de 70 à 80%. L’originalité de Nature & People First est de réaliser ce stockage avec des STEP de dimensions réduites que l’on peut déployer en milieu urbain.

Denis Payre a dans la passé fondé deux sociétés devenues des leaders mondiaux dans leurs domaines respectifs dans des secteurs fortement technologiques et très concurrentiels: Business Objects désormais centre de compétence mondial du géant SAP et Kiala désormais centre de compétence mondial du géant UPS.

DenisPayreDenis Payre est également à l’origine de Croissance Plus, un réseau français de dirigeants de petites et moyennes entreprises et entreprises de taille intermédiaire françaises. Ainsi que du mouvement politique Nous Citoyens en 2013 qui a notamment été présidé en 2014 et 2015 par le député européen Jean-Marie Cavada auquel a succédé l’entrepreneur Nicolas Doucerain, directeur général d’U-MEN, un cabinet de conseil spécialisé dans « la gestion de crise et la transformation de nos entreprises ». Nous citoyens compte 5000 adhérents et plus de 30.000 sympathisants.

Techniques de l’ingénieur  (TI): Quels sont les atouts de la technologie choisie par Nature & People First  dans le domaine des technologies du stockage ?

Denis Payre (DP): Notre initiative à l’avantage de capitaliser sur des savoir faire français majeurs: l’hydroélectricité avec des fabricants de turbine encore capable de produire en France et ayant une réputation mondiale (rappelons le rachat de Alstom Power par l’américain General Electric), le génie civil avec des groupes mondiaux dont la réputation de savoir faire et de capacité à innover n’est plus à faire.

De plus, outre le fait de faire travailler en priorité des entreprises françaises et des employés français sur toute la chaîne ou presque, au moins dans les zones françaises, chose rare en matière de transition énergétique, nous allons aussi donner du travail à du personnel peu qualifié ce qui dans un contexte de chômage de masse pour ces profils, est aussi une bonne chose.

Micro-STEP

Notre projet a une ambition mondiale comme tous mes projets précédents. Nous avons déposé des brevets dans plus de 60 pays sur notre approche et sommes détenteurs de brevets en Europe et USA à ce stade. Nous serons amenés à faire des annonces complémentaires prochainement sur notre stratégie de déploiement.

TI : Selon François Lempérière, ex-Président du Comité Français des Grand Barrages et fondateur d’Hydrocoop, plus une STEP est de dimension importante, plus elle est rentable. Certes les grandes STEP inondant des vallées posent des problèmes d’acceptabilité environnementale et sociale mais l’équation économique des micro-STEPs urbaines est-elle solide ?

DP : Nous avons effectué un certain nombre de simulations technico-économiques très poussées appuyées sur des études et devis des meilleures sociétés de production hydroélectrique et de génie civil françaises et basés des sites précis qui montrent que le coût des micro STEPs est probablement très inférieur au coût de meilleures batteries actuelles et le restera avec l’évolution des coûts prévisibles des batteries sur les années à venir, pour au moins deux raisons:

  • La durée de vie de nos équipements est de 50 à 60 ans, voire plus, or la durée de vie de batteries Lithium Ion, les moins chères actuellement et les plus performantes, est de 7 à 12 ans au grand maximum. Après cette échéance, il faut renouveler les matières premières à un coût inconnu à ce jour et sur lequel on ne peut que spéculer.
  • Nous sommes capables de rendre des services que les batteries ne savent pas rendre à un opérateur électrique comme la fourniture d’inertie pour maintenir la fréquence du réseau. L’inertie chute avec le déploiement des panneaux solaires par définition non générateurs d’inertie et accessoirement le déploiement de turbines à gaz ou diesel plus légères car issues de l’aéronautique. L’inertie est fortement valorisée par les opérateurs. Les fabricants de batteries tentent de fournir de « l’inertie synthétique » mais n’y parviennent pas aux dire des grands opérateurs qui testent ces solutions.

TI: Les batteries ne constituent-elles pas néanmoins des solutions de stockage plus simples à mettre en œuvre, et ceci partout sur Terre ?

DP: Les batteries posent des problèmes majeurs d’acceptabilité, particulièrement dans les îles qui sont des destinations touristiques qui se veulent à juste titre éco-responsables. Elles sont de plus très volatiles et peuvent prendre feu très facilement ce qui pose aussi bien sûr des problèmes de sécurité dans des zones touristiques souvent arides.

Leur capacité à fournir des solutions de stockage de masse, plus de deux heures sur plusieurs MW, ne sont pas prouvées actuellement. Cela reste de la R&D. Enfin, elles utilisent des matériaux non renouvelables comme le Lithium qui n’est produit actuellement que par un petit nombre de pays. La Banque Goldman Sachs ne s’y est pas trompée. Elle a dit récemment que les batteries étaient « le nouveau pétrole du 21° siècle » du fait des cartels qui commencent à se mettre en place…

Notre approche à l’inverse repose sur l’utilisation de l’eau, un composant renouvelable qui de plus n’est pas consommé dans notre cas. Notre technologie est propre, totalement fiable, ce n’est pas de la R&D, et 100% renouvelable. Nous avons travaillé sur l’acceptation de nos micro STEPs en les intégrant dans le paysage urbain et en prévoyant de placer sur les réservoirs des infrastructures peu couteuses mais très utiles aux collectivités comme des parkings ou des terrains de sport.

Nos échanges avec des élus montrent un soutien très fort à cette approche. Nous prévoyons de mutualiser donc l’utilisation du foncier ce qui en fait des infrastructures qui ne sont pas perçues comme une gêne pour la collectivité mais au contraire comme un élément bénéfique d’autant qu’à l’infrastructure utile à la collectivité viendra s’ajouter une source de revenus pour l’utilisation du foncier sur une période très longue.

Les batteries rejettent régulièrement des déchets hautement toxiques qui vont le rester pendant près de 1.000 ans, cela ressemble au nucléaire.

TI: Elon Musk explique que le lithium est recyclable et que de plus il constitue un composant mineur des batteries dites « lithium ». La giga-usine en construction dans le Nevada dont la première tranche a été inaugurée en juillet 2016 intègre un volet recyclage. Plusieurs rapports (dont celui du MIT, « The future of Solar », 2015) montrent qu’il n’y a pas de pénurie de Lithium en perspective, même dans l’hypothèse d’un monde devenu 100% solaire photovoltaïque. Enfin il existe des batteries qui ne contiennent pas un seul gramme de lithium…

DP: Le lithium est recyclable,  c’est exact. Cependant le coût du recyclage est actuellement environ 5 fois supérieur au coût du lithium lui même ce qui le rend prohibitif sur la base du coût actuel du lithium. Il n’est pas certain que ce coût complet soit actuellement modélisé à son juste prix par les promoteurs de batteries. Si le lithium n’est pas recyclé, alors on se retrouve avec des déchets hautement toxiques pour une longue durée.

Il est probable que les batteries au lithium se développent pour les applications où elles sont très compétitives techniquement: pour les applications embarquées comme des objets électroniques ou des véhicules électriques mais sur des bases de coûts fortement supérieurs aux coûts actuels compte tenu du coût du recyclage élevé et compte tenu de la demande croissante et du caractère limité des ressources de lithium au plan mondial, un parallèle avec le pétrole.

Le prix du lithium a déjà été multiplié par 3 en 10 ans pour cette raison et les constructeurs automobiles de véhicules électriques s’attendent à ce que la demande de lithium dépasse l’offre à partir de 2020. Il est probable que pour les applications de stockage d’énergie, le lithium soit la dernière solution envisagée après des solutions moins coûteuses comme les micro STEPs urbaines intégrées.

Il est certain que les micro STEPs ne pourront pas être mise en œuvre partout car il faut du dénivelé, néanmoins au même titre que la Suisse grâce à son relief a longtemps été la batterie de l’Europe, on peut imaginer que les zones collinaires et montagneuses d’une région jouent ce rôle pour les zones ayant moins de relief.

Les batteries au lithium seront donc probablement les solutions de dernier recours lorsque les autres options auront été épuisées. Or il se trouve que les zones à fort potentiel de stockage actuellement et donc à court terme, sont des zones ayant aussi un relief important : îles françaises des Caraïbes, Réunion, Corse, Californie et Hawaï.

TI : Les pays qui jouissent de gisements en lithium, cobalt et graphite n’ont-ils pas tout à gagner du déploiement de cette technologie ?

DP: Le lithium a un autre inconvénient non négligeable qui est la complexité et le caractère polluant de son exploitation. Le lithium est logé principalement dans la saumure de marais salant de quelques plateaux arides de pays andins. Son extraction nécessite le pompage d’eau salée émetteur de CO2. Le lithium est obtenu ensuite par évaporation et ajout de carbonate de sodium et de chaux. Cela provoque une pollution des sols, une raréfaction de l’eau et une pollution de l’air et de l’eau par les produits utilisés. La rare nourriture des populations pauvres de ces zones est aussi impactée.

Les populations locales commencent à s’organiser pour contrer cette exploitation peu renouvelable de leurs terres faisant peser un risque fort sur la pérennité de ces exploitations, en tout cas à minima aux conditions économiques actuelles. La nature de l’exploitation du lithium est aussi un facteur de hausse de prix et même peut être de pénurie si les populations de certaines zones s’y opposent catégoriquement.

Enfin, le lithium comme le pétrole est confronté à un problème de concentration géographique des ressources dans des pays qui peuvent subir une instabilité politique et provoquer des difficultés d’approvisionnement. 70% des ressources mondiales de Lithium seraient concentrées en Argentine, Bolivie et Chili, des pays dont l’histoire récente n’a pas été marqué par la stabilité.

L’apport de ressources liées à une ressources naturelle rare ne favorise pas pour autant la stabilité politique comme le montre actuellement dans cette région le Venezuela avec le pétrole, c’est même parfois l’effet inverse qui se produit, en retirant les incitations à organiser une économie productive, diversifiée et à valeur ajoutée.

TI: Devrait-on selon-vous abandonner la voie du stockage batteries ?

DP: Chez Nature & People First nous ne sommes pas opposés aux batteries, l’avenir sera constitué d’une multitude de solutions en fonction des besoins spécifiques de chaque site. Nos interlocuteurs au sein des opérateurs avec lesquels nous discutons partagent notre vision et nous disent que les batteries seront probablement les dernières options quand tout le reste aura été écarté compte tenu des problèmes évoqués plus haut qui rappellent l’ère Nucléaire/ Pétrole.

Je suis un admirateur d’Elon Musk. Il a réalisé de belles choses mais certains de ses paris ne sont pas encore validés. Le choix par exemple de la batterie comme mode de locomotion des voitures de demain n’est pas partagé par tous les constructeurs automobiles de la planète. Les constructeurs japonais, très puissants et très innovants, les premiers à se lancer dans les véhicules motorisés par batteries via les véhicules hybrides, misent plutôt maintenant sur les piles à combustible à hydrogène, beaucoup plus propres et ayant semble-t-il un rapport poids/ puissance plus favorable et délivrant probablement un couple supérieur à celui des batteries.

Là encore, je ne prends pas partie, je dis juste que l’avenir est en train de s’écrire et que rien n’est joué, que la batterie n’est pas nécessairement promise à un avenir aussi large, en dehors des applications légères que nous connaissons déjà (objets connectés..) pour lesquels elle est probablement adaptée.

TIQuel regard portent les géants français de l’énergie sur votre innovation ?

DP: EDF SEI est séduit par notre approche, notamment pour l’Outre-Mer. Nous sommes aussi en contact avec ENGIE dont la nouvelle stratégie repose fortement sur le solaire photovoltaïque.

Un entretien entre Thierry Lepercq (devenu Vice-président d’ENGIE en charge de l’innovation et fondateur de Solaire Direct) et Denis Payre est disponible depuis le site de Challenges.fr, ceci dans le cadre du Sommet des start-ups.

Olivier Daniélo

Pollution : les rivières dans un sale état !

Le rapport du programme des Nations unies pour l’environnement (UNEP) est formel : la qualité des eaux de surface se dégrade en Asie, en Afrique et Amérique latine. Entre 1990 et 2000, la pollution organique et microbiologique a augmenté dans plus de 50% des rivières de ces trois continents. La pollution microbiologique impacte désormais un quart des rivières en Amérique latine, entre 10 et 25 % des rivières africaines et la moitié des rivières asiatiques.

L’augmentation des pathogènes et des matières organiques résulte principalement de la hausse des rejets d’eaux usées non traitées dans les eaux de surface.

En cause : la croissance démographique, l’augmentation de l’activité économique et l’intensification continue de l’agriculture. Les engrais et les pesticides concourrent à renforcer la pollution par les phosphates ; les activités minières et agricoles aggravent la pollution saline. Cette dernière a augmenté de presque 33%, affirme le rapport de l’UNEP, et affecte désormais près d’une rivière sur 10 sur les 3 continents.

La pollution des eaux menace directement la santé de 323 millions de personnes sur les trois continents: 25 millions en Amérique latine, 164 millions en Afrique et 134 millions en Asie. Car dans certains pays, plus de 90% de la population dépend des eaux de surface comme principale source d’eau potable. Les populations risquent alors de contracter des maladies mortelles, comme le choléra, la typhoïde, les hépatites infectieuses, la polio et les maladies diarrhéiques, alerte l’UNEP. Environ 3,4 millions de personnes meurent chaque année d’une de ces maladies.

Par ailleurs, cette pollution nuit à l’économie de ces trois régions, avec des impacts sur la pêche, l’irrigation et les écosystèmes aquatiques. Il existe pourtant des méthodes capables de réduire la pollution à la source, rappelle l’UNEP. Il s’agit de « traiter les eaux polluées avant qu’elles ne pénètrent dans les plans d’eaux, recycler les eaux usées destinées à l’irrigation et protéger les écosystèmes en restaurant les zones humides dans le but de réduire les polluants des écoulements agricoles et urbains ». L’organisation exhorte la communauté internationale à lutter contre cette « menace croissante ».

Par Matthieu Combe, journaliste scientifique

Royal « optimiste » sur la ratification de l’accord de Paris

La ratification de l’accord de Paris par la Chine et les Etats-Unis a apporté une nouvelle dynamique pour que les pays déposent au plus vite leurs instruments de ratification auprès du secrétariat des nations-unies. A ce jour, 26 pays ont ratifié l’accord, ce qui représente 39,06% des émissions mondiales (20% pour la Chine, 17,9% pour les Etats-Unis et 1,08% pour les 24 autres pays). Un pas important vers l’entrée en vigueur de l’accord de Paris qui nécessite la ratification par au moins 55 pays, représentant plus de 55 % des émissions mondiales.

« D’autres pays vont ratifier rapidement car leur Parlement a donné son accord », assure Ségolène Royal. Il s’agit notamment de l’Argentine, du Brésil, du Maroc, de l’Ukraine, de Madagascar, de l’Albanie, du Ghana, de la Guinée et du Mali. Ces 9 pays représentent 4,72% des émissions mondiales de gaz à effet de serre. Le dépôt de leurs instruments de ratification devrait se faire à New York le 21 septembre prochain, lors d’un événement organisé par le secrétaire général Ban Ki-moon, en marge de l’Assemblée générale des Nations unies.

Cet événement a pour objectif d’amplifier et accélérer la dynamique de ratification d’ici la COP22, à l’image de l’élan exprimé le 22 avril à New York, lorsque 175 pays avaient signé l’Accord de Paris. « Nous mobilisons tous nos contacts pour que nous puissions réaliser le même exploit qui a été réalisé lors de la signature de l’accord de Paris le 22 avril», prévient Ségolène Royal. Grâce à un démarchage individuel auprès de chaque chef d’état ou de gouvernement, il serait ainsi possible d’obtenir le dépôt des instruments de ratification ce jour par un grand nombre de pays.

Pour l’heure, selon les projections de l’institut Climate Analytics, en plus des 26 pays ayant déjà ratifié l’accord de Paris, seulement 32 pays – dont l’Australie, le Brésil, le Canada, le Japon, le Mexique… – ont annoncé vouloir ratifier l’accord d’ici la fin de l’année. Les pays engagés pourraient alors représenter 59.88% des émissions mondiales, permettant l’entrée en vigueur de l’accord avant fin 2016.

Lumière sur la ratification européenne

En Europe (12,1% des émissions mondiales), seuls 3 pays ont fait voter la ratification par leur Parlement : la France, la Hongrie et l’Autriche. Pour que ces trois ratifications soit prises en compte par les Nations unies, elles devront être notifiée au Secrétaire général des Nations unies, dans le cadre d’un dépôt conjoint entre l’Union Européenne et ses 28 Etats membres. Tant que chaque pays membre et le Parlement européen n’auront pas approuvé le texte, la voix des Etats membres ne sera pas comptabilisée parmi les pays qui ont ratifié l’accord sur le climat. Mais « il n’y a plus de conditionnement d’une étape par rapport à l’autre », assure Ségolène Royal pour accélérer les différents processus. « Nous pouvons avancer frontalement à la fois sur les ratifications individuelles, sur les ratifications au niveau de l’Union et sur la répartition des efforts », se félicite-t-elle.

Ségolène Royal se déclare donc « optimiste » concernant la ratification de l’accord de Paris par l’Union Européenne, avant son entrée en vigueur. Le Parlement européen a été saisi et la Commission environnement donnera son avis le 8 septembre. Le sommet européen prévu le 16 septembre à Bratislava permettra de réaffirmer la nécessité d’accélérer le processus de ratification par les Etats membres.

Par Matthieu Combe, journaliste scientifique

Salaires 2016 : une bonne année pour les informaticiens

Lorsqu’on est cadre, mieux vaut travailler dans le numérique. C’est ce qui ressort du dernier baromètre Expectra (Groupe Randstad France) sur le salaire des cadres. Quelque 74 520 fiches de paie ont été analysées, représentant 125 qualifications dont 63 fonctions cadres et 62 fonctions ETAM (employés, techniciens et agents de maîtrise), sur les métiers de cinq grandes filières d’activité : l’informatique et les télécommunications, l’ingénierie et l’industrie, la comptabilité et la finance, les ressources humaines et le juridique et enfin les métiers du commercial et du marketing. Au global, 9 320 entreprises sont représentées, dont 66 % en province et 34 % en Île-de-France.

Cette année, le secteur IT (qui compte environ 346 000 salariés – dont 94 % en CDI – répartis dans environ 17 700 entreprises. Source : OPITEC)) a affiché une rémunération moyenne en hausse de 1,9 % par rapport à l’an dernier. C’est la plus « forte » hausse de ces quatre dernières années.

Les trois plus importantes revalorisations, toutes supérieures ou égales à 6 % (salaire médian de 41 710 €), bénéficient à des métiers de l’informatique et des télécoms. En particulier, le chef de projet infrastructure (+6,8 %), le consultant maîtrise d’ouvrage (6,5 %) et l’ingénieur développement (+6 %). « Ils sont en première ligne face à la digitalisation de l’économie », précise Christophe Bougeard, directeur général d’Expectra.

« Cette même dynamique profite également aux ingénieurs système (+3,4 %) et aux administrateurs de bases de données (+2,6 %), dont les salaires sont aussi tirés par la bonne santé du e-commerce », peut-on lire dans le rapport de ce cabinet.

Ces évolutions salariales s’expliquent par la croissance de ce secteur qui devrait bénéficier d’une croissance de 2,6 % cette année, dont 2,5 % pour le conseil et les services, et 3,6 % pour le logiciel.

Outre-Atlantique, le secteur informatique est également très attractif en terme de salaires. Un récent sondage effectué par la société Puppet souligne que parmi les métiers IT qui payent le mieux il y a les ingénieurs système, les ingénieurs logiciels, les administrateurs système et les architectes DevOps. Ces métiers rapportent en moyenne 100 000 dollars américains par an à leurs praticiens.

Pour autant, cette progression salariale ne rime pas nécessairement avec recul du chômage en France. Tous les informaticiens ne sont pas logés à la même enseigne. Une étude de l’Apec, parue avant l’été, indiquait en effet que seuls certains profils sont très recherchés : ingénieurs et cadres. Mais « ce sont également des métiers où la part de projets difficiles à satisfaire est parmi les plus élevées » (avec 61,7 % de projets de recrutement IT jugés difficiles par les entreprises), souligne l’établissement public.

Selon l’Observatoire des métiers du numérique, les métiers émergents pour les prochaines sont les développeurs java, les développeurs web, les administrateurs système, les ingénieurs de production et les « Business developer ».

Par Philippe Richard

La décharge de Bonfol est enfin vidée !

La dernière tonne de déchets chimiques présente dans la décharge de Bonfol a été excavée le 29 août. « C’est avec une grande satisfaction que je vous annonce que l’excavation des déchets, pour ainsi dire le « challenge principal » de cet assainissement, est terminée, a annoncé sur place Michael Fischer, directeur de la bci Betriebs-AG, consortium regroupant les entreprises de la chimie bâloise chargées de planifier et réaliser l’assainissement du site. Il reste néanmoins de nombreux travaux pour terminer l’assainissement.

Entre 2010 et 2016, 202.200 tonnes de déchets chimiques dangereux et matériaux mélangés ont été excavés, avant d’être incinérés à l’étranger. En parallèle, environ 84.000 tonnes de matériaux de sol faiblement à moyennement contaminés ont été éliminés dans des filières adaptées, en Suisse et aux Pays-Bas. Parmi ces déchets hautement toxiques en mélange, on retrouve des colorants, des pesticides, des solvants, des produits pharmaceutiques et des métaux lourds. Ces déchets avaient été entreposés à ciel ouvert dans une ancienne carrière d’argile par les géants de l’industrie chimique et pharmaceutique de Bâle – Novartis, Roche, BASF, Clariant ou Syngenta… – entre 1961 et 1977. Il aura fallu attendre l’an 2000 pour que le Gouvernement du Canton jurassien somme la chimie bâloise d’excaver les déchets et d’assainir la décharge, à leurs frais. Et 16 années supplémentaires pour étudier, préparer le projet et excaver les déchets.

Derniers déchets à évacuer et un suivi à mettre en place

Pour mener à bien les travaux, une halle d’excavation a été aménagé en surface, de manière à éviter toute pollution. L’excavation a débuté en mars 2010, mais s’est arrêtée entre juillet 2010 et mai 2011, après une explosion dans la halle. Le déblai s’est fait grâce à des pelles mécaniques reliées à un pont-roulant télécommandé. Les déchets étaient ensuite broyés, avant d’être placés dans des conteneurs destinés à l’incinération.

Avec la fin de l’excavation des déchets chimiques, les risques diminuent considérablement, notamment les risques d’explosion et d’incendie. « A ce jour, il reste 4.000 tonnes de déchets chimiques, déjà analysés et préparés pour leur transport, ainsi qu’environ 4.000 tonnes de matériaux de sols contaminés », précise la bci Betriebs-AG, dans un communiqué. Ils sont sur le point d’être mis en conteneurs pour être évacués début de novembre vers trois sites spécialisés en Allemagne et en Belgique où ils seront incinérés.

« L’encaissant argileux, contaminé par contact avec les déchets et les lixiviats de la décharge, a déjà été en grande partie nettoyé. Les surfaces restant encore à contrôler seront échantillonnées et décapées si nécessaire jusqu’à atteindre les valeurs limites définies par les autorités », fait savoir la bci Betriebs-AG. Par ailleurs, l’entreprise examinera la contamination des lentilles sableuses, des corps sableux enclavés dans les argiles de Bonfol. Bien qu’aucun impact sur les nappes phréatiques ou les eaux de surface n’a été observé, l’objectif est de vérifier que cette contamination ne présente pas de risque pour l’environnement. Les eaux souterraines et de surface seront monitorées pendant une dizaine d’années. Ceci pour vérifier que les sables  de la décharge industrielle de Bonfol ne contaminent pas l’environnement.

3 ans pour décontaminer, démonter et réaménager

En plus des surfaces ayant été en contact avec les déchets, il conviendra de décontaminer l’ensemble des installations. La qualité de l’air sera suivie pour déterminer le moment propice à la levée du confinement de la halle. « La majeure partie des travaux de décontamination et de démontage des infrastructures d’assainissement sera terminée d’ici fin 2017 », annonce la bci Betriebs-AG. L’entreprise procédera ensuite au reboisement de 15 hectares du site d’ici 2019. Parallèlement, elle réfléchit à un projet de réaménagement avec l’association Escale Bonfol et l’architecte Mario Botta.

La dépollution des sols suisses ne fait que commencer. Le pays compte encore aujourd’hui près de 38’000 sites pollués – comme des anciennes décharges, des sites industriels ou des stands de tir (dont 4000 sont contaminés et nécessitent donc un assainissement), rapporte RTSInfo. Parmi ces sites figurent quelques décharges dont le nettoyage est estimé à plus de  91 millions d’euros.

Par Matthieu Combe, journaliste scientifique

Accélérer la ratification de l’accord de Paris

Au 1er septembre, 180 pays ont signé l’accord de Paris. Mais signer n’est pas suffisant. Chaque pays signataire doit désormais, selon ses propres modalités, ratifier le texte puis déposer, auprès du Secrétaire général des Nations unies, un document actant son adhésion.

A ce jour, seulement 24 pays ont déposé leurs instruments de ratification auprès des nations-unies, ce qui ne représente que 1,08% des émissions mondiales de gaz à effet de serre. Pour entrer en application, l’accord de Paris devra être ratifié par au moins 55 pays, représentant plus de 55 % des émissions mondiales.« La première urgence, c’est l’entrée en vigueur de l’accord avant la fin de l’année. Et c’est loin d’être acquis », a prévenu François Hollande dans son discours de rentrée devant les ambassadeurs français le 30 août dernier.

A quand la ratification par les pays les plus riches ?

A l’approche du G20 qui se réunira les 4 et 5 septembre en Chine, Laurent Fabius, ancien président de la COP21, rappelle dans une tribune parue dans Le Monde que « des vingt pays les plus riches de la planète, aucun n’a jusqu’ici ratifié l’accord de Paris, à l’exception de la France ». La Chine (20% des émissions mondiales), les Etats-Unis (17,9%), l’Union européenne (12,1%), l’Inde (4,1%), la Russie (7,5%)… n’ont pas encore rejoint la course.

A ce jour, la France et la Hongrie sont les seuls membres de l’Union européenne à avoir fait adopter l’accord de Paris par leur Parlement. Pour que la ratification française et hongroise soit prises en compte par les Nations unies, elles devront être notifiée au Secrétaire général des Nations unies, dans le cadre d’un dépôt conjoint entre l’Union Européenne et ses 28 Etats membres. Tant que chaque pays membre et le Parlement européen n’auront pas approuvé le texte, la voix des Etats membres ne sera pas comptabilisée parmi les pays qui ont ratifié l’accord sur le climat.

Mais tout n’est pas perdu. Selon les projections de l’institut Climate Analytics, 34 nouveaux pays – dont l’Australie, le Brésil, le Canada, la Chine, le Japon, le Mexique, les Etats-Unis… – devraient ratifier l’accord d’ici la fin de l’année. Ils pourraient représenter 59.88% des émissions mondiales. Le 31 août, l’Inde et les Etats-Unis ont réitéré leur engagement à mettre en œuvre rapidement l’accord de Paris, dans une déclaration commune, sans donner de date précise. La Chine et les États Unis pourraient profiter du G20 pour faire une déclaration conjointe et annoncer leur ratification. Par ailleurs, le secrétaire général des Nations unies, Ban Ki-moon, organise un événement le 21 septembre prochain à New York, l’occasion pour les Parties ayant élaboré leurs instruments de ratification de les déposer.

Au-delà de la ratification…

La ratification ne suffit pas. Pour que l’accord de Paris soit réellement effectif, il faut un feuille de route concrète. « La concrétisation des engagements financiers pris envers notamment l’Afrique, l’extension de la tarification du carbone, la mise en place du système universel d’alertes-catastrophes, la pénalisation des énergies fossiles et la dynamisation des énergies propres ainsi que des économies d’énergie, la mobilisation cruciale des villes et régions du monde, toutes ces mesures parfaitement identifiées doivent être mises en place rapidement avec les gouvernements, les collectivités locales, les entreprises et les sociétés civiles », alerte Laurent Fabius. Il préconise également  la préparation d’un pacte universel pour l’environnement, qui donnerait à la société civile les moyens de « demander des comptes aux Etats concernant le respect de l’environnement ».

Par ailleurs, les contributions nationales (INDC) rendues pour la COP21 doivent être revues au plus vite. Elles nous mènent droit vers une élévation de la température moyenne de 3 degrés d’ici 2100, alors même que l’objectif de l’accord est de limiter cette hausse « bien en-deça de 2°C et de s’efforcer de limiter cette augmentation à 1,5°C ».

Par Matthieu Combe, journaliste scientifique

Les pesticides ont leur certificat d’économie !

Les CEPP ont pour objectif de développer des pratiques plus économes en produits phytopharmaceutiques, tout en maintenant un haut niveau de production. Ils seront octroyés aux distributeurs de pesticides en échange d’actions de conseil et de promotion de pratiques plus économes auprès des agriculteurs. Sont concernés tous les distributeurs de pesticides à usage agricole, hors traitements de semences, produits de biocontrôle et des produits utilisés dans le cadre des programmes de lutte obligatoire.

Qu’est-ce qu’un CEPP ?

Les actions permettant l’obtention de CEPP sont des « actions standardisées arrêtées par le ministre chargé de l’agriculture et publiées au Bulletin officiel du ministère chargé de l’agriculture », définit le décret. L’article 7 précise que chaque action donne droit à un nombre prédéfini de CEPP, en fonction de « son potentiel de réduction de l’usage et de l’impact des produits phytopharmaceutiques, sa facilité de mise en œuvre, son bilan économique et son potentiel de déploiement ». La liste de ces actions, non connue pour le moment, sera définie par le Ministre de l’agriculture, suite à des propositions émises par les professionnels et après une évaluation indépendante. Un site spécifique permettra ensuite aux distributeurs d’évaluer immédiatement l’éligibilité et la valeur de ces actions.

D’ici fin 2016, chaque distributeur se verra notifier ses obligations de CEPP pour l’année 2021. Ceux-ci seront calculés « sur la base de la moyenne des ventes de produits phytopharmaceutiques réalisées, exprimées en nombre de doses unités » entre 2011 et 2015, en excluant les années où les ventes ont été les plus faibles et les plus fortes. Une moyenne sur trois années de référence donc. Le nombre d’actions à déployer (et donc de certificats à acquérir) sera calculé de façon à représenter une économie de 20% des ventes de produits par rapport à la période de référence.

Comment déterminer le nombre de doses unités?

Le calcul est complexe. Le nombre de doses unités vendues par un distributeur est défini pour chaque substance active entrant dans la composition des produits. Il s’agit de « la division entre la quantité de la substance active et sa dose unité de référence ». Cette référence équivaut à la quantité moyenne de substance active contenue dans la dose maximale autorisée pour chacune des cultures, pondérée par les surfaces agricoles utiles nationales des cultures concernées. « La méthodologie de calcul et la valeur des doses unités de référence de chaque substance active sont arrêtées par le ministre chargé de l’agriculture et publiées au Bulletin officiel du ministère chargé de l’agriculture », précise le décret. Chaque certificat manquant à une entreprise au titre de l’année 2021 fera l’objet d’une pénalité de 5 euros.

Par Matthieu Combe, journaliste scientifique

Un processeur open-source de 25 cœurs

Les datacenters géants des fournisseurs de services cloud ont des besoins sans limites en matière de traitement et de stockage des données. Toute innovation permettant de réduire la latence ou la consommation électrique est donc la bienvenue.

C’est le double objectif d’un programme de recherche lancé par une équipe de l’Université de Princeton.

Baptisé Piton, leur processeur est composé de 25 cœurs. Selon ces scientifiques américains, il pourrait être facilement intégré à un ordinateur pouvant accueillir 8 000 puces 64-bits de ce type, pour un total de 200 000 cœurs processeur.

D’un point de vue technique, chaque puce Piton compte 25 cœurs positionnés sur 5 lignes, une topologie largement répandue en tant que design mesh. Chaque cœur opère à une fréquence d’horloge de 1Ghz. Un mini-routeur dans chaque cœur facilite la communication rapide avec d’autres cœurs et donc une optimisation des informations. Résultat, ce processeur fonctionne avec beaucoup moins de transistors : 460 millions de transistors alors que les dix cœurs du Broadwell-E (le processeur d’Intel présenté en mai dernier) demandent 3,4 milliards de transistors. Chaque cœur a également une unité en virgule flottante, dédiée principalement au calcul parallèle à grande échelle.

Une telle architecture pourrait intéresser en particulier les datacenters traitant les milliards de requêtes en provenance des réseaux sociaux, des outils de recherche et de services de Cloud Computing. Avec un objectif : réduire la latence afin d’optimiser des services en ligne.

Ce n’est pas le seul projet à afficher cette ambition. Depuis 16 ans, Intel annonce sa révolution photonique. Le fondeur a réussi à produire en masse deux modules intégrant des composants optiques sur du silicium avec des transistors CMOS. Selon le géant américain, ils permettraient aux commutateurs (switches) de franchir d’ici deux ans les 400 Gbit/s.

Mais au-delà de cet objectif, l’annonce des universitaires de Princeton est l’occasion de rappeler qu’à côté de l’Open-source software (logiciels), il existe aussi un équivalent pour le hardware. L’Open-source hardware regroupe les conceptions “Hardware” réalisées publiquement et disponibles de manière à ce que n’importe qui puisse étudier, modifier, distribuer, créer et vendre un “design” ou un produit basé sur ce design.

Piton est en effet basé sur un design OpenSparc, qui est une version modifiée du processeur Oracle OpenSparc T1. OpenSPARC est un projet de matériel informatique libre démarré en décembre 2005. La première contribution avait été la description du système logique du processeur UltraSPARC T1 en mars 2006. À cette époque, Sun Microsystems avait publié, sous licence GPL, le code source du cœur du processeur.

OpenSPARC n’est pas le seul programme open-source consacré au matériel informatique. Il y a notamment RISC-V, initié par la division informatique de l’Université de Californie à Berkeley puis utilisée par la start-up SiFive pour créer un nouveau processeur. Autre programme en Californie : l’Open Core Foundation qui essaie de fournir un design open-source du processeur SH2 d’Hitachi.

Mais ces projets Open-source ont du mal à se concrétiser. Si un logiciel Open-source se limite finalement à des lignes de code, et peut donc facilement être copié, ce n’est pas aussi simple pour l’Open-source Hardware. Il faut en effet des matériaux, parfois des outillages spécifiques et des investissements plus ou moins élevés. À part les cartes électroniques Arduino et des imprimantes 3D, les projets qui ont abouti sont donc rares.

Par Philippe Richard

Apple et l’optimisation fiscale en Europe

La Commission européenne somme Apple de verser 13 miliards d’euros à l’Irlande, plus des intérêts. Ce montant historique constitue le remboursement des avantages fiscaux jugés illégaux, octroyés à la firme par l’Irlande, entre 2003 et 2014. De quoi aligner le taux d’imposition d’Apple sur celui des autres sociétés en Irlande, à hauteur de 12,5%. Un taux déjà attractif, comparé aux 33% observés en France.

Deux ruling fiscaux pour deux filiales

La Commission européenne estime qu’il y a aide d’Etat dès lors qu’une entreprise connait un avantage fiscal, comparé à d’autres entreprises. Suite à une enquête ouverte en juin 2014, la Commission européenne estime que l’Irlande a défini deux ruling fiscaux en faveur d’Apple. Autrement dit, l’administration fiscale irlandaise a passé un accord avec deux filiales de l’entreprise, établissant des modalités d’imposition qui seraient avantageuses pour l’inventeur de l’iPhone.

Si le ruling fiscal est un dispositif parfaitement légal en soi, « les bénéfices doivent être répartis entre les sociétés d’un groupe, et entre différentes parties d’une même société, d’une manière qui reflète la réalité économique », rappelle la Commission européenne dans un communiqué. Dans le cas d’Apple, rien ne justifie la répartition « sur le plan factuel ou économique », estime-t-elle.

Concrètement, le montage financier a consisté à fonder deux filiales de droit irlandais détenues à 100 % par le groupe Apple : Apple Sales International et  Apple Operations Europe. Apple Sales International vend les produits du groupe en  Europe, en Afrique, au Moyen-Orient et en Inde, lorsque Apple Operations Europe fabrique certaines gammes d’ordinateurs. Les deux entreprises ont le droit de distribuer les produits Apple en Europe dans le cadre d’un accord avec la maison mère américaine, qu’elles financent à hauteur de 2 milliards de dollars par an. « Ces dépenses ont contribué au financement de plus de la moitié de l’ensemble des efforts de recherche déployés par le groupe Apple aux États-Unis pour développer sa propriété intellectuelle à travers le monde », relève la Commission européenne. Ces sommes sont par ailleurs déduites des bénéfices enregistrés par Apple Sales International et Apple Operations Europe en Irlande chaque année, « conformément aux règles applicables ». Un autre moyen de faire baisser son impôt en Irlande.

Un siège « fantôme » pour diminuer l’impôt

L’ensemble des bénéfices d’Apple réalisés en Europe sont enregistrés en Irlande. Ce système serait entièrement légal si les deux filiales payaient l’impôt sur l’ensemble de leurs bénéfices. Mais, depuis 1991, les ruling fiscaux cautionnent la redirection de la quasi-totalité de ces bénéfices vers un « siège » fantôme d’Apple Sales International.« Ce «siège» n’était situé dans aucun pays, n’employait aucun salarié et ne possédait pas de locaux », précise la Commission européenne, ce qui permet à l’entreprise d’échapper à l’impôt. La Commission européenne estime cette répartition interne, entre les différentes entités d’Apple, comme  totalement artificielle.

Résultat: Ces bénéfices affectés au « siège » n’étaient soumis à l’impôt dans aucun pays en vertu de dispositions spécifiques du droit fiscal irlandais jusqu’en 2015, lorsqu’Apple a modifié sa structure en Irlande. Cela a permis de faire des économies conséquentes : « le traitement fiscal accordé par l’Irlande a permis à Apple d’éviter l’impôt sur pratiquement l’intégralité des bénéfices générés par les ventes de produits Apple sur l’ensemble du marché unique de l’UE », note la Commission européenne.  « En 2011, par exemple, Apple Sales International a enregistré des bénéfices de 22 milliards d’USD (environ 16 milliards d’euros) mais aux termes du ruling fiscal, seuls 50 millions d’euros environ ont été considérés comme imposables en Irlande, 15,95 milliards d’euros de bénéfice éludant ainsi l’impôt », précise-t-elle. L’entreprise a payé moins de 10 millions d’impôts en 2011, soit un  taux d’imposition effectif d’environ 0,05 % de ses bénéfices annuels totaux. Puis, bien que les bénéfices de l’entreprise aient augmenté, cela n’a pas été le cas des bénéfices considérés comme imposables en Irlande selon les termes du ruling fiscal. Au final, le taux d’imposition a atteint 0,005 % en 2014, selon la Commission européenne.

Apple nie avoir bénéficié d’avantages !

Apple a annoncéson intention de faire appel de cette décision. Dans un entretien paru le 1er septembre dans le quotidien Irish Independent, le PDG d’Apple, Tim Cook, qualifie ce redressement fiscal de « merde politique totale ». Il estime qu’Apple et l’Irlande ont « joué dans les règles » et qu’ils gagneront le cas en appel .

Dans un message adressé à la Communauté Apple le 30 août, Tim Cook avait déjà réagi avec virulence.« Nous n’avons jamais demandé, ni reçu, de traitement spécial, défendait-il. Nous nous trouvons à présent dans la situation inédite de devoir payer rétroactivement des impôts supplémentaires à un gouvernement qui déclare que nous ne lui devons rien de plus que ce que nous avons déjà payé ». Il assurait alors que son entreprise paye toujours les impôts dont elle est redevable.

Apple conteste fermement le faible taux d’imposition relevé par la Commission européenne en 2014. L’entreprise assure avoir payé 400 millions d’euros d’impôts en Irlande en 2014. Par ailleurs, elle déclare avoir payé 400 millions de dollars supplémentaires au fisc américain sur ses profits réalisés en Europe en 2014, ainsi que plusieurs milliards de dollars en impôts différés pour cette même année.

De son côté, l’Irlande conteste aussi  la décision de la Commission. Pour cause : sa politique économique est basée sur un taux d’imposition à 12,5% qui attire start-up et grandes entreprises du secteurs des nouvelles technologies :  Google, Facebook, Twitter, Amazon, Airbnb, et Paypal… Le pays s’est spécialisé en terre d’accueil pour les multinationales extracommunautaires qui veulent s’attaquer au marché européen, tout en ne subissant pas une imposition massive. Une politique qui lui vaut les grâces d’Apple depuis 1980, ayant permis la création de plus de 6.000 emplois dans le pays.

Par Matthieu Combe, journaliste scientifique

La 5G promet l’hyper mobilité

Aux JO de Rio, le grand gagnant a été… le smartphone. Au Brésil, il a confirmé son statut de maillon essentiel à toute communication (professionnelle et événementielle avec les réseaux sociaux et l’omnicanalité). De nombreuses applications permettaient de suivre les différentes épreuves et de découvrir de multiples statistiques.

Les particuliers ne peuvent plus s’en passer pour partager des vidéos et des images.

Cet appareil est également de plus en plus utilisé pour des usages métier (Cloud computing et virtualisation).

Dès lors, le moindre ralentissement ou dysfonctionnement de cet accès peut engendrer des frustrations. Rien de tout cela avec la 5G. Les échanges seront 100 fois supérieurs (débit théorique) à ceux proposés par la 4G.

Tous les poids lourds des télécoms s’y préparent déjà. Et ils multiplient les promesses. « Dans l’histoire de la téléphonie mobile, la 3G a permis de rapprocher les gens, grâce à la vidéoconférence sur les portables. Puis la 4G a facilité l’utilisation d’internet à grande échelle et la transmission de vidéos grâce au haut débit. Avec la 5G, nous allons vers un changement de paradigme complet. Nous pourrons dès lors emmener nos familles en voyage avec nous grâce à la réalité virtuelle », a expliqué Peiying Zhu, experte au Technologies Lab de Huawei, lors du Huawei Innovation Day 2016 qui s’est tenu cet été à Paris.

De son côté, Luke Ibbetson, directeur de la recherche et du développement pour le groupe télécom britannique Vodafone déclare que « la 5G permettra d’intégrer l’internet des objets. Nous allons vers un environnement où tout sera interconnecté, des transports publics à la gestion urbaine des déchets ».

Mais avant de profiter de ces nouveaux services, il faudra que la 5G franchisse les différentes étapes menant à sa normalisation. Un parcours semé d’embûches. Depuis l’avènement de la 3G, le monde des télécoms a beaucoup évolué. Les géants asiatiques vont s’inviter dans les négociations visant à retenir telle ou telle technologie. À côté des équipementiers Cisco, Ericsson et Nokia, il faudra dorénavant compter avec Huawei (à la fois équipementier et fabricant de smartphones) mais aussi avec le coréen Samsung et l’autre chinois ZTE.

Il faudra aussi tenir compte de la position des opérateurs peu enclins à investir autant que dans la 3G… « L’Europe veut se positionner de manière forte sur la 5G. Je suis très attentif à la volonté de la Commission européenne, et notamment celle du commissaire à l’économie numérique Günther Oettinger, de développer une vision qui soit industrielle et non pas seulement tournée vers les consommateurs. Mais nous faisons actuellement face à une situation de bras de fer. La majorité des opérateurs européens ont signé un document publié début juillet 2016, le manifeste pour la 5G. Ce rapport se conclut par un chantage : les acteurs du monde des télécoms ne veulent bien consentir aux investissements nécessaires au développement de la 5G que si les régulateurs d’Europe reviennent sur le principe de la neutralité du Net », constate Sébastien Soriano, président de l’Autorité de régulation des communications électroniques et des postes (Arcep).

Pour éviter la guerre des opérateurs, les équipementiers visent les fréquences sans licence. Intel et Nokia préparent des stations capables de gérer la Licence Assisted Access (LAA) en ce sens.

Philippe Richard

Recherche : les oiseaux intensifient leurs soins lorsque leurs poussins sont stressés

Cette découverte, issue du travail de thèse d’Emilie Perez sous la direction de Clémentine Vignal et en collaboration avec deux équipes internationales est une avancée importante dans la compréhension de la communication parents-jeunes.

En effet, bien qu’il soit connu que les oiseaux répondent aux cris de quémande de leurs poussins en leur apportant de la nourriture, les caractéristiques de ces cris qui permettent de renseigner les parents sur les besoins de leurs jeunes, étaient une question ouverte.

Les diamants mandarins sont de petits passereaux grégaires australiens formant des couples monogames fidèles à vie et partageant les soins aux jeunes.

Dans cette étude, les chercheur-ses ont travaillé dans le désert australien sur une population sauvage naturellement présente en Nouvelle Galles du Sud. En administrant de l’hormone de stress à des poussins et en enregistrant leurs cris de quémande avant et après administration, l’équipe s’est aperçue que les poussins stressés émettaient des cris plus aigus.

Afin de mesurer l’effet de ces cris sur le comportement des parents, leurs allées et venues ont été suivies grâce à des puces radiofréquences fixées à leur bague d’identification. Cette technique a révélé que les parents des poussins stressés passaient non seulement plus de temps à chercher de la nourriture mais également plus de temps au nid auprès de leur progéniture.

Le bénéfice de ce changement de comportement des parents pour les poussins est mesurable puisqu’en fin d’étude, les poussins aux cris plus aigus avaient pris plus de poids que ceux des nids qui n’avaient pas reçu d’hormone.

Ces résultats montrent ainsi pour la première fois que le stress est une information présente dans les cris de quémande des poussins qui peut permettre aux parents d’ajuster leur soin à la progéniture. Cette communication du stress pourrait être une caractéristique commune à l’ensemble des espèces dont les adultes prodiguent des soins aux jeunes, mais ceci reste à être exploré.

Références :
Perez, E. C., Mariette, M. M., Cochard, P., Soulage, C. O., Griffith, S. C., & Vignal, C. (2016). Corticosterone triggers high-pitched nestlings’ begging calls and affects parental behavior in the wild zebra finch. Behavioral Ecology, arw069. Site web de la revue internationale

Source : cnrs

Job Pal : un “chatbot RH” pour remplacer les entretiens initiaux

Pour les entreprises, recruter prend du temps, du décortiquage de CV aux entretiens en série, avec l’espoir de trouver un candidat correspondant à toutes les “exigences” requises.

Avec le développement récent (par Facebook, Google et Microsoft) des “chatbots”, ces robots intelligents avec qui converser, et à qui demander des services, des développeurs ont eu une idée : confier à ces robots les “entrevues initiales” normalement effectuées par des recruteurs humains.

IMG_5898

Fort de son “expérience dans l’industrie du recrutement”, l’entrepreneur allemand Luc Dudler a d’abord lancé Mihiro, une plateforme mobile destinée à mettre en relation recruteurs et candidats, avant de créer Job Pal, “le premier chatbot recruteur au monde”. Son robot tourne pour l’instant sur Facebook Messenger, mais il est destiné à fonctionner sur n’importe quelle application.

“Juste 3 questions”

Job Pal met les demandeurs d’emploi (qui passent beaucoup de temps en ligne) en relation directe avec les entreprises (pour l’instant, uniquement aux USA, dans les secteurs du marketing et des ventes). Avec pour objectif “d’éliminer les millions d’heures, souvent inutiles, d’entretiens”, et de “faire gagner du temps” aux recruteurs lorsqu’ils effectuent leur premier “tri”, entre candidats “appropriés” et candidats “inappropriés”.

Le principe de Job Pal, qui repose sur l’apprentissage automatique et le traitement du langage naturel, est simple et assez intuitif. Le chatbot essaie d’abord de vous connaître – il collecte des données. Il vous demande ainsi où vous habitez, quelle est votre adresse email, et quel métier vous recherchez.

4

Ensuite, grâce à la géolocalisation et à des accords avec un bon millier d’entreprises, il vous fait des propositions de postes – par exemple “manager chez IBM”, “streaming media manager” chez NPR (la chaîne de radio de Washington), ou “community manager” chez Lyft, un concurrent d’Uber.

Viennent ensuite les questions, ciblées et pré-programmées, qui “répondent aux exigences de base du poste”, et qui lui permettront d’établir votre “profil” avant de l’envoyer (ou non) à l’entreprise recruteuse. “Je vais vous posez juste 3 questions, qui ne devraient vous prendre que 3-4 minutes de votre temps”, vous lance Job Pal. Au programme : “quelle a été votre plus belle expérience professionnelle”, “de quel travail accompli êtes vous le plus fier” ; “quelles sont les compétences que vous admirez le plus”.

Et “le contact humain” dans tout ça ?

Vos réponses sont ensuite “analysées” par le robot – Job Pal ne donne pas de détails, mais il est fort probable que vos messages sont comparés à d’autres dans un répertoire de profils, qui est nourri et affiné grâce à une méthode d’apprentissage automatique. Pour Luc Dudler, c’est certain : “l’IA contribuera dans le futur à révolutionner l’industrie du recrutement, d’une façon jamais vue ces 20 dernières années”.

Et si “la collecte de données sur les candidats et la vérifications des exigences de base du poste dans une interface de chat peut sembler être un petit pas, cela signifie déjà un énorme gain de temps et d’argent pour les grandes entreprises”, écrit le fondateur de Job Pal… pour qui un jour, “avec les progrès de l’IA”, nous seront “capables d’automatiser encore plus d’étapes” dans le processus d’embauche, afin de laisser les recruteurs “se focaliser sur ce qui compte vraiment : les candidats pertinents”.

Pour Jo Allison, du cabinet Canvas8, il manque à ce genre de chatbot le “contact humain”. Ainsi, explique-t-elle, “quand vous parlez en tête-à-tête avec quelqu’un, vous pouvez le taquiner sur certaines choses, le titiller… Un chatbot ne sera jamais en mesure de le faire”.

Par Fabien Soyez

Energies renouvelables : quand le PDG d’EDF oublie un pays modèle, le Portugal

« A part pour quelques pays peu peuplés et très bien dotés d’énergies renouvelables, comme l’Islande ou la Norvège avec l’hydraulique, je ne crois pas que les énergies renouvelables puissent représenter une part majoritaire de la production d’électricité avant plusieurs décennies ». C’est ce que déclare le 26 août 2016 Jean-Bernard Levy dans un entretien accordé au journal Les Echos signé Véronique Le Billon et David Barroux.

Contrairement à l’Islande et à la Norvège, le Portugal a la même densité de population que la France. Ce qui rend caduc le premier argument de Jean-Bernard Levy. De plus il dispose de ressources hydro-électriques au fil de l’eau modestes. Pourtant il répond aujourd’hui à la majorité de ses besoins grâce aux EnR. Comment est-ce possible ?

En 2005 seulement 16% de l’électricité de ce pays du littoral atlantique était renouvelable, un niveau aussi modeste que celui observé aujourd’hui en France. Le seuil des 50% a été franchit dès 2010. Soit seulement 5 ans après. La transition énergétique, quand on a vraiment la volonté de la réaliser, peut ainsi être très rapide. En 2014, le Portugal a atteint 63% d’EnR.

Le pays du fado a même répondu à 97% de sa demande pendant 4 jours consécutifs en mai 2016 (Lire sur Techniques de l’Ingénieur l’article : Le Portugal 100% renouvelable pendant 4 jours ?). La STEP (Station de Transfert d’Energie par Pompage) d’Alqueva II, équipée par le français Alstom, a été inaugurée en 2013. Elle permet de stocker l’énergie électrique quand la ressource éolienne est abondante, et de la restituer quand elle est plus rare.

La France métropolitaine,  jouissant de trois façades maritimes, dispose d’un potentiel éolien très élevé. L’ADEME a d’ailleurs montré que l’hexagone peut répondre aux 2/3 de sa demande électrique avec l’énergie du vent. Jean Bernard Levy a-t-il également oublié cette donnée scientifique essentielle pour la qualité du débat énergétique ?

Le temps, c’est de l’argent. Le PDG d’EDF, manifestement, cherche à en gagner. Une transition rapide vers les EnR serait en effet nuisible à la rentabilité, déjà compromise par l’effondrement du prix de l’électricité sur le marché, des centrales nucléaires en place. Pourquoi ne pas dire clairement cette vérité  au lieu de chercher par tous les moyens à dénigrer les EnR ?

Même des îles isolées parviennent à présent à atteindre de très hauts niveaux d’éolien. La France, électriquement connectée à de nombreux pays, serait-elle incapable de faire aussi bien que le Portugal ou que la communauté isolée de Marble Bar et Nullagine en Australie qui répond à 60% de sa demande électrique annuelle grâce au solaire photovoltaïque ?  Ceci grâce à une approche intelligente mise au point par le géant helvético-suédois ABB et reposant  sur les volants d’inertie permettant de réguler à volonté tension et fréquence.

Le potentiel du solaire photovoltaïque en toiture (a lui seul) est de 400 TWh par an en France selon l’ADEME. Pays dont la demande électrique totale est d’environ 500 TWh par an. Le passage à un parc automobile 100% électrique n’induira qu’une hausse de 10 à 15% de cette demande.

Quand on veut, on peut.

Olivier Daniélo

Les ingénieurs tentés par l’étranger

Selon l’édition 2016 de l’enquête d’Ingénieurs et scientifiques de France (IESF), sur les 780 000 ingénieurs formés en France encore en activié, hors doctorants et retraités, 34% travaillent en Île-de-France, 50% en province et dans les DOM et 16% à l’étranger. Sur les 17.000 ingénieurs préparant une thèse dans un cadre professionnel en 2015, 30% étaient à Paris, 50% en Province et 20% à l’étranger.

Les ingénieurs expatriés s’installent principalement en Europe (70.500), sur le continent américain (24.050) et en Asie (17.750). Loin derrière, l’Afrique et l’Océanie accueillent respectivement 8.050 et 3.650 ingénieurs formés en France. Les principaux pays d’accueil sont la Suisse (16.150), les Etats-Unis (14.250), l’Allemagne (13.400) et le Royaume-Uni (11.050). « Ces quatre pays tiennent la tête depuis de nombreuses années », relève le rapport. A eux ils, ils accueillent presque la moitié des ingénieurs installés à l’étranger.

La proportion de femmes travaillant à l’étranger demeure inférieure à celle des hommes. Elle a néanmoins tendance à augmenter chez les nouvelles générations et l’écart se réduit. Globalement, les jeunes ingénieurs sont davantage attirés par l’expérience au large que les aînés. 19,6% des hommes de moins de 30 ans ou âgés entre 30 et 39 ans travaillent à l’étranger (15,2% des femmes). Cette proportion baisse à 15,9% entre 40-49 ans et 11,7% entre 50-64 ans pour les hommes (respectivement 8,7% et 5,5% pour les femmes).

Un salaire nettement plus élevé

64% des ingénieurs en poste à l’étranger estiment que la qualité de vie est meilleure à l’étranger. 71% pensent que les opportunités professionnelles sont supérieures à ce qu’ils pourraient connaître en France 79% que leur rémunération y est plus élevée. Et pour cause, le salaire médian des ingénieurs partis à l’étranger est de 85.000€, contre 56.000€ en France. C’est pourquoi 37% des ingénieur partis à l’étranger n’envisagent pas de revenir en France et 24% demeurent indécis quant à un retour éventuel. Seulement 8% prévoient un retour d’ici moins d’un an, 17% à moyen terme et 13 % à long terme.

Si les salaires sont plus élevés en Ile-de-France qu’en Province, les écarts de salaires sont nettement avantageux à l’étranger. A une exception près : travailler dans l’agriculture, la sylviculture ou la pêche semble être plus intéressant à Paris!

tableaux_emploi2
Revenus selon le secteur d’activité

Partir, rester à l’étranger ou revenir?

L’attrait pour l’étranger démarre en général bien avant le diplôme. 46% des ingénieurs formés en France, qui travaillent aujourd’hui à l’étranger, avaient déjà fait des stages dans un autre pays pendant leurs études. 25% avaient étudié ou décroché un double-diplôme à l’étranger et 10% ont des liens familiaux avec le pays qu’ils rejoignent.

Une fois qu’ils ont goûté au travail à l’étranger, les ingénieurs y prennent goût : 33% des expatriés déclarent avoir déjà travaillé à l’étranger avant leur expérience actuelle. Si 7% des ingénieurs français ont un projet de départ en cours, l’étranger n’est pas un El Dorado recherché pour tout le monde. 69% des ingénieurs travaillant en France n’envisagent pas de quitter le pays et 28% ont décliné une offre de travail à l’étranger.

Par Matthieu Combe, journaliste scientifique

Le diplôme d’ingénieur reste une bonne voie vers l’emploi

L’édition 2016 de l’enquête d’Ingénieurs Et Scientifiques de France (IESF) dresse un portrait élogieux des débouchés en sortie d’école d’ingénieur. En 2015, les nouveaux ingénieurs ont trouvé plus rapidement un emploi que les deux années précédentes et les salaires ont augmenté. Tous les indicateurs sont au vert et supérieurs à ceux enregistrés pour les promotions 2013 et 2014 : proportion d’emplois trouvés en moins de 2 mois, taux de CDI, taux net d’emploi, proportion d’emplois de cadres, salaires… 76,8% des ingénieurs en poste s’estiment satisfaits de leur emploi.

En début de carrière, les salaires moyens sont passés de 35.300 € à 35.800 € entre 2014 et 2016.

Les salaires augmentent au cours de la carrière ; le salaire médian annuel s’élève à 56 000 € par an, soit 17% de plus que le salaire médian des cadres.

Le secteur tertiaire et l’industrie, en tête des embauches

On constate toujours une forte dynamique de recrutement. 106.170 ingénieurs ont été recrutés, ou ont créé leur emploi, en 2015. Parmi ces recrutements, 31,1% sont des premières embauches. 61,2% constituent un changement d’employeur et 5,3% un changement de poste au sein de la même entreprise ou du même groupe. Enfin, 2,4% sont des postes créés par un ingénieur pour lui-même.

Si l’industrie demeure le premier secteur d’activité, c’est le secteur tertiaire qui remporte la palme de l’embauche en 2015. Le secteur tertiaire a recruté 35.860 ingénieurs, contre 32.650 pour l’industrie, principalement en France.

tableaux_emploi1
Recrutements en 2015, selon le lieu et le secteur

Les ingénieurs, peu touchés par le chômage

Les ingénieurs sont relativement épargnés par le chômage. Seulement 4,4% sont à la recherche d’un emploi, dont 1,3% en recherche de leur premier emploi. Un taux nettement inférieur à celui de la population active en France et inférieur à celui des cadres. Jusqu’à 45 ans le chômage demeure rare, « probablement dans une zone incompressible », observe l’IESF. Au-delà, il augmente avec l’âge : 4,8% chez les 50 – 54 ans, 4,9% pour les 55 – 59 ans et 8% dans la tranche 60-64 ans.

Pour les ingénieurs, mieux vaut être jeune lorsque l’on veut changer de travail. Sur les 40% d’ingénieurs âgés de 30 à 39 ans qui ont changé d’employeur en 2015, seulement 13% sont passés par la case chômage et 2% y sont restés au moins un an. Un changement d’employeur est plus risqué après 50 ans et les ingénieurs y réfléchissent à deux fois avant de changer de poste. Seulement 17% des plus de 50 ans ont passé ce cap en 2015. Parmi eux, 25% ont connu une période de chômage, qui a duré au moins un an pour près de la moitié d’entre eux.

21% des derniers diplômés étaient à la recherche d’un emploi fin 2015. Deux mois plus tard, ils n’étaient plus que 14%. « Cette différence […] permet de souligner la vitesse d’absorptiondu flux d’ingénieurs entrant sur le marché du travail », se félicite l’IESF. Enfin, la confiance augmente : pour les ingénieurs déjà en poste, la crainte de perdre son emploi dans l’année est moins élevée que l’an dernier (9,4% contre 10,7%).

Par Matthieu Combe

L’innovation mettra-t-elle fin au travail ?

« Le numérique détruit et crée des emplois, mais surtout en transforme », estime France Stratégie, commissariat général à la stratégie et à la prospective, rattaché au Premier Ministre. Loin des scénarii les plus alarmistes, l’analyse suggère que l’automatisation engendre un besoin accru en « compétences sociales », de telle sorte que la machine devient complémentaire à l’homme dans le travail, mais ne le remplace pas totalement.

Les emplois sont de moins en moins automatisables

Une publication fortement médiatisée en 2013, a jeté un pavé dans la mare : dans 20 ans, près de la moitié des emplois aux Etats-Unis, en France, en Europe ou encore au Japon seraient automatisés. « Sauf que cette étude raisonne en termes de métiers et non de tâches », remarque France stratégie. Elle oublie de prendre en considération le travail en équipe, les interactions sociales nécessaires et autres facultés dont ne dispose pas le robot.

En adoptant une approche en termes de compétences, « la prévision tombe à 15 % », estime l’organisme. Soit 3,4 millions d’emplois. Ce chiffre monte à 25 % pour les emplois industriels automatisables et baisse à 13 % pour les métiers de services, plus fréquemment en relation avec le public. 40% des métiers (9,1 millions) apparaissent au contraire comme peu automatisables, car ils nécessitent de répondre immédiatement à une demande extérieure, avec un besoin d’adaptation.

Des métiers qui évoluent rapidement

Les emplois ont fortement évolué ces dernières années. « Le nombre des emplois peu automatisables a augmenté de plus de 30 % depuis 1998, une hausse imputable à la place croissante des services dans l’économie mais aussi, et surtout, à une transformation du contenu des métiers qui se recentre sur les tâches les moins automatisables », prévient France Stratégie. Ces tâches nécessitent des interactions sociales, de l’adaptabilité, de la flexibilité ou de la capacité à résoudre des problèmes.

Le recentrage des métiers sur les tâches les plus difficilement automatisables est un phénomène global. Il s’observe globalement au sein des métiers administratifs : secrétaires, employés des services comptables et administratifs, agents d’accueil et d’information… Dans le secteur bancaire, le développement des distributeurs de billets automatiques et des services de banque en ligne a également transformé les métiers. « 61% des employés déclarent occuper un emploi nécessitant une réponse immédiate à une demande extérieure et ne devant pas toujours appliquer des consignes strictes, contre 35 % en 2005 », relève France Stratégie.

Néanmoins, ce n’est pas parce qu’une technologie existe, qu’elle sera forcément déployée à large échelle. D’autres facteurs sont à prendre en compte, comme « le mode d’organisation du travail, l’acceptabilité sociale et la rentabilité économique », souligne l’organisme. Pour appuyer sa réflexion, le Commissariat général à la stratégie et à la prospective donne des exemples concrets. « Malgré des développements technologiques importants et alors qu’ils sont techniquement automatisables, le nombre d’emplois de caissiers en France n’a diminué que d’environ 10 % en dix ans passant de 205 000 à 185 000 », détaille-t-il. Par ailleurs, si l’industrie allemande est l’une des plus robotisées au monde, elle employait encore plus de 800 000 salariés en 2015, soit autant qu’il y a dix ans et 100 000 de plus qu’il y a vingt ans. Preuve que ce n’est pas parce qu’une activité est robotisée, qu’elle peut se dispenser de salariés.

Quels métiers vont continuer à se développer?

Au cours des dernières décennies, l’économie française s’est transformée, donnant une part de plus en plus belle aux emplois qualifiés (ingénieurs, cadres, enseignants et chercheurs), mais aussi à certains métiers peu qualifiés de services (aides à domicile, assistantes maternelles…). « On compte aujourd’hui dans l’emploi deux fois plus de cadres et de professions intellectuelles qu’au milieu des années 1980 », relève France Stratégie, avant de souligner que « l’automatisation et robotisation sont propices à créer des emplois dans la R&D, la conception, la production, la commercialisation ou encore la maintenance d’automates ».

Dans une autre note, intitulée « 2017-2027, Quels leviers pour l’emploi ? », France Stratégie estime que d’ici à 2022, près d’un poste à pourvoir sur cinq pourrait concerner des métiers peu qualifiés (voir graphique). En parallèle, les métiers de cadres et professions intermédiaires augmenteront, notamment dans le secteur des services (plus de 42 % des emplois en 2022). Les ingénieurs informatiques et des télécoms ont également de beaux jours devant eux. L’organisme estime que le numérique et l’automatisation vont faire émerger de nouvelles activités économiques, en rendre d’autres obsolètes, mais surtout transformer radicalement les emplois, en valorisant les compétences non automatisables, comme les capacités d’abstraction ou d’interaction sociale.

metiers-recrutent-2012-2022
Métiers qui offriraient le plus de postes à pourvoir entre 2012 et 2022, en milliers (cliquer pour agrandir)

Par Matthieu Combe, journaliste scientifique

De plus en plus de femmes ingénieures

L’édition 2016 de l’enquête d’Ingénieurs et scientifiques de France (IESF) note « une progression spectaculaire du nombre de femmes ingénieures ».  Avec 29% de diplômées en 2015, ce sont 11.000 nouvelles femmes ingénieurs qui vont ou ont rejoint le monde du travail.

Les choses évoluent peu à peu. Parmi les jeunes de 23 et 24 ans en 2015, une femme sur 34 est ou deviendra ingénieur. Contre seulement une femme sur 500, il y a 60 ans. En 1973, 600 femmes avaient obtenu le titre d’ingénieure, « soit à peine 5 % du nombre total de diplômés ». En 1980, la proportion montait à 10%.

Concrètement, 31,5% des ingénieures ont moins de 30 ans, 33,5% entre 30 et 39 ans et 20,5% entre 40 et 49 ans. Seulement 11,7% des ingénieures ont entre 50 et 64 ans et 3,4% plus de 65 ans (contre 15,6% des ingénieurs homme).

Où retrouve-t-on les ingénieures?

La féminisation du métier se concentre dans quelques secteurs. « Les femmes sont plus présentes dans la fonction publique que les hommes [17,3% vs. 9,8%] et donc moins dans l’industrie [35,5% vs. 40,3%], leur présence dans le secteur de l’agro-alimentaire et la chimie est sensiblement au-dessus de la moyenne, observe l’IESF. Le domaine de la mécanique et des STIC est à l’inverse nettement au-dessous de la moyenne. »

Les femmes travaillent moins d’heures que les hommes : elles ne sont que 43,2% à travailler plus de 45 heures par semaine, contre 60,1% des hommes. 20,9% travaillent moins de 40 heures par semaine (contre 10,2% des hommes) et 35,9% travaillent entre 40 et 44 heures (contre 29,7%).

D’importantes inégalités demeurent

Les femmes ingénieurs ont plus de difficulté à obtenir le statut de cadre. Elles ne sont que 91,2% à avoir le statut, contre 95,7% des hommes. Elles ont également moins accès au CDI (81,4%, contre 89,2% pour les hommes), au bénéfice du CDD (6,5% contre 3,1%). En contrepartie, elles sont davantage titularisées de la fonction publique (9,9% contre 5,6% pour les hommes). Par ailleurs, tout au long de leur carrière, les femmes occupent moins de postes à responsabilité hiérarchiques (37,1% contre 52,2% pour les hommes).

Les ingénieures n’y échappent pas : leur salaire est bien plus faible que leurs homologues masculins. Le salaire brut médian des femmes est de 48 000 €, contre 59 000 € pour les hommes. En fin de carrière, le salaire médian des hommes atteint 100 000 € brut par an, celui des femmes 85 000 €.

Si les salaires médians des moins de 30 ans présentent un écart de 2.500 €, celui-ci se creuse avec l’âge. Les salaires médians enregistrent un écart de 4.415 € pour les 30-39 ans, 9.703 € pour les 40-49 ans et 13.462 € pour les 50-64 ans. Si l’on ne s’intéresse qu’aux salaires les plus élevés (3e quartile), l’écart atteint 20 500 €. Le salaire médian est alors de 64 000 € pour les femmes, contre 84 500 € pour les hommes !

Par Matthieu Combe, journaliste scientifique

Des poissons en plastique !

Source : UniverscienceTV