Hinkley Point : Décision « finale » d’investissement le 28 juillet

Pour la direction d’EDF, le temps de la concertation est passé. Le projet Hinkley Point C, qui prévoit la construction de deux EPR (1 700 MW) dans le sud de l’Angleterre pour 18 milliards de livres (21,6 milliards d’euros), doit être définitivement validé afin de passer aux étapes suivantes. EDF justifie sa décision par le fait que « ce projet a fait l’objet depuis 2013 d’un large partage d’informations avec les salariés et leurs représentants, illustrant ainsi l’attachement de l’entreprise à mettre en œuvre une démarche de dialogue social de qualité ». Une version contestée par l’intersyndicale de l’entreprise qui ne compte pas laisser faire.

Référé

En rendant « copie blanche » début juillet, le Comité central d’entreprise (CCE) d’EDF dénonçait le « délai extrêmement court et inadapté à un projet d’une telle ampleur » et l’absence d’informations précises. Le CCE a fait un pas de plus en lançant une procédure en référé d’heure à heure pour le retrait du dossier Hinkley Point. Cette démarche permet d’obtenir de la Justice une décision provisoire dans un délai de 48h à quelques jours. Le CCE espère ainsi obtenir la suspension de tous les effets des délibérations qui seraient prises par le conseil. Une décision qui s’explique par la volonté de passage en force de la direction, le manque d’informations transmis aux représentants des employés et l’audience fixée au 22 septembre prochain, selon le CCE. Sur le fond du dossier, il ne cache pas ses craintes : « Prétendre qu’une décision précipitée sur Hinkley Point va sauver la filière nucléaire est une vaste escroquerie intellectuelle et une faute politique. Au moment où la filière nucléaire française se retrouve fragilisée par des années d’absence de stratégie industrielle de l’Etat, cette décision risque en effet d’avoir des conséquences dramatiques sur cette filière industrielle, les investissements d’EDF sur le territoire national et par conséquent l’emploi en France. Alors que la priorité de la filière est le grand carénage dont le financement est mis en risque par le montage financier d’Hinkley Point, cette décision est totalement incompréhensible ».

Enquête de l’AMF et Brexit

Ce nouveau rebondissement fait suite à une autre mauvaise nouvelle pour EDF : la perquisition de son siège par des agents de l’Autorité des marchés financiers (AMF) la semaine dernière. « Trois personnes de l’AMF se sont présentées chez EDF et ont donc démarré un processus d’enquête portant sur l’information financière qu’EDF a donnée au marché depuis 2013 » concernant les projets de Grand Carénage et de Hinkley Point C, a indiqué l’AFP.

Le Brexit complique enfin un peu plus encore une situation qui n’était déjà guère à l’avantage des promoteurs du projet. Malgré des annonces rassurantes, les conséquences économiques et financières de la sortie du Royaume-Uni de l’Union européenne sont encore impossibles à prévoir, de sorte que tout investissement massif est sujet à davantage d’incertitudes. L’Etat, actionnaire à 85% d’EDF, soutient sans réserve le projet qui doit conforter la place d’EDF comme premier électricien au Royaume-Uni en volume, et valoriser le réacteur français de nouvelle génération.

Romain Chicheportiche

Apple lance son porte-monnaie en France

Disponible depuis le 19 juillet, l’Apple pay va-t’il booster le paiement mobile dans l’hexagone ? Pour l’instant, 19% des Français règlent chaque mois des achats sans contact avec une carte bancaire et 7% avec leur mobile, selon l’observatoire du paiement digital de l’institut Future Thinking.

Équipé d’un iPhone SE, iPhone 6 (Plus), 6 s (plus) ou d’une Apple Watch jumelée à un iPhone 5 au minimum, vous n’avez plus besoin de sortir votre carte bancaire pour régler vos achats à la Fnac, Boulanger, Carrefour, La Grande épicerie, Cojean, Flunch, Total ou Dior. L’utilisation de ce service est simple. Premièrement, il faut enregistrer votre carte bancaire dans l’application Wallet de votre smartphone. Si vous avez déjà une carte enregistrée sur votre compte iTunes, il suffit juste de l’ajouter au service Apple Pay en saisissant son code de sécurité.

Ensuite, dans un magasin, il suffit de placer votre doigt sur le capteur d’empreinte digitale Touch ID de votre iPhone (afin de valider votre règlement paiement) puis d’approcher votre téléphone près de l’écran du terminal de paiement (à environ 2,5 cm du lecteur). La transaction est terminée. Officiellement, il n’y a pas de risque d’utilisation frauduleuse de votre porte-monnaie Apple. Un voleur ne peut effectuer aucun achat sans l’empreinte digitale du propriétaire. Autre mesure de sécurité : en réglant votre achat avec l’Apple Pay, le commerçant recevra le paiement, mais il n’obtiendra pas vos informations bancaires. Une précaution visant à limiter les impacts d’une attaque informatique touchant le site du commerçant par exemple.

La liste officielle des partenaires du géant américain est trompeuse. Elle laisse à penser que l’Apple pay ne peut pas être utilisé ailleurs. En réalité, le service d’Apple est compatible avec n’importe quelle borne NFC (Near Field Communication ou Communication en champ proche, c’est-à-dire une connexion sans fil) installée chez un commerçant.

Mais Apple n’est pas le seul à vouloir gérer nos achats. Google est aussi sur les rangs. Son application Android Pay sera bientôt disponible en France. Là aussi, c’est une occasion supplémentaire d’accélérer les paiements mobiles puisque la majorité (86 %) des téléphones fonctionnent sous Android OS (il faut néanmoins la dernière version de ce système d’exploitation pour en bénéficier et posséder un smartphone récent).

Comme d’autres systèmes de paiement, la solution de Google repose sur la technique du jeton (ou token). Cela signifie que ce ne sont pas les numéros de la carte bancaire qui sont transmis, mais un jeton à usage unique.

Autre concurrent de poids : Samsung. Disponible en Asie, aux États-Unis et en Espagne, il nécessite de posséder un Galaxy S7 ou un Galaxy S6 (ou ses déclinaisons). Mais le fabricant coréen de téléphones n’a pas encore lancé son service en France.

Sur le papier, ces services semblent séduisants. Mais pour ces poids lourds de la high tech, le but est de récupérer des données personnelles sur nos activités en tant que consommateur… Par ailleurs, les lecteurs d’empreintes digitales ne représentent une solution très sécurisée. Des hackers ont démontré qu’elle présentait des failles.

Par Philippe Richard

Créer un patrimoine glaciaire mondial pour les générations futures

« Dans les prochaines décennies ou même les prochains siècles, ce patrimoine englacé aura une valeur inestimable : pour des trouvailles scientifiques totalement inédites ou pour comprendre les évolutions locales de l’environnement. Je soutiens pleinement ce projet. »
Jean Jouzel, climatologue vice-président de la commission scientifique du GIEC de 2002 à 2015, prix Nobel de la Paix en 2007.

Lundi 15 août, et jusqu’à début septembre, une équipe internationale d’une dizaine de glaciologues et ingénieurs – français, italiens, russe et américains – coordonnée par Patrick Ginot, ingénieur de recherche à l’Institut de recherche pour le développement (IRD) au sein du Laboratoire de glaciologie et géophysique de l’environnement (LGGE) de l’Université Grenoble Alpes et du CNRS et Jérôme Chappellaz, directeur de recherche CNRS dans ce même laboratoire, se rendra au col du Dôme (4 300m, massif du Mont-Blanc) pour prélever les premières « carottes-patrimoine ». L’objectif est de constituer la première bibliothèque mondiale d’archives glaciaires issues de glaciers menacés par le réchauffement climatique.

Trois carottes de glace, de 130 mètres chacune, seront extraites, puis descendues par hélicoptère dans la vallée. Elles seront ensuite transportées à Grenoble au LGGE, tout en maintenant une chaîne du froid rigoureuse. L’une d’entre elles sera analysée en 2019 pour constituer une base de données disponible pour l’ensemble de la communauté scientifique mondiale. Les deux autres seront acheminées par bateau puis par véhicules à chenilles sur les hauts plateaux de l’Antarctique, en 2020, pour être stockées à la base Concordia, gérée par l’Institut polaire français Paul-Emile Victor (IPEV) et son partenaire italien le Programme national de Recherche Antarctique (PNRA). À terme, ce sont des dizaines de carottes de glace patrimoine qui devraient être stockées dans une cave, creusée sous la neige, par -54°C, le congélateur le plus sûr – et naturel – du monde.

Le glacier du col du Dôme constitue la première étape de ce projet majeur initié en 2015 par le LGGE, ainsi que par l’Université Ca’Foscari de Venise (Italie) et le CNR (Conseil national de la recherche italien), sous l’égide de la Fondation Université Grenoble Alpes. Une deuxième mission, plus longue et plus complexe, se déroulera en 2017 dans les Andes en Bolivie (glacier Illimani). D’autres pays sont déjà candidats pour s’inscrire dans ce projet et sauvegarder la mémoire des glaciers auxquels ils ont accès : l’Allemagne, l’Autriche, la Suisse, le Brésil, les États-Unis, la Russie, la Chine, le Népal, le Canada.

Pourquoi constituer cette archive maintenant ?

L’idée de créer ce projet s’est imposée quand les scientifiques ont observé la hausse des températures de plusieurs glaciers. À 10 ans d’intervalle, la température à proximité des glaciers du col du Dôme et de l’Illimani dans les Andes s’est élevée de 1,5 à 2°. Au rythme actuel, on projette que leur surface rencontrera des épisodes systématiques de fonte durant l’été d’ici quelques années à décennies. Avec cette fonte, et par la percolation de l’eau de fonte au travers des couches de neige sous-jacentes, ce sont des pages uniques de l’histoire de notre environnement qui disparaîtront à tout jamais. « Nous sommes la seule communauté de scientifiques travaillant sur les climats à voir disparaître une partie de ses archives. Il était devenu urgent de constituer ce patrimoine pour le futur, à l’instar du patrimoine mondial de semences conservé au Spitzberg », explique Jérôme Chappellaz, l’initiateur français du projet. Apport indispensable à la science environnementale et climatique, cruciale pour mieux anticiper notre avenir, la science des glaces n’aura en effet bientôt plus de matière première de qualité en provenance des régions de montagne en raison du réchauffement climatique.

« Notre génération de scientifiques, témoin du réchauffement climatique, porte une responsabilité particulière vis-à-vis des générations futures. C’est pourquoi, nous ferons don de ces échantillons de glace des glaciers les plus fragiles à la communauté scientifique des décennies et siècles à venir, quand ces glaciers auront disparu ou perdu la qualité de leur enregistrement. », conclut Carlo Barbante, initiateur italien du projet, Directeur de l’Institut des dynamiques des processus environnementaux, CNR, Université Ca’Foscari de Venise.

Une mobilisation scientifique et un mécénat d’envergure

L’IPEV, le PNRA et Communauté Université Grenoble Alpes sont associés aux organismes scientifiques initiateurs du projet, l’Université Grenoble Alpes, le CNRS, l’IRD, le CNR (Italie), l’Université Ca’Foscari et la Fondation Université Grenoble Alpes.

Le projet contribue également au Programme Hydrologique International de l’UNESCO, dans le cadre du Programme IHPVIII (2014-2021), relatif aux activités de la neige, des glaciers, de l’eau et des ressources en eau.

Ce projet bénéficie des compétences et des équipements des organismes porteurs, et est soutenu financièrement par des mécènes privés. La Fondation Université Grenoble Alpes remercie les mécènes de cette première mission, sans qui le projet n’aurait pu voir le jour : la Fondation Prince Albert 2 de Monaco, dédiée à la protection de l’environnement et au développement durable, la société Findus France, fabricant de surgelés, Claude Lorius, glaciologue français pionnier des forages glaciaires, la Fondation de la société Petzl spécialiste des équipements de montagne, GMM, constructeur de remontées mécaniques et la société Pressario, agence de presse.

Source : cnrs

Revue du web #93 : quand la science s’intéresse au sport

Blind Cap, le bonnet de natation qui guide les non-voyants

En collaboration avec l’équipe paralympique espagnole de natation, Samsung a développé le « blind cap », un bonnet de bain high tech capable notamment d’envoyer un  signal aux non-voyants lorsque le demi-tour approche.

 

Un bandeau intelligent pour détecter les commotions cérébrales

En cours d’expérimentation en Australie, ce bandeau équipé de capteurs pourrait bientôt révolutionner la détection des traumatismes – fréquents dans les sports de contact – en signalant le problème en temps réel aux médecins et aux arbitres.

 

Comment se déplace un ballon de foot ?

A la faculté des sciences du sport de Marseille Luminy, une équipe de chercheurs a créé un centre de réalité virtuelle. Une des études porte sur la perception qu’a le gardien de but de la trajectoire du ballon de foot au moment du coup franc.

 

Pratiquer le kitesurf… avec un drone

Peut-être verrons-nous naître un jour des compétitions de droneboarding ! Si vous souhaitez remplacer la voile par un drone, évitez tout de même d’utiliser un drone de loisir,  une certaine puissance est indispensable.

 

Une caméra GoPro dans l’espace

Si, habituellement, nous l’utilisons plutôt pour filmer nos exploits sportifs, la GoPro vient de faire ses preuves dans l’espace, fixée à une fusée, 120 kilomètres au-dessus de la Terre.

 

Un soutien-gorge de sport connecté

Destiné aux sportives qui souhaitent améliorer leurs performances, OmBra est un soutien-gorge de sport ultra connecté qui analyse de nombreuses informations (rythme cardiaque, évolution des sessions, objectifs, etc.) avant de les transmettre à l’application dédiée. Gadget ou réelle avancée ? Nous le saurons bientôt puisqu’il devrait être commercialisé cette année.

 

Bonus insolite – à votre avis, qui court le plus vite : le sportif ou l’autruche ?

Dennis Northcut, un joueur de football américain, a relevé un défi un peu particulier. Faire la course, un domaine dans lequel il excelle, avec Thelma, une autruche.
La clé ? L’appui !

Par Iris. T

Rachat d’Arianespace par ASL approuvé… sous conditions

Désormais, Arianespace appartient à 75% à la filiale ASL spécialement créée le 1er juillet 2015 par l’avionneur Airbus et l’équipementier Safran. ASL a ainsi racheté les parts du Cnes. Une acquisition qui était jusque là suspendue à la décision de la Commission européenne qui avait lancé, en février 2016, une enquête approfondie pour examiner le projet et veiller à minimiser un éventuel monopole, conformément au règlement européen sur les concentrations.

Cinq mois d’enquête

A l’époque, la Commission craignait « un recul de l’innovation et une hausse des prix sur les marchés des satellites des services de lancement ». Même après l’accord, la Commissaire chargée de la politique de la concurrence, Margrethe Vestager insiste encore dans un communiqué, sur l’importance « d’une industrie spatiale concurrentielle pour renforcer la base industrielle de l’UE et stimuler notre compétitivité générale ».

Limiter le monopole

C’est pourquoi ce feu vert est accompagné de conditions particulières : l’engagement des deux partenaires pour empêcher les flux d’informations susceptibles de nuire à la concurrence, limiter la mobilité des travailleurs entre les deux entités, prévoir un mécanisme d’arbitrage à inclure dans tous leurs futurs accords de non‑divulgation signés avec des tiers.

Feu vert aussi pour Ariane 6

Cette annonce constituait aussi le dernier obstacle administratif au lancement du programme Ariane 6 : « Je ne vois donc pas venir de difficultés institutionnelles qui retarderaient le projet Ariane 6 », confirme ainsi Thierry Mandon, secrétaire d’Etat à l’enseignement supérieur et à la recherche, dans une interview accordée aux Echos.

Ariane 6 devrait être commercialisée fin 2016, à des tarifs inférieurs à ceux d’Ariane 5. Un premier vol est planifié à 2020 et une capacité pleinement opérationnelle pour 2023.

Sophie Hoguin

Quand les hackers sont au service des entreprises

Les mentalités évoluent. Jusqu’à présent, les entreprises ne portaient pas en odeur de sainteté les hackers. En cause, un amalgame – trop souvent pratiqué par des médias et des hommes politiques – avec les pirates. Or, les premiers cherchent des failles pour mieux sécuriser des systèmes et des appareils, tandis que les seconds profitent de ces vulnérabilités pour en tirer profit (vol de données, paralysie d’un système informatique, etc.).

Mais à cause des attaques incessantes dont sont victimes les entreprises, certaines ont décidé de mettre de l’eau dans leur vin et d’accepter de faire appel à des hackers. Certes, cette tendance est encore très limitée en France. Mais ces concours se multiplient. Appelés « bug bounty », ils permettent de repérer des failles de sécurité. En échange de leurs trouvailles, les personnes reçoivent des entreprises des boissons, des t-shirts ou une prime, voire une offre d’emploi.

Ce fut le cas en juin. Réunis dans un hôtel de Disneyland Paris à l’occasion de la quatorzième édition de la Nuit du hack, plusieurs dizaines de hackers, étudiants ou informaticiens ont poursuivi un seul objectif : infiltrer les réseaux informatiques du moteur de recherche Qwant, de l’hébergeur OVH, du service 118712 et de l’application mobile de l’opérateur Orange.

« C’est la première fois qu’une entreprise du CAC40 s’y met », a déclaré au quotidien Le Monde Guillaume Vassault-Houlière, organisateur de la manifestation. Peu répandu en France, le « bug bounty » est un énorme marché outre-Atlantique. Apparu il y a plus de vingt ans chez Netscape – l’éditeur d’un des premiers navigateurs web – ce type de concours est adopté par les poids lourds de l’IT mais aussi d’autres entreprises (General Motors, Tesla, Western Union, United Airlines…) et même le Pentagone.

Pour Eric Filiol, Directeur du Laboratoire de virologie et de cryptologie opérationnelles (ESIEA  Ouest) et instigateur de ce type de concours lors de la Nuit du Hack en 2014  auprès de Qwant, « ces opérations sont une bonne chose et c’est sain. Mais pour l’instant, les sommes données sont peu conséquentes. Les entreprises françaises ne devront pas hésiter à rémunérer plus cher lorsque des failles critiques auront été détectées. Aux États-Unis, ils savent y mettre le prix ».

L’an dernier, Google a par exemple versé plus de deux millions de dollars à quelque 300 chasseurs de primes dans le cadre de son Vulnerability reward program. Par contre, d’autres ont été radines et se sont contentées d’offrir un mug (Facebook) ou un t-shirt (Yahoo!) pour toute rémunération de failles repérées sur leur site respectif ! Une attitude qui leur a valu de très nombreuses critiques.

Des plates-formes se sont même spécialisées dans ce domaine outre-Atlantique. Créée en 2012 par un ancien responsable de la sécurité de Facebook, HackerOne domine ce secteur et a même levé 34 millions de dollars. Elle compte aujourd’hui 500 clients et a redistribué plus de sept millions de dollars de primes.  En France, la plate-forme « Bounty factory » a été lancée début juin avec sept programmes, dont quatre « privés », c’est-à-dire accessibles seulement à certains hackers sélectionnés par l’entreprise. Environ 10.000 euros ont été reversés aux personnes qui ont découvert des vulnérabilités.

Certaines entreprises ont mis en place leur propre concours. C’est le cas d’OVH. Testé en interne, ce programme est désormais accessible sur la plate-forme bountyfactory.io. « Toute faille de sécurité signalée est étudiée, puis corrigée si besoin, par les équipes chargées de la sécurité. Chaque signalement lié à une faille avérée donnera lieu à une récompense – financière dans la plupart des cas, pouvant s’élever jusqu’à 10 000 euros – et parfois sous la forme de goodies ou de vouchers pour des failles en dehors du périmètre », explique l’hébergeur.  « Avec ce Bug Bounty, nous pouvons tester en permanence l’ensemble de nos infrastructures avec des profils différents et des compétences variées. Nous ne pourrions jamais couvrir un tel spectre sur une période aussi longue avec des audits classiques, » déclare Vincent Malguy d’OVH.

Par Philippe Richard

Quel est l’avenir de la voiture connectée ?

Bienvenue à bord d’une voiture connectée. Vous pouvez profiter de ses différentes options multimédias pour interagir avec votre smartphone pour suivre vos amis sur les réseaux sociaux, écouter de la musique, demander avec la reconnaissance vocale que le véhicule trouve un restaurant…

Dans quelques années, vous aurez à votre disposition une table tactile 32 pouces partageable en 4 et un casque de réalité augmentée pour choisir votre destination et vous y immerger. Pour l’instant, c’est un « concept van », le Traveller i-Lab, présenté au dernier salon automobile de Genève.

Au-delà de ses aspects pratiques et ludiques, la voiture connectée sera surtout capable, à compter du 31 mars 2018, d’émettre un appel d’urgence en cas d’accident (technologie eCall).

Oui, mais voilà, la mariée serait-elle trop belle ? Plusieurs enquêtes indiquent que les conducteurs ne sont pas encore convaincus. Publiée cet été, l’étude intitulée « The Retrofit Future Of The Connected Car » du cabinet Forrester montre que les Européens restent sceptiques. Ils ne sont en moyenne que 18 % à être intéressés par une connexion Internet depuis leurs voitures, 16 % par la géolocalisation des contacts, 15 % par un système vocal interactif et 7 % par un magasin d’applications.

Pour l’instant, il y a encore quelques obstacles sur la route de la voiture connectée. Panorama non exhaustif.

Les avancées

La voiture propose de plus en plus d’options pratiques.  Avec la BMW Serie 7, vous pouvez utiliser votre smartphone pour la faire avancer de quelques mètres. Pratique lorsqu’une personne vous a trop « serré » dans un parking. De son coté, la nouvelle Classe E de Mercedes peut s’ouvrir grâce au smartphone, via sa connexion NFC. Pour l’instant, les concurrents s’appuient sur une connexion 3G (inaccessible dans des parkings). À noter que Valeo travaille sur un dispositif utilisant la connexion Bluetooth du téléphone.

Les risques

Les principaux freins à la voiture connectée concernent la sécurité et en particulier la protection des données personnelles. Les quelque 60 capteurs à bord des véhicules connectés recueillent des données plus ou moins à l’insu des conducteurs. Par ailleurs, des interrogations subsistent quant au traitement des ces informations. Sont-elles stockées et sécurisées par des tiers ou par les constructeurs automobiles ? Sont-elles revendues à des assurances ou à des régies publicitaires ? Autre inquiétude, le piratage de ces véhicules. Plusieurs démonstrations ont mis en avant des failles permettant soit de le dérober facilement, soit d’en prendre son contrôle à distance !

Reste la question de la sécurité routière. Il ne s’agit pas ici de faire l’amalgame avec la voiture autonome (et notamment l’accident mortel avec une Tesla aux USA en mai dernier), mais de l’aptitude du conducteur à rester concentré avec toutes ces tentations ludiques et pratiques. Plusieurs rapports ont démontré la baisse de vigilance des conducteurs. Quand sera-t-‘il demain avec la réalité augmentée qui affichera des informations sur le pare-brise ?

Les projets

Tous les géants de l’électronique et les constructeurs planchent sur des projets permettant aux voitures connectées de « dialoguer » avec divers objets, notamment ceux gérant notre domicile. C’est déjà le cas avec l’application Smart Home App de Deutsche Telekom qui permet aux possesseurs de BMW i3 de régler la température de chauffage, de baisser les rideaux, de déverrouiller un portail…

Autre future application : le paiement de sa place de parking. Dans certaines voitures connectées, il est déjà possible d’acheter des applications en ligne. Visa via ce projet développé avec DocuSign veut s’attaquer au paiement des stationnements et des péages pour lesquels il faut souscrire à des abonnements spécifiques.

Par Philippe Richard

Espagne : Les énergies renouvelables atteignent la parité réseau

La surprise a été totale pour les grands électriciens espagnols. Alors que le gouvernement de Mariano Rajoy a drastiquement réduit les soutiens financiers aux énergies renouvelables, le voilà qui organise deux appels d’offres en un an, cumulant 2 700 MW (l’équivalent de 3 réacteurs nucléaires de G2). Sur les 93 000 kTep de consommation énergétique, seuls 16 000 kTep étaient issus de productions renouvelables (soit 17,2%). L’Espagne risque fort de ne pas atteindre l’objectif européen des 20% d’Enr en 2020. Le parti conservateur a donc décidé d’inciter à la construction de centrales éoliennes, photovoltaïques et biomasses pour relever le niveau, mais surtout car les énergies renouvelables n’ont jamais été aussi bon marché en Espagne.

Parité réseau

Le premier appel d’offres de janvier a été une véritable surprise. Avec cinq fois plus d’offres que de capacité allouée pour l’éolien, la concurrence a été sauvage. A tel point que le système d’enchère inversée mise en place par le gouvernement a marché à plein. Il consiste grossièrement à faire proposer par les candidats le montant de la subvention qu’ils estiment devoir percevoir pour être rentable. Les dossiers sont classés en fonction de leurs coûts pour le système et les moins coûteux sont choisis. La concurrence a été telle que la plupart des lauréats ont proposé une subvention de … 0€. En clair, ces installations seront rémunérées uniquement grâce au marché spot de l’électricité, confirmant la parité réseau de l’éolien et du PV.

L’ovni Forestalia

Avec ses 300 MW éoliens (sur 500 MW attribués) et ses 108,5 MW de biomasse (sur 500 MW attribués) gagnés lors de l’appel d’offre de janvier, Forestalia a fait une entrée tonitruante sur la scène espagnole des énergies renouvelables. Présidée par Fernando Samper, la compagnie est née en 2011 du groupe Jorge, contrôlé par ses frères, spécialisé dans le secteur de la viande, et particulièrement « dans la branche porcine depuis 75 ans », indique le site du groupe espagnol.

En remportant à elle seule la moitié de l’appel d’offres, et ce alors qu’elle n’a quasiment aucune expérience, la compagnie n’a pas fait dans la dentelle : elle a littéralement imposé la parité réseau en Espagne. Et ce, avec des méthodes peu conventionnelles : au lendemain de sa large victoire, la société a lancé un appel aux fonds d’investissements et autres acteurs pour construire les parcs remportés, laissant les grands noms du secteur totalement ahuris par une telle manœuvre.

Reste à savoir si Forestalia compte réitérer son « coup » cet automne, et comment ses concurrents, parmi les plus grands groupes côtés sur les Bourses européennes, vont se défendre face à ce nouvel acteur, non-conventionnel.

Romain Chicheportiche

EDF entre sur le marché chinois de l’éolien

Selon les termes de l’accord, EDF Energies Nouvelles détient désormais 80% des parts de la société UPC AWM basée à Hong Kong pour un montant non communiqué. Les partenaires UPC China, développeur local historique et le fonds d’investissement américain Global Environment Fund (GEF) restent actionnaires de la société à hauteur de 20%. Les projets seront menés en partenariats avec d’autres acteurs chinois. Pour EDF, l’objectif est clairement de profiter de ses excellentes relations industrielles avec la Chine (grâce notamment à un long partenariat nucléaire) pour s’implanter sur l’énorme marché des énergies renouvelables en Chine.

1er marché mondial

Le Gouvernement chinois a en effet pour ambition d’atteindre 200 gigawatts (GW) de capacité éolienne installée d’ici 2020, soit une augmentation en moyenne de 15 GW par an ! Cela représente l’installation, chaque année, d’une fois et demi le parc éolien total français… Un marché énorme donc qui bénéficie presqu’exclusivement aux compagnies chinoises : En 2015, le groupe chinois Goldwind est devenu le premier fabricant mondial de turbines éoliennes devant les mastodontes du secteur (Vestas, GE, Senvion, Enercon, Nordex, Siemens/Gamesa). Mais le marché chinois est très protégé et EDF se félicite d’être « le premier grand acteur énergéticien européen à prendre pied sur le marché chinois des énergies renouvelables ». Le groupe français accroît ainsi son portefeuille éolien de plus de 1,3 GW, en développement, en construction ou en exploitation dans le pays, et est à présent à la tête de plus de 10 GW en exploitation dans le monde.

Romain Chicheportiche

Couper Internet : une tentation pour certains États

L’état algérien n’a en fait pas « coupé » internet en juin. Il a bloqué l’accès au web, ce qu’on appelle le World Wide Web. Il s’agit des services que l’on utilise quotidiennement comme la messagerie électronique et le surf sur des sites. L’Iran et la Chine sont connus pour mettre les pieds dans la toile pour diverses raisons.

Mais deux pays n’ont pas hésité à mener un blocage quasi total. Ce fut le cas en Birmanie (au moment de la « révolte Safran » de 2007 menée par les moines bouddhistes) et en Égypte en 2011.

Pour éteindre l’Internet, les FAI de ces pays ont bloqué l’accès aux protocoles DNS (Domain name server, qui aiguille les ordinateurs vers les adresses des sites) et BGP (Border gate protocol, qui indique quelles adresses IP sont utilisées par les fournisseurs d’accès). Impossible aux PC de trouver un chemin permettant d’accéder à la toile.

Dans ces deux pays, ces actions ont été facilitées par le fait qu’il y a peu de Fournisseurs d’accès à Internet (FAI) et qu’ils ont des liens plus ou moins étroits avec les États…

Techniquement, l’État français pourrait obtenir le même résultat si les principaux FAI bloquaient l’accès à ces deux protocoles. En théorie, car il s’agit d’entreprises privées qui n’ont pas de lien direct avec l’État français (sauf Orange dont une vingtaine de pour cent du capital est détenu par l’État, la BPI et la Caisse des dépôts).

Mais il y a surtout trois principaux obstacles juridiques. « Premièrement, il n’y a pas de texte de loi en France permettant à l’État de demander aux FAI de bloquer l’accès à l’Internet. Deuxièmement, dans le cadre d’HADOPI, une décision du Conseil Constitutionnel a précisé qu’il n’est pas possible de couper la connexion d’un internaute sans la décision d’un juge. Si l’État voulait couper les connexions de tous les particuliers, il devrait donc obtenir des dizaines de millions de décisions des juges », précise Benjamin Bayart, président de FDN (French Data Network), le plus vieux fournisseur d’accès Internet français.

Enfin, la France est traversée par de nombreux backbones transeuropéens et internationaux. Ces réseaux à très large bande passante sont l’épine dorsale qui relie chaque Fournisseur d’accès Internet au réseau mondial. « Une bonne part des câbles traversant l’Atlantique arrivent en Bretagne ou en Grande Bretagne, le reste passant plus au Nord, par l’Islande, etc. Ils sont gérés par des multinationales », rappelle Benjamin Bayart.

Il y a aussi des limites techniques. En plus des principaux FAI français, il y a aussi des milliers d’autres opérateurs qui sont soit très petits ou spécialisés (au monde de l’entreprise ou à certaines communautés comme le réseau Renater des universités françaises).

Enfin, la coupure d’internet aurait d’importantes répercussions sur l’économie du pays. Le système de paiement par carte bancaire dépend du réseau mondial pour valider les transactions. Résultat : il serait impossible de payer dans un magasin ou d’acheter sur un site en utilisant une carte de crédit. De nombreuses opérations administratives (déclaration des impôts, URSSAF, demande de papiers d’identité…) seraient également bloquées.

C’est d’ailleurs la raison pour laquelle les autorités égyptiennes n’avaient pas coupé 100 % du trafic. La Bourse égyptienne et plusieurs grandes entreprises internationales avaient toujours accès à la toile.

Philippe Richard

Cybersécurité : un partenariat public-privé à 1,8 milliard d’euros

L’Union européenne vient de signer un partenariat public-privé dans le domaine de la cybersécurité pour enclencher une coopération entre toutes les parties prenantes européennes au stade le plus précoce possible des processus de recherche et d’innovation. Objectifs premiers : créer des solutions de cybersécurité harmonisées et applicables dans toute l’Europe sur des secteurs clés comme l’énergie, la santé, les transports et la finance et être prêt à coopérer en cas de cyberattaque de grande envergure.

L’Union européenne verse 450M€

Dans le cadre de ce partenariat, l’Union européenne verse tout de suite 450 M€ en provenance de son programme Horizon 2020 (H2020), mais elle attend de ses partenaires qu’ils investissent trois fois plus d’ici 2020 pour atteindre un montant total de près d’1,8Md€. Ce partenariat a pris la forme d’un contrat signé entre la Commission européenne et l’ECSO, la toute nouvelle organisation européenne pour la cybersécurité.

L’ECSO rassemble large

Officiellement créée en juin 2016, l’ECSO, organisation européenne pour la cybersécurité, réunit les acteurs du marché de la cybersécurité. A ce jour, près de 50 membres (représentant au moins 130 entreprises) : grandes entreprises, PME et start-up, opérateurs, utilisateurs, centres de recherches et universités, clusters et associations tout autant que représentants institutionnels de 14 pays de la zone économique européenne, de l’association européenne de libre échange ou de pays partenaires du programme H2020 ont rejoint l’organisation.

Par Sophie Hoguin

Les premiers nuages d’eau hors du système solaire

Wise 0855 est une naine brune située à seulement 7,2 années-lumière de la Terre. Malgré sa proximité, cet astre cinq fois plus massif que Jupiter, n’a été découvert qu’en 2014 tant sa lueur est faible. Il faut dire que l’on estime sa température de surface entre -48°C et -13°C. Des chercheurs de l’université de Santa Cruz en Californie ont réussi a étudier malgré tout son spectre depuis la Terre, en poussant le télescope Gemini North dans ses retranchements.

Presque tout comme Jupiter

Ce télescope situé à Hawaï possède en effet un spectrographe à infrarouge qui a pu scruter Wise 0855 dans une bande de 4,5 à 5,2 µm. Les mêmes longueurs d’ondes qui ont servi à étudier les émissions thermiques de Jupiter. Résultats : Le spectre révèle la présence de vapeur et de nuages. Et l’apparence globale du spectre est très similaire à celle de Jupiter. En outre, précisent les auteurs de l’étude, soumise à The Astrophysical Journal Letters et disponible sur ArXiv, le spectre obtenu en 13 nuits d’observation est d’assez bonne qualité pour se pencher sur les processus chimiques et dynamiques qui animent cette atmosphère. Comme ce que l’on a pu faire pour Jupiter, mais cette fois, sur un monde hors du système solaire.

Par Sophie Hoguin

Le Technocentre 3D, ou la conception 3D «as a service»

Le développement rapide de produits n’est pas à la portée de toutes les entreprises, en particulier les plus petites, faute de compétences, d’équipements et de budget. C’est de ce constat qu’est né le Technocentre 3D, hébergé dans un bâtiment de 1500 m2 à Toulouse. L’idée ? «Accompagner ces entreprises et mettre à leur disposition du matériel professionnel pour concevoir leur produit» explique Pascal Erschler, le gérant et fondateur.

Imprimantes 3D, scanners 3D, fraiseuses à commande numérique, thermoformeuses… Une quinzaine d’équipements servent à fabriquer des prototypes et des préséries. S’ajoutent huit stations de travail vouées à la CAO, équipées du logiciel Solidworks et d’autres logiciels métier. Le matériel de production ne vient pas de loin, puisque le Technocentre 3D partage les locaux avec les sociétés Kallisto et Aurore-Arka, spécialistes de l’activité. «Kallisto distribue et intègre des imprimantes 3D depuis 1999 et Aurore-Arka exerce dans le prototypage depuis 25 ans», ajoute Pascal Erschler, qui dirige également ces deux sociétés.

Un service technique à la demande

Davantage qu’un centre de production, le Technocentre 3D se veut un lieu d’accueil et d’accompagnement. «C’est un endroit unique où le service technique, y compris le matériel et le bureau d’études, est disponible à la demande, commente Pascal Erschler. Les entreprises peuvent louer un ingénieur à l’heure, si elles ont besoin de compétences techniques en vue de rencontrer un client, ou faire appel à notre cellule marketing/communication sur place. Elles peuvent se domicilier et louer mensuellement un bureau, une partie de la zone technique et une zone de stockage si besoin. Le Technocentre 3D compte une quinzaine de bureaux, de un à huit postes, et la location d’un bureau monoposte coûte 450 € HT/mois, charges incluses.»

Le Technocentre 3D est opérationnel depuis début juin et quelques locataires se sont déjà installés. «Une société d’engineering qui travaille dans le secteur du nucléaire est intéressée par la numérisation 3D pour l’intégrer au processus de démantèlement des réacteurs, décrit Pascal Erschler. Autre exemple, une petite société compte développer ici un guide chirurgical dentaire pour que le chirurgien dentaire gagne en précision pendant la pose d’un implant. C’est de la fabrication unitaire sur mesure, réalisée sur une machine qui coûte 90000 €.»

Pascal Erschler entend développer la panoplie de services : «on va mettre au point une offre de formation métier applicative pour l’enseignement des process. » Et compte bien entendu assurer la promotion de son outil : «nous organisons deux sessions de présentation par semaine, à l’attention d’industriels et d’entrepreneurs. Nous voulons démocratiser ces technologies.» L’inauguration officielle aura lieu début septembre.

Frédéric Monflier

Voxist, le répondeur auquel on jette un oeil

«Pas le temps d’écouter vos messages vocaux ? Lisez-les !» Le slogan de l’application mobile Voxist, dont la sortie est prévue sur iOS et Android à la fin de l’année, ne fait pas mystère de sa recette. «Pratique, Voxist est une messagerie visuelle qui convertit les messages audio en texte, explique Karel Bourgois, le fondateur. Le message vocal et sa traduction textuelle peuvent aussi être reçues par email. Autre intérêt : l’accueil personnalisé – une annonce attribuée à un interlocuteur – qui repose sur un brevet déposé par Orange, mon ex-employeur, dont Voxist possède la licence d’exploitation exclusive.»

La technologie de conversion est externalisée, via des interfaces de programmation (ou API, Application program interface). «Nos fournisseurs sont IBM, Microsoft, Vocapia… précise Karel Bourgois. Certaines de ces APIs sont plus ou moins adaptées à chaque vocabulaire. Nos indicateurs de qualité sélectionnent de manière transparente la bonne API et contextualisent le message pour améliorer la qualité de la conversion.» Laquelle n’est pas parfaite, admet-il : «L’interlocuteur ignore que son message vocal sera transcrit et ne fait donc pas d’effort de diction. Avec notre version alpha testée en interne, 78% des conversions ont cependant été jugées intelligibles.»

Un assistant de plus en plus interactif

Cette application n’est pas unique en son genre mais son concepteur tient à la différencier :  «Ce service existe chez Orange, pour 1 € par mois, mais la conversion est transmise par SMS. Apple a pour sa part annoncé sa disponibilité dans iOS 10. Mais encore faut-il qu’un accord soit signé entre l’opérateur et Apple pour que la messagerie visuel soit activée. Autre interrogation : la conversion sera-t-elle valable pour le français, alors que toutes les bêtas sont en anglais ? Enfin, l’iPhone doit être allumé et la technologie d’Apple opère après le répondeur. Voxist devient quant à elle le nouveau répondeur et nous avons l’ambition d’en faire un véritable assistant interactif.»

Des fonctions s’ajouteront ainsi régulièrement, comme la réponse directe à un message via SMS ou appel vocal. Voxist sera gratuite ou payante, moyennant abonnement, avec des fonctions premium à la clé (nombre illimité de conversions, etc). Elle est compatible avec tous les opérateurs, mais pas avec tous les forfaits prépayés. Une bêta publique sera ouverte en septembre prochain. L’enregistrement s’effectue sur le site web de la société.

Frédéric Monflier

Un bandeau connecté pour améliorer votre sommeil

Certains objets connectés se proposent d’analyser la qualité du sommeil. Dreem promet de faire mieux, c’est-à-dire d’améliorer la qualité du sommeil. Ce bandeau communicant et lié à une application mobile, via Bluetooth et WiFi, est le premier fruit de la start-up Rythm, née en 2014. Les deux cofondateurs, Hugo Mercier et Quentin Soulet de Brugière, sont en effet passionnés de neurosciences, en plus d’être jeunes polytechniciens. C’est à la suite d’une collaboration avec l’Institut du Cerveau et de la Moelle épinière qu’ils ont l’idée de créer Dreem. Le projet retient l’attention de plusieurs investisseurs, dont Xavier Niel, qui injectent plus de 10 millions d’euros.

Dans le principe, Dreem s’apparente à un véritable électroencéphalographe tel qu’utilisé en médecine : il mesure l’activité électrique du cerveau, grâce à ses cinq électrodes, trois d’entre elles étant placées à l’avant et les deux restantes à l’arrière. A la différence près que Dreem n’est pas qu’un appareil passif. A l’aide de cet électroencéphalogramme, son logiciel interne examine la «signature électrique » du cerveau et identifie la phase de sommeil dans laquelle le porteur se trouve (léger, profond ou paradoxal).

Ce bandeau produit ensuite des stimulations sonores – des bruits «roses» – qui se propagent par conduction osseuse et sont synchronisés avec l’activité cérébrale. Ainsi le sommeil profond, le plus réparateur, est-il induit. Favoriser l’endormissement est une autre fonction envisagée, ce qui pourrait plaire aux insomniaques. Dreem sera mise à l’épreuve en situation réelle dès cet été, dans un test qui impliquera quelque 500 volontaires. Sa commercialisation est prévue en 2017, à un prix qui n’a pas encore été déterminé.

Frédéric Monflier

Un boîtier connecté aide les éoliennes à fonctionner à plein régime

Les éoliennes ont beau s’appuyer sur des automatismes robustes et fiables, cette technologie éprouvée ne donne pas toujours son maximum. La faute à des dérives ou des réglages imprécis (équilibrage, orientation des pales, etc) susceptibles de pénaliser la production électrique de l’ordre de 5 %. Fondée en 2015, la jeune pousse Sereema a développé un boîtier connecté capable d’identifier ces défauts. «Les exploitants qui supervisent le parc éolien savent de cette manière si les performances sont optimales, ajoute Jérôme Imbert, le PDG. Quant aux équipes de maintenance, elles n’interviennent que si nécessaire. Notre dispositif éclaire et affine la vision de ces professionnels.»

Ce boîtier d’une trentaine de centimètres de long se pose sur l’éolienne même et sert à en étudier le comportement. «Il se fixe sur le mat, derrière la nacelle, précise Jérôme Imbert. Il est autonome, hormis l’alimentation électrique, mais ce n’est pas une contrainte sur une éolienne. Les capteurs embarqués – gyroscope, accéléromètre… – détectent les vibrations et les mouvements de la machine. D’autres données, comme les paramètres du vent, sont issues du logiciel SCADA (Supervisory control and data acquisition) utilisé par l’exploitant. Un premier niveau de traitement des données est appliqué dans le boîtier lui-même. Ces informations sont ensuite transmises via une liaison GSM dans le cloud, où s’effectue un second traitement, plus poussé. Enfin, un tableau de bord analytique et synthétique est mis à disposition de l’exploitant.» Un outil d’aide à la décision, en somme.

sereema_WB_V1

efficiency

Les méthodes alternatives pour obtenir un tel diagnostic sont moins précises ou plus coûteuses, estime Jérôme Imbert : «Les données du SCADA sont une source possible mais les valeurs moyennes ne sont produites que toutes les 10 minutes. Notre boîtier peut réduire l’intervalle de mesure à quelques centièmes de seconde. D’autre part, engager un expert est une opération onéreuse, sans garantie de résultats, car cette intervention n’est pas toujours nécessaire au final.» Des prototypes du boîtier «surveillent» depuis juillet 2015 cinq éoliennes implantées dans le sud de la France. Ils n’ont pas tardé à justifier leur présence. «Des risques aérodynamiques sur les pales ont ainsi été découverts, enchaîne Jérôme Imbert, et les équipes procèdent à des réglages correctifs.» Sereema cherche d’autres sites pilotes afin de perfectionner son dispositif.

Par Frédéric Monflier

Air Liquide : innovations au cœur du programme stratégique

Le groupe français Air Liquide vient de présenter son nouveau programme d’entreprise 2016-2020 baptisé NEOS. Il intègre notamment les synergies et la réorganisation majeure due à la récente acquisition de l’américain Airgas. Au niveau des performances, le groupe qui emploie plus de 68000 personnes dans le monde vise une croissance du chiffre d’affaires de 6 à 8% en moyenne annualisée et compte structurer son développement autour de trois leviers principaux : la transition énergétique et environnementale, les transformations du secteur de la santé, et la digitalisation de son activité.

Modèle pour l’usine du futur

Conscient que l’innovation sera au centre de sa croissance, Air Liquide a conçu le projet « Connect », une usine du futur, labellisée le 9 février 2016 « vitrine technologique » par l’Alliance pour l’Industrie du futur. Le projet, implanté en région lyonnaise, devrait être opérationnel d’ici 2017 grâce à un investissement de 20M€. Il a notamment la particularité de s’appuyer sur une centaine d’entreprises locales dont une dizaine de start-up.

Une stratégie d’innovation très active

Depuis 2013, Air Liquide appuie une partie de sa politique d’innovation en prenant des participations dans des start-up via  son fonds de capital risque ALIAD. Depuis le début 2016, quatre nouveaux investissements ont été engagés avec : le français  Carmat, (pile à hydrogène portable pour le secteur biomédical), l’américain Inpria (lithographie de circuits imprimés pour l’industrie des semi-conducteurs), le français Poly-Shape (extension de l’offre de gaz industriels pour l’impression 3D) et enfin l’américain Solidia Technologies (injection de CO2 remplaçant l’eau dans le durcissement d’un béton breveté, Solidia Concrete™, permettant de réduire de 70% l’empreinte environnementale de la filière du béton préfabriqué).

e-commerce : Airgas ouvre l’activité à la désintermédiation

Avec l’acquisition de l’américain Airgas, ce n’est pas seulement l’ouverture et une place de choix sur tout le marché américain que s’est offert Air Liquide, c’est aussi toute une structure et une expérience en matière de désintermédiation : Airgas réalise ainsi 10% de ses ventes sur internet. Un développement sur lequel le groupe planche déjà depuis quelques temps et qui pourra ainsi être accéléré.

Par Sophie Hoguin

Matières premières : la pénurie d’hélium n’aura pas lieu

Actuellement, nous ne savons pas produire l’hélium artificiellement (du moins de manière rentable hors d’un laboratoire). Et ce gaz, malgré son abondance dans l’univers, est peu présent sur Terre, tant dans l’atmosphère que sous terre. Par ailleurs, il n’est ni facile à capturer ni à stocker. Entre 2005 et 2012, les prix flambent car le principal fournisseur mondial, la réserve fédérale d’hélium américaine s’inquiète de la pérennité de ses installations vieillissantes et du coût pour les rénover. Les Etats-Unis qui représentent alors 80% de la production mondiale font peser la menace d’une pénurie sur ce marché de niche.

Qui a besoin d’hélium ?

Dans l’industrie, l’hélium sert principalement via deux voies : la création d’atmosphère inerte pour des procédés de fabrication de haute technologie (métallurgie, semi-conducteurs, fibres optiques, spatial etc.) et des process utilisant la cryogénie. En effet, à l’état liquide l’hélium est le gaz le plus froid sur Terre (-269°C). Il sert par exemple dans les circuits de refroidissement du nucléaire, ou dans le milieu médical, pour refroidir les aimants supraconducteurs des IRM. Un débouché en constante augmentation du fait de l’équipement de plus en plus rapide des pays émergents. La demande en hélium dans le secteur médical représente ainsi  actuellement un quart de la consommation mondiale (57 millions de m3 sur 220 millions consommés). A l’avenir, l’hélium pourrait aussi être de nouveau utilisé de manière massive dans le transport si les projets de dirigeables actuellement à l’étude venait à voir le jour (pôle Safe à Istres ou encore LTA Aérostructures au Canada).

Stocks et production

Aujourd’hui l’hélium est fourni comme co-produit des gisements de gaz naturel via un process de séparation par distillation. Jusqu’en 2013, les Etats-Unis (80%) étaient de loin le plus gros producteur suivis par l’Algérie (10%), la Russie et la Pologne. Mais depuis 2013, Air Liquide a fait construire une unité géante au Qatar (58 M m3 par an) pour les sociétés Ras Gas et Exxon, faisant du pays le deuxième producteur mondial fournissant à lui seul 25% de la production mondiale. Les ressources mondiales potentielles ne posent pas de problèmes, près de 50 milliards de mètres cubes seraient disponibles. La pénurie qui menaçait au début des années 2000 semble réellement s’estomper. Les grands acteurs industriels ayant pris conscience de la valeur de ce marché en croissance de 2-3% par an, les investissement reviennent pour assurer une production mondiale suffisante à un coût honnête. Ainsi, le russe Gazprom travaille actuellement sur plusieurs grands projets d’extraction d’hélium à partir de gisements de gaz naturel en Sibérie orientale.

Une méthode pour trouver de l’hélium facilement

La découverte d’un gisement géant d’hélium en Tanzanie marque une petite révolution sur ce marché. En effet, les chercheurs des universités d’Oxford et Durham qui ont travaillé avec la compagnie norvégienne Helium One ont pu montrer que des poches de gaz  contenant jusqu’à 10% d’hélium se trouvaient régulièrement à proximité des volcans ; l’activité volcanique ayant permis la libération massive de ce gaz. Le gisement repéré représenterait 1,5 milliard de mètre cubes. Mais surtout, cette méthode peut être appliquée à de nombreuses autres régions du monde et pourrait révéler d’importantes ressources supplémentaires permettant une extraction à relativement bas coût, sans être partie liée au marché du gaz naturel.

Par Sophie Hoguin

La fin des sacs plastique… ou pas

Trop polluant mais surtout mettant beaucoup trop de temps à se dégrader (en moyenne 400 ans pour une utilisation de 20 minutes), le sac en polyéthylène d’une épaisseur inférieure à 50 microns est définitivement banni des caisses des supermarchés, pharmacies, épiceries, etc. Il n’est plus ni distribué ni vendu. Cependant on pourra encore le trouver dans les rayons fruits et légumes ou chez le boucher et le poissonnier jusqu’au 1er janvier 2017.

Cinq milliards de sacs !

Cette mesure de la loi relative à la transition énergétique portée par Ségolène Royal, ministre de l’Environnement, espère ainsi réduire l’empreinte néfaste du polyéthylène. Chaque année, rien qu’en France, 5 milliards de sacs à usage unique étaient distribués dont 80% étaient majoritairement importés d’Asie. Sans oublier les 12 millions de sacs utilisés pour emballer les fruits et légumes. Ils contribuaient ainsi à grossir chaque année un peu plus le septième continent, constitué de déchets et flottant sur l’océan Pacifique.

Le plastique ne fait pas pour autant ses adieux

Désormais, les consommateurs doivent donc opter pour des sacs en papier ou réutilisables qui peuvent être en plastique mais plus épais (supérieur à 50 microns), en coton, en toile de jute ou en dérivé du plastique comme le nylon ou le polypropylène tissé – qui sont des plastiques plus facilement recyclables. C’est donc la potentielle après-vie qui est déterminante, les plastiques devront donc être composés de matière organique comme l’amidon de maïs ou de pomme de terre pour être capables de se dégrader entièrement ou d’être recyclés dans des composts à domicile par exemple.

Création de 3000 emplois

Le ministère de l’Environnement parie sur l’essor des sacs biosourcés et compostables. « Le développement de nouveaux plastiques biosourcés permettra, en comptabilisant les emplois dans la recherche et le développement, la culture des végétaux qui serviront de base aux matières premières, la production de nouvelles résines composées de matière végétale et les usines fabriquant les produits biosourcés de créer 3 000 emplois sur le territoire national », peut-on lire dans un communiqué. Certaines entreprises françaises (SPhere, Barbier, Limagrain, Bagherra, Styl-Pack, La Française des Plastiques…) produisent déjà ce type de sacs.

Et la bataille est donc déjà engagée entre les industriels qui rivalisent tous d’ingéniosité pour proposer le sac du futur qui devra répondre aux critères de coût, d’étanchéité, de résistance, d’esthétisme et de recyclage bien-sûr.

Attention, les « oxo » sont aussi interdits

Enfin, les autorités mettent en garde contre les sacs dit « oxo-fragmentables » ou oxo-dégradables. A la suite d’un amendement déposé à l’Assemblée nationale stipulant que « Contrairement aux matériaux biodégradables, certifiés par la norme européenne EN 13432, et qui ne laissent à la fin du processus de biodégradation que du CO2 , de l’eau et de la matière organique ; les plastiques oxo-fragmentables se désagrègent en fines particules de plastique, le plus souvent du polyéthylène fossile, sans jamais atteindre la déstructuration moléculaire finale qui caractérise la biodégradation. Ces particules de plastique s’accumulent dans les milieux naturels avec pour conséquences une pollution des sols et une contamination de notre alimentation ».

Le législateur a pour le moment choisi d’inclure dans cette catégorie les plastiques oxo-biodégradables qui font encore débat, estimant que la biodégradabilité d’un matériau ne peut être validée officiellement qu’au regard de la norme EN 13432 et que ces plastiques étaient susceptibles de perturber la filière recyclage en France et en Europe.

Par Sophie Hoguin

Un trio nord-américain pour l’Ecologie

La photo est belle : les trois présidents progressistes du Canada, Etats-Unis et Mexique, réunis pour défendre l’écologie et les énergies propres. Dans la lignée de l’accord de Paris, les trois chefs d’Etat ont réaffirmé leur volonté de poursuivre les efforts de réduction des émissions de gaz à effet de serre. Les objectifs sont ambitieux : « Par la présente, nous annonçons l’objectif historique pour l’Amérique du Nord d’atteindre une production d’énergie propre à hauteur de 50 pour cent d’ici 2025 (…) et de réduire de 40 à 45 pour cent ses émissions de méthane dans les secteurs pétrolier et du gazier d’ici 2025 », indique la déclaration commune officielle.

Collaboration

Le texte publié suite au Sommet d’Ottawa insiste sur la nécessaire collaboration entre les trois pays afin d’optimiser les investissements dans les sources de production propres. Ainsi, le texte souligne l’importance des interconnexions : « À l’heure actuelle, au moins six lignes de transmission sont proposées ou à l’étape de l’examen des permis, notamment la ligne de transmission du Grand Nord, la New England Clean Power Link et la Nogales Interconnection, qui ajouteraient environ 5 000 mégawatts à la capacité de transmission transfrontalière ».

Autre point : l’harmonisation. Les dirigeants estiment que la collaboration trilatérale concernant l’écologisation des initiatives passe aussi par l’achat de produits plus efficaces, d’énergie plus propre et de véhicules moins polluants. « Renforcer et harmoniser les normes sur l’efficacité dans les trois pays, faciliter le mouvement des produits, réduire la pollution et diminuer les coûts pour les consommateurs. Nous nous engageons à promouvoir l’efficacité industrielle et commerciale au moyen de la norme à adhésion volontaire ISO 50001 ainsi qu’à harmoniser dix normes sur l’efficacité énergétique ou procédures de mise à l’essai d’équipement d’ici la fin de 2019 », indiquent-ils.

Enfin, une attention particulière sera portée aux effets des polluants climatiques de courte durée de vie, comme le méthane, le carbone noir et les hydrofluorocarbures, jusqu’à des milliers de fois plus puissants que ceux du dioxyde de carbone. « Des mesures sensées visant à réduire ces polluants généreront, à court et à long terme, d’importants avantages sur le plan du climat et de la santé, ce qui favorisera l’atteinte de notre objectif de limiter la croissance du réchauffement planétaire au cours du présent siècle », est-il précisé.

Portée limitée

Si cette déclaration commune des trois pays d’Amérique du nord est une première, sa portée n’en reste pas moins limitée. Ce sommet a surtout été une occasion d’accorder les violons des trois gouvernements progressistes qui, une fois n’est pas coutume, se trouvent au pouvoir au même moment. Mais cette volonté d’harmonisation pourrait bien ne pas durer. Les Etats-Unis entrent dans une campagne présidentielle dans laquelle l’un des deux candidats, Donald Trump, ne cache pas son aversion pour la cause écologique. S’il venait a remporté l’élection suprême, il fait peu de doute que cette déclaration d’Ottawa deviendra lettre morte.

Au-delà des élections américaines, et malgré leur bonne volonté, les dirigeants nord-américains devront trouver plus que des mots pour sortir leur économie très dépendante des énergies fossiles. Pour rappel, en 2015, ces trois pays pesaient plus de 20% de la production mondiale de pétrole brut.

Par Romain Chicheportiche

Hinkley Point C : le CCE d’EDF rend copie blanche

« Délai extrêmement court et inadapté à un projet d’une telle ampleur », telle est la justification du CCE d’EDF pour justifier l’absence d’avis sur le projet Hinkley Point C. « La Direction d’EDF a fait le choix de refuser la communication des éléments d’information et documents demandés par le CCE et ses experts, et n’a apporté que quelques réponses très partielles et insuffisantes à ses questions », ajoute le CCE dans un bref communiqué. Son avis étant consultatif, la direction d’EDF a désormais les coudées franches pour annoncer une décision finale d’investissement à la rentrée.

Brexit

Les controverses sur le projet Hinkley Point C sont désormais de notoriété publique (voir ici ou ). Les doutes sur l’opportunité d’un tel investissement outre-Manche ont même atteint les plus hautes sphères du groupe avec la démission de Thomas Piquemal, directeur financier, en mars dernier. Des voix se sont élevés pour demander à la direction de repousser la prise de décision afin de mieux tirer profit des retours d’expérience des chantiers EPR existants. Une prudence qui se heurte à une volonté politique de voir aboutir ce dossier rapidement, notamment par la voie du ministre de l’Economie Emmanuel Macron.

Le Brexit complique un peu plus encore une situation qui n’était déjà guère à l’avantage des promoteurs du projet. Malgré des annonces rassurantes, les conséquences économiques et financières de la sortie du Royaume-Uni de l’Union européenne sont encore impossibles à prévoir, de sorte que tout investissement massif est sujet à davantage d’incertitudes. De surcroît quand l’investissement est réalisé en livres sterling (18 milliards £ pour les deux EPR) alors que le financement sera réalisé en euros (EDF a décliné les garanties du Trésor britannique). Une fois n’est pas coutume, Paris scrute avec intérêt le chaos politique issu du referendum britannique et attend la constitution du nouveau gouvernement pour confirmer son feu vert, d’ici septembre selon des sources proches du dossier.

Pour rappel, le projet Hinkley Point C prévoit la construction de deux EPR dont la mise en service est prévue pour 2025-2026. Cette centrale devra aider le Royaume a diminuer son empreinte carbone en fournissant 7% de la consommation britannique. Jean-Bernard Lévy, président d’EDF, rappelle à l’envi que le contrat signé avec les Britannique sera très profitable avec un MWh garanti à 92,5 livres sur 35 ans. Un prix très au-dessus du marché actuel mais qui ne variera pas en cas dépassement des coûts.

Par Romain Chicheportiche

Un fort champ électrique expliquerait l’absence d’eau sur Vénus

La communauté scientifique s’accorde à penser que Vénus abritait de très grandes quantités d’eau à sa surface il y a plus de 4 milliards d’années. Aujourd’hui, plus rien, des traces tout au plus. Plusieurs explications concomitantes contribuent à expliquer la disparition de cette eau. Une atmosphère très épaisse qui a induit un effet de serre tel que la température à sa surface (460°C) dépasse celle de Mercure. Les molécules d’eau se sont rapidement évaporées avant d’être séparées en ions hydrogène et oxygène sous les effets des vents solaires. Facilitant la fuite de l’oxygène dans l’espace.

Un champ électrique unique en son genre

Les scientifiques ont maintenant découvert que Vénus avait aussi un champ électrique substantiel, de l’ordre de 10V. Au moins 5 fois plus fort que ce à quoi l’on s’attendait. Sur Mars ou sur Terre, on a jamais réussi à en détecter un de manière formelle, bien que l’on suspecte l’existence d’un tel champ, mais ne dépassant pas les 2V. En effet, les électrons, plus légers, quittent plus facilement la gravité terrestre que les autres particules. Il en résulte une polarité dans l’atmosphère qui crée un champ électrique faible.

L’éjection de l’oxygène

Cependant, sur Terre ou sur Mars, les forces électromagnétiques font que les ions positifs et les électrons restent connectés entre eux, y compris lorsque ceux-ci sont sortis de l’atmosphère. Dans le cas de Vénus, le champ électrique est devenu suffisamment fort pour fournir l’accélération nécessaire aux ions oxygènes pour échapper aux forces gravitationnelles et sortir de l’atmosphère. Une explication supplémentaire à la disparition de l’eau sur la planète.

Deux ans de données nécessaires

Pour réussir à mesurer le champ électrique, les chercheurs ont dû patiemment collecter des données d’un spectromètre d’électrons embarqué sur Venus Express pendant 2 ans. Ils ont réussi à trouver 14 fenêtres d’une minute où la sonde était au bon endroit au bon moment pour mesurer le champ électrique. A chaque fois, ils ont pu le détecter. Mais pour le moment, il n’y a pas d’explication formelle pour la présence d’un tel champ. L’hypothèse la plus probable avancée est celle de la quantité de rayonnement ultraviolet reçu par Vénus. Deux fois plus importantes que sur Terre, il pourrait être à l’origine d’une quantité d’électrons libres beaucoup plus grande dans son atmosphère.

Les montagnes qui font briller les nuages

D’autre données de Venus Express sont en train d’être analysées et révèlent de nouveaux phénomènes vénusiens. Ainsi, une équipe internationale a étudié huit années d’évolution de la luminosité et de la vitesse de déplacement des nuages. Ils ont ainsi pu observer qu’au-dessus des reliefs, notamment Aphrodite Terra, les vents ralentissent (passant de 100m/s à 82m/s) et que les nuages sont plus lumineux (en UV). Les chercheurs pensent pour le moment que ce phénomène est généré par des ondes de gravité (vagues d’air circulant à la verticale à cause des reliefs). Cet apport vertical, étirerait la masse d’air à l’horizontale et provoquerait un vide d’air. Ce vide d’air emporterait avec lui, un composé qui absorbe les UV, rendant les nuages en aval des reliefs plus sombres (source Journal of Geophysical Research)

Sophie Hoguin

Evaluation de la pénibilité au travail

Quelles nouvelles règles en matière de pénibilité ? Ce qui a vraiment changé au 1er juillet

Six nouveaux facteurs sont à prendre en compte depuis le 1er juillet 2016. Il s’agit de :
– manutentions manuelles de charges
– postures pénibles
– vibrations mécaniques
– agents chimiques dangereux
– températures extrêmes
– bruit

Ces nouveaux facteurs s’ajoutent aux quatre facteurs de pénibilité à déclarer depuis le 1er janvier 2015 :
– activités exercées en milieu hyperbare
– travail de nuit
– travail en équipes successives alternantes
– travail répétitif
L’évaluation de l’exposition des salariés à ces facteurs doit être actualisée en fin de chaque année à partir de 2016. Les données sont à transettre à la CNAV par l’intermédiaire de la DADS, puis de la DSN (Déclaration Sociale Nominative). Elles permettront d’identifier les salariés concernés par des expositions supérieures aux seuils. Ils bénéficieront de points sur leur compte prévention pénibilité.

Les entreprises seront elles soumises à deux cotisations annuelles : une cotisation dite « de base », à laquelle elles seront toutes assujetties, et une cotisation dite « additionnelle», dépendante des conditions d’exposition des salariés.

Un défi pour les entreprises : comment appliquer la loi sans complexifier le travail des responsables HSE ?

La mise en œuvre opérationnelle de la loi implique, pour chaque poste de travail, d’évaluer l’exposition aux dix facteurs de pénibilité. Il s’agit de repérer les postes auxquels pour lesquels les seuils sont dépassés.

Pour le cas particulier de l’exposition aux agents chimiques dangereux, il faut commencer par réaliser l’inventaire des tous les produits et agents chimiques présents dans la structure, puis effectuer les évaluations pour chaque couple agent chimique/poste de travail. Ces évaluations font partie d’une démarche plus large d’évaluation et de gestion des risques dans l’entreprise, et sont à intégrer au Document Unique.

Les échéances : comment les envisager sereinement ?

Afin d’aborder calmement la fin d’année et ne pas se précipiter dans l’évaluation des différents facteurs de pénibilité, il est primordial de débuter la démarche en amont, dès aujourd’hui. Commencer cette réflexion maintenant, c’est se laisser le temps de choisir les méthodes d’évaluation les plus adaptées à sa situation, d’échanger avec les personnes et services concernés sereinement, et d’appréhender le logiciel choisi.

Important : le logiciel RiskEV n’est plus commercialisé
par Techniques de l’Ingénieur.

Un impact géant : le mystère de l’origine des lunes de Mars enfin percé

Deux études indépendantes et complémentaires apportent une réponse à cette question. Dans l’une, sous presse dansThe Astrophysical Journal, des chercheurs majoritairement du CNRS et d’Aix-Marseille Université excluent la capture d’astéroïdes et montrent que le seul scénario compatible avec les propriétés de surface de Phobos et Deimos est celui d’un impact géant. Dans l’autre étude, grâce à des simulations numériques de pointe, une équipe belgo-franco-japonaise montre comment ces satellites ont pu se former à partir des débris d’une collision titanesque entre Mars et un embryon de planète trois fois plus petit. Ces travaux, fruit d’une collaboration entre des chercheurs de l’Université Paris Diderot et de l’Observatoire royal de Belgique, en collaboration avec le CNRS, l’Université de Rennes 1 et l’institut japonais ELSI, sont publiés le 4 juillet 2016 dans la revue Nature Geoscience.

L’origine des deux lunes de Mars, Phobos et Deimos, restait un mystère. Par leur petite taille et leur forme irrégulière, elles ressemblent beaucoup à des astéroïdes, mais on ne comprend pas comment Mars aurait pu les « capturer » pour en faire des satellites en orbite presque circulaire, dans le plan équatorial de la planète. Selon une théorie concurrente, Mars aurait subi à la fin de sa formation un impact géant avec un embryon de planète ; mais pourquoi les débris d’un tel impact auraient-ils formé deux petits satellites plutôt qu’une énorme lune, comme celle de la Terre ? Une troisième possibilité serait que Phobos et Deimos se soient formés en même temps que Mars, ce qui impliquerait qu’ils aient la même composition que leur planète ; cependant, leur faible densité semble contredire cette hypothèse. Aujourd’hui, deux études indépendantes viennent conforter la théorie de l’impact géant.

Dans l’une d’elles, une équipe de recherche belgo-franco-japonaise propose pour la première fois un scénario complet et cohérent de formation de Phobos et Deimos, qui seraient nés des suites d’une collision entre Mars et un corps primordial trois fois plus petit, 100 à 800 millions d’années après le début de la formation de la planète. Selon ces chercheurs, les débris de cette collision auraient formé un disque très étendu autour de Mars, formé d’une partie interne dense, composée de matière en fusion et d’une partie externe très fine, majoritairement gazeuse. Dans la partie interne de ce disque se serait d’abord formée une lune mille fois plus massive que Phobos, aujourd’hui disparue. Les perturbations gravitationnelles créées dans le disque externe par cet astre massif auraient catalysé l’assemblage de débris pour former d’autres petites lunes plus lointaines. Au bout de quelques milliers d’années, Mars se serait alors retrouvée entourée d’un cortège d’une dizaine de petites lunes et d’une énorme lune. Plusieurs millions d’années plus tard, une fois le disque de débris dissipé, les effets de marée avec Mars auraient fait retomber sur la planète la plupart de ces satellites, dont la très grosse lune. Seules ont subsisté les deux petites lunes les plus lointaines, Phobos et Deimos (voir l’infographie en fin de communiqué).

À cause de la diversité des phénomènes physiques mis en jeu, aucune simulation numérique n’est capable de modéliser l’ensemble du processus. L’équipe de Pascal Rosenblatt et Sébastien Charnoz a dû alors combiner trois simulations de pointe successives pour rendre compte de la physique de l’impact géant, de la dynamique des débris issus de l’impact et de leur assemblage pour former des satellites, et enfin de l’évolution à long terme de ces satellites.

Dans l’autre étude, des chercheurs du Laboratoire d’astrophysique de Marseille (CNRS/Aix-Marseille Université) excluent la possibilité d’une capture, sur la base d’arguments statistiques et en se fondant sur la diversité de composition des astéroïdes. De plus, ils montrent que la signature lumineuse émise par Phobos et Deimos est incompatible avec celle du matériau primordial qui aurait pu former Mars (des météorites de la classe des chondrites ordinaires, des chondrites à enstatite et/ou des angrites). Ils s’attachent donc au scénario de l’impact. Ils déduisent de cette signature lumineuse que les satellites sont composés de poussières fines (de taille inférieure au micromètre).

Or, la très petite taille des grains à la surface de Phobos et Deimos ne peut pas être expliquée uniquement comme la conséquence d’une érosion due au bombardement par les poussières interplanétaires, d’après ces chercheurs. Cela signifie que les satellites sont composés dès l’origine de grains très fins, qui ne peuvent se former que par condensation du gaz dans la zone externe du disque de débris (et non à partir du magma présent dans la zone interne). C’est un point sur lequel s’accordent les deux études. Par ailleurs, une formation des lunes de Mars à partir de ces grains très fins pourrait être responsable d’une forte porosité interne, ce qui expliquerait leur densité étonnamment faible.

La théorie de l’impact géant, corroborée par ces deux études indépendantes, pourrait expliquer pourquoi l’hémisphère nord de Mars a une altitude plus basse que le sud : le bassin boréal est sans doute la trace d’un impact géant, comme celui qui a in finedonné naissance à Phobos et Deimos. Elle permet aussi de comprendre pourquoi Mars a deux satellites et non un seul comme notre Lune, aussi née d’un impact géant. Ce travail suggère que les systèmes de satellites formés dépendent de la vitesse de rotation de la planète, puisqu’à l’époque la Terre tournait très vite sur elle-même (en moins de quatre heures) alors que Mars tournait six fois plus lentement.

De nouvelles observations permettront bientôt d’en savoir plus sur l’âge et la composition des lunes de Mars. En effet, l’agence spatiale japonaise (JAXA) a décidé de lancer en 2022 une mission, baptisée Mars Moons Exploration (MMX), qui rapportera sur Terre en 2027 des échantillons de Phobos. L’analyse de ces échantillons pourra confirmer ou infirmer ce scénario. L’Agence spatiale européenne (ESA), en association avec l’agence spatiale russe (Roscosmos), prévoit une mission similaire en 2024.

© Antony Trinh / Observatoire Royal de Belgique Chronologie des événements qui auraient donné naissance à Phobos et Deimos. Mars est percutée par une protoplanète trois fois plus petite (1). Un disque de débris se forme en quelques heures. Les briques élémentaires de Phobos et Deimos (grains de taille inférieure au micromètre) se condensent directement à partir du gaz dans la partie externe du disque (2). Le disque de débris produit rapidement une lune proche de Mars, qui s'éloigne et propage ses deux zones d'influence comme des vagues (3), ce qui provoque en quelques millénaires l'accrétion des débris plus éloignés en deux petites lunes, Phobos et Deimos (4). Sous l'effet des marées soulevées par Mars, la grosse lune retombe sur la planète en quelques millions d'années (5), tandis que Phobos et Deimos, moins massifs, rejoignent leur position actuelle dans les milliards d'années qui suivent (6).
© Antony Trinh / Observatoire Royal de Belgique
Chronologie des événements qui auraient donné naissance à Phobos et Deimos.
Mars est percutée par une protoplanète trois fois plus petite (1). Un disque de débris se forme en quelques heures. Les briques élémentaires de Phobos et Deimos (grains de taille inférieure au micromètre) se condensent directement à partir du gaz dans la partie externe du disque (2).
Le disque de débris produit rapidement une lune proche de Mars, qui s’éloigne et propage ses deux zones d’influence comme des vagues (3), ce qui provoque en quelques millénaires l’accrétion des débris plus éloignés en deux petites lunes, Phobos et Deimos (4).
Sous l’effet des marées soulevées par Mars, la grosse lune retombe sur la planète en quelques millions d’années (5), tandis que Phobos et Deimos, moins massifs, rejoignent leur position actuelle dans les milliards d’années qui suivent (6).
© Université Paris Diderot / Labex UnivEarthS Vue d'artiste de l'impact géant qui aurait donné naissance à Phobos et Deimos et au bassin d'impact Boréalis. L'impacteur devait faire environ le tiers de la taille de Mars. A cette époque, Mars était jeune et possédait peut-être une atmosphère plus épaisse et de l'eau liquide en surface.
© Université Paris Diderot / Labex UnivEarthS
Vue d’artiste de l’impact géant qui aurait donné naissance à Phobos et Deimos et au bassin d’impact Boréalis.
L’impacteur devait faire environ le tiers de la taille de Mars. A cette époque, Mars était jeune et possédait peut-être une atmosphère plus épaisse et de l’eau liquide en surface.

Source : cnrs

Réalité augmentée, chatbots, fils d’actus : où va Facebook ?

Fin avril, Facebook annonçait avoir triplé ses bénéfices (1,5 milliards de dollars) au premier trimestre 2016, avec un chiffre d’affaire de 5,4 milliards. Pourquoi le réseau social se porte-t-il si bien ? Parce qu’avec 150 millions d’utilisateurs gagnés en 1 an, la plateforme propose au total aux annonceurs quelque 1,65 milliards de cibles potentielles.

Des bénéfices, mais un réseau social vieillissant

Pourtant, tout n’est pas si rose. 75 millions de nouveaux utilisateurs, soit la moitié des 150 millions acquis en 2015, viennent en fait d’Asie et de cette zone géographique que Facebook appelle “le reste du monde”, et que nous connaissons sous le terme de “pays émergents” – autrement dit, des marchés pas encore “matures” où le réseau social commence enfin à se faire connaître.

Et si les bénéfices sont là, c’est surtout parce que l’ARPU (revenu moyen par utilisateur) est boosté par la publicité sur le mobile. Ainsi, ses recettes publicitaires ont grimpé de 57% pour atteindre 5,2 milliards de dollars, dont 4,2 milliards (82 %) encaissés pour des annonces regardées sur des smartphones.

Derrière ces chiffres, se cache une autre réalité : Facebook est de plus en plus annoncé comme vieillissant. Facebook ne semble plus avoir vraiment la cote, face à Instagram et Snapchat – et régulièrement, on entend parler d’ados décrivant un “réseau social de vieux”, sorte de “façade” où donner une belle image de soi, et où parents et adultes ne sont jamais très loin. Même si une enquête de ComScore montre que les 18-34 ans passent encore beaucoup de temps sur Facebook, devant Snapchat, Twitter, Tumblr ou Pinterest, une étude du Pew Research Center note “un enthousiasme déclinant des jeunes » pour la plateforme.

Facebook s’inquiète aussi d’une baisse progressive de la publication de statuts “personnels”, les internautes préférant de plus en plus partager des informations circulant dans leur “newsfeed”, plutôt que de risquer de partager des publications trop “personnalisées” avec le tout venant – dans un espace “public” laissant de moins en moins de place à la vie privée.

Des chatbots proactifs sur Messenger

Pour continuer à générer des profits, Facebook essaie de se diversifier, au maximum. D’abord, en se jetant la tête la première dans le grand bassin de l’intelligence artificielle. Ses applications de messagerie instantanée, Messenger (900 millions d’utilisateurs) et WhatsApp (plus d’un milliard d’utilisateurs), fonctionnent du feu de Dieu. Alors, Mark Zuckerberg s’est lancé dans la création (par son entreprise, mais aussi par des développeurs volontaires) de robots conversationnels, ou “chatbots”, avec l’idée de permettre à l’utilisateur d’être en relation directe avec les entreprises via Messenger, via une discussion.

imagge

Pour Facebook, il faut ainsi penser à “l’ère post-applications”, et tout rendre accessible au même endroit, afin de pouvoir commander des fleurs ou réserver une chambre d’hôtel avec un chatbot sur Messenger, sans avoir besoin d’installer une appli. Son idée est donc de créer des robots “intelligents”, des I.A. capables d’analyser nos demandes et d’anticiper nos besoins. “M”, l’assistant personnel “proactif” (en cours de déploiement) de Facebook sur Messenger, “exécutera des tâches pour vous, achètera des articles, fera livrer des cadeaux à vos proches, réservera un restaurant, un voyage…”, promet Mark Zuckerberg.

Pour l’instant, les chatbots se révèlent encore bien trop lents et peu efficaces, quand ils ne sont pas carrément agaçants lorsqu’ils ne comprennent pas nos requêtes. Mais l’idée est là et Facebook mise à fond sur le Deep Learning pour améliorer ses bots, qui permettront de monétiser Messenger. Car Facebook compte bien glisser de la pub et des “messages sponsorisés” dans les conversations des chatbots. Selon TechCrunch, “si les robots sur Messenger réussissent, Facebook pourrait introduire ses chatbots sur WhatsApp”. Et monétiser cette appli à son tour.

La réalité virtuelle pour garder les jeunes ?

Pour changer radicalement son réseau social, Facebook compte aussi sur la réalité virtuelle (VR), afin de permettre à ses utilisateurs de tout partager dans des “univers virtuels”.

Couplée aux chatbots, la VR est une future “plateforme sociale”, qui permettra à Facebook de “connecter les gens”, où qu’ils se trouvent dans le monde. Munis d’un casque Oculus Rift ou Gear VR, les utilisateurs pourront filmer ce qu’ils voient, et partager des “expériences” avec leurs proches. Pour cela, ils filmeront des vidéos, en live, à 360 degrés, avec la dernière caméra futuriste de la firme, la Facebook Surround 360, et créeront des “vidéos immersives”.

facebook1

Pour Mark Zuckerberg, à terme, nous n’utiliserons même plus de casques, mais des lunettes, mixant la réalité augmentée des Google Glass et la réalité virtuelle. “Imaginez que vous visitiez un monument. Avec vos lunettes Facebook, vous pourriez découvrir qu’un ami s’est rendu au même endroit l’année précédente, voir flotter devant vous ses commentaires, ajouter les vôtres”, rêve Mashable.

Et si vous passez devant un resto, pourquoi ne pas imaginer un chatbot apparaître devant vous pour vous donner des conseils ? Une chose est certaine : “il y aura de la publicité dedans”, assure Mark Zuckerberg, qui planche aussi, à travers Oculus, sur un projet de “salons virtuels”, dans lesquels se retrouver entre amis pour discuter, regarder des vidéos et jouer, en direct – “Social Alpha”.

De nouveaux fils d’actu thématiques

Facebook n’oublie bien sûr pas sa plateforme en tant que telle, en préparant la refonte de son fil d’actu. Moins encombrée par les photos, les statuts, les vidéos et les news, la nouvelle interface (pour smartphones) serait mieux structurée, plus agréable à parcourir… et permettrait de dissocier les “news personnelles” et les informations (ciblées) émanant des sites “likés”. Une façon de faire de Facebook un “super-agrégateur” de contenus, tout en permettant à ceux préférant les status “personnels”, de mieux les retrouver.

Evidemment, Facebook compte continuer à draguer de nouveaux utilisateurs dans les pays émergents, afin de continuer à accroître sa base clients et donc ses bénéfices tirés de la pub. Ainsi, Mark Zuckerberg a-t-il confié à son laboratoire, le “Connectivity Lab”, la mission de “connecter le monde entier” grâce à des drones, des lasers et des satellites.

Par Fabien Soyez

Les failles de sécurité font de la résistance

Régulièrement, les éditeurs de logiciels et de systèmes d’exploitation publient des correctifs de sécurité. Mais toutes les entreprises n’assurent pas ce SAV avec le même professionnalisme et la même rapidité. Cette situation n’est pas du tout récente.

Mais la publication de rapports représente l’occasion de rappeler qu’elle est à haut risque.

Ainsi, le rapport Security Intelligence (SIR) de Microsoft révèle que la faille CVE-2010-2568 a été découverte « il y a 6 ans en 2010 à l’occasion du fameux virus Stuxnet, cyber arme de sabotage des infrastructures nucléaires Iraniennes » comme le précise Silicon.fr.

Or cette vulnérabilité concerne encore des postes de travail fonctionnant sous Windows 8, Windows 7, Vista, XP, Server 2008 et Server 2003. Sur ces ordinateurs et serveurs, les mises à jour de sécurité n’ont donc pas été appliquées…

Il y a quelques mois, le Cyber Risk Report de HP avait fait le même constat inquiétant : « la majorité des exploits analysés par notre équipe se reposent sur d’anciennes vulnérabilités ». Et dans ce rapport, HP avait cité des failles exploitant du code présent dans des fonctionnalités obsolètes, au sein d’Adobe Reader ou de… Microsoft Office par exemple. À ce propos, en novembre 2014, Microsoft avait corrigé une faille présente depuis… 19 ans dans ses différents systèmes d’exploitation, c’est-à-dire – au moins – depuis Windows 95 !

Les systèmes d’exploitation pour téléphones ne sont pas épargnés. Il y a quelques jours, des experts en sécurité informatique ont découvert une faille qui sévit sur les smartphones Android depuis 2011. Le plus inquiétant est que cette faille ne sera jamais corrigée sur certains appareils (ceux embarquant des puces Qualcomm et tournant sous Android Jelly Bean 4.3). De son côté, Apple a corrigé en janvier dernier une vulnérabilité repérée pour la première fois en 2013.

Si les vieilles failles ne sont pas encore corrigées sur tous les postes de travail, il y a aussi des vieux virus qui ne sont toujours pas détectés et qui représentent donc encore une menace. Organisé en 2010 à Paris par l’ESIEA (une école d’ingénieurs), le challenge PWN2KILL avait été redoutable pour les principaux antivirus du marché.

Lors de ce concours, des hackers devaient désactiver des ordinateurs protégés par des antivirus. Certains poids lourds censés protéger les PC contre les codes malveillants n’avaient pas résisté plus de quelques minutes. « Le plus inquiétant est que sur une échelle de 1 à 10, le niveau technique moyen des attaques était de 4 environ. Face à des attaques plus sophistiquées, le résultat aurait été encore plus désastreux. Autre constat alarmant : une des attaques reposait sur un code malveillant de trois lignes, vieux de dix ans et montré sur YouTube. Or, il a mis K.O tous les antivirus ! », avait constaté Éric Filiol, coorganisateur du challenge.

Philippe Richard

Eolien : l’Europe en ordre de bataille

Après l’Europe, le monde

L’énergie éolienne est désormais une énergie significative en Europe. Fin 2015, près de 142 000 MW éoliens étaient installés sur le Vieux continent contre quasiment rien il y a 15 ans. Le vent couvre désormais plus de 11% de la demande électrique et le secteur emploie 255 000 personnes. Une prouesse permise par une politique pro-énergies renouvelables élaborée par l’Union européenne et appliquée avec plus ou moins de volonté selon les Etats-membres. Ainsi, l’Allemagne caracole en tête avec un parc éolien de 45 GW, suivi de l’Espagne (23 GW), le Royaume-Uni (14 GW) et la France (10 GW).

L’essentiel de ces capacités est installé sur terre mais la multiplication des problématiques foncières, militaires et d’acceptabilité ont poussé les développeurs à s’intéresser à l’offshore. C’est le nouveau défi technologique auquel s’est attaqué l’industrie éolienne. Là-encore, l’Allemagne et le Royaume-Uni font office de précurseurs. La France elle aussi a pris le train en marche en attribuant, par appel d’offres, 6 parcs éoliens en mer (cumulant 3 000 MW) dont la mise en service est prévue pour 2021.

En attendant le retour d’expérience de ces premiers parcs éoliens marins, les spécialistes du secteur sont allés chercher de nouveaux relais de croissance à l’étranger, suite à la baisse des subventions européennes pour les installations à terre. Les marchés mexicain, brésilien, nord-américain et indien font office d’El Dorado grâce à des conditions naturelles propices et un cadre réglementaire incitatif. Ainsi le Mexique, invité d’honneur de la conférence madrilène, et historiquement pays pétrolier, a entamé une véritable transition énergétique. Le gouvernement s’est fixé des objectifs ambitieux en matière d’éolien : 9 500 MW installés en 2018, soit 25% du mix électrique ! Mexico espère dépasser la barre des 30% en 2021 pour plafonner autour de 36% à partir de 2024. « Il y a des règles transparente et une bonne visibilité. Tout est réuni pour que le Mexique réussisse son pari », se félicite Félix Núñez, president d’Aldesa Industrial.

Concentration

Pour attaquer ces nouveaux marchés, les acteurs européens de l’éolien se sont rapprochés. En l’espace de quelques mois, le secteur a vu se multiplier les opérations de fusions/acquisitions : l’Allemand Nordex qui rachète l’Espagnol Acciona, le mariage officialisé en juin entre Siemens et Gamesa et enfin le rachat par General Electrics du fleuron industriel français Alstom. « Il s’agit d’un mouvement (de concentration) naturel qui correspond à un certain state de maturité du secteur. Nos besoins d’investissement et de R&D vont aller grandissant, nous avons donc besoin d’être plus fort », indique Ricardo Chocarro, directeur de Gamesa pour l’Europe, le Moyen-Orient et l’Afrique. Une stratégie de renforcement accélérée par la montée en puissance des acteurs chinois. Ainsi l’année dernière, pour la première fois, une compagnie chinoise, Goldwind, est devenu le premier installateur mondial de turbines éoliennes. Une performance permise par un marché domestique fabuleux. « Jusqu’à maintenant, leur marché local leur suffisait, mais cela ne va sans doute pas durer », conclue Pablo Finkielstein, directeur de la division éolienne et renouvelables de Siemens.

Par Romain Chicheportiche, à Madrid

110 prix Nobel défendent les OGM

Selon 110 lauréats du prix Nobel, majorairement primés pour leurs travaux en physique, chimie et médecine, l’opposition systématique des associations aux OGM menace la sécurité alimentaire mondiale. Ces signataires, parmi lesquels figurent 4 Français –  Claude Cohen-Tannoudji (physique), Roger Guillemin (médecine), Serge Haroche (physique) et Jean-Marie Lehn (chimie) – demandent à l’organisation écologiste d’ « abandonner leur campagne contre les OGM en général et contre le riz doré en particulier ». Ils exhortent également les gouvernements du monde entier à rejeter ces campagnes et « faire tout ce qui est en leur pouvoir pour s’opposer aux actions de Greenpeace et accélérer l’accès des agriculteurs à tous les outils de la biologie moderne », en particulier les semences génétiquement modifiées.

D’après les prix Nobel, toutes les études des agences scientifiques et réglementaires à travers le monde montrent que les OGM « sont aussi sûrs, sinon plus, que ceux provenant de toute autre méthode de production ». Ils seraient aussi meilleurs pour l’environnement et pour la biodiversité. Par ailleurs, « il n’y a jamais eu un seul cas confirmé d’un résultat négatif sur la santé pour les humains ou les animaux dû à leur consommation », notent-ils. Mais comme le relève Greenpeace, affirmer que les OGM sont bons pour la santé, l’environnement et la biodiversité peut paraître surprenant. Les plantes deviennent de plus en résistantes au Roundup, l’herbicide total associé aux OGM de Monsanto, les cas de contamination croisées à cause des disséminations sont inquiétants et il n’y a jamais eu de réelle évaluation de l’impact sanitaire des OGM sur le long-terme… Mise à part celle de Gilles-Eric Séralini qui a été approuvée avant d’être rejetée puis finalement republiée dans la revue scientifique Environmental Sciences Europe.

Lire aussi : Les nouveaux OGM en débat !

Du riz doré pour de la bonne vitamine A?

Les signataires tiennent particulièrement à défendre le riz doré, un riz génétiquement modifié enrichi en vitamine A. Ils affirment que cet OGM a le « potentiel de réduire ou d’éliminer la plupart des décès et maladies causés par une carence en vitamine A ». Un fléau touchant 250 millions de personnes, selon l’Organisation mondiale de la Santé.

Wilhelmina Pelegrina,  chargée de campagne à Greenpeace pour l’Asie du Sud-Est répond à ces accusations. « Le riz doré a échoué en tant que solution et n’est actuellement pas disponible à la vente, même après plus de 20 ans de recherche. Comme admis par l’Institut international de recherche sur le riz, il n’a pas été prouvé qu’il pouvait réellement diminuer les carences en vitamine A. Donc, pour être clair, nous parlons de quelque chose qui n’existe même pas », insiste-t-elle. Elle rappelle enfin que les entreprises agrochimiques mettent en avant le riz doré pour faire approuver les cultures résistantes aux herbicides dans l’opinion publique.

Par Matthieu Combe, journaliste scientifique

Ingénieurs : la photo socio-professionnelle de 2015

Cette enquête annuelle de l’IESF est sans conteste une référence pour révéler les évolutions au sein de la population des ingénieurs. Via un questionnaire distribué par 125 associations et quelques 55000 répondants, cette enquête fournit un bon panorama sur la situation des ingénieurs.

Toujours plus de femmes

La France compte toujours plus d’ingénieurs : près d’un million en 2015 (dont 780 000 en activité) contre 680 000 en 2009.

Si les femmes ne représentent qu’un cinquième toutes générations confondues, leur proportion augmente régulièrement. Ainsi, elles constituent 29% des diplômés 2015 (11000 sur 38000 nouveaux ingénieurs) alors qu’elles ne comptaient que pour 10% en 1980. Leur présence est cependant très inégale : elles se dirigent surtout vers la chimie et l’agro-alimentaire et sont sur-représentées dans la fonction publique.

L’expatriation reste stable

Comme pour les années précédentes, le nombre d’ingénieurs qui exercent à l’étranger est assez stable autour de 16%, soit un ingénieur sur 6. L’Europe reste la principale destination de travail (plus de 70000 ingénieurs français y travaillent) et les trois pays d’accueil principaux sont la Suisse, l’Allemagne et le Royaume-Uni. L’expatriation en Asie commence à être vraiment visible (plus de 17000 ingénieurs dont quelques 10 000 rien que pour la Chine). Les deux Amériques gardent bien sûr une belle part (plus de 24000 ingénieurs dont 14500 aux USA).

Bonnes rémunérations au rendez-vous

Même si le salaire médian brut n’a pas beaucoup évolué depuis 2008, les ingénieurs ne sont pas à plaindre, avec 56000 euros par an, ce salaire médian est 17% au-dessus de celui de l’ensemble des cadres. Les rémunérations sont relativement homogènes puisque l’écart entre les 10% les moins bien payés et les 10% les mieux payés est de 1,5 à 25 ans et de 3 à 60 ans. On note cependant toujours un écart significatif entre la rémunération des hommes et des femmes : salaire médian de 48000 euros pour elles, 59000 euros pour eux et en fin de carrière l’écart se creuse encore 85000 contre 100 000 euros. L’insertion dans le monde du travail semble aisée et les ingénieurs sont plutôt épargnés par le chômage : 4,4% de chômeurs dont 1,3 % en recherche de premier emploi.

Des jeunes plus entrepreneurs et consultants

La part de l’entrepreneuriat dans la population des ingénieurs est en constante augmentation. 18% d’entre eux ont déjà créé ou repris une entreprise. Les plus actifs en la matière sont les plus âgés (50-64 ans), mais les jeunes ne sont pas en reste. Mieux et plus formés sur le sujet (26% des moins de 30 ans ont été préparés à l’entrepreneuriat pendant leurs études contre 7% dans la tranche 40-49 ans), ils hésitent moins à se lancer, notamment via le statut d’auto-entrepreneur ou en passant par du portage salarial. Cette tendance s’accentue tout comme celle du consulting. Ainsi, 100 000 ingénieurs se déclarent « consultants » dont 16% des moins de 30 ans. Ils peuvent être indépendants ou salariés de sociétés de services ou de cabinet de conseil. Des secteurs qui embauchent énormément : 25% des ingénieurs du secteur du conseil ont été recrutés en 2015 et un tiers des diplômés 2014 et 2015 travaillent dans une société de services ou de conseil.

Par Sophie Hoguin

The Ocean Cleanup: premier prototype en Mer!

Le premier prototype de Boyan Slat est installé en mer depuis le 23 juin, à 23 km des côtes néerlandaises, au large du port de Scheveningen (La Hague). Durant un an, sa barrière flottante de 100 m de long, équipée de bouées auxquelles sont suspendues des filets d’1,5 m de long, sera mise à dure épreuve dans des conditions météorologiques extrêmes. Le site d’essai en mer du Nord a été choisi pour la puissance des courants liés à la marée. « Les conditions au cours d’une tempête mineure sont plus sévères que celles des tempêtes exceptionnellement lourdes (survenant une fois tous les 100 ans) dans l’océan Pacifique », explique Boyan Slat.

ocean2

Grâce à des caméras et des capteurs, la résistance aux vagues et courants sera scrutée au peigne fin.  Ce prototype est conçu pour supporter des charges de 80 tonnes et pour capturer les fragments de plastique jusqu’à 1 mm de diamètre. Ce test permettra d’améliorer la résistance du système pour construire un premier système pilote opérationnel fin 2017, entièrement résistant à des conditions sévères.

Fondée en 2013 par Boyan Slat, alors âgé de 18 ans, la fondation The Ocean Cleanup, basée à Delft aux Pays-Bas, emploie aujourd’hui près de 50 ingénieurs et chercheurs. Ce premier prototype aura coûté 1,5 million d’euros. Un tiers a été financé par le Gouvernement des Pays-Bas, un tiers par l’entreprise maritime d’assistance aux projets offshore Boskalis et un tiers par un philanthrope anonyme. Par ailleurs, une campagne de crowdfunding avait rapporté plus de 2 millions d’euros en septembre 2014. Ce montant a notamment permis de réaliser les premiers tests et une séquence d’expéditions de reconnaissance à l’été 2015 dans le gyre du Pacifique Nord.

ocean1

Du prototype au système final

La barrière agit comme un littoral artificiel, capturant et concentrant les déchets, grâce à l’énergie fournie par le mouvement de la houle et des vagues. Pour Boyan Slat, « un résultat positif de ce test devrait nous mettre sur la bonne voie pour déployer le premier système pilote opérationnel à la fin 2017 ».

D’ici 2020, l’objectif est de déployer deux barrières flottantes de 50 km de long, en forme de « V » et arrimés aux fonds marins, entre Hawaii et la Californie, au coeur du gyre du Pacifique Nord. Grâce un rideau de filets plongeant dans l’eau sur trois mètres de profondeur, ils bloqueront les plastiques de l’océan. Ces déchets seront alors rabattus vers un container capable de stocker 3000 m3 de matière. Selon Boyan Slat, une telle structure pourrait nettoyer environ la moitié du Pacifique nord en 10 ans.

La barrière finale sera consacrée au nettoyage des 5 gyres présents dans les océans au niveau mondial. Ce projet permettra de retirer les grands objets en plastique, comme les bouteilles, avant qu’ils ne se réduisent en micro-fragments. Il ne résoudra cependant pas le problème des micro-plastiques déjà présents en mer ou qui seront relâchés à l’avenir par les usines ou encore les stations d’épuration. Pas plus que la pollution présente en mer Méditerrannée ou le long des côtes. Pour se débarrasser pleinement de cette pollution, cette solution doit s’intégrer dans une lutte globale (plus de précisions : Pollution des micro-plastiques : quelles solutions ? ).

Par Matthieu Combe, journaliste scientifique