Des cancers repérés par son smartphone ?

Démocratisation de la détection de cancers ou gadget pour hypocondriaques ? Dans un article paru ce mardi 17 janvier dans Nature Communications, ces scientifiques ont développé un microscope qui s’appuierait sur le capteur photo d’un smartphone pour réaliser des séquençages d’ADN.

Ce dispositif serait en effet capable de détecter les produits fluorescents des réactions de séquençage de l’ADN dans les cellules et les tissus. Il ne serait plus nécessaire de se rendre dans un laboratoire. Un médecin pourrait brancher ce microscope à son téléphone pour effectuer par exemple une analyse moléculaire sur une tumeur.

Un progrès majeur pour repérer à temps, et à moindre coût, un cancer ou une maladie infectieuse. Présente dans chaque cellule vivante, l’acide désoxyribonucléique (ADN) rassemble toute l’information permettant à l’organisme qui la contient de se développer et de se gérer. Le séquençage permet en effet de comprendre et de poser un diagnostic, mais également d’identifier des mutations génétiques. Il permet d’identifier une mutation ou un gène impliqué dans une maladie, mais également d’évaluer les prédispositions génétiques d’une personne pour certaines maladies ou d’en savoir plus sur sa « généalogie génétique ».

Pour relever ce défi, les chercheurs américains et suédois se sont appuyés sur l’impression 3D pour concevoir leur dispositif.  Il est équipé de deux diodes laser pour l’imagerie par fluorescence et d’une diode électroluminescente blanche pour l’imagerie de transmission. Des essais concluants ont été réalisés sur des lignées cellulaires de cancer du côlon et sur des échantillons de tumeurs humaines. Le traitement des images a été géré par un algorithme d’apprentissage automatique.

Les Français ne sont pas en reste. Patrick Merel, un biologiste moléculaire qui a fait toutes ses études à Bordeaux, propose une application qui permettrait à chacun de transporter son génome sur son smartphone, de suivre l’évolution des connaissances relatives à son état patrimoine génétique. Une mention « cancer du sein » accompagnée d’une icône rouge soulignera par exemple une prédisposition à cette maladie, tandis qu’une icône verte indiquera l’absence de risque.

Avec deux autres biologistes et une chercheuse en bio-informatique du CNRS au Labri, il a conçu un projet qui en surprend plus d’un : faire entrer ce fichier de 3 Go – notre génome humain – dans un téléphone portable. En ayant toujours avec soi son code génétique, nous pourrions le faire analyser à tout moment par un spécialiste. Une activité en pleine croissance. Moyennant quelques centaines de dollars, des firmes, essentiellement américaines, proposent déjà aux particuliers de séquencer les données contenues dans leur ADN. Un labo décrypte l’ADN, et en quelques clics, le curieux a accès à certaines informations de son ADN via un site sécurisé et peut savoir, par exemple, s’il est porteur de gènes favorisant tel ou tel cancer.

N’ayant pas obtenu de financement en France (le séquençage du génome demeure strictement encadré), Patrick Merel s’est rendu aux États-Unis pour créer la société Portable Genomics. Début janvier, Apple le contactait… Un premier pas vers la génomique portable ? « Ne va-t-on pas inquiéter inutilement des personnes qui ne vont pas forcément déclarer ces maladies ? », s’inquiète au contraire Patrick Gaudray, membre du Conseil consultatif national d’éthique (CCNE) et directeur de recherche au CNRS.

Philippe Richard

Bilan électrique 2016 : le nucléaire recule

En 2016, la part du nucléaire dans la production d’électricité a atteint 72,3%, contre 76,3% en 2015. La production nucléaire perd ainsi 7,9%, à 384 térawatheures (TWh). Mais ce recul n’est pas le fruit de la loi de transition énergétique pour la croissance verte qui vise une part de nucléaire dans la production d’électricité à 50% en 2025. Il est notamment lié à l’arrêt de plusieurs réacteurs entre novembre et décembre. L’Autorité de Sûreté Nucléaire vérifiait alors l’état des générateurs de vapeur dans les centrales qui pourraient avoir fait l’objet de défauts de fabrication.

Résultat : si la France exporte toujours plus d’électricité qu’elle n’en importe, le solde des échanges avec ses voisins baisse de 36,6% et atteint 39,1 TWh. C’est son niveau le plus bas depuis bas depuis 2010. La consommation s’élève quant à elle à 483 TWh et, corrigée de l’effet météorologique, demeure stable, à 473 TWh.

Moins de charbon et de fioul, plus de gaz et de renouvelables

Sur l’année, le parc de production d’électricité installé progresse de 1.700 mégawatts (MW), pour atteindre 130,8 gigawatts (GW).  Il gagne 1.345 MW d’éolien, 576 MW de solaire,  215 MW  de bioénergies et 51 MW  d’hydraulique. En revanche, le parc thermique à combustible fossile perd au total 488 MW.

Concernant les énergies renouvelables, la puissance totale du parc s’élève désormais à 45,84 GW pour une production de 94,7 TWh, en hausse de 6,5 % par rapport à 2015. Elles assurent 17,8% de la production et couvrent 19,6% de la consommation française, soit 0,9% de plus qu’en 2015, mais autant qu’en 2014. Dans le détail, la production hydraulique renouvelable (59,2 TWh) couvre 12,2% de la consommation. La production éolienne (20,7 TWh) et solaire (8,3 TWh) couvrent respectivement 4,3% et 1,7% de la consommation. Enfin, la production renouvelable de la filière bioénergies (6,5 TWh) assure 1,4% de la consommation.

Du côté des énergies fossiles, le charbon recule de 15,4% (à 7,3 TWh) et le fioul perd 13,1% (3,3 TWh). En revanche, le gaz gagne 60,8% et atteint une production de 35,3 TWh. Cela en fait la troisième énergie française, après le nucléaire et l’hydraulique. Cette forte hausse est notamment due à la nouvelle centrale Cycle Combiné Gaz de 563 MW, installée à Bouchain. Les énergies fossiles couvrent ensemble 8,6% de la production française.

Début 2017, RTE indique être confronté à une situation tendue. Plusieurs réacteurs nucléaires sont toujours à l’arrêt. En janvier, les capacités de production étaient limitées à 90 GW, alors que la demande avoisinait 93 GW.

Par Matthieu Combe, journaliste scientifique

Atlantique Nord : le risque d’un refroidissement rapide au XXIe siècle revu à la hausse

Détecté dans toutes les projections des modèles climatiques actuels, le ralentissement de la circulation océanique de retournement2 (dont fait partie le fameux Gulf Stream qui apporte la chaleur de la Floride jusqu’aux côtes européennes) pourrait entraîner un bouleversement climatique sans précédent. En 2013, le GIEC, se basant sur les résultats d’une quarantaine de projections climatiques, a estimé que ce ralentissement s’installerait progressivement et sur une échelle de temps longue. Un refroidissement rapide de l’Atlantique Nord au cours du XXIe siècle semblait donc peu probable.

Dans le cadre du projet européen EMBRACE, une équipe d’océanographes a réexaminé ces 40 projections climatiques en se focalisant sur un point névralgique au nord-ouest de l’Atlantique Nord : la mer du Labrador. Cette mer est le siège d’un phénomène de convection, qui nourrit à plus grande échelle la circulation océanique de retournement. Ses eaux de surface se refroidissent fortement en hiver, deviennent plus denses que les eaux de profondeur et plongent vers le fond. La chaleur des eaux profondes est transférée vers la surface et empêche la formation de banquise. Choisissant d’étudier ce phénomène de convection en détail, les chercheurs ont développé un algorithme capable de repérer les variations rapides des températures à la surface de l’océan. Cette « moulinette statistique » a révélé que 7 des 40 modèles climatiques étudiés projetaient un arrêt complet de la convection engendrant des refroidissements abrupts – 2 ou 3 degrés en moins de dix ans – de la mer du Labrador, induisant de fortes baisses des températures dans les régions côtières de l’Atlantique Nord.

Mais un tel refroidissement rapide, simulé seulement par quelques modèles, est-il vraisemblable ? Pour répondre à cette question, les chercheurs se sont penchés sur la variable clé du déclenchement de la convection hivernale : la stratification océanique. Ces variations verticales de la densité des masses d’eau sont bien reproduites dans 11 des 40 modèles. Parmi ces 11 modèles, qui peuvent être considérés comme les plus fiables, 5 simulent une baisse rapide des températures de l’Atlantique Nord, soit 45 % !

Ces résultats issus de modèles climatiques pourront être confrontés aux futures données du projet international OSNAP qui prévoit l’installation de bouées fixes dans le gyre subpolaire. De quoi anticiper de possibles refroidissements rapides dans les années à venir. Ce risque devra par ailleurs être pris en compte dans les politiques d’adaptation au changement climatique des régions bordant l’Atlantique Nord.

Cap-cnrs1

Cap-cnrs2

Notes :

  1. Le GIEC, Groupe d’experts intergouvernemental sur l’évolution du climat, a rendu les 3 volumes de son 5e rapport d’évaluation en 2013 et 2014
  2. La circulation océanique de retournement est parfois appelée circulation thermohaline.

Références :

Abrupt cooling over the North Atlantic in modern climate models, Giovanni Sgubin, Didier Swingedouw, Sybren Drijfhout, Yannick Mary & Amine Bennabi. Nature Communications, 15 février 2017. DOI: 10.1038/ncomms14375

Source : cnrs

L’Inde libérée du charbon dès 2050 ?

«  Le coût de l’électricité renouvelable et de son stockage est en déclin continu et pourrait se stabiliser vers 5 roupies (7 centimes d’euros NDLR) le kWh » écrivent les co-auteurs de ce rapport stratégique. Cela permettra à l’Inde de se diriger de façon décisive vers les énergies renouvelables pour les projets électriques futurs. Ces spécialistes ajoutent qu’ « il est peu vraisemblable qu’il y ait de nouveaux investissements dans le charbon, le gaz fossile ou l’énergie nucléaire ».

La banque américaine Morgan Stanley vient de publier une étude ( « Energy storage: the underestimated disruptor ») où est souligné le fait que nombreux sont ceux qui n’ont pas encore compris l’importance du tsunami du stockage batterie qui est en train de se former. Le cabinet Deloitte abonde dans le même sens et annonce une croissance exponentielle.

Selon Tony Seba de Stanford University les  gas peakers (centrales à gaz spécialisées en gestion de pointe) ne seront plus compétitives dès 2020.  Cet auteur du best-seller  « Clean Disruption » estime que la « disruption est inévitable pour des raisons économiques.  Les gouvernements peuvent aider à créer des emplois et de la richesse ou au contraire freiner et nous rendre plus pauvres mais ne peuvent pas la stopper ». Dans son ouvrage qui vient de paraître,  « La révolution Tesla », le chercheur hollandais Rembrandt Koppelaar, professeur à l’Imperial College London, explique lui aussi « pourquoi Big Oil a perdu la guerre de l’énergie ».

Alors que la Gigafactory  du Nevada a commencé à produire des batteries, Elon Musk envisage d’en construire une seconde en Inde. Le Premier Ministre indien a visité l’usine Tesla de Fremont en Californie il y a un an et demi. Une troisième sera  construite en Europe. Peut être en Finlande, sur l’île de Chypre ou encore en Lituanie.

Avant le déluge (Before the flood)

Pour que le monde entier passe au 100% Renouvelable Elon Musk et les cerveaux de la Silicon Valley estiment que 100 Gigafactories suffiront.  Un tel déferlement est-il vraiment envisageable ? « On a d’abord le mépris de l’adversaire » explique Philippe Silberzahn, spécialiste de l’innovation de rupture, dans un article intitulé « Tout va très bien Madame la Marquise ». Avec des analyses naïves  du genre « Nous on est gros, alors que Tesla est un petit moustique ». Silberzahn ajoute:  « on a ensuite le syndrome de la dinde: celle qui juge que demain sera toujours comme aujourd’hui ». Et on a au final la noyade.  « D’abord ils vous ignorent, ensuite ils se moquent de vous, après ils vous combattent et enfin, vous gagnez ».

Dans un autre article intitulé  «  Le Dilemne de l’innovateur » Silberzahn explique avec pédagogie que  «  l’erreur du bourrage («  cramming «  en anglais) consiste à raisonner à partir de son marché, et de son réseau de valeur, en se demandant comment l’innovation de rupture pourrait servir ce marché et ce réseau, et plus généralement son modèle d’affaire, au lieu de raisonner à partir de l’innovation elle-même en se demandant quel nouveau marché et quel nouveau réseau de valeur, et donc quel nouveau modèle d’affaire, elle pourrait permettre de construire. »

Selon  Silberzahn, auteur du livre « Effectuation: les principes de l’entrepreneuriat pour tous »  qui a reçu le prix académique du meilleur ouvrage de management, il serait «  vraiment déraisonnable de ne pas prendre au sérieux » Tesla. Se contenter de dire « le parallèle de Kodak ou Nokia avec nous ne tient pas » est selon ce professeur « simplement trop risqué. A bon entendeur…»
De son côté Elon Musk, qui envisage par ailleurs de conquérir la planète Mars, anticipe la vague: la robotisation croissante va selon lui rendre indispensable la création du revenu universel de base. Un avis partagé par Benoît Hamon, candidat socialiste à la présidentielle 2017.
Olivier Daniélo

L’événement de l’innovation spatiale

La PARIS SPACE WEEK est composée de 5 expositions / salons ciblés sur des thématiques spatiales (Smart Manufacturing, Composites & matériaux innovants, Essais, Optique & Photonique, Technologies embarquées), trois conventions d’affaires (Industry, Applications & R&D), des Start-up Challenges et de nombreuses conférences animées par des leaders de l’industrie spatiale mondiale (NASA, ESA, JAXA, CNES, CASC, AIRBUS, LOOKHEED MARTIN, THALES…).

PSW est organisée par ASTech et est le plus grand rassemblement européen de décideurs et de start-up de la filière spatiale.

Liste des participants : Télécharger la liste des participants  Plus d’information : Site Internet ou au 01 46 90 22 37

Comment manager et mesurer la performance industrielle ?

Qu’est-ce qu’un système de management visuel de la performance ?

Une définition pourrait être : Un système de management visuel de la performance permet de structurer la prise de décisions et le déclenchement d’actions, à tous les niveaux de l’entreprise, en s’appuyant sur des outils visuels simples et efficaces.

Attention : dans de nombreuses entreprises, on associe trop souvent management visuel et affichage d’indicateurs. Ces deux notions sont très différentes : afficher des indicateurs (souvent complexes et pas  jour) n’a que très peu d’intérêt si ça ne génère pas d’actions pour s’améliorer. Le point clé du management visuel est bien la notion de management qui s’appuie sur des outils visuels pour progresser.

Ces outils permettent :

  • de visualiser simplement les résultats et les problèmes par la récolte au fur et à mesure des données (résultats, aléas). Ces données sont incontestables car issues des problèmes réellement rencontrés sur le terrain ;
  • de responsabiliser les opérateurs qui les enregistrent et de les impliquer dans la résolution des problèmes ;
  • d’impliquer l’ensemble de la ligne hiérarchique et les fonctions supports dans l’apport d’une solution efficace aux problèmes réels des opérateurs ;
  • de prendre des décisions basées sur des faits et non sur des suppositions. On peut observer sur place des faits concrets et connus de tous et ainsi déclencher des actions ciblées et efficaces.

Cette démarche permet ainsi d’éviter les phrases du type : « rien ne va ce matin  », ou « ça fait des mois que ça traîne  », ou « on a eu beaucoup de pannes hier matin  ». Ces discussions, qu’il est fréquent d’entendre dans les ateliers, ne permettent absolument pas de décider d’une action corrective. Elles sont beaucoup trop générales et superficielles pour engager une action ciblée qui permette d’améliorer la performance.

Il va de soi que la mise en place du système de management visuel de la performance n’a d’intérêt que si une solution est réellement apportée aux problèmes du terrain. Mesurer sans agir ne sert à rien ; agir sans mesure factuelle est souvent inefficace.

Il est fréquent de trouver dans les entreprises des démarches dites de progrès continu où on décide chaque semaine ou chaque mois d’actions correctives basées sur l’analyse d’indicateurs de « chefs  », souvent complexes à comprendre et trop globaux. Ces indicateurs sont rarement à jour car relativement compliqués à réaliser, mais surtout ils ne sont que très rarement accompagnés d’analyses, ou bien ces analyses ne permettent pas de décider des actions adaptées pour résoudre les problèmes des opérateurs. Les opérateurs ne se sentent en général pas concernés par ce type de dynamique. Mais est-ce là du management ?

Dans quels cas faut-il implanter un système de management visuel de la performance ?

Un système de management visuel de la performance peut être utilisé dans tout type de contexte où l’on a besoin de prendre des décisions objectives, en s’appuyant sur des données factuelles, en impliquant toute la ligne hiérarchique dans la prise de décisions et d’actions. Cette démarche peut s’appliquer dans tout type d’environnement, que ce soit commercial ou marketing, industriel ou financier. Les applications à des activités logistiques sont également très intéressantes.
Dans le reste de cet ouvrage, nous aborderons très largement son application en milieu industriel, et plus particulièrement au cœur des usines, au contact des opérateurs, en impliquant l’ensemble de la ligne hiérarchique à la résolution des vrais problèmes du terrain.

Que peut-on en espérer ?

Les résultats obtenus en déployant ce type de démarche peuvent parfois être très surprenants, et pour certains, très difficiles à chiffrer (cf. document 01 – Grille d’analyse des gains possibles) :

  • Le premier résultat est souvent la responsabilisation des opérateurs car ils doivent afficher aux yeux de tous, et en grand, ce qui se passe sur leur poste et les résultats qu’ils obtiennent. De plus, ils deviennent bien plus exigeants envers leur environnement pour trouver de l’aide et du soutien pour résoudre leurs problèmes.
  • Ensuite, on peut mettre en avant la prise de conscience de l’encadrement et des fonctions supports que leur rôle est avant tout de résoudre les problèmes du terrain. Ceci peut paraître tout à fait dérisoire, mais c’est en général un changement de mentalité important de faire en sorte que la priorité de tous soit définie par les problèmes réellement rencontrés sur le terrain.
  • Au niveau chiffré, il est fréquent de constater des gains de productivité de 10 à 50 % dans les 6 premiers mois, tout dépend évidemment de la situation initiale et de l’implication des encadrants, et des groupes supports, durant cette période.
  • Par ailleurs, et alors que ce n’est pas la demande initiale de performance, d’autres gains très importants peuvent être notés sur la sécurité (diminution forte des accidents et incidents sécurité), sur la qualité (diminution forte des non-conformités). Ceci est lié à un aspect clé du management visuel qui est le respect des standards. C’est un point déterminant de cette démarche qui s’appuie sur des modes de fonctionnement clairement établis (ces fameux standards) et qui vise à les faire appliquer en permanence. Ces standards peuvent évoluer ou s’enrichir avec le temps et les problèmes rencontrés. Si on se réfère à la loi des 80/20, on peut tout à fait avancer que 80  % des aléas rencontrés dans une usine (sécurité, qualité, technique…) sont liés à un non-respect des standards.

Comment fonctionne un système de management visuel de la performance ?

Un système de management visuel de la performance fonctionne d’une manière très simple :

  • à l’aide d’un outil ou d’un support visuel, je compare ma performance ou mon activité à un standard qui devient mon objectif ;
  • en temps réel (maille de temps idéale : l’heure), si j’atteins mon objectif, ma performance est inscrite en vert (la situation est globalement sous contrôle), si je n’atteins pas mon objectif, ma performance est inscrite en rouge et je dois réagir au plus vite pour revenir à mon standard. C’est la phase de maintien des standards ;
  • à l’aide d’outils visuels, je consolide ma performance au jour le jour et sur une maille de temps plus longue (semaine ou mois). Il y a alors une tendance de fond qui se dessine : en fonction de cette tendance, je dois lancer des actions de fond pour améliorer mes standards.

Comment s’articule un système de management visuel de la performance par rapport au cadre stratégique d’une entreprise ?

Cette question est fondamentale si on veut s’assurer que tout le monde dans l’entreprise poursuit les mêmes objectifs et partage les mêmes priorités. Il est absolument nécessaire que les objectifs qui nourrissent les outils de management visuel de la performance soient cohérents par rapport aux objectifs déclinés dans le plan stratégique de l’entreprise.

Il est donc indispensable de commencer la démarche de déploiement du système de management visuel de la performance par une étape de déclinaison des objectifs. De plus, le système de management visuel de la performance doit s’articuler efficacement avec l’organisation hiérarchique habituelle (cf. Étape 10).

Quels sont les préalables pour lancer la mise en place d’un système de management visuel de la performance ?

Il y a 3 préalables principaux :

  • Le premier est d’avoir une vision des axes de progrès et des grands objectifs à atteindre pour le site, si possible avec un cadencement dans le temps. Ces objectifs peuvent provenir des objectifs du groupe, d’un plan stratégique ou de tout autre moyen. Exemple : pour rester compétitive, une entreprise doit baisser ses prix de vente de 20 % et améliorer son taux de service pour ne pas perdre de marché ou pour rester concurrentiel.
  • Le second est d’avoir réalisé un îlotage effectif de l’usine : on entend par îlotage, le découpage en îlots (machine ou groupe de machines produisant un produit ou une famille de produits homogènes). Un îlot peut être constitué de plusieurs équipes en fonction des tranches horaires de travail. Plusieurs îlots peuvent être regroupés dans un atelier, que certains peuvent appeler Unité de Production.

cap-tableau1

  • Le troisième pré-requis est la maîtrise du procédé de fabrication. En effet, sur un process mal connu, les aléas sont très nombreux et le recul souvent insuffisant.

Que faut-il faire ?

  • Définir la démarche à déployer, le type d’outils à déployer, en bref le référentiel à déployer (Partie 1).
  • Définir le cadre et le planning prévisionnel de déploiement. Identifier le futur chef de projet et les moyens liés au déploiement (Partie 2).
  • Positionner l’équipe de direction du site sur la démarche, les enjeux et leur rôle futur. Définir les grands objectifs, probablement issus du plan stratégique s’il existe, et les décliner à chaque secteur de l’entreprise (Partie 3).

Vérifions ensemble

  1. L’équipe est-elle bien claire sur ce qu’elle attend du futur système de management visuel ?
  2. La performance visée est-elle précisée ? les gains possibles sont-ils précisés ?
  3. Les préalables à la mise en place du système de management visuel sont-ils réunis ?

Point de vigilance

La réussite de ce projet repose sur la volonté réelle du management du site de réussir une réelle amélioration de la performance, en admettant des remises en cause des modes de fonctionnement actuels. Les fonctions support et l’encadrement de l’atelier (maîtrise en particulier, chefs d’équipe également) sont très impactés par ce type de mise en œuvre : assurons-nous qu’ils seront pleinement associés et soutenus tout au long de la démarche.

01 – Grille d’analyse des gains possibles

Cap-tableau2

 visuel-couvManager la performance industrielle
2e édition
Outils visuels simples et efficaces pour structurer l’animation et la prise de décision

Auteurs : Yves BEUNON , Bruno SÉCHET
Éditeur : GERESO ÉDITION
Date de parution : 12 décembre 2016

Minerais de conflit utilisés dans l’industrie électronique en infographie

De nombreux secteurs, dont l’industrie électronique, utilisent des métaux stratégiques tels que le tantale, l’étain, le tungstène ou l’or. Les sources d’approvisionnement se trouvent en République démocratique du Congo et dans les pays voisins où l’extraction illégale participe au financement des groupes armés qui sévissent depuis près de deux décennies dans cette région, provoquant violations des droits humains et dégâts écologiques considérables. Les chaînes d’approvisionnement de l’industrie électronique sont soumises à des exigences de contrôles accrues en raison de ces risques. Cette infographie, synthèse graphique de l’article AG105 des bases documentaires, reprend en images et graphiques les points essentiels du sujet.

MINERAIS DU CONFLIT-OK

Entreprises : seulement 2% atteignent leurs objectifs RSE !

Presque toutes les entreprises lancent des programmes de transformation pour renforcer leur compétitivité et assurer leur pérennité à moyen-terme. Ces programmes sont souvent portés par des PDG convaincus de leur intérêt. Et pour cause : les marques ayant un engagement démontré en matière de durabilité avaient une croissance quatre fois plus rapide que les autres en 2015, selon le rapport Global Corporate Sustainability 2015 de Nielsen. Mais selon une étude récente de Bain & Company, les objectifs définis par les entreprises ne sont que trop rarement atteints.

Ainsi, seulement 12% des entreprises interrogées déclarent atteindre leurs objectifs, tous changements confondus. Concernant les programmes liés à la responsabilité sociétale des entreprises (RSE), les résultats sont encore plus alarmants : seulement 2% des entreprises déclarent atteindre leurs objectifs de durabilité. Et 16% estiment avoir produit moins de la moitié des résultats escomptés. Il y aurait une raison principale à cela : les entreprises ne parviennent pas à engager leurs salariés dans les processus de transformation. Le haut de la hiérarchie négligerait trop souvent les difficultés rencontrées par les employés lorsqu’il définit de nouvelles approches. « Si les employés se sentent obligés de choisir entre des objectifs de durabilité et des objectifs commerciaux, par exemple, la plupart choisissent les objectifs commerciaux », affirme Bain & Company dans son rapport.

Et si l’on engageait les salariés ?

Pour 62% des sondés, l’intérêt principal de la RSE est simplement d’améliorer la réputation de l’entreprise. Ce qui explique qu’elle ne constitue pas une priorité pour les salariés. 25% des entreprises considèrent que la principale barrière à la réussite d’une stratégie de RSE est le manque d’investissement ou de ressources. 15% pensent qu’il y a des priorités plus importantes. 11% déclarent que la culture du changement est insuffisante et 10% qu’il y a trop d’obstacles organisationnels liés à la structure hiérarchique ou la prise de décision.

Pour réussir à engager les salariés, le haut de la hiérarchie doit être mobilisé. 27% des sondés considèrent ainsi que le soutien de la part des cadres supérieurs est le facteur capital pour atteindre les objectifs. 11% placent l’intérêt et l’engagement des salariés en facteur prédominant. Mais c’est aussi toute l’organisation qu’il faut faire évoluer. En effet, peu de sociétés assurent la durabilité dans leurs processus, leurs systèmes de responsabilisation et leurs incitations, regrette Bain & Company. « Notre sondage a révélé que seulement 24% des employés sont tenus responsables des résultats obtenus en matière de durabilité de façon significative », note le cabinet.

Bain & Company a également interviewé les responsables en charge des questions de durabilité chez les entreprises reconnues pour leurs résultats, comme Nestlé ou Coca-Cola. Il en ressort que les entreprises qui atteignent leurs objectifs sont celles qui imposent aux managers des objectifs de durabilité à atteindre. Pour cela, elles peuvent, par exemple, lier le bonus annuel à des objectifs de durabilité ou ajouter des critères de durabilité pour les investissements.

Par Matthieu Combe, journaliste scientifique

Renouvelables : des objectifs durs à atteindre en 2018 !

En 2016, l’éolien a connu une croissance sans précédent, selon le Panorama de l’électricité renouvelable 2016, publié notamment par RTE et le Syndicat des énergies renouvelables. 1.345 mégawatts (MW) ont été raccordés sur l’année, soit 35% de plus qu’en 2015 (999 MW). A la fin de l’année, le parc éolien français atteint 11,67 GW. Malgré cette performance, les éoliennes n’ont produit que 20,7 térawattheures (TWh) sur l’année, contre 21,1 TWh en 2015. En cause : un vent assez faible entre le deuxième et le quatrième trimestre qui a engendré un facteur de charge éolien de 21,7 %, contre 24,5% en 2015. L’éolien a tout de même permis de couvrir 4,3 % de la consommation électrique française.

La Programmation pluriannuelle de l’énergie (PPE) prévoit d’atteindre 15 gigawatts (GW) d’éolien fin 2018. Pour respecter cet objectif, la croissance annuelle du parc devrait être portée à 1.665 MW par an, une croissance jamais atteinte. Soit une hausse de 24% par rapport à 2016.

Lire aussi : Quels objectifs pour la programmation pluriannuelle de l’énergie?

Le solaire : une croissance en demi-teinte

Pour le solaire, la croissance est moins radieuse. Seulement 576 MW ont été raccordés sur l’année, contre 895 MW en 2015. Soit une baisse de 36% des nouvelles installations raccordées. Le parc solaire photovoltaïque atteint ainsi 6,67 GW. L’objectif de la PPE est d’avoir un parc de 10,2 GW en 2018. Pour atteindre ce niveau, la croissance annuelle devrait frôler les 1.765 MW, soit trois fois plus qu’en 2016. Mais ce niveau est proche du record de 2011 où 1.690 MW avaient été installés.

S’il y a eu peu de vent en 2016, il y a en revanche eu pas mal de soleil. La production photovoltaïque a ainsi bondi de 11% pour atteindre 8,3 TWh. Ce qui a permis de couvrir 1,7% de la consommation électrique française.

Et les bioénergies et les barrages ?

Les bioénergies électriques ont gagné 215 MW pour atteindre 1.918 MW, soit une hausse de 12,6 %. 881 MW fonctionnent avec des déchets ménagers comme combusible, 390 MW avec du biogaz, 591 MW avec le bois-énergie et autres biocombustibles renouvelables et 57 MW avec des déchets de papeterie.

La production renouvelable de la filière – hors électricité produite par des déchets ménagers – s’élève à 6,5 TWh sur l’année, en hausse de 7,4 %. En incluant la part non renouvelable, la production atteint 8,5 TWh. Soit de quoi couvrir 1,4% de la consommation électrique française. Les objectifs de la PPE pour 2018 sont peu ambitieux concernant le développement du bois-énergie : avec ses 591 MW, la filière dépasse déjà les 540 MW prévus pour 2018 et est à 75 % du scénario bas 2023 (790 MW).

Enfin, le parc hydraulique a gagné 51 MW en 2016, pour atteindre 25,48 GW. La production a été de 59,2 TWh, soit 9% de plus qu’en 2015, grâce à des conditions météorologiques favorables au printemps. Cela a permis à la production hydraulique renouvelable de couvrir 12,2 % de la consommation électrique. En termes de puissance, les objectifs de la PPE 2018 sont déjà atteints (25,3 GW). Néanmoins, il faudra encore gagner 1,8 TWh pour atteindre l’objectif en termes de quantité d’hydroélectricité produite.

Par Matthieu Combe, journaliste scientifique

Diagnostic médical: plus petit et plus près du patient

Deux projets, l’un européen, l’autre américano-suédois, illustrent bien cette tendance. Dans le premier cas, il s’agit de réaliser des avancées en matière d’imagerie photo-acoustique en rendant la technique opérationnelle et miniaturisée et dans l’autre cas, il s’agit de rendre le diagnostic de certaines maladies possibles dans des régions reculées ou pauvres.

L’imagerie photo-acoustique opérationnelle

Le projet européen FullPhase, coordonné par l’université de Twente (Pays-Bas) a permis la mise au point d’une nouvelle technologie combinant photo-acoustique et ultrasons pour diagnostiquer l’arthrite des doigts, la fibrose du foie (chez les souris) et la mesure de la vitesse du sang. Les chercheurs visent aussi à pouvoir détecter le cancer de la peau, les brûlures et le durcissement des artères. Le tout dans un outil portatif ressemblant à une douchette de caisse enregistreuse. Les applications commerciales sont prévues à court terme annonce l’université néerlandaise dans un communiqué. L’appareil ne permet pas pour l’instant d’aller au-delà d’une profondeur de 15mm ce qui limite le nombre d’applications mais un autre projet européen a déjà démarré pour réussir à atteindre de plus grandes profondeurs.

Trois utilisations testées

A ce jour, l’équipement a réussi avec succès à détecter l’absence ou non d’inflammation des articulations chez des patients atteints d’arthrite rhumatoïde grâce à l’observation des nombreux vaisseaux sanguins supplémentaires qui se forment sur la zone d’inflammation. Il a aussi permis d’observer des fibroses du foie chez des souris, de manière simple et non invasive, ce qui pourrait permettre de réduire le nombre de souris utilisées pour les études sur les médicaments du foie. Enfin, il permet aussi de faire de la recherche médicale sur le sang:  vitesse d’écoulement, quantité de vaisseaux créés, niveaux d’oxygène et de nutriments. Un partenariat a déjà été créé autour de ce sujet avec l’University College de Londres.

Un smartphone pour détecter des mutations tumorales

Des chercheurs de l’université de Stockolm (Suède) et de l’UCLA (université de Los Angeles – Californie) ont équipé un smartphone d’un module, imprimé en 3D, permettant la détection d’oncogènes in-situ. Au lieu d’envoyer l’échantillon d’ADN du patient dans un laboratoire, le médecin ou le biologiste peuvent l’analyser via ce module qui comprend deux diodes lasers pour réaliser une imagerie en fluorescence. Le téléphone muni d’une caméra et d’une lentille spéciale peut alors analyser les différentes fluorescences des bases de l’ADN et repérer des mutations connues. Le système a été testé avec succès sur le gène KRAS qui est muté dans un tiers des cancers colorectaux. La détection peut à terme être élargie à diverses autres mutations ainsi qu’à la détection de certaines bactéries ou à des résistances aux antibiotiques.

Outre l’avantage de la portabilité, le système pourrait être produit à un prix très abordable, de l’ordre de 500 euros s’il était produit en masse, a précisé l’un des auteurs de l’étude dans un communiqué de l’UCLA accompagnant la parution de l’article scientifique de Nature communications.

Sophie Hoguin

De l’instabilité des modèles de l’Univers

Faut-il revoir le modèle cosmologique ?

Cette question se pose régulièrement face à certains résultats qui ne collent pas avec la théorie actuelle du modèle standard cosmologique. C’est notamment le cas de nouvelles mesures de la constante de Hubble (H0) qui représente la vitesse d’expansion de l’Univers.

Le satellite Planck qui a observé le fond diffus cosmologique (c’est-à-dire les restes des rayonnements émis lors du Big Bang) a fourni des données grâce auxquelles les chercheurs ont construit un modèle cohérent de l’histoire de l’univers. En se fondant sur leur modèle, ils estiment H0 à 67,8 km/s et par mégaparsec (Mpc).

Cependant, voilà que deux études trouvent une valeur plus élevée incompatible avec le modèle issu de Planck.

Tout d’abord, l’équipe de l’américain Adam Riess, qui a publié l’an dernier une étude évaluant H0  à 73 km/s/Mpc, en utilisant une méthode fondée sur la distance et la vitesse d’étoiles spécifiques (les Céphéides) et les explosions d’étoiles.

Ensuite, l’étude publiée par Vivien Bonvin, Frédéric Courbin, Sherry Suyu et leurs collègues, issue de nombreuses observations de la collaboration H0LiCOW et dont la méthode s’appuie sur une approche totalement différente: celle des lentilles gravitationnelles appliquées aux quasars (en observant les photons émis par un quasar à travers une galaxie, ils apparaissent déviés, démultipliés et pour certains retardés – voir cette vidéo. Ils ont alors estimé H0  selon différents modèles cosmologiques ou différentes hypothèses concernant la matière noire. Parmi leurs résultats, utilisant le modèle cosmologique issu de Planck, l’estimation de H0 est de 71,9 km/s/Mpc, avec une précision de 3,8%. Ce qui semble corroborer la mesure faite par l’équipe d’Adam Riess, mais ce qui n’est plus en accord avec celle trouvée par la collaboration Planck.

Où est la faille ? Soit il existe des biais dans les études récentes, soit l’interprétation du fond diffus cosmologique doit être revu. Et dans ce cas, quelles sont les hypothèses qu’il faut revoir ? La réponse viendra-t-elle d’une meilleure connaissance de cette “énergie noire”  ou de la découverte d’une physique totalement différente dans les premiers âges de l’univers ? Adam Riess, lui-même s’interroge.

Et si, aux premiers temps, l’univers n’était qu’un hologramme ?

univers holographiqueDes chercheurs britaniques, canadiens et italiens viennent de publier une étude dans le  journal Physical Review Letters qui remet au goût du jour l’hypothèse d’un Univers holographique née dans les années 1990. Cette hypothèse pourrait permettre d’unifier la physique relativiste et la physique quantique. En étudiant le fond diffus cosmologique, ils ont trouvé des preuves, substantielles, en faveur d’une explication holographique de l’Univers. Selon eux, on pourrait ainsi imaginer qu’aux premiers temps, l’Univers était dans une phase holographique où l’espace et le temps ne sont pas encore définis et qu’il serait entré dans une phase géométrique plus tardivement (voir schéma). Les propriétés physiques de la phase holographiques obéiraient à la physique quantique quand celles de la phase géométrique seraient mieux décrites par la physique relativiste.

Recherche matière/énergie sombre désespérément

Les recherches pour caractériser et trouver cette fameuse matière/énergie sombre sont pléthores et plusieurs pistes font l’objet d’études poussées.

C’est ainsi que dans le cadre du projet européen DarkMatterAMS qui s’appuie sur les données recueillies par un détecteur de particules (AMS-02) monté sur l’extérieur de la station spatiale internationale, les chercheurs estiment qu’il existe une source active de positrons dans notre galaxie qui ne proviendraient donc pas des rayons cosmiques. L’hypothèse aujourd’hui  privilégiée serait celle de nombreuses collisions de matière sombre engendrant ce surplus de positrons à des énergies faibles.

Sur Terre, c’est l’IceCube Neutrino Observatory qui a publié de nombreux résultats entre septembre 2016 et mi-janvier 2017 dont une synthèse de ses observations. Cet observatoire enterré sous 1,45 km de glace en Antarctique est dévoué à la détection des neutrinos. La glace opérant comme un filtre naturel pour isoler les effets des neutrinos par rapport aux autres particules et radiations.
L’un des objectifs de cet équipement est de mieux caractériser les trois saveurs de neutrinos connus actuellement (tau, muon et électron neutrino) et leurs différents mélanges, voire de réussir à trouver un quatrième type de neutrinos (les neutrinos stériles) qui pourrait expliquer la masse manquante de l’univers. Les premières analyses sont en défaveur de l’existence d’un neutrino stérile léger mais il reste beaucoup d’observations à faire. En attendant, IceCube a cependant déterminé qu’il n’y a pas de source unique de neutrinos dans l’Univers. Leur origine pourrait provenir de multiples sources (blazars, explosion de supernova tout comme d’autres corps peu lumineux de haute densité).

La Voie Lactée, poussée et tirée à la fois

Notre galaxie, la Voie Lactée se déplace non pas seulement attirée par un zone de haute densité de matière, mais aussi sous la poussée d’une zone de vide que des chercheurs français et israeliens ont détecté. Cette découverte résout une énigme de plus de 40 ans sur les forces expliquant le déplacement particulier de la Voie Lactée et de sa voisine Andromède (voir cet article pour plus de détails).

Notre système solaire évolue

Alors que l’on croyait que notre système solaire n’avait pas vraiment bougé depuis au moins un milliard d’années, l’analyse de météorites tombés lors de l’Ordovicien (-500 millions d’années) dont la composition est totalement différente de ceux d’aujourd’hui laissent à penser qu’il y a eu de forts remaniements au sein de notre système solaire à cette époque pouvant expliquer cette différence dans le flux météoritique selon une étude parue dans Nature Astronomy.

Sophie Hoguin

La cour des comptes épingle le recyclage à Paris

En 2014, l’Ile-de-France ne recyclait que 28 % des 462 kg de déchets ménagers et assimilés produits par habitant de la région. A Paris, ce taux est encore plus faible, puisqu’il n’atteignait que 17,4%. Ces mauvais résultats sont loin de la moyenne française (39 %). Et pourtant… Ces résultats nationaux sont déjà loin de la moyenne européenne de 44,6 %. Sans parler des allemands qui recyclent 64% de leurs déchets. La loi Grenelle avait fixé un objectif de 45% de déchets recyclés pour 2015. Et la loi de transition énergétique pour la croissance verte va encore plus loin, puisqu’elle prévoit un objectif de recyclage de 55 % en 2020 et de 65 % en 2025.

La Cour des comptes dénonce la précarité du recyclage en Ile-de-France. Mais encore davantage à Paris. Un immeuble sur trois n’y a pas de bac pour les bouteilles et un sur six pour les papiers les emballages. La capitale ne comprend que 887 conteneurs à verre pour 2,2 millions d’habitants. Par ailleurs, la région ne compte que 174 déchetteries publiques, dont 75% en grande couronne. Cela équivaut à une installation pour 69 000 habitants, contre une pour 14 000 habitants dans le reste de la France. Mais Paris intra-muros ne compte que 8 déchetteries. 10 nouvelles devraient être installées d’ici 2020.

Même lorsque les Franciliens trient, la qualité n’est pas au rendez-vous. La Cour des comptes note que la qualité de la collecte est « très médiocre» et « sans amélioration depuis 2005 ». En effet, à l’entrée des centres de tri, 25,7% des déchets collectés étaient encore refusés en 2014, sans amélioration depuis des années. Le plan régional fixait un objectif de 20 % en 2014 et de 15 % en 2019… Et pour cause : les Franciliens font beaucoup trop d’erreurs de tri. La Cour des comptes note une communication beaucoup trop faible sur les consignes de tri qui sont « parfois obsolètes et souvent mal comprises ».

Des biodéchets à recycler !

La collecte sélective des biodéchets est « inexistante », note le rapport. Pourtant, les biodéchets alimentaires représentent un quart des déchets collectés dans les ordures ménagères. Les sages notent que même pour les restaurants produisant plus de 300 repas par jour et des commerces alimentaires, la collecte des biodéchets alimentaires reste quasi-inexistante en Île-de-France, alors que la loi l’impose depuis janvier 2016 et prévoit sa généralisation d’ici 2025. Des villes telles que Lorient et Montpellier sont pionnières en France.

Pour améliorer le recyclage, la Cour propose de développer le dépôt volontaire de bacs par quartier, de moderniser les centres de tri, et d’organiser la collecte selon 4 flux de matériaux : le verre, les emballages légers, les biodéchets et les cartons/papiers. La Ville de Paris a récemment annoncé  le lancement d’une expérimentation pour la collecte des  biodéchets des particuliers dans les 2e  et 12e  arrondissements ainsi qu’une collecte pour le secteur de l’hôtellerie et de la restauration.

Une organisation «  éclatée » et peu performante

Malgré ces faibles performances, les coûts sont élevés. Le coût de gestion du service public des déchets s’élève à 72€ HT par habitant, contre 63€ HT en moyenne en France. La Cour des comptes souligne une organisation «  éclatée » et peu performante qui ne prend pas en compte la recomposition en cours de l’intercommunalité. En effet, 26 organismes différents s’occupent du traitement des déchets  pour 12 millions d’habitants. La moitié s’occupe également de la collecte. Le Syctom s’occupe des déchets de 5,6 millions d’habitants et traite à lui seul 44 % des déchets franciliens. Le Sirédom dans l’Essonne, deuxième syndicat francilien en termes de population couverte, ne traite que 7% des déchets.16 % des déchets franciliens sont traités par 12 syndicats qui couvrent chacun moins de 200 000 habitants. Le Smirtom du Vexin couvre le plus petit bassin de collecte, avec 66 918 habitants.

La Cour des comptes propose d’interdire pour une intercommunalité d’adhérer à plusieurs syndicats de traitement afin de permettre aux préfets « d’engager la recomposition de ces syndicats de traitement, selon un calendrier progressif, tenant compte des contraintes d’exploitation des  équipements ».

Une collecte trop chère !

Pour financer la collecte, les collectivités franciliennes ont choisi à 95% la  taxe d’enlèvement des ordures ménagères (contre 68% au niveau national) et à 4%  la redevance d’enlèvement des ordures ménagères (contre 29% au niveau national). Seulement 19 communes  financent la collecte grâce à leur budget général. La tarification incitative qui permet de moduler la contribution des usagers en fonction de la qualité de déchets réellement produite, n’est appliquée que par quatre communes franciliennes. La Cour des comptes propose de la développer.

Les déchets issus de l’industrie, des commerces et des services peuvent être collectés et traités en tant que déchets « assimilés » aux déchets ménagers. Ils représentent le quart des déchets collectés en Ile-de-France. Ces organismes générateurs de déchets ne sont mis à contribution via la redevance spéciale que par 30% des communes, pour un montant global correspondant à 5% du coût de gestion. Quant aux producteurs de produits mis sur le marché, partiellement assujettis au financement via les filières de responsabilité élargie du producteur (REP), avec 8% des déchets pris en charge, leur contribution en Île-de-France est inférieure à la moyenne nationale. La Cour des Comptes propose donc de revoir le barème de contribution des éco-organismes Eco-Emballages et Eco-Folio.

Par Matthieu Combe, journaliste scientifique

vr-bnb, ou la réalité virtuelle à la demande

D’un côté, des industriels possédant des équipements de réalité virtuelle/réalité augmentée (RV/RA) et des salles immersives (ou « caves ») utilisés ou occupées à temps partiel seulement. De l’autre, des professionnels et des entreprises souhaitant faire usage de ces outils pour développer leur activité, mais n’ayant pas le budget ou la volonté d’en faire l’acquisition. D’où l’idée de créer une plateforme, nommée vr-bnb, grâce à laquelle les uns et les autres puissent entrer en contact. Inspiré par Air-bnb, ce service de location consacré à la réalité virtuelle a été annoncé mi-décembre à l’occasion du salon it3D Summit. Il sera opérationnel vers la mi-mars, selon le compte à rebours affiché sur le site officiel (www.vr-bnb.com).

La société bordelaise Immersion, intégrateur spécialiste de ces technologies, est à l’origine du concept. «L’enjeu est de mettre à disposition les salles des industriels, tels que Alstom et Volvo, ce qui permet à ces derniers de rentabiliser leurs équipements et de couvrir les frais de fonctionnement et de maintenance, explique Christophe Chartier, le PDG d’Immersion. Le demandeur, quant à lui, s’inscrit sur le site Internet et renseigne plusieurs critères de recherche: distance, équipement souhaité, etc. De là, il prend connaissance de la salle correspondante et de sa disponibilité, avant de la louer pour une période donnée. Sur place, il sera accompagné par un expert-ingénieur, délégué par l’industriel en question. A terme, cet expert pourrait être un tiers

De 400 à 4000 € HT la salle

Le délai de quelques mois entre l’annonce et l’ouverture officielle du service a été mis à profit pour répertorier un nombre suffisant de salles de RV. «Le service à son lancement en comptera plus d’une centaine à l’échelle internationale » estime Christophe Chartier. Et quel est le modèle économique? «Nous prélèverons une commission sur chaque location» répond-il. Le prix d’une salle s’échelonne de 400 à 4000 € HT selon la durée et la typologie de l’équipement.

Immersion est à la recherche de fonds pour soutenir sa plateforme, qui ne manquera pas d’évoluer. «Nous prévoyons d’équiper toutes ces salles avec notre solution de collaboration Shariiing, déclare Christophe Chartier. D’une salle à l’autre, les clients retrouveront ainsi la même interface, les mêmes outils… Ensuite, ces salles seront interconnectées à des fins de collaboration distante. Nous ajoutons les briques à notre solution Shariiing pour ce faire.» Au delà d’un service pratique de mise en relation, vr-bnb pourrait rendre service… à la réalité virtuelle elle-même. «C’est une plateforme qui facilite l’accès à ces technologies et qui contribuera à les populariser, 09pense Christophe Chartier. Ne serait-ce que cartographier les salles existantes dans de grands groupes industriels, c’est déjà intéressant

Par Frédéric Monflier

Jusqu’à 11.000 microplastiques ingérés par an !

Une étude parue fin 2014 estime que les océans et mers du monde contiennent plus de 5.250 milliards de particules de plastiques. Avalés par la faune marine, ils contaminent la chaîne alimentaire et envahissent nos assiettes. Selon les recherches du Dr Colin Janssen à l’Université de Gand, les fragments de plastique de moins d’un millimètre se retrouvent largement dans les moules, huîtres et autres fruits de mers. L’étude en question n’a pas encore été publiée, mais a été révélée en exclusivité pour le documentaire de Sky News « Plastic Tides » (Marées Plastiques) diffusé pour lancer la campagne « Sky Ocean Rescue » fin janvier.

Les moules filtrent entre 20 et 25 litres d’eau par jour et ingèrent donc des microplastiques. Ces fragments sont pour la plupart excrétés, mais une moule renferme en moyenne au moins un petit fragment de plastique logé dans ses tissus, selon le Dr Janssen. Le chercheur estime ainsi qu’un plat de moules servi au restaurant peut contenir environ 90 particules de plastique.

Que devienent les microplastiques ingérés ?

Au total, les chercheurs estiment qu’un amateur de fruits de mer belge ingère entre 2.000 et 11.000 fragments de plastique chaque année, en fonction de sa consommation. Dans la première évaluation des risques menée sur le sujet, les chercheurs estiment que 99% des microplastiques ingérés par l’homme sont excrétés par le cors humain. Au final, moins de 60 fragments passeraient donc dans le sang et s’accumuleraient dans le corps chaque année.

« Maintenant que nous avons établi qu’ils [les microfragments] entrent effectivement dans notre corps et peuvent y rester pendant un bon moment, nous avons besoin de connaître le sort de ces plastiques. Où vont-ils ? Sont-ils encapsulés par des tissus et oubliés par le corps, ou est-ce qu’ils causent des inflammations ou autres problèmes ? Les produits chimiques s’échappent-ils de ces plastiques et causent-ils alors de la toxicité ? Nous ne le savons pas et nous devons savoir. » prévient le Dr Janssen.

Les scientifiques alertent sur le fait que cette contamination va s’intensifier à mesure que la pollution océanique va s’aggraver. D’ici 2100, les consommateurs réguliers de fruits de mer pourraient avaler 780.000 fragments de plastique par an. 4.000 microfragments seraient alors accumulés dans leur tissus chaque année.

Visionner le documentaire A Plastic Tide de Sky News

Par Matthieu Combe, journaliste scientifique

Etoile de tabby : un feuilleton qui touche à sa fin ?

Située à quelques 1480 années-lumières de la Terre, KIC 8462852 a été baptisée étoile de Tabby après que l’astronome Tabetha S. Boyajian ait dévoilé, en septembre 2015, les étranges baisses de luminosité de cette étoile et que scientifiques et grand public commencent à échafauder les hypothèses les plus créatives. Au point que chaque hypothèse et nouvelles données donne lieu à un épisode d’un feuilleton à succès : des milliers d’articles de presse, de messages dans les forums et une conférence TedX de la chercheuse qui compte plus de 2 millions de vues à ce jour…

En quoi Tabby est-elle différente ?

L’étoile de Tabby, comme des milliers d’autres a été scrutée pendant des années par le satellite Kepler dédié à la recherche et à l’étude des exoplanètes. Pour cela, Kepler s’appuie sur les baisses de luminosité des étoiles observées lorsqu’un astre s’interpose entre le satellite et l’étoile. Une baisse intermittente mais revenant régulièrement est généralement le signe de la présence d’une planète. Mais dans le cas de Tabby, les changements de luminosité sont importants et irréguliers. En outre, découvriront un peu plus tard, d’autres scientifiques, sur les 1600 derniers jours d’observations, la luminosité baisse de manière continue sur les 1000 premiers jours avant de connaître une brusque diminution pendant 200 jours.

Des hypothèses peu satisfaisantes

Au début du feuilleton, les scientifiques eux-mêmes lancent des hypothèses peu orthodoxes comme la présence d’une sphère de Dyson construite par des extra-terrestres ou les restes d’une planète détruite par une guerre interstellaire. Ou, plus “terre-à-terre” la présence d’un nuage de poussières dans un disque entourant l’étoile ou la présence d’un essaim de comète.
Cependant, ces hypothèses sont vite réfutées : pas de signal radio, pas de signature dans l’infrarouge comme ça serait le cas pour la présence de poussière ou d’un artefact extra-terrestre.

Une origine interne ?

En décembre 2016, plusieurs articles lancent des hypothèses scientifiques écartant les mégastructures extraterrestres. Ainsi, une équipe a simulé la présence de quatre objets massifs entourés d’un nuage de poussière issu d’une même origine. Les résultats, même si la simulation demanderait à être complexifiée, montrent une bonne corrélation avec les observations. Une autre équipe de chercheurs publie dans The Physical Rewiew Letters, l’hypothèse que l’origine de ces changements erratiques de luminosité seraient dus à une activité interne de l’étoile. Ils s’appuient pour cela sur les similitudes d’un modèle mathématique décrivant les avalanches ou les tempêtes solaires. Ils émettent l’hypothèse que Tabby serait une étoile très active avec des explosions massives occultant de manière arbitraire une partie de sa lumière. Enfin, une troisième équipe, a publié sur ArXiv, une hypothèse qui fait en quelque sorte la synthèse des deux précédentes. Selon ces chercheurs, Tabby aurait englouti une exoplanète entre 10 000 et 200 ans auparavant. Au moment de l’engloutissement, l’apport d’énergie gravitationnelle l’aurait rendu plus brillante. La baisse de luminosité régulière enregistrée depuis un siècle serait en fait un retour à la normal. Quant aux baisses de luminosité plus erratiques et brutales, elles seraient produites par des débris issus de cet engloutissement ou d’un autre événement lié ou non à l’étoile elle-même mais ayant produit plusieurs corps stellaires qui passent devant l’étoile.
Alors fin d’un feuilleton ? Pas tout à fait, puisque ces hypothèses sont déjà discutées (voir le site qui suit l’actualité de cette étoile) et que dans tous les cas, il faudra des observations complémentaires qui pourraient bien prendre… des années.

Par Sophie Hoguin

Le Danemark teste une éolienne de 9 MW

MHI Vestas Offshore Wind a optimisé son éolienne offshore V164-8.0 MW, en test depuis 2014 à Østerild, au nord du Danemark. Grâce à ces améliorations, l’éolienne a atteint une puissance nominale de 9 mégawatts (MW), « aux conditions spécifiques du site », précise l’entreprise. Ainsi, le 1er décembre 2016, elle a produit 216 mégawattheures d’électricité en 24 heures. Cette éolienne détient donc le nouveau record de production pour une éolienne offshore commerciale.

C’est mathématique : plus les turbines sont puissantes, moins il faut en installer pour atteindre la puissance d’une ferme éolienne offshore. L’entreprise annonce donc des économies sur l’installation et la maintenance grâce à sa nouvelle monture. L’ancienne version, la V164-8.0 MW est déjà installée sur le parc éolien Burbo Bank Extension de 258 MW, au large de Liverpool. Son carnet de commande comprend des projets totalisation 1,6 gigawatts.

Quelles sont les caractéristiques de cette éolienne ?

L’éolienne de MHI Vestas Offshore Wind est plus qu’imposante : le prototype d’ Østerild mesure 220 m de hauteur, ses pales s’étendent sur 80 m et pèsent chacune 35 tonnes. Cela lui permet de balayer 21.124 m2 d’air, soit plus que la grande roue de Paris. Sa nacelle mesure 20 m de long, 8 m de hauteur et de largeur, pour un poids d’environ 390 tonnes. Par ailleurs, cette turbine détient un autre record : elle est recyclable à hauteur de 80%, au terme de sa durée de vie opérationnelle prévue à 25 ans.

L’éolien en mer a battu tous ses records en termes d’installation l’an dernier, avec 30 milliards de dollars investis dans le monde, soit 40 % de plus qu’en 2015. En 4 ans, le coût de production de l’électricité générée par les éoliennes en mer au Royaume-Uni a baissé de 30%. Il atteint aujourd’hui une moyenne de 97 livres sterling (112,80 euros), selon un rapport publié par le Offshore Wind Programme Board. Très en retard, la France ne détient encore aucune éolienne offshore. L’électricité produite par les parcs éoliens en mer actuellement prévus d’ici 2023 coûteront plus de 220 euros par mégawattheure.

Le 30 janvier, Siemens a annoncé pour sa part l’installation de son prototype d’éolienne de 8 MW, également à Østerild. De son côté, Adwen a testé son prototype d’éolienne de 8MW dans le champ d’essai d’éoliennes offshore à Bremerhaven en Allemagne en 2016. Cette éolienne doit notamment équiper les parcs éoliens français de Saint-Brieuc, Le Tréport et Yeu-Noirmoutier.

Par Matthieu Combe, journaliste scientifique

Audit énergétique en entreprise : jusqu’à 30% d’économies !

L’audit énergétique est obligatoire depuis le 5 décembre 2015 pour les entreprises de plus de 250 salariés ou celles qui réalisent un chiffre d’affaires annuel supérieur à 50 millions d’euros et présentent un total de bilan supérieur à 43 millions d’euros. Cet audit concerne notamment les bâtiments, les procédés industriels et les activités de transport et couvre au moins 80 % du montant des factures énergétiques acquittées par l’entreprise. Les organisations concernées doivent renouveler l’expérience tous les 4 ans.

Des économies rapidement rentabilisées ?

AFNOR Energies a analysé 72 rapports d’audits énergétiques réalisés par ses soins selon la norme volontaire NF EN 16247. L’enseignement principal est qu’un audit énergétique identifie en moyenne un gisement de 20 à 30 % d’économies, « qu’elles soient exprimées en kilowattheures d’énergie primaire ou en euros, […] que l’audit se focalise sur les bâtiments et/ou sur les procédés industriels », assure le bureau d’études. « Cette fourchette correspond à l’objectif d’amélioration de la performance énergétique des bâtiments tertiaires prévu dans le projet de décret d’application de la loi Grenelle 2 et de la loi de transition énergétique : – 25 % à échéance 2020 », se félicite Catherine Moutet, responsable d’AFNOR Energies. Ce qui justifie donc pleinement l’intérêt de cette réglementation.

audit-procedes

Les différentes actions sont rentabilisées très rapidement. Pour les procédés, les investissements représentent 46% de la facture d’énergie annuelle et sont rentabilisés en 2 ans et demi. Pour les bâtiments, les investissements sont plus conséquents : ils s’élèvent à 106% de la facture annuelle, mais sont rentabilisés en tout juste plus de 4 ans. En moyenne, AFNOR Energies estime que l’investissement total s’élève à près des ¾ de la facture énergétique annuelle pour un retour sur investissement inférieur à 3 ans et demi.

Quels travaux sont finalement réalisés ?

L’audit énergétique découle sur une série de propositions pour économiser l’énergie. Si l’entreprise n’a aucune obligation de lancer un plan d’actions, AFNOR Energies assure que les entreprises jouent le jeu dans la plupart des cas et s’approprient la démarche. Ainsi, 80% déclarent vouloir déployer les actions d’amélioration de la performance énergétique, 36% déployer un système de management de l’énergie ISO 50001 et 8% un plan de mesurage de l’énergie.

Malgré ce bilan positif, AFNOR Energies regrette que les entreprises investissent presque tout sur le matériel, au détriment de la mesure et du management. En effet, 88 % des actions préconisées et retenues se focalisent sur le matériel, contre seulement 12% pour le système de management au sens large. Le bureau d’étude rappelle donc l’importance de suivre les résultats dans le temps et d’acquérir des outils de mesure et de vérification de la performance énergétique.

Par Matthieu Combe

Fukushima : Tepco croit avoir trouvé le corium

Radiations mortelles

Un robot envoyé par Tepco dans le bâtiment réacteur n°2 de Fukushima a relevé des niveaux de radioactivité allant jusqu’à 530 sieverts par heure. C’est extrêmement élevé. Les experts considèrent qu’un débit de dose reçu de 5 sieverts par heure tuerait la moitié de ceux exposés en un mois, et qu’un débit de dose de 10 sieverts/heure serait mortel en quelques semaines.

Les robots ne sont guère mieux lotis et ont tous péri après quelques heures, non sans avoir livré de précieuses informations. Le dernier à s’être introduit dans l’enceinte de confinement du réacteur 2 a envoyé, grâce à sa caméra embarquée, des images d’un trou d’un mètre carré environ, sur une plateforme métallique située sous la cuve qui contient le cœur du réacteur. « Il peut avoir été causé par la chute du combustible qui aurait fondu et percé la cuve, mais ce n’est à ce stade qu’une hypothèse », indique Tatsuhiro Yamagishi, un porte-parole de Tepco à l’AFP. Cela coïnciderait avec les niveaux extrêmement élevés de radioactivité dans cette partie du bâtiment. « Nous estimons que les images recueillies cette fois constituent de précieuses informations, mais il nous faut encore investiguer, sachant qu’il est difficile de présupposer l’état réel à l’intérieur », souligne le porte-parole.

schéma REB (2)

Cadarache étudie le corium

Ces images et relevés de radioactivité intéressent au plus au point les ingénieurs de Tepco qui n’ont toujours pas pu localiser les combustibles nucléaires fondus des trois réacteurs endommagés. Or, le trou observé laisse craindre à un percement de la cuve, voire du radier, la dalle de béton constituant la partie basse de l’enceinte du réacteur. C’est justement ce qu’une équipe du Commissariat à l’énergie atomique (CEA) de Cadarache cherche à savoir. En partenariat avec la Japan Atomic Energy Agency, ils ont reconstitué en janvier dernier un corium similaire à celui de Fukushima pour « observer et mesurer la capacité du corium à provoquer l’ablation d’un béton représentatif de celui du radier. Ces résultats permettront à nos partenaires japonais de développer des systèmes de récupération, de découpe et de traitement du corium qui pourront être utilisés pour le démantèlement des réacteurs de Fukushima-Daïchi », indique le CEA. Tepco a annoncé la poursuite des recherches avec l’envoi d’un nouveau robot sur le réacteur n°1 cette fois.

Romain Chicheportiche

L’Usine du futur prend forme en Moselle

Quelques jours après l’inauguration d’Air Liquide le 26 janvier dernier, d’un centre de pilotage qui gérera à terme la production pour ses 22 usines 24h/24 et 7j/7, c’était au tour d’un autre membre de l’Alliance Industrie du Futur de lancer ses premières installations. Le CEA Tech, direction de la recherche technologique du CEA, vient en effet d’ouvrir sa plateforme FFLOR (Future Factory @ Lorraine) sur le site de PSA à Trémery (Moselle).

Un équipement au service de tous

Cette plateforme de 1000m2 est au service des industriels, quel que soit leur secteur d’activité et leur taille. Elle offre aux adhérents, au choix, soit la possibilité d’assister à des démonstrations soit de réaliser des essais à partir des équipements disponibles. Objectif: apporter un soutien technique, faire monter les compétences pour structurer la filière “usine du futur” de la région. Pour son montage initial, FFLOR a bénéficié de fonds publics (à parts égales région Grand Est et Etat) pour un montant de 4 millions d’euros. Déjà onze partenaires ont signé une charte de collaboration avec le CEA. L’organisme en attend une vingtaine d’ici la fin de l’année. Parmi eux, on retrouve PSA bien sûr, mais des acteurs divers comme Opteamum, entreprise spécialisée dans les systèmes automatisés ou WM88, un spécialiste de l’ameublement basé dans les Vosges.

Quatre thématiques, une vision globale

Les équipements installés couvrent quatre grandes thématiques d’innovation industrielle:

  • la réalité virtuelle et la réalité augmentée notamment en vue de la conception de nouveaux postes de travail, de formation des opérateurs ou d’analyse ergonomique;
  • la robotique collaborative (cobotique) via 15 robots collaboratifs (prévus d’ici fin 2018) dont 7 seront sur base mobiles (avec des partenaires tels que Kuka et sa technologie IIWA, ABB et son robot YuMi ou Universal Robot et ses bras robotiques), deux convoyeurs de 10m, le manipulateur Cobomanip de Sarrazin Technologies pour les charges lourdes et le cobot de Isybot, une start-up du CEA créée en décembre 2016, qui va tester l’assistance de l’opérateur pour les tâches de finition de ponçage/polissage.
  • La logistique intelligente disposant de trois chariots automatisés autoguidés (société Asti) pour l’approvisionnement automatique en bord de ligne par exemple. Huit sont prévus à la fin 2018.
  • La connectivité et l’interopérabilité via une architecture réseau de 1Gbit permettant la connexion de l’ensemble des équipements sur 300 point de raccordement. La communication entre les différents systèmes s’appuyant sur Tango Controls, une boîte à outils logiciel open source.

Selon ses ambitions, l’industriel peut tester tout ou partie des équipements sur des projets pouvant aller jusqu’à un an. En outre, cette plateforme sera aussi l’occasion de créer des groupes de travail sur certaines problématiques communes.

Par Sophie Hoguin

Les entreprises toujours dans le viseur des cybercriminels

Les quelques 7 000 participants de la 9e édition du FIC sont unanimes : en étant de plus en plus connectées à divers réseaux, les entreprises multiplient à l’envi les risques d’être infectées par un code malveillant visant à chiffrer leurs données (ransomware) ou à les espionner. Et aucun signe ne montre une évolution positive de cette tendance plus ou moins anxiogène pour de nombreux décideurs.

En menant une stratégie de « transformation digitale », les entreprises doivent être à la fois agiles, performantes, productives et… sécurisées. Est-il possible de relever ce défi ? Pour l’instant, de nombreuses organisations privilégient l’efficacité, pour gagner des parts de marché, au détriment de la confidentialité de leurs informations, fussent-elles « critiques ».

Demande de rançon sur les smartphones

« Mobile first » est le maître mot des décideurs. Leurs collaborateurs doivent être très réactifs afin de répondre précisément aux demandes des clients qui ont eux-mêmes leur smartphone à portée de main. D’où l’intégration de plus en plus poussée des téléphones et du Cloud dans les Systèmes d’information (SI) pour satisfaire à ces exigences d’immédiateté.

Seul souci : la gestion de ces terminaux mobiles et des accès aux applications en ligne (en mode SaaS) laisse très souvent à désirer. D’où une multiplication des attaques informatiques en 2016. Et cette année, ce sera pareil. « En 2017, on devrait observer une évolution des attaques dites “ransomware” vers l’environnement mobile. L’an dernier, on a vu des attaques ransomware commencer à s’attaquer à Android. En 2017, une recrudescence de nouvelles attaques de ce type sur mobile devrait voir le jour. Au-delà d’Android, cette tendance devrait s’accroître et s’étendre aux autres systèmes d’exploitation », avertit Lookout est une société de cybersécurité leader, spécialisée dans le tout mobile.

Sabotage et pertes humaines

Autre maillon faible exploité par les pirates : les objets connectés. Mal ou pas du sécurisés, les capteurs IoT offrent un boulevard aux cybercriminels. 2016 l’a démontré avec le « botnet » Mirai (un réseau de machines infectées et contrôlées par des pirates) qui a infecté des millions d’objets connectés, notamment des caméras vidéos, pour ensuite lancer des attaques contre des entreprises, comme l’hébergeur français OVH.

Lors du FIC, Guillaume Poupard, le patron de l’Agence nationale de la sécurité des systèmes d’information (Anssi) a même évoqué des pertes humaines. Dans une interview accordée à Industrie & Technologies, il a avoué que sa grande crainte était le « sabotage. C’est-à-dire quelqu’un qui voudrait, dans le meilleur des cas, éteindre le système pour l’empêcher de fonctionner. Mais dans le pire des cas, il y a évidemment la volonté de provoquer des catastrophes. Quand on s’attaque au monde du transport, on peut vite avoir des effets absolument dramatiques y compris sur les vies humaines ».

Philippe Richard

Le casse-tête du démantèlement nucléaire

Les conclusions de la mission d’information conduite par les députés Julien Aubert (LR) et Barbara Romagnan (PS) pour le compte de la Commission du développement durable de l’Assemblée nationale sur le démantèlement nucléaire ne sont guère réjouissantes. Les travaux sur les installations nucléaires françaises prendront plus de temps que prévu et coûteront plus cher. Pire, certaines problématiques techniques sur les filières « bis » ne sont pas encore résolues.

Faisabilité pas assurée

L’industrie nucléaire française a étudié et construit plusieurs modèles de réacteurs nucléaires avant d’opter pour la production en série du REP (réacteur à eau pressurisée) sur 3 paliers de puissance (900, 1 300 et 1 450 MW). Si EDF semble mener à bien le premier démantèlement de REP, en l’espèce Chooz A, toujours en cours, il n’en va pas de même pour ses premiers réacteurs construits en France. L’électricien est confronté à des difficultés sur les six réacteurs dits « uranium naturel graphite-gaz » (UNGG), ainsi que sur Brennilis et Superphénix, des réacteurs atypiques « dont le long démantèlement se poursuit dans la douleur », expliquent les rapporteurs. Les premières expériences de l’électricien en matière de démantèlement sont préoccupantes, tant sur le plan technique que sur celui des délais.

Brennilis

Fonctionnant par intermittence entre 1967 et 1985, cette centrale expérimentale d’une puissance de 70 MW est la seule en France à avoir fonctionné avec un réacteur à eau lourde. Aujourd’hui, EDF estime que le démantèlement complet pourrait être achevé en 2032, soit 47 ans après la mise à l’arrêt de la centrale. Son coût devrait lui atteindre les 482 millions d’euros, soit 20 fois plus que prévu.

Les réacteurs au graphite

La principale difficulté du démantèlement des réacteurs graphite-gaz, après enlèvement des éléments de combustibles nucléaires, consiste à traiter les empilements de couches de graphite. Il est procédé à ce traitement par une méthode originale de démantèlement « sous eau » qui consiste à remplir d’eau le caisson de béton afin de protéger les ouvriers de la radioactivité pour procéder à la découpe de la partie haute du caisson avant d’atteindre l’empilement de graphite, l’eau étant en circulation permanente, ce qui permet de la filtrer. Cette méthode de démantèlement sous eau a été utilisée avec succès lors du démantèlement du réacteur de Fort Saint-Vrain, dans le Colorado, aux États-Unis, qui était un réacteur de la filière dite HTGR (high temperature gaz cooled reactor). Le réacteur a été définitivement démantelé en 1997, moins de dix ans après sa mise à l’arrêt, pour un coût de 283 millions de dollars (263 M€). Unique en son genre mais présentant des caractéristiques communes avec les réacteurs de la filière UNGG, ce démantèlement a été pris en exemple par EDF pour ses réacteurs graphite.

Les opérations semblaient se dérouler de façon satisfaisante mais EDF a changé récemment de stratégie en raison de « différences matérielles » entre le réacteur américain et le modèle français rendant impossible le démantèlement sous-eau. La découverte de cette impossibilité technique après 15 ans d’études, plus de 20 ans après la fermeture de la dernière unité de production (site du Bugey 1 en 1994) et 19 ans après l’achèvement du démantèlement sous eau du réacteur de Fort Saint-Vrain arrive pour le moins tardivement. Ce sont les réponses à l’appel d’offres lancé par l’électricien qui l’auraient convaincu de changer de stratégie dans la mesure où l’extraction du graphite demandera – aux dires des sous-traitants – environ 15 ans, contre trois envisagés précédemment. Or laisser sous eau une telle structure pendant aussi longtemps poserait inévitablement des problèmes de corrosion. C’est la raison pour laquelle un allongement des délais a été décidé, d’autant que l’électricien souhaite valider sa méthode de démantèlement sur un premier réacteur, d’ici à 2060 environ, avant de déconstruire les cinq autres, au cours des 40 années suivantes, soit au-delà de 2100.

Le cas Superphénix

Situé sur le site de Creys-Malville, en bordure du Rhône, Superphénix est un réacteur nucléaire entré en service en 1985 et arrêté en 1996. C’était à l’origine un prototype de réacteur à neutrons rapides à caloporteur sodium succédant aux réacteurs nucléaires expérimentaux Phénix et Rapsodie. Mais son facteur de charge (6%) a été inversement proportionnel à son coût dont les estimations varient allègrement.

Le déchargement du combustible nucléaire a duré 3 ans mais là n’est pas la partie la plus complexe de ce démantèlement atypique compte tenu de la technologie utilisée. Le traitement du sodium constitue une phase très délicate dans la mesure où, à l’état liquide le sodium explose au contact de l’eau et s’enflamme au contact de l’air. Superphénix renfermait au total 4 700 tonnes de ce produit : 3 500 tonnes radioactives du circuit primaire (cuve) et 1 200 tonnes du circuit secondaire des échangeurs de chaleur. Pour le maintenir à l’état liquide, l’ensemble du sodium est chauffé à 180 C° depuis l’arrêt définitif du réacteur, soit 19 ans.

EDF prévoit la fin des travaux à l’horizon 2028. Si aucun retard n’est enregistré, la durée du démantèlement sera donc presque 3 fois plus longue que celle de son activité (11 ans). Dans son rapport de janvier 2012, la Cour des comptes estimait le coût du démantèlement de Superphénix à 955 millions d’euros. Pour Bernard Laponche, de l’association Global Chance, « Il n’est pas déraisonnable de penser que le coût sera plutôt de l’ordre de 2 milliards d’euros ».

Effet de série limité

A l’instar des économies d’échelles obtenues par la production en série de réacteurs nucléaire en France, EDF estime pouvoir bénéficier d’un effet similaire pour le démantèlement. Cette position s’appuie sur l’étude Dampierre qui fait l’hypothèse que les sites sur lesquels se trouvent des réacteurs définitivement arrêtés comportent, pendant toute la durée du démantèlement, une ou deux tranches en service ou en construction à proximité, ce qui permet de mutualiser les services de soutien entre les tranches en production (ou en construction) et celles en démantèlement. Cette hypothèse est très favorable à l’exploitant puisqu’elle lui permet d’éviter de dupliquer un grand nombre de frais. Mais elle est, à bien des égards, problématique car elle signifie tout simplement qu’EDF ignore la loi sur la transition énergétique : « EDF considère qu’il y aura un réacteur en construction ou en exploitation sur tous les sites. Il s’agira la plupart du temps de nouveaux réacteurs dont la construction n’est actuellement pas décidée. Ainsi, EDF considère que le programme nucléaire français va se poursuivre comme par le passé, sans tenir compte de la loi de transition énergétique qui limite à 50 % la part de nucléaire dans d’électricité produite en France ». Comme l’a fait remarquer André-Claude Lacoste, ancien président de l’Autorité de sûreté nucléaire que la mission a entendu, « l’idéal pour tout grand électricien serait de disposer, sur un même site, d’un réacteur en construction, d’un autre en exploitation et d’un troisième en cours de démantèlement ». Mais cela relève davantage du souhait que de la réalité.

Pas assez de provisions

La mission d’information, comme la Cour des Comptes en son temps, a mis en garde EDF contre l’insuffisance des provisions. Selon les comptes consolidés d’EDF au 31 décembre 2015, sur les 75 milliards d’euros de charges brutes estimées par l’électricien pour le démantèlement de l’ensemble de son parc nucléaire, 36 milliards d’euros de provisions ont été, pour l’instant, constituées. Mais sur cette somme, seuls 23 milliards d’euros étaient couverts par des actifs dédiés. Par ailleurs, les députés estiment que les hypothèses optimistes sur lesquelles EDF a bâti ses prévisions, de même qu’un certain nombre de dépenses lourdes négligées, conduisent à s’interroger sur la validité des prévisions, d’autant que dans le même temps, certaines charges semblent sous-évaluées voire non-prises en comptes : le retraitement du combustible usagé, les taxes et assurances ou encore le coût social.

Romain Chicheportiche

Des avancées majeures pour le photovoltaïque organique

ArtESun, le projet d’un consortium européen d’entreprises et d’instituts de recherches sous la coordination de l’institut de recherche finlandais VTT a présenté ses premières applications basées sur le photovoltaïque organique. Issus de trois ans de recherches fructueuses ces modules présentent un haut rendement (c’est-à-dire supérieur à 15%), une durée de vie augmentée et des coûts de production abaissés.

artesun panneau

Des démonstrateurs de toutes formes

Pour illustrer sa nouvelle technologie, ArtESun a produit plusieurs modules intégrés à des applications très différentes.

La première est une étiquette RFID dans laquelle la batterie est remplacée par un module solaire organique de la taille d’une carte de crédit. Le module est capable d’alimenter les communications sans fil entre l’étiquette RFID et son lecteur, ainsi que le dispositif de capteur intégré pour une utilisation sur des véhicules ou des bâtiments par exemple. Le fonctionnement est garanti jusqu’à une journée complète dans des conditions de faible luminosité.

La deuxième application proposée est celle d’une antenne solaire souple, en l’occurrence sous la forme d’une fleur qui a été fabriquée par héliogravure. Le module est capable d’alimenter une radio et un capteur environnemental pour être intégré à un réseau de capteurs sans fil par exemple. Il peut être utilisé pour une surveillance environnementale comme celles requises dans le secteur agricole.

artesun fleurEnfin, les chercheurs ont construit des modules de grande surface assemblés dans un élément de façade vitré destiné aux bâtiments. D’une taille d’161 cm sur 38 cm, cet élément peut être intégré dans une façade ventilée. Testé auprès d’un panel d’experts de l’inspection visuelle, son taux d’acceptation global a été compris entre 7 et 8 (sur une échelle de 10).

Deux percées technologiques majeures

Depuis plusieurs années, la recherche de rendement du photovoltaïque organique est active. L’équipe internationale a réussi à créer des cellules photovoltaïques organiques dont le rendement est supérieur à 15% dans des environnements favorable en combinant de nouveaux matériaux de couche active et d’électrode à des techniques de revêtement et d’interconnexion de module. Par ailleurs, les modules ont été produits par des techniques de revêtement et d’impression 3D rouleau-à-rouleau (roll-to-roll – R2R) sans aucun traitement sous vide ce qui as permis une grande liberté de forme aux différents modules et ce qui diminue considérablement les coûts de fabrication industrielle comparé au photovoltaïque inorganique.

Sophie Hoguin

Le PDG de Total défend un prix mondial du carbone

« En l’absence de prix du carbone, le mix énergétique va profondément évoluer vers un mix charbon – renouvelables », analyse Patrick Pouyanné, PDG de Total. Et ceci partout dans le monde ! « C’est assez paradoxal, mais vrai pour beaucoup de pays », ajoute-t-il. C’est déjà le cas de l’Allemagne et  du Danemark proche de nous. Mais c’est aussi vrai dans les grands pays asiatiques tels que la Chine, l’Inde ou le Japon.

La transition énergétique, c’est favoriser les économies d’énergies, augmenter la part des énergies renouvelables, diminuer les énergies fossiles, mais surtout lutter contre le charbon. « Il n’y a qu’une seule façon de le faire, c’est le prix du carbone », défend Patrick Pouyanné. Un signal de prix assez fort permettrait de faire un « switch  du charbon au gaz », renforcer la compétitivité des énergies renouvelables avec moins de subventions et inciter à développer les technologies de captage/stockage du CO2.

Preuve de ce combat pour un prix du carbone, le PDG rappelle l’appel qui a été fait par Total en mai 2015, aux côtés des britanniques BG et BP, de l’italien Eni, de l’anglo-néerlandais Shell et du norvégien Statoil pour des mécanismes de tarification du carbone s’appliquant dans tous les pays du globe. Les différents acteurs s’accordent pour dire qu’un prix situé entre 20 et 30 euros, serait suffisant pour remplacer le charbon par le gaz. Mais il ne faut pas chercher à avoir un prix unique dans le monde et « il ne faut pas parler d’une taxe à 100 euros ou 100 dollars la tonne qui fait peur à tout le monde», s’alarme le PDG. Il défend ainsi un marché européen plus efficace que l’ETS (Emission Trading system), le marché européen actuel du carbone, où le prix de la tonne de CO2 avoisine les 6 euros. Les Anglais ont décidé d’agir de façon unilatérale et instauré une taxe carbone de 20 euros la tonne il y a deux ans. « Cela a suffit pour que le système électrique britannique switche du charbon au gaz », rappelle Patrick Pouyanné.

En août 2015, Total confirmait la fin de toutes ses activités liées au charbon. En avril 2016, l’entreprise annonçait un virage stratégique pour renforcer ses activités dans les énergies renouvelables et le gaz naturel. Mais Total restera une major des hydrocarbures. D’ici 20 ans, « notre mix énergétique sera peut-être 35-40% de pétrole, 45-50% de gaz et le reste dans les énergies bas carbone : biomasse, solaire et stockage », prévient le PDG.

Par Matthieu Combe, journaliste scientifique

Le Raspberry Pi 3 en route pour l’embarqué et l’Internet des objets

Le Raspberry Pi est un ordinateur qui se caractérise par sa compacité et son petit prix. Ces deux atouts lui ont valu l’estime d’une large communauté de développeurs et informaticiens, avec à la clé un beau succès commercial. Depuis sa première apparition en 2012, ce nano-ordinateur s’est en effet écoulé à 10 millions d’unités à travers le monde, selon les chiffres communiqués en septembre 2016 par la fondation du même nom. Conçu à des fins pédagogiques pour le secteur éducatif notamment, il s’étend sur d’autres territoires, dont l’industrie, l’Internet des objets et les applications professionnelles dans l’embarqué. Annoncé il y a quelques jours, le Compute Module 3 (CM3) est un moyen d’entériner cette stratégie : c’est une version miniaturisée du Raspberry Pi 3B (en fait la 4e génération), commercialisé depuis février 2016.

Disponible au format standard SO-DIMM, le CM3 ne mesure plus que 67×30 mm, contre 85×56 mm pour son aîné. Il bénéficie toutefois d’une puissance de calcul identique, apportée par un processeur Broadcom BCM2837, lui même basé sur un processeur à quatre cœurs ARM Cortex-A53 à 1,2 GHz. A titre de comparaison, les performances sont dix fois supérieures à celles du Raspberry Pi initial. Le CM3 embarque également 1 Go de mémoire vive. Deux modèles coexistent, le CM3 et CM3 Lite, selon la présence ou non de 4 Go de mémoire de stockage de type Flash eMMC. Le gabarit est quasi-identique à celui du module CM qui avait complété en 2014 l’offre Raspberry A+/B+, avec le même objectif. Le CM3 peut donc remplacer son prédécesseur dans une application existante sans modification matérielle. A pleine puissance, il consomme environ 4 watts et ne se destine pas aux «petits» produits, fonctionnant sur batterie.

Première application dans des écrans NEC

La fondation Raspberry a annoncé dans le même temps la sortie de sa nouvelle carte d’entrée/sortie dédiée au module CM3. Elle comprend une connectique identique (port GPIO 46 broches, 1 USB type A, 1 micro USB type B, port HDMI, WiFi/Bluetooth…) avec en supplément un port de carte SD, utile pour le modèle CM3 Lite. Cette carte de référence permet aux ingénieurs de tester les performances du CM3, avant d’élaborer leur propre carte mère en phase avec les besoins de l’application visée. Avant même son annonce officielle, le CM3 a trouvé un premier point de chute chez NEC à la fin de l’année dernière. Les derniers écrans LCD à affichage dynamique de l’industriel japonais, qui relaient des messages informatifs ou promotionnels dans les commerces ou les espaces publics, incorporent en effet un module CM3. Ces terminaux sont alors dotés d’une certaine capacité informatique in situ et peuvent héberger des logiciels de création de contenu et de supervision. Ce concept modulaire est appelé à se développer un peu partout dans les industries.

Le CM3 et le CM3 Lite sont disponibles chez le partenaire distributeur habituel de Raspberry Pi, à savoir RS sur le sol européen. Les prix respectifs sont de 31,85 € HT et 25,95 € HT. La carte E/S est quant à elle vendue 113,28 € HT.

Par Frédéric Monflier

L’Anses s’attaque aux risques émergents

Concernant les nouvelles technologies, l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) va étudier cette année l’impact potentiel sur la santé, notamment sur le système visuel, des casques de réalité virtuelle. Elle va aussi examiner les modifications de comportements et les impacts que peuvent faire peser les nouvelles technologies de l’information et de la communication sur la santé psychique des individus. En ligne de mire : l’usage quotidien des smartphones et autres dispositifs nomades et la multiplication des objets connectés.

L’Anses mettra aussi à jour son expertise sur les effets sanitaires des LED. Elle s’attachera à distinguer les différents types d’application : ampoules, jouets, écrans, phares… et mettra en perspective les risques liés à la lumière bleue et les risque d’éblouissements des LED avec les autres technologies d’éclairage. L’expertise évaluera aussi les risques environnementaux liés à lapollution lumineuse, aux déchets et à la composition des LED.

Toujours sur les perturbateurs endocriniens

L’Anses va étudier l’impact de l’exposition précoce des enfants aux contaminants environnementaux durant la période dite des « 1000 jours » : in utero et en bas âge. Objectif : déterminer l’existence de fenêtres de sensibilités particulières sur le développement neurologique et cognitif. L’agence approfondira également son travail sur les phtalates pour évaluer les risques sanitaires liés à un mélange de phtalates, en prenant en compte plusieurs voies d’exposition : alimentation, jouets, air, poussières…

Suite à la détection de résidus de substances toxiques dans les produits d’hygiène intime féminine par la revue « 60 millions de consommateurs », l’Anses va s’intéresser à la sécurité de ces protections intimes. Objectifs : identifier les substances chimiques préoccupantes susceptibles de les contaminer, évaluer les risques sanitaires, faire des propositions pour définir des limites maximales de résidus et mieux informer les consommateurs. Une étude similaire portera sur les couches pour bébés.

Mais aussi pollution de l’air, éoliennes, pesticides , eau…

L’ Anses va rendre cette année son travail sur l’efficacité des masques antipollution pour la population et les travailleurs. Contre quels polluants sont-ils efficaces et dans quelles conditions ? Ont-ils des effets sanitaires indésirables et ont-ils de réels bénéfices ? Autant de questions auxquelles l’agence répondra.

Du côté des zones rurales, les riverains des éoliennes se plaignent souvent d’une gêne spécifique liée aux basses fréquences et aux infrasons. Début 2017, l’agence rendra un travail très attendu sur ces risques sanitaires potentiels. Cette fois-ci, chez les riverains de zones viticoles et arboricoles, en commençant par la pomiculture, elle étudiera la possibilité de lancer une grande étude sur l’exposition aux pesticides. L’étude mesurera les résidus de pesticides dans le corps des riverains et dans l’environnement.

Enfin, l’agence rendra son travail sur l’impact du traitement de l’eau par des orthophosphates, dans le but de réduire la teneur en plomb de l’eau distribuée au robinet des usagers. L’agence restera par ailleurs évidemment mobilisé sur l’ensemble des grands enjeux sanitaires qu’elle traite depuis longtemps : perturbateurs endocriniens et Bisphénol A, pesticides, biocides, expositions liées à l’alimentation, nanomatériaux, radiofréquences, lutte contre l’antibiorésistance animale, qualité de l’air…

Par Matthieu Combe, journaliste scientifique

Ecophyto 2 : un peu moins de pesticides !

Selon les chiffres publiés par le Ministère de l’agriculture, de l’agroalimentaire et de la forêt, le nombre de doses-unités épandues à l’hectare (NODU), l’indicateur d’utilisation des pesticides du plan Ecophyto, enregistre une baisse de 2,7 % entre 2014 et 2015 pour les usages agricoles. C’est une bonne nouvelle, après une hausse  spectaculaire de 9,4% entre 2013 et 2014 et une hausse de 9,2 % entre 2012 et 2013. Néanmoins, sa valeur moyenne triennale augmente de 4,2 % entre les périodes 2012-2014 et 2013-2015. Une hausse inférieure aux hausses triennales précédentes :  5,8 % entre 2011-201 et 2012-2014.

Pour les zones non agricoles (jardiniers amateurs et collectivités), la réduction de l’usage des pesticides est largement supérieure : – 14 %. L’interdiction de l’usage des pesticides par l’État et les collectivités pour l’entretien des espaces verts, prévue par la loi de transition énergétique pour la croissance verte, votée à l’été 2015, semble déjà porter ses fruits.  Dès 2019, viendra s’y ajouter l’interdiction de la vente de pesticides aux jardiniers amateurs.

Pour rappel, l’objectif du plan Ecophyto était de parvenir à une baisse de l’usage des pesticides de 50% entre 2008 et 2018. Face à l’absence de résultats, Stéphane Le Foll, ministre de l’agriculture, a lancé le plan Ecophyto 2 en octobre 2015. Il vise désormais une baisse de l’usage des pesticides de 25 % en 2020, et de 50 % en 2025.

Amplifier la dynamique grâce aux fermes Dephy et aux CEPP

Le ministre compte sur la diffusion des bonnes pratiques expérimentées dans les fermes Dephy, ces exploitations engagées dans une démarche volontaire de réduction de l’usage de pesticides. «  Ces exploitations, à compter de leur entrée dans le réseau, affichent une baisse moyenne de leur indice de fréquence de traitement de 18 % par rapport à la moyenne des années 2013-2015 », assure Stéphane Le Foll dans un communiqué. Ce réseau a été élargi à 3.000 fermes en 2016, contre 2.000 auparavant.

Le plan Ecophyto 2 est doté d’un budget de 41 millions d’euros chaque année au niveau national, dont 2,3 millions d’euros sont alloués à la recherche et à l’innovation. Depuis 2016, « il bénéficie d’un financement complémentaire de 30 millions d’euros par an en région, pour accompagner les agriculteurs dans le changement de leurs pratiques et soutenir les investissements dans les exploitations agricoles », précise Stéphane Le Foll. La FNSEA en profite pour demander à ce qu’une partie « conséquente » de ces moyens soit investie davantage dans la recherche et l’innovation. Pour que les résultats soient au rendez-vous, « l’idée est bien d’avoir des solutions alternatives, applicables et prêtes à l’emploi pour les agriculteurs qui sont concernés », rappelle la Fédération.

Le dispositif des certificats d’économie de produits phytosanitaires (CEPP) est la grande nouveauté du plan Ecophyto 2 adopté en octobre 2015. Retoqués par le Conseil d’État pour des questions de procédures fin décembre 2016, ils ont été réintégrés à la loi Potier sur l’accaparement des terres agricoles et le développement du biocontrôle, votée à l’Assemblée nationale le 18 janvier. Elle doit désormais passer au Sénat le 7 février, avec passage en commission mixte paritaire.

Par Matthieu Combe, journaliste scientifique

Poussée par un vide, notre galaxie surfe à plus de 2 millions de km/h

Dans notre voisinage extragalactique existe une immense région vide qui exercerait une force de répulsion sur notre galaxie, la Voie lactée. Ce « repousseur » contribue aux forces gravitationnelles qui nous font naviguer à près de 2,3 millions de km/h sur la toile cosmique, la structure suivant laquelle la matière s’organise à grande échelle, notamment sous la forme de filaments qui connectent des galaxies entre elles et séparent des vides.

Quand attraction et répulsion se conjuguent pour nous mettre en mouvement Ce mouvement de notre galaxie (et de sa compagne, la galaxie d’Andromède) était déjà connu des astrophysiciens qui en recherchaient l’origine depuis 40 ans. Pour expliquer ce déplacement, les recherches se sont historiquement d’abord portées sur la possibilité d’un excès de galaxies situées dans la direction générale de notre mouvement.

Le suspect initial a été appelé le Grand Attracteur, une région d’une demi-douzaine d’amas riches en galaxies à une distance de 150 millions d’années-lumière de nous. Puis, l’attention a été portée sur une entité plus importante, toujours dans la même ligne de visée et directement derrière le Grand Attracteur : la Concentration d’amas de galaxies de Shapley, située à 600 millions d’années-lumière de nous. Mais, au fil des ans, le débat s’est enlisé sur l’importance relative de ces deux attracteurs, ceux-ci ne suffisant pas pour expliquer notre mouvement, d’autant qu’il ne pointe pas exactement dans la direction de Shapley comme cela devrait être le cas.

L’hypothèse d’une région sous-dense, un « vide » extragalactique, est alors avancée pour élucider ce phénomène. Obtenir une confirmation de l’observation d’un tel vide est extrêmement difficile. C’est pourquoi les chercheurs ont décidé, au lieu de regarder la répartition de la partie immergée de la masse (celle qui est visible : les galaxies), de cartographier en trois dimensions les mouvements de toute la matière (matière visible, dite aussi baryonique, et matière invisible, dite noire ou plus justement : transparente).

Daniel Pomarède, ingénieur-chercheur au CEA1 , explique que : « C’est grâce au rayonnement microonde émis il y a plus de 13 milliards d’années que le mouvement de la Voie lactée est détecté. Cette lumière nous parvient de toutes les directions, mais du fait de notre déplacement, on l’observe avec un décalage spectral vers le bleu dans la direction de notre mouvement et un décalage spectral vers le rouge dans la direction opposée. Et c’est en analysant cet effet dipolaire qu’on peut en déduire notre vitesse de 630 km/sec. » Hélène Courtois, astrophysicienne à l’Université Lyon 1 2 , complète : « En analysant les champs de vitesse de milliers de galaxies peuplant notre univers local, nous avons identifié le déplacement de « fleuves de matière », comme ceux qui parcourent Laniakea », notre superamas de galaxies découvert en 2014 par la même équipe. « Ces fleuves sont une conséquence directe de la distribution de la masse totale, qui s’éloigne des régions vides et se dirige vers les régions de plus haute densité. »

L’équipe a ainsi découvert qu’à l’emplacement de notre galaxie les forces répulsives et attractives provenant d’entités lointaines sont d’importances comparables et en a déduit que les influences majeures qui sont à l’origine de notre mouvement sont l’attracteur Shapley et une vaste région de vide (c’est-à-dire dépourvue de matière visible et invisible), précédemment non identifiée, qu’ils ont nommé le Dipole Repeller. Cette découverte, publiée le 30 janvier 2017 dans Nature Astronomy, permet en effet d’expliquer l’origine du dipôle (voir l’encadré plus bas) observé dans le rayonnement du fond diffus cosmologique, un ingrédient essentiel du modèle de standard de la cosmologie.

cap-galaxie
Cette cartographie des courants de matière (les flèches directionnelles) et des surfaces équipotentielles gravitationnelles (régions de l’espace « ressentant » la même attraction de gravitation – en vert et en jaune) permet, en visualisant son influence, de matérialiser la région du Dipole Repeller, ainsi que les nœuds et filaments de la toile cosmique (surfaces rouges et grises). La structure à grande échelle de notre Univers local est ainsi représentée. La flèche jaune est positionnée sur notre galaxie la Voie lactée et indique la direction du dipôle du fond diffus cosmologique. Cette cartographie couvre une région de notre Univers d’environ 2,5 milliards d’années-lumière de large. © Y. Hoffman, D. Pomarède, R.B. Tully, H. Courtois

Dorénavant, les astrophysiciens savent enfin quelle voie suit notre galaxie, attirée par la lointaine concentration de masse Shapley et repoussée par le Dipole Repeller, une région faite de « rien », même pas de matière invisible, dont finalement on ne connaît encore presque rien… C’est pourquoi les astrophysiciens préparent maintenant des relevés ultra-sensibles en optique, proche-infrarouge et radio qui permettront d’identifier les rares galaxies qui peuvent résider dans et autour d’un tel vide afin d’en approfondir notre connaissance.

 Source : cnrs

Présidentielles 2017: les Français s’intéressent aux énergies renouvelables

Selon le 7e baromètre de Qualit’ENR publié le 1er février, 77% des Français estiment que les énergies renouvelables ne sont pas suffisamment abordées dans la campagne présidentielle. Les jeunes sont particulièrement concernés (81% des 18-24 ans), tout comme les ruraux (84%). Cette étude a été réalisée auprès d’un échantillon de 1001 personnes, représentatif de la population française  par questionnaire en ligne entre le 5 et le 9 janvier 2017.

Questionnés sur le candidat en qui ils ont le plus confiance pour développer les énergies renouvelables en France, les sondés répondent Emmanuel Macron (En Marche) à 29%, Jean-Luc Mélenchon (France Insoumise) à 26%, François Fillon (Les Républicains) à 24%, Benoît Hamon (PS) à 21%, Marine Lepen à 18% et Yannick Jadot (Europe Ecologie – les Verts) à 17%. Plus globalement, ils sont 71% à estimer que le prochain président devra amplifier le rythme de développement des énergies renouvelables. 25% sont moins ambitieux et pensent qu’il faudra stabiliser ce rythme. Seulement 3% des Français sont pour un ralentissement de leur développement.

Les énergies renouvelables bénéficient toujours d’une bonne image chez les Français. Ils sont 93 % à penser que les énergies renouvelables sont respectueuses de l’environnement, 89 % qu’elles favorisent l’indépendance énergique et 79 % qu’elles permettent de faire des économies.

Quelles filières d’énergie renouvelable développer ?

98% des Français encouragent le développement d’au moins un type d’énergie renouvelable. En tête : le solaire thermique, avec 92% d’avis favorable. Suivent l’éolien (85%), la pompe à chaleur (83%), les panneaux photovoltaïques (82%) et le bois énergie (69%). Les énergies fossiles résistent dans l’opinion publique. Notamment, le gaz naturel gagne 4 points par rapport à 2016 et monte à 69% d’avis favorable. Le nucléaire continue de partager les Français ; il stagne à 40% d’opinions favorables. Le fioul  (22%) et le charbon (17%) résistent et gagnent respectivement 2 points et 1 point. Le gaz de schiste continue son recul et finit à 20% (- 4 points).

Quelles positions pour les différents candidats ?

Le nouveau Livre Blanc du syndicat des énergies renouvelables (SER), publié à 3 mois de l’élection Présidentielle, est l’occasion d’interroger les candidats sur leur politique de déploiement des énergies renouvelables. Le SER demande notamment de respecter les trajectoires fixées par la loi de transition énergétique pour la croissance verte et la Programmation Pluriannuelle de l’Energie (PPE), de garder une bonne visibilité sur les appels d’offres et le fonds chaleur. Il plaide par ailleurs résolument pour fixer un vrai prix au CO2, réduire encore les délais d’instruction et des recours et appelle les candidats à soutenir l’offre industrielle française et européenne pour construire des champions industriels, notamment dans le solaire.

A l’occasion du 18e colloque du SER le 31 janvier 2017, des conseillers et porte-paroles des principaux candidats à l’élection présidentielle se sont prononcés sur ces propositions. Globalement, France Insoumise et EELV défendent une France 100% renouvelable et sans nucléaire à l’horizon 2050. Les Républicains et Le Front national veulent garder un nucléaire fort et garder le développement des énergies renouvelables pour remplacer les énergies fossiles. Pour ces deux partis, la part du nucléaire dans la production d’électricité restera proche de 75%. Pour le mouvement« En marche » d’Emmanuel Macron, le cadre est désormais bien posé par la loi et il faut arrêter les « stop and go législatifs ». Il faut respecter les objectifs actuels, à savoir, abaisser la part du nucléaire de 75% à 50% dans la production d’électricité à l’horizon 2025. Les énergies renouvelables devront atteindre une part de 32 % dans la consommation énergétique finale en 2030 (40% pour l’électricité). Aucun représentant de Benoît Hamon pour le PS n’a fait le déplacement. Néanmoins, son programme propose 50% d’énergies renouvelables dès 2025 et la fermeture des centrales nucléaires en fin de vie. Il devrait donc également respecter les objectifs de la loi de transition énergétique.

Par Matthieu Combe, journaliste cientifique

100% business et innovation

Chaque année, TECHINNOV apporte une solution ultra efficace aux décideurs de l’innovation. En une seule journée, c’est 5 conventions d’affaires, des Start-up Challenges, 5 expositions thématiques et de nombreuses conférences animées par des leaders de l’industrie européenne qui contribuent à faire de TECHINNOV depuis 11 ans l’évènement le plus efficace pour identifier et trouver vos partenaires technologiques de demain. Les frais de participation ? à partir de 195 €HT…un ROI exceptionnel !

Liste des participants : Télécharger la liste des participants   Plus d’information : Site Internet ou au 01 46 90 19 05

Investissements dans les start-up : le Royaume-Uni toujours en tête, la France bonne deuxième

Le baromètre “European innovation financing” établi par la banque d’affaires Clipperton et le cabinet d’études Digimind, fait le bilan des financements levés par les entreprises de technologies en Europe tous les six mois. La dernière édition fait le point sur 2016 et révèle encore une année record pour les start-up européennes.

Toute l’Europe en profite, sauf l’Italie

Le trio de tête reste le même: le Royaume-Uni qui se taille la part du lion avec plus de 4 milliards de dollars d’investissement en 2016 (+9%) devant la France 2,7 Md$ (+22%) et l’Allemagne 2,6Md$. Mais cette dynamique n’est pas limitée à ces trois pays, la plupart des pays européens en profitent et Martin Vielle, vice-président de Clipperton explique, dans une interview accordée à Challenges, que la Scandinavie se maintient malgré tout, que l’Espagne et le Portugal sont actuellement très dynamiques et que les pays de l’Est commencent à arriver. “En revanche, en Italie, on ne voit pas le même mécanisme qu’en Espagne, précise-t-il, c’est un pays plus conservateur dans son mode de consommation et son économie.“

Des opérations plus petites mais plus nombreuses

Outre les chiffres globaux qui sont positifs, l’analyse montre aussi un fait intéressant: les opérations plus petites, inférieures à 30M$ sont de plus en plus nombreuses et sont venues compenser des opérations plus marquantes. Le document rapporte ainsi 943 levées de fonds comprises entre 1 et 10M$ en hausse de 50% par rapport à 2015.

Les plus fortes levées de 2016

On notera que la France compte trois entreprises dans les cinq plus grosses levées enregistrées en 2016.

Les 10 plus grosses levées de fonds européennes (tous secteurs) en 2016 

Entreprise Pays Montant secteur
OVH France 279 M$ Hébergement internet
Deliveroo Royaume-Uni 275M$ Livraison plats cuisinés
Sigfox France 162M$ Objets connectés, télécom
Oxford Nanopore Royaume-Uni 126M$ Séquençage adn
Devialet France 115M$ Hi Fi audio
ADC Therapeutics Suisse 105M$ Médicaments (anticorps)
Kymab Royaume-Uni 100M$ Médicaments, vaccins
Carrick Therapeutics Irlande 95M$ Médicaments (cancers)
Hellofresh Allemagne 93M$ Livraison de repas
Sonnen Allemagne 85M$ Energie (batterie)

(Source “European innovation financing” Janvier 2017 Clipperton)

Les 12 levées de fonds françaises supérieures à 30M€ en 2016

On peut voir arriver dans le classement, Deezer qui n’apparaît pas dans le baromètre construit par Clipperton et des chiffres annoncés qui diffèrent selon les deux sources.

Entreprise Montant secteur
OVH 250 M€ Hébergement internet
Sigfox 150M€ Objets connectés, télécommunications
Deezer 100M€ Streaming audio
Devialet 100M€ Hi Fi audio
LinkbyNet 50M€ Hébergeur internet
Teads 43M€ Publicité vidéo
Acco 35M€ Circuits intégrés (pour solutions mobiles)
Navya 34.1M€ Bus (sans chauffeur)
MedDay Pharmaceuticals 34M€ Traitement sclérose en plaques
Drivy 31M€ Location voiture entre particuliers
Wynd 30M€ Digitalisation commerce
Ecovadis 30M€ Agence notation RSE

(source usine digitale.fr)

 

Par Sophie Hoguin