Renforcement en cours du Fonds Chaleur

Le conseil d’administration de l’ADEME a voté, le 18 octobre, une hausse du budget du Fonds Chaleur de 14% pour 2018. Le budget initial de 215 millions d’euros est ainsi porté à 245 millions d’euros.

En France, la production de chaleur représente la moitié des consommations d’énergie et repose encore principalement sur les combustibles fossiles. Destiné aux gestionnaires de l’habitat collectif, aux collectivités et à toutes les entreprises des secteurs agricole, industriel et tertiaire privé, le Fonds Chaleur est une véritable aide à la décision pour développer la production renouvelable de chaleur grâce à la biomasse, au solaire et à la géothermie.

Un doublement du Fonds Chaleur ?

Lors de la campagne présidentielle, Emmanuel Macron avait promis qu’il doublerait le montant du Fonds Chaleur durant son quinquennat. Le 2 octobre dernier, François de Rugy, ministre de la Transition écologique et solidaire, a pour sa part indiqué que le Fonds Chaleur allait augmenter à 300 millions d’euros l’an prochain, contre 200 millions en 2017. Cette enveloppe devra être confirmée dans le cadre de l’examen du projet de loi de finances 2019.

Durant la période 2009-2016, le Fonds Chaleur a été doté de 1,6 milliard d’euros pour soutenir près de 4 000 réalisations. Si la France s’est fixé un objectif national de 32 % d’énergies renouvelables dans sa consommation finale d’ici 2030, plus de la moitié de l’effort à réaliser consiste à développer la chaleur renouvelable. L‘objectif est d’atteindre 38 % de chaleur renouvelable à l’horizon 2030, contre 17,6 % en 2013. Pour y parvenir, les professionnels demandent un Fonds Chaleur doté d’une enveloppe annuelle d’au moins 500 millions d’euros.

Cap sur la chaleur biomasse

L’appel à projets « Biomasse Chaleur Industrie Agriculture et Tertiaire » (BCIAT) vise spécifiquement le développement de projets de production de chaleur à partir de biomasse, supérieurs à 12 gigawattheures par an (GWh/an). Destiné aux entreprises, il compte pour son édition 2018 sept lauréats pour une production totale de 464 GWh/an, un montant total d’aides de 26,6 millions d’euros et 70 millions d’euros d’investissement. Ces résultats confirment la tendance de ces deux dernières années à l’augmentation de l’utilisation de bois déchets comme combustible. Les candidatures pour l’édition 2019 sont lancées : le premier appel d’offres est ouvert jusqu’au 31 janvier, le deuxième jusqu’au 23 mai 2019.

Une attention particulière sera portée aux projets se substituant à des combustibles très émetteurs de gaz à effet de serre. Les aides financières apportées par le Fonds Chaleur dépendent de la taille de l’entreprise, du projet et de sa rentabilité économique. Elles s’élèvent au maximum à 65 % du montant total pour les petites entreprises, 55 % pour les entreprises moyennes et 45 % pour les grandes entreprises.

Par Matthieu Combe, journaliste scientifique

La RSE au service des objectifs de développement durable

La responsabilité sociétale et environnementale (RSE) des entreprises peut jouer un rôle important pour atteindre les 17 objectifs de développement durable (ODD). À cette fin, le 22 octobre dernier, la plate-forme RSE a remis son avis à Brune Poirson, secrétaire d’État auprès du ministre d’État, ministre de la Transition écologique et solidaire. Son premier constat est que les ODD souffrent d’un manque de notoriété. Ils demeurent peu connus du grand public et seulement la moitié des entreprises du SBF 120 les ont évoqués dans leur rapport de développement durable en 2017.

Les 17 ODD constituent un programme d’actions pour le développement durable à l’horizon 2030. Ils comprennent notamment la fin de la pauvreté, de la faim, l’accès à l’éducation, l’égalité entre les sexes, la protection de l’environnement et la transformation des modes de consommation, de production et de développement urbain. Les gouvernements membres des Nations Unies se sont engagés à les mettre en œuvre et à rendre compte de leurs avancées. Toutefois, l’ensemble des acteurs – collectivités, entreprises, chercheurs, ONG, associations et citoyens – sont invités à contribuer à l’atteinte de ces objectifs. La plate-forme RSE dresse donc 15 recommandations pour améliorer les synergies entre ODD et RSE.

15 recommandations pour allier RSE et ODD

En premier lieu, la plate-forme RSE recommande au gouvernement de « porter les ODD à l’échelle nationale et internationale », « communiquer, sensibiliser, former et informer » et « rendre les ODD accessibles et attractifs pour les entreprises ». En particulier, le gouvernement devrait expliquer en quoi les ODD constituent une opportunité pour les entreprises. Pour assurer la cohérence de sa politique, il ne devrait pas s’engager dans des accords commerciaux qui feraient obstacle à la mise en œuvre des ODD. Enfin, le gouvernement devrait porter les ODD au niveau européen pour en faire une priorité de la future Commission européenne élue en mai 2019.

La plate-forme RSE propose par ailleurs le lancement d’une campagne de communication et de sensibilisation à destination du grand public pour faire connaître les ODD. Elle soumet également au gouvernement d’inclure les ODD dans les formations de l’enseignement supérieur. Elle conseille en plus d’inclure les ODD dans la commande publique et dans les partenariats publics-privés.

Les entreprises reçoivent aussi leur lot de recommandations. L’avis leur propose d’analyser leur activité au regard des cibles des ODD pour identifier éventuellement de nouveaux enjeux RSE. La plate-forme RSE leur recommande de relier les actions de mécénat à des ODD et de les intégrer à leurs démarches d’achat ou d’investissement responsable.

En outre, les organisations professionnelles et les autres relais des entreprises ont un rôle important à jouer. Ils pourraient analyser les enjeux sectoriels de la RSE présents dans les ODD. Il serait aussi intéressant que ces organisations recensent les outils disponibles et les bonnes pratiques pour les inclure dans une démarche RSE. Enfin, la plate-forme RSE conseille aux partenaires sociaux d’inclure les ODD dans le dialogue social, ainsi que d’intégrer des cibles et indicateurs ODD dans la négociation d’accords de branche et d’accords-cadres transnationaux.

Par Matthieu Combe, journaliste scientifique

Du graphène comme s’il en neigeait

Maintenant que les propriétés du graphène et des matériaux 2D ont été dévoilées, les applications industrielles et la massification de sa production font l’objet de nombreuses recherches. En effet, le produire en grande quantité, rapidement et avec un bon niveau de qualité et de pureté n’est pas encore si facile. Les deux méthodes couramment utilisées aujourd’hui – le dépôt chimique en phase vapeur (CVD) ou l’exfoliation en phase liquide – requièrent soit des substrats coûteux qui limitent la productivité, soit des post-traitement complexes qui limitent la qualité. D’où, tout l’intérêt des travaux chinois relatés dans Advanced Materials, qui présentent une méthode pour du graphène de haute qualité à bas coût dans une phase gazeuse, sans catalyseur, sans substrat et transférable à l’échelle industrielle.

Du graphène en flocons

S’inspirant de la manière dont se forme les flocons de neige, l’équipe de Jin Zhang (Université de Peking) et Yingying Zhang (Université de Tsinghua et institut de recherche du graphène) à Pékin, a mis au point un process qui se tient dans un four à micro-ondes ordinaire…

Un tube de quartz contenant des pièces de silicium (Si/Si02 en surface) est placé à pression ambiante dans un four à micro-ondes. L’air du tube est chassé par un flux d’argon, le micro-ondes est allumé et du méthane est injecté comme source de carbone. Les radiations du micro-ondes génèrent un plasma à plus de 700°C avec un effet de couronne – décharge électrique autour du matériau, causée par l’ionisation de l’air qui l’entoure. Cette décharge électrique dissocie les molécules de méthane en graphène d’un côté et hydrogène de l’autre. Le processus fournit des flocons de graphène qui retombent comme de la neige sur le substrat placé en dessous.

A l’instar des flocons de neige, les flocons de graphène qui s’accumulent forment des macrostructures tridimensionnelles de type mousse. Dans leurs expériences, les chercheurs chinois ont accumulé cette « neige » sur une surface flexible qu’ils ont transformé en capteur de forces.

Le rendement est élevé (autour de 6,28%) et le taux de formation des flocons rapide (autour de 0,11g/h). En outre, concluent les chercheurs, ce procédé, simple et peu coûteux peut être envisagé pour fabriquer d’autre matériaux 2D.

Sophie Hoguin

Les outils, des organes des sens à part entière ?

Le sens du toucher intervient de façon capitale dans le contrôle qu’un individu a de ses mains et par extension des outils à travers lesquels le toucher lui permet de percevoir son environnement.

Des chercheurs de l’Inserm au sein du Centre de recherche en neurosciences de Lyon (Inserm/Université Jean Monnet Saint-Etienne/Université Claude Bernard Lyon 1/CNRS) se sont intéressés aux mécanismes permettant au cerveau de localiser le toucher à travers les outils. Pour cela, ils ont utilisé trois approches complémentaires à travers plusieurs expériences de localisation d’un coup porté sur un bâton tenu en main.

La première approche consistait à frapper à différents endroits un bâton tenu en main par un volontaire dont la vision était obstruée et de lui demander de localiser l’impact. La précision de cette localisation s’est avérée aussi efficace lorsque le choc était administré sur le bâton, quel que soit l’endroit, que lorsqu’il était administré sur le bras du volontaire. Ces résultats démontrent la capacité humaine à «incorporer » l’ensemble d’un outil tenu en main comme s’il faisait partie de son propre corps, le cerveau l’intégrant comme un organe des sens à part entière.

La seconde approche se basait sur l’enregistrement des vibrations du bâton perçues à la base de sa poignée et sur la peau de la main le tenant. Les chercheurs ont observé que les caractéristiques des vibrations du bâton transmises à la main dépendaient de façon prédictible de l’endroit de l’impact.

Enfin, dans la troisième approche, les caractéristiques des vibrations enregistrées dans la seconde approche ont été traitées par un simulateur informatique des réponses cutanées, permettant ainsi de modéliser les réponses aux vibrations des mécano-récepteurs (neurones sensoriels de la peau) en contact avec le bâton. L’équipe de recherche a ainsi observé que les mécano-récepteurs étaient capables de déchiffrer très précisément les motifs vibratoires du bâton. Ceux-ci étant strictement dépendants de l’endroit de l’impact, le cerveau est capable d’interpréter leur « profil » envoyé par les mécano-récepteurs et par conséquent de localiser la zone d’impact.

Cette étude montre que le cerveau humain traite les outils comme des extensions sensorielles du corps de l’utilisateur, un mécanisme que l’équipe de recherche se propose d’appeler « perception étendue par les outils ». Ce phénomène nouvellement décrit ici représente un nouveau paradigme qui pourrait permettre d’améliorer la compréhension des phénomènes d’incorporations d’outils chez l’être humain et de la perception sensorielle des non voyants, ainsi que l’appréhension de l’utilisation des prothèses chez les personnes amputées.

Source : cnrs 

La pétrochimie, premier facteur de la croissance de la demande de pétrole

Le plastique, premier dérivé du pétrole

Selon une étude majeure intitulée The Future Of Petrochemicals publiée par l’Agence internationale de l’énergie (AIE), « la combinaison d’une économie mondiale en croissance, d’une population croissante et le développement technologique, se traduira par une demande croissante de produits pétrochimiques. »

La pétrochimie, qui transforme le pétrole et le gaz en toutes sortes de produits, est omniprésente dans les objets de notre quotidien tels que les plastiques, les engrais, les emballages, les vêtements, les détergents ou les pneus.

Les produits issus de la pétrochimie sont même utilisés par les industries les plus vertes, notamment dans la fabrication des panneaux solaires, des éoliennes, des isolants thermiques des bâtiments ou des pièces des véhicules électriques.

L’AIE prévoit, dans son étude, une augmentation de cette production pétrochimique mondiale de 30 % d’ici à 2030 et de 60 % d’ici 2050 pour atteindre 1 milliard de tonnes, soit l’équivalent de la production actuelle d’acier ou de ciment, ajoutant ainsi près de 7 millions de barils de pétrole par jour d’ici là. D’après l’AIE, « les produits pétrochimiques sont également prêts à consommer 56 milliards de mètres cubes supplémentaires de gaz naturel d’ici 2030, soit environ la moitié de la consommation totale de gaz au Canada ».

Le principal moteur de cette activité du point de vue énergétique est la demande en plastique qui a dépassé tous les autres matériaux dans les pays développés (tels que l’acier, l’aluminium ou le ciment), doublant presque depuis 2000. Ce chiffre explosera encore dans les décennies à venir avec l’accroissement de la consommation de plastique dans les pays en voie de développement. Le rapport alerte : « Les États-Unis, l’Europe et les autres pays développés utilisent actuellement jusqu’à 20 fois plus de plastique et jusqu’à 10 fois plus d’engrais que l’Inde, l’Indonésie et d’autres pays émergents par habitant, soulignant l’énorme potentiel de croissance à l’échelle mondiale. »

Un défi environnemental se profile à l’horizon

Bien que les efforts pour réduire les émissions de CO2 concernent habituellement l’automobile ou le transport, la production (ainsi que l’élimination) des produits dérivés de la pétrochimie a également un impact négatif sur l’environnement, la qualité de l’air et de l’eau.

Le docteur Fatih Birol, directeur exécutif de l’AIE, déplore que « le rôle croissant de la pétrochimie soit l’un des principaux « angles morts » dans le débat énergétique mondial. La diversité et la complexité de ce secteur font que la pétrochimie reçoit moins d’attention que d’autres secteurs, malgré leur importance croissante ».

Les deux problèmes environnementaux majeurs soulevés par cette industrie sont les émissions de CO2 et les déchets plastiques rejetés, une situation qui n’est pas inéluctable selon l’AIE. L’agence propose ainsi dix recommandations politiques visant à créer un secteur pétrochimique plus durable et plus efficace, et parmi elles, la réduction des plastiques à usage unique, l’amélioration de la gestion des déchets et du recyclage ou encore des taxes qui pénalisent la faible recyclabilité des produits pour inciter à les rendre plus recyclables.

Aliye KARASU

Des molécules extraites de bactéries marines pour la cosmétique

Les polysaccharides peuvent être définis comme des macromolécules formées de l’enchaînement de motifs similaires, en l’occurrence de glucides appelés couramment « sucres » ou « oses ». Initialement dominé par les gommes d’origine végétale et algale, leur marché s’ouvre également aux polysaccharides bactériens. En milieu marin, cette production semble être majoritairement le fait de souches appartenant aux genres Alteromonas, Pseudoalteromonas, Pseudomonas, Shewanella et Vibrio. Chez les bactéries, ces polysaccharides sont présents au niveau de la paroi cellulaire, à l’extérieur de la cellule mais liés à celle-ci (polysaccharide capsulaire) ou relargués dans le milieu de culture sous forme d’exopolysaccharides (EPS).

schema1

Des molécules biosourcées pour la cosmétique

De par leurs propriétés biologiques, chimiques et physico-chimiques, les EPS peuvent trouver des applications dans différents secteurs d’activités tels que la santé, la chimie, le phytosanitaire, la nutraceutique, l’environnement, la récupération assistée des huiles et la cosmétique. Si des exopolysaccharides bactériens ont trouvé des applications (xanthane, gellane, hylauronane, succinoglycanne, curdlane, pullulane, dextranes…), force est de constater que rares sont ceux d’origine marine ayant connu à ce jour un réel développement.

Parmi les secteurs en demande de polysaccharides, il y a la cosmétique et la cosméceutique. En effet, la limite entre pharmaceutique et cosmétique devient de plus en plus tenue au regard de l’évolution des législations et d’une prise de conscience des utilisateurs, d’où cette terminologie de « cosméceutique » venant compléter celle de « cosmétique ». Il s’agit là d’un secteur économique en forte croissance et correspondant à une demande sociétale en expansion. La cosmétologie/dermo-cosmétologie est un domaine en quête de nouvelles molécules innovantes, tant pour leur « histoire » et origine, que pour leurs propriétés physico-chimiques et leur efficacité. Dans ce secteur, l’utilisation d’ingrédients biosourcés, la préservation de l’environnement naturel, la diminution de l’utilisation de solvants dans les procédés de fabrication, le contrôle des rejets de CO2… sont des arguments que les plus grandes enseignes mettent en valeur afin de répondre à une demande de marché de plus en plus croissante. Le milieu marin se présente alors comme un domaine de recherche tout à fait en adéquation avec l’ensemble de ces critères.

Des produits « anti-âge » aux traitements dermiques

Parmi les produits les plus recherchés, il y a naturellement les molécules « anti-âge » (agents hydratants, raffermissement de la peau, lissage, antirides, réparation cellulaire, régénération des cellules dermiques, protection contre les UV, etc.). D’une manière plus générale, il s’agit de molécules en adéquation avec une volonté affichée des consommateurs d’un meilleur bien-être passant, en premier lieu, par l’apparence physique et l’entretien du corps. Dans les pays industrialisés, cette tendance a débuté auprès des « baby-boomers » de l’après-guerre mais se poursuit maintenant, et de plus en plus, avec les nouvelles générations. Ces produits « anti-âges » comprennent les vitamines (pour plus de 50 % de ce marché : vitamines A, B5, C et E), mais aussi les polysaccharides (acide hyaluronique, chitosane et β-glucanes) pour plus de 20 %. À ces produits majoritaires, il convient d’y ajouter les peptides et protéines, les enzymes et co-enzymes, les extraits naturels et d’autres produits comme les hydroquinones, amino-acides, etc. Et à cet énorme marché vient également s’ajouter celui des systèmes de délivrance et libération contrôlée des actifs cosmétiques sous forme de nanoparticules, nanoémulsions, microcapsules et millicapsules, ainsi que les patches. D’autres pistes de développement sont envisageables, qui utiliseraient la propriété de polysaccharides à fixer certains ions spécifiques (argent, cuivre, zinc et titane) intervenant par exemple dans le traitement de l’acné ou autres affections dermiques.

schema2

Des EPS d’origine bactérienne

Bien que la classe des polysaccharides soit déjà bien représentée en cosmétique et dermo-cosmétique notamment via les algues, la demande persiste pour de nouvelles molécules caractérisées par la diversité de leurs origines, l’originalité des unités saccharidiques et de leurs propriétés physico-chimiques, biologiques et rhéologiques, permettant d’envisager des applications sous des formes galéniques variées. Au titre de ces nouvelles opportunités, on retrouve tout naturellement les micro-organismes comme sources d’exopolysaccharides bactériens originaux. Ces exopolysaccharides bactériens présentent quelques atouts comme l’absence de dépendance vis-à-vis d’aléas climatiques, écologiques et politiques pouvant affecter la qualité, le coût et l’approvisionnement de leurs homologues extraits d’algues ou de plantes. De plus, les possibilités d’agir sur les conditions de fermentation (sources de carbone, température, aération, pH, etc.) – en vue d’optimiser la production, d’assurer la traçabilité, mais aussi de modifier le polymère produit – jouent en faveur de la fermentation bactérienne. Ces polymères présentent souvent un degré de régularité de structure plus important et peuvent être extraits et purifiés sans l’utilisation de conditions drastiques. Les inconvénients de ces polymères bactériens restent liés aux micro-organismes eux-mêmes, à leur manipulation et conservation ainsi qu’à la production de métabolites secondaires et coproduits associés à la fermentation.

Perspectives

Les exopolysaccharides bactériens d’origine marine font partie de ces molécules à fort potentiel biotechnologique, soit à l’état natif soit après modifications chimiques et surtout enzymatiques. Le fait de pouvoir également contrôler en amont cette production, via le génie génétique ou plus simplement par une connaissance des mécanismes de biosynthèse, constitue une voie d’avenir. Dans cette attente, le développement industriel de ces exopolysaccharides marins reste à ce jour relativement limité car il se heurte, comme d’autres EPS, à un problème majeur, leur coût de production, un coût qui doit être compatible selon les applications, avec les réalités économiques. À titre d’exemple le coût de production des principaux EPS marins commercialisés à ce jour peut dépasser les 500 à 1 000 euros/kg alors que celui du xanthane se situe, selon la qualité recherchée, aux alentours de 5 à 10 euros/kg. Les solutions à cette réduction des coûts de production passent par l’utilisation de substrats carbonés peu onéreux, comme les coproduits de l’industrie (alimentaire, énergie) et une simplification des procédés d’extraction et de purification en évitant, autant que faire se peut, l’utilisation de solvants organiques. Dans cette attente seuls les marchés de niche ou ceux de la santé, mais sous réserve d’une pureté et reproductibilité de polysaccharides natifs ou modifiés, semblent alors accessibles.

 

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 25 novembre !

Obtention d’exopolysaccharides bactériens et applications en cosmétique, un article de Anthony COURTOIS, Président, Polymaris Biotechnology, Morlaix et Jean GUEZENNEC, Consultant scientifique, AiMB (Advices in Marine Biotechnology), Plouzané

Une illusion d’optique pour effaroucher les rapaces

Malgré leur acuité visuelle exceptionnelle, les rapaces ne détectent pas certains obstacles comme les surfaces vitrées ou détectent trop tard certains objets en mouvement comme les avions. En France, plus de 800 collisions d’oiseaux avec des avions sont mentionnées chaque année. Les systèmes d’effarouchement existants étant peu efficaces sur les rapaces, les chercheurs du laboratoire d’Ethologie animale et humaine (Ethos) ont cherché à développer un nouveau système qui les détournerait de certaines zones.

En se basant sur les connaissances actuelles de la vision chez ces espèces, les scientifiques ont d’abord testé les réactions de rapaces captifs à une série de stimuli visuels. Après plus de 300 tests, ils ont constaté qu’un seul stimulus induisait des réactions d’évitement grâce à une illusion d’optique. Ce « superstimulus » correspond à des cercles concentriques noirs sur fond blanc. Donnant l’impression aux rapaces d’une collision imminente, il s’agit en fait d’une illusion d’optique appelée « effet looming ».

Le dispositif a été testé sur l’aéroport de Lourdes-Tarbes-Pyrénées où de nombreux rapaces comme les buses ou les milans sont présents en été pour s’alimenter dans les plaines. Deux écrans LED diffusant le stimulus en continu toute la journée, ont été disposés à des endroits stratégiques et des observations ont été réalisées sur l’ensemble de l’aéroport. Les 8800 observations d’oiseaux ont ainsi révélé une rapide modification de leur répartition, ceux-ci évitant les zones de visibilité des écrans. Cet effet était encore constaté après 5 semaines de diffusion permanente du stimulus.

Le fait que la population de rapaces ait augmenté dans les zones de non-visibilité des écrans, à un moment où les ressources étaient abondantes dans toutes les zones, montre l’efficacité du stimulus. De façon intéressante, un effet similaire a été observé sur les corvidés présents sur le site, alors que certaines espèces de passereaux n’ont pas été influencées. Ces résultats sont les premiers à proposer une solution durable pour écarter de façon inoffensive les rapaces de zones à risques. Ils ouvrent également de nouvelles perspectives de recherche, comme la possible implication dans cette réaction, des neurones de collision, spécialisés dans ces réactions d’évitement.

Source : cnrs

L’industrie pourrait facilement devenir moins énergivore

Aujourd’hui, l’industrie est le troisième secteur d’activité le plus gourmand en France derrière le bâtiment et les transports. Ainsi, 21 % de la consommation énergétique française sert à la faire fonctionner. Selon une étude de l’ADEME, ces besoins pourraient pourtant être assez aisément réduits de 20 %. Mais pour ce faire, il est nécessaire que les industriels mettent en place des procédés moins demandeurs en énergie. C’est pourquoi les cabinets Effy et ENEA Consulting ont réalisé une étude auprès de 500 d’entre eux afin d’identifier les pratiques les plus efficaces à instaurer en termes d’économie d’énergies pour y parvenir. Pour que cela fonctionne, il est nécessaire que ces techniques soient mises en place à grande échelle.

La massification de ces procédés permettrait donc d’atteindre 20 % d’économies d’énergie dans l’industrie. Dans un premier temps, l’industrie doit mettre en place des pratiques simples, et surtout qui peuvent s’adapter à toutes les firmes, indépendamment de leurs secteurs d’activité. « L’amélioration de l’efficacité énergétique de l’industrie française repose en grande partie sur le déploiement des meilleures techniques disponibles » pour Effy.

Savoir gérer le froid pour être moins énergivore

Pour que les résultats de l’étude puissent être bénéfiques pour l’industrie toute entière, les analyses ont porté sur les secteurs suivants : l’agroalimentaire, la parachimie et la plasturgie. Notons néanmoins que les secteurs « à forte intensité énergétique » ne sont pas concernés par l’étude. Or, ces 49 industries réunies à l’Union des industries utilisatrices d’énergie (UNIDEN) sont responsables de 70% de la consommation énergétique de l’industrie tous secteurs confondus. En ce sens, les préconisations d’Effy et ENEA Consulting concernent 3 755 sites sur les 16 704 que compte l’industrie française. Ces 3 755 sites sont à l’origine de 17 % des consommations d’électricité et de 6 % des consommations de chaleur.

Concrètement, quelles pistes d’actions proposent cette étude ? Afin de parvenir à économiser de l’énergie, récupérer la chaleur fatale sur un groupe de production de froid ou un compresseur d’air comptent parmi les bonnes pratiques à développer. Les industriels gagneraient également à réguler les groupes de production de froid, isoler les réseaux de vapeur et utiliser des technologies électriques ou hybrides pour les presses à injecter. À l’heure actuelle, le taux de pénétration de ces pratiques dans les différents secteurs de l’industrie reste très hétérogène. Si elles se démocratisaient, elles permettraient tout de même d’économiser 236,5 térawattheures cumac chaque année !

Matthieu Combe, journaliste scientifique

TOP 5 : les articles les plus lus #octobre2018

Bruno Grandjean: « La France doit rattraper le bon wagon industriel grâce à l’usine du futur »

A l’occasion de l’événement “l’Usine extraordinaire”qui se tiendra du 22 au 25 novembre au Grand Palais à Paris, Bruno Grandjean, président de l’Alliance Industrie du Futur, partenaire de l’événement, a répondu à nos questions..

 

L’Usine 4.0 pourra-t-elle devenir propre ?

Chaque jour, les industries et les moyens de transport émettent des tonnes de carbone dans l’atmosphère. Le concept d’Usine 4.0 ne repose pas uniquement sur une agilité des process et leur numérisation. L’un des objectifs est aussi de consommer moins pour produire mieux.

 

Mondial de l’Auto 2018 : les 7 innovations les plus marquantes des startups

Le Mondial de l’Auto a accueilli pour la première fois le Mondial.Tech, un espace consacré en priorité aux start-ups. Retour sur les innovations les plus marquantes.

 

Le monde s’éloigne d’un réchauffement à +2°C

Selon le classement « Low Carbon Economy Index 2018 » du cabinet PwC, les efforts pour décarboniser l’économie mondiale demeurent insuffisants. Aucun pays du G20 n’atteint un taux de décarbonisation suffisant pour limiter le réchauffement climatique à 2°C d’ici 2100.

 

L’économie circulaire teste sa première norme

L’Afnor dévoile une première mondiale : la première norme expérimentale consacrée à l’économie circulaire. Elle vise à mieux faire connaître ce modèle économique et à contribuer à son essor pour tous les types d’organisme, quelles que soient leur taille et leur nature.

 

Par I. B

Cybersécurité : la multiplication des menaces

« C’est dans les vieux pots qu’on fait la meilleure soupe » ; cet adage s’applique aussi à la sécurité informatique. À Monaco, de nombreux experts ont constaté le retour en force de deux techniques de piratage très classiques : l’hameçonnage (appelé aussi Phishing) et les infections par le biais de macros malveillantes pour la suite Office de Microsoft, mais également pour toutes les autres suites bureautiques.

Le Phishing ne date pourtant pas d’hier, mais l’imagination et la professionnalisation des cybercriminels permettent de toucher de nombreuses victimes. Si les particuliers sont toujours concernés par ce fléau (ils sont encore trop nombreux à communiquer leur numéro de CB ou leur identifiant permettant d’accéder à leur banque en ligne), les entreprises sont elles aussi impactées.

Cette fois, l’objectif des pirates n’est pas de récupérer ce type d’identifiants, mais des mots de passe permettant d’accéder à des bases de données, des postes de travail… Le but ? Récolter un maximum d’informations afin d’infiltrer un réseau informatique ou d’usurper la messagerie d’un directeur. Et les conséquences peuvent être dramatiques : vol d’informations confidentielles ou à caractère personnel (dans ce cas, cette violation de données est sévèrement sanctionnée si l’on se réfère au RGPD), virements frauduleux, impacts sur l’image de marque de l’entreprise…

Prise d’otage de fichiers

Néanmoins, les pirates s’appuient aussi sur d’autres procédés pour arriver à leurs fins. Les ransomwares (programme malveillant qui chiffre les données d’un ordinateur et de tous les dossiers partagés dans l’entreprise) sont toujours présents et dangereux. Rappelons qu’il est aujourd’hui très difficile (à cause des différentes variantes de ransomwares et de leur sophistication) de « déchiffrer » des fichiers pris en otage. Les entreprises n’ont alors que deux options : payer la rançon exigée ou restaurer des données à partir d’une archive.

Seul problème, un cinquième des entreprises ne possède aucune méthode ni aucun plan leur permettant de récupérer leurs données, applications, informations clients, serveurs ou systèmes après une attaque informatique…

Ces ransomwares commencent cependant à être délaissés au profit du cryptomining (minage de cryptomonnaies) qui se développe de façon exponentielle. Selon le cabinet d’audit NTT Security, les cryptominers auraient augmenté de 460 % depuis le début de l’année, ciblant en priorité les petites et grandes entreprises, le secteur industriel, et même les travailleurs indépendants.

À Monaco comme dans les autres salons, on reconnaît que le point faible reste toujours l’être humain qui n’est pas assez sensibilisé par des formations. « L’usurpation d’identité ne concerne plus seulement les dirigeants, mais également les fournisseurs (introduction de RIB frauduleux), les prestataires techniques ou opérationnels (service expédition par exemple dans le cas du vol de fret)… Les possibilités sont quasi infinies et la créativité opérationnelle des attaquants semble sans borne. Il est à craindre, que dans un avenir assez proche, les attaquants adopteront des moyens et approches plus industriels. Les technologies de réalité virtuelle sont devenues matures, abordables et suffisamment saisissantes pour leurrer plus d’un DAF » s’inquiète  à juste titre Éric Filiol, Directeur du Laboratoire (C+V)° .

Philippe Richard

Un matériau synthétique fixe le CO2 pour grandir, se renforcer et s’auto-réparer

Plus qu’un simple matériau, c’est plutôt tout un système qui a été conçu par des chercheurs du MIT et de l’université de Californie à Riverside. Il se compose d’un gel formant une matrice, qui contient un polymère (aminopropyl methacrylamide – APMA), une enzyme oxydoréductase du glucose (la glucose oxydase – Gox) et des chloroplastes extraits de feuilles d’épinards, stabilisés par des nanoparticules de céria (dioxyde de cérium).

Une illustration des propriétés d’auto-réparation de ce nouveau matériau. Sur l’image du dessus, une fissure est créée dans le matériau (composé d’un hydrogel en vert foncé et de chloroplastes en vert clair). En bas, en présence de lumière, le matériau utilise le CO2 de l’air pour s’étendre et remplir la fissure.

Imiter la photosynthèse

Au contact du CO2 de l’air et de la lumière, les chloroplastes, qui ne sont pas vivants, catalysent la réaction produisant du glucose à partir du dioxyde de carbone. Ce glucose est transformé en gluconolactone (GL) par la glucose oxydase et ensuite polymérisé avec l’APMA, formant ainsi un polymère de polymethacrylamide qui s’étend et se renforce en continu. La vitesse moyenne de croissance a été mesurée à 60µm3/h par chloroplaste avec un éclairage de 18h et un taux de CO2 ambiant. L’épaississement présente un module de cisaillement de 3kPa. Le matériau, qui se présente sous une forme liquide, durcit et grandit avec le temps jusqu’à former un corps solide. Le matériau a démontré, lors des expériences menées par les chercheurs, une capacité d’auto-cicatrisation, comblant les fissures avec la nouvelle matière produite. Ces travaux, publiés dans la revue Advanced Materials, sont une preuve de concept et pourraient constituer la première étape d’une nouvelle classe de matériaux capables de fixer le CO2 pour se régénérer.

Auto-réparation autonome

L’utilisation des chloroplastes n’est pas un aboutissement en soi. En fait, les chloroplastes isolés sont plutôt instables et arrêtent de fonctionner rapidement après quelques heures quand ils sont hors d’une plante. Dans leurs travaux, le professeur Michael Strano et ses collèges ont trouvé des méthodes pour accroître significativement la durée de vie fonctionnelle de ces chloroplastes, notamment en les stabilisant avec des nanoparticules de dioxyde de cérium. Dans les prochaines recherches, ils devraient remplacer ces chloroplastes par des catalyseurs non biologiques. Un des avantages potentiels de ce genre de matériau est que la capacité d’auto-réparation se fait d’elle-même, en conditions ambiantes, contrairement à la plupart des autres solutions développées aujourd’hui qui nécessitent un activateur externe (chaleur, UV, pression, agent chimique…).

Sophie Hoguin

Retour de l’expédition Tara Pacific : des constats inattendus sur un patchwork corallien

Du canal de Panama au Japon (2016-2017), puis de la Nouvelle-Zélande à la Chine (2017-2018), Tara aura effectué plus de 36 000 prélèvements dans pas moins de 32 sites coralliens : c’est la plus vaste campagne scientifique consacrée à cet écosystème. Depuis son départ de Lorient en mai 2016, la goélette aura parcouru 100 000 km et fait escale dans une trentaine de pays.

Certains récifs très impactés par le réchauffement

Dès novembre 2016, à Ducie Island, à l’ouest de l’île de Pâques, les scientifiques ont observé les premiers récifs impactés par le réchauffement climatique. Un blanchissement qui a atteint 30 à 50 % dans certaines îles des Tuamotu en Polynésie, voire 90 % aux îles Samoa dans le Sud Pacifique en novembre 2016. En Micronésie, aux îles Tuvalu et Kiribati, une partie des récifs étaient déjà morts avant l’arrivée de la goélette, tandis que les récifs de Wallis et Futuna ou des Îles Chesterfield restaient relativement préservés.

Climat global et pollutions locales : un cocktail délétère

C’est un véritable patchwork corallien résultant de perturbations diverses que les chercheurs ont sillonné. La santé des récifs coralliens observés s’avère très contrastée, ils répondent différemment aux stress globaux et locaux. Tara Pacific offre ainsi l’opportunité unique de dissocier les effets des perturbations locales (pollutions, urbanisation, sédimentation due à l’érosion des sols, techniques de pêche invasives…) de l’incidence des changements globaux (réchauffement climatique global, acidification de l’océan…) et de mesurer l’état de santé de populations coralliennes soumises à ces deux types de perturbations. Un premier constat qui renforce l’importance du développement local durable pour la santé de ces écosystèmes, rappelant ainsi que le changement climatique global ne doit pas empêcher la mise en place de pratiques et politiques publiques durables ambitieuses.

Des données inédites

Grâce à cette expédition, les scientifiques ont récolté des données précieuses qui, après analyses, permettront de comprendre le fonctionnement des coraux et des micro-organismes qui le constituent. L’étude de leur génome devrait notamment livrer des informations sur les mécanismes régissant les capacités d’acclimatation du corail aux variations de l’environnement. Il serait ainsi possible d’identifier les conditions optimales permettant d’assurer la survie des coraux en fonction des paramètres environnementaux et biologiques des récifs coralliens mais aussi de leur microbiote (virus, bactéries, …).

Dans le sillage de l’expédition Tara Oceans (2009-2013), Tara Pacific offrira, grâce aux mêmes méthodes de séquençage, de stockage de données et d’analyses bioinformatiques, la possibilité de décrire les microorganismes des récifs coralliens et leurs interactions encore inconnues. Elle mettra à disposition de la communauté scientifique internationale une base de données inédite sur les récifs coralliens, permettant de dévoiler la biodiversité d’un récif, à la fois génomique, génétique, virale et bactérienne. Autre caractère spécifique de cette expédition : son approche multidisciplinaire, associant biologistes coralliens, généticiens, océanographes, spécialistes du plancton et des poissons de récifs, bio-informaticiens et même médecins !

Donner le temps aux récifs de se reconstruire pour affronter les stress successifs

La Fondation Tara appelle à la mise en œuvre urgente d’actions locales pour atténuer les stress directs subis par les récifs, sans oublier l’urgence de réduire les émissions de gaz à effet de serre. Prolifération des déchets plastiques, tourisme non durable dans les lagons, effluents de l’agriculture et de l’élevage ou encore grandes infrastructures côtières, tous ces facteurs aggravent la situation. Il apparaît qu’une prise en compte renforcée des impacts environnementaux fournira des résultats à court terme.

Six actions locales, immédiates
•    Améliorer la gestion des déchets, notamment plastiques,
•    Limiter l’impact de l’agriculture, de l’élevage et de leurs effluents
•    Limiter la déforestation pour stabiliser les sols et éviter ainsi le recouvrement des récifs par les sédiments
•    Interdire ou limiter les méthodes de pêche les plus destructrices
•    Prendre en compte en tout premier lieu le critère environnemental dans le développement de grandes infrastructures côtières, telles que digues, ports industriels, etc.
•    Impliquer et sensibiliser les populations locales pour qu’elles préservent leur propre environnement.

Source : cnrs

Stocker des données sur des atomes

À l’heure actuelle, les éléments qui stockent les bits sur les disques durs sont mille fois plus gros qu’un atome. Demain, on stockera peut être justement sur des atomes ! Des scientifiques de l’Université Radboud ont en effet découvert un nouveau mécanisme de stockage magnétique de l’information dans la plus petite unité de matière : un seul atome.

« Les ordinateurs ont atteint des limites fondamentales à propos de leurs performances et ils consomment beaucoup d’électricité, actuellement plus de 5 % de l’électricité mondiale. La science fondamentale montre que nous pouvons gagner beaucoup plus en efficacité énergétique. Mais nous nous concentrons sur un élément essentiel aujourd’hui : améliorer leur capacité de stockage. Nous utilisons les atomes, parce qu’ils sont la plus petite unité de matière et parce qu’ils nous permettent également de mieux comprendre la science fondamentale », explique un des membres de l’équipe, Brian Kiraly.

Cette annonce incite à être optimiste car différentes contraintes rendaient, jusqu’à présent,  impossible ce type d’opération. Depuis dix ans, les chercheurs n’arrivaient pas à répondre à différentes problématiques : comment permettre à l’atome de cesser de se retourner, combien d’atomes sont-ils nécessaires pour stabiliser l’aimant et combien de temps peut-il conserver l’information avant de se retourner à nouveau ?

Substrat spécial

Mais au cours des deux dernières années, des scientifiques de Lausanne et d’IBM Almaden ont trouvé comment empêcher l’atome de se retourner. Seul bémol, ce processus marche à des températures très basses, 40 Kelvin ou -233 degrés Celsius… Impossible de l’appliquer dans la vie de tous les jours. Néanmoins, ces travaux avaient permis de constater qu’un seul atome peut être un souvenir.

Une étape majeure a donc été franchie par l’équipe de Radboud. Afin de contourner les problèmes classiques d’instabilité, les scientifiques se sont appuyés sur un substrat spécial, le phosphore noir semi-conducteur. À l’aide d’un microscope à effet tunnel, ils ont pu « voir » des atomes de cobalt simples sur la surface du phosphore noir. En raison de la résolution extrêmement élevée et des propriétés spéciales du matériau, ils ont démontré que les atomes de cobalt pouvaient être manipulés dans l’un des deux états binaires.

Cette piste pourrait aussi permettre le stockage magnétique  à température ambiante. Il serait ainsi possible de stocker beaucoup plus d’informations qu’avec les disques durs actuels. Bien que les résultats soient prometteurs, les promesses de cette avancée restent pour l’instant hypothétiques. Il n’y a pas encore de matériel qui puisse tirer profit des résultats des chercheurs.

Philippe Richard

Choisir sa formation d’ingénieur, un pari sur l’avenir

Campus-Channel propose de l’aider à trouver sa voie ! En se rendant sur le site, il trouvera une boîte à outils unique pour s’informer de manière ludique et interactive sur les meilleures écoles et universités. 100% gratuite et libre d’accès, la plateforme met à disposition plus de 450 vidéos chaque année.

Quoi de mieux pour choisir son cursus que d’interroger directement les responsables des programmes et les étudiants qui le suivent ? Grâce aux Lives, le futur étudiant a la possibilité de poser ses propres questions, en direct.

 

Il a envie de découvrir les coulisses de sa future école ? Une équipe de reporters va sur le terrain pour montrer à quoi elle ressemble, comment se déroulent les cours, et à quelle ambiance il faut s’attendre. C’est l’Envers du Campus ! Et pour carrément vivre une journée en totale immersion, il choisira le format Welcome To : le journaliste se glisse dans la peau d’un étudiant pour tester l’accueil et l’intégration sur place.

 

Admissible à une école, 1000 questions se bousculent dans sa tête : “comment se déroulera ma journée d’oral ?”, “Serai-je logé une fois sur place ?” Un live spécial est prévu pour répondre à toutes ses inquiétudes avant le jour J.

 

Pour connaître l’ADN de l’école qui l’intéresse en un temps record, il optera pour le Flash ! 1’30 de questions / réponses en 1’30.

 

« A quoi ça mène ? » Une question cruciale que les futurs étudiants sont amenés à se poser au moment de choisir leur orientation. Avec son format “Les Ex’Pairs”, des Anciens partagent leur parcours professionnel et font le lien entre leur formation et leur carrière. Un bon moyen pour se faire une vraie idée sur les débouchés d’une école !

 

Dernière nouveauté : un format spécial parents le « Parental Advisory » pour qu’ils puissent interagir directement avec les directeurs d’écoles.

Des grues et du béton pour stocker de l’énergie

Produire de l’énergie en suffisance, on sait faire. Produire de l’énergie pas chère, on sait faire. La stocker de manière rentable économiquement, c’est pas encore ça. Pourtant des solutions technologiques font régulièrement surface. Comme celle qui consiste à utiliser la gravité pour récupérer l’énergie potentielle de la chute d’un fût de béton. Le principe énergétique est le même que celui d’un barrage hydroélectrique : quand l’électricité est en surplus, on s’en sert pour pomper de l’eau en haut d’un barrage. En cas de pénurie, l’eau s’écoule vers le bas en faisant tourner des turbines qui produisent de l’électricité. Dans le cas présent, quand il y a surplus, on monte des blocs de béton en haut d’une grue qui construit une tour. Lorsque la demande se fait sentir, les fûts sont lâchés au bout d’un câble et actionnent des moteurs. Avantage : pas besoin de grandes ressources en eaux ni de relief, et une installation beaucoup moins coûteuse. En outre, le béton étant bien plus dense que l’eau, il peut stocker de l’énergie cinétique de manière également bien plus dense.

Un démonstrateur déjà opérationnel

Energy Vault, créée par Bill Gross, un entrepreneur américain, et Andrea Pedretti, un ingénieur suisse, est basée en Suisse où un premier démonstrateur du concept a déjà été construit. Il mesure un dixième de la taille prévue pour une installation à pleine échelle. Actuellement, la grue de 20 m de haut est munie d’un bras pouvant prendre en charge des blocs de 500 kg. À terme, l’installation se composera d’un pilier de 120 m de haut muni de 6 bras de grues en étoile, qui actionneront des fûts de 35 t de béton pour les monter en tour, autour du pilier central, sous les bras.

Le tout sera automatisé, dirigé par des caméras embarquées et fonctionnera grâce à des algorithmes qui calculeront quels bras doivent prendre quel fût et où, faisant en sorte de compenser les mouvements d’oscillation provoqués par le vent. Quand la tour sera entièrement construite, l’énergie totale ainsi stockée variera entre 10 et 35 MWh.

L’efficacité du système est évaluée à 85 %, comparable donc à des batteries lithium-ion dont l’efficacité se situe autour de 90 %, et supérieure à celle de l’hydroélectrique qui est plus proche de 75-80 %.

Le béton, c’est trop cher

Très vite, Energy Vault a réalisé que dans cette idée, le béton, bien qu’étant un matériau peu coûteux, plombait le budget de l’installation. Aussi, l’idée a germé d’utiliser des déchets et, en l’occurrence, des déchets du BTP, tels que gravats et bétons issus de démolitions. Energy Vault a donc développé une machine qui permet de mélanger ces déchets avec une partie de ciment neuf pour fabriquer les blocs de béton utiles à sa tour d’énergie.

À présent que le concept est validé, la partie commerciale a débuté. L’entreprise espère construire ses premières unités commerciales dès 2019 grâce à des contrats en Inde et au Texas. En tablant sur le fait que plus les commandes seront importantes, plus le coût de construction et d’exploitation pourra diminuer, mais aussi que ces installations sont simples, durables, fiables, la start-up pense pouvoir occuper un segment du marché du stockage de l’énergie en surplus sur les réseaux.

Par Sophie Hoguin

Les lézards rêvent-ils comme nous ?

Pendant les heures de sommeil, l’organisme s’attelle à de multiples activités vitales : consolider les connaissances apprises pendant la journée, nettoyer le cerveau des déchets du métabolisme, produire des hormones, réguler la température, se réapprovisionner en énergie. Ce phénomène physiologique conservé au cours de l’évolution semble partagé par tout le règne animal. Mais on a longtemps pensé que seuls les mammifères terrestres et les oiseaux possédaient deux états de sommeil : le sommeil lent et le sommeil paradoxal. Celui-ci, associé aux rêves, est une phase complexe qui plonge le corps dans un état ambigu, entre sommeil et éveil.

Une étude publiée dans Science en 2016 s’est penchée sur le dragon barbu (Pogona vitticeps) en démontrant qu’il passait par deux états distincts de sommeil. Elle émettait ainsi l’hypothèse selon laquelle les phases de sommeil seraient apparues chez un ancêtre commun aux mammifères et aux reptiles, il y a 350 millions d’années.

Les chercheurs du CNRS et de l’Université Claude Bernard Lyon 1 ont, dans un premier temps, réitéré l’expérience faite sur le dragon barbu. Ils ont ensuite mené une nouvelle étude sur une autre espèce de lézard, le tégu argentin (Salvator merianae). Les résultats confirment que les deux lézards manifestent deux états de sommeil distincts, partageant des similitudes avec le sommeil lent et le sommeil paradoxal.

Cependant l’analyse de différents paramètres comportementaux, physiologiques et cérébraux va encore plus loin en mettant en exergue des différences non seulement entre le sommeil des lézards et celui des mammifères et oiseaux mais également entre les deux espèces de lézards. Alors que le sommeil paradoxal des humains présente des activités cérébrales et oculaires semblables à celles de l’éveil dans un corps ensommeillé, celui des lézards se distingue par une activité des yeux plus lente et, pour le tégu, une activité cérébrale bien différente de l’éveil.

Ces différences révélées par l’étude offrent une vision plus complexe de ce qu’est le sommeil paradoxal au sein du règne animal, ouvrant ainsi de nouvelles portes vers la compréhension de l’origine de notre propre sommeil, de nos rêves… et de ceux des lézards.

Source : cnrs

L’impact numérique des entreprises françaises dévoilé

En mars 2018, WWF France et le club GreenIT ont lancé une étude à grande échelle auprès de grandes entreprises françaises. Nommée We GreenIT, cette étude identifie les rapports existant entre utilisation du numérique et empreinte écologique dans les sociétés interrogées. Le point d’ancrage central pour les initiateurs de l’étude était de rappeler à quel point les outils numériques peuvent être des couteaux à plusieurs tranchants dans cette problématique.

Les grandes entreprises affichent leur bonne volonté

Sur 150 entreprises approchées, seules 24 ont accepté de répondre à We GreenIT. Par leur intermédiaire, divers secteurs d’activités sont quand même représentés. Ainsi, La Poste, Natixis, la Société Générale ou encore la SNCF ou Leroy Merlin ont accepté de voir leur routine numérique passée au crible. Et les leçons sont claires. L’impact environnemental numérique des entreprises est tout d’abord causé par la fabrication des équipements informatiques. Cette activité est en effet responsable de 29 % de la consommation énergétique, 54 % des émissions de gaz à effet de serre (GES), 61 % de l’utilisation d’eau et de 97 % d’épuisement des ressources liées à l’activité des entreprises.

WWF France affirme toutefois que même si « le digital pollue », il « constitue une formidable opportunité d’accélérer la transition écologique ». Dans ce sens, il semble nécessaire que les entreprises sachent utiliser les outils numériques à bon escient et en vue d’une consommation responsable. Sur ce point, il est clair que certaines pratiques, telles que la réduction du nombre d’impressions et l’augmentation significative de la durée de vie des équipements, avec une généralisation du réemploi, se sont démocratisées. Ce sont désormais 58 % de ces impressions qui sont systématiquement effectuées sur papier recyclé. Pour autant, d’autres efforts restent encore attendus, comme dans le domaine de la gestion des DEEE, de l’éco-conception ou de la gouvernance du numérique responsable. Cela se traduit dans le score de maturité des entreprises en termes de pratiques responsables sur la question du numérique qui atteint 59/100. Le rapport note un écart important entre l’entreprise la moins mature (40/100) et la plus mature (77/100).

Le numérique responsable, ou un impact réel sur la pollution

Ce rapport veut sensibiliser les entreprises au fait que, dans le cadre de la lutte globale contre la pollution, les comportements responsables en matière de numérique doivent se développer. Frédéric Bordage, fondateur de GreenIT.fr, rappelle que, « à l’échelle mondiale, les usagers numériques dans le monde représentent deux fois l’empreinte environnementale de la France ». Autrement dit, nous utilisons chaque année 1037 térawattheure (Twh) d’énergie primaire, 9 milliards de m3 d’eau, et émettons 608 millions de tonnes de GES. WWF France affirme également que l’usage d’Internet génère autant de GES que les transports aériens !

Par Matthieu Combe, journaliste scientifique

L’économie circulaire teste sa première norme

Depuis peu, l’économie circulaire est dans la bouche du gouvernement et des industriels. L’Afnor avait répondu à l’appel de plus de 50 organisations à la recherche d’une approche concertée. Presque deux ans après, ce travail a donné naissance à la norme Xp X30-901. Elle est désormais à la disposition de tous les acteurs socioéconomiques qui souhaiteraient engager des expérimentations à l’échelle d’une ville, d’une agglomération ou d’une administration et, bien entendu, d’une entreprise. La fin de la période d’essai est fixée au 30 septembre 2021.

Une norme pour parler de la même économie circulaire

Cette norme volontaire invite toute organisation à mettre en place un système de management de projet d’économie circulaire. Pour ce faire, elle croise les trois dimensions du développement durable (environnement, économie, sociétal) avec les sept domaines d’action de l’économie circulaire. Ces derniers couvrent l’approvisionnement durable, l’écoconception, la symbiose industrielle, l’économie de la fonctionnalité, la consommation responsable, l’allongement de la durée d’usage et la gestion efficace des matières ou produits en fin de vie.

À l’image des méthodes éprouvées pour le management de l’énergie et de l’environnement, la norme XP X30-901 définit les termes, principes et pratiques, et énonce des lignes directrices, recommandations et exigences relatives au système de management de projet d’économie circulaire. Les organismes les plus volontaristes pourront solliciter une certification de la part d’un organisme tierce-partie.

Une norme pour quels projets ?

La notion de « projet » est à entendre au sens large. La norme précise que « est identifiée comme projet toute ambition de changement portée par un organisme visant à faire évoluer partiellement ou totalement son activité vers un modèle plus efficace simultanément dans l’utilisation des ressources, limitant l’impact environnemental de ses activités et améliorant le bien être des individus ». Il concerne à la fois « les activités, produits ou services » de l’organisme.

L’organisation international de normalisation (ISO) vient de lancer ses propres travaux sur l’économie circulaire. Ils se dérouleront sous présidence française, avec comme base de travail, le texte français. L’Afnor lance donc un nouvel appel à participation pour rejoindre la commission de normalisation  « Economie circulaire ». Celle-ci regroupera toutes les parties prenantes intéressées désireuses de participer à l’élaboration de cette nouvelle norme internationale. L’Afnor y attend des associations, industriels, sociétés de services, collectivités locales, institutions dont le ministère de la Transition écologique et solidaire, l’Institut National de l’Economie Circulaire et l’ADEME.

Par Matthieu Combe, journaliste scientifique

32 % des substances chimiques enfreignent REACH

Le marché lié à l’industrie chimique en Europe est en proie à un scandale d’envergure. Après trois années de recherches menées conjointement par l’Institut fédéral allemand d’évaluation des risques (BfR) et l’Agence allemande pour l’environnement (UBA), il apparaît que 32 % des substances chimiques présentes sur le marché européen depuis 2010 ne sont pas conformes à la réglementation en vigueur. Leur rapport indique également que 31 % des substances analysées sont déclarées conformes, et que les 37 % restants n’ont pas pu être convenablement analysées faute de données suffisantes. Les recherches ont été menées sur les 1 814 substances chimiques commercialisées en Europe.

L’une des conséquences directes de cette affaire est de pointer du doigt la réglementation REACH mise en place depuis 2007. Le BfR discute l’efficacité de ce dispositif qui a pour objectif premier de préserver la santé humaine et l’environnement. Or, il y a eu, en tout état de cause, des dysfonctionnements. REACH prévoit normalement que les entreprises fassent répertorier les substances chimiques qu’elles commercialisent par l’Agence européenne des produits chimiques (ECHA). En principe, une telle mesure aurait dû suffire pour contrôler les substances utilisées. Il s’avère en réalité que l’ECHA n’est tenue de contrôler que 5 % des dossiers qu’elle reçoit. Voilà un élément qui permet donc de discuter l’efficacité des mesures prises dans le cadre de REACH.

Des substances potentiellement cancérogènes omniprésentes

Les résultats de l’étude ont confirmé la présence en grand nombre de substances reconnues comme étant potentiellement cancérogènes et mutagènes, telles que le bisphénol A ou les phtalates. C’est un réel problème de santé publique car ces substances se retrouvent partout, et notamment dans les emballages alimentaires. Pour le Bureau européen de l’environnement (BEE), qui a rendu l’étude publique, ceci est totalement dû aux industriels qui oublient de « signaler à l’Agence européenne des produits chimiques si leurs substances sont cancérigènes, neurotoxiques, mutagènes, bioaccumulables et/ou nocives pour le développement des enfants, ou pour la fertilité humaine ».

De son côté, l’industrie chimique ne semble pas étonnée. L’union des syndicats professionnels France Chimie juge ces révélations « non surprenantes », avant d’ajouter que cette situation est liée à l’évolution de la réglementation REACH. Ainsi, France Chimie semble vouloir limiter la responsabilité de l’industrie en rappelant que les critères de conformité de la réglementation européenne se sont durcis en dix ans. Cependant, la fédération concède que l’industrie chimique doit faire des efforts en termes d’enregistrement des substances employées. À l’heure actuelle, cela semble être la seule solution pour protéger la santé des citoyens européens.

Les anti-pesticides enragent au niveau politique

Au Parlement européen, la nouvelle venue du BEE fait grincer des dents. Michèle Rivasi, la députée européenne et coordinatrice de la Commission PEST, tire à boulets rouges sur une industrie qu’elle n’hésite pas à qualifier de brigande. « Défaillance généralisée des pouvoirs publics et manquements graves à leurs obligations face à une industrie de gangsters, voilà en substance les ingrédients de ce nouveau scandale qui s’apparente à un remake du Dieselgate pour l’industrie chimique », déclare-t-elle en faisant ainsi référence au scandale qui avait touché Volkswagen en 2015.

Pour Michèle Rivasi, il est évident que l’industrie chimique ne prend pas assez en compte les problématiques liées à la santé. Elle aimerait que les professionnels ne voient plus les réglementations comme des « charges administratives entravant la compétitivité ». La députée européenne souhaiterait que la santé des Européens et la préservation de l’environnement soient les préoccupations premières des industriels, et que l’innovation aille en ce sens.

Matthieu Combe, journaliste scientifique

La puissance de la data science, du cloud et de l’IA pour identifier des gisements d’économies d’énergie dans l’industrie

à Arnaud Legrand, Fondateur & CEO de Energiency

Vous avez été lauréat du challenge Industrie du Futur SKF Atos 2017, dans la catégorie « Industrie 4.0 ». Avec plus de 30 prix « innovation » à votre actif, vous êtes un heureux habitué de ce type de challenge. Dans ce cas particulier, vous avez travaillé pendant quelques mois avec un mentor, François Niarfeix, Manager of product development sensorized bearings de SKF France. Quel retour d’expérience pouvez-vous en faire ?

Le concept d’Usine 4.0 suggère une dimension de sobriété en ressources et en énergie. SKF tenait absolument à ce que son projet prenne en compte cette dimension, avec un volet Energie 4.0 vitrine de leur démarche. François Niarfeix nous a aidé à identifier la bonne équipe au sein du Groupe pour faire émerger un cas d’usage avec notre technologie d’analyse de la performance énergétique industrielle. Entre conseils et promotion de la démarche en interne, cette collaboration a été passionnante, et nous a permis d’être très efficaces et d’avoir de l’impact auprès des équipes métiers d’SKF, ce qui est incontournable pour réussir un tel projet.

La start-up Energiency a été créée en 2013, par des ingénieurs issus de l’industrie et des chercheurs en informatique (INRIA) spécialistes de l’Industrie du Futur. 5 ans après, quelle vision avez-vous de cette industrie 4.0 ?

Les industriels sont aujourd’hui de plus en plus équipés de compteurs d’énergie dits « intelligents ». Dans la pratique, ces compteurs sont surtout communicants, et produisent beaucoup de données inexploitées. 80% des industriels en Europe utilisent encore un tableur pour analyser ces données, et cet outil est clairement inadapté pour prendre les bonnes décisions en temps réel dans l’usine. Rendre l’industrie 4.0 intelligente et sobre en énergie passe donc par des outils puissants d’analyse, capables, grâce à la data science et l’intelligence artificielle de croiser les données brutes issues des compteurs avec des données contextuelles : production, maintenance, plannings, météo, etc. En 5 ans, les choses se sont fortement accélérées, avec un parc de capteurs toujours plus nombreux et des données maintenant disponibles en temps réel via des API. Nos outils sont maintenant capables de transformer en temps réel ces données brutes en nouveaux gisements d’économies d’énergie, en identifiant des marges de progrès permettant de générer jusqu’à 15% d’économies, et ce sans investissement, et donc un ROI très court (moins de 6 mois). L’algorithmie au coeur de notre technologie est par ailleurs capable de fournir ces résultats quel que soit la taille de l’entreprise et le secteur : agroalimentaire, automobile, chimie, papier, matériaux, etc.

Dès 2017, vous avez levé 2,7 M€ avec les fonds d’investissement ISAI, Go Capital et West Web Valley pour accélérer votre activité en Europe ; vous comptez aujourd’hui 24 collaborateurs (data scientists, développeurs, opérationnels, commerciaux). Quels sont vos nouveaux défis ?

Nous sommes très fiers d’avoir été lauréats du challenge Atos / SKF Usine du Futur, et d’avoir pu démarrer à cette occasion avec SKF. Notre projet avec SKF continue et se développe aujourd’hui avec un fort potentiel. Nous avons par ailleurs été lauréats la semaine dernière du Digital Industry Summit Atos / Siemens dans la catégorie Smart Energy. Ce genre de tremplins nous permet d’envisager une collaboration avec de grands intégrateurs comme Atos, et d’accélérer notre développement commercial à plus grande échelle, notamment à l’international.

 

Le monde s’éloigne d’un réchauffement à +2°C

En 2017,  le PIB mondial a augmenté de 3,8 %, poussé par la croissance rapide des économies émergentes comme la Chine et l’Inde. La demande énergétique a également augmenté de 2,1 %. Et les émissions de gaz à effet de serre ont crû de 1,1 %. « L’objectif fixé par l’Accord de Paris sur le climat, de limiter le réchauffement climatique à 2°C semble encore un peu plus hors d’atteinte », estiment les experts de PwC.

L’intensité carbone de l’économie mondiale ne baisse pas assez vite

L’intensité carbone de l’économie représente les émissions de CO2 liées à la consommation d’énergie  par million de dollars de PIB. Les contributions nationales actées par l’Accord de Paris demandent une décarbonisation mondiale de l’ordre de 3 % par an. Mais en 2017, l’intensité carbone de l’économie mondiale n’a diminué de 2,6 %. Ce taux est identique à celui de 2016.

Ces résultats nous mènent ainsi droit vers un réchauffement d’au moins 3°C. En effet, pour limiter le réchauffement climatique à 2°C, il faudrait décarboner l’économie mondiale de 6,4 % par an dès aujourd’hui, jusqu’en 2100. Cette année, aucun pays n’atteint ce taux. Le fossé entre le taux de décarbonisation actuel et celui nécessaire pour limiter le réchauffement climatique à 2°C se creuse. « Sans un redoublement des efforts en la matière, le budget carbone du scénario 2 °C sera épuisé en 2036 », prévient PwC. Une alerte en accord avec les prévisions récentes du GIEC.

Le G20, loin de respecter ses engagements

En 2016, deux pays du G20 étaient en accord avec l’objectif des 2°C: le Royaume-Uni et la Chine. Le taux de décarbonisation de leur économie est respectivement passé de 7,7 % et 6,5 % en 2016 à 4,7 % et 5,2 % en 2017. Le Mexique, l’Argentine et le Brésil ont pour leur part réduit leur intensité carbone de 5 %, 4,9 % et 4,5 %. Ces pays en haut du podium ont tous été en mesure de réduire leurs émissions tout en assurant la croissance de leurs économies. À l’opposé, les pires élèves du G20 sont la Turquie et l’Arabie Saoudite. Leur intensité carbone a respectivement augmenté de 3,6 % et 1,7 %.

Cette année, la France compte parmi les bons élèves. Après une hausse de son intensité carbone inférieure à 1 % en 2016, le pays connait un taux de décarbonisation d’1,2 % en 2017. Son intensité carbone atteint 115 tonnes de CO2 par million de dollars de PIB (tCO2 / M$PIB), la plus basse du G20. À titre de comparaison, celle de la chine atteint 402 tCO2/M$PIB, celle du Mexique 197 tCO2/M$PIB.

Quelles solutions pour réagir?

Les efforts pour diminuer le charbon dans certains pays sont contrebalancés par l’augmentation de la demande dans d’autres pays, comme l’Inde, l’Indonésie ou la Turquie. En 2017, la consommation charbon est repartie à la hausse de 1 %. Et si la production des énergies renouvelables a augmenté de 17% en 2017, avec une hausse de 35 % pour le photovoltaïque, elle ne représente toujours qu’une petite part du système énergétique mondial.

PwC estime cependant que les nouvelles technologies seraient à même d’entraîner des changements suffisants pour atteindre les taux de décarbonisation nécessaires. Ces technologies incluent les systèmes intelligents de chauffage et d’alimentation dans les bâtiments, les véhicules électriques autonomes, les biocarburants avancés et l’impression 3D. PwC estime que le déploiement à large échelle de véhicules électriques autonomes pourrait  combler un tiers de l’écart d’émissions nécessaire limiter le réchauffement à 2°C. Mais cela nécessiterait également un changement de paradigme dans les modèles de propriété des véhicules. D’autres technologies telles que la blockchain auraient le potentiel d’entraîner d’importantes réductions d’émissions.

Par Matthieu Combe, journaliste scientifique

Sup’Biotech et Ipsos lancent le premier observatoire des métiers des biotechnologies

Ce premier « Observatoire des métiers des biotechnologies », mis en place par Sup’Biotech et l’institut de sondage Ipsos, sera désormais reconduit tous les deux ans.

Les résultats, présentés fin septembre, révèlent notamment que le secteur est conforme aux tendances actuelles de la demande des entreprises envers les ingénieurs : le niveau académique et la capacité d’apprentissage sont ainsi des prérequis qui ne se suffisent plus, les dirigeants d’entreprises interrogés recherchant des jeunes diplômés capables d’adaptation, de travail en équipe et d’esprit d’initiative. Par ailleurs, les chefs d’entreprises, qu’ils soient du secteur de la santé, de l’industrie pharmaceutique, de la cosmétique, de l’agroalimentaire ou de l’environnement, s’accordent à exprimer leur satisfaction vis-à-vis des jeunes diplômés embauchés dans leurs entreprises, qui sont décrits comme capables de s’intégrer dans les équipes et de progresser au sein de leur entreprise. Pour Vanessa Proux, directrice générale de Sup’Biotech, cet Observatoire conforte le positionnement de l’école dans son approche des compétences transversales à apporter aux jeunes ingénieurs, compte tenu « de l’importance accrue accordée par les professionnels aux compétences, allant bien au-delà des indispensables connaissances ».

La R&D recrute particulièrement

L’optimisme règne dans le secteur des biotechnologies : 84 % des dirigeants sont confiants dans l’avenir et pensent que le secteur se porte bien ou très bien. Beaucoup envisagent de recruter dans l’année à venir. Ingénieurs, techniciens supérieurs, chercheurs ou assistants ingénieurs sont visés et parmi les dix premiers métiers mentionnés, un seul n’est pas rattaché à l’ingénierie : celui de chargé d’affaires réglementaires, placé à la 4ème position (29 % d’avis favorables), au coude-à-coude avec le poste d’ingénieur qualité et loin derrière les deux premiers cités, à savoir le métier d’ingénieur en bio-informatique (34 %) et celui d’ingénieur R&D (39 %). Pour plus d’un dirigeant sur deux (53%, et même 60% des entreprises de 200 salariés et plus), le domaine qui recrutera le plus d’ingénieurs dans les années à venir sera la R&D, devant la bio-production (36%). Parmi les évolutions technologiques qui devraient créer des emplois, les entreprises citent en premiers lieux la médecine personnalisée, les dispositifs médicaux, la bio-production (qui atteint 40 % dans l’agroalimentaire) et les produits biosourcés.

On peut noter que contrairement aux secteurs de l’informatique, des services numériques ou du bâtiment, les biotechnologies ne sont pas un secteur pour lesquelles les sociétés d’étude en ingénierie sont très présentes. Les postes sont donc plutôt directement intégrés au sein d’un laboratoire R&D d’une grande entreprise ou dans une PME dédiée à la recherche ou à la production de produits spécifiques.

Sophie Hoguin

Clean Oceans : 2 milliards d’euros contre la pollution plastique

La Banque européenne d’investissement (BEI), l’agence française de développement (AFD) et le groupe KfW mutualisent leurs savoir-faire pour lutter contre la pollution plastique. Avec ses 2 milliards d’euros, l’initiative Clean Oceans financera en priorité des projets améliorant la collecte et le recyclage des déchets, leur gestion dans les ports et des installations de traitement des eaux usées. Cette annonce a été faite en marge des assemblées annuelles du groupe FMI/Banque mondiale, qui se sont tenues à Bali en Indonésie du 12 au 13 octobre 2018.

Priorité aux zones les plus polluées

Selon une étude allemande de référence parue en 2017, entre 88 % et 95 % des déchets plastiques pénètrent dans l’océan via dix grands fleuves. Huit sont situés en Asie et deux en Afrique : le Nil et le Niger. Dans les pays émergents ou en développement de ces continents, la collecte et le traitement des déchets fait souvent défaut. Les eaux usées ne sont pas mieux traitées, puisque la majorité ne subit aucun traitement. D’après l’ONU-Environnement, c’est le cas pour 80 % des eaux usées mondiales.

Les institutions sont parties de ces informations pour décider de mettre l’accent en priorité sur les zones où la pollution est la plus importante. Elles concentreront ainsi leurs financements vers l’Asie, l’Afrique et le Moyen-Orient. Les financements seront accordés à des entreprises privées de toutes tailles, y compris les micro-entreprises, mais aussi à des projets de recherche ou d’innovation.

Se regrouper pour financer des projets concrets

« La BEI, la KfW et l’AFD ont un rôle essentiel à jouer : notre implication peut apporter une contribution fondamentale à la canalisation des fonds et à la mobilisation des investissements du secteur privé qui développeront des solutions innovantes pour nettoyer les océans pour les générations futures », estime Werner Hoyer, président de la BEI. « Les activités financées dans le cadre de cette initiative de 2 milliards d’euros sont menées en collaboration avec des acteurs sur le terrain : autorités locales, secteur privé, organisations de la société civile et gouvernements », complète Rémy Rioux, directeur général de l’AFD.

Plus de trois milliards de personnes dépendent de la biodiversité marine et côtière pour vivre. La valeur marchande des ressources et des industries marines et côtières est évaluée à 2 600 milliards d’euros par an, soit environ 5 % du PIB mondial. Entre 4 et 12 millions de tonnes de plastiques rejoignent chaque année les océans. Elles menacent l’équilibre et la croissance de ces activités.

Cette initiative est très bien accueillie par les acteurs luttant contre la pollution plastique. Toutefois, ne pensons pas que le combat est gagné grâce à cette annonce. Pour résoudre cette problématique, il faudra trouver de nombreux fonds supplémentaires. Rien qu’en France, le coût de la modernisation des centres de tri d’ici 2022 est estimée à près d’un milliard d’euros par l’Ademe. Cette modernisation vise notamment à mieux recycler les plastiques des ménages et éviter ainsi qu’ils se retrouvent dans l’environnement, en décharge ou en incinérateur.

Par Matthieu Combe, journaliste scientifique

Une nouvelle course à la Lune est lancée

A l’occasion du dernier International Astronautical Congress (IAC), qui s’est déroulé à Brême en Allemagne début octobre, Airbus Defence and Space et plusieurs partenaires internationaux ont annoncé le lancement de « The Moon Race », une course à la Lune qui vise à accélérer et soutenir l’exploration lunaire. Cette compétition internationale s’adresse aux PME, étudiants, start-up qui veulent développer des technologies pouvant servir à l’installation sur notre satellite.

Alors que le Google Lunar Xprize s’est finalement soldé par un échec, aucun candidat n’ayant réussi à faire décoller son rover en direction de notre satellite dans les temps, cette nouvelle course à la Lune se fait cette fois avec des partenaires expérimentés : Airbus Defence and Sacae, l’Agence spatiale européenne (ESA), Vinci Constructions, l’Agence spatiale mexicaine ainsi que Blue Origin. Et la prouesse n’est pas le centre de la compétition, puisqu’il s’agit de faire émerger des technologies qui seront réellement utiles et viables à l’exploration et l’exploitation durable de la Lune. En outre, les candidats sélectionnés à chaque étape pourront disposer des ressources des laboratoires et équipements des différents partenaires pour s’assurer de leur réussite. Quant aux vols finaux, ils sont garantis par l’ESA et Blue Origin.

Une compétition sur cinq ans

Initiée par des ingénieurs d’Airbus, cette idée a pris la forme d’une entité juridique à part, The Moon Race Team NPO Gmbh – une organisation sans but lucratif en charge de l’organisation de la compétition. Les partenaires qui la soutiennent sont déjà de taille et d’autres devraient rallier l’aventure d’ici la fin de l’année.

Les candidatures, qui seront ouvertes dès le début 2019, pourront se faire dans quatre catégories : Production, Energie, Ressources et Biologie. La compétition doit ensuite s’étaler sur cinq ans, entre 2019 et 2024. L’année prochaine sera consacrée à la formation des équipes et à leur sélection. Les heureux élus de cette première phase seront annoncés à l’occasion de l’IAC de 2019 à Washington DC du 21 au 25 octobre. A partir de là, la compétition démarrera réellement. Les candidats auront un an pour mettre au point leurs prototypes. Ceux qui pourront passer à la phase suivante auront accès aux infrastructures pour le tester en conditions lunaires. A l’étape suivante, les candidats sélectionnés auront les moyens de construire leur projet grandeur nature pour qu’il soit prêt à être envoyé sur la Lune. Enfin, en 2024 les finalistes verront leurs technologies lancées et testées in situ sur notre satellite naturel. Dans les mois qui viennent, The Moon Race précisera les montants et les conditions exactes des prix et récompenses financières attribuées à chaque étape et les détails pour pouvoir candidater.

Quatre catégories de recherches

Les équipes peuvent candidater dans plusieurs catégories, chacune présentant des défis différents qui correspondent à ceux qu’il faut réussir à passer pour s’installer durablement sur la Lune. En premier lieu, il faut pouvoir construire et fabriquer des objets avec des matériaux se trouvant sur place ; c’est l’objet de la première catégorie « Production ». Typiquement, les projets pourront ressembler à des briques en poussière de Lune. Ensuite, il faut avoir à disposition de l’énergie, notamment pour faire face à la nuit lunaire : lumière et chauffage sont ainsi essentiels pour survivre ; c’est ce à quoi doivent s’atteler les candidats de la seconde catégorie. Les troisième et quatrième catégories sont consacrées aux ressources, minérales et biologiques. Dans un cas, il s’agit de réussir à installer des bactéries, plantes ou êtres vivants sur place, et dans l’autre il faut trouver comment exploiter les ressources disponibles pour créer de l’oxygène et de l’eau en particulier.

Ce projet s’inscrit donc à la fois dans l’esprit du village lunaire voulu par l’ESA et dans un modèle moderne de course à la technologie qui s’inspire des Google XPrize ou encore des courses d’Hyperloop de Space X.

Sophie Hoguin

L’Usine Extraordinaire, une « usine grandeur nature » du 22 au 25 novembre 2018

Une exposition à visiter

Installée au Grand Palais, au cœur de Paris, l’Usine Extraordinaire propose de vivre l’expérience d’une « usine grandeur nature » (du 22 au 25 novembre 2018).

A travers des expériences immersives, des échanges avec des techniciens, ingénieurs et chefs d’ateliers ; petits et grands partent à la découverte de lignes de production recréées sur place, ou simulée grâce à la réalité virtuelle.

Un projet fédérateur

L’Usine Extraordinaire est un projet d’intérêt général, porté par la Fondation Usine Extraordinaire, abritée par FACE – Agir Contre l’Exclusion, qui a pour objet de retisser les liens entre l’usine et la société.

La Fondation a vocation à rassembler l’ensemble des parties prenantes : industriels du made in France engagés et responsables, partenaires sociaux, monde de l’éducation et de la formation professionnelle, monde de la recherche, décideurs institutionnels… pour démontrer que l’usine aujourd’hui est un lieu de production moderne, connecté, inspirant, un acteur engagé pour une société responsable et créatrice d’emplois.

Dans la continuité des actions de Techniques de l’Ingénieur pour accompagner la mutation de l’industrie

Depuis toujours, Techniques de l’Ingénieur s’investit dans le soutien à l’innovation, en étant par exemple partenaire du startup challenge Industrie du Futur SKF Atos.

Yves Valentin Directeur général des Editions TI explique cette démarche comme étant inhérente à la vocation première de Techniques de l’Ingénieur : recueillir et promouvoir les meilleures pratiques pour accompagner l’essor de l’industrie.
A ce titre, l’Usine Extraordinaire, lieu de promotion des métiers par la mise en valeur de dynamisme de l’industrie est une formidable vitrine de l’innovation.

« L’usine du futur doit renforcer la position de l’homme dans l’usine. »

4 questions à Laurent COUILLARD, Fondateur et CEO de InUse (anciennement Optimdata), startup qui permet aux industriels de faire parler leurs machines.

 

1/ Vous avez été finaliste du Start-up challenge SKF Atos 2017, dans la catégorie « Usine 4.0 ». S’en est suivi un travail avec un mentor. Quel retour d’expérience pouvez-vous en faire ?

Grâce à ce challenge, nous avons entamé des démarches pour réaliser des pilotes avec SKF. Pour différentes raisons, ce projet a pris un peu de retard. Par ailleurs, nous avons pu renforcer nos relations avec Atos, notamment sur des projets communs liés à l’énergie et au transport. Cet écosystème est pour nous très intéressant à construire.

Nous sommes toujours ravis de pouvoir participer à ce type de challenge, à la fois bénéfique pour les entreprises organisatrices et pour les start-ups. C’est un moyen de rendre visibles les innovations. Il faut motiver d’autres entreprises à entreprendre de tels challenges.

 

2/ Un an après, où en êtes-vous ?

Nous avons récemment repositionné le nom de la marque (désormais InUse), avec un objectif clair : se recentrer sur les usines en digitalisant les connaissances des experts pour faire parler les machines.

Quelques chiffres pour 2018 : nous comptons désormais 650 objets industriels connectés, et comptabilisons 37 000 variables toutes les 30 secondes en moyenne !

Ces objets sont présents chez des clients de secteurs variés : de l’agroalimentaire aux centrales hydro-électriques. Nous avons d’ailleurs débuté une collaboration avec Engie pour améliorer la productivité de leurs barrages hydro-électriques grâce à une maintenance plus efficace.

 

3/  Votre parcours montre que l’esprit d’innovation est moteur. Avec le recul, qu’est-ce qui, dans votre parcours personnel, a motivé cette créativité ?

Bien que j’ai eu l’idée de base, c’est surtout l’équipe InUse qui contribue à la créativité au quotidien. Nous venons tous du monde de la technologie ou des usines. Nos regards croisés et nos expériences différentes nous permettent donc de bien comprendre les besoins et comment y répondre. L’alignement des technologies ouvre des possibilités inatteignables jusqu’alors.

 

4/ Quelle vision avez-vous de cette Usine 4.0 ?

L’usine du futur doit renforcer la position de l’homme dans l’usine.

L’industrie est un secteur qui a perdu l’avantage qu’il avait il y a vingt ans. On était fier à l’époque de travailler avec des machines avec écran tactile, d’augmenter les cadences… Mais aujourd’hui les machines industrielles n’ont pas autant évolué que le monde qui nous entoure. L’industrie doit évoluer vers un autre type d’interaction, elle doit être mise à disposition de manière plus ludique, plus jeune. Cela permettra également de replacer la position de l’humain au centre de cette usine.

 

Sécuriser les sites industriels : le credo d’une start-up française

3 questions à Antoine Lecestre, directeur R&D de SKEYTECH, startup qui propose des drones totalement automatisés permettant de sécuriser les sites industriels.

 

1/ Vous avez été finaliste du Start-up challenge SKF Atos 2017, dans la catégorie «CYBERSÉCURITÉ & DATA SCIENCE ». Quel retour d’expérience pouvez-vous en faire ?

Le Start-up challenge a été très bénéfique car il a permis de confronter notre concept de drone de surveillance automatisé avec les besoins réels des grands groupes. Le produit SKEYETECH étant toujours en développement au moment du concours, nous avons pu le modifier suite à des retours sur des fonctionnalités attendues.

Le challenge a également renforcé notre visibilité et notre crédibilité grâce aux 2 prix remportés.

 

2/ Un an après, où en êtes-vous ?

Juste après le concours, nous avons rejoint le groupe Azur Drones, ce qui nous a offert la possibilité d’accélérer le développement de notre produit. Ainsi, nous avons depuis finalisé la R&D sur notre drone automatisé, ainsi que son industrialisation. Un an après, nous lançons officiellement la commercialisation de notre produit SKEYETECH. Fabriqué en France, dans nos locaux, nous sommes en mesure de l’installer dans de nombreux pays du monde.

Azur Drones est aujourd’hui le leader européen du drone de surveillance et nous avons bien l’intention de révolutionner le marché de la sécurité avec la solution SKEYETECH.

 

3/ Votre parcours montre que l’esprit d’innovation est moteur. Avec le recul, qu’est-ce qui, dans votre parcours personnel, a motivé cette créativité ?

J’ai toujours aimé innover. Dès le plus jeune âge, je démontais et détournais déjà toutes sortes d’objets. Je me suis très vite pris de curiosité pour l’électronique, la mécanique, le code… Puis j’ai découvert le drone au cours de mes études et j’ai eu envie de mettre ma créativité au service de ce secteur. En effet, il y a une dizaine d’années, le drone était encore de l’ordre du modélisme. Mon ambition est très tôt devenue de transformer les drones en robots industriels complètement autonomes.

« Nous souhaitons aider les industriels à se réinventer »

3 questions à Guillaume Le Vézouët, Co-fondateur de CYM, startup qui propose un service unique de maintenance prédictive.

 

1/ Vous avez été finaliste du Start-up challenge SKF Atos 2017, dans la catégorie «PROCÉDÉS & MATÉRIAUX DU FUTUR ». S’en est suivi un travail avec un mentor. Quel retour d’expérience pouvez-vous en faire ?

Ce challenge, qui s’est déroulé il y a bientôt un an, nous a permis de concrétiser nos relations avec ces deux acteurs clés de l’Industrie 4.0. Atos nous a mis à disposition son expertise technique et orienté vers des contacts concrets ; SKF nous a reçu de nombreuses fois dans ses usines pour que l’on partage nos retours d’expérimentations et que nous accompagnions les réflexions du groupe. Nous avons donc pu initier des rendez-vous commerciaux avec Atos & SKF, identifier les niveaux de maturité des équipes opérationnelles et identifier les problématiques.
Ces deux acteurs ont bien compris que la mutation numérique est en train de chambouler le paysage industriel. De par les complexités des technologies, la multiplication des plateformes, des contraintes, des méthodes d’approche, de la captation des données à la restitution métier, ce n’est pas toujours facile de garder le fil des innovations. L’envie est grande d’être plus efficace, d’améliorer la performance industrielle, mais il y a une appréhension des impacts sur les process existants. Notre premier rôle est donc de rassurer, de partager nos réalisations, et de faciliter l’accès à ces nouvelles technologies pour que les industriels se réinventent par étapes et puissent sortir de leur zone de confort. En somme, assurer la transition entre les idées et le concret.

 

2/ Un an après, où en êtes-vous ?

Notre société va sur sa quatrième année ; depuis un an nous avons encore agrandi l’équipe et finalisé le développement de nouveaux algorithmes. Laval Jacquin, notre CTO, PhD issu du monde de la recherche en mathématiques fondamentales et appliquées, est notamment l’auteur de deux nouveaux algorithmes de Maintenance Prédictive :
– “Early Anomaly Detection System”, permettant de détecter des dérives du système industriel et identifier les causes en vue d’assurer l’identification des dérives,
– “Early Failure Prediction System”, utilisant un historique de signaux critiques avérés afin de calculer les probabilités de réalisation de divers types de pannes, assurant une attention toute particulière sur les données déjà identifiées.
Nous avons également développé un modèle mathématique répondant à des problématiques de “Manufacturing Intelligence”, “Classification and Regression for Industrial Systems”, permettant de modéliser la quantité ou la qualité de fabrication d’un produit en temps réel dans le cadre d’un système industriel multivarié, afin de réduire le taux de rebut d’une ligne de production.
Nous fournissons des statistiques sur les premières causes qui reviennent le plus souvent, via les notifications automatiques avec des mises à jour communiquées par email et push API. Notre plateforme, la Maintenance Factory, abrite toujours nos applications en SaaS et permet à nos clients d’accéder aux résultats de calculs depuis leurs navigateurs web.
Concernant notre dynamique, au-delà de nos nouvelles références clients, nous avons été ambassadeurs de la French Fab, collectif regroupant l’ensemble des industriels désirant accéder aux innovations lors de la semaine de l’industrie, en mars 2018, et répondu aux nombreuses sollicitations médias à cette occasion.
Cette année écoulée a également renforcé nos convictions du besoin d’accompagnement des industriels. Les responsables opérationnels côté métiers ne demandent qu’à être accompagnés, à apprendre toujours plus. Il faut savoir inspirer et donner envie en partageant les connaissances et les réalisations, en démontrant et en répondant aux problématiques précises.

 

3/ Votre parcours montre que l’esprit d’innovation est moteur. Avec le recul, qu’est-ce qui, dans votre parcours personnel, a motivé cette créativité ?

Nous avons pris le parti dès la création de CYM d’écouter et de répondre aux problématiques des opérateurs, des métiers, du terrain chez nos clients industriels. Les technologies évoluent tellement rapidement qu’une solution déployée hier est déjà obsolète ; donc autant répondre à une problématique concrète, définir le retour sur investissement et mettre en œuvre une solution pérenne et utile. Il est primordial pour nous d’utiliser la technologie pour répondre à un problème concret et pas seulement pour faire de l’innovation. Il faut que cela aboutisse à un déploiement industriel qui donne de l’efficacité et qui ait du sens pour les opérationnels terrain.
Enfin, cette créativité est basée sur nos nombreuses visites d’usines et de sites de production, sur tous ces cas concrets étudiés depuis bientôt 4 ans. Il est important de souligner nos expériences et raisonnements par analogies afin de qualifier et faire la part des choses entre le réalisable et ce qui tient du fantasme concernant la maintenance et les algorithmes prédictifs. Nous sommes motivés par l’aide apportée aux opérateurs terrain, afin qu’ils puissent réaliser des actions de maintenance plus efficaces et plus utiles car optimisées grâce aux résultats de nos algorithmes.
Le défi d’aujourd’hui pour CYM et pour les industriels est de rendre opérationnelle cette mutation numérique, menant à une meilleure performance industrielle.

 

 

 

Internet des objets : un trafic croissant et des scénarios de plus en plus sophistiqués

Le M2M, « Machine to Machine », et « machine communiquant avec une autre machine » en français, encore appelé « Machine Type Communication » (MTC) dans 3GPP, peut être vu comme la première génération d’objets connectés (« Chose » permettant d’échanger des informations avec un autre objet connecté ou un autre élément d’un réseau de communication (M2M)). Par opposition au H2H, Human to Human, ou communication « personne à personne », qui en télécom est associé aux communications des mobiles et smartphones par exemple, le M2M est caractérisé par un nombre de scénarios différents relatifs à la santé, la sécurité, le transport, l’industrie etc. avec potentiellement un grand nombre de machines ou d’objets, des problématiques de coût et de consommation d’énergie peu élevés, et des échanges de données parfois sporadiques et de très faible volume.

Une progression spectaculaire des objets connectés

Certaines estimations évoquent 20 à 100 × 109 objets connectés en 2020 et plus de 5 × 106 nouveaux objets connectés au réseau par jour dans le monde. Avec le nombre croissant de machines connectées, 8 % des 7 milliards de connections cellulaires dans le monde aujourd’hui, et 26 % en 2020 (source : Cisco VNI 2016), ainsi que de nouveaux scénarios avec des objets de plus en plus petits et autonomes sur batterie, communiquant entre eux, la notion d’Internet des objets (IoT : ensemble d’objets physiques ou virtuels communiquant directement ou indirectement (IoT)) est apparue.

Un capteur ou une machine ne se comporte pas comme un téléphone mobile. Tout d’abord, il y a une multitude de capteurs, certains communiquent directement, d’autres via des boîtiers intermédiaires, des passerelles. Ils utilisent différents type de radio pour communiquer avec le réseau (wifi, LoRa, 2,5G, 3G, 4G, etc.), se connectent plus ou moins fréquemment, transmettent plus ou moins de données, utilisent plus ou moins de bande passante. Contrairement au téléphone mobile qui est associé à un abonné via une SIM card et répertorié avec un identifiant constructeur (EMEI), les objets connectés sont associés à un fournisseur de solutions qui vend un produit intégré, par exemple une voiture, inconnu de l’opérateur, qui se connectera un jour, à un endroit de la planète, de manière non prédictible. Initialement, la plupart des opérateurs utilisaient leur réseau traditionnel pour le marché des objets connectés, mais le risque de compromettre la qualité de service ou l’intégrité du réseau est aujourd’hui trop grande. De plus, la flexibilité requise pour anticiper ou réagir par rapport à des pics de trafic ou de nouveaux types de trafic nécessite de nouveaux équipements et nouvelles solutions de gestion de réseau plus dynamiques. Pour cette raison, les opérateurs déploient progressivement des infrastructures dédiées à l’IoT et de nouvelles technologies sont introduites, les standards évoluent, les métiers changent, de nouveaux modèles de business sont envisagés. Au-delà des problèmes technologiques, il faut pallier le problème de coût, de rentabilité et s’adapter à un monde qui change de plus en plus vite : après la 4G, le M2M, maintenant l’IoT, demain la 5G avec de nouveaux usages et un nouveau réseau en préparation.

M2M et IoT : exemples de scénarios de communication

Il existe de nombreux scénarios M2M ou IoT, notamment dans l’agriculture, la ville intelligente, l’automobile et le transport, le commerce, etc. Pour illustrer la problématique de communication, nous prendrons deux exemples caractéristiques : les véhicules connectés et la communication objet à objet.

De manière générale, quatre types de scénarios de communication sont envisagés autour des véhicules :

  • communication Véhicule à Véhicule (V2V) qui permet à deux véhicules de communiquer indépendamment de l’infrastructure réseau, par exemple pour éviter une collision ;
  • communication Véhicule à Piéton (V2P) qui permet à un véhicule de communiquer avec un piéton, par exemple pour échanger des informations du véhicule au téléphone du piéton pour utiliser ce dernier comme un relais ou une passerelle vers un réseau cellulaire ou wifi ;
  • communication de Véhicule à Infrastructure (V2I) qui permet à un véhicule de communiquer avec l’infrastructure, typiquement un module sur le bord de la route (RSU : road side unit) pour communiquer par exemple ces identifiants de paiement à une station de péage ;
  • communication de Véhicule au réseau (V2N : Vehicule to Network) qui permet à un véhicule de communiquer avec le réseau, c’est-à-dire une application ou un serveur dans le réseau, pour transférer par exemple des données de capteur vers une passerelle LoRa et un serveur d’application, ou charger une vidéo stockée sur un serveur depuis une station de réseau cellulaire ou un point d’accès wifi.

La communication objet à objet, appelé Device to Device (D2D) permet à deux objets de communiquer entre eux indépendamment de l’infrastructure réseau. Ces divers scénarios peuvent permettre à des drones de communiquer entre eux, ou à des robots, des machines industrielles, différents compteurs, etc. Un objet peut également communiquer avec un téléphone mobile par exemple.

Standardisation : Google, Facebook, Amazon, les grands absents

Le nombre d’objets à connecter est donc grandissant. De nombreuses technologies sont à l’étude ou expérimentées pour absorber un trafic croissant et des cas d’usage de plus en plus sophistiqués. Les institutions telles que 3GPP, ETSI et autres organismes de standardisation sont actifs pour définir un réseau de 5e génération. Ces organismes regroupent les acteurs principaux du monde des télécommunications tels qu’opérateurs et vendeurs.

Toutefois, les grands absents de ces travaux sont les Google, Facebook, Amazon et autres internet providers. Par ailleurs, il existe peu d’initiative, voire aucune, sur un réseau réellement convergeant fixe-mobile de nouvelle génération pour gérer des milliards d’objets évoluant de manière transparente entre le réseau fixe et mobile. D’autre part, les verticaux, automobile, santé, industriel, villes intelligentes, sont peu associés à ces travaux, soit par manque d’expertise communication pour participer, soit pour des raisons structurelles qui font que les industries continuent à travailler en silo et communiquent peu entre elles.

En parallèle, des solutions propriétaires sont développées pour répondre aux besoins du marché à court et moyen terme. Les exemples de Sigfox et LoRa développés en France sont une illustration de la dynamique des startups pour stimuler l’innovation dans ce domaine.

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 8 novembre !

 Objets connectés : enjeu de la 5G- Évolution des réseaux M2M et IoT, un article de Marie-Paule ODINI