Le futur des amortisseurs passera par les métamatériaux

Dans un article paru dans les Scientific Reports de Nature, des chercheurs de l’université de Californie (Irvine – USA), de l’université John Hopkins (Baltimore – USA)  et de l’université du Surrey (Guildford – Royaume-Uni) présentent un métamatériau métallique qui allie la rigidité des métaux ou des céramiques aux capacités d’amortissement du caoutchouc. Cette dernière propriété provient de la structure 3D du tissage. Cette classe de métamatériau d’amortissement peut potentiellement être utilisée dans de très nombreuses applications qui nécessitent une atténuation des vibrations haute fréquence et qui sont sensibles au poids, à commencer par tous les moyens de transports.

Comment ça marche ?

Dans ce matériau, le métal est tissé de manière orthogonale avec des fils de chaîne et des fils de trame, auxquels viennent se rajouter des fils en Z qui entourent les derniers fils de trame supérieurs et inférieurs, puis qui courent dans l’épaisseur pour relier l’ensemble. Des joints de brasage sont ensuite ajoutés, mais seulement à certains endroits choisis du treillis, laissant ainsi « flottants » les autres contacts entre fils métalliques. Cette liberté de mouvement confère à la structure une capacité d’amortissement comparable à celles des polymères en termes de coefficient d’amortissement, mais ces matériaux – contrairement aux polymères – restent poreux et peuvent supporter une température maximale d’utilisation beaucoup plus élevée.

Schémas issus de l’article de Nature qui est en accès libre. (Crédit Nature)
(a) Le matériau 3D tissé est composé d’un fil de chaîne (rouge), d’un fil de trame (bleu) et de fils en Z (vert) (b) les points jaunes indiquent les joints de brasage (c) Coupe transversale du réseau tissé laissant apparaître le squelette rigide représentée par la partie brasée en haut et en bas et des éléments flottants au sein de la structure. (d) image en MEB (microscopie électronique à balayage) d’une face brasée confirmant les liens métallurgiques qui se sont créés dans la structure en treillis.

L’essor des métamatériaux phoniques et mécaniques

Cette recherche illustre de nouveau le dynamisme autour des métamatériaux, dont l’étude a commencé avec des métamatériaux électromagnétiques pour la photonique et qui se développent maintenant dans les domaines de la transmission des sons et des vibrations (lutte antisismique par exemple), ainsi que de répartition et maîtrise des forces mécaniques, à l’image de ces travaux sur un métamatériau transformant une force de pression rectiligne en torsion , ou ceux sur le stockage de l’énergie dans des matériaux auxétiques.

Sophie Hoguin

Forte diminution des investissements pour protéger l’environnement

Chute de 17 % des investissements et augmentation de 5 % des dépenses d’études

L’INSEE (Institut national de la statistique et des études économiques) révèle que la somme dépensée dans le cadre des investissements et des études pour la protection de l’environnement, par les entreprises employant 20 salariés ou plus, a baissé de 13 % en 2016 par rapport à 2015, atteignant un montant de 1,4 milliard d’euros. Les investissements et les dépenses sont par ailleurs plus nombreux dans les entreprises qui comptent 500 salariés ou plus, puisque 86 % d’entre elles se sont engagées dans des contributions antipollution, contre 25 % des entreprises de 20 à 49 salariés.

Les investissements des établissements industriels employant 20 salariés ou plus constituent l’essentiel de la dépense (80 %) à hauteur de 1,1 milliard d’euros, soit un recul de 17 % par rapport à 2015. Ce chiffre illustre une nette accélération de la baisse puisque le recul n’était que de 2 % en 2015 et de 3 % en 2014 d’après l’INSEE. En revanche, les dépenses pour les études liées aux enjeux environnementaux sont en hausse de 5 % en 2016 par rapport à 2015, avec un montant qui s’établit à près de 300 millions d’euros.

40 % des investissements pour protéger l’air ou le climat

Les sommes destinées aux investissements et aux études sont plus élevées dans les secteurs susceptibles d’avoir les activités les plus polluantes. Ainsi, quatre secteurs français se distinguent et concentrent 69 % des dépenses et des investissements pour protéger l’environnement : l’énergie, qui arrive en tête avec 397 millions d’euros (et qui finance à lui seul 50% des dépenses d’études), la chimie, qui a dépensé 219 millions d’euros, l’agroalimentaire avec un montant de 206 millions d’euros et enfin, la métallurgie qui a investi 133 millions d’euros.

Dans le détail des types d’investissements par domaine, l’INSEE précise qu’en 2016, 40 % des investissements antipollution ont visé la préservation de la qualité de l’air, premier poste de dépenses avec 447 millions d’euros investis en 2016 (288 millions d’euros pour éviter ou limiter les effets de l’activité sur la qualité de l’air et 159 millions d’euros pour réduire les émissions de gaz à effet de serre). Ces investissements sont réalisés dans le cadre de la loi de transition énergétique de 2015 qui vise une diminution de 40 % des émissions de gaz à effet de serre de la France d’ici à 2030 par rapport à 1990.

Les autres dépenses importantes concernent le traitement des eaux usées (197 millions d’euros), des déchets (145 millions d’euros), la protection et la dépollution des sols (123 millions d’euros). L’INSEE précise que 46 % des dépenses étaient destinées au prétraitement, au traitement ou à l’élimination de la pollution, tandis que 40 % étaient dédiées à la prévention des pollutions.

Par ailleurs, en 2016, les entreprises ont consacré 2,9 milliards de dépenses courantes en faveur de l’environnement, soit une baisse de 12 % par rapport à 2013. Au sein de ces dépenses courantes, près de 50 % correspondent au paiement de redevances, de cotisations et de taxes., et 61 % de ces paiements étant dédiés à la récupération et au traitement des déchets.

Aliye Karasu

High-Tech : les fatalités et craintes du Gartner

Automatisation d’objets de plus en plus interconnectés, amélioration du développement des logiciels grâce à l’intelligence artificielle, expérience immersive avec la réalité virtuelle, augmentée et mixte, analyse des données grâce au machine learning…

Voici quelques-unes des tendances majeures repérées par Gartner et présentées à son Symposium Itxpo d’Orlando. Mais d’autres pourraient avoir un impact plus profond et durable.

Cyber-intimidation : multiplication des procès

Le harcèlement et la discrimination sur le lieu de travail font régulièrement la une des médias ces deux dernières années. Gartner prévoit que d’ici 2019, les poursuites fédérales aux États-Unis liées au harcèlement au travail augmenteront de 44 % par rapport à 2017. Un plus grand nombre d’organisations feront donc signer à leurs employés un contrat afin de s’assurer qu’ils ne se livrent pas à la cyber-intimidation et de prévenir les actions qui auraient un impact négatif sur leur réputation.

D’ici 2023, un quart des entreprises high-tech appliqueront de telles procédures. Mais selon le cabinet, 70 % de ces initiatives échoueront, car beaucoup d’entre elles ne s’accompagneront pas d’un changement de culture.

Vie privée et réseaux sociaux : explosion des fuites

Comme Forrester, Gartner affirme que jusqu’en 2021, les scandales concernant les réseaux sociaux et les fuites de données (et de façon générale, les attaques informatiques) auront très peu d’effets négatifs sur l’engagement des consommateurs et des internautes.

Gartner cite le cas de Facebook et de ses récents scandales dont le principal concerne Cambridge Analytica. En mars dernier, des enquêtes du Guardian et du New York Times avaient révélé que le réseau social avait laissé les données de 87 millions de ses utilisateurs se faire indirectement aspirer par SCL, maison-mère de Cambridge Analytica, une entreprise britannique spécialisée dans l’influence politique et proche de Donald Trump.

Principale conséquence, le 25 octobre, le gendarme britannique des données personnelles a condamné le réseau social à une amende de 565 000 d’euros, pour « infractions sérieuses à la loi sur la protection des données ». Mais selon le cabinet d’analystes, cette affaire et les autres scandales qui touchent Facebook ont peu d’impact sur ses résultats financiers. « L’une des principales raisons est le manque de choix et de concurrence », explique un expert du Gartner.

 Blockchain et insécurité

« Les entreprises qui mettent en œuvre de tels systèmes sans maîtriser, dès la conception, les problématiques liées à la confidentialité des données courent le risque de stocker des données personnelles qui ne peuvent être supprimées sans compromettre l’intégrité de la chaîne », explique Gartner. Ces mêmes entreprises courent aussi le risque d’être sanctionnées pour non-respect du RGPD. Le Règlement général sur la protection des données précise en effet que toute entreprise doit mettre en place des procédures de sécurité dès l’ébauche d’un projet. C’est le principe dit « privacy by design ».

Philippe Richard

Un matériau propose une conductivité thermique réversible intégrable aux textiles

En s’inspirant des anneaux du calmar, des chercheurs en mécanique et en ingénierie des matériaux de l’université de Virginie, en collaboration avec des équipes de Penn State (université de Pennsylvanie), de l’université du Maryland et du National Institute of Standards and Technology, ont mis au point un biopolymère capable de réguler de manière dynamique ses propriétés thermiques : il peut en effet basculer de l’isolation au refroidissement en fonction de la quantité d’eau présente.

Leurs travaux, publiés dans Nature Nanotechnology innovent dans le sens où le facteur entre la conductivité thermique en position « ON » et en position « OFF » est de l’ordre de 4, ce qui représente un ratio au moins trois fois supérieur à ce que l’on sait faire aujourd’hui. Les applications les plus évidentes concernent l’industrie textile. On pourrait ainsi facilement imaginer des vêtements qui laissent sortir la chaleur quand le porteur transpire et qui la bloquent quand l’humidité redescend – donc après l’effort.

Une conductivité programmable

Le biopolymère de base provient des dents ou crochets tranchants qui ornent les anneaux des ventouses de certaines espèces de calmars. Les biopolymères de ces calmars présentent une structure qui se répète en tandem. Des recherches précédentes avaient montré qu’en faisant varier des paramètres de la structure de ce matériau via des séquences d’ADN synthétisées spécialement, on pouvait changer les caractéristiques mécaniques de ces biopolymères. Cette fois, les scientifiques ont orienté leurs recherches sur leur conductivité thermique. Ils ont découvert que cette conductivité variait en fonction de l’hydratation et que celle-ci pouvait servir d’interrupteur On/Off. Ainsi, la conductivité pouvait être prédite et programmée via les changements de structure du biopolymère.

Outre les applications textiles, d’autres applications sont envisageables comme « un recyclage plus efficace de la chaleur perdue pour produire de l’électricité », précise les chercheurs dans leur communiqué de l’université de Virginie, évoquant aussi de nouvelles voies pour la production d’énergie éolienne et hydroélectrique. En outre, soulignent-ils, ces biopolymères peuvent être soit extraits des calmars, soit synthétisés à partir de ressources biologiques renouvelables. Les découvertes relatives aux propriétés des protéines des calmars ont été réalisées grâce à l’imagerie neutronique (faisceau de neutrons). L’un des chercheurs, Madhusudan Tyagi, pense que « ces travaux vont changer la manière dont on étudie les propriétés thermiques de la matière molle comme les protéines et les polymères » et que l’imagerie neutronique permettra des avancées dans ce domaine.

Sophie Hoguin

Logiciels : les éditeurs français, des champions de la croissance

L’écosystème français des éditeurs de logiciels est dynamique. Il affiche une nouvelle fois une croissance à deux chiffres, avec 12 % enregistrés sur 2017. Mieux, les entreprises de moins de 5 millions d’euros de chiffres d’affaires enregistrent près de 50 % de croissance sur deux ans.

C’est le premier constat du dernier baromètre Top 250 de Syntec Numérique et EY. Réalisé auprès de 341 éditeurs français de logiciels, il dresse un panorama précis de cet écosystème qui a généré un chiffre d’affaires cumulé de 15 milliards d’euros. Cette croissance est tirée notamment par les éditeurs sectoriels (193 éditeurs parmi lesquels deux poids lourds, Dassault Systèmes et Criteo) et par les éditeurs « particuliers et jeux vidéo » (+28 % de croissance entre 2015 et 2017).

« Nous assistons à l’émergence progressive d’acteurs capables de franchir les paliers de 10 et 50 millions d’euros de chiffre d’affaires, en s’appuyant notamment sur des financements externes significatifs, des investissements R&D massifs et une stratégie marquée de développement à l’international », constate Jean-Christophe Pernet, Associé EY.

Résultat, entre 2015 et 2017, les effectifs totaux ont augmenté de 16 % sur l’ensemble du panel, soit près de 25 000 emplois créés en deux ans, dont près de 10 000 emplois chez les pure players.

Le SaaS et la transformation numérique

Cette consolidation du secteur s’explique aussi par le fait que la moitié (57 %) des éditeurs de logiciels français âgés de moins de huit ans dégagent un bénéfice d’exploitation en 2017. Cela démontre leur capacité à créer des modèles économiques viables, ce qui rassure certainement le secteur de la banque/assurance qui occupe la première place (l’industrie et le secteur public, respectivement sur la seconde et troisième marche de ce podium) des secteurs d’activité des clients des éditeurs de logiciels.

Autre fait marquant, la croissance du SaaS (Software as a Service). Ainsi la part du chiffre d’affaires de ce panel réalisée en SaaS atteint 31 % en 2017 contre 26 % en 2015. En entamant leur transformation numérique, de nombreuses entreprises migrent en effet une partie de leur Système d’information (SI) dans le Cloud en souscrivant à des abonnements plutôt que d’acheter des licences perpétuelles. Principale motivation : plus de flexibilité dans la gestion du parc informatique afin de répondre précisément à l’évolution de leur activité.

Dernier constat majeur : l’internationalisation. La part du chiffre d’affaires réalisée à l’international progresse de manière relativement linéaire selon la taille des sociétés : de 15 % chez les plus petits éditeurs (moins de 5 millions d’euros) à 59 % chez les plus gros acteurs (plus de 100 millions d’euros de chiffre d’affaires).

Mais attention à ne pas tomber dans trop de triomphalisme sur la conquête du monde. L’Hexagone reste pour bon nombre d’éditeurs de logiciels le principal moteur de la croissance.

Philippe Richard

Un engagement mondial contre la pollution plastique

L’Engagement Mondial de la Nouvelle Economie des Plastique entend mettre en mouvement des acteurs de tous horizons pour éliminer la pollution plastique à sa source. Il est d’ores et déjà signé par 290 organismes, dont les plus grandes entreprises du marché de l’emballage, des producteurs de plastiques, des industries de collecte et recyclage, des entreprises de biens de consommation et des investisseurs, des villes et gouvernements.

Qui signe cet engagement ?

Les 72 entreprises signataires représentent à elles seules 20 % du marché mondial des emballages plastiques. On retrouve des noms bien connus, parmi marques utilisant le plus de plastiques : Coca-Cola, Colgate-Palmolive, Danone, Johnson & Johnson, Mars, Nestlé, PepsiCo, et Unilever.

Les gouvernements de France, du Chili, de l’Écosse et du Royaume-Uni et les ministères de l’environnement de la Nouvelle-Zélande, du Pérou, du Portugal et de la République des Seychelles rejoignent cet engagement. Plus de dix institutions financières y souscrivent également et plus de 200 millions de dollars ont été alloués par cinq fonds de capital-risque pour créer une économie circulaire du plastique.

À quoi s’engagent les signataires ?

Dans le cadre de cette nouvelle alliance mondiale, les engagements des organismes signataires reposent sur trois objectifs : éliminer, innover et circuler. Ils s’engagent ainsi à éliminer tous les emballages plastiques problématiques ou inutiles grâce à de nouveaux modèles de distribution et l’éco-conception. Les marques devront innover pour que tous les emballages plastiques commercialisés soient réutilisés, recyclés ou compostés, facilement et sans danger, d’ici 2025. Elles s’engagent à augmenter de manière significative la part de plastiques réutilisés et recyclés dans de nouveaux emballages ou produits.

Les organismes signataires s’engagent par ailleurs à découpler la production des plastiques de la consommation de ressources finies. Enfin, il s’agit que tous les emballages plastiques soient exempts de produits chimiques dangereux. Les objectifs seront réévalués tous les 18 mois et les entreprises s’engagent à publier les résultats obtenus autour de ces différents points chaque année.

Ces engagements sont-ils sincères ou relèvent-ils du greenwashing ? Dans un rapport récent, Greenpeace Canada révèle que les grandes entreprises, comme Coca-Cola, Colgate-Palmolive, Danone, Johnson & Johnson, Mars, Nestlé, PepsiCo et Unilever, n’ont aucun objectif chiffré de réduction ou d’élimination progressive du plastique jetable. Ils n’ont pas plus de stratégie visant à créer de nouveaux modèles de distribution ou de livraison. Ces entreprises se focalisent sur des objectifs de recyclage ou d’incorporation de matières recyclées dans leurs produits à moyen-terme, d’ici 2025. De quoi douter de la sincérité de leurs nouveaux engagements.

Par Matthieu Combe, journaliste scientifique

Le Bitcoin : un coût énergétique excessif ?

Des chercheurs de l’Oak Ridge Institute de Cincinnati (Ohio) ont comparé le coût énergétique pour fabriquer un dollar des quatre principales cryptomonnaies à celui nécessaire pour extraire un dollar de différents métaux précieux.

Publiée dans la revue Nature Sustainability, leur étude estime que le minage du Bitcoin, de l’Ethereum, du Litecoin et du Monero nécessite en moyenne et respectivement 17, 7, 7 et 14 MJ (mégajoules) pour produire un dollar. Leur étude relève aussi que le coût de l’extraction conventionnelle de l’aluminium pour générer la même somme est encore plus important : 122 MJ.

Ce n’est pas la première étude à pointer du doigt les coûts du Bitcoin et autres monnaies virtuelles. En novembre 2017, une estimation avançait que la consommation d’électricité du réseau Bitcoin était équivalente à celle de l’Irlande. Une autre étude affirmait qu’il produisait par an autant d’émissions de carbone qu’un million de vols transatlantiques.

C’est le minage qui serait la cause de cette consommation démentielle. Les bitcoins sont en effet générés par un algorithme et des « mineurs ». Il s’agit de particuliers ou d’entreprises qui prêtent de la puissance de calcul de leurs ordinateurs pour valider les transactions.

Pour ce service, ils touchent des bitcoins en récompense. À moins de disposer de nombreux ordinateurs, les internautes ne peuvent espérer gagner un kopeck ! Ainsi, ce service n’est plus rentable pour eux, car ils doivent faire face à des coopératives ou des entreprises qui s’appuient sur d’importantes capacités de calcul (Cloud mining).

 Le Bitcoin, responsable du réchauffement ?

Les récompenses peuvent être virtuelles, mais le coût de l’énergie est très réel. Cependant, quelle est la consommation énergétique du Bitcoin ? Il est difficile de procéder à des évaluations précises car il n’existe pas de traçabilité du registre des mineurs donc pas de dénombrement précis, de la typologie de leur équipement, de leur emplacement géographique…

Malgré ces inconnues, les scientifiques de l’Oak Ridge Institute ont cherché un angle original en examinant le « minage » d’un point de vue du coût de l’énergie par dollar.

Pour tenir compte des fluctuations des cours des cryptomonnaies, et donc de l’effort consacré par les mineurs, les chercheurs ont utilisé une médiane de toutes les valeurs entre le 1er janvier 2016 et le 30 juin dernier. Ils ont également tenu compte de leur dispersion géographique, ce qui peut être surprenant puisqu’il n’y a pas un « cadastre » précis et exhaustif des mineurs…

Les chercheurs ont notamment constaté que les émissions de carbone provenant du minage vont de 3 à 15 millions de tonnes de dioxyde de carbone dans le monde. « N’importe quelle cryptomonnaie extraite en Chine générerait quatre fois plus de CO2 qu’au Canada », indiquent-ils.

Les émissions de carbone sont également pointées du doigt par des chercheurs de l’université d’Hawaï à Mānoa qui ont publié un article  dans Nature Climate Change. Selon eux, l’émission et les échanges de Bitcoins pourraient produire suffisamment de CO2 pour faire passer le réchauffement au-dessus de la barre des 2 °C.

Ces comparaisons sont-elles pertinentes ? Plusieurs experts connaissant bien la problématique des cryptomonnaies optent plutôt pour une comparaison avec des systèmes traditionnels couvrant le même service, par exemple entre le coût du Bitcoin et celui des transactions bancaires Visa. Plusieurs études comparatives ont été réalisées.

Pour le Bitcoin, la consommation énergétique par transaction s’échelonne entre 100 kWh et 634 kWh par transaction. La consommation énergétique serait autour de 169 kWh pour 100 000 transactions VISA. Mais ce calcul n’intègre pas l’ensemble des coûts énergétiques du système Visa (automates, serveurs…).

De son côté, Katrina Kelly-Pitou, chercheuse en Ingénierie électrique et informatique à l’Université de Pittsburgh, rappelle que « les banques consomment environ 100 térawatts d’électricité par an ».

Philippe Richard

Impression 3D plastique : l’aérospatial et le médical s’emparent des polycétones

Les plastiques sont sans conteste les matériaux les plus matures et les plus couramment utilisés en impression 3D. Leur utilisation a largement dépassé l’unique objectif du prototypage et les fabrications en série se focalisent maintenant sur des produits à haute valeur ajoutée, grâce aux développements de matériaux à hautes performances, aux premiers rangs desquels on retrouve la famille des polyaryléthercétones (PAEK). Ces thermoplastiques, développés depuis les années 1980, sont en train de voir leurs applications se multiplier dans des secteurs de pointe comme l’aéronautique, le spatial et le médical grâce à l’arrivée de l’impression 3D. Il faut dire que passé leurs spécificités de mise en œuvre et leur prix, ils présentent des propriétés vraiment attractives pour ces secteurs.

Des propriétés de l’extrême

Les deux PAEK les plus en vogue sont les PEEK et les PEKK, respectivement polyétheréther cétone et polyéther cétone cétone. Ils présentent tous deux des propriétés exceptionnelles : résistance aux températures élevées (260°C), forte résistance à la traction et aux déformations, résistance à l’abrasion et à la plupart des attaques chimiques, isolant et dissipant des charges électrostatiques, autoextinguible, biocompatible et stérilisable.

Certains fabricants en proposent même des versions améliorées avec par exemple l’intégration de fibres de carbone permettant d’augmenter encore les propriétés mécaniques. Ces composés ne sont pas amorphes comme la plupart des thermoplastiques, ils sont semi-cristallins ; une partie de leur masse cristallise en effet lors de la fabrication et c’est ce qui leur confère leurs propriétés si particulières.

Dans le domaine médical, leur structure est très proche des os humains ; les implants ostéoarticulaires montrent pour le moment des guérisons plus rapides et des complications diminuées.
Leurs propriétés mécaniques sont encore meilleures que l’Ultem™ (famille des polyétherimides), la référence la plus répandue parmi les plastiques à haute performance. Cependant, ce dernier présente pour le moment l’avantage d’un prix bien moindre.

Une mise en œuvre particulière

Ces thermoplastiques ont la particularité de nécessiter une impression à haute température, ce qui les rend plus difficiles à mettre en œuvre que les simples PLA. En outre, lors de l’impression, une partie de la masse cristallise ; le matériau change alors de densité puis se contracte au refroidissement. Ces changements induisent beaucoup plus de difficultés pour bien maîtriser le processus de fabrication. La mise en forme 3D se fait pour le moment via deux procédés : soit par dépôt de fil fondu (FDM – fused deposition modeling), soit par SLS (selective laser sintering – c’est-à-dire un frittage de poudre couche par couche sous la puissance d’un laser).

La différence entre le PEKK et le PEEK tient notamment au fait que le deuxième est uniquement semi-cristallin alors que le premier est amorphe et semi-cristallin. Sa mise en œuvre est un peu plus simple car on peut le modeler comme un matériau amorphe et le cristalliser pour lui donner ses propriétés de résistances par une cuisson secondaire.

Un marché qui se structure

Ces derniers mois, de nombreux partenariats industriels et de recherches, ainsi que des pièces marquantes, ont fait parler des PAEK. Les fabricants d’imprimantes se lient avec les fournisseurs de matières premières et les industriels pour développer des solutions clés en mains, tels qu’Arkema avec EOS pour la mise en œuvre de poudres de son PEKK Keptstan par exemple. Citons encore l’annonce, en avril 2018, par 3D Stratasys que son PEKK Antero™ 800NA allait permettre, en partenariat avec la société d’ingénierie Phoenix Analysis and Design Technologies (PADT) et Lockheed Martin, de fournir une centaine de pièce imprimées en 3D pour le premier module de mission lunaire Orion de la Nasa.

De leur côté, les grands acteurs de la chimie ont commencé à investir massivement dans la production. Ainsi, Arkema prévoyait pour 2018 le doublement de sa capacité de production de PEKK en France ainsi que l’installation d’une unité de production aux Etats-Unis et a lancé, en octobre 2018, une nouvelle plate-forme commerciale dédié à la fabrication 3D. Solvay, quant à lui, a aussi lancé en 2018 la construction d’une unité de production de PEKK outre-Atlantique afin de répondre aux demandes du secteur de l’aéronautique et noue des partenariats pour soutenir les industriels. Le géant de la chimie s’est ainsi allié à e-Xstream engineering, développeur du logiciel de simulation de fabrication additive Digimat®, pour qu’il intègre les caractéristiques de son filament PEEK KetaSpire® dans la version 2018 du logiciel.

Sophie Hoguin

Un nouveau robot modifie sa configuration pour déjouer les obstacles

Dans un article publié le 31 octobre par Science Robotics, des chercheurs des universités de Cornell et de Pennsylvanie ont présenté un nouveau robot modulaire auto-reconfigurable (ou MSRR) capable de changer de forme et de réaliser des tâches complexes.

Composé de différents éléments cubiques équipés de roues et connectés les uns aux autres grâce à des aimants électro-permanents, le robot se reconfigure automatiquement et s’adapte à un environnement inconnu. De multiples caméras placées sur un des modules et un petit ordinateur permettent de collecter les données puis un algorithme caractérise l’environnement : plat, escalier, tunnel ou hauteur. Enfin, l’ordinateur modifie la structure des modules via des signaux WiFi et le robot prend différentes formes -scorpion, serpent, voiture ou bras- selon l’environnement et la tâche à réaliser.

Une reconfiguration dure une minute, contre 5 à 15 minutes pour les précédents MSRR. En changeant sa morphologie, le robot est alors capable de se déplacer sur terrain plat, se faufiler dans des espaces étroits, grimper des escaliers ou des terrains pentus et manipuler des objets. Dans la vidéo publiée en fin d’article, le robot doit délivrer un objet dans un bac placé en haut d’un escalier. Il évite d’abord les obstacles sur son passage, avant de préférer sa forme « serpent » pour gravir un escalier.

 

Alexandra Vépierre

Patrick Pouyanné (TOTAL): «un petit pays comme la France n’a pas les moyens de développer deux réseaux (hydrogène et électricité) et de miser sur deux technologies»

Le 25 octobre 2018 se déroulait au sein du Département de mécatronique de la prestigieuse Ecole Normale Supérieure de Rennes (Ex « Antenne de Bretagne de l’ENS Cachan ») une très riche journée de conférences sur le thème des «Défis de la soutenabilité énergétique» (DSE2018) en l’honneur du Professeur des Universités Bernard Multon, véritable phare breton dans le domaine du rayonnement des connaissances relatives aux énergies renouvelables et à l’électro-mobilité. Les conférences peuvent être visionnées gratuitement depuis la chaîne Youtube de l’ENS Rennes.

Durant la première conférence menée par Cédric Philibert, analyste senior spécialiste des énergies renouvelables au sein de l’Agence Internationale de l’Energie, un message clé a été transmis: si l’Hydrogène a un intérêt immédiat pour des applications industrielles (par exemple pour produire de l’acier ou des engrais), y recourir pour faire rouler les voitures (et même des camions) a peu de sens pour des raisons d’efficacité énergétique et économique. La seconde conférence, animée par Olivier Sidler, co-fondateur de l’association negaWatt, portait précisément sur le thème de l’efficacité énergétique. Tandis que la troisième, celle de Bernard Multon, après avoir montré dans une autre intervention que la voiture à hydrogène a vraiment peu d’intérêt comparativement à la voiture à batterie, proposait un nouvel indice, l’ERoEIsust, le taux de retour énergétique (ERoEI) soutenable (Sust). Enfin une quatrième conférence, animée par Serge Pelissier, directeur du Laboratoire Transports et Environnement (LTE, IFSTTAR) et ancien élève de Bernard Multon, mettait l’accent sur la nécessité d’adopter une approche pluri-disciplinaire.

Le même jour, 25 octobre 2018, avait lieu à huis-clos une réunion très stratégique à l’Elysée. Le président de la République avait réuni les PDGs des principales entreprises françaises impliquées dans le secteur de l’énergie dans la perspective de l’annonce de la PPE (Programmation Pluriannuelle de l’Energie) mi-novembre. Manifestement il y a eu un phénomène de télépathie, de capture de pensées, de résonance entre le cerveau de Cédric Philibert à Rennes et celui de Patrick Pouyanné à Paris, qui est très écouté par Emmanuel Macron. En effet BFM rapporte que «le patron d’Air Liquide, Benoit Pottier, a évidemment vanté les mérites de l’hydrogène pour la mobilité quand celle d’Engie, Isabelle Kocher, préférait le biogaz, avant que le PDG de Total, Patrick Pouyanné ne tente d’élever le débat en précisant qu’un petit pays comme la France n’avait pas les moyens de développer deux réseaux et de miser sur deux technologies. Au mieux, les bus pourraient être alimentés à l’hydrogène et les véhicules des particuliers à l’électricité. Mais lui aussi plaidait pour sa paroisse alors que Total pousse les feux sur l’électricité

Ce n’est pas seulement « plaider pour sa paroisse », et d’ailleurs TOTAL est membre du Conseil de l’Hydrogène (HC). Mais plus fondamentalement d’adopter une approche rationnelle dans la perspective de construire une stratégie énergétique nationale cohérente, reposant sur des équations énergétiques et économiques solides. Avec ses arbres à vents, ses routes solaires et ses vélos à hydrogène la France donne aujourd’hui l’impression d’être un peu perdue, désorientée, ne sachant plus séparer le bon grain de l’ivraie. Une stratégie de diversion ? Ceci pour tenter de masquer un retard massif dans deux domaines hautement stratégiques, celui du photovoltaïque standard et celui des batteries ? La voiture à hydrogène offre la perspective que les emplois dans les motorisations diesel soient convertis en emplois dans la chaîne hydrogène. Tandis que 40% de la chaîne de valeur d’une voiture à batterie est en Asie. Mais la première n’est-elle pas un peu comme la ligne Maginot qui était censée protéger les français de l’invasion ennemie ?

C’est le 12 novembre 2018, lendemain de la célébration par le président de la République dans l’est de la France de la fin de la première guerre mondiale (1914-1918), que seront faîtes «des annonces fortes dans la stratégie énergétique, des décisions structurantes et historiques» a déclaré Emmanuel Macron. La ligne Maginot a été édifiée entre 1928 et 1940. Elle était considérée par les meilleurs experts militaires français comme infranchissable, ils en étaient très fiers. Pendant ce temps-là l’Allemagne nazie a mis en place la Luftwaffe, son armée de l’air. Résultat : il n’a fallu à Adolf Hitler que 6 semaines pour conquérir Paris. «Les politiques, les insiders et les experts qui pensaient que le futur était linéaire, incrémental, juste une extension du passé, ont sous-évalué l’arrivée d’une disruption technologique (l’aviation) et ont fait des choix pour le futur basés sur des notions mainstream du passé, avec des conséquences massives pour l’Europe et le monde pour les générations à venir» analyse le professeur Tony Seba de l’Université Stanford, qui lui aussi explique via ses conférences pourquoi la voiture à hydrogène n’a rien de disruptive et «n’est même pas propre».

Peut-être que grâce aux qualités visionnaires de Patrick Pouyanné et de Carlos Ghosn (champion mondial de la voiture électrique), qui ont notamment le projet de faire construire en Europe dès la première moitié de la décennie 2020 une Giga-Usine de production de batteries solid-state, la France évitera de construire une nouvelle ligne Maginot, version hydrogénée, pour à l’inverse se concentrer sur une technologie véritablement disruptive: la voiture électrique à batterie alimentée en électricité 100% renouvelable. Le groupe Renault a précisément un projet-phare au sud de la Bretagne: libérer Belle-île-en-mer (et sa célèbre citadelle Vauban) du pétrole grâce aux voitures à batteries en autopartage et alimentées par de l’électricité provenant de toitures photovoltaïques, aux batteries stationnaires recyclées et au V2G-G2V (Vehicule-to-grid / Grid-to-Vehicule). Nom de code ? FlexMob’île.

A l’extrême-ouest de la Bretagne, au pied du « phare de la France libre« , une thématique de débat a émergé par la voix de Patrick Saultier, fondateur d’IDSE (Ile De Sein Energies) qui s’interroge sur le bilan écologique des batteries et qui roule au biogaz: «Le gaz n’est-il pas trop négligé pour les transports ? Personnellement, j’ai opté pour une voiture gaz GNV. Il faut en vouloir vu le faible nombre de station. Même si le réseau gaz existe. La production de gaz peut être très intéressante pour les territoires et le développement local je suis souvent content de faire mon plein sur ma route pour l’île de Sein à la station Liger de Locminé (Morbihan) avec du bio gaz… Aller à Sein avec une voiture nucléaire me contrarierait un peu.» Le biogaz n’est-il cependant pas un peu comme l’éthanol que l’on mélange à l’essence, un soupçon de verdeur dans un océan de combustibles fossiles importés et sources de conflits ? A Belle-île-en-mer les voitures électriques rouleront principalement au solaire photovoltaïque. Du micro-éolien serait bienvenu compte-tenu de la parfaite complémentarité des deux ressources à l’échelle saisonnière.

Marc Théry, ingénieur polytechnicien très regretté qui a œuvré dans la perspective que la Communauté de communes du Mené au nord de la Bretagne passe aux 100% Energies Renouvelables, l’avait bien compris: «la planète-Terre, elle aussi, est une île» avait déclaré ce passionné de musique bretonne, de chant grégorien, et inventeur du mot «Energéthique». Le développement soutenable n’est pas seulement à la confluence des sphères environnementale, sociale et économique. Il a aussi une dimension spirituelle qui assure la cohérence des trois autres. En 2009 Nicolas Hulot préfaçait le livre «La Nature, source de spiritualité». Deus sive Natura. «La mer n’est que le véhicule d’une surnaturelle et prodigieuse existence» écrivait Jules-Gabriel Verne dans son roman 20.000 lieues sous les mers. «Les gens hors normes que je rencontre sont souvent des religieux. Je ne crois pas en Dieu, mais il faut admettre qu’ils ont un truc en plus» a remarqué le photographe Yann-Arthus Bertrand, auteur du film Home (Om̐). Bernard Multon, qui a énormément donné pour transmettre à ses étudiants, à ses collègues et aux institutions l’esprit de la soutenabilité, a été présenté par l’ENS Rennes comme fruit du «croisement entre Mère Theresa et l’Abbé Pierre». Est-ce vraiment catholique ?

Communauté du Mené ? La Mana est l’énergie vitale des îles de l’océan Pacifique, l’émanation de la puissance spirituelle du groupe. «Belle-île-en-mer, c’est déjà l’outre-mer» avait confié, le sourire aux lèvres tout en lissant sa moustache druidique, Marc Théry. Awen.

Olivier Daniélo

Renforcement en cours du Fonds Chaleur

Le conseil d’administration de l’ADEME a voté, le 18 octobre, une hausse du budget du Fonds Chaleur de 14% pour 2018. Le budget initial de 215 millions d’euros est ainsi porté à 245 millions d’euros.

En France, la production de chaleur représente la moitié des consommations d’énergie et repose encore principalement sur les combustibles fossiles. Destiné aux gestionnaires de l’habitat collectif, aux collectivités et à toutes les entreprises des secteurs agricole, industriel et tertiaire privé, le Fonds Chaleur est une véritable aide à la décision pour développer la production renouvelable de chaleur grâce à la biomasse, au solaire et à la géothermie.

Un doublement du Fonds Chaleur ?

Lors de la campagne présidentielle, Emmanuel Macron avait promis qu’il doublerait le montant du Fonds Chaleur durant son quinquennat. Le 2 octobre dernier, François de Rugy, ministre de la Transition écologique et solidaire, a pour sa part indiqué que le Fonds Chaleur allait augmenter à 300 millions d’euros l’an prochain, contre 200 millions en 2017. Cette enveloppe devra être confirmée dans le cadre de l’examen du projet de loi de finances 2019.

Durant la période 2009-2016, le Fonds Chaleur a été doté de 1,6 milliard d’euros pour soutenir près de 4 000 réalisations. Si la France s’est fixé un objectif national de 32 % d’énergies renouvelables dans sa consommation finale d’ici 2030, plus de la moitié de l’effort à réaliser consiste à développer la chaleur renouvelable. L‘objectif est d’atteindre 38 % de chaleur renouvelable à l’horizon 2030, contre 17,6 % en 2013. Pour y parvenir, les professionnels demandent un Fonds Chaleur doté d’une enveloppe annuelle d’au moins 500 millions d’euros.

Cap sur la chaleur biomasse

L’appel à projets « Biomasse Chaleur Industrie Agriculture et Tertiaire » (BCIAT) vise spécifiquement le développement de projets de production de chaleur à partir de biomasse, supérieurs à 12 gigawattheures par an (GWh/an). Destiné aux entreprises, il compte pour son édition 2018 sept lauréats pour une production totale de 464 GWh/an, un montant total d’aides de 26,6 millions d’euros et 70 millions d’euros d’investissement. Ces résultats confirment la tendance de ces deux dernières années à l’augmentation de l’utilisation de bois déchets comme combustible. Les candidatures pour l’édition 2019 sont lancées : le premier appel d’offres est ouvert jusqu’au 31 janvier, le deuxième jusqu’au 23 mai 2019.

Une attention particulière sera portée aux projets se substituant à des combustibles très émetteurs de gaz à effet de serre. Les aides financières apportées par le Fonds Chaleur dépendent de la taille de l’entreprise, du projet et de sa rentabilité économique. Elles s’élèvent au maximum à 65 % du montant total pour les petites entreprises, 55 % pour les entreprises moyennes et 45 % pour les grandes entreprises.

Par Matthieu Combe, journaliste scientifique

La RSE au service des objectifs de développement durable

La responsabilité sociétale et environnementale (RSE) des entreprises peut jouer un rôle important pour atteindre les 17 objectifs de développement durable (ODD). À cette fin, le 22 octobre dernier, la plate-forme RSE a remis son avis à Brune Poirson, secrétaire d’État auprès du ministre d’État, ministre de la Transition écologique et solidaire. Son premier constat est que les ODD souffrent d’un manque de notoriété. Ils demeurent peu connus du grand public et seulement la moitié des entreprises du SBF 120 les ont évoqués dans leur rapport de développement durable en 2017.

Les 17 ODD constituent un programme d’actions pour le développement durable à l’horizon 2030. Ils comprennent notamment la fin de la pauvreté, de la faim, l’accès à l’éducation, l’égalité entre les sexes, la protection de l’environnement et la transformation des modes de consommation, de production et de développement urbain. Les gouvernements membres des Nations Unies se sont engagés à les mettre en œuvre et à rendre compte de leurs avancées. Toutefois, l’ensemble des acteurs – collectivités, entreprises, chercheurs, ONG, associations et citoyens – sont invités à contribuer à l’atteinte de ces objectifs. La plate-forme RSE dresse donc 15 recommandations pour améliorer les synergies entre ODD et RSE.

15 recommandations pour allier RSE et ODD

En premier lieu, la plate-forme RSE recommande au gouvernement de « porter les ODD à l’échelle nationale et internationale », « communiquer, sensibiliser, former et informer » et « rendre les ODD accessibles et attractifs pour les entreprises ». En particulier, le gouvernement devrait expliquer en quoi les ODD constituent une opportunité pour les entreprises. Pour assurer la cohérence de sa politique, il ne devrait pas s’engager dans des accords commerciaux qui feraient obstacle à la mise en œuvre des ODD. Enfin, le gouvernement devrait porter les ODD au niveau européen pour en faire une priorité de la future Commission européenne élue en mai 2019.

La plate-forme RSE propose par ailleurs le lancement d’une campagne de communication et de sensibilisation à destination du grand public pour faire connaître les ODD. Elle soumet également au gouvernement d’inclure les ODD dans les formations de l’enseignement supérieur. Elle conseille en plus d’inclure les ODD dans la commande publique et dans les partenariats publics-privés.

Les entreprises reçoivent aussi leur lot de recommandations. L’avis leur propose d’analyser leur activité au regard des cibles des ODD pour identifier éventuellement de nouveaux enjeux RSE. La plate-forme RSE leur recommande de relier les actions de mécénat à des ODD et de les intégrer à leurs démarches d’achat ou d’investissement responsable.

En outre, les organisations professionnelles et les autres relais des entreprises ont un rôle important à jouer. Ils pourraient analyser les enjeux sectoriels de la RSE présents dans les ODD. Il serait aussi intéressant que ces organisations recensent les outils disponibles et les bonnes pratiques pour les inclure dans une démarche RSE. Enfin, la plate-forme RSE conseille aux partenaires sociaux d’inclure les ODD dans le dialogue social, ainsi que d’intégrer des cibles et indicateurs ODD dans la négociation d’accords de branche et d’accords-cadres transnationaux.

Par Matthieu Combe, journaliste scientifique

Du graphène comme s’il en neigeait

Maintenant que les propriétés du graphène et des matériaux 2D ont été dévoilées, les applications industrielles et la massification de sa production font l’objet de nombreuses recherches. En effet, le produire en grande quantité, rapidement et avec un bon niveau de qualité et de pureté n’est pas encore si facile. Les deux méthodes couramment utilisées aujourd’hui – le dépôt chimique en phase vapeur (CVD) ou l’exfoliation en phase liquide – requièrent soit des substrats coûteux qui limitent la productivité, soit des post-traitement complexes qui limitent la qualité. D’où, tout l’intérêt des travaux chinois relatés dans Advanced Materials, qui présentent une méthode pour du graphène de haute qualité à bas coût dans une phase gazeuse, sans catalyseur, sans substrat et transférable à l’échelle industrielle.

Du graphène en flocons

S’inspirant de la manière dont se forme les flocons de neige, l’équipe de Jin Zhang (Université de Peking) et Yingying Zhang (Université de Tsinghua et institut de recherche du graphène) à Pékin, a mis au point un process qui se tient dans un four à micro-ondes ordinaire…

Un tube de quartz contenant des pièces de silicium (Si/Si02 en surface) est placé à pression ambiante dans un four à micro-ondes. L’air du tube est chassé par un flux d’argon, le micro-ondes est allumé et du méthane est injecté comme source de carbone. Les radiations du micro-ondes génèrent un plasma à plus de 700°C avec un effet de couronne – décharge électrique autour du matériau, causée par l’ionisation de l’air qui l’entoure. Cette décharge électrique dissocie les molécules de méthane en graphène d’un côté et hydrogène de l’autre. Le processus fournit des flocons de graphène qui retombent comme de la neige sur le substrat placé en dessous.

A l’instar des flocons de neige, les flocons de graphène qui s’accumulent forment des macrostructures tridimensionnelles de type mousse. Dans leurs expériences, les chercheurs chinois ont accumulé cette « neige » sur une surface flexible qu’ils ont transformé en capteur de forces.

Le rendement est élevé (autour de 6,28%) et le taux de formation des flocons rapide (autour de 0,11g/h). En outre, concluent les chercheurs, ce procédé, simple et peu coûteux peut être envisagé pour fabriquer d’autre matériaux 2D.

Sophie Hoguin

Les outils, des organes des sens à part entière ?

Le sens du toucher intervient de façon capitale dans le contrôle qu’un individu a de ses mains et par extension des outils à travers lesquels le toucher lui permet de percevoir son environnement.

Des chercheurs de l’Inserm au sein du Centre de recherche en neurosciences de Lyon (Inserm/Université Jean Monnet Saint-Etienne/Université Claude Bernard Lyon 1/CNRS) se sont intéressés aux mécanismes permettant au cerveau de localiser le toucher à travers les outils. Pour cela, ils ont utilisé trois approches complémentaires à travers plusieurs expériences de localisation d’un coup porté sur un bâton tenu en main.

La première approche consistait à frapper à différents endroits un bâton tenu en main par un volontaire dont la vision était obstruée et de lui demander de localiser l’impact. La précision de cette localisation s’est avérée aussi efficace lorsque le choc était administré sur le bâton, quel que soit l’endroit, que lorsqu’il était administré sur le bras du volontaire. Ces résultats démontrent la capacité humaine à «incorporer » l’ensemble d’un outil tenu en main comme s’il faisait partie de son propre corps, le cerveau l’intégrant comme un organe des sens à part entière.

La seconde approche se basait sur l’enregistrement des vibrations du bâton perçues à la base de sa poignée et sur la peau de la main le tenant. Les chercheurs ont observé que les caractéristiques des vibrations du bâton transmises à la main dépendaient de façon prédictible de l’endroit de l’impact.

Enfin, dans la troisième approche, les caractéristiques des vibrations enregistrées dans la seconde approche ont été traitées par un simulateur informatique des réponses cutanées, permettant ainsi de modéliser les réponses aux vibrations des mécano-récepteurs (neurones sensoriels de la peau) en contact avec le bâton. L’équipe de recherche a ainsi observé que les mécano-récepteurs étaient capables de déchiffrer très précisément les motifs vibratoires du bâton. Ceux-ci étant strictement dépendants de l’endroit de l’impact, le cerveau est capable d’interpréter leur « profil » envoyé par les mécano-récepteurs et par conséquent de localiser la zone d’impact.

Cette étude montre que le cerveau humain traite les outils comme des extensions sensorielles du corps de l’utilisateur, un mécanisme que l’équipe de recherche se propose d’appeler « perception étendue par les outils ». Ce phénomène nouvellement décrit ici représente un nouveau paradigme qui pourrait permettre d’améliorer la compréhension des phénomènes d’incorporations d’outils chez l’être humain et de la perception sensorielle des non voyants, ainsi que l’appréhension de l’utilisation des prothèses chez les personnes amputées.

Source : cnrs 

La pétrochimie, premier facteur de la croissance de la demande de pétrole

Le plastique, premier dérivé du pétrole

Selon une étude majeure intitulée The Future Of Petrochemicals publiée par l’Agence internationale de l’énergie (AIE), « la combinaison d’une économie mondiale en croissance, d’une population croissante et le développement technologique, se traduira par une demande croissante de produits pétrochimiques. »

La pétrochimie, qui transforme le pétrole et le gaz en toutes sortes de produits, est omniprésente dans les objets de notre quotidien tels que les plastiques, les engrais, les emballages, les vêtements, les détergents ou les pneus.

Les produits issus de la pétrochimie sont même utilisés par les industries les plus vertes, notamment dans la fabrication des panneaux solaires, des éoliennes, des isolants thermiques des bâtiments ou des pièces des véhicules électriques.

L’AIE prévoit, dans son étude, une augmentation de cette production pétrochimique mondiale de 30 % d’ici à 2030 et de 60 % d’ici 2050 pour atteindre 1 milliard de tonnes, soit l’équivalent de la production actuelle d’acier ou de ciment, ajoutant ainsi près de 7 millions de barils de pétrole par jour d’ici là. D’après l’AIE, « les produits pétrochimiques sont également prêts à consommer 56 milliards de mètres cubes supplémentaires de gaz naturel d’ici 2030, soit environ la moitié de la consommation totale de gaz au Canada ».

Le principal moteur de cette activité du point de vue énergétique est la demande en plastique qui a dépassé tous les autres matériaux dans les pays développés (tels que l’acier, l’aluminium ou le ciment), doublant presque depuis 2000. Ce chiffre explosera encore dans les décennies à venir avec l’accroissement de la consommation de plastique dans les pays en voie de développement. Le rapport alerte : « Les États-Unis, l’Europe et les autres pays développés utilisent actuellement jusqu’à 20 fois plus de plastique et jusqu’à 10 fois plus d’engrais que l’Inde, l’Indonésie et d’autres pays émergents par habitant, soulignant l’énorme potentiel de croissance à l’échelle mondiale. »

Un défi environnemental se profile à l’horizon

Bien que les efforts pour réduire les émissions de CO2 concernent habituellement l’automobile ou le transport, la production (ainsi que l’élimination) des produits dérivés de la pétrochimie a également un impact négatif sur l’environnement, la qualité de l’air et de l’eau.

Le docteur Fatih Birol, directeur exécutif de l’AIE, déplore que « le rôle croissant de la pétrochimie soit l’un des principaux « angles morts » dans le débat énergétique mondial. La diversité et la complexité de ce secteur font que la pétrochimie reçoit moins d’attention que d’autres secteurs, malgré leur importance croissante ».

Les deux problèmes environnementaux majeurs soulevés par cette industrie sont les émissions de CO2 et les déchets plastiques rejetés, une situation qui n’est pas inéluctable selon l’AIE. L’agence propose ainsi dix recommandations politiques visant à créer un secteur pétrochimique plus durable et plus efficace, et parmi elles, la réduction des plastiques à usage unique, l’amélioration de la gestion des déchets et du recyclage ou encore des taxes qui pénalisent la faible recyclabilité des produits pour inciter à les rendre plus recyclables.

Aliye KARASU

Des molécules extraites de bactéries marines pour la cosmétique

Les polysaccharides peuvent être définis comme des macromolécules formées de l’enchaînement de motifs similaires, en l’occurrence de glucides appelés couramment « sucres » ou « oses ». Initialement dominé par les gommes d’origine végétale et algale, leur marché s’ouvre également aux polysaccharides bactériens. En milieu marin, cette production semble être majoritairement le fait de souches appartenant aux genres Alteromonas, Pseudoalteromonas, Pseudomonas, Shewanella et Vibrio. Chez les bactéries, ces polysaccharides sont présents au niveau de la paroi cellulaire, à l’extérieur de la cellule mais liés à celle-ci (polysaccharide capsulaire) ou relargués dans le milieu de culture sous forme d’exopolysaccharides (EPS).

schema1

Des molécules biosourcées pour la cosmétique

De par leurs propriétés biologiques, chimiques et physico-chimiques, les EPS peuvent trouver des applications dans différents secteurs d’activités tels que la santé, la chimie, le phytosanitaire, la nutraceutique, l’environnement, la récupération assistée des huiles et la cosmétique. Si des exopolysaccharides bactériens ont trouvé des applications (xanthane, gellane, hylauronane, succinoglycanne, curdlane, pullulane, dextranes…), force est de constater que rares sont ceux d’origine marine ayant connu à ce jour un réel développement.

Parmi les secteurs en demande de polysaccharides, il y a la cosmétique et la cosméceutique. En effet, la limite entre pharmaceutique et cosmétique devient de plus en plus tenue au regard de l’évolution des législations et d’une prise de conscience des utilisateurs, d’où cette terminologie de « cosméceutique » venant compléter celle de « cosmétique ». Il s’agit là d’un secteur économique en forte croissance et correspondant à une demande sociétale en expansion. La cosmétologie/dermo-cosmétologie est un domaine en quête de nouvelles molécules innovantes, tant pour leur « histoire » et origine, que pour leurs propriétés physico-chimiques et leur efficacité. Dans ce secteur, l’utilisation d’ingrédients biosourcés, la préservation de l’environnement naturel, la diminution de l’utilisation de solvants dans les procédés de fabrication, le contrôle des rejets de CO2… sont des arguments que les plus grandes enseignes mettent en valeur afin de répondre à une demande de marché de plus en plus croissante. Le milieu marin se présente alors comme un domaine de recherche tout à fait en adéquation avec l’ensemble de ces critères.

Des produits « anti-âge » aux traitements dermiques

Parmi les produits les plus recherchés, il y a naturellement les molécules « anti-âge » (agents hydratants, raffermissement de la peau, lissage, antirides, réparation cellulaire, régénération des cellules dermiques, protection contre les UV, etc.). D’une manière plus générale, il s’agit de molécules en adéquation avec une volonté affichée des consommateurs d’un meilleur bien-être passant, en premier lieu, par l’apparence physique et l’entretien du corps. Dans les pays industrialisés, cette tendance a débuté auprès des « baby-boomers » de l’après-guerre mais se poursuit maintenant, et de plus en plus, avec les nouvelles générations. Ces produits « anti-âges » comprennent les vitamines (pour plus de 50 % de ce marché : vitamines A, B5, C et E), mais aussi les polysaccharides (acide hyaluronique, chitosane et β-glucanes) pour plus de 20 %. À ces produits majoritaires, il convient d’y ajouter les peptides et protéines, les enzymes et co-enzymes, les extraits naturels et d’autres produits comme les hydroquinones, amino-acides, etc. Et à cet énorme marché vient également s’ajouter celui des systèmes de délivrance et libération contrôlée des actifs cosmétiques sous forme de nanoparticules, nanoémulsions, microcapsules et millicapsules, ainsi que les patches. D’autres pistes de développement sont envisageables, qui utiliseraient la propriété de polysaccharides à fixer certains ions spécifiques (argent, cuivre, zinc et titane) intervenant par exemple dans le traitement de l’acné ou autres affections dermiques.

schema2

Des EPS d’origine bactérienne

Bien que la classe des polysaccharides soit déjà bien représentée en cosmétique et dermo-cosmétique notamment via les algues, la demande persiste pour de nouvelles molécules caractérisées par la diversité de leurs origines, l’originalité des unités saccharidiques et de leurs propriétés physico-chimiques, biologiques et rhéologiques, permettant d’envisager des applications sous des formes galéniques variées. Au titre de ces nouvelles opportunités, on retrouve tout naturellement les micro-organismes comme sources d’exopolysaccharides bactériens originaux. Ces exopolysaccharides bactériens présentent quelques atouts comme l’absence de dépendance vis-à-vis d’aléas climatiques, écologiques et politiques pouvant affecter la qualité, le coût et l’approvisionnement de leurs homologues extraits d’algues ou de plantes. De plus, les possibilités d’agir sur les conditions de fermentation (sources de carbone, température, aération, pH, etc.) – en vue d’optimiser la production, d’assurer la traçabilité, mais aussi de modifier le polymère produit – jouent en faveur de la fermentation bactérienne. Ces polymères présentent souvent un degré de régularité de structure plus important et peuvent être extraits et purifiés sans l’utilisation de conditions drastiques. Les inconvénients de ces polymères bactériens restent liés aux micro-organismes eux-mêmes, à leur manipulation et conservation ainsi qu’à la production de métabolites secondaires et coproduits associés à la fermentation.

Perspectives

Les exopolysaccharides bactériens d’origine marine font partie de ces molécules à fort potentiel biotechnologique, soit à l’état natif soit après modifications chimiques et surtout enzymatiques. Le fait de pouvoir également contrôler en amont cette production, via le génie génétique ou plus simplement par une connaissance des mécanismes de biosynthèse, constitue une voie d’avenir. Dans cette attente, le développement industriel de ces exopolysaccharides marins reste à ce jour relativement limité car il se heurte, comme d’autres EPS, à un problème majeur, leur coût de production, un coût qui doit être compatible selon les applications, avec les réalités économiques. À titre d’exemple le coût de production des principaux EPS marins commercialisés à ce jour peut dépasser les 500 à 1 000 euros/kg alors que celui du xanthane se situe, selon la qualité recherchée, aux alentours de 5 à 10 euros/kg. Les solutions à cette réduction des coûts de production passent par l’utilisation de substrats carbonés peu onéreux, comme les coproduits de l’industrie (alimentaire, énergie) et une simplification des procédés d’extraction et de purification en évitant, autant que faire se peut, l’utilisation de solvants organiques. Dans cette attente seuls les marchés de niche ou ceux de la santé, mais sous réserve d’une pureté et reproductibilité de polysaccharides natifs ou modifiés, semblent alors accessibles.

 

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 25 novembre !

Obtention d’exopolysaccharides bactériens et applications en cosmétique, un article de Anthony COURTOIS, Président, Polymaris Biotechnology, Morlaix et Jean GUEZENNEC, Consultant scientifique, AiMB (Advices in Marine Biotechnology), Plouzané

Une illusion d’optique pour effaroucher les rapaces

Malgré leur acuité visuelle exceptionnelle, les rapaces ne détectent pas certains obstacles comme les surfaces vitrées ou détectent trop tard certains objets en mouvement comme les avions. En France, plus de 800 collisions d’oiseaux avec des avions sont mentionnées chaque année. Les systèmes d’effarouchement existants étant peu efficaces sur les rapaces, les chercheurs du laboratoire d’Ethologie animale et humaine (Ethos) ont cherché à développer un nouveau système qui les détournerait de certaines zones.

En se basant sur les connaissances actuelles de la vision chez ces espèces, les scientifiques ont d’abord testé les réactions de rapaces captifs à une série de stimuli visuels. Après plus de 300 tests, ils ont constaté qu’un seul stimulus induisait des réactions d’évitement grâce à une illusion d’optique. Ce « superstimulus » correspond à des cercles concentriques noirs sur fond blanc. Donnant l’impression aux rapaces d’une collision imminente, il s’agit en fait d’une illusion d’optique appelée « effet looming ».

Le dispositif a été testé sur l’aéroport de Lourdes-Tarbes-Pyrénées où de nombreux rapaces comme les buses ou les milans sont présents en été pour s’alimenter dans les plaines. Deux écrans LED diffusant le stimulus en continu toute la journée, ont été disposés à des endroits stratégiques et des observations ont été réalisées sur l’ensemble de l’aéroport. Les 8800 observations d’oiseaux ont ainsi révélé une rapide modification de leur répartition, ceux-ci évitant les zones de visibilité des écrans. Cet effet était encore constaté après 5 semaines de diffusion permanente du stimulus.

Le fait que la population de rapaces ait augmenté dans les zones de non-visibilité des écrans, à un moment où les ressources étaient abondantes dans toutes les zones, montre l’efficacité du stimulus. De façon intéressante, un effet similaire a été observé sur les corvidés présents sur le site, alors que certaines espèces de passereaux n’ont pas été influencées. Ces résultats sont les premiers à proposer une solution durable pour écarter de façon inoffensive les rapaces de zones à risques. Ils ouvrent également de nouvelles perspectives de recherche, comme la possible implication dans cette réaction, des neurones de collision, spécialisés dans ces réactions d’évitement.

Source : cnrs

L’industrie pourrait facilement devenir moins énergivore

Aujourd’hui, l’industrie est le troisième secteur d’activité le plus gourmand en France derrière le bâtiment et les transports. Ainsi, 21 % de la consommation énergétique française sert à la faire fonctionner. Selon une étude de l’ADEME, ces besoins pourraient pourtant être assez aisément réduits de 20 %. Mais pour ce faire, il est nécessaire que les industriels mettent en place des procédés moins demandeurs en énergie. C’est pourquoi les cabinets Effy et ENEA Consulting ont réalisé une étude auprès de 500 d’entre eux afin d’identifier les pratiques les plus efficaces à instaurer en termes d’économie d’énergies pour y parvenir. Pour que cela fonctionne, il est nécessaire que ces techniques soient mises en place à grande échelle.

La massification de ces procédés permettrait donc d’atteindre 20 % d’économies d’énergie dans l’industrie. Dans un premier temps, l’industrie doit mettre en place des pratiques simples, et surtout qui peuvent s’adapter à toutes les firmes, indépendamment de leurs secteurs d’activité. « L’amélioration de l’efficacité énergétique de l’industrie française repose en grande partie sur le déploiement des meilleures techniques disponibles » pour Effy.

Savoir gérer le froid pour être moins énergivore

Pour que les résultats de l’étude puissent être bénéfiques pour l’industrie toute entière, les analyses ont porté sur les secteurs suivants : l’agroalimentaire, la parachimie et la plasturgie. Notons néanmoins que les secteurs « à forte intensité énergétique » ne sont pas concernés par l’étude. Or, ces 49 industries réunies à l’Union des industries utilisatrices d’énergie (UNIDEN) sont responsables de 70% de la consommation énergétique de l’industrie tous secteurs confondus. En ce sens, les préconisations d’Effy et ENEA Consulting concernent 3 755 sites sur les 16 704 que compte l’industrie française. Ces 3 755 sites sont à l’origine de 17 % des consommations d’électricité et de 6 % des consommations de chaleur.

Concrètement, quelles pistes d’actions proposent cette étude ? Afin de parvenir à économiser de l’énergie, récupérer la chaleur fatale sur un groupe de production de froid ou un compresseur d’air comptent parmi les bonnes pratiques à développer. Les industriels gagneraient également à réguler les groupes de production de froid, isoler les réseaux de vapeur et utiliser des technologies électriques ou hybrides pour les presses à injecter. À l’heure actuelle, le taux de pénétration de ces pratiques dans les différents secteurs de l’industrie reste très hétérogène. Si elles se démocratisaient, elles permettraient tout de même d’économiser 236,5 térawattheures cumac chaque année !

Matthieu Combe, journaliste scientifique

TOP 5 : les articles les plus lus #octobre2018

Bruno Grandjean: « La France doit rattraper le bon wagon industriel grâce à l’usine du futur »

A l’occasion de l’événement “l’Usine extraordinaire”qui se tiendra du 22 au 25 novembre au Grand Palais à Paris, Bruno Grandjean, président de l’Alliance Industrie du Futur, partenaire de l’événement, a répondu à nos questions..

 

L’Usine 4.0 pourra-t-elle devenir propre ?

Chaque jour, les industries et les moyens de transport émettent des tonnes de carbone dans l’atmosphère. Le concept d’Usine 4.0 ne repose pas uniquement sur une agilité des process et leur numérisation. L’un des objectifs est aussi de consommer moins pour produire mieux.

 

Mondial de l’Auto 2018 : les 7 innovations les plus marquantes des startups

Le Mondial de l’Auto a accueilli pour la première fois le Mondial.Tech, un espace consacré en priorité aux start-ups. Retour sur les innovations les plus marquantes.

 

Le monde s’éloigne d’un réchauffement à +2°C

Selon le classement « Low Carbon Economy Index 2018 » du cabinet PwC, les efforts pour décarboniser l’économie mondiale demeurent insuffisants. Aucun pays du G20 n’atteint un taux de décarbonisation suffisant pour limiter le réchauffement climatique à 2°C d’ici 2100.

 

L’économie circulaire teste sa première norme

L’Afnor dévoile une première mondiale : la première norme expérimentale consacrée à l’économie circulaire. Elle vise à mieux faire connaître ce modèle économique et à contribuer à son essor pour tous les types d’organisme, quelles que soient leur taille et leur nature.

 

Par I. B

Cybersécurité : la multiplication des menaces

« C’est dans les vieux pots qu’on fait la meilleure soupe » ; cet adage s’applique aussi à la sécurité informatique. À Monaco, de nombreux experts ont constaté le retour en force de deux techniques de piratage très classiques : l’hameçonnage (appelé aussi Phishing) et les infections par le biais de macros malveillantes pour la suite Office de Microsoft, mais également pour toutes les autres suites bureautiques.

Le Phishing ne date pourtant pas d’hier, mais l’imagination et la professionnalisation des cybercriminels permettent de toucher de nombreuses victimes. Si les particuliers sont toujours concernés par ce fléau (ils sont encore trop nombreux à communiquer leur numéro de CB ou leur identifiant permettant d’accéder à leur banque en ligne), les entreprises sont elles aussi impactées.

Cette fois, l’objectif des pirates n’est pas de récupérer ce type d’identifiants, mais des mots de passe permettant d’accéder à des bases de données, des postes de travail… Le but ? Récolter un maximum d’informations afin d’infiltrer un réseau informatique ou d’usurper la messagerie d’un directeur. Et les conséquences peuvent être dramatiques : vol d’informations confidentielles ou à caractère personnel (dans ce cas, cette violation de données est sévèrement sanctionnée si l’on se réfère au RGPD), virements frauduleux, impacts sur l’image de marque de l’entreprise…

Prise d’otage de fichiers

Néanmoins, les pirates s’appuient aussi sur d’autres procédés pour arriver à leurs fins. Les ransomwares (programme malveillant qui chiffre les données d’un ordinateur et de tous les dossiers partagés dans l’entreprise) sont toujours présents et dangereux. Rappelons qu’il est aujourd’hui très difficile (à cause des différentes variantes de ransomwares et de leur sophistication) de « déchiffrer » des fichiers pris en otage. Les entreprises n’ont alors que deux options : payer la rançon exigée ou restaurer des données à partir d’une archive.

Seul problème, un cinquième des entreprises ne possède aucune méthode ni aucun plan leur permettant de récupérer leurs données, applications, informations clients, serveurs ou systèmes après une attaque informatique…

Ces ransomwares commencent cependant à être délaissés au profit du cryptomining (minage de cryptomonnaies) qui se développe de façon exponentielle. Selon le cabinet d’audit NTT Security, les cryptominers auraient augmenté de 460 % depuis le début de l’année, ciblant en priorité les petites et grandes entreprises, le secteur industriel, et même les travailleurs indépendants.

À Monaco comme dans les autres salons, on reconnaît que le point faible reste toujours l’être humain qui n’est pas assez sensibilisé par des formations. « L’usurpation d’identité ne concerne plus seulement les dirigeants, mais également les fournisseurs (introduction de RIB frauduleux), les prestataires techniques ou opérationnels (service expédition par exemple dans le cas du vol de fret)… Les possibilités sont quasi infinies et la créativité opérationnelle des attaquants semble sans borne. Il est à craindre, que dans un avenir assez proche, les attaquants adopteront des moyens et approches plus industriels. Les technologies de réalité virtuelle sont devenues matures, abordables et suffisamment saisissantes pour leurrer plus d’un DAF » s’inquiète  à juste titre Éric Filiol, Directeur du Laboratoire (C+V)° .

Philippe Richard

Un matériau synthétique fixe le CO2 pour grandir, se renforcer et s’auto-réparer

Plus qu’un simple matériau, c’est plutôt tout un système qui a été conçu par des chercheurs du MIT et de l’université de Californie à Riverside. Il se compose d’un gel formant une matrice, qui contient un polymère (aminopropyl methacrylamide – APMA), une enzyme oxydoréductase du glucose (la glucose oxydase – Gox) et des chloroplastes extraits de feuilles d’épinards, stabilisés par des nanoparticules de céria (dioxyde de cérium).

Une illustration des propriétés d’auto-réparation de ce nouveau matériau. Sur l’image du dessus, une fissure est créée dans le matériau (composé d’un hydrogel en vert foncé et de chloroplastes en vert clair). En bas, en présence de lumière, le matériau utilise le CO2 de l’air pour s’étendre et remplir la fissure.

Imiter la photosynthèse

Au contact du CO2 de l’air et de la lumière, les chloroplastes, qui ne sont pas vivants, catalysent la réaction produisant du glucose à partir du dioxyde de carbone. Ce glucose est transformé en gluconolactone (GL) par la glucose oxydase et ensuite polymérisé avec l’APMA, formant ainsi un polymère de polymethacrylamide qui s’étend et se renforce en continu. La vitesse moyenne de croissance a été mesurée à 60µm3/h par chloroplaste avec un éclairage de 18h et un taux de CO2 ambiant. L’épaississement présente un module de cisaillement de 3kPa. Le matériau, qui se présente sous une forme liquide, durcit et grandit avec le temps jusqu’à former un corps solide. Le matériau a démontré, lors des expériences menées par les chercheurs, une capacité d’auto-cicatrisation, comblant les fissures avec la nouvelle matière produite. Ces travaux, publiés dans la revue Advanced Materials, sont une preuve de concept et pourraient constituer la première étape d’une nouvelle classe de matériaux capables de fixer le CO2 pour se régénérer.

Auto-réparation autonome

L’utilisation des chloroplastes n’est pas un aboutissement en soi. En fait, les chloroplastes isolés sont plutôt instables et arrêtent de fonctionner rapidement après quelques heures quand ils sont hors d’une plante. Dans leurs travaux, le professeur Michael Strano et ses collèges ont trouvé des méthodes pour accroître significativement la durée de vie fonctionnelle de ces chloroplastes, notamment en les stabilisant avec des nanoparticules de dioxyde de cérium. Dans les prochaines recherches, ils devraient remplacer ces chloroplastes par des catalyseurs non biologiques. Un des avantages potentiels de ce genre de matériau est que la capacité d’auto-réparation se fait d’elle-même, en conditions ambiantes, contrairement à la plupart des autres solutions développées aujourd’hui qui nécessitent un activateur externe (chaleur, UV, pression, agent chimique…).

Sophie Hoguin

Retour de l’expédition Tara Pacific : des constats inattendus sur un patchwork corallien

Du canal de Panama au Japon (2016-2017), puis de la Nouvelle-Zélande à la Chine (2017-2018), Tara aura effectué plus de 36 000 prélèvements dans pas moins de 32 sites coralliens : c’est la plus vaste campagne scientifique consacrée à cet écosystème. Depuis son départ de Lorient en mai 2016, la goélette aura parcouru 100 000 km et fait escale dans une trentaine de pays.

Certains récifs très impactés par le réchauffement

Dès novembre 2016, à Ducie Island, à l’ouest de l’île de Pâques, les scientifiques ont observé les premiers récifs impactés par le réchauffement climatique. Un blanchissement qui a atteint 30 à 50 % dans certaines îles des Tuamotu en Polynésie, voire 90 % aux îles Samoa dans le Sud Pacifique en novembre 2016. En Micronésie, aux îles Tuvalu et Kiribati, une partie des récifs étaient déjà morts avant l’arrivée de la goélette, tandis que les récifs de Wallis et Futuna ou des Îles Chesterfield restaient relativement préservés.

Climat global et pollutions locales : un cocktail délétère

C’est un véritable patchwork corallien résultant de perturbations diverses que les chercheurs ont sillonné. La santé des récifs coralliens observés s’avère très contrastée, ils répondent différemment aux stress globaux et locaux. Tara Pacific offre ainsi l’opportunité unique de dissocier les effets des perturbations locales (pollutions, urbanisation, sédimentation due à l’érosion des sols, techniques de pêche invasives…) de l’incidence des changements globaux (réchauffement climatique global, acidification de l’océan…) et de mesurer l’état de santé de populations coralliennes soumises à ces deux types de perturbations. Un premier constat qui renforce l’importance du développement local durable pour la santé de ces écosystèmes, rappelant ainsi que le changement climatique global ne doit pas empêcher la mise en place de pratiques et politiques publiques durables ambitieuses.

Des données inédites

Grâce à cette expédition, les scientifiques ont récolté des données précieuses qui, après analyses, permettront de comprendre le fonctionnement des coraux et des micro-organismes qui le constituent. L’étude de leur génome devrait notamment livrer des informations sur les mécanismes régissant les capacités d’acclimatation du corail aux variations de l’environnement. Il serait ainsi possible d’identifier les conditions optimales permettant d’assurer la survie des coraux en fonction des paramètres environnementaux et biologiques des récifs coralliens mais aussi de leur microbiote (virus, bactéries, …).

Dans le sillage de l’expédition Tara Oceans (2009-2013), Tara Pacific offrira, grâce aux mêmes méthodes de séquençage, de stockage de données et d’analyses bioinformatiques, la possibilité de décrire les microorganismes des récifs coralliens et leurs interactions encore inconnues. Elle mettra à disposition de la communauté scientifique internationale une base de données inédite sur les récifs coralliens, permettant de dévoiler la biodiversité d’un récif, à la fois génomique, génétique, virale et bactérienne. Autre caractère spécifique de cette expédition : son approche multidisciplinaire, associant biologistes coralliens, généticiens, océanographes, spécialistes du plancton et des poissons de récifs, bio-informaticiens et même médecins !

Donner le temps aux récifs de se reconstruire pour affronter les stress successifs

La Fondation Tara appelle à la mise en œuvre urgente d’actions locales pour atténuer les stress directs subis par les récifs, sans oublier l’urgence de réduire les émissions de gaz à effet de serre. Prolifération des déchets plastiques, tourisme non durable dans les lagons, effluents de l’agriculture et de l’élevage ou encore grandes infrastructures côtières, tous ces facteurs aggravent la situation. Il apparaît qu’une prise en compte renforcée des impacts environnementaux fournira des résultats à court terme.

Six actions locales, immédiates
•    Améliorer la gestion des déchets, notamment plastiques,
•    Limiter l’impact de l’agriculture, de l’élevage et de leurs effluents
•    Limiter la déforestation pour stabiliser les sols et éviter ainsi le recouvrement des récifs par les sédiments
•    Interdire ou limiter les méthodes de pêche les plus destructrices
•    Prendre en compte en tout premier lieu le critère environnemental dans le développement de grandes infrastructures côtières, telles que digues, ports industriels, etc.
•    Impliquer et sensibiliser les populations locales pour qu’elles préservent leur propre environnement.

Source : cnrs

Stocker des données sur des atomes

À l’heure actuelle, les éléments qui stockent les bits sur les disques durs sont mille fois plus gros qu’un atome. Demain, on stockera peut être justement sur des atomes ! Des scientifiques de l’Université Radboud ont en effet découvert un nouveau mécanisme de stockage magnétique de l’information dans la plus petite unité de matière : un seul atome.

« Les ordinateurs ont atteint des limites fondamentales à propos de leurs performances et ils consomment beaucoup d’électricité, actuellement plus de 5 % de l’électricité mondiale. La science fondamentale montre que nous pouvons gagner beaucoup plus en efficacité énergétique. Mais nous nous concentrons sur un élément essentiel aujourd’hui : améliorer leur capacité de stockage. Nous utilisons les atomes, parce qu’ils sont la plus petite unité de matière et parce qu’ils nous permettent également de mieux comprendre la science fondamentale », explique un des membres de l’équipe, Brian Kiraly.

Cette annonce incite à être optimiste car différentes contraintes rendaient, jusqu’à présent,  impossible ce type d’opération. Depuis dix ans, les chercheurs n’arrivaient pas à répondre à différentes problématiques : comment permettre à l’atome de cesser de se retourner, combien d’atomes sont-ils nécessaires pour stabiliser l’aimant et combien de temps peut-il conserver l’information avant de se retourner à nouveau ?

Substrat spécial

Mais au cours des deux dernières années, des scientifiques de Lausanne et d’IBM Almaden ont trouvé comment empêcher l’atome de se retourner. Seul bémol, ce processus marche à des températures très basses, 40 Kelvin ou -233 degrés Celsius… Impossible de l’appliquer dans la vie de tous les jours. Néanmoins, ces travaux avaient permis de constater qu’un seul atome peut être un souvenir.

Une étape majeure a donc été franchie par l’équipe de Radboud. Afin de contourner les problèmes classiques d’instabilité, les scientifiques se sont appuyés sur un substrat spécial, le phosphore noir semi-conducteur. À l’aide d’un microscope à effet tunnel, ils ont pu « voir » des atomes de cobalt simples sur la surface du phosphore noir. En raison de la résolution extrêmement élevée et des propriétés spéciales du matériau, ils ont démontré que les atomes de cobalt pouvaient être manipulés dans l’un des deux états binaires.

Cette piste pourrait aussi permettre le stockage magnétique  à température ambiante. Il serait ainsi possible de stocker beaucoup plus d’informations qu’avec les disques durs actuels. Bien que les résultats soient prometteurs, les promesses de cette avancée restent pour l’instant hypothétiques. Il n’y a pas encore de matériel qui puisse tirer profit des résultats des chercheurs.

Philippe Richard

Choisir sa formation d’ingénieur, un pari sur l’avenir

Campus-Channel propose de l’aider à trouver sa voie ! En se rendant sur le site, il trouvera une boîte à outils unique pour s’informer de manière ludique et interactive sur les meilleures écoles et universités. 100% gratuite et libre d’accès, la plateforme met à disposition plus de 450 vidéos chaque année.

Quoi de mieux pour choisir son cursus que d’interroger directement les responsables des programmes et les étudiants qui le suivent ? Grâce aux Lives, le futur étudiant a la possibilité de poser ses propres questions, en direct.

 

Il a envie de découvrir les coulisses de sa future école ? Une équipe de reporters va sur le terrain pour montrer à quoi elle ressemble, comment se déroulent les cours, et à quelle ambiance il faut s’attendre. C’est l’Envers du Campus ! Et pour carrément vivre une journée en totale immersion, il choisira le format Welcome To : le journaliste se glisse dans la peau d’un étudiant pour tester l’accueil et l’intégration sur place.

 

Admissible à une école, 1000 questions se bousculent dans sa tête : “comment se déroulera ma journée d’oral ?”, “Serai-je logé une fois sur place ?” Un live spécial est prévu pour répondre à toutes ses inquiétudes avant le jour J.

 

Pour connaître l’ADN de l’école qui l’intéresse en un temps record, il optera pour le Flash ! 1’30 de questions / réponses en 1’30.

 

« A quoi ça mène ? » Une question cruciale que les futurs étudiants sont amenés à se poser au moment de choisir leur orientation. Avec son format “Les Ex’Pairs”, des Anciens partagent leur parcours professionnel et font le lien entre leur formation et leur carrière. Un bon moyen pour se faire une vraie idée sur les débouchés d’une école !

 

Dernière nouveauté : un format spécial parents le « Parental Advisory » pour qu’ils puissent interagir directement avec les directeurs d’écoles.

Des grues et du béton pour stocker de l’énergie

Produire de l’énergie en suffisance, on sait faire. Produire de l’énergie pas chère, on sait faire. La stocker de manière rentable économiquement, c’est pas encore ça. Pourtant des solutions technologiques font régulièrement surface. Comme celle qui consiste à utiliser la gravité pour récupérer l’énergie potentielle de la chute d’un fût de béton. Le principe énergétique est le même que celui d’un barrage hydroélectrique : quand l’électricité est en surplus, on s’en sert pour pomper de l’eau en haut d’un barrage. En cas de pénurie, l’eau s’écoule vers le bas en faisant tourner des turbines qui produisent de l’électricité. Dans le cas présent, quand il y a surplus, on monte des blocs de béton en haut d’une grue qui construit une tour. Lorsque la demande se fait sentir, les fûts sont lâchés au bout d’un câble et actionnent des moteurs. Avantage : pas besoin de grandes ressources en eaux ni de relief, et une installation beaucoup moins coûteuse. En outre, le béton étant bien plus dense que l’eau, il peut stocker de l’énergie cinétique de manière également bien plus dense.

Un démonstrateur déjà opérationnel

Energy Vault, créée par Bill Gross, un entrepreneur américain, et Andrea Pedretti, un ingénieur suisse, est basée en Suisse où un premier démonstrateur du concept a déjà été construit. Il mesure un dixième de la taille prévue pour une installation à pleine échelle. Actuellement, la grue de 20 m de haut est munie d’un bras pouvant prendre en charge des blocs de 500 kg. À terme, l’installation se composera d’un pilier de 120 m de haut muni de 6 bras de grues en étoile, qui actionneront des fûts de 35 t de béton pour les monter en tour, autour du pilier central, sous les bras.

Le tout sera automatisé, dirigé par des caméras embarquées et fonctionnera grâce à des algorithmes qui calculeront quels bras doivent prendre quel fût et où, faisant en sorte de compenser les mouvements d’oscillation provoqués par le vent. Quand la tour sera entièrement construite, l’énergie totale ainsi stockée variera entre 10 et 35 MWh.

L’efficacité du système est évaluée à 85 %, comparable donc à des batteries lithium-ion dont l’efficacité se situe autour de 90 %, et supérieure à celle de l’hydroélectrique qui est plus proche de 75-80 %.

Le béton, c’est trop cher

Très vite, Energy Vault a réalisé que dans cette idée, le béton, bien qu’étant un matériau peu coûteux, plombait le budget de l’installation. Aussi, l’idée a germé d’utiliser des déchets et, en l’occurrence, des déchets du BTP, tels que gravats et bétons issus de démolitions. Energy Vault a donc développé une machine qui permet de mélanger ces déchets avec une partie de ciment neuf pour fabriquer les blocs de béton utiles à sa tour d’énergie.

À présent que le concept est validé, la partie commerciale a débuté. L’entreprise espère construire ses premières unités commerciales dès 2019 grâce à des contrats en Inde et au Texas. En tablant sur le fait que plus les commandes seront importantes, plus le coût de construction et d’exploitation pourra diminuer, mais aussi que ces installations sont simples, durables, fiables, la start-up pense pouvoir occuper un segment du marché du stockage de l’énergie en surplus sur les réseaux.

Par Sophie Hoguin

Les lézards rêvent-ils comme nous ?

Pendant les heures de sommeil, l’organisme s’attelle à de multiples activités vitales : consolider les connaissances apprises pendant la journée, nettoyer le cerveau des déchets du métabolisme, produire des hormones, réguler la température, se réapprovisionner en énergie. Ce phénomène physiologique conservé au cours de l’évolution semble partagé par tout le règne animal. Mais on a longtemps pensé que seuls les mammifères terrestres et les oiseaux possédaient deux états de sommeil : le sommeil lent et le sommeil paradoxal. Celui-ci, associé aux rêves, est une phase complexe qui plonge le corps dans un état ambigu, entre sommeil et éveil.

Une étude publiée dans Science en 2016 s’est penchée sur le dragon barbu (Pogona vitticeps) en démontrant qu’il passait par deux états distincts de sommeil. Elle émettait ainsi l’hypothèse selon laquelle les phases de sommeil seraient apparues chez un ancêtre commun aux mammifères et aux reptiles, il y a 350 millions d’années.

Les chercheurs du CNRS et de l’Université Claude Bernard Lyon 1 ont, dans un premier temps, réitéré l’expérience faite sur le dragon barbu. Ils ont ensuite mené une nouvelle étude sur une autre espèce de lézard, le tégu argentin (Salvator merianae). Les résultats confirment que les deux lézards manifestent deux états de sommeil distincts, partageant des similitudes avec le sommeil lent et le sommeil paradoxal.

Cependant l’analyse de différents paramètres comportementaux, physiologiques et cérébraux va encore plus loin en mettant en exergue des différences non seulement entre le sommeil des lézards et celui des mammifères et oiseaux mais également entre les deux espèces de lézards. Alors que le sommeil paradoxal des humains présente des activités cérébrales et oculaires semblables à celles de l’éveil dans un corps ensommeillé, celui des lézards se distingue par une activité des yeux plus lente et, pour le tégu, une activité cérébrale bien différente de l’éveil.

Ces différences révélées par l’étude offrent une vision plus complexe de ce qu’est le sommeil paradoxal au sein du règne animal, ouvrant ainsi de nouvelles portes vers la compréhension de l’origine de notre propre sommeil, de nos rêves… et de ceux des lézards.

Source : cnrs

L’impact numérique des entreprises françaises dévoilé

En mars 2018, WWF France et le club GreenIT ont lancé une étude à grande échelle auprès de grandes entreprises françaises. Nommée We GreenIT, cette étude identifie les rapports existant entre utilisation du numérique et empreinte écologique dans les sociétés interrogées. Le point d’ancrage central pour les initiateurs de l’étude était de rappeler à quel point les outils numériques peuvent être des couteaux à plusieurs tranchants dans cette problématique.

Les grandes entreprises affichent leur bonne volonté

Sur 150 entreprises approchées, seules 24 ont accepté de répondre à We GreenIT. Par leur intermédiaire, divers secteurs d’activités sont quand même représentés. Ainsi, La Poste, Natixis, la Société Générale ou encore la SNCF ou Leroy Merlin ont accepté de voir leur routine numérique passée au crible. Et les leçons sont claires. L’impact environnemental numérique des entreprises est tout d’abord causé par la fabrication des équipements informatiques. Cette activité est en effet responsable de 29 % de la consommation énergétique, 54 % des émissions de gaz à effet de serre (GES), 61 % de l’utilisation d’eau et de 97 % d’épuisement des ressources liées à l’activité des entreprises.

WWF France affirme toutefois que même si « le digital pollue », il « constitue une formidable opportunité d’accélérer la transition écologique ». Dans ce sens, il semble nécessaire que les entreprises sachent utiliser les outils numériques à bon escient et en vue d’une consommation responsable. Sur ce point, il est clair que certaines pratiques, telles que la réduction du nombre d’impressions et l’augmentation significative de la durée de vie des équipements, avec une généralisation du réemploi, se sont démocratisées. Ce sont désormais 58 % de ces impressions qui sont systématiquement effectuées sur papier recyclé. Pour autant, d’autres efforts restent encore attendus, comme dans le domaine de la gestion des DEEE, de l’éco-conception ou de la gouvernance du numérique responsable. Cela se traduit dans le score de maturité des entreprises en termes de pratiques responsables sur la question du numérique qui atteint 59/100. Le rapport note un écart important entre l’entreprise la moins mature (40/100) et la plus mature (77/100).

Le numérique responsable, ou un impact réel sur la pollution

Ce rapport veut sensibiliser les entreprises au fait que, dans le cadre de la lutte globale contre la pollution, les comportements responsables en matière de numérique doivent se développer. Frédéric Bordage, fondateur de GreenIT.fr, rappelle que, « à l’échelle mondiale, les usagers numériques dans le monde représentent deux fois l’empreinte environnementale de la France ». Autrement dit, nous utilisons chaque année 1037 térawattheure (Twh) d’énergie primaire, 9 milliards de m3 d’eau, et émettons 608 millions de tonnes de GES. WWF France affirme également que l’usage d’Internet génère autant de GES que les transports aériens !

Par Matthieu Combe, journaliste scientifique

L’économie circulaire teste sa première norme

Depuis peu, l’économie circulaire est dans la bouche du gouvernement et des industriels. L’Afnor avait répondu à l’appel de plus de 50 organisations à la recherche d’une approche concertée. Presque deux ans après, ce travail a donné naissance à la norme Xp X30-901. Elle est désormais à la disposition de tous les acteurs socioéconomiques qui souhaiteraient engager des expérimentations à l’échelle d’une ville, d’une agglomération ou d’une administration et, bien entendu, d’une entreprise. La fin de la période d’essai est fixée au 30 septembre 2021.

Une norme pour parler de la même économie circulaire

Cette norme volontaire invite toute organisation à mettre en place un système de management de projet d’économie circulaire. Pour ce faire, elle croise les trois dimensions du développement durable (environnement, économie, sociétal) avec les sept domaines d’action de l’économie circulaire. Ces derniers couvrent l’approvisionnement durable, l’écoconception, la symbiose industrielle, l’économie de la fonctionnalité, la consommation responsable, l’allongement de la durée d’usage et la gestion efficace des matières ou produits en fin de vie.

À l’image des méthodes éprouvées pour le management de l’énergie et de l’environnement, la norme XP X30-901 définit les termes, principes et pratiques, et énonce des lignes directrices, recommandations et exigences relatives au système de management de projet d’économie circulaire. Les organismes les plus volontaristes pourront solliciter une certification de la part d’un organisme tierce-partie.

Une norme pour quels projets ?

La notion de « projet » est à entendre au sens large. La norme précise que « est identifiée comme projet toute ambition de changement portée par un organisme visant à faire évoluer partiellement ou totalement son activité vers un modèle plus efficace simultanément dans l’utilisation des ressources, limitant l’impact environnemental de ses activités et améliorant le bien être des individus ». Il concerne à la fois « les activités, produits ou services » de l’organisme.

L’organisation international de normalisation (ISO) vient de lancer ses propres travaux sur l’économie circulaire. Ils se dérouleront sous présidence française, avec comme base de travail, le texte français. L’Afnor lance donc un nouvel appel à participation pour rejoindre la commission de normalisation  « Economie circulaire ». Celle-ci regroupera toutes les parties prenantes intéressées désireuses de participer à l’élaboration de cette nouvelle norme internationale. L’Afnor y attend des associations, industriels, sociétés de services, collectivités locales, institutions dont le ministère de la Transition écologique et solidaire, l’Institut National de l’Economie Circulaire et l’ADEME.

Par Matthieu Combe, journaliste scientifique

32 % des substances chimiques enfreignent REACH

Le marché lié à l’industrie chimique en Europe est en proie à un scandale d’envergure. Après trois années de recherches menées conjointement par l’Institut fédéral allemand d’évaluation des risques (BfR) et l’Agence allemande pour l’environnement (UBA), il apparaît que 32 % des substances chimiques présentes sur le marché européen depuis 2010 ne sont pas conformes à la réglementation en vigueur. Leur rapport indique également que 31 % des substances analysées sont déclarées conformes, et que les 37 % restants n’ont pas pu être convenablement analysées faute de données suffisantes. Les recherches ont été menées sur les 1 814 substances chimiques commercialisées en Europe.

L’une des conséquences directes de cette affaire est de pointer du doigt la réglementation REACH mise en place depuis 2007. Le BfR discute l’efficacité de ce dispositif qui a pour objectif premier de préserver la santé humaine et l’environnement. Or, il y a eu, en tout état de cause, des dysfonctionnements. REACH prévoit normalement que les entreprises fassent répertorier les substances chimiques qu’elles commercialisent par l’Agence européenne des produits chimiques (ECHA). En principe, une telle mesure aurait dû suffire pour contrôler les substances utilisées. Il s’avère en réalité que l’ECHA n’est tenue de contrôler que 5 % des dossiers qu’elle reçoit. Voilà un élément qui permet donc de discuter l’efficacité des mesures prises dans le cadre de REACH.

Des substances potentiellement cancérogènes omniprésentes

Les résultats de l’étude ont confirmé la présence en grand nombre de substances reconnues comme étant potentiellement cancérogènes et mutagènes, telles que le bisphénol A ou les phtalates. C’est un réel problème de santé publique car ces substances se retrouvent partout, et notamment dans les emballages alimentaires. Pour le Bureau européen de l’environnement (BEE), qui a rendu l’étude publique, ceci est totalement dû aux industriels qui oublient de « signaler à l’Agence européenne des produits chimiques si leurs substances sont cancérigènes, neurotoxiques, mutagènes, bioaccumulables et/ou nocives pour le développement des enfants, ou pour la fertilité humaine ».

De son côté, l’industrie chimique ne semble pas étonnée. L’union des syndicats professionnels France Chimie juge ces révélations « non surprenantes », avant d’ajouter que cette situation est liée à l’évolution de la réglementation REACH. Ainsi, France Chimie semble vouloir limiter la responsabilité de l’industrie en rappelant que les critères de conformité de la réglementation européenne se sont durcis en dix ans. Cependant, la fédération concède que l’industrie chimique doit faire des efforts en termes d’enregistrement des substances employées. À l’heure actuelle, cela semble être la seule solution pour protéger la santé des citoyens européens.

Les anti-pesticides enragent au niveau politique

Au Parlement européen, la nouvelle venue du BEE fait grincer des dents. Michèle Rivasi, la députée européenne et coordinatrice de la Commission PEST, tire à boulets rouges sur une industrie qu’elle n’hésite pas à qualifier de brigande. « Défaillance généralisée des pouvoirs publics et manquements graves à leurs obligations face à une industrie de gangsters, voilà en substance les ingrédients de ce nouveau scandale qui s’apparente à un remake du Dieselgate pour l’industrie chimique », déclare-t-elle en faisant ainsi référence au scandale qui avait touché Volkswagen en 2015.

Pour Michèle Rivasi, il est évident que l’industrie chimique ne prend pas assez en compte les problématiques liées à la santé. Elle aimerait que les professionnels ne voient plus les réglementations comme des « charges administratives entravant la compétitivité ». La députée européenne souhaiterait que la santé des Européens et la préservation de l’environnement soient les préoccupations premières des industriels, et que l’innovation aille en ce sens.

Matthieu Combe, journaliste scientifique

La puissance de la data science, du cloud et de l’IA pour identifier des gisements d’économies d’énergie dans l’industrie

à Arnaud Legrand, Fondateur & CEO de Energiency

Vous avez été lauréat du challenge Industrie du Futur SKF Atos 2017, dans la catégorie « Industrie 4.0 ». Avec plus de 30 prix « innovation » à votre actif, vous êtes un heureux habitué de ce type de challenge. Dans ce cas particulier, vous avez travaillé pendant quelques mois avec un mentor, François Niarfeix, Manager of product development sensorized bearings de SKF France. Quel retour d’expérience pouvez-vous en faire ?

Le concept d’Usine 4.0 suggère une dimension de sobriété en ressources et en énergie. SKF tenait absolument à ce que son projet prenne en compte cette dimension, avec un volet Energie 4.0 vitrine de leur démarche. François Niarfeix nous a aidé à identifier la bonne équipe au sein du Groupe pour faire émerger un cas d’usage avec notre technologie d’analyse de la performance énergétique industrielle. Entre conseils et promotion de la démarche en interne, cette collaboration a été passionnante, et nous a permis d’être très efficaces et d’avoir de l’impact auprès des équipes métiers d’SKF, ce qui est incontournable pour réussir un tel projet.

La start-up Energiency a été créée en 2013, par des ingénieurs issus de l’industrie et des chercheurs en informatique (INRIA) spécialistes de l’Industrie du Futur. 5 ans après, quelle vision avez-vous de cette industrie 4.0 ?

Les industriels sont aujourd’hui de plus en plus équipés de compteurs d’énergie dits « intelligents ». Dans la pratique, ces compteurs sont surtout communicants, et produisent beaucoup de données inexploitées. 80% des industriels en Europe utilisent encore un tableur pour analyser ces données, et cet outil est clairement inadapté pour prendre les bonnes décisions en temps réel dans l’usine. Rendre l’industrie 4.0 intelligente et sobre en énergie passe donc par des outils puissants d’analyse, capables, grâce à la data science et l’intelligence artificielle de croiser les données brutes issues des compteurs avec des données contextuelles : production, maintenance, plannings, météo, etc. En 5 ans, les choses se sont fortement accélérées, avec un parc de capteurs toujours plus nombreux et des données maintenant disponibles en temps réel via des API. Nos outils sont maintenant capables de transformer en temps réel ces données brutes en nouveaux gisements d’économies d’énergie, en identifiant des marges de progrès permettant de générer jusqu’à 15% d’économies, et ce sans investissement, et donc un ROI très court (moins de 6 mois). L’algorithmie au coeur de notre technologie est par ailleurs capable de fournir ces résultats quel que soit la taille de l’entreprise et le secteur : agroalimentaire, automobile, chimie, papier, matériaux, etc.

Dès 2017, vous avez levé 2,7 M€ avec les fonds d’investissement ISAI, Go Capital et West Web Valley pour accélérer votre activité en Europe ; vous comptez aujourd’hui 24 collaborateurs (data scientists, développeurs, opérationnels, commerciaux). Quels sont vos nouveaux défis ?

Nous sommes très fiers d’avoir été lauréats du challenge Atos / SKF Usine du Futur, et d’avoir pu démarrer à cette occasion avec SKF. Notre projet avec SKF continue et se développe aujourd’hui avec un fort potentiel. Nous avons par ailleurs été lauréats la semaine dernière du Digital Industry Summit Atos / Siemens dans la catégorie Smart Energy. Ce genre de tremplins nous permet d’envisager une collaboration avec de grands intégrateurs comme Atos, et d’accélérer notre développement commercial à plus grande échelle, notamment à l’international.