Trop peu de progrès pour la sécurité des systèmes informatiques des entreprises

Cette enquête Mips (« Menaces informatiques et pratiques de sécurité en France ») est réalisée tous les deux ans auprès d’entreprises de tailles et de secteurs variés. Pour l’édition 2018, 350 entreprises ont répondu et 200 établissements de santé. Les thèmes abordés sont calqués sur ceux de la norme ISO 27002:2013 relative à la sécurité des systèmes d’information.

Entreprises : encore trop peu de RSSI

Selon les auteurs de l’étude, la « maturité » des systèmes de sécurité de l’information (SSI) des entreprises stagne. En effet, si par exemple la mise en place d’organisations ou de structures dédiées augmente au fil des ans, elles n’ont pas forcément le budget ou un système organisationnel permettant d’être efficace.

La fonction de responsable de la sécurité des systèmes d’information (RSSI) recule par rapport à 2016 (63 % contre 67%) sauf dans les banques-assurances qui en sont pourvues à 85 %. Cependant, elle est désormais plus rattachée à la direction générale (49%) qu’à la direction des services informatiques (30%), un point positif pour lui donner du poids et un pouvoir d’arbitrage. Mais attention, ces chiffres globaux masquent des disparités très fortes entre les grandes à très grandes entreprises et les plus petites.

En outre, l’approche des risques est encore loin d’être préventive : les budgets sont consacrés à la mise en place de solutions techniques telles que des pare-feu, des anti-spams et anti-virus mais les systèmes de gestion des informations et des événements de sécurité (SIEM) ou les autres outils de contrôles d’accès ou de contrôles des fuites sont faiblement développés (respectivement par 38 % et 14 % des entreprises interrogées), les entreprises inventorient les risques (80%) et mettent en place des politiques (75%) mais ne les évaluent pas réellement (29 % le font seulement).

Des dispositifs partiels, pas de suivi

De manière générale si les pratiques évoluent vers dans le bon sens, l’efficacité finale est encore faible. Ainsi, 72 % des entreprises ont banni l’usage des équipements personnels, 75 % d’entre elles réalisent une veille permanente en vulnérabilités et en solution de sécurité de l’information et les entreprises identifient plus vite et réagissent mieux en cas d’incidents puisque désormais les incidents sont traités en moins de 24h pour 70 % d’entre elles (contre 58 % en 2016). Mais pour autant, il y a peu de collecte systématique de l’information et quand elle existe elle n’est pas analysée, il y a peu d’audit, de tests et de contrôles et quand ils sont réalisés c’est souvent sous l’impulsion d’exigences contractuelles ou réglementaires ou par des tiers. Quand il existe des plans de continuité d’activité, au moins un quart d’entre eux n’ont pas été testés. Et si 50 % des entreprises ont inventorié leurs actifs informationnels (33 % en 2016), cet inventaire est souvent partiel pour 70 % d’entre eux et à la suite de cet inventaire seuls 23 % l’ont analysé. Si bien que les auteurs se demandent comment les plans de réduction des risques peuvent être efficaces si on ne sait pas exactement où sont les risques…

Etablissements de santé : bien mieux qu’il y a 4 ans

L’édition 2018 de l’étude fait un focus sur les établissements de santé de plus de 200 lits, comme en 2014. Et les efforts sont là vraiment notables. Ainsi, les établissements ayant formalisé un plan de sécurité des systèmes d’information est passé de 50 % en 2014 à 92 % en 2018. Plus de la moitié des établissements ont créé un poste de RSSI à plein temps et 60 % ont mis en place des programmes de sensibilisation auprès des professionnels, des chiffres qui ont doublé en quatre ans.

Les marges de progrès restent cependant encore importantes, le Clusif note par exemple que la cryptographie n’est pas encore assez exploitée, seuls 40 % des établissements y ayant recours, ce qui reste toutefois mieux que les entreprises (30%).

Parmi les freins identifiés, le budget est encore largement cité (même si ceux-ci sont en augmentation) ainsi qu’un manque de personnel qualifié.

Dans ce secteur, les pannes d’origine internes sont la cause principale des incidents au même titre que les virus (40% chacun) et nombre d’incidents sont liés à des erreurs de conception, de mise en œuvre de logiciels ou d’utilisation. Cependant, l’étude souligne que le nombre d’incidents est deux à trois fois moindre qu’en 2014 et que 75 % d’entre eux sont résolus en 24h.

Sophie Hoguin

À l’usine, au bureau, tous remplacés par des robots ?

Nous roulions dans une rue, j’examinai anxieusement les policiers et les agents d’entretien : c’étaient des robots. Un épicier se retourna avec curiosité : c’était un robot. Je tentai de distinguer les chauffeurs des voitures qui nous dépassaient : elles n’en avaient pas. Face aux clients, à la banque, au restaurant, au salon de coiffure, c’étaient des robots, tous, chatbots et androïdes, à roulettes ou sur des jambes…
Cette scène imaginaire, inspirée du roman de Pierre Boulle La planète des singes, présage-t-elle du futur qui nous attend ? Depuis quelques années, des chiffres tapageurs font les titres de la presse au sujet de l’automatisation du travail, susceptible d’être effectué par des machines ou des logiciels. Selon certaines études, cela concernerait près d’un emploi sur deux dans les dix ou vingt prochaines années ! Après le plombier polonais, le (ro)bot autonome voleur d’emploi s’invite dans les débats…

Combien d’entre nous seront-ils concernés ?

« Ces études se sont notamment basées sur la créativité et la dextérité manuelle requises par un emploi pour déterminer s’il est automatisable ou non », commente Gregory Verdugo, chercheur au Centre d’économie de la Sorbonne. Plus fine, une étude de l’OCDE distingue les différentes tâches d’un même emploi et tient compte du degré d’interaction avec les clients ou les collègues, une capacité gourmande en adaptabilité et, pour l’heure, non automatisable à 100 %. Résultat : « seulement » un emploi sur dix serait menacé par la prochaine « robolution » dans les pays les plus industrialisés.

Avec une approche similaire, l’enquête Insee/DARES arrive à 15 % d’emplois automatisables pour la France. « Bien malin en vérité qui peut prédire ce qui sera techniquement automatisable », intervient Gregory Verdugo selon lequel aucun de ces chiffres ne fait sens. « En 2004, Frank Levy et Richard Murnane, deux économistes de Harvard, classaient la conduite parmi les activités qui échapperaient aux révolutions technologiques parce qu’elle réclame de s’adapter à des situations non prévues. Six ans après la sortie de leur livre, les Google Cars sillonnaient les routes californiennes… », illustre l’économiste.

« Jusqu’à présent, ce sont surtout les emplois non qualifiés qui ont été pourvus ou modifiés par des machines, dans les usines principalement. Aujourd’hui, c’est le caractère routinier ou non d’une activité qui est pris en compte, le fait de suivre une suite d’actions selon un protocole strict », analyse Gilles Saint-Paul, chercheur au sein de l’unité Paris-Jourdan Sciences Économiques. Et routinier ne rime pas forcément avec peu qualifié. Jardiniers et plombiers tirent ainsi leur épingle du jeu, en partie grâce à la souplesse de leurs gestes et à leur facilité de déplacement, bien loin de celles des robots. Tandis que les cols blancs ont de quoi trembler sérieusement, à commencer par les comptables jugés à l’unanimité « très automatisables ».

Selon le New York Times, de nombreuses banques américaines développent des « robo-advisors », logiciels qui gèrent le patrimoine et font fructifier l’argent de leurs clients. Au Japon, Watson, la célèbre intelligence artificielle d’IBM, remplace trente-quatre employés d’une compagnie d’assurance-vie, soit un quart des effectifs. Et on teste des algorithmes pour conseiller juges et avocats à partir de décennies de jurisprudence ou pour distinguer entre mille une tumeur maligne. Chaque jour, ou presque, de nouvelles prouesses émaillent la rubrique high-tech des webzines, laissant perplexes les jeunes cadres dynamiques.

Source: CNRS

Un matériau pneumatique entièrement imprimé en 3D

Plusieurs défis ont été relevés pour aboutir aux premiers résultats présentables du projet « Liquid Printed Pneumatics », une collaboration entre le MIT Self-assembly Lab et le constructeur automobile BMW. Il fallait trouver un matériau liquide qui durcisse avec le temps tout en gardant des propriétés élastiques suffisantes pour supporter d’être gonflé et il fallait trouver une technique d’impression 3D qui permettent de fabriquer des objets de grande taille, rapidement avec ce matériau.

La voie ouverte par le « Rapid Liquid Printing »

Cette nouvelle technologie de fabrication additive pour les polymères et autres matériaux synthétiques a été présenté dans une publication de septembre 2017 de la revue 3D printing and additive manufacturing. Le Rapid Liquid Printing consiste à utiliser une cuve remplie d’un gel. L’impression 3D va se faire au sein de ce gel qui sert de support à la structure construite ; une buse va introduire le matériau de fabrication, non pas forcément couche par couche, mais réellement là où c’est nécessaire, comme un dessin en 3D. Cette buse est portée par une structure robotisée qui est commandé numériquement. La cuve peut donc être potentiellement de n’importe qu’elle taille et l’objet fabriqué aussi. Le matériau reste en place au sein du gel sous sa forme finale, jusqu’à ce qu’il durcisse. Un procédé rapide (comparé aux autres procédés de fabrication additive) et qui permet de s’affranchir de toute limite de taille.

Un caoutchouc de silicone gonflable

BMW et le MIT Sefl-assembly Lab ont choisi un caoutchouc de silicone comme matériau pour leur démonstrateur. Après deux ans d’études, les premiers résultats prennent donc la forme de coussinets gonflables assemblés les uns aux autres. Les coussinets se gonflent à l’air et selon la pression appliquée leur gonflement, plus ou moins important va faire varier la forme de la structure générale et/ou sa fermeté. Un exemple marquant de ce que la fabrication additive apporte comme liberté pour repenser les formes et les fonctions des objets, évolutives dans le temps ou en fonction de certains paramètres commandables.

Le fruit de ce partenariat entre un industriel et un laboratoire de recherche est visible à l’exposition The Future Starts Here, à Londres jusque début novembre 2018.

pneu1pneu2pneu3

Sophie Hoguin

Un biopolymère à base de lignine pour l’impression 3D

Les matériaux végétaux pour l’impression 3D sont pléthores. Cependant, ils sont encore bien souvent marginaux ou réservés à des utilisations ponctuelles pour des particuliers. Mais les biopolymères ont toute leur place dans l’impression 3D comme le prouve ce nouveau matériau proposé par l’Oak Ridge National Laboratory (ORNL). Ce laboratoire américain a développé un biocomposite à base de lignine qui peut être utilisé pour faire de l’impression 3D à l’échelle industrielle. Une démarche intéressante surtout quand elle utilise les coproduits d’autres filières végétales. Le nouveau matériau mise en œuvre dans ce laboratoire de recherche américain est un mélange de lignine, de caoutchouc synthétique (styrène-butadiène), de fibres de carbone et d’ABS (acrylonitrile butadiène styrène). Ces travaux ont donné lieu à un dépôt de brevets et ont été publiés dans la revue Applied Materials Today.

Des fibres de carbone clés

L’ORNL a profité de son expérience de plus de 5 ans avec les matériaux à base de lignine pour ces recherches. La lignine, composant clé des cellules végétales et qui leur confèrent leur rigidité est un coproduit abondant de certaines filières végétales comme les biocarburants. Au départ, les recherches ont seulement porté sur un apport de lignine à un mélange de thermoplastiques (caoutchouc synthétique + ABS), mais les chercheurs ont fait face à des difficultés pour préserver la fluidité du mélange lors du chauffage. Ils ont alors eu l’idée d’ajouter 10 % de fibres de carbone discontinues (Cfs). Cet ajout a été décisif pour l’obtention de propriétés très intéressantes : non seulement le mélange a été amélioré mais cela a aussi permis de renforcer les liaisons entre les différentes couches déposées lors de la fabrication avec une adhésion intercouches améliorée de 100 %. Par ailleurs, la lignine et les fibres de carbones confèrent au matériau final qui contient 40 % de lignine, de très bonnes propriétés mécaniques que les chercheurs espèrent encore améliorer. En outre, la technique mise au point en laboratoire peut être facilement transférée à un niveau industriel.

D’autres coproduits sont en 3D

Ce n’est pas la première fois que les nouveaux matériaux conçus pour l’impression 3D cherchent à utiliser des coproduits ou des déchets. On peut par exemple citer les divers produits au catalogue de l’américain 3D Fuel. L’entreprise a composé une gamme de filaments biocomposites en partenariat avec c2rnew, un spécialiste des matériaux composites utilisant des résidus, coproduits et déchets issus de l’agriculture ou du traitement des déchets. La gamme comprend aujourd’hui quatre filaments différents incorporant des drêches de bière, du chanvre, du marc de café ou encore des cendres d’incinération. Mais on peut aussi trouver des filaments à base d’algues chez Algix 3D et potentiellement toutes sortes de biopolymères peuvent être adaptés. Par exemple, Eric Klarenbeek et Maartje Dros, deux designers hollandais, travaillent ainsi avec des biopolymères à base d’algues, de mycélium, d’amidon de pommes de terre ou de coques de noix de coco.

Sophie Hoguin

Galileo : le concurrent du GPS trace sa route

Avec ce lancement (en direct à 13 h 25 heure de Paris depuis le site www.esa.int), Ariane 5 porte de 22 à 26 le nombre de satellites composant la constellation Galileo. 24 sont opérationnels et placés à 23 222 km tandis que six satellites serviront de «roue de secours».

Cette mise sur orbite permettra d’améliorer la précision du positionnement et la couverture mondiale du système de navigation (mis en service en… 2008) dont les premiers services remontent à 2016.

Près de 100 millions de terminaux commerciaux exploitent déjà les données de Galileo. Avec ce dernier lancement, le GPS européen pourrait passer à 200 millions d’utilisateurs.

Galileo fournit un service de positionnement global très précis (grâce à des fréquences doubles en standard, la précision en temps réel atteint le mètre) et garanti sous contrôle civil. Il est interopérable avec le GPS et Glonass, qui sont respectivement les systèmes mondiaux de navigation par satellite des États-Unis et de la Russie.

galileo_control_centre_gcc-d_oberpfaffenhofen_1-18_gcc_44 (1)

eCall : des secours plus rapides

L’aide à la navigation automobile sera améliorée. Les informations de positionnement affichées par les smartphones (une soixantaine de modèles sont compatibles et une trentaine de fabricants de puces proposent des solutions) seront plus précises et plus fiables, en particulier dans les environnements urbains où les rues étroites et les grands immeubles bloquent souvent les signaux satellites.

Mais la grande nouveauté devrait être la généralisation du système eCall. Il compose automatiquement le numéro d’urgence unique européen 112 en cas d’accident grave de la route et communique, grâce à Galileo, la localisation du véhicule aux services d’urgence. Le système eCall – qui peut également être déclenché manuellement – ne transmet que les informations essentielles et ne stocke ni n’enregistre les données. On estime qu’eCall réduira le temps de réponse des services d’urgence de 50 % dans les zones rurales et jusqu’à 60 % dans les zones urbaines, sauvant ainsi des centaines de vies chaque année et réduisant les conséquences des blessures.

Galileo aura de nombreux usages. Officiellement reconnu par l’Organisation maritime internationale dans le cadre de son système mondial de radionavigation, Galileo jouera un rôle important dans la navigation maritime. Que ce soit en mer, dans un port très fréquenté ou dans un canal étroit, il devrait contribuer à assurer une navigation plus sûre sur l’eau.

Galileo fournit aussi une fonction globale de recherche et de sauvetage (SAR), basée sur le système opérationnel Cospas-Sarsat. Les satellites sont en effet équipés d’un transpondeur capable de transférer les signaux de détresse des émetteurs de l’utilisateur vers les centres régionaux de coordination du sauvetage, qui déclenchent alors l’opération de sauvetage.

Mais l’enjeu est aussi politique face à l’hégémonie du GPS américain. «Quelque 10 % du PIB européen dépendent aujourd’hui des systèmes de positionnement par satellites, et d’ici à 2030, ce pourcentage pourrait grimper à environ 30 %», justifie le CNES, l’agence spatiale française.

Philippe Richard

Créer de la confiance avec les blockchains

La technologie blockchain est née avec le bitcoin qui reste aujourd’hui l’application majeure et l’exemple le plus remarquable de sa mise en œuvre. Il est cependant apparu qu’à côté de la réussite de cette blockchain particulière, bien des variantes sont possibles, certaines plus complexes, plus puissantes mais plus risquées (Ethereum), certaines plus simples (les blockchains privées).

C’est un volumineux ensemble de méthodes et d’applications qui est en train de naître et qu’on est en train de concevoir en s’inspirant de près ou de loin de la construction inattendue de Satoshi Nakamoto. Il ne fait aucun doute que le rôle de cette technologie nouvelle sera déterminant dans le monde de réseaux qui est le nôtre, où les outils permettant de créer des échanges sécurisés d’informations, de valeurs et de confiance seront des clés du progrès.

BLOCKCHAINDEF

Infographie réalisée à partir de l’article H5538 de Jean-Paul DELAHAYE

Le gouvernement construit doucement la mobilité propre

Familiarisez-vous avec les «zones à faibles émissions» (ZFE), ces zones  où la circulation automobile va devenir de plus en plus restreinte. Pour l’instant, seul Paris et dans une moindre mesure Grenoble ont déployé une telle zone, fonctionnant grâce au système des vignettes Crit’Air. Les ZFE constituent désormais l’axe principal de ce nouveau plan pour diminuer la pollution de l’air dans les territoires les plus touchés. L’Etat souhaite nouer un partenariat volontaire et prioritaire avec les 14 territoires renvoyés par  Bruxelles devant la Cour de justice européenne pour des dépassements répétés des valeurs limites d’exposition au dioxyde d’azote (N2O), gaz toxique émis notamment par les véhicules diesel. Sont concernés les agglomérations de Paris, Marseille, Nice, Toulon, Lyon, Grenoble, Saint-Etienne, Valence, Strasbourg, Montpellier, Reims et Toulouse. Mais aussi la vallée de l’Arve et la Martinique.

En plus, l’Etat demande à toutes les agglomérations de plus de 100.000 habitants d’évaluer l’intérêt de mettre en place de telles zones. D’ici fin 2020, ces territoires sont invités à mettre en place au moins une ZFE pour y restreindre la circulation des véhicules les plus polluants. Chaque collectivité peut décider du périmètre géographique de la zone, des plages horaires, des catégories de véhicules concernés, des dérogations et de la progressivité des règles dans le temps. L’Etat définira le cadre pour permettre des contrôles automatisés. La signature  des engagements volontaires est prévue le 8 octobre prochain.

Plus de covoiturage et d’autopartage

Dans sa lutte contre la pollution de l’air, le gouvernement compte également sur le développement de l’autopartage et du covoiturage. Afin de diminuer l’autosolisme, dès 2019, les collectivités pourront expérimenter des voies réservées aux véhicules en covoiturage transportant deux ou trois occupants minimum. Elles pourraient être partagées avec les transports en commun et les véhicules à très faibles émissions. L’Etat promet de développer les mesures nécessaires pour contrôler ces nouvelles voies et un cadre fiscal favorable. Dans un domaine proche, le cotransportage de colis sera soutenu.

Les avantages en nature au travail seront réformés pour faciliter le remboursement  par les entreprises d’une part des dépenses de mobilité de leurs salariés en covoiturage ou à vélo. La recharge électrique gratuite fournie par une entreprise à ses salariés ne sera plus considérée comme un avantage en nature et sera donc défiscalisée.

Des objectifs à plus court terme

Dans le cadre de son Plan Climat, Nicolas Hulot espère atteindre la neutralité carbone de la mobilité en 2050 et mettre fin à la vente des voitures neuves émettant des gaz à effet de serre en 2040. Pour y arriver, il faut des objectifs chiffrés à plus court-terme. La loi d’orientation sur les mobilités (LOM) portera donc l’objectif de multiplier par cinq les ventes de véhicules électriques et par quinze les ventes de poids-lourds à faible émission d’ici 2022 par rapport à 2017. Elle définira des trajectoire de transition des flottes maritimes et fluviales par type de flotte, en concertation avec les filières. Outre les discussions internationales sur le transport maritime, la France propose de mettre en place des critères écologiques pour les nouveaux navires, d’exonérer les carburants alternatifs de la TICPE et annonce un plan d’aide à la remotorisation de 8 millions d’euros sur 5 ans pour améliorer la performance environnementale de la flotte dans le secteur fluvial.

La transition nécessite des soutiens et financements. Dans ces conditions, le dispositif de bonus-malus et le déploiement de la prime à la conversion seront maintenus. En plus, le déploiement des bornes de recharge pour les véhicules électriques sera facilité sur les parkings, les autoroutes, les routes nationales et en entreprise d’ici 2022. Le gestionnaire du réseau de distribution prendra désormais en charge 75% des coûts de raccordement de ces bornes, contre 40 % actuellement.

Le dispositif de suramortissement de 40 % qui incite fiscalement les entreprises à acheter des poids lourds moins polluants est prolongé jusqu’en 2021. Il est étendu à toutes les sources alternatives (GNV, biométhane, électrique, hydrogène, ED95) et renforcé pour les petits poids lourds. En particulier, l’Etat soutient le déploiement de 100 nouvelles stations GNV et 2.100 véhicules d’ici 2022. Le Plan hydrogène qui vise à amorcer la filière de mobilité hydrogène s’inscrira également dans la LOM.

Le plan vélo est particulièrement attendu par les ONG. Présenté en septembre prochain, il visera à tripler la part du vélo dans les déplacements, de 2,7 % à 9 % en 2024.  Le gouvernement n’a pas encore fait d’annonces sur le verdissement du transport ferroviaire, une mission étant en cours. Même constat pour l’aéronautique, les assises nationales du transport aérien se déroulent du 20 mars au 15 septembre 2018. Couvrant l’ensemble des impacts environnementaux du secteur, elles serviront de base à un nouveau plan d’actions.

Par Matthieu Combe, journaliste scientifique

Impression 3D d’organes ou de tissus vivants : les promesses du bio-printing

Le bio-printing vise à mettre à disposition des biologistes et des médecins des procédés permettant de déposer des suspensions cellulaires, des solutions aqueuses ou des hydrogels sur des supports biocompatibles, en limitant les différents stress que peuvent subir les cellules par les procédés de fabrication additive pour atteindre une fonctionnalité biologique souhaitée dans les tissus ou organes bio-imprimés.

Relativement aux techniques de fabrication additive classiques, l’impression 3D d’éléments biologiques ajoute un niveau de complexité important aux procédés car il est nécessaire de structurer « intelligemment » des matériaux vivants ou non, mimant la matrice extracellulaire et de contrôler les distributions spatiales de différents types de cellules ou de biomolécules pouvant jouer un rôle sur la différenciation cellulaire, leur croissance ou leur mort.

Dans les faits, la fabrication d’un tissu biologique par bio-printing s’effectue de la manière suivante :

  • une première étape consiste à conceptualiser par ordinateur l’architecture du tissu biologique puis à programmer les paramètres d’impression des « encres » contenant des cellules. Il convient généralement de prévoir un support sur lequel les cellules vont adhérer et se développer. De même, les processus de transfert nutritionnel doivent être anticipés pour permettre un développement effectif des cellules ;
  • les « tissus biologiques » sont ensuite imprimés couche-par-couche à l’aide d’automates qui reproduisent les motifs conçus par ordinateur en déposant par exemple des microgouttelettes d’encres biologiques ;
  • la dernière étape repose sur la maturation du tissu imprimé en bioréacteur. Cette étape permet aux cellules de s’auto-organiser jusqu’à faire émerger des fonctions biologiques spécifiques.

IDTechEx1 a réalisé une étude sur les futures applications, les marchés et les acteurs du domaine. Dans cette synthèse IDTechEx cible, pour l’essentiel, deux axes d’action principaux en bio-printing :

  • la réalisation de supports représentant des tissus humains pour permettre de tester des médicaments (à la place de travailler sur l’animal et sur l’humain) ;
  • la production de matériaux biologiques et de tissus humains pour les « réparations ».

Des avancées stimulantes aux promesses sensationnalistes

Parmi les avancées, les chercheurs de l’INSERM2 (équipe de Nadine Benkirane-Jessel à Strasbourg Unité 1109 dans INSERM, 2015) ont créé un implant ostéo-chondral composé de deux compartiments afin de régénérer le cartilage et l’os sous-chondral au sein de l’articulation :

  • une membrane nanofibreuse, à base de collagène ou de polymères, dotée de nanoréservoirs de facteurs de croissance osseux, pour favoriser la réparation de l’os ;
  • une couche d’hydrogel (alginate) renfermant de l’acide hyaluronique et des cellules-souches issues de la moelle osseuse du patient, favorisant la régénération du cartilage.

L’organisation en trois dimensions du dispositif favoriserait la croissance et la différenciation des cellules-souches en cellules du cartilage. « Imaginez la membrane nanofibreuse comme une feuille de papier déposée par le chirurgien sur l’os abîmé. Immédiatement après, il dépose la seconde couche contenant les cellules-souches et termine son intervention. Ensuite, le travail de consolidation de l’ensemble se fait seul ! L’objectif est d’obtenir une régénération totale de l’articulation – os sous-chondral et cartilage – dans les mois qui suivent », explique la chercheuse.

Les startups du secteur s’inscrivent dans une stratégie à long terme qui vise « tout simplement » la réalisation d’organes. Certes, on n’en est pas là, mais la vision est claire, soutenue par un public très intéressé par l’accès à des soins spécifiques, voire peut-être à des possibilités d’« augmentation » des performances humaines en attendant la mise sur le marché de produits, services ou systèmes nouveaux qui satisfont un renforcement de la demande de « bien-être », pour laquelle on acceptera de payer un certain prix (notion d’attractivité).

Par exemple, BioBots conçoit des imprimantes 3D capables de créer des tissus vivants. Ses produits sont disponibles sur le marché depuis quelques mois. En mai dernier, BioBots, avec une logique de promesse sensationnelle, présentait au public son imprimante capable de créer des tissus humains vivants, reproduisant pour l’occasion l’oreille coupée de Van Gogh…

Pour mener à bien ses ambitions, BioBots utilise une encre photo-transformable, qui mise en présence de lumière se polymérise. Combinée avec des cellules vivantes, elle permet de mettre en forme de la matière biologique synthétique. Lors de « Techcrunch Disrupt » à New-York en 2015, Dan Cabrera, CEO de l’entreprise, aurait affirmé que sa méthode permettait à sa création de se différencier de ses concurrents proposant également des imprimantes 3D capables de créer la vie.

Parmi les entreprises concurrentes, on compte le Canadien Aspect Biosystems, le Suédois Cellink , ou encore le Japonais Cyfuse. Pour BioBots, le projet vise à faciliter la recherche médicale. Ainsi, il serait possible d’utiliser ces tissus vivants pour tester des médicaments en laboratoire, s’affranchissant de la nécessité d’utiliser des animaux. Surtout, on pourrait ainsi réaliser des tests individuels, pour offrir à chaque patient un traitement personnalisé correspondant le plus parfaitement possible à ses besoins.

Du bio-printing à l’homme augmenté

La médecine n’est déjà plus l’art destiné à cerner les causes d’un mal-être et à aider l’organisme à réagir aux agressions qui l’ont rendu malade. Elle considère le corps comme un assemblage d’organes plus ou moins interdépendants qu’il faut entretenir, réparer, changer, transformer ou améliorer. Le soin peut alors céder la priorité à la réparation. Avec l’individualisme, la spécificité des corps risque de devenir l’un des fondements de la médecine de précision de demain, tant qu’elle permet des soins sur mesure ou personnalisés (et moins coûteux en principe). Dans le même temps, les effets de la transformation du concept de santé (OMS) allant de la suppression de la maladie, à la réalisation d’un bien-être individuel (médecine de confort) soutiennent le développement potentiel d’« Homme augmenté », développement autorisé dans son principe par le bio-printing. De plus, l’avènement de l’impression 3D pourrait résoudre certains des problèmes les plus pressants auxquels fait face le don d’organes — comme la disponibilité et le rejet par le corps du patient receveur.

Donnons-nous rendez-vous dans quelques années pour savoir si la science triomphera de l’actuelle bulle spéculative et saura faire du bio-printing une méthode efficace et robuste pour la médecine.

Extrait de l’article de Techniques de l’Ingénieur RE268, Bio-printing – État des lieux et perspectives, d’Emmanuel GUÉDON, Laurent MALAQUIN et Jean-Claude ANDRÉ (février 2017)

1IDTechEx. – 3D bio-printing 204-2024 : applications, markets, players (2014). http://www.idtechex.com/

2INSERM. – Un implant vivant pour régénérer le cartilage (2015). http://www.inserm.fr/

Revue de presse anglophone #18

Au Royaume-Uni le prix de chargement des voitures électriques variera en fonction des pics d’utilisation

uk-electric

Le développement des voitures électriques outre-Manche s’accompagne d’une réflexion autour de l’usage du réseau électrique pour les recharges. Lire

Source : The Guardian

L’empreinte humaine du changement climatique

troposphere

Des chercheurs ont trouvé dans la troposphère des traces qui accréditent l’idée selon laquelle les changements climatiques saisonniers sont influencés par les activités humaines. Lire

Source : The Guardian

Un bébé serpent piégé dans de l’ambre

serpent

Les chercheurs pensent que ce serpent fossilisé dans de l’ambre permettra d’avoir des informations nouvelles sur les grands principes de l’évolution. Lire

Source : New York Times

Les secrets des micro-jets du citron

Capture d’écran 2018-07-23 à 15.49.21

En vidéo, explications sur les micro-jets que l’on peut observer quand on presse la pelure des citrons. Lire

Source : New York Times

Qu’est ce qui reste sur facebook et qu’est ce qui est effacé ?

zuckerberg

Même la frime de Mark Zuckerberg ne peut pas l’affirmer avec certitudes. Lire

Source : New York Times

Femme et ingénieure… épisode 6

La faible proportion de femmes ingénieures a incité la CDEFI (Conférence des directeurs des écoles françaises d’ingénieurs) à mettre en place l’opération Ingénieuses en 2011, afin d’attirer davantage de jeunes filles en écoles d’ingénieur-e-s. La cérémonie de remise des prix a eu lieu le 25 mai dernier, l’occasion de rencontrer les lauréats de la catégorie Enseignement de l’égalité, l’Ecole des Mines de Saint-Etienne.

 

Les actions :

Au niveau des personnels, l’année 2018 a donné lieu à différentes actions comme la mise en œuvre de la charte égalité au sein de notre Centre de Culture Scientifique, Technique et Industrielle, l’organisation d’ateliers et le pilotage actif de la commission sur l’égalité femmes/hommes.

Au niveau des élèves, un module « interculturalité » divisé en trois grands thèmes leur a été proposé : interculturel sociétal, interculturel géographique et interculturel scientifique. Ces ateliers se déroulent sur trois jours. Parmi ces trois thèmes, le module interculturel sociétal intègre la dimension de l’égalité femmes/hommes.

Depuis 2011, l’association WoMines soutient les démarches étudiantes en faveur des femmes. Le but est de valoriser la place des femmes ingénieures, encore minoritaires, à l’école et dans le monde du travail. Par extension, la volonté de ce projet d’élaboration d’un réseau, de conférences et de conseils, est de favoriser l’insertion des femmes ingénieures dans le monde du travail et ce dès leur admissibilité au concours d’entrée, puis en facilitant leur intégration dans l’école et la résidence des élèves. L’action principale de Womines est le marrainage dans les lycées locaux.

 

Entretien avec Hélène Pangot, préfète des études, référente égalité femmes-hommes pour l’Ecole des Mines de Saint-Etienne

Pourquoi avoir participé à ce concours, et pourquoi cette année ?
J’ai repris les missions de référente égalité femmes-hommes depuis deux ans. La démarche a nécessité différentes étapes :
  • Un état des lieux, notamment de tous les publics concernés.
  • La création d’une commission paritaire sur ce sujet (comme il en existait déjà une sur le handicap). Celle-ci a été mise en place fin 2016.
  • Des premières actions, un peu éparses la première année.
  • Enfin, un réel plan d’action cette année, pour tous les publics.

Certaines de ces actions sont alors directement intégrées dans le cursus de nos élèves, avec des crédits ECTS à la clé. Par exemple, nous avons mis en place des modules d’interculturalité : 3 jours en workshop, la plupart du temps à l’extérieur de l’école. Cette année 2 modules ont été proposés :

  • Nous avons envoyé certains de nos élèves à la rencontre des collégiens et lycéens, avec un travail de préparation en amont, afin de les faire échanger sur les stéréotypes.
  • D’autres élèves ont suivi un module sur la connaissance et la réappropriation du corps selon les cultures. Ce module, assez original, a pu être suivi par 8 élèves, filles comme garçons, et a été plutôt bien perçu.

Je dirais donc qu’il a donc fallu un temps de préparation puis un temps de maturation, avant d’arriver à un projet global élaboré. A travers la participation à ce concours, nous souhaitions nous évaluer et savoir comment nos actions pouvaient être perçues de l’extérieur.

 

Comment l’Ecole favorise-t-elle l’égalité femmes/hommes ?

Grâce à la commission égalité “Femmes.Hommes” mise en place, nous avons pu avancer sur ces questions. Les premières commissions ont été assez animées, il était difficile de trouver des consensus. En effet, il est parfois compliqué de trouver la bonne posture : certain-e-s vont être très féministes, d’autres plus modéré-e-s, le curseur est difficile à placer. C’est pour cela qu’il a été important pour nous ne nous faire accompagner par une personne ressource extérieure à l’école sur ces questions. Et au final, cela se passe bien, pour les hommes comme pour les femmes.

Cette commission nous a permis de lancer des projets : cette année nous avons essayé de mettre en place une action par saison. Par exemple, nous avons organisé une rencontre du personnel avec une personne qui travaille sur la question du genre dans les jeux vidéo. Les personnels ont été plutôt réceptifs à ce type d’opération.

Nous travaillons également avec la Rotonde, le Centre de culture scientifique technique et industrielle de l’École des Mines de Saint-Étienne, qui a un engagement fort, avec par exemple la rédaction d’une charte sur l’égalité face aux sciences pour le grand public.

 

Des milliers de jeunes femmes vont être diplômées ingénieures dans les mois qui arrivent, quel conseil pouvez-vous leur donner pour débuter leur carrière du bon pied ? 

Ne pas hésiter à se mettre en avant et à valoriser son parcours et ses réalisations. Elles ne doivent pas se censurer, notamment au niveau des salaires. On constate régulièrement qu’elles vont spontanément demander moins que leurs homologues masculins. Elles partent alors déjà avec un retard dès le début de leur carrière. Il faut oser, elles le valent. Elles ont le même diplôme et les mêmes compétences.

Plan Biodiversité : du concret, du recyclé et des attentes

Le nouveau Plan Biodiversité comprend 90 actions réparties en 24 objectifs et six axes stratégiques. Disons-le d’emblée, France Nature Environnement voit dans ce nouveau plan «1/3 de concret, 1/3 de recyclé, 1/3 de peu engageant». Avec une enveloppe annoncée de 150 millions d’euros par an, la fédération d’associations environnementales et le WWF demandent des moyens supplémentaires dès le Projet de Loi de finances 2019.

Parmi les mesures phares, du concret et du recyclé

Parmi les mesures phares en agriculture, citons l’interdiction de tous les pesticides neuro-toxiques et l’objectif de 22 % de surfaces bio d’ici 2022. Une enveloppe de 150 millions d’euros sur 4 ans sera dédiée à la replantation des haies, à la préservation des prairies et des zones humides ou à toute autre action de protection de la biodiversité. À l’instar d’Europe Ecologie–Les Verts, nous pourrons regretter l’absence de mesures sur la biodiversité cultivée. «Depuis 60 ans, 80 % des variétés végétales comestibles ont disparu», rappelle le parti politique.

Le Gouvernement annonce la création ou l’extension de 20 réserves naturelles nationales et la création en 2019 d’un onzième parc national. Il fait appel aux collectivités et souhaite créer 1000 Territoires engagés pour la nature d’ici 2022. Afin de lutter contre l’étalement urbain, il lance un objectif «zéro artificialisation nette», l’horizon temporel restant à préciser. En particulier, tout nouveau parking sera perméable pour favoriser l’infiltration des eaux. Dès septembre, un Agenda de l’action pour la biodiversité incitera l’ensemble de la société à prendre des engagements «ambitieux et concrets».

Plusieurs actions sont dédiées aux océans, notamment l’objectif de protéger 100 % des récifs coralliens d’ici 2025. Mentionnons également l’objectif de «zéro plastique rejeté en mer d’ici 2025», conformément à l’objectif de recycler 100 % des plastiques de la Feuille de route pour l’économie circulaire. La France soutiendra ainsi au niveau européen l’interdiction de mise sur le marché des 12 produits en plastique à usage unique le plus souvent retrouvés sur les plages et en mer. Enfin, la France portera au niveau européen un plaidoyer pour interdire la pêche électrique et protéger les tortues marines.

Les entreprises et la pollution lumineuse

Dès cette année, l’objectif sera de définir un indicateur d’impact sur la biodiversité, similaire à la tonne de CO2 pour l’impact climatique. La France portera alors au niveau européen la publication obligatoire de cet indicateur dans les rapports RSE des entreprises. D’ici 2022, 4 filières seront invitées en priorité à réduire cet impact : l’énergie, la chimie, l’agro-alimentaire, ainsi que le secteur des bâtiments et de la construction.

La pollution lumineuse continue de faire parler d’elle. Le nouveau Plan veut définir un nouvel indicateur et une nouvelle réglementation pour mieux l’appréhender. L’Association nationale pour la protection du ciel et de l’environnement nocturnes (ANCPEN) regrette néanmoins l’absence d’objectif chiffré. Grâce au nouvel indicateur, elle demande dès cet année de «ne plus augmenter la quantité de lumière émise chaque nuit», et des «objectifs de diminution avec des échéances claires».

Dans le prolongement de la COP21 et de l’Accord de Paris, le gouvernement affiche l’ambition de prendre le leadership de la protection de la biodiversité. Il hissera la biodiversité au rang des priorités de l’agenda international d’ici la conférence de la Convention sur la Diversité Biologique qui aura lieu en Chine en 2020. Pour être cohérent avec cette ambition, les associations demandent toujours l’arrêt des grands projets qu’elles considèrent comme «inutiles» et néfastes pour la biodiversité : Europacity, la Montagne d’Or, le canal Seine-Nord, etc.

Par Matthieu Combe, journaliste scientifique

Ineos va investir 2,7 Md€ en Europe dans un nouveau vapocraqueur

C’est le plus gros investissement jamais conçu par Ineos et ce sera le premier vapocraqueur construit en Europe depuis plus de 20 ans. Il s’agira d’un vapocraqueur sur base éthane et d’une usine de déshydrogénation de propane qui permettra à terme d’implanter une unité de production de propylène supplémentaire d’environ 750 000 t/an. En terme de capacité, le nouveau vapocraqueur est prévu pour produit 1Mt/an d’éthlylène. La production assez classique d’une installation de taille mondiale d’aujourd’hui mais qui pour l’Europe représente une petite révolution, car les vapocraqueurs encore en fonctionnement aujourd’hui sont vieux, beaucoup plus petits et fonctionnent généralement sur une base naphta.

Investir en Europe continentale

L’installation de ce nouveau complexe est prévue sur les côtes de l’Europe du Nord-Ouest mais le lieu exact n’a pas encore été déterminé. Une équipe est en charge d’examiner les différentes options. L’Allemagne, la Belgique et les Pays-Bas semblent pour l’instant favoris. L’installation sur un même site du vapocraqueur et de l’usine PDH sont envisagés mais ce choix peut encore évoluer. Le projet doit aboutir dans les 4 ans.

Cet investissement n’est pas totalement une surprise, ces projets d’augmentation massive des capacités au niveau européen sont discutées depuis plusieurs années au sein du groupe britannique et déjà en 2017, il était question d’investir dans une nouvelle unité de PDH et d’accroître la capacité de production d’éthylène des vapocraqueurs déjà existant de Grangemouth en Ecosse et Rafnes en Norvège de quelque 900 000 t/an. Le pétrochimiste s’est finalement décidé d’ajouter à ces investissement un nouveau vapocraqueur à base éthane en Europe continentale.

La manne du gaz de schiste américain

Cet investissement s’inscrit dans la stratégie du groupe qui vise à profiter de l’éthane à faible prix produit Outre-Atlantique par l’exploitation des gaz de schistes et à anticiper la baisse de production de gaz naturel en mer du Nord. Ainsi, depuis mars 2016, Ineos a mis en place un «pipeline virtuel» d’éthane entre l’Europe et les Etats-Unis via une flotte maritime dédiée. Huit tankers alimentent ainsi régulièrement les sites de Rafnes et Grangemouth. Ce pipeline et les équipements qui l’ont accompagnés (construction du plus grand site de stockage d’éthane d’Europe à Grangemouth) représentait déjà un investissement de l’ordre de 2Md €. Pour le géant britannique il s’agit «d’améliorer l’autosuffisance sur les principaux oléfines et de soutenir les activités de dérivés et de polymères en Europe», explique ainsi Gerd Franken, pdg d’Ineos Olefins et Polymers North, ajoutant aussi que «l’ensemble des actifs européens pourront ainsi profiter de cette nouvelle capacité d’importation de matières premières compétitives depuis les Etats-Unis et le reste du monde».

Sophie Hoguin

Femme et ingénieure… Episode 5

La faible proportion de femmes ingénieures a incité la CDEFI (Conférence des directeurs des écoles françaises d’ingénieurs) à mettre en place l’opération Ingénieuses en 2011, afin d’attirer davantage de jeunes filles en écoles d’ingénieur-e-s. La cérémonie de remise des prix a eu lieu le 25 mai dernier, l’occasion de rencontrer la lauréate Elève-ingénieure France, Lou GRIMAL.

 

Son parcours :

Parallèlement à ses études d’ingénieur, Lou est investie dans bon nombre d’activités extra-scolaires et associatives. Elle a participé à trois semi-marathons, a été cheffe d’équipe de l’UTT au « Challenge du Monde des Grandes Ecoles » (CMGE) et secouriste en équipe. Au niveau associatif, elle a été élue au conseil des études au sein de son école, présidente d’Ingénieurs sans frontières Troyes, co-créatrice et trésorière de l’association « Portraits 2 Passages ». Dernièrement, c’est à un projet d’épicerie solidaire étudiante, AGORAé Troyes, qu’elle se consacre en tant que co-présidente. Concernant ses actions en faveur de l’égalité entre les femmes et les hommes, elle est marraine de l’association Elles Bougent : elle a d’ailleurs participé à un web-reportage de France 3 sur les femmes ingénieures. Elle a entrepris un voyage en binôme avec une autre élève-ingénieure pour montrer la possibilité pour les femmes de voyager seules.

 

Entretien avec Lou :

Qu’est-ce qui a vous a motivée à participer au concours Ingénieuses’18 ?

L.G. : Je n’avais jamais vraiment pensé participer à ce type de concours. Dans le cadre de l’association « Elles bougent », j’avais participé en équipe au concours Innovatech, que nous avons remporté au niveau Champagne-Ardenne. J’ai apprécié ce challenge, ce qui m’a donné l’idée de participer à d’autres concours, notamment quand je cherchais des financements pour un de mes projets. C’est ainsi que j’ai découvert le concours Ingénieuses de la Cdefi.

 

Votre parcours est un peu atypique, pouvez-vous nous l’expliquer?

L.G. : Effectivement, au départ, je ne voulais pas être ingénieure. J’ai d’ailleurs choisi de faire une prépa littéraire BL après le baccalauréat. C’est lors de la deuxième année de cette prépa qu’une personne de l’UTT est venue et nous a présenté l’école. Elle nous a expliqué quel était le concours à passer pour pouvoir y entrer. Cette rencontre m’a permis de me projeter, et j’ai donc passé le concours six mois plus tard.

Au tout début à l’UTT, j’ai uniquement été élue étudiante. C’est vraiment lors de la fin de mon parcours que je me suis investie dans des associations, au sein desquelles j’ai commencé à prendre des responsabilités, et c’est ce qui m’a plu. J’ai compris que c’est cela qui me permettait d’avancer : travailler sur des projets en groupe, trouver les bonnes personnes, motivées, c’est un gros challenge. J’ai notamment présidé Ingénieurs sans frontières Troyes. C’est qui m’a permis d’avancer le plus, tout en comprenant réellement ce qu’est le métier de Chef de projet.

Aujourd’hui je travaille sur un projet d’épicerie solidaire qui devrait voir le jour en septembre. Parallèlement à cela, je me suis plongée dans des projets beaucoup plus techniques (développement JavaScript) sous le statut d’auto-entrepreneure.
Finalement, je dirais qu’il y a quand même pas mal de hasard, d’envies personnelles et de facteurs conjoncturels qui ont joué sur mon parcours.

 

De nombreuses jeunes filles viennent d’obtenir leur baccalauréat et vont se lancer dans des études d’ingénieur, quel message souhaitez-vous leur adresser ?

L.G. : Osez prendre des risques, faire des choses qui paraissent folles… Cela vous aide à grandir. Prendre des risques m’a permis de reconsidérer ma vie professionnelle. Les voyages m’ont permis de trouver ma voie, de penser autrement.
Osez aller en école d’ingénieur. Quand j’étais plus jeune, un certain nombre de mes copines voulaient être dans la communication, ou s’occuper d’enfants… par clichés implicites ? Etudiez ce qui vous plait.

Le biomimétisme : réconcilier la technosphère et la biosphère

Dans de nombreux domaines, les organismes vivants surclassent nos solutions technologiques. Les solutions biomimétiques sont intéressantes, non seulement pour leur ingéniosité, mais aussi pour leur potentiel de résilience écologique. La nature possède des stratégies d’optimisation de ressource encore inégalées par nos technologies actuelles.

Retrouvez les concepts et les enjeux du biomimétisme dans notre infographie animée.

Résilience écologique, approche systémique, écoconception, innovation durable, tous ces concepts structurants sont au cœur de la philosophie du biomimétisme.

Les processus de la bio-inspiration se déclinent au travers de 3 concepts distincts :

  • La biomimétique (Biomimetics) : processus créatif interdisciplinaire entre la biologie et la technologie dans le but de résoudre des problèmes anthropocentriques par l’abstraction, le transfert et l’application de connaissances issues de modèles biologiques.
  • Le biomimétisme (biomimicry/biomimesis) : le biomimétisme est une philosophie consistant à prendre la nature pour modèle, notamment à un niveau organisationnel, afin de répondre aux enjeux du développement durable (sociaux, environnementaux et économiques).
  • Bionique (Bionics) : discipline très liée à la robotique visant à la reproduction, l’augmentation ou le remplacement de fonctions biologiques par leurs équivalents électroniques et/ou mécaniques.

Il existe trois niveaux d’inspiration du vivant (ici on présente l’exemple en 3 niveaux de l’institut Biomimicry 3.8) :

  • les formes et les structures,
  • les procédés et les matériaux,
  • l’organisation et le fonctionnement des systèmes.

Le nombre de chercheurs et d’industriels en lien avec la bio-inspiration ne cesse de croître, mais le transfert de connaissances de la biologie vers la technologie demeure un processus complexe. La méthodologie pourrait être en mesure d’apporter une réelle amélioration à ce frein par un travail de simplification de la démarche.

La biomimétique est une approche proposant deux voies distinctes : solution oriented ou problem oriented que nous détaillons également dans cette animation.

Nous prendrons enfin le temps de vous donner des exemples passionnants de réalisations biomimétiques.

Si cette animation vous a plu,  ou si vous souhaitez nous donner votre avis… les commentaires (sur youtube, et/ou ici sur le magazine d’actualité) sont ouverts, nous sommes preneurs !

Bon visionnage.

Les modèles climatiques actuels pourraient sous-estimer les changements climatiques à long terme

Certaines périodes passées ont été au moins aussi chaudes que l’époque actuelle. Les chercheurs tirent de leur examen des informations intéressantes pour la construction des modélisations du réchauffement climatique et de son évolution.

Une équipe internationale de 17 pays publie le 25 juin 2018 une analyse de périodes passées, dans Nature Geoscience. Il en ressort qu’un réchauffement global, même limité à 2°C au-dessus du niveau préindustriel comme l’accord de Paris le préconise, engendrera des déplacements rapides des zones climatiques et des écosystèmes associés. Les calottes polaires vont se réduire significativement pour des périodes de plusieurs milliers d’années. Un réchauffement rapide des pôles relâchera un surplus de gaz à effet de serre, et le niveau de la mer montera de plusieurs mètres au cours des prochains millénaires. Enfin, ces observations montrent également qu’un bon nombre des modèles climatiques actuels, utilisés pour la simulation des changements au cours du XXIe siècle, risquent de sous-estimer les changements à long terme.

Plusieurs périodes de temps ont été identifiées au cours des 3,5 derniers millions d’années comme ayant été de 0,5 à 2°C plus chaudes que l’époque préindustrielle. Elles révèlent des réchauffements plus marqués aux hautes latitudes que dans les régions tropicales, ce qui est similaire aux résultats de simulations issus de modèles de climat pour un réchauffement global de 2°C à l’horizon 2100. Bien que ces périodes chaudes passées n’aient pas toutes été causées par une augmentation du CO2 atmosphérique, leur étude permet d’évaluer les effets d’un réchauffement comparable au niveau limite préconisé par l’accord de Paris.

Les écosystèmes et les zones climatiques vont migrer

L’étude confirme que la migration des écosystèmes et des zones climatiques s’effectuera en général vers les pôles, ou vers des zones de plus haute altitude. Elle confirme aussi que le dégel du permafrost relâchera du gaz carbonique et du méthane additionnels, ce qui causera un réchauffement supplémentaire. Les observations des époques chaudes passées suggèrent qu’avec un réchauffement limité à 2°C, comme le propose l’accord de Paris, le risque d’un emballement catastrophique lié à de fortes émissions induites de gaz à effet de serre est relativement faible. Cependant, même dans ce cas, le CO2 additionnel issu du permafrost et des sols doit être pris en compte.

Une élévation à long terme du niveau de la mer de plus de 6 mètres

Un réchauffement même limité de 1,5 à 2°C au-dessus du niveau préindustriel sera suffisant pour causer une fonte substantielle du Groenland et de l’Antarctique à long terme, et engendrer une hausse du niveau de la mer de plus de 6 mètres qui persistera des milliers d’années. Des vitesses de montée du niveau de la mer supérieures à celles de ces dernières décennies sont alors probables.

Les réchauffements du passé plus forts que les simulations obtenues avec les modèles du climat

Les comparaisons entre données du passé et simulations numériques suggèrent que les modèles de climat sous-estiment le réchauffement à long terme et son amplification par les régions polaires. Alors que les projections des modèles climatiques semblent fiables pour des changements d’amplitude modérée au cours des prochaines décennies, ces modèles sous-estiment probablement le changement climatique à venir, particulièrement pour les projections de réponse à long terme pour les scénarios de poursuite de l’augmentation des rejets de gaz à effet de serre.

Référence : Fischer, H., Meissner, K.J., Mix, A.C., et al.: Palaeoclimate constraints on the impact of 2 °C anthropogenic warming and beyond. Nature Geoscience, 25 June 2018 (in press).

Source : cnrs

Haro sur les néonicotinoïdes

La biodiversité terrestre et aquatique menacée

Pour les 233 scientifiques à l’origine de l’appel lancé dans la revue Science, le 1er juin dernier, la toxicité des néonicotinoïdes n’est plus à démontrer. Des centaines d’études scientifiques suggèrent, en effet, que ces insecticides neurotoxiques nuisent aux organismes d’une importance vitale pour les humains tels que les pollinisateurs et contribuent à la perte massive actuelle de la biodiversité mondiale. D’autant plus que ces produits «sont hautement persistants dans l’environnement, si bien que des résidus significatifs sont communément retrouvés dans les sols, les fleurs sauvages, les cours d’eau et les lacs» alertent les signataires.

Les néonicotinoïdes avaient déjà été incriminés suite à une étude publiée en octobre 2017 par la revue PLoS One qui dévoilait une diminution en trente ans de près de 80% de la population des insectes ailés en Europe.

Des avancées prometteuses

Contre toute attente, un pas important a été franchi en avril dernier : les états membres ont voté la proposition de la commission européenne interdisant les usages des 3 principaux néonicotinoïdes (Thiamétoxame, Imidaclopride, Clothianidine) sur toutes les cultures en plein champs ; seul l’usage sous serre restant autorisé. Une interdiction qui suit les recommandations de l’Autorité européenne de sécurité des aliments (EFSA) qui est elle-même parvenue, en février 2018, à la conclusion que ces 3 molécules sont très toxiques pour les abeilles domestiques et sauvages.

A cela s’ajoute, fin mai 2018, la publication d’un rapport de l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (ANSES) qui a étudié les alternatives envisageables à ces produits. Selon l’Anses, «pour une majorité des usages des produits phytopharmaceutiques à base de néonicotinoïdes, des alternatives (chimiques et non chimiques) suffisamment efficaces, et opérationnelles ont pu être identifiées.» Surtout, le rapport indique que pour près de 80% des cas analysés, au moins une solution alternative non chimique existe. L’Anses ajoute qu’ « en l’état actuel des connaissances, les méthodes non chimiques apparaissant comme les plus aptes à remplacer immédiatement, efficacement et durablement les néonicotinoïdes sont la lutte biologique, la lutte physique par application d’une couche protectrice (huile de paraffine, argile…), et la lutte par confusion sexuelle, lorsque ces méthodes sont d’ores et déjà disponibles en France ou aisément transférables.» Le rapport évoque également d’autres pistes envisageables pour éviter l’utilisation de ces produits toxiques comme le recours aux médiateurs chimiques (les répulsifs) ou le recours aux auxiliaires des cultures (parasitoïdes ou prédateurs).

Par Aliye Karasu

Une nouvelle technique pour encapsuler des biomolécules

La formulation de compartiments (ou capsules) susceptibles d’encapsuler du matériel biologique (protéines, enzymes, ADN…) revêt un grand intérêt d’un point de vue industriel mais également au niveau fondamental pour l’élaboration de cellules artificielles. Les compartiments les plus connus, les liposomes, sont formés à partir de lipides. Ils sont notamment utilisés en cosmétique. D’autres types de compartiments sont à base de particules ‘colloïdales’1 et de ce fait appelées ‘colloïdosomes’.   Jusqu’à présent, ces colloïdosomes sont fabriqués en ajoutant des particules (latex, silice…) dans des émulsions eau/huile (figure 1). Celles‐ci forment des émulsions de ‘Pickering’ (du nom du chercheur britannique ayant découvert ce phénomène au début du 20e siècle). Puis, ces particules sont reliées entre elles chimiquement de façon à former des capsules robustes pouvant être transférées dans l’eau. Cependant, l’utilisation de solvants et d’huile nécessaires à leur fabrication représente un frein pour leur développement. En effet, les principes actifs doivent être inclus dès le début de la fabrication et peuvent donc être détruits par les solvants.

Capture d’écran 2018-07-11 à 10.33.50
Figure 1 : Représentation schématique d’une gouttelette d’émulsion eau/huile (gauche), l’ajout de particules (ronds jaunes) conduit à la formation d’une émulsion de Pickering (milieu), puis les particules sont reliées entre elle chimiquement (‐) formant, des colloïdosomes (droite).

Un nouveau système sans huile ni solvant Pour la première fois, des chercheurs de l’Inra, du CNRS et de l’université de Bordeaux, en collaboration avec une équipe de l’université de Bristol (Grande‐Bretagne), ont mis au point une nouvelle méthode pour fabriquer ces colloïdosomes, directement dans l’eau, sans utiliser ni solvant ni huile. Leur approche est basée sur l’utilisation d’émulsions dites ‘eau‐dans‐eau’ qui se forment notamment dans des mélanges de polymères dits ‘incompatibles’. Dans ce système, des gouttelettes enrichies en polymère sont dispersées dans un milieu enrichi en un autre polymère. Les chercheurs ont montré que des particules de latex viennent à l’interface des gouttelettes, formant ainsi des émulsions de Pickering eau‐dans‐eau (figure 2). Ils ont ensuite réussi à gélifier l’intérieur de ces gouttelettes, formant ainsi des colloïdosomes directement en phase aqueuse. L’avantage de ces systèmes est qu’ils sont connus pour ‘séquestrer’ spontanément du matériel biologique et des principes actifs, au sein même des gouttelettes. Les chercheurs ont ainsi révélé que ces colloïdosomes peuvent en effet séquestrer spontanément des entités fluorescentes. Ces résultats ouvrent la voie à de futurs travaux sur l’encapsulation de matériel biologique et de principes actifs dans ces capsules d’un nouveau type. Ces travaux permettront dans les prochaines années de développer des capsules de type colloïdosomes, dans la perspective de créer des cellules artificielles.

Figure 2 : Cliché de microscopie par épifluorescence d’une émulsion de Pickering eau‐dans‐eau (particules de latex vertes) avec un cœur gélifié formant des colloïdosomes (à gauche). Image de microscopie confocale montrant la séquestration d’un polymère fluorescent dans le rouge par les colloïdosomes (à droite).
Figure 2 : Cliché de microscopie par
épifluorescence d’une émulsion de
Pickering eau‐dans‐eau (particules de
latex vertes) avec un cœur gélifié
formant des colloïdosomes (à gauche).
Image de microscopie confocale
montrant la séquestration d’un
polymère fluorescent dans le rouge par
les colloïdosomes (à droite).

Référence : Preparation of swellable hydrogel‐containing colloidosomes from aqueous two‐phase Pickering emulsion droplets. Jean‐Paul Douliez, Nicolas Martin, Thomas Beneyton, Jean‐Charles Eloi, Jean‐Paul Chapel, Laurence Navailles, Jean‐Christophe Baret, Stephen Mann et Laure Béven. Angewandte Chemie International Edition, 57 (2018) 7780‐7784.

Source : cnrs

Femme et ingénieure… épisode 4

La faible proportion de femmes ingénieures a incité la CDEFI (Conférence des directeurs des écoles françaises d’ingénieurs) à mettre en place l’opération Ingénieuses en 2011, afin d’attirer davantage de jeunes filles en écoles d’ingénieur-e-s. La cérémonie de remise des prix a eu lieu le 25 mai dernier, l’occasion de rencontrer les lauréats de l’école la plus mobilisée, l’ENAC.

 

Les actions :

Après avoir créé en 2015 un poste de référent-e égalité, l’ENAC s’attaque depuis 2017 à un nouveau plan d’actions sur l’égalité femmes/hommes qui s’inscrit dans le cadre de la démarche de responsabilité sociétale de l’établissement. Cette dernière est composée de deux axes principaux : la politique de diversité et le développement durable. Elles ont pour but d’attirer davantage de jeunes filles dans les secteurs scientifiques aéronautiques, de former à l’égalité femmes/hommes et d’agir en faveur de l’égalité professionnelle. Le but de ces différentes actions est avant tout de préparer les étudiantes au monde du travail, tout en promouvant des modèles féminins dans des domaines encore trop masculins par le biais des médias. L’ENAC est également impliquée dans les réseaux associatifs, comme par exemple Elles bougent Midi-Pyrénées, et au sein de son campus avec la Journée campus au féminin.

 

Entretien avec Sophie COPPIN, Responsable sociétale à l’ENAC

L’ENAC a mis en place un poste de Responsable Sociétale et Environnementale (RSE), notamment en charge des questions d’égalité femmes/hommes. Quelles sont ses missions et vers qui portent ses actions ?

Les missions du RSE se répartissent sur 3 axes :

  • en tant qu’employeur : informer et sensibiliser le personnel,
  • en tant qu’école de l’Enseignement Supérieur : avoir une action pédagogique, assurer la mixité dans les effectifs étudiants,
  • auprès des étudiants : les sensibiliser, les préparer à entrer dans la vie active.

Les actions portent donc vers des profils différents : aussi bien les salariés de l’école, mais aussi les étudiant-e-s, et même les futur-e-s étudiant-e-s lors de nos actions dans les collèges et lycées.

 

Ecole la plus mobilisée, quels sont selon vous les projets qui vous ont permis de vous démarquer ?

Cela tient peut-être au fait d’avoir travaillé sur les différents plans :

  • Collèges et lycées, avec la journée Campus au féminin par exemple, permettant aux jeunes filles de libérer leur parole, de s’affranchir des préjugés.
  • Etudiantes, avec des préparations d’entretien de recrutement, pour les sensibiliser aux questions pièges qu’elles pourraient rencontrer.
  • Employeur, en créant une cellule de veille contre le harcèlement.

Nous avons également mis en place l’an dernier le réseau « ELLES de l’ENAC », ainsi qu’un forum des métiers, permettant de déconstruire les stéréotypes.

 

Pour vous, quel est le rôle des écoles d’ingénieur dans la promotion de l’égalité entre hommes et femmes ?

 Quand on est sur les aspects techniques, on ne se pose pas la question de l’égalité. C’est plutôt dans les comportements que la question resurgit, c’est là que nous voyons le reflet de la société. C’est pour cela qu’il nous semble important à l’ENAC de sensibiliser nos étudiant-e-s. Ils seront un jour managers, ils ne doivent pas reproduire les stéréotypes que nous constatons.

Il n’y a que 22% de filles dans les écoles d’ingénieur, quel modèle peut-on leur montrer pour qu’elles aient envie de venir ? C’est à nous de les y inciter.

Façonner le verre comme un polymère

Le verre de quartz obtenu par exemple par fusion du quartz possède des propriétés physiques et chimiques qui font son attrait : très grande transparence à la lumière visible, UV et infrarouge, résistant aux chocs mécaniques et thermiques, résistant aux attaques chimiques, aux rayons ionisants ainsi que des caractéristiques diélectriques et un faible coefficient de dilatation.

Un matériau idéal pour nombre d’applications en optique, photonique ou encore dans le secteur médical sauf que… il reste difficile à mettre en forme en lui préservant toutes ses qualités.

Logique de fabrication renversée

Alors qu’on fabrique habituellement les verres de quartz par fusion de quartz ou de silice à des températures de l’ordre de 800°C avant de les usiner ou de les tailler avec des lasers, les chercheurs du KIT procèdent par fabrication additive, en partant des particules de verres les plus petites possibles. Ainsi, ils mélangent des particules de verre de 40nm dans un polymère liquide. Le mélange est ensuite durci par chauffage ou exposition à la lumière. Le solide qui en résulte est composé à 60 % de verre et 40 % d’un polymère qui agit comme un liant retenant les particules de verres aux bons endroits et maintenant la forme générale.

Ce « Glassomer », comme les scientifiques l’ont baptisé, peut être fraisé, tourné, usiné au laser ou traité dans des machines à commandes numériques comme n’importe quel polymère conventionnel.

Pour récupérer un verre de quartz de grande pureté, il faut ensuite retirer le polymère. Cela se fait dans un four à 500-600°C. Le polymère se transforme en CO2 et laisse place à une pièce poreuse qui va être frittée à 1300°C. A cette température, la matière va se densifier laissant place à un solide dense, non poreux et fait de quartz très pur. Ce type de procédé est calqué sur celui qui existe par exemple en fabrication additive métallique (metal binder jetting).

Adapté à la production de masse

Ce procédé de mise en forme permet non seulement la production de verre très pur façonnable librement mais en plus il est adapté à une production industrielle et «  moins cher, plus soutenable et plus efficace en matière énergétique que d’autres procédés de fabrication», explique le Dr. Bastian E. Rapp, à la tête du troupe de recherche interdisciplinaire NeptunLab qui a publié ces recherches dans Advanced materials. Par exemple, il ne nécessite pas l’emploi de produits chimiques très dangereux comme l’acide fluorhydrique souvent utilisé pour façonner le verre de quartz. Le Glassomer est commercialisé, par une société spin-off du NeptunLab, sous forme liquide ou solide afin d’intégrer des procédés de fabrication classiques des polymères chez les industriels.

Le NeptunLab s’était déjà démarqué dans d’autres innovations autour du verre de quartz grâce à des mélanges polymères-verre ouvrant par exemple la voie au moulage de verre en 2016…

… et à son utilisation pour des impressions 3d en 2017.

Sophie Hoguin

 

Nouveau marché de l’espace : deux conceptions s’affrontent

En novembre 2017, Bruno Le Maire, ministre de l’Economie s’interrogeait sur Europe 1. L’Esa a-t-elle fait le bon choix en lançant le programme Ariane 6 ? Cette petite Ariane 5 sera-t-elle suffisamment compétitive pour faire face à la montée de Space X ou d’autres acteurs privés qui arrivent sur le marché des lancements ?

Dans un courrier du 25 mai 2018 adressé à Angela Merkel et Emmanuel Macron et en copie à plusieurs ministres des deux pays, Tom Enders critiquait vivement la gouvernance des agences spatiales nationales et de l’agence européenne. Dans cette lettre dont le contenu a été rapporté par LaTribune.fr, le patron d’Airbus explique que les processus de décision de l’Agence spatiale européenne (ESA) et des agences nationales sont « clairement insuffisants pour faire face à un environnement nouveau, très dynamique et qui change rapidement ». Il critique « les interventions politiques » à l’origine selon lui de lenteurs dans les processus de décision et remet en question le principe de retour géographique sur investissement [On attribue les missions et travaux dans les pays qui investissent]. Il propose que la France et l’Allemagne discutent directement avec les industriels pour mettre en place de nouvelles politiques spatiales.

Ces deux interventions soulignent combien le temps du spatial, autrefois long, coûteux, planifié est en train de devenir celui des affaires : courtermiste, à bas coûts, opportuniste et flexible. Y a -t-il de la place pour les deux modèles concomitamment ?

Une place pour deux ?

Derrières des discours qui peuvent paraître iconoclastes se cachent cependant deux vérités : oui, la structure en agence spatiale apporte une lourdeur administrative qui ralentit les processus de décision, mais difficile de croire pour autant que l’on peut s’en passer d’institutions comme le Cnes et les agences spatiales qui sont déterminantes et structurantes dans la filière.

Ces discours qui ressemblent beaucoup aux positions adoptées outre-Atlantique et qui sont particulièrement visibles depuis l’arrivée de Donald Trump où la Nasa, chapeautée par le Conseil national de l’espace, devient un organe de coordination et doit se concentrer sur un retour de l’homme sur la Lune en s’appuyant sur de grands industriels privés (Boeing, Lokheed Martin, Space X). Le reste des activités est privatisé au maximum et les budgets de la recherche civile gelés voire diminués. Une part conséquente des budgets spatiaux étant réservés à la recherche et aux actions militaires. Mais qu’on ne s’y trompe pas. L’espace ça coûte cher et les grands acteurs, qu’ils soient américains comme Boeing ou Space X ou européens comme Airbus espèrent bien encore profiter des subsides publics pour leur développement. Ils veulent juste que ça se fasse plus vite et plus directement. La question sous-jacente est alors celle de la gouvernance – à qui appartiendra la politique spatiale : à des acteurs privés économiques servant leurs intérêts ou à des institutions publiques qui doivent servir les acteurs civils ?

Deux approches différentes du « New Space »

Des différences culturelles et structurelles entre USA et Europe découlent les différences dans l’approche du nouveau marché spatial. La richesse et la facilité à lever des fonds pour monter des start-up technologiques outre-Atlantique est sans égal alors que le modèle européen continue de s’appuyer beaucoup sur des fonds institutionnels et des subventions. Ceci a deux conséquences : un démarrage plus lent côté européen, et une moins bonne visibilité. Pour attirer les fonds privés, les entreprises américaines doivent hyper-communiquer sur leurs avancées et leurs produits. Ainsi, à l’occasion d’une table ronde lors du Toulouse Space Show, Pacôme Révillon, président d’Euroconsult, cité dans un article de LaTribune.fr, soulignait que : « on a l’impression que les États-Unis avancent aujourd’hui alors que la plupart des constellations en sont encore à l’état de projet, elles ne seront lancées que vers 2021-2022. La plupart des sociétés sont en train de promouvoir, d’essayer de vendre leur idée. En Europe, on attend davantage de bien verrouiller le concept avant d’en faire la promotion ».

Et l’Europe accueille elle aussi de nombreuses start-up et initiatives du New Space. Et tout l’écosystème est activement soutenu par les institutions. A l’instar du Cnes qui étudie depuis 2016 les nouvelles applications de l’espace (santé, véhicule autonome, agriculture…) au sein d’une direction de l’innovation dédiée et qui est partenaire de l’entreprise Nexeya pour le développement du chaîne de construction de nanosatellites. Enfin, l’institution publique est aussi à l’origine de la création en mai dernier d’un fonds d’investissement public-privé, CosmiCapital, de 80 à 100 millions d’euros pour soutenir les jeunes entreprises.

Le grand flou

Alors que les programmes spatiaux soutenus par les agences et leurs émanations privées comme Arianespace sont le fruit d’une longue expérience et assure une certaine visibilité et stabilité aux différentes initiatives, le modèle privé doit encore faire ses preuves : la rentabilité des projets de fusée réutilisable est encore à totalement démontrer et certains échecs montrent les limites de l’exercice. Ainsi, par exemple, l’abandon du Google Lunar Prize après plusieurs reports du délai limite. Aucune équipe n’ayant réussi à être prête en concevant à la fois un module opérationnel prêt à être lancé et une place dans un lanceur fiable capable de tenir les délais. Pendant encore de longues années, les deux modèles économiques vont forcément coexister. Reste à savoir comment se feront les interactions entre eux. Dans un monde où, ne l’oublions pas, la concurrence n’est pas qu’intra-occidentale : la Chine notamment affiche des programmes conséquents dans le New Space. En toute discrétion. Et avec son propre modèle économique.

 Sophie Hoguin

Fukushima : évolution des concentrations de plutonium dans les sols et les rivières

Grâce à des méthodes et des instruments de pointe permettant de mesurer de très faibles concentrations de plutonium dans les sols, des chercheurs du Laboratoire des sciences du climat et de l’environnement (LSCE, CEA/CNRS/Université de VersaillesSt-Quentin-en-Yvelines) et leurs collègues du CEA/DAM et de l’Université de Tsukuba (Japon) ont pu montrer que la distribution spatiale des dépôts de plutonium dans les sols de Fukushima était globalement similaire à celle du radiocésium. Par contre, lorsque les sols de la région sont érodés par les puissants typhons auxquels le Japon est fréquemment exposé, le plutonium issu de la centrale accidentée de Fukushima est exporté préférentiellement par les rivières jusqu’à l’Océan Pacifique, car il est concentré à la surface des sols. Les traces infimes de plutonium issu des essais thermonucléaires des années 1960 ont, au contraire, été homogénéisées à travers l’ensemble de la couche labourée des rizières par les pratiques agricoles lors des dernières décennies.

Globalement, les concentrations de plutonium ont diminué de moitié dans les sédiments de rivière entre 2011 et 2014 (passant d’un maximum de 95 fg/g (fg = femtogramme, 10-15 gramme) à 45 fg/g). De plus, la contribution de plutonium issu de la centrale accidentée de Fukushima diminue passant d’un maximum de 30 % du plutonium contenu dans l’échantillon à un maximum de 10 %. Une baisse similaire est observée pour la contamination en radiocésium qui peut s’expliquer par l’érosion importante et l’export sédimentaire générés par les typhons, les glissements de terrain et les travaux de décontamination menés dans la région. Ces opérations consistent à décaper l’horizon superficiel des sols sur 5 cm, qui concentre 95 % à 99 % du radiocésium, et à l’entreposer au sein de sites de stockage temporaires.

La seule exception à cette baisse générale est observée à l’aval de la première zone de la région à avoir été décontaminée, pour laquelle on observe bien une très forte baisse des teneurs en radiocésium (jusqu’à 90 %) mais aussi une augmentation de la part du plutonium émis en 2011 passant de 12 à 39 %, ce qui reste inférieur à la contribution des essais de 1960. Ces résultats montrent qu’une fraction du plutonium peut être remobilisée par des processus différents de ceux qui gouvernent les transferts de radiocésium, et qu’il est probablement véhiculé par des microparticules transportées par des processus éoliens. Il convient désormais d’identifier et de caractériser ces microparticules au vu de la longue demi-vie de certains de ces isotopes et de leur rémanence potentielle dans l’environnement.

L’accident de la centrale de Fukushima Dai-ichi de mars 2011 a conduit à l’émission d’une quantité importante de radionucléides et à leur dépôt sur les sols du Nord-Est du Japon. En plus du radiocésium (134Cs et 137Cs) qui a été émis en abondance, des ultra-traces de plutonium ont été trouvées dans les sols et sédiments de la région. L’étude du plutonium est importante car le comportement de cet élément dans l’environnement peut différer notablement de celui du radiocésium. De plus, les périodes radioactives de la plupart des isotopes du plutonium (jusqu’à 376 000 ans) étant globalement plus longues que celles du radiocésium (jusqu’à 30 ans), le plutonium permet d’étudier le marquage environnemental de l’accident sur une durée plus importante.

Une première étude réalisée en 2014 (Evrard et al., 2014) a permis de montrer que les concentrations de plutonium dans les sols ou les sédiments de rivières de la région de Fukushima sont de l’ordre de quelques dizaines de femtogrammes par gramme d’échantillon. Ce plutonium provient de deux sources : (1) les essais thermonucléaires atmosphériques des années 1960 et (2) l’accident de Fukushima. Pour déterminer la contribution relative de ces deux sources de plutonium qui se trouve dans les sols et les sédiments de cette région du Japon, il faut analyser leur composition isotopique. Pour y parvenir, il est nécessaire de concentrer et purifier le plutonium des échantillons par des méthodes de séparation et purification radiochimiques, puis de réaliser des mesures isotopiques avec un spectromètre de masse par plasma à couplage inductif de haute sensibilité et équipé d’un dispositif de multi-collection des ions. Ces techniques sont maîtrisées par le Département Analyse, Surveillance, Environnement (DASE) de la Direction des Applications Militaires (DAM) du CEA sur le site de Bruyères-le-Châtel (Essonne).

Ces résultats ont été obtenus dans le cadre du projet AMORAD (Amélioration des modèles de prévision de la dispersion et d’évaluation de l’impact des radionucléides au sein de l’environnement) financé par le programme des investissements d’avenir en radioprotection et sûreté nucléaire (projet ANR-11-RSNR-0002).

Source : cnrs

La confiance, nouvel atout des managers

La confiance se retrouve à plusieurs niveaux : la confiance en soi, en son équipe en son hiérarchique, et en son entreprise dans sa capacité à définir, innover, donner envie, porter un projet.

Couv-les-essentielsL’entreprise libérée défend l’idée que l’engagement et l’autonomie permettent de fonctionner de façon plus efficace dans les environnements complexes et changeants que nous connaissons. La confiance est l’un des leviers indispensables pour acquérir et faire acquérir de l’autonomie. De plus la confiance participe au bien-être au travail qui est source de motivation et partant de performance.

La confiance crée l’envie de se dépasser, de faire ensemble. La confiance permet de se connaître, de se reconnaître seul(e) et en équipe.

La confiance ne se décrète pas. Elle se met  en place avec le temps, avec l’exemplarité, par le fait  d’être clair, de  communiquer, d’être en vérité, de savoir prendre et accepter le risque. La confiance dans une équipe dépend beaucoup de la confiance qu’à en lui le manager, un manager qui n’a pas confiance en lui, qui a peur, qui est contrôlant sur tout pour se sécuriser aura du mal à faire confiance à ses équipes.

La confiance suppose une forme de lâcher prise, une capacité à prioriser au bon niveau, à déléguer, à accompagner ce qui n’évite bien sûr en rien le contrôle.

Le manager doit être avant tout porteur de sens, il donne la direction, traduit avec ses équipes les objectifs en plans d’actions. Il définit un cadre et dans ce cadre laisse la flexibilité à ses équipes pour la mise en œuvre. Les gens sur le terrain savent pertinemment ce qu’il faut faire et comment il faut le faire, le manque de visibilité, de sens, et de confiance sont souvent les freins à l’initiative, à la motivation. Le rôle du manager est, par la confiance entre autres, de libérer ces énergies positives.

Auteur : Valérie Delas Mossa, consultante et coach, spécialiste de la confiance, du leadership et de la performance.

 

Pour aller plus loin découvrez notre offre de formations « soft skills » Les Essentiels 2018

 

1024x301_cata-essentiels-2018

Vêtements : mieux protéger les consommateurs du risque d’allergies et d’irritations cutanées

Face aux cas d’allergies et d’irritations cutanées en lien avec des vêtements et/ou des chaussures signalés aux autorités sanitaires, les ministères en charge de la santé et de l’économie ont saisi l’Anses afin d’identifier des substances chimiques irritantes ou sensibilisantes cutanées, réglementées ou non, susceptibles d’être présentes dans ces articles. Les ministères ont également demandé à l’Anses de réaliser un état des lieux des connaissances sur la toxicité de ces substances et d’établir des recommandations en matière de fabrication, conservation, transport et sur l’opportunité ou non de limiter l’utilisation de certaines substances.

Pour mener à bien cette expertise, l’Agence a réalisé une étude de la littérature scientifique, complétée par des essais sur un échantillonnage de vêtements neufs prélevés dans plusieurs points de vente et des chaussures ayant entrainé des plaintes de clients, pour rechercher la présence de substances irritantes ou allergisantes cutanées. Au total, une vingtaine de familles de substances chimiques ont été recherchées dans les vêtements et une cinquantaine de substances dans les chaussures.

Ces analyses ont permis d’ajuster les familles de substances chimiques à rechercher et de confirmer entre autres la présence de nonylphénols, de nonylphénols éthoxylates ou encore de formaldéhyde. Elles ont également permis d’identifier des substances non analysées en routine, pouvant entrainer des dermatites de contact telles que la 1,4-paraphénylènediamine ou des dérivés organostanniques, ou des colorants azoïques.

Mise en place d’une étude biomédicale pionnière en France
L’Anses a également mis en place une étude biomédicale, pionnière en France, afin d’investiguer des cas d’allergie ou d’intolérance cutanée pouvant être liés à des substances chimiques dans des vêtements ou des chaussures.

Pour cela, l’Anses a mobilisé un réseau de médecins (dermato-allergologues, toxicologues…) et a mis en place des analyses sur les articles portés par le patient et suspectés d’être associés aux réactions cutanées, afin de caractériser les substances chimiques présentes dans ces articles. La première phase de l’étude a inclus une trentaine de patients adultes entre janvier et septembre 2017. Elle a permis dans certains cas d’identifier des substances chimiques présentes dans des articles portés à l’origine de symptômes (par ex. benzidine, chrome VI, nickel, résine 4-tertbutylphénolformaldéhyde, colorant azoïque). Au vu des premiers résultats de l’étude, l’Agence a décidé de poursuivre l’étude jusqu’en octobre 2018 et les résultats feront l’objet d’un avis complémentaire de l’agence.

Les recommandations de l’Agence

A l’issue de cette expertise, l’Anses émet les principales recommandations à l’attention des autorités :

  • maintenir une pression de contrôle des articles chaussants et textiles d’habillement mis sur le marché afin d’éviter la présence d’articles non conformes à la réglementation portant sur les substances chimiques dans ces articles ;
  • réviser le seuil réglementaire du chrome VI dans les articles en cuir ;
  • fixer un seuil réglementaire pour le nickel dans les textiles ;
  • proposer une classification dans le cadre du règlement européen n°1272/2008 relatif à la classification, à l’étiquetage et à l’emballage (CLP), pour les substances non réglementées et identifiées comme responsables d’allergies cutanées en tant que « sensibilisant et/ou irritant cutané ».

En outre, l’Agence émet les recommandations suivantes à l’attention des responsables de la mise sur le marché des textiles d’habillement et/ou des articles chaussants :

  • s’assurer auprès de leurs fournisseurs de l’absence de substances CMR ou sensibilisantes ou irritantes cutanées dans les articles chaussants ou textiles d’habillement ;
  • réaliser des études pour acquérir des données toxicologiques concernant les colorants CI Disperse Orange 37/76 et CI Disperse Yellow 23,deux colorants mis en évidence dans l’expertise et non révélés jusqu’alors, pour lesquels aucune donnée toxicologique n’est disponible. Ces données seront également utiles pour le développement de tests épicutanés ;
    travailler à la mise en place d’un dispositif d’information (étiquetage, emballage) du consommateur en particulier les populations déjà sensibilisées, permettant de signaler la présence potentielle de telles substances.

Enfin, l’Anses recommande de sensibiliser les consommateurs à l’importance de laver, avant de le porter pour la première fois, tout vêtement susceptible d’entrer en contact avec la peau, en suivant les recommandations de lavage préconisées par le fabricant.

Les résultats de cette expertise appuieront le dossier de restriction dans le cadre du règlement REACH, porté par la France et la Suède au niveau européen, sur les substances sensibilisantes ou irritantes cutanées présentes dans des vêtements et chaussures.

Source : Anses

AddUp Challenge : la finale

La finale du AddUp Challenge 2018, le concours étudiant organisé par AddUp en partenariat avec le CEEBIOS (Centre Européen d’Excellence en Biomimétisme de Senlis), s’est déroulée vendredi 22 juin dans les locaux du groupe Fives, à Paris. Ce concours, lancé en décembre 2017, avait pour thème « Impression 3D métallique et biomimétisme », et a reçu la participation de plus de 150 étudiants répartis en 72 équipes.

Les trois équipes sélectionnées pour la finale ont présenté leurs projets devant un jury composé de journalistes et de représentants d’AddUp, de Fives, de Bpifrance, du CNRS et du Ceebios. Le jury a salué le travail réalisé par les étudiants, qui ont présenté trois dossiers d’excellente qualité.

Le premier prix du concours a été décerné à l’équipe « AcCorps » composée de Pierre Charlier (Université Lille2), Nelson Rochedreux (Université Lille2) et Charles Herman (Université de Technologie de Compiègne). Les trois étudiants ont proposé un concept de stéthoscope adapté à l’écoute des battements du cœur du fœtus, et dont la forme est inspirée des oreilles des mammifères. Un concept innovant, mais surtout performant, qui permet à l’équipe de remporter un chèque de 5000 €. Ce projet a été encadré par le CIC-IT1403 de Lille, laboratoire de recherche spécialisé dans les biocapteurs.

Sur la deuxième place du podium, l’équipe « BiomicROV » a reçu un chèque de 2500 €. Justin Chaillot et Antoine Maltey, étudiants à l’ENSMM de Besançon, ont imaginé un robot capable d’explorer les fonds marins sans générer de turbulences, dont la forme est calquée sur les diatomées et dont le mode de propulsion est inspiré par le poulpe.

L’équipe « Green Team » termine troisième du concours, avec un concept d’allègement de structures trouvant son inspiration dans l’observation du bambou. Un principe qui permet à Luis Miguel Ceballos, Ismail Tanane et Wassim Zghidi, étudiants à l’ENSAM Paris, de remporter un chèque de 2500 €.

Autre temps fort de l’évènement, la remise des prix a été précédée par des interventions de Laura Magro, chargée de mission au CEEBIOS, et de Jean-Claude André, chercheur au CNRS et inventeur de l’impression 3D. « La première édition du concours a été une réussite, nous commençons d’ores et déjà à réfléchir à une deuxième édition pour 2019 », a conclu Jean-Luc Laval, directeur Marketing et Communication chez AddUp.

Les trois équipes présenteront leurs prototypes et l’avancement de leurs travaux lors de deux événements : le salon Biomim’Expo 2018, qui se tiendra le 23 octobre à la Cité des Sciences et de l’Industrie, et l’événement parisien de fin d’année : « L’Usine Extraordinaire », du 22 au 25 novembre au Grand Palais à Paris.

Lanceurs, satellites, services : l’appétent nouveau marché du spatial

La semaine dernière, le Toulouse Space Show a transformé la ville rose en vitrine internationale des nouvelles tendances du marché spatial : technologies de rupture, nouveaux modèles économiques, avènement de l’ère des petits satellites. Un événement dont le succès ne se dément pas au fil des ans. De quelques centaines de participants en 2008, le salon est désormais international et a accueilli cette année plus de 3000 professionnels de 46 pays avec une vitrine de plus de 350 exposants. Et si vous doutiez que les visiteurs viennent pour le commerce : 2000 rendez-vous d’affaires entre 280 entreprises ont été organisés.

Les nouvelles fonctions de l’espace

L’avènement des petits satellites est couplée aux nouvelles fonctions de l’espace :

Et avec à la clé, une montagne de données à haute valeur ajoutée à offrir sur le marché du Big Data.

Des constellations jetables

Ces fonctions économiques sont assurées par des acteurs privés qui sont donc en train de modifier profondément les règles et les conditions d’accès à l’espace. Et cela passe par l’avènement des petits satellites que l’on envoie en constellation au coût réduit (quelques dizaines de milliers d’euros contre plusieurs dizaines de millions pour un satellite classique), à la production en série mais aussi à la durée de vie plus courte, presque conçus comme des objets de grande consommation (durée de vie de l’ordre de 5 ans contre 10-20 ans pour un satellite classique). L’espace devient dès lors accessible à des acteurs privés, sans forcément une intervention des institutions et des pouvoirs publics.

Des technologies en développement

La miniaturisation des satellites est donc en marche. Elle s’accompagne du développement de nouvelles technologies pour assurer toutes les fonctions de ces nouveaux satellites : propulsion, plateforme, alimentation, communication, allongement de la durée de vie etc. qui sont autant de niches où des centaines de start-up tentent leur chance. Pas moins de 60 étaient représentées à Toulouse sur le « Startup Village ». Des jeunes pousses qui ont elles aussi déjà compris qu’elles pouvaient s’associer pour avoir plus de force. Le pôle de compétititvité Aerospace Valley a constitué en mars dernier un groupement, le Newspace Factory qui réunit des PME et des start-up telles que Comat (spécialiste de la micropropulsion électrique), Nexeya ( fournisseurs de plusieurs composants de satellites qui a lancé sa propre gamme de nanosatellites), Syntony (localisation, navigation) ou encore Mecano-ID (structure en matériaux composites)… pour chercher en bande organisée des contrats à l’exportation. Mais les grands acteurs du secteur sont eux aussi déjà bien investis. Sous la forme de consortium, ou par la création de nouvelles structures chacun y va de son projet de constellations et de chaînes de fabrication de petits satellites. De OneWeb (Airbus, Qualcomm et SoftBank) à Starlink (SpaceX) pour l’Internet à LeoStella (Thales Alenia Space + Spaceflight Industries) pour des micro satellites à haute résolution en imagerie et géo-intelligence… Sans compter que ces groupements industriels s’associent à de nouvelles sociétés de services, créant un marché émergent puissant dont l’une des entreprises modèles est Planet dont la constellation de 200 satellites fournit des données à tous les secteurs économiques (agriculture, urbanisme, collectivités, défense, énergie etc.).

Petits lanceurs deviendront grands

Et pour mettre tout ça en orbite, plusieurs sociétés se sont lançées dans la course à la petite fusée. On ne présente plus les nouveaux comme Blue Origin ou Space X qui est passé en 5 ans d’un statut de petit poucet excentrique à l’un des concurrents les plus scrutés du marché des lancements. Mais de multiples autres petites entreprises tentent leur chance : Virgin Galactic, Vector Space System, Firefly aerospace (qui après avoir fermé ses portes fin 2016 est re-née de ses cendres en Ukraine) ou encore Rocket Lab. Ce dernier, pour un budget de moins de 200 millions d’euros a monté un site de lancement en Nouvelle-Zélande et développé un petit lanceur, Electron. Celui-ci a fini ses derniers essais en début d’année. Le premier lancement commercial qui devait avoir lieu fin juin a cependant été repoussé suite à une anomalie technique. Faisant passer la fenêtre de lancement de mai-juin au deuxième semestre 2018… Difficile de prédire ce que cette ébullition deviendra quand le marché se stabilisera.

L’Europe mise sur la fiabilité

Il serait faux de penser que l’Europe n’a pas pris la mesure de ces changements. Même si l’on peut déplorer un manque de volonté et de réactivité politique, l’ESA a lancé un programme de recherche et de soutien sur les nouveaux lanceurs dès 2003 (FLPP –  Future Launchers Preparatory Programme). Elle développe le programme Altair, et soutient des projets privés comme ceux de deux sociétés espagnoles : ZeroInfinity et son Bloostar et PLD Space et ses fusées réutilisables Arion 1 et 2 dont le premier vol d’essai est prévu en 2019 et qui a reçu une enveloppe de 2 millions d’euros de la Commission européenne début 2018 pour mener à bien son programme de développement.

En outre, sur un marché intermédiaire, Arianespace propose depuis 2012 les services du lanceur Vega. Bien que plus chers que certains concurrents Vega présente une fiabilité de 100 % depuis 6 ans et Luce Fabreguettes, vice-présidente d’Ariaespace en charge des missions témoignait au Figaro.fr en mars 2017 de l’intérêt du lanceur « depuis la mise en service de Vega, certains opérateurs conçoivent des plateformes calées sur les performances de notre petit lanceur, ce qui prouve que sa disponibilité crée un début de marché». Vega doit en outre évoluer pour passer à la version C dont le premier vol est programmé pour 2019.

Sophie Hoguin

* chiffre du NSR (Northern Sky research) dans son rapport 2018 concernant uniquement les lancements (pas les services) sur le marché des satellites et comprenant mini (-500kg), micro (-150kg) et nanosatellites (-10kg).

ESA EURONEWS: Et si un astéroïde géant touchait de nouveau la terre

Il y a plus de 60 millions d’années, les dinosaures régnaient sur la Terre. Aujourd’hui, ils ne sont plus que des reproductions et des fossiles comme les exemplaires que l’on peut voir au Muséum d’Histoire naturelle de Vienne. ​La cause de leur disparition ? Un astéroïde, un bloc de roche et de métal né lors de la formation du système solaire.

«Il y a 66 millions d’années, un astéroïde percutait la Terre : il ne faisait que 10 km de long, mais le cratère qui en a résulté s’est étendu sur 200 km», explique Christian Köberl, directeur du Muséum. «Donc cela nous renseigne sur la quantité énorme d’énergie qu’un tel événement implique et cette énergie s’est traduite par une gigantesque explosion, des séismes et toutes sortes de choses effroyables, le climat a aussi changé immédiatement et de nombreux animaux et de plantes de l’époque – en fait, près de deux tiers de toutes les espèces vivantes sur notre planète – ont disparu», énumère-t-il.

Le cas de Tcheliabinsk

Rien de comparable ne s’est produit depuis. Mais le risque bien que faible est toujours présent.

En février 2013, un astéroïde de 20 mètres de long s’était fragmenté en entrant dans l’atmosphère au-dessus de la ville russe de Tcheliabinsk, faisant 1500 blessés.

Ce cas peut nous en apprendre beaucoup, en particulier grâce aux météorites retrouvées sur place. Ludovic Ferrière, conservateur des collections du Muséum, nous montre une pièce de cette météorite de Tcheliabinsk: «Sa croûte de fusion typique à l’extérieur s’est formée lors de l’entrée dans l’atmosphère et quand on la coupe, on est capable de voir l’histoire de cette météorite», dit-il. «Ici, on voit la partie qui est fraîche, qui nous renseigne sur la formation du système solaire, qui n’a pas été beaucoup affectée depuis sa formation», poursuit-il. «Et là, cette partie noire traduit un certain nombre de chocs qui ont eu lieu depuis sa formation il y a 4,56 milliards d’années et les différents impacts qu’elle a subis avant d’entrer dans l’atmosphère», précise-t-il.

À Tcheliabinsk, l’astéroïde s’était transformé en pluie de météorites. D’autres plus massifs sont capables d’atteindre la Terre.

Pour se rendre compte de leur diversité, rien de tel que ce Muséum où l’on peut voir exposé le plus grand nombre de météorites au monde. Le lieu où elles percutent le sol a son importance: si elles font la taille d’une maison, elles peuvent détruire une forêt, causer un tsunami ou modifier notre atmosphère.

«Si la météorite s’abat sur une mer peu profonde – en fonction du type de sédiments qu’il y a au fond -, le choc peut causer une vaporisation qui libère une grande quantité de gaz à effet de serre», indique Lidia Pittarello, spécialiste des astéroïdes à l’Université de Vienne. «Et alors, on peut vraiment avoir un effet sur le climat à long terme», affirme-t-elle.

Source : ESA

L’île de Kaua’i démontre qu’il est possible d’atteindre de très hauts niveaux d’énergies renouvelables variables dans un mix électrique grâce au stockage batterie

Un parc solaire PV de 19,3 MW assisté d’une batterie d’AES Distributed Energy capable de stocker 70 MWh va délivrer une électricité vendue  0,1085 dollars (0,0931 €) le kWh dans le cadre d’un nouveau PPA (Power Purchase Agreement) qui vient d’être signé sur l’île de Kaua’i à Hawaï par la coopérative KIUC.

Le parc solaire va être installé sur un terrain militaire au niveau de la « Pacific Missile Range Facility ». Le système solaire + batterie sera capable de se déconnecter du réseau et permettre de continuer à délivrer de l’électricité aux appareils militaires lors d’une panne sur le réseau électrique de l’île. Le projet a été autorisé par l’Hawaii Public Utilities Commission (PUC).

Le coût de 0,1085 dollars le kWh est inférieur à celui d’un autre projet sur cette île, consistant en un parc solaire de 28MW  et d’une batterie de 20MW / 100MWh.

Ces deux projets font suite au parc solaire de 13 MW assisté d’une batterie Tesla de 52 MWh qui vient d’être mis en service en juin 2018.

La coopérative KIUC a déclaré que ces nouveaux projets solaire + stockage permettront à l’île d’atteindre un niveau de 70% de renouvelables dès 2019, soit 11 années plus tôt que ce qui était prévu initialement. Et 90% dès 2023 grâce notamment à une STEP, station de transfert d’énergie par pompage permettant de réaliser du stockage gravitaire.

Sur le plan purement technique ce qui est possible sur une petite île isolée est bien entendu beaucoup plus facile à réaliser à l’échelle d’un pays comme la France électriquement interconnecté aux pays voisins.  Chaque commune française peut être comparée à une île, mais une île reliée à ses voisines.

Une étude récente réalisée par le cabinet Artelys a montré que la France peut dépasser 50% d’énergie renouvelable dès 2030, et ceci sans avoir besoin d’investir dans de nouveaux systèmes de stockage stationnaires.

Jean-Gabriel Marie

Responsabilité sociétale : normes et bonnes pratiques

La norme ISO 26000 : 2010 « Lignes directrices relatives à la responsabilité sociétale » propose une cartographie de la responsabilité sociale en précisant plusieurs domaines de responsabilité de l’entreprise rattachés à sept questions centrales ainsi que les comportements attendus. La norme précise que la responsabilité sociale est le moyen par lequel les entreprises peuvent contribuer au développement durable. Selon cette norme, une entreprise responsable doit d’abord respecter plusieurs principes : redevabilité (rendre des comptes), transparence, comportement éthique, reconnaissance des intérêts des parties prenantes, respect du principe de légalité, prise en compte des normes internationales de comportement et respect des droits de l’Homme.

Pour chacune de ces questions, il lui faut identifier sa responsabilité en regard des obligations formelles ainsi que des attentes des parties prenantes. La norme propose aussi une série de domaines d’actions et précise des attentes pour chacune des questions centrales. Enfin, l’ISO 26000 esquisse le système de gestion à mettre en place en vue de gérer la responsabilité sociale, système qui doit être intégré à la stratégie globale et à toutes les pratiques de l’organisation.

Dans une économie où les entreprises sont structurées en réseaux, la production est souvent fragmentée et délocalisée. Pour se défendre d’ainsi externaliser leur responsabilité sociale, plusieurs entreprises ont adopté des codes de conduite à l’intention de leurs partenaires commerciaux, chez qui elles réalisent des audits périodiques. Elles ont notamment recours à des certifications telles que SA8000 (Social Accountability) en matière de droits humains ou encore FLA (Fair Labor Association) dans le domaine du textile. Ces initiatives répondent aux prescriptions du Pacte Mondial ou encore de la norme ISO 26000 qui précise que l’entreprise doit exercer sa responsabilité sociale dans toute sa sphère d’influence, ce qui l’étend à ses sous-traitants.

Au-delà de ces normes, les entreprises ont aussi recours à de nouvelles pratiques pour améliorer leur performance environnementale, dont l’écoconception.

Précepte central de l’économie circulaire, l’écoconception consiste à intégrer au processus de conception des produits et des services des considérations écologiques mais aussi le souci d’une maximisation de l’utilité sociale, sachant que l’impact écologique d’un produit est presque entièrement déterminé lors de sa phase de conception.

Il existe plusieurs stratégies d’écoconception qui peuvent s’appuyer sur des outils plus ou moins complexes : liste de contrôle, matrice énergie-matière, lignes directrices, analyse du cycle de vie…

info-part-3_ok

Extrait de l’article G8405 « Développement durable et responsabilité sociale de l’entreprise » de Corinne GENDRON

Responsabilité sociétale : les pressions subies par les entreprises

Plusieurs facteurs peuvent influencer l’engagement d’une entreprise vis-à-vis du développement durable, parmi lesquels le cadre réglementaire ou la philosophie des dirigeants. On peut distinguer quatre types de pression à la performance environnementale et sociale : juridique, financière, commerciale et sociale.

  • la pression juridique s’incarne non seulement dans les exigences réglementaires mais aussi dans la jurisprudence ou le risque de poursuites civiles ;
  • la pression financière concerne les coûts ou les économies potentielles liées aux pratiques environnementales et sociales de l’entreprise ;
  • la pression commerciale désigne à la fois l’accès aux marchés, les conditions contractuelles ou encore l’image de marque ;
  • enfin, les pressions sociales sont portées par les communautés locales, les employés ou encore les ONG.

Selon plusieurs études, les principaux facteurs incitant les entreprises à se doter d’une politique et d’un système de gestion environnementale sont tout d’abord la réglementation et la crainte de poursuites judiciaires. Viennent ensuite l’optimisation des procédés et la gestion des coûts de production, puis le positionnement marketing ou l’image publique. Les employés sont les acteurs qui exercent le plus de pression en vue de l’amélioration de la performance environnementale de l’entreprise, suivis par les actionnaires, les assureurs, puis par les communautés locales.

info-part-2_ok

 

Extrait de l’article G8405 « Développement durable et responsabilité sociale de l’entreprise » de Corinne GENDRON