Femme et ingénieure… épisode 6

La faible proportion de femmes ingénieures a incité la CDEFI (Conférence des directeurs des écoles françaises d’ingénieurs) à mettre en place l’opération Ingénieuses en 2011, afin d’attirer davantage de jeunes filles en écoles d’ingénieur-e-s. La cérémonie de remise des prix a eu lieu le 25 mai dernier, l’occasion de rencontrer les lauréats de la catégorie Enseignement de l’égalité, l’Ecole des Mines de Saint-Etienne.

 

Les actions :

Au niveau des personnels, l’année 2018 a donné lieu à différentes actions comme la mise en œuvre de la charte égalité au sein de notre Centre de Culture Scientifique, Technique et Industrielle, l’organisation d’ateliers et le pilotage actif de la commission sur l’égalité femmes/hommes.

Au niveau des élèves, un module « interculturalité » divisé en trois grands thèmes leur a été proposé : interculturel sociétal, interculturel géographique et interculturel scientifique. Ces ateliers se déroulent sur trois jours. Parmi ces trois thèmes, le module interculturel sociétal intègre la dimension de l’égalité femmes/hommes.

Depuis 2011, l’association WoMines soutient les démarches étudiantes en faveur des femmes. Le but est de valoriser la place des femmes ingénieures, encore minoritaires, à l’école et dans le monde du travail. Par extension, la volonté de ce projet d’élaboration d’un réseau, de conférences et de conseils, est de favoriser l’insertion des femmes ingénieures dans le monde du travail et ce dès leur admissibilité au concours d’entrée, puis en facilitant leur intégration dans l’école et la résidence des élèves. L’action principale de Womines est le marrainage dans les lycées locaux.

 

Entretien avec Hélène Pangot, préfète des études, référente égalité femmes-hommes pour l’Ecole des Mines de Saint-Etienne

Pourquoi avoir participé à ce concours, et pourquoi cette année ?
J’ai repris les missions de référente égalité femmes-hommes depuis deux ans. La démarche a nécessité différentes étapes :
  • Un état des lieux, notamment de tous les publics concernés.
  • La création d’une commission paritaire sur ce sujet (comme il en existait déjà une sur le handicap). Celle-ci a été mise en place fin 2016.
  • Des premières actions, un peu éparses la première année.
  • Enfin, un réel plan d’action cette année, pour tous les publics.

Certaines de ces actions sont alors directement intégrées dans le cursus de nos élèves, avec des crédits ECTS à la clé. Par exemple, nous avons mis en place des modules d’interculturalité : 3 jours en workshop, la plupart du temps à l’extérieur de l’école. Cette année 2 modules ont été proposés :

  • Nous avons envoyé certains de nos élèves à la rencontre des collégiens et lycéens, avec un travail de préparation en amont, afin de les faire échanger sur les stéréotypes.
  • D’autres élèves ont suivi un module sur la connaissance et la réappropriation du corps selon les cultures. Ce module, assez original, a pu être suivi par 8 élèves, filles comme garçons, et a été plutôt bien perçu.

Je dirais donc qu’il a donc fallu un temps de préparation puis un temps de maturation, avant d’arriver à un projet global élaboré. A travers la participation à ce concours, nous souhaitions nous évaluer et savoir comment nos actions pouvaient être perçues de l’extérieur.

 

Comment l’Ecole favorise-t-elle l’égalité femmes/hommes ?

Grâce à la commission égalité “Femmes.Hommes” mise en place, nous avons pu avancer sur ces questions. Les premières commissions ont été assez animées, il était difficile de trouver des consensus. En effet, il est parfois compliqué de trouver la bonne posture : certain-e-s vont être très féministes, d’autres plus modéré-e-s, le curseur est difficile à placer. C’est pour cela qu’il a été important pour nous ne nous faire accompagner par une personne ressource extérieure à l’école sur ces questions. Et au final, cela se passe bien, pour les hommes comme pour les femmes.

Cette commission nous a permis de lancer des projets : cette année nous avons essayé de mettre en place une action par saison. Par exemple, nous avons organisé une rencontre du personnel avec une personne qui travaille sur la question du genre dans les jeux vidéo. Les personnels ont été plutôt réceptifs à ce type d’opération.

Nous travaillons également avec la Rotonde, le Centre de culture scientifique technique et industrielle de l’École des Mines de Saint-Étienne, qui a un engagement fort, avec par exemple la rédaction d’une charte sur l’égalité face aux sciences pour le grand public.

 

Des milliers de jeunes femmes vont être diplômées ingénieures dans les mois qui arrivent, quel conseil pouvez-vous leur donner pour débuter leur carrière du bon pied ? 

Ne pas hésiter à se mettre en avant et à valoriser son parcours et ses réalisations. Elles ne doivent pas se censurer, notamment au niveau des salaires. On constate régulièrement qu’elles vont spontanément demander moins que leurs homologues masculins. Elles partent alors déjà avec un retard dès le début de leur carrière. Il faut oser, elles le valent. Elles ont le même diplôme et les mêmes compétences.

Plan Biodiversité : du concret, du recyclé et des attentes

Le nouveau Plan Biodiversité comprend 90 actions réparties en 24 objectifs et six axes stratégiques. Disons-le d’emblée, France Nature Environnement voit dans ce nouveau plan «1/3 de concret, 1/3 de recyclé, 1/3 de peu engageant». Avec une enveloppe annoncée de 150 millions d’euros par an, la fédération d’associations environnementales et le WWF demandent des moyens supplémentaires dès le Projet de Loi de finances 2019.

Parmi les mesures phares, du concret et du recyclé

Parmi les mesures phares en agriculture, citons l’interdiction de tous les pesticides neuro-toxiques et l’objectif de 22 % de surfaces bio d’ici 2022. Une enveloppe de 150 millions d’euros sur 4 ans sera dédiée à la replantation des haies, à la préservation des prairies et des zones humides ou à toute autre action de protection de la biodiversité. À l’instar d’Europe Ecologie–Les Verts, nous pourrons regretter l’absence de mesures sur la biodiversité cultivée. «Depuis 60 ans, 80 % des variétés végétales comestibles ont disparu», rappelle le parti politique.

Le Gouvernement annonce la création ou l’extension de 20 réserves naturelles nationales et la création en 2019 d’un onzième parc national. Il fait appel aux collectivités et souhaite créer 1000 Territoires engagés pour la nature d’ici 2022. Afin de lutter contre l’étalement urbain, il lance un objectif «zéro artificialisation nette», l’horizon temporel restant à préciser. En particulier, tout nouveau parking sera perméable pour favoriser l’infiltration des eaux. Dès septembre, un Agenda de l’action pour la biodiversité incitera l’ensemble de la société à prendre des engagements «ambitieux et concrets».

Plusieurs actions sont dédiées aux océans, notamment l’objectif de protéger 100 % des récifs coralliens d’ici 2025. Mentionnons également l’objectif de «zéro plastique rejeté en mer d’ici 2025», conformément à l’objectif de recycler 100 % des plastiques de la Feuille de route pour l’économie circulaire. La France soutiendra ainsi au niveau européen l’interdiction de mise sur le marché des 12 produits en plastique à usage unique le plus souvent retrouvés sur les plages et en mer. Enfin, la France portera au niveau européen un plaidoyer pour interdire la pêche électrique et protéger les tortues marines.

Les entreprises et la pollution lumineuse

Dès cette année, l’objectif sera de définir un indicateur d’impact sur la biodiversité, similaire à la tonne de CO2 pour l’impact climatique. La France portera alors au niveau européen la publication obligatoire de cet indicateur dans les rapports RSE des entreprises. D’ici 2022, 4 filières seront invitées en priorité à réduire cet impact : l’énergie, la chimie, l’agro-alimentaire, ainsi que le secteur des bâtiments et de la construction.

La pollution lumineuse continue de faire parler d’elle. Le nouveau Plan veut définir un nouvel indicateur et une nouvelle réglementation pour mieux l’appréhender. L’Association nationale pour la protection du ciel et de l’environnement nocturnes (ANCPEN) regrette néanmoins l’absence d’objectif chiffré. Grâce au nouvel indicateur, elle demande dès cet année de «ne plus augmenter la quantité de lumière émise chaque nuit», et des «objectifs de diminution avec des échéances claires».

Dans le prolongement de la COP21 et de l’Accord de Paris, le gouvernement affiche l’ambition de prendre le leadership de la protection de la biodiversité. Il hissera la biodiversité au rang des priorités de l’agenda international d’ici la conférence de la Convention sur la Diversité Biologique qui aura lieu en Chine en 2020. Pour être cohérent avec cette ambition, les associations demandent toujours l’arrêt des grands projets qu’elles considèrent comme «inutiles» et néfastes pour la biodiversité : Europacity, la Montagne d’Or, le canal Seine-Nord, etc.

Par Matthieu Combe, journaliste scientifique

Ineos va investir 2,7 Md€ en Europe dans un nouveau vapocraqueur

C’est le plus gros investissement jamais conçu par Ineos et ce sera le premier vapocraqueur construit en Europe depuis plus de 20 ans. Il s’agira d’un vapocraqueur sur base éthane et d’une usine de déshydrogénation de propane qui permettra à terme d’implanter une unité de production de propylène supplémentaire d’environ 750 000 t/an. En terme de capacité, le nouveau vapocraqueur est prévu pour produit 1Mt/an d’éthlylène. La production assez classique d’une installation de taille mondiale d’aujourd’hui mais qui pour l’Europe représente une petite révolution, car les vapocraqueurs encore en fonctionnement aujourd’hui sont vieux, beaucoup plus petits et fonctionnent généralement sur une base naphta.

Investir en Europe continentale

L’installation de ce nouveau complexe est prévue sur les côtes de l’Europe du Nord-Ouest mais le lieu exact n’a pas encore été déterminé. Une équipe est en charge d’examiner les différentes options. L’Allemagne, la Belgique et les Pays-Bas semblent pour l’instant favoris. L’installation sur un même site du vapocraqueur et de l’usine PDH sont envisagés mais ce choix peut encore évoluer. Le projet doit aboutir dans les 4 ans.

Cet investissement n’est pas totalement une surprise, ces projets d’augmentation massive des capacités au niveau européen sont discutées depuis plusieurs années au sein du groupe britannique et déjà en 2017, il était question d’investir dans une nouvelle unité de PDH et d’accroître la capacité de production d’éthylène des vapocraqueurs déjà existant de Grangemouth en Ecosse et Rafnes en Norvège de quelque 900 000 t/an. Le pétrochimiste s’est finalement décidé d’ajouter à ces investissement un nouveau vapocraqueur à base éthane en Europe continentale.

La manne du gaz de schiste américain

Cet investissement s’inscrit dans la stratégie du groupe qui vise à profiter de l’éthane à faible prix produit Outre-Atlantique par l’exploitation des gaz de schistes et à anticiper la baisse de production de gaz naturel en mer du Nord. Ainsi, depuis mars 2016, Ineos a mis en place un «pipeline virtuel» d’éthane entre l’Europe et les Etats-Unis via une flotte maritime dédiée. Huit tankers alimentent ainsi régulièrement les sites de Rafnes et Grangemouth. Ce pipeline et les équipements qui l’ont accompagnés (construction du plus grand site de stockage d’éthane d’Europe à Grangemouth) représentait déjà un investissement de l’ordre de 2Md €. Pour le géant britannique il s’agit «d’améliorer l’autosuffisance sur les principaux oléfines et de soutenir les activités de dérivés et de polymères en Europe», explique ainsi Gerd Franken, pdg d’Ineos Olefins et Polymers North, ajoutant aussi que «l’ensemble des actifs européens pourront ainsi profiter de cette nouvelle capacité d’importation de matières premières compétitives depuis les Etats-Unis et le reste du monde».

Sophie Hoguin

Femme et ingénieure… Episode 5

La faible proportion de femmes ingénieures a incité la CDEFI (Conférence des directeurs des écoles françaises d’ingénieurs) à mettre en place l’opération Ingénieuses en 2011, afin d’attirer davantage de jeunes filles en écoles d’ingénieur-e-s. La cérémonie de remise des prix a eu lieu le 25 mai dernier, l’occasion de rencontrer la lauréate Elève-ingénieure France, Lou GRIMAL.

 

Son parcours :

Parallèlement à ses études d’ingénieur, Lou est investie dans bon nombre d’activités extra-scolaires et associatives. Elle a participé à trois semi-marathons, a été cheffe d’équipe de l’UTT au « Challenge du Monde des Grandes Ecoles » (CMGE) et secouriste en équipe. Au niveau associatif, elle a été élue au conseil des études au sein de son école, présidente d’Ingénieurs sans frontières Troyes, co-créatrice et trésorière de l’association « Portraits 2 Passages ». Dernièrement, c’est à un projet d’épicerie solidaire étudiante, AGORAé Troyes, qu’elle se consacre en tant que co-présidente. Concernant ses actions en faveur de l’égalité entre les femmes et les hommes, elle est marraine de l’association Elles Bougent : elle a d’ailleurs participé à un web-reportage de France 3 sur les femmes ingénieures. Elle a entrepris un voyage en binôme avec une autre élève-ingénieure pour montrer la possibilité pour les femmes de voyager seules.

 

Entretien avec Lou :

Qu’est-ce qui a vous a motivée à participer au concours Ingénieuses’18 ?

L.G. : Je n’avais jamais vraiment pensé participer à ce type de concours. Dans le cadre de l’association « Elles bougent », j’avais participé en équipe au concours Innovatech, que nous avons remporté au niveau Champagne-Ardenne. J’ai apprécié ce challenge, ce qui m’a donné l’idée de participer à d’autres concours, notamment quand je cherchais des financements pour un de mes projets. C’est ainsi que j’ai découvert le concours Ingénieuses de la Cdefi.

 

Votre parcours est un peu atypique, pouvez-vous nous l’expliquer?

L.G. : Effectivement, au départ, je ne voulais pas être ingénieure. J’ai d’ailleurs choisi de faire une prépa littéraire BL après le baccalauréat. C’est lors de la deuxième année de cette prépa qu’une personne de l’UTT est venue et nous a présenté l’école. Elle nous a expliqué quel était le concours à passer pour pouvoir y entrer. Cette rencontre m’a permis de me projeter, et j’ai donc passé le concours six mois plus tard.

Au tout début à l’UTT, j’ai uniquement été élue étudiante. C’est vraiment lors de la fin de mon parcours que je me suis investie dans des associations, au sein desquelles j’ai commencé à prendre des responsabilités, et c’est ce qui m’a plu. J’ai compris que c’est cela qui me permettait d’avancer : travailler sur des projets en groupe, trouver les bonnes personnes, motivées, c’est un gros challenge. J’ai notamment présidé Ingénieurs sans frontières Troyes. C’est qui m’a permis d’avancer le plus, tout en comprenant réellement ce qu’est le métier de Chef de projet.

Aujourd’hui je travaille sur un projet d’épicerie solidaire qui devrait voir le jour en septembre. Parallèlement à cela, je me suis plongée dans des projets beaucoup plus techniques (développement JavaScript) sous le statut d’auto-entrepreneure.
Finalement, je dirais qu’il y a quand même pas mal de hasard, d’envies personnelles et de facteurs conjoncturels qui ont joué sur mon parcours.

 

De nombreuses jeunes filles viennent d’obtenir leur baccalauréat et vont se lancer dans des études d’ingénieur, quel message souhaitez-vous leur adresser ?

L.G. : Osez prendre des risques, faire des choses qui paraissent folles… Cela vous aide à grandir. Prendre des risques m’a permis de reconsidérer ma vie professionnelle. Les voyages m’ont permis de trouver ma voie, de penser autrement.
Osez aller en école d’ingénieur. Quand j’étais plus jeune, un certain nombre de mes copines voulaient être dans la communication, ou s’occuper d’enfants… par clichés implicites ? Etudiez ce qui vous plait.

Le biomimétisme : réconcilier la technosphère et la biosphère

Dans de nombreux domaines, les organismes vivants surclassent nos solutions technologiques. Les solutions biomimétiques sont intéressantes, non seulement pour leur ingéniosité, mais aussi pour leur potentiel de résilience écologique. La nature possède des stratégies d’optimisation de ressource encore inégalées par nos technologies actuelles.

Retrouvez les concepts et les enjeux du biomimétisme dans notre infographie animée.

Résilience écologique, approche systémique, écoconception, innovation durable, tous ces concepts structurants sont au cœur de la philosophie du biomimétisme.

Les processus de la bio-inspiration se déclinent au travers de 3 concepts distincts :

  • La biomimétique (Biomimetics) : processus créatif interdisciplinaire entre la biologie et la technologie dans le but de résoudre des problèmes anthropocentriques par l’abstraction, le transfert et l’application de connaissances issues de modèles biologiques.
  • Le biomimétisme (biomimicry/biomimesis) : le biomimétisme est une philosophie consistant à prendre la nature pour modèle, notamment à un niveau organisationnel, afin de répondre aux enjeux du développement durable (sociaux, environnementaux et économiques).
  • Bionique (Bionics) : discipline très liée à la robotique visant à la reproduction, l’augmentation ou le remplacement de fonctions biologiques par leurs équivalents électroniques et/ou mécaniques.

Il existe trois niveaux d’inspiration du vivant (ici on présente l’exemple en 3 niveaux de l’institut Biomimicry 3.8) :

  • les formes et les structures,
  • les procédés et les matériaux,
  • l’organisation et le fonctionnement des systèmes.

Le nombre de chercheurs et d’industriels en lien avec la bio-inspiration ne cesse de croître, mais le transfert de connaissances de la biologie vers la technologie demeure un processus complexe. La méthodologie pourrait être en mesure d’apporter une réelle amélioration à ce frein par un travail de simplification de la démarche.

La biomimétique est une approche proposant deux voies distinctes : solution oriented ou problem oriented que nous détaillons également dans cette animation.

Nous prendrons enfin le temps de vous donner des exemples passionnants de réalisations biomimétiques.

Si cette animation vous a plu,  ou si vous souhaitez nous donner votre avis… les commentaires (sur youtube, et/ou ici sur le magazine d’actualité) sont ouverts, nous sommes preneurs !

Bon visionnage.

Les modèles climatiques actuels pourraient sous-estimer les changements climatiques à long terme

Certaines périodes passées ont été au moins aussi chaudes que l’époque actuelle. Les chercheurs tirent de leur examen des informations intéressantes pour la construction des modélisations du réchauffement climatique et de son évolution.

Une équipe internationale de 17 pays publie le 25 juin 2018 une analyse de périodes passées, dans Nature Geoscience. Il en ressort qu’un réchauffement global, même limité à 2°C au-dessus du niveau préindustriel comme l’accord de Paris le préconise, engendrera des déplacements rapides des zones climatiques et des écosystèmes associés. Les calottes polaires vont se réduire significativement pour des périodes de plusieurs milliers d’années. Un réchauffement rapide des pôles relâchera un surplus de gaz à effet de serre, et le niveau de la mer montera de plusieurs mètres au cours des prochains millénaires. Enfin, ces observations montrent également qu’un bon nombre des modèles climatiques actuels, utilisés pour la simulation des changements au cours du XXIe siècle, risquent de sous-estimer les changements à long terme.

Plusieurs périodes de temps ont été identifiées au cours des 3,5 derniers millions d’années comme ayant été de 0,5 à 2°C plus chaudes que l’époque préindustrielle. Elles révèlent des réchauffements plus marqués aux hautes latitudes que dans les régions tropicales, ce qui est similaire aux résultats de simulations issus de modèles de climat pour un réchauffement global de 2°C à l’horizon 2100. Bien que ces périodes chaudes passées n’aient pas toutes été causées par une augmentation du CO2 atmosphérique, leur étude permet d’évaluer les effets d’un réchauffement comparable au niveau limite préconisé par l’accord de Paris.

Les écosystèmes et les zones climatiques vont migrer

L’étude confirme que la migration des écosystèmes et des zones climatiques s’effectuera en général vers les pôles, ou vers des zones de plus haute altitude. Elle confirme aussi que le dégel du permafrost relâchera du gaz carbonique et du méthane additionnels, ce qui causera un réchauffement supplémentaire. Les observations des époques chaudes passées suggèrent qu’avec un réchauffement limité à 2°C, comme le propose l’accord de Paris, le risque d’un emballement catastrophique lié à de fortes émissions induites de gaz à effet de serre est relativement faible. Cependant, même dans ce cas, le CO2 additionnel issu du permafrost et des sols doit être pris en compte.

Une élévation à long terme du niveau de la mer de plus de 6 mètres

Un réchauffement même limité de 1,5 à 2°C au-dessus du niveau préindustriel sera suffisant pour causer une fonte substantielle du Groenland et de l’Antarctique à long terme, et engendrer une hausse du niveau de la mer de plus de 6 mètres qui persistera des milliers d’années. Des vitesses de montée du niveau de la mer supérieures à celles de ces dernières décennies sont alors probables.

Les réchauffements du passé plus forts que les simulations obtenues avec les modèles du climat

Les comparaisons entre données du passé et simulations numériques suggèrent que les modèles de climat sous-estiment le réchauffement à long terme et son amplification par les régions polaires. Alors que les projections des modèles climatiques semblent fiables pour des changements d’amplitude modérée au cours des prochaines décennies, ces modèles sous-estiment probablement le changement climatique à venir, particulièrement pour les projections de réponse à long terme pour les scénarios de poursuite de l’augmentation des rejets de gaz à effet de serre.

Référence : Fischer, H., Meissner, K.J., Mix, A.C., et al.: Palaeoclimate constraints on the impact of 2 °C anthropogenic warming and beyond. Nature Geoscience, 25 June 2018 (in press).

Source : cnrs

Haro sur les néonicotinoïdes

La biodiversité terrestre et aquatique menacée

Pour les 233 scientifiques à l’origine de l’appel lancé dans la revue Science, le 1er juin dernier, la toxicité des néonicotinoïdes n’est plus à démontrer. Des centaines d’études scientifiques suggèrent, en effet, que ces insecticides neurotoxiques nuisent aux organismes d’une importance vitale pour les humains tels que les pollinisateurs et contribuent à la perte massive actuelle de la biodiversité mondiale. D’autant plus que ces produits «sont hautement persistants dans l’environnement, si bien que des résidus significatifs sont communément retrouvés dans les sols, les fleurs sauvages, les cours d’eau et les lacs» alertent les signataires.

Les néonicotinoïdes avaient déjà été incriminés suite à une étude publiée en octobre 2017 par la revue PLoS One qui dévoilait une diminution en trente ans de près de 80% de la population des insectes ailés en Europe.

Des avancées prometteuses

Contre toute attente, un pas important a été franchi en avril dernier : les états membres ont voté la proposition de la commission européenne interdisant les usages des 3 principaux néonicotinoïdes (Thiamétoxame, Imidaclopride, Clothianidine) sur toutes les cultures en plein champs ; seul l’usage sous serre restant autorisé. Une interdiction qui suit les recommandations de l’Autorité européenne de sécurité des aliments (EFSA) qui est elle-même parvenue, en février 2018, à la conclusion que ces 3 molécules sont très toxiques pour les abeilles domestiques et sauvages.

A cela s’ajoute, fin mai 2018, la publication d’un rapport de l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (ANSES) qui a étudié les alternatives envisageables à ces produits. Selon l’Anses, «pour une majorité des usages des produits phytopharmaceutiques à base de néonicotinoïdes, des alternatives (chimiques et non chimiques) suffisamment efficaces, et opérationnelles ont pu être identifiées.» Surtout, le rapport indique que pour près de 80% des cas analysés, au moins une solution alternative non chimique existe. L’Anses ajoute qu’ « en l’état actuel des connaissances, les méthodes non chimiques apparaissant comme les plus aptes à remplacer immédiatement, efficacement et durablement les néonicotinoïdes sont la lutte biologique, la lutte physique par application d’une couche protectrice (huile de paraffine, argile…), et la lutte par confusion sexuelle, lorsque ces méthodes sont d’ores et déjà disponibles en France ou aisément transférables.» Le rapport évoque également d’autres pistes envisageables pour éviter l’utilisation de ces produits toxiques comme le recours aux médiateurs chimiques (les répulsifs) ou le recours aux auxiliaires des cultures (parasitoïdes ou prédateurs).

Par Aliye Karasu

Une nouvelle technique pour encapsuler des biomolécules

La formulation de compartiments (ou capsules) susceptibles d’encapsuler du matériel biologique (protéines, enzymes, ADN…) revêt un grand intérêt d’un point de vue industriel mais également au niveau fondamental pour l’élaboration de cellules artificielles. Les compartiments les plus connus, les liposomes, sont formés à partir de lipides. Ils sont notamment utilisés en cosmétique. D’autres types de compartiments sont à base de particules ‘colloïdales’1 et de ce fait appelées ‘colloïdosomes’.   Jusqu’à présent, ces colloïdosomes sont fabriqués en ajoutant des particules (latex, silice…) dans des émulsions eau/huile (figure 1). Celles‐ci forment des émulsions de ‘Pickering’ (du nom du chercheur britannique ayant découvert ce phénomène au début du 20e siècle). Puis, ces particules sont reliées entre elles chimiquement de façon à former des capsules robustes pouvant être transférées dans l’eau. Cependant, l’utilisation de solvants et d’huile nécessaires à leur fabrication représente un frein pour leur développement. En effet, les principes actifs doivent être inclus dès le début de la fabrication et peuvent donc être détruits par les solvants.

Capture d’écran 2018-07-11 à 10.33.50
Figure 1 : Représentation schématique d’une gouttelette d’émulsion eau/huile (gauche), l’ajout de particules (ronds jaunes) conduit à la formation d’une émulsion de Pickering (milieu), puis les particules sont reliées entre elle chimiquement (‐) formant, des colloïdosomes (droite).

Un nouveau système sans huile ni solvant Pour la première fois, des chercheurs de l’Inra, du CNRS et de l’université de Bordeaux, en collaboration avec une équipe de l’université de Bristol (Grande‐Bretagne), ont mis au point une nouvelle méthode pour fabriquer ces colloïdosomes, directement dans l’eau, sans utiliser ni solvant ni huile. Leur approche est basée sur l’utilisation d’émulsions dites ‘eau‐dans‐eau’ qui se forment notamment dans des mélanges de polymères dits ‘incompatibles’. Dans ce système, des gouttelettes enrichies en polymère sont dispersées dans un milieu enrichi en un autre polymère. Les chercheurs ont montré que des particules de latex viennent à l’interface des gouttelettes, formant ainsi des émulsions de Pickering eau‐dans‐eau (figure 2). Ils ont ensuite réussi à gélifier l’intérieur de ces gouttelettes, formant ainsi des colloïdosomes directement en phase aqueuse. L’avantage de ces systèmes est qu’ils sont connus pour ‘séquestrer’ spontanément du matériel biologique et des principes actifs, au sein même des gouttelettes. Les chercheurs ont ainsi révélé que ces colloïdosomes peuvent en effet séquestrer spontanément des entités fluorescentes. Ces résultats ouvrent la voie à de futurs travaux sur l’encapsulation de matériel biologique et de principes actifs dans ces capsules d’un nouveau type. Ces travaux permettront dans les prochaines années de développer des capsules de type colloïdosomes, dans la perspective de créer des cellules artificielles.

Figure 2 : Cliché de microscopie par épifluorescence d’une émulsion de Pickering eau‐dans‐eau (particules de latex vertes) avec un cœur gélifié formant des colloïdosomes (à gauche). Image de microscopie confocale montrant la séquestration d’un polymère fluorescent dans le rouge par les colloïdosomes (à droite).
Figure 2 : Cliché de microscopie par
épifluorescence d’une émulsion de
Pickering eau‐dans‐eau (particules de
latex vertes) avec un cœur gélifié
formant des colloïdosomes (à gauche).
Image de microscopie confocale
montrant la séquestration d’un
polymère fluorescent dans le rouge par
les colloïdosomes (à droite).

Référence : Preparation of swellable hydrogel‐containing colloidosomes from aqueous two‐phase Pickering emulsion droplets. Jean‐Paul Douliez, Nicolas Martin, Thomas Beneyton, Jean‐Charles Eloi, Jean‐Paul Chapel, Laurence Navailles, Jean‐Christophe Baret, Stephen Mann et Laure Béven. Angewandte Chemie International Edition, 57 (2018) 7780‐7784.

Source : cnrs

Femme et ingénieure… épisode 4

La faible proportion de femmes ingénieures a incité la CDEFI (Conférence des directeurs des écoles françaises d’ingénieurs) à mettre en place l’opération Ingénieuses en 2011, afin d’attirer davantage de jeunes filles en écoles d’ingénieur-e-s. La cérémonie de remise des prix a eu lieu le 25 mai dernier, l’occasion de rencontrer les lauréats de l’école la plus mobilisée, l’ENAC.

 

Les actions :

Après avoir créé en 2015 un poste de référent-e égalité, l’ENAC s’attaque depuis 2017 à un nouveau plan d’actions sur l’égalité femmes/hommes qui s’inscrit dans le cadre de la démarche de responsabilité sociétale de l’établissement. Cette dernière est composée de deux axes principaux : la politique de diversité et le développement durable. Elles ont pour but d’attirer davantage de jeunes filles dans les secteurs scientifiques aéronautiques, de former à l’égalité femmes/hommes et d’agir en faveur de l’égalité professionnelle. Le but de ces différentes actions est avant tout de préparer les étudiantes au monde du travail, tout en promouvant des modèles féminins dans des domaines encore trop masculins par le biais des médias. L’ENAC est également impliquée dans les réseaux associatifs, comme par exemple Elles bougent Midi-Pyrénées, et au sein de son campus avec la Journée campus au féminin.

 

Entretien avec Sophie COPPIN, Responsable sociétale à l’ENAC

L’ENAC a mis en place un poste de Responsable Sociétale et Environnementale (RSE), notamment en charge des questions d’égalité femmes/hommes. Quelles sont ses missions et vers qui portent ses actions ?

Les missions du RSE se répartissent sur 3 axes :

  • en tant qu’employeur : informer et sensibiliser le personnel,
  • en tant qu’école de l’Enseignement Supérieur : avoir une action pédagogique, assurer la mixité dans les effectifs étudiants,
  • auprès des étudiants : les sensibiliser, les préparer à entrer dans la vie active.

Les actions portent donc vers des profils différents : aussi bien les salariés de l’école, mais aussi les étudiant-e-s, et même les futur-e-s étudiant-e-s lors de nos actions dans les collèges et lycées.

 

Ecole la plus mobilisée, quels sont selon vous les projets qui vous ont permis de vous démarquer ?

Cela tient peut-être au fait d’avoir travaillé sur les différents plans :

  • Collèges et lycées, avec la journée Campus au féminin par exemple, permettant aux jeunes filles de libérer leur parole, de s’affranchir des préjugés.
  • Etudiantes, avec des préparations d’entretien de recrutement, pour les sensibiliser aux questions pièges qu’elles pourraient rencontrer.
  • Employeur, en créant une cellule de veille contre le harcèlement.

Nous avons également mis en place l’an dernier le réseau « ELLES de l’ENAC », ainsi qu’un forum des métiers, permettant de déconstruire les stéréotypes.

 

Pour vous, quel est le rôle des écoles d’ingénieur dans la promotion de l’égalité entre hommes et femmes ?

 Quand on est sur les aspects techniques, on ne se pose pas la question de l’égalité. C’est plutôt dans les comportements que la question resurgit, c’est là que nous voyons le reflet de la société. C’est pour cela qu’il nous semble important à l’ENAC de sensibiliser nos étudiant-e-s. Ils seront un jour managers, ils ne doivent pas reproduire les stéréotypes que nous constatons.

Il n’y a que 22% de filles dans les écoles d’ingénieur, quel modèle peut-on leur montrer pour qu’elles aient envie de venir ? C’est à nous de les y inciter.

Façonner le verre comme un polymère

Le verre de quartz obtenu par exemple par fusion du quartz possède des propriétés physiques et chimiques qui font son attrait : très grande transparence à la lumière visible, UV et infrarouge, résistant aux chocs mécaniques et thermiques, résistant aux attaques chimiques, aux rayons ionisants ainsi que des caractéristiques diélectriques et un faible coefficient de dilatation.

Un matériau idéal pour nombre d’applications en optique, photonique ou encore dans le secteur médical sauf que… il reste difficile à mettre en forme en lui préservant toutes ses qualités.

Logique de fabrication renversée

Alors qu’on fabrique habituellement les verres de quartz par fusion de quartz ou de silice à des températures de l’ordre de 800°C avant de les usiner ou de les tailler avec des lasers, les chercheurs du KIT procèdent par fabrication additive, en partant des particules de verres les plus petites possibles. Ainsi, ils mélangent des particules de verre de 40nm dans un polymère liquide. Le mélange est ensuite durci par chauffage ou exposition à la lumière. Le solide qui en résulte est composé à 60 % de verre et 40 % d’un polymère qui agit comme un liant retenant les particules de verres aux bons endroits et maintenant la forme générale.

Ce « Glassomer », comme les scientifiques l’ont baptisé, peut être fraisé, tourné, usiné au laser ou traité dans des machines à commandes numériques comme n’importe quel polymère conventionnel.

Pour récupérer un verre de quartz de grande pureté, il faut ensuite retirer le polymère. Cela se fait dans un four à 500-600°C. Le polymère se transforme en CO2 et laisse place à une pièce poreuse qui va être frittée à 1300°C. A cette température, la matière va se densifier laissant place à un solide dense, non poreux et fait de quartz très pur. Ce type de procédé est calqué sur celui qui existe par exemple en fabrication additive métallique (metal binder jetting).

Adapté à la production de masse

Ce procédé de mise en forme permet non seulement la production de verre très pur façonnable librement mais en plus il est adapté à une production industrielle et «  moins cher, plus soutenable et plus efficace en matière énergétique que d’autres procédés de fabrication», explique le Dr. Bastian E. Rapp, à la tête du troupe de recherche interdisciplinaire NeptunLab qui a publié ces recherches dans Advanced materials. Par exemple, il ne nécessite pas l’emploi de produits chimiques très dangereux comme l’acide fluorhydrique souvent utilisé pour façonner le verre de quartz. Le Glassomer est commercialisé, par une société spin-off du NeptunLab, sous forme liquide ou solide afin d’intégrer des procédés de fabrication classiques des polymères chez les industriels.

Le NeptunLab s’était déjà démarqué dans d’autres innovations autour du verre de quartz grâce à des mélanges polymères-verre ouvrant par exemple la voie au moulage de verre en 2016…

… et à son utilisation pour des impressions 3d en 2017.

Sophie Hoguin

 

Nouveau marché de l’espace : deux conceptions s’affrontent

En novembre 2017, Bruno Le Maire, ministre de l’Economie s’interrogeait sur Europe 1. L’Esa a-t-elle fait le bon choix en lançant le programme Ariane 6 ? Cette petite Ariane 5 sera-t-elle suffisamment compétitive pour faire face à la montée de Space X ou d’autres acteurs privés qui arrivent sur le marché des lancements ?

Dans un courrier du 25 mai 2018 adressé à Angela Merkel et Emmanuel Macron et en copie à plusieurs ministres des deux pays, Tom Enders critiquait vivement la gouvernance des agences spatiales nationales et de l’agence européenne. Dans cette lettre dont le contenu a été rapporté par LaTribune.fr, le patron d’Airbus explique que les processus de décision de l’Agence spatiale européenne (ESA) et des agences nationales sont « clairement insuffisants pour faire face à un environnement nouveau, très dynamique et qui change rapidement ». Il critique « les interventions politiques » à l’origine selon lui de lenteurs dans les processus de décision et remet en question le principe de retour géographique sur investissement [On attribue les missions et travaux dans les pays qui investissent]. Il propose que la France et l’Allemagne discutent directement avec les industriels pour mettre en place de nouvelles politiques spatiales.

Ces deux interventions soulignent combien le temps du spatial, autrefois long, coûteux, planifié est en train de devenir celui des affaires : courtermiste, à bas coûts, opportuniste et flexible. Y a -t-il de la place pour les deux modèles concomitamment ?

Une place pour deux ?

Derrières des discours qui peuvent paraître iconoclastes se cachent cependant deux vérités : oui, la structure en agence spatiale apporte une lourdeur administrative qui ralentit les processus de décision, mais difficile de croire pour autant que l’on peut s’en passer d’institutions comme le Cnes et les agences spatiales qui sont déterminantes et structurantes dans la filière.

Ces discours qui ressemblent beaucoup aux positions adoptées outre-Atlantique et qui sont particulièrement visibles depuis l’arrivée de Donald Trump où la Nasa, chapeautée par le Conseil national de l’espace, devient un organe de coordination et doit se concentrer sur un retour de l’homme sur la Lune en s’appuyant sur de grands industriels privés (Boeing, Lokheed Martin, Space X). Le reste des activités est privatisé au maximum et les budgets de la recherche civile gelés voire diminués. Une part conséquente des budgets spatiaux étant réservés à la recherche et aux actions militaires. Mais qu’on ne s’y trompe pas. L’espace ça coûte cher et les grands acteurs, qu’ils soient américains comme Boeing ou Space X ou européens comme Airbus espèrent bien encore profiter des subsides publics pour leur développement. Ils veulent juste que ça se fasse plus vite et plus directement. La question sous-jacente est alors celle de la gouvernance – à qui appartiendra la politique spatiale : à des acteurs privés économiques servant leurs intérêts ou à des institutions publiques qui doivent servir les acteurs civils ?

Deux approches différentes du « New Space »

Des différences culturelles et structurelles entre USA et Europe découlent les différences dans l’approche du nouveau marché spatial. La richesse et la facilité à lever des fonds pour monter des start-up technologiques outre-Atlantique est sans égal alors que le modèle européen continue de s’appuyer beaucoup sur des fonds institutionnels et des subventions. Ceci a deux conséquences : un démarrage plus lent côté européen, et une moins bonne visibilité. Pour attirer les fonds privés, les entreprises américaines doivent hyper-communiquer sur leurs avancées et leurs produits. Ainsi, à l’occasion d’une table ronde lors du Toulouse Space Show, Pacôme Révillon, président d’Euroconsult, cité dans un article de LaTribune.fr, soulignait que : « on a l’impression que les États-Unis avancent aujourd’hui alors que la plupart des constellations en sont encore à l’état de projet, elles ne seront lancées que vers 2021-2022. La plupart des sociétés sont en train de promouvoir, d’essayer de vendre leur idée. En Europe, on attend davantage de bien verrouiller le concept avant d’en faire la promotion ».

Et l’Europe accueille elle aussi de nombreuses start-up et initiatives du New Space. Et tout l’écosystème est activement soutenu par les institutions. A l’instar du Cnes qui étudie depuis 2016 les nouvelles applications de l’espace (santé, véhicule autonome, agriculture…) au sein d’une direction de l’innovation dédiée et qui est partenaire de l’entreprise Nexeya pour le développement du chaîne de construction de nanosatellites. Enfin, l’institution publique est aussi à l’origine de la création en mai dernier d’un fonds d’investissement public-privé, CosmiCapital, de 80 à 100 millions d’euros pour soutenir les jeunes entreprises.

Le grand flou

Alors que les programmes spatiaux soutenus par les agences et leurs émanations privées comme Arianespace sont le fruit d’une longue expérience et assure une certaine visibilité et stabilité aux différentes initiatives, le modèle privé doit encore faire ses preuves : la rentabilité des projets de fusée réutilisable est encore à totalement démontrer et certains échecs montrent les limites de l’exercice. Ainsi, par exemple, l’abandon du Google Lunar Prize après plusieurs reports du délai limite. Aucune équipe n’ayant réussi à être prête en concevant à la fois un module opérationnel prêt à être lancé et une place dans un lanceur fiable capable de tenir les délais. Pendant encore de longues années, les deux modèles économiques vont forcément coexister. Reste à savoir comment se feront les interactions entre eux. Dans un monde où, ne l’oublions pas, la concurrence n’est pas qu’intra-occidentale : la Chine notamment affiche des programmes conséquents dans le New Space. En toute discrétion. Et avec son propre modèle économique.

 Sophie Hoguin

Fukushima : évolution des concentrations de plutonium dans les sols et les rivières

Grâce à des méthodes et des instruments de pointe permettant de mesurer de très faibles concentrations de plutonium dans les sols, des chercheurs du Laboratoire des sciences du climat et de l’environnement (LSCE, CEA/CNRS/Université de VersaillesSt-Quentin-en-Yvelines) et leurs collègues du CEA/DAM et de l’Université de Tsukuba (Japon) ont pu montrer que la distribution spatiale des dépôts de plutonium dans les sols de Fukushima était globalement similaire à celle du radiocésium. Par contre, lorsque les sols de la région sont érodés par les puissants typhons auxquels le Japon est fréquemment exposé, le plutonium issu de la centrale accidentée de Fukushima est exporté préférentiellement par les rivières jusqu’à l’Océan Pacifique, car il est concentré à la surface des sols. Les traces infimes de plutonium issu des essais thermonucléaires des années 1960 ont, au contraire, été homogénéisées à travers l’ensemble de la couche labourée des rizières par les pratiques agricoles lors des dernières décennies.

Globalement, les concentrations de plutonium ont diminué de moitié dans les sédiments de rivière entre 2011 et 2014 (passant d’un maximum de 95 fg/g (fg = femtogramme, 10-15 gramme) à 45 fg/g). De plus, la contribution de plutonium issu de la centrale accidentée de Fukushima diminue passant d’un maximum de 30 % du plutonium contenu dans l’échantillon à un maximum de 10 %. Une baisse similaire est observée pour la contamination en radiocésium qui peut s’expliquer par l’érosion importante et l’export sédimentaire générés par les typhons, les glissements de terrain et les travaux de décontamination menés dans la région. Ces opérations consistent à décaper l’horizon superficiel des sols sur 5 cm, qui concentre 95 % à 99 % du radiocésium, et à l’entreposer au sein de sites de stockage temporaires.

La seule exception à cette baisse générale est observée à l’aval de la première zone de la région à avoir été décontaminée, pour laquelle on observe bien une très forte baisse des teneurs en radiocésium (jusqu’à 90 %) mais aussi une augmentation de la part du plutonium émis en 2011 passant de 12 à 39 %, ce qui reste inférieur à la contribution des essais de 1960. Ces résultats montrent qu’une fraction du plutonium peut être remobilisée par des processus différents de ceux qui gouvernent les transferts de radiocésium, et qu’il est probablement véhiculé par des microparticules transportées par des processus éoliens. Il convient désormais d’identifier et de caractériser ces microparticules au vu de la longue demi-vie de certains de ces isotopes et de leur rémanence potentielle dans l’environnement.

L’accident de la centrale de Fukushima Dai-ichi de mars 2011 a conduit à l’émission d’une quantité importante de radionucléides et à leur dépôt sur les sols du Nord-Est du Japon. En plus du radiocésium (134Cs et 137Cs) qui a été émis en abondance, des ultra-traces de plutonium ont été trouvées dans les sols et sédiments de la région. L’étude du plutonium est importante car le comportement de cet élément dans l’environnement peut différer notablement de celui du radiocésium. De plus, les périodes radioactives de la plupart des isotopes du plutonium (jusqu’à 376 000 ans) étant globalement plus longues que celles du radiocésium (jusqu’à 30 ans), le plutonium permet d’étudier le marquage environnemental de l’accident sur une durée plus importante.

Une première étude réalisée en 2014 (Evrard et al., 2014) a permis de montrer que les concentrations de plutonium dans les sols ou les sédiments de rivières de la région de Fukushima sont de l’ordre de quelques dizaines de femtogrammes par gramme d’échantillon. Ce plutonium provient de deux sources : (1) les essais thermonucléaires atmosphériques des années 1960 et (2) l’accident de Fukushima. Pour déterminer la contribution relative de ces deux sources de plutonium qui se trouve dans les sols et les sédiments de cette région du Japon, il faut analyser leur composition isotopique. Pour y parvenir, il est nécessaire de concentrer et purifier le plutonium des échantillons par des méthodes de séparation et purification radiochimiques, puis de réaliser des mesures isotopiques avec un spectromètre de masse par plasma à couplage inductif de haute sensibilité et équipé d’un dispositif de multi-collection des ions. Ces techniques sont maîtrisées par le Département Analyse, Surveillance, Environnement (DASE) de la Direction des Applications Militaires (DAM) du CEA sur le site de Bruyères-le-Châtel (Essonne).

Ces résultats ont été obtenus dans le cadre du projet AMORAD (Amélioration des modèles de prévision de la dispersion et d’évaluation de l’impact des radionucléides au sein de l’environnement) financé par le programme des investissements d’avenir en radioprotection et sûreté nucléaire (projet ANR-11-RSNR-0002).

Source : cnrs

La confiance, nouvel atout des managers

La confiance se retrouve à plusieurs niveaux : la confiance en soi, en son équipe en son hiérarchique, et en son entreprise dans sa capacité à définir, innover, donner envie, porter un projet.

Couv-les-essentielsL’entreprise libérée défend l’idée que l’engagement et l’autonomie permettent de fonctionner de façon plus efficace dans les environnements complexes et changeants que nous connaissons. La confiance est l’un des leviers indispensables pour acquérir et faire acquérir de l’autonomie. De plus la confiance participe au bien-être au travail qui est source de motivation et partant de performance.

La confiance crée l’envie de se dépasser, de faire ensemble. La confiance permet de se connaître, de se reconnaître seul(e) et en équipe.

La confiance ne se décrète pas. Elle se met  en place avec le temps, avec l’exemplarité, par le fait  d’être clair, de  communiquer, d’être en vérité, de savoir prendre et accepter le risque. La confiance dans une équipe dépend beaucoup de la confiance qu’à en lui le manager, un manager qui n’a pas confiance en lui, qui a peur, qui est contrôlant sur tout pour se sécuriser aura du mal à faire confiance à ses équipes.

La confiance suppose une forme de lâcher prise, une capacité à prioriser au bon niveau, à déléguer, à accompagner ce qui n’évite bien sûr en rien le contrôle.

Le manager doit être avant tout porteur de sens, il donne la direction, traduit avec ses équipes les objectifs en plans d’actions. Il définit un cadre et dans ce cadre laisse la flexibilité à ses équipes pour la mise en œuvre. Les gens sur le terrain savent pertinemment ce qu’il faut faire et comment il faut le faire, le manque de visibilité, de sens, et de confiance sont souvent les freins à l’initiative, à la motivation. Le rôle du manager est, par la confiance entre autres, de libérer ces énergies positives.

Auteur : Valérie Delas Mossa, consultante et coach, spécialiste de la confiance, du leadership et de la performance.

 

Pour aller plus loin découvrez notre offre de formations « soft skills » Les Essentiels 2018

 

1024x301_cata-essentiels-2018

Vêtements : mieux protéger les consommateurs du risque d’allergies et d’irritations cutanées

Face aux cas d’allergies et d’irritations cutanées en lien avec des vêtements et/ou des chaussures signalés aux autorités sanitaires, les ministères en charge de la santé et de l’économie ont saisi l’Anses afin d’identifier des substances chimiques irritantes ou sensibilisantes cutanées, réglementées ou non, susceptibles d’être présentes dans ces articles. Les ministères ont également demandé à l’Anses de réaliser un état des lieux des connaissances sur la toxicité de ces substances et d’établir des recommandations en matière de fabrication, conservation, transport et sur l’opportunité ou non de limiter l’utilisation de certaines substances.

Pour mener à bien cette expertise, l’Agence a réalisé une étude de la littérature scientifique, complétée par des essais sur un échantillonnage de vêtements neufs prélevés dans plusieurs points de vente et des chaussures ayant entrainé des plaintes de clients, pour rechercher la présence de substances irritantes ou allergisantes cutanées. Au total, une vingtaine de familles de substances chimiques ont été recherchées dans les vêtements et une cinquantaine de substances dans les chaussures.

Ces analyses ont permis d’ajuster les familles de substances chimiques à rechercher et de confirmer entre autres la présence de nonylphénols, de nonylphénols éthoxylates ou encore de formaldéhyde. Elles ont également permis d’identifier des substances non analysées en routine, pouvant entrainer des dermatites de contact telles que la 1,4-paraphénylènediamine ou des dérivés organostanniques, ou des colorants azoïques.

Mise en place d’une étude biomédicale pionnière en France
L’Anses a également mis en place une étude biomédicale, pionnière en France, afin d’investiguer des cas d’allergie ou d’intolérance cutanée pouvant être liés à des substances chimiques dans des vêtements ou des chaussures.

Pour cela, l’Anses a mobilisé un réseau de médecins (dermato-allergologues, toxicologues…) et a mis en place des analyses sur les articles portés par le patient et suspectés d’être associés aux réactions cutanées, afin de caractériser les substances chimiques présentes dans ces articles. La première phase de l’étude a inclus une trentaine de patients adultes entre janvier et septembre 2017. Elle a permis dans certains cas d’identifier des substances chimiques présentes dans des articles portés à l’origine de symptômes (par ex. benzidine, chrome VI, nickel, résine 4-tertbutylphénolformaldéhyde, colorant azoïque). Au vu des premiers résultats de l’étude, l’Agence a décidé de poursuivre l’étude jusqu’en octobre 2018 et les résultats feront l’objet d’un avis complémentaire de l’agence.

Les recommandations de l’Agence

A l’issue de cette expertise, l’Anses émet les principales recommandations à l’attention des autorités :

  • maintenir une pression de contrôle des articles chaussants et textiles d’habillement mis sur le marché afin d’éviter la présence d’articles non conformes à la réglementation portant sur les substances chimiques dans ces articles ;
  • réviser le seuil réglementaire du chrome VI dans les articles en cuir ;
  • fixer un seuil réglementaire pour le nickel dans les textiles ;
  • proposer une classification dans le cadre du règlement européen n°1272/2008 relatif à la classification, à l’étiquetage et à l’emballage (CLP), pour les substances non réglementées et identifiées comme responsables d’allergies cutanées en tant que « sensibilisant et/ou irritant cutané ».

En outre, l’Agence émet les recommandations suivantes à l’attention des responsables de la mise sur le marché des textiles d’habillement et/ou des articles chaussants :

  • s’assurer auprès de leurs fournisseurs de l’absence de substances CMR ou sensibilisantes ou irritantes cutanées dans les articles chaussants ou textiles d’habillement ;
  • réaliser des études pour acquérir des données toxicologiques concernant les colorants CI Disperse Orange 37/76 et CI Disperse Yellow 23,deux colorants mis en évidence dans l’expertise et non révélés jusqu’alors, pour lesquels aucune donnée toxicologique n’est disponible. Ces données seront également utiles pour le développement de tests épicutanés ;
    travailler à la mise en place d’un dispositif d’information (étiquetage, emballage) du consommateur en particulier les populations déjà sensibilisées, permettant de signaler la présence potentielle de telles substances.

Enfin, l’Anses recommande de sensibiliser les consommateurs à l’importance de laver, avant de le porter pour la première fois, tout vêtement susceptible d’entrer en contact avec la peau, en suivant les recommandations de lavage préconisées par le fabricant.

Les résultats de cette expertise appuieront le dossier de restriction dans le cadre du règlement REACH, porté par la France et la Suède au niveau européen, sur les substances sensibilisantes ou irritantes cutanées présentes dans des vêtements et chaussures.

Source : Anses

AddUp Challenge : la finale

La finale du AddUp Challenge 2018, le concours étudiant organisé par AddUp en partenariat avec le CEEBIOS (Centre Européen d’Excellence en Biomimétisme de Senlis), s’est déroulée vendredi 22 juin dans les locaux du groupe Fives, à Paris. Ce concours, lancé en décembre 2017, avait pour thème « Impression 3D métallique et biomimétisme », et a reçu la participation de plus de 150 étudiants répartis en 72 équipes.

Les trois équipes sélectionnées pour la finale ont présenté leurs projets devant un jury composé de journalistes et de représentants d’AddUp, de Fives, de Bpifrance, du CNRS et du Ceebios. Le jury a salué le travail réalisé par les étudiants, qui ont présenté trois dossiers d’excellente qualité.

Le premier prix du concours a été décerné à l’équipe « AcCorps » composée de Pierre Charlier (Université Lille2), Nelson Rochedreux (Université Lille2) et Charles Herman (Université de Technologie de Compiègne). Les trois étudiants ont proposé un concept de stéthoscope adapté à l’écoute des battements du cœur du fœtus, et dont la forme est inspirée des oreilles des mammifères. Un concept innovant, mais surtout performant, qui permet à l’équipe de remporter un chèque de 5000 €. Ce projet a été encadré par le CIC-IT1403 de Lille, laboratoire de recherche spécialisé dans les biocapteurs.

Sur la deuxième place du podium, l’équipe « BiomicROV » a reçu un chèque de 2500 €. Justin Chaillot et Antoine Maltey, étudiants à l’ENSMM de Besançon, ont imaginé un robot capable d’explorer les fonds marins sans générer de turbulences, dont la forme est calquée sur les diatomées et dont le mode de propulsion est inspiré par le poulpe.

L’équipe « Green Team » termine troisième du concours, avec un concept d’allègement de structures trouvant son inspiration dans l’observation du bambou. Un principe qui permet à Luis Miguel Ceballos, Ismail Tanane et Wassim Zghidi, étudiants à l’ENSAM Paris, de remporter un chèque de 2500 €.

Autre temps fort de l’évènement, la remise des prix a été précédée par des interventions de Laura Magro, chargée de mission au CEEBIOS, et de Jean-Claude André, chercheur au CNRS et inventeur de l’impression 3D. « La première édition du concours a été une réussite, nous commençons d’ores et déjà à réfléchir à une deuxième édition pour 2019 », a conclu Jean-Luc Laval, directeur Marketing et Communication chez AddUp.

Les trois équipes présenteront leurs prototypes et l’avancement de leurs travaux lors de deux événements : le salon Biomim’Expo 2018, qui se tiendra le 23 octobre à la Cité des Sciences et de l’Industrie, et l’événement parisien de fin d’année : « L’Usine Extraordinaire », du 22 au 25 novembre au Grand Palais à Paris.

Lanceurs, satellites, services : l’appétent nouveau marché du spatial

La semaine dernière, le Toulouse Space Show a transformé la ville rose en vitrine internationale des nouvelles tendances du marché spatial : technologies de rupture, nouveaux modèles économiques, avènement de l’ère des petits satellites. Un événement dont le succès ne se dément pas au fil des ans. De quelques centaines de participants en 2008, le salon est désormais international et a accueilli cette année plus de 3000 professionnels de 46 pays avec une vitrine de plus de 350 exposants. Et si vous doutiez que les visiteurs viennent pour le commerce : 2000 rendez-vous d’affaires entre 280 entreprises ont été organisés.

Les nouvelles fonctions de l’espace

L’avènement des petits satellites est couplée aux nouvelles fonctions de l’espace :

Et avec à la clé, une montagne de données à haute valeur ajoutée à offrir sur le marché du Big Data.

Des constellations jetables

Ces fonctions économiques sont assurées par des acteurs privés qui sont donc en train de modifier profondément les règles et les conditions d’accès à l’espace. Et cela passe par l’avènement des petits satellites que l’on envoie en constellation au coût réduit (quelques dizaines de milliers d’euros contre plusieurs dizaines de millions pour un satellite classique), à la production en série mais aussi à la durée de vie plus courte, presque conçus comme des objets de grande consommation (durée de vie de l’ordre de 5 ans contre 10-20 ans pour un satellite classique). L’espace devient dès lors accessible à des acteurs privés, sans forcément une intervention des institutions et des pouvoirs publics.

Des technologies en développement

La miniaturisation des satellites est donc en marche. Elle s’accompagne du développement de nouvelles technologies pour assurer toutes les fonctions de ces nouveaux satellites : propulsion, plateforme, alimentation, communication, allongement de la durée de vie etc. qui sont autant de niches où des centaines de start-up tentent leur chance. Pas moins de 60 étaient représentées à Toulouse sur le « Startup Village ». Des jeunes pousses qui ont elles aussi déjà compris qu’elles pouvaient s’associer pour avoir plus de force. Le pôle de compétititvité Aerospace Valley a constitué en mars dernier un groupement, le Newspace Factory qui réunit des PME et des start-up telles que Comat (spécialiste de la micropropulsion électrique), Nexeya ( fournisseurs de plusieurs composants de satellites qui a lancé sa propre gamme de nanosatellites), Syntony (localisation, navigation) ou encore Mecano-ID (structure en matériaux composites)… pour chercher en bande organisée des contrats à l’exportation. Mais les grands acteurs du secteur sont eux aussi déjà bien investis. Sous la forme de consortium, ou par la création de nouvelles structures chacun y va de son projet de constellations et de chaînes de fabrication de petits satellites. De OneWeb (Airbus, Qualcomm et SoftBank) à Starlink (SpaceX) pour l’Internet à LeoStella (Thales Alenia Space + Spaceflight Industries) pour des micro satellites à haute résolution en imagerie et géo-intelligence… Sans compter que ces groupements industriels s’associent à de nouvelles sociétés de services, créant un marché émergent puissant dont l’une des entreprises modèles est Planet dont la constellation de 200 satellites fournit des données à tous les secteurs économiques (agriculture, urbanisme, collectivités, défense, énergie etc.).

Petits lanceurs deviendront grands

Et pour mettre tout ça en orbite, plusieurs sociétés se sont lançées dans la course à la petite fusée. On ne présente plus les nouveaux comme Blue Origin ou Space X qui est passé en 5 ans d’un statut de petit poucet excentrique à l’un des concurrents les plus scrutés du marché des lancements. Mais de multiples autres petites entreprises tentent leur chance : Virgin Galactic, Vector Space System, Firefly aerospace (qui après avoir fermé ses portes fin 2016 est re-née de ses cendres en Ukraine) ou encore Rocket Lab. Ce dernier, pour un budget de moins de 200 millions d’euros a monté un site de lancement en Nouvelle-Zélande et développé un petit lanceur, Electron. Celui-ci a fini ses derniers essais en début d’année. Le premier lancement commercial qui devait avoir lieu fin juin a cependant été repoussé suite à une anomalie technique. Faisant passer la fenêtre de lancement de mai-juin au deuxième semestre 2018… Difficile de prédire ce que cette ébullition deviendra quand le marché se stabilisera.

L’Europe mise sur la fiabilité

Il serait faux de penser que l’Europe n’a pas pris la mesure de ces changements. Même si l’on peut déplorer un manque de volonté et de réactivité politique, l’ESA a lancé un programme de recherche et de soutien sur les nouveaux lanceurs dès 2003 (FLPP –  Future Launchers Preparatory Programme). Elle développe le programme Altair, et soutient des projets privés comme ceux de deux sociétés espagnoles : ZeroInfinity et son Bloostar et PLD Space et ses fusées réutilisables Arion 1 et 2 dont le premier vol d’essai est prévu en 2019 et qui a reçu une enveloppe de 2 millions d’euros de la Commission européenne début 2018 pour mener à bien son programme de développement.

En outre, sur un marché intermédiaire, Arianespace propose depuis 2012 les services du lanceur Vega. Bien que plus chers que certains concurrents Vega présente une fiabilité de 100 % depuis 6 ans et Luce Fabreguettes, vice-présidente d’Ariaespace en charge des missions témoignait au Figaro.fr en mars 2017 de l’intérêt du lanceur « depuis la mise en service de Vega, certains opérateurs conçoivent des plateformes calées sur les performances de notre petit lanceur, ce qui prouve que sa disponibilité crée un début de marché». Vega doit en outre évoluer pour passer à la version C dont le premier vol est programmé pour 2019.

Sophie Hoguin

* chiffre du NSR (Northern Sky research) dans son rapport 2018 concernant uniquement les lancements (pas les services) sur le marché des satellites et comprenant mini (-500kg), micro (-150kg) et nanosatellites (-10kg).

ESA EURONEWS: Et si un astéroïde géant touchait de nouveau la terre

Il y a plus de 60 millions d’années, les dinosaures régnaient sur la Terre. Aujourd’hui, ils ne sont plus que des reproductions et des fossiles comme les exemplaires que l’on peut voir au Muséum d’Histoire naturelle de Vienne. ​La cause de leur disparition ? Un astéroïde, un bloc de roche et de métal né lors de la formation du système solaire.

«Il y a 66 millions d’années, un astéroïde percutait la Terre : il ne faisait que 10 km de long, mais le cratère qui en a résulté s’est étendu sur 200 km», explique Christian Köberl, directeur du Muséum. «Donc cela nous renseigne sur la quantité énorme d’énergie qu’un tel événement implique et cette énergie s’est traduite par une gigantesque explosion, des séismes et toutes sortes de choses effroyables, le climat a aussi changé immédiatement et de nombreux animaux et de plantes de l’époque – en fait, près de deux tiers de toutes les espèces vivantes sur notre planète – ont disparu», énumère-t-il.

Le cas de Tcheliabinsk

Rien de comparable ne s’est produit depuis. Mais le risque bien que faible est toujours présent.

En février 2013, un astéroïde de 20 mètres de long s’était fragmenté en entrant dans l’atmosphère au-dessus de la ville russe de Tcheliabinsk, faisant 1500 blessés.

Ce cas peut nous en apprendre beaucoup, en particulier grâce aux météorites retrouvées sur place. Ludovic Ferrière, conservateur des collections du Muséum, nous montre une pièce de cette météorite de Tcheliabinsk: «Sa croûte de fusion typique à l’extérieur s’est formée lors de l’entrée dans l’atmosphère et quand on la coupe, on est capable de voir l’histoire de cette météorite», dit-il. «Ici, on voit la partie qui est fraîche, qui nous renseigne sur la formation du système solaire, qui n’a pas été beaucoup affectée depuis sa formation», poursuit-il. «Et là, cette partie noire traduit un certain nombre de chocs qui ont eu lieu depuis sa formation il y a 4,56 milliards d’années et les différents impacts qu’elle a subis avant d’entrer dans l’atmosphère», précise-t-il.

À Tcheliabinsk, l’astéroïde s’était transformé en pluie de météorites. D’autres plus massifs sont capables d’atteindre la Terre.

Pour se rendre compte de leur diversité, rien de tel que ce Muséum où l’on peut voir exposé le plus grand nombre de météorites au monde. Le lieu où elles percutent le sol a son importance: si elles font la taille d’une maison, elles peuvent détruire une forêt, causer un tsunami ou modifier notre atmosphère.

«Si la météorite s’abat sur une mer peu profonde – en fonction du type de sédiments qu’il y a au fond -, le choc peut causer une vaporisation qui libère une grande quantité de gaz à effet de serre», indique Lidia Pittarello, spécialiste des astéroïdes à l’Université de Vienne. «Et alors, on peut vraiment avoir un effet sur le climat à long terme», affirme-t-elle.

Source : ESA

L’île de Kaua’i démontre qu’il est possible d’atteindre de très hauts niveaux d’énergies renouvelables variables dans un mix électrique grâce au stockage batterie

Un parc solaire PV de 19,3 MW assisté d’une batterie d’AES Distributed Energy capable de stocker 70 MWh va délivrer une électricité vendue  0,1085 dollars (0,0931 €) le kWh dans le cadre d’un nouveau PPA (Power Purchase Agreement) qui vient d’être signé sur l’île de Kaua’i à Hawaï par la coopérative KIUC.

Le parc solaire va être installé sur un terrain militaire au niveau de la « Pacific Missile Range Facility ». Le système solaire + batterie sera capable de se déconnecter du réseau et permettre de continuer à délivrer de l’électricité aux appareils militaires lors d’une panne sur le réseau électrique de l’île. Le projet a été autorisé par l’Hawaii Public Utilities Commission (PUC).

Le coût de 0,1085 dollars le kWh est inférieur à celui d’un autre projet sur cette île, consistant en un parc solaire de 28MW  et d’une batterie de 20MW / 100MWh.

Ces deux projets font suite au parc solaire de 13 MW assisté d’une batterie Tesla de 52 MWh qui vient d’être mis en service en juin 2018.

La coopérative KIUC a déclaré que ces nouveaux projets solaire + stockage permettront à l’île d’atteindre un niveau de 70% de renouvelables dès 2019, soit 11 années plus tôt que ce qui était prévu initialement. Et 90% dès 2023 grâce notamment à une STEP, station de transfert d’énergie par pompage permettant de réaliser du stockage gravitaire.

Sur le plan purement technique ce qui est possible sur une petite île isolée est bien entendu beaucoup plus facile à réaliser à l’échelle d’un pays comme la France électriquement interconnecté aux pays voisins.  Chaque commune française peut être comparée à une île, mais une île reliée à ses voisines.

Une étude récente réalisée par le cabinet Artelys a montré que la France peut dépasser 50% d’énergie renouvelable dès 2030, et ceci sans avoir besoin d’investir dans de nouveaux systèmes de stockage stationnaires.

Jean-Gabriel Marie

Responsabilité sociétale : normes et bonnes pratiques

La norme ISO 26000 : 2010 « Lignes directrices relatives à la responsabilité sociétale » propose une cartographie de la responsabilité sociale en précisant plusieurs domaines de responsabilité de l’entreprise rattachés à sept questions centrales ainsi que les comportements attendus. La norme précise que la responsabilité sociale est le moyen par lequel les entreprises peuvent contribuer au développement durable. Selon cette norme, une entreprise responsable doit d’abord respecter plusieurs principes : redevabilité (rendre des comptes), transparence, comportement éthique, reconnaissance des intérêts des parties prenantes, respect du principe de légalité, prise en compte des normes internationales de comportement et respect des droits de l’Homme.

Pour chacune de ces questions, il lui faut identifier sa responsabilité en regard des obligations formelles ainsi que des attentes des parties prenantes. La norme propose aussi une série de domaines d’actions et précise des attentes pour chacune des questions centrales. Enfin, l’ISO 26000 esquisse le système de gestion à mettre en place en vue de gérer la responsabilité sociale, système qui doit être intégré à la stratégie globale et à toutes les pratiques de l’organisation.

Dans une économie où les entreprises sont structurées en réseaux, la production est souvent fragmentée et délocalisée. Pour se défendre d’ainsi externaliser leur responsabilité sociale, plusieurs entreprises ont adopté des codes de conduite à l’intention de leurs partenaires commerciaux, chez qui elles réalisent des audits périodiques. Elles ont notamment recours à des certifications telles que SA8000 (Social Accountability) en matière de droits humains ou encore FLA (Fair Labor Association) dans le domaine du textile. Ces initiatives répondent aux prescriptions du Pacte Mondial ou encore de la norme ISO 26000 qui précise que l’entreprise doit exercer sa responsabilité sociale dans toute sa sphère d’influence, ce qui l’étend à ses sous-traitants.

Au-delà de ces normes, les entreprises ont aussi recours à de nouvelles pratiques pour améliorer leur performance environnementale, dont l’écoconception.

Précepte central de l’économie circulaire, l’écoconception consiste à intégrer au processus de conception des produits et des services des considérations écologiques mais aussi le souci d’une maximisation de l’utilité sociale, sachant que l’impact écologique d’un produit est presque entièrement déterminé lors de sa phase de conception.

Il existe plusieurs stratégies d’écoconception qui peuvent s’appuyer sur des outils plus ou moins complexes : liste de contrôle, matrice énergie-matière, lignes directrices, analyse du cycle de vie…

info-part-3_ok

Extrait de l’article G8405 « Développement durable et responsabilité sociale de l’entreprise » de Corinne GENDRON

Responsabilité sociétale : les pressions subies par les entreprises

Plusieurs facteurs peuvent influencer l’engagement d’une entreprise vis-à-vis du développement durable, parmi lesquels le cadre réglementaire ou la philosophie des dirigeants. On peut distinguer quatre types de pression à la performance environnementale et sociale : juridique, financière, commerciale et sociale.

  • la pression juridique s’incarne non seulement dans les exigences réglementaires mais aussi dans la jurisprudence ou le risque de poursuites civiles ;
  • la pression financière concerne les coûts ou les économies potentielles liées aux pratiques environnementales et sociales de l’entreprise ;
  • la pression commerciale désigne à la fois l’accès aux marchés, les conditions contractuelles ou encore l’image de marque ;
  • enfin, les pressions sociales sont portées par les communautés locales, les employés ou encore les ONG.

Selon plusieurs études, les principaux facteurs incitant les entreprises à se doter d’une politique et d’un système de gestion environnementale sont tout d’abord la réglementation et la crainte de poursuites judiciaires. Viennent ensuite l’optimisation des procédés et la gestion des coûts de production, puis le positionnement marketing ou l’image publique. Les employés sont les acteurs qui exercent le plus de pression en vue de l’amélioration de la performance environnementale de l’entreprise, suivis par les actionnaires, les assureurs, puis par les communautés locales.

info-part-2_ok

 

Extrait de l’article G8405 « Développement durable et responsabilité sociale de l’entreprise » de Corinne GENDRON

Responsabilité sociétale : la communication des entreprises

Depuis une vingtaine d’années, de plus en plus d’entreprises produisent, en plus de leur rapport annuel, un rapport de responsabilité sociale qui est d’ailleurs obligatoire pour certains secteurs ou dans certains pays. Dans l’espoir d’une standardisation qui permette des comparaisons entre entreprises et dans le temps, le Global Reporting Initiative propose des indicateurs normalisés de performance sociale et environnementale auxquels peuvent se référer les entreprises pour produire leur rapport de développement durable et de responsabilité sociale.

La reddition de comptes en matière environnementale se fait aussi par d’autres véhicules, telles que les plateformes externes de divulgation. Initié par de grands investisseurs, le Carbon Disclosure Project (CDP) recueille les émissions des plus grandes entreprises calculées selon un protocole d’évaluation normalisé. Il publie les résultats de l’exercice chaque année en mettant en valeur les entreprises les plus performantes.

Enfin, les entreprises font l’objet de classements généraux par des indices s’adressant aux investisseurs responsables ou soucieux de minimiser les risques sociaux et environnementaux de leurs investissements. Ces indices retiennent les entreprises les plus performantes en fonction d’une liste de critères environnementaux, sociaux et de gouvernance qui leur est propre. ASPI Eurozone (Advanced Sustainable Performance Indice), Dow Jones Sustainability Index (DJSI), Ethibel Sustainability Index (ESI) et FTSE4Good sont les indices les plus utilisés en Europe.

Pour finir, le greenwashing consiste à faire valoir la qualité écologique d’un produit ou d’une organisation sans en avoir sensiblement amélioré la performance environnementale réelle. L’organisation TerraChoice dresse une liste des sept péchés capitaux du greenwashing à partir d’une analyse des pratiques des entreprises :

  • l’option cachée ;
  • l’absence de preuve ;
  • l’imprécision ;
  • les labels mensongers ;
  • la non-pertinence ;
  • le moindre mal ;
  • le mensonge.

info-part-4_ok

Extrait de l’article G8405 « Développement durable et responsabilité sociale de l’entreprise » de Corinne GENDRON

Responsabilité sociétale : quelles stratégies pour les entreprises ?

Principaux acteurs de l’économie, les entreprises ont été très tôt interpellées pour participer aux efforts visant un développement durable. Dès 1999, à l’occasion du sommet de Davos, le secrétaire général de l’Organisation des Nations unies (ONU), Kofi Annan, invita formellement les entreprises à respecter et à promouvoir les grands principes internationaux en matière d’environnement et de droits humains en adhérant notamment au Pacte Mondial.

L’engagement des entreprises s’inscrit dans une longue évolution à travers laquelle les entreprises se sont peu à peu ouvertes au problème environnemental, ont accepté d’en assumer une part de responsabilité, pour finalement participer aux efforts de protection. Cet engagement varie selon les entreprises en fonction de l’historique du secteur, de la culture organisationnelle, ou des convictions personnelles du dirigeant. De plus, chaque secteur économique comporte des défis écologiques particuliers et requiert des efforts qui lui sont propres : la protection de l’environnement n’a pas les mêmes implications pour l’industrie extractive que pour les institutions financières par exemple.

Le positionnement de l’entreprise à l’égard de l’environnement et de la société est partie intégrante de sa stratégie et se décline à tous les niveaux de l’organisation. Il peut prendre quatre grandes configurations :

  • l’entreprise délictuelle ;
  • l’entreprise conforme ;
  • l’entreprise chef de file ;
  • enfin l’entreprise écologique.

L’entreprise délictuelle fait fi des exigences écologiques et sociales au risque de basculer dans l’illégalité ; sa gestion n’intègre pas de principes écologiques, et elle n’a ni politique environnementale, ni système d’information ou de veille reliés aux questions de responsabilité sociale.

L’entreprise conforme respecte ses obligations juridiques, mais sans anticiper les nouvelles exigences. Elle aborde les questions environnementales et sociales comme une contrainte supplémentaire à intégrer au moindre coût.

L’entreprise chef de file se fixe des objectifs élevés de responsabilité environnementale et sociale, et utilise sa performance extrafinancière comme facteur distinctif inhérent à son image de marque. En plus d’une politique et de procédures de gestion, elle compte bien souvent une direction ou un service dédié aux questions environnementales et de responsabilité sociale. Elle met à profit ses innovations technologiques et managériales pour améliorer sa performance écologique.

Enfin, l’entreprise écologique définit sa mission en regard des impératifs écologiques et aligne sa gestion interne sur les grands principes du développement durable.

info-part-1_ok

Extrait de l’article G8405 « Développement durable et responsabilité sociale de l’entreprise » de Corinne GENDRON

Les professionnels de la robotique industrielle réunis sur Robot4Manufacturing

Le Canada, pays à l’honneur pour la 2ème édition
Venez rencontrer des entreprises locales, nationales et internationales à travers des rendez-vous d’affaires préorganisés en amont de l’événement. Vous recherchez ou proposez des solutions dans la robotique industrielle ? Inscrivez-vous en ligne, remplissez votre profil détaillant vos projets et/ou expertises et choisissez quelles sociétés pour souhaitez rencontrer pendant Robot4Manufacuting. Notre équipe se charge de créer un planning sur mesure avec vos choix pour des rendez-vous qualitatifs et ciblés pour une convention sans perte de temps.
Cette année, Robot4Manufacturing et la SDED (Société de Développement économique de DrummondVille au Québec) créent un espace dédié à la délégation canadienne. Une quinzaine d’entreprises feront le déplacement pour des RDV ciblés et programmés en amont !
Parmi les exposants d’ores et déjà confirmés : Actemium, Yaskawa, Sepro Group, Bene Solutions, Omron, Huguet…

 

Industrie du futur… Un axe : la robotique industrielle
En parallèle des rendez-vous d’affaires, Robot4Manufacturing peut compter sur un programme de conférences de haut-niveau pour permettre aux professionnels d’obtenir une vision globale de l’état de l’art de la robotique industrielle.
Parmi les conférences :
– Etat de l’art : la robotique industrielle aujourd’hui en France – Symop
– La robotique collaborative – Yaskawa France et Universal robots Spain
– Conférence regards croisés : France vs Canada
– Use case – Groupe Atlantique

 

Robot4Manufacuting est organisé par ORYON, agence de développement économique de la Roche-sur-Yon et advanced business events, organisateur d’événements professionnels.
Les partenaires industriels : Sepro Group, Yaskawa et Huguet.
Les partenaires : Région Pays de la Loire, La Roche-sur-Yon agglomération, Banque Populaire Atlantique, CCI Vendée, Proxinnov, EMC2, PFT Automatismes & Composites, Symop.

Recherche désespérément spécialistes en Linux et open source

Engagées dans leur transformation numérique, les entreprises doivent adapter leur Système d’information (SI) et s’appuyer sur de nouvelles méthodes et outils. Et, dans bien des cas, il s’agit de déployer des solutions open source ou Linux. Les embauches de ce type de profil sont désormais une priorité pour 83 % des employeurs selon le rapport de la fondation Linux et du site d’emploi Dice.

« Les talents de la technologie open source sont en forte demande, car Linux et d’autres logiciels open source dominent le développement logiciel » commente dans un communiqué le directeur exécutif de la Fondation Linux, Jim Zemlin.

L’automatisation de certaines opérations permet de réduire les taches chronophages et de limiter les risques d’erreurs. Or, les outils les plus connus viennent de l’open source. Puppet (sous licence Apache 2) permet d’automatiser un grand nombre de tâches d’administration, comme l’installation de logiciels, de services ou encore de modifier des fichiers. Quant à l’outil de gestion de configuration Chef, il présente l’avantage d’être multi-plate-forme.

Innovation et passion pour l’Open source

Autre solution très en vogue pour optimiser la virtualisation : la conteneurisation. Elle permet à des instances virtuelles de se partager un système d’exploitation hôte unique, sans couche logicielle supplémentaire. C’est ce qu’on appelle des conteneurs (l’une des solutions le plus connues s’appelant Docker).

Et c’est là que le bât blesse : les développeurs maîtrisant ces technologies sont une denrée rare. Par exemple, en 2017, seulement 27 % des recruteurs recherchaient une expertise dans les conteneurs. Aujourd’hui, 57 % des recruteurs en recherchent.

Résultat, la moitié des entreprises interrogées sont prêtes à payer à des candidats, qui ont une bonne expérience, une certification Linux parmi lesquelles la CompTIA Linux, la LPIC-3 (Linux Professional Institute), la Linux Enterprise Professional Certification ou encore la Red Hat Certified Engineer (RHCE).

Mais des spécialistes du cloud sont également très recherchés (64 %). La sécurité informatique et le développement Web représentent la moitié des profils demandés.

Confirmation de cette tension sur ce marché, seul un tiers des entreprises interrogées en 2016 étaient prêtes à payer ces certifications.  En les décrochant, les salariés pourront aussi prétendre à un salaire plus élevé ! Selon Foote Partners (créée en 1997, cette société dans l’analyse de l’organisation dans l’IT), la certification moyenne permet d’augmenter de 7,6 % sa rémunération.

Plus de 70 % des entreprises misent aussi sur d’autres avantages pour les séduire : vacances plus longues, heures de travail flexibles, télétravail. Mais pour la majorité des développeurs, le plus important est de pouvoir utiliser les dernières technologies, de profiter de la liberté de l’open source (64 %) et d’assouvir leur passion personnelle à l’égard de l’open source (62 %).

Par Philippe Richard

Prévoir l’évolution des solides mous pour l’impression 4D

Pasquale Ciarletta, chargé de recherche CNRS à l’Institut Jean Le Rond d’Alembert a publié dans Nature Communications les résultats de ces travaux : un modèle mathématique qui prévoit l’apparition de plis dans des solides mous. L’intérêt ? Les plissements dans ce genre de matériaux sont des phénomènes non-linéaires. Contrairement aux flambements – fléchissement d’un matériau perpendiculairement à l’axe d’une compression qu’on lui soumet – ou froissements qui sont liés à des propriétés élastiques structurelles et qui peuvent être décrits par des équations linéaires, le plissement d’un solide mou est un phénomène local et violent qui apparaît instantanément sans qu’aucun signe extérieur préalable ne se manifeste. Il est lié à un seuil d’instabilité critique global et c’est à partir de ce seuil que le modèle mathématique a pu prévoir le seuil de plissement.

© P.Ciarletta Un bloc fait d'un hydrogel mou (a) est comprimé en appliquant une pression entre les doigts (b). On observe l’apparition soudaine d’un plissement de surface (flèche blanche) lorsqu’une compression critique est exercée.
© P.Ciarletta Un bloc fait d’un hydrogel mou (a) est comprimé en appliquant une pression entre les doigts (b). On observe l’apparition soudaine d’un plissement de surface (flèche blanche) lorsqu’une compression critique est exercée.

Comme une transition de phase

Ce phénomène présente des similarités avec les transitions de phases liquide/vapeur. Dans les solides mous, la compression provoque localement une cohabitation entre une surface encore stable et des couches sous-jacentes déstructurées. Alors que la limite de compression au-delà de laquelle le solide va s’écrouler est connue, des phénomènes locaux peuvent se manifester avant cette limite. La compréhension des phénomènes physiques lors du plissement est encore aujourd’hui partielle. Pour construire ce modèle mathématique, la chercheuse s’est donc appuyé sur d’autres modèles (théorie des perturbations singulières et techniques de bifurcation) pour dériver le seuil d’apparition des plis en fonction du seuil connu d’instabilité globale.

La prédiction mathématique s’est révélée en concordance avec les expériences ou les simulations numériques effectuées. Le modèle peut s’appliquer à tous les matériaux souples dont la loi d’élasticité n’est pas linéaire.

Des applications en impression 4D

Ce phénomène de plissement suscite beaucoup d’intérêt en sciences de l’ingénieur ou encore en biologie du développement pour expliquer la formation de sillons localisés comme ceux des circonvolutions du cerveau. Sa prédiction permet d’envisager de fabriquer des objets en 3D avec des solides mous et d’en contrôler la déformation ou l’évolution pour en faire des objets fonctionnels dans le temps. C’est le passage à l’impression 4D (impression 3D + temps).

On peut alors imaginer des systèmes de taille micrométriques dont le changement de forme, initié par des stimulations externes, les rendraient interactifs : structures capables d’enfermer ou libérer des molécules sur commande, circuits électroniques intégrés flexibles, capteurs environnementaux ou médicaux… Cependant, avant cela il faudra réussir à prévoir l’emplacement et le nombre de plis car ce modèle ne prévoit que le seuil d’apparition des plis.

 Sophie Hoguin

Femme et ingénieure… épisode 3

La faible proportion de femmes ingénieures a incité la CDEFI (Conférence des directeurs des écoles françaises d’ingénieurs) à mettre en place l’opération Ingénieuses en 2011, afin d’attirer davantage de jeunes filles en écoles d’ingénieur-e-s. La cérémonie de remise des prix a eu lieu le 25 mai dernier, l’occasion de rencontrer les lauréats du Projet le plus original, ENSCMu.

 

Les projets :

Projet à destination des enfants d’une maternelle :
Les étudiants de première année participent à la présentation d’ateliers scientifiques à l’école maternelle des Romains de Rixheim. Cette collaboration entre une grande école et une école maternelle permet de sensibiliser les élèves en maternelle à un monde où filles et garçons pratiquent la science. Depuis 2014 et chaque année, entre huit et douze étudiants en première année à l’ENSCMu choisissent ce projet. Durant l’année 2017-2018, le projet a été soutenu pendant sept mois par dix élèves, dont six filles. L’objectif premier a été de susciter la vocation d’ingénieur et de lutter contre les idées reçues. Les élèves sont intervenus à quatre reprises en école maternelle. Au cours de ces ateliers, les enfants ont pu expérimenter la cuisine moléculaire, créer une lampe à lave ou encore de la neige qui ne fond pas.

• Projet à destination des écoles primaires :
Le projet consiste à des animations organisées par des élèves-ingénieurs et encadrés par des professeurs. Le but de ces interventions est d’éveiller la curiosité des filles. Le projet commence en octobre, les élèves-ingénieurs sélectionnent trois dates et trois écoles primaires, pour un total de cinq classes. Ils choisissent différents publics, allant du CP au CM2. D’octobre à janvier, des expériences sont réalisées par les élèves-ingénieurs afin de juger si elles sont réalisables et adaptées aux enfants. De février à avril, le groupe d’étudiants de l’ENSCMu intervient sur trois après-midis afin de faire réaliser des activités scientifiques aux enfants.

 

Entretien avec Corinne Trouche et Samuel Fouchard, enseignants à  l’ENSCMu et porteurs de ces projets.

Pouvez-vous nous raconter l’histoire de ces projets ?

• Interventions dans les écoles primaires
L’action mise en œuvre consiste à promouvoir la chimie auprès des plus jeunes afin de les inciter à s’intéresser aux métiers scientifiques. Cette promotion prend la forme d’animations scientifiques en école primaire, organisées par des élèves ingénieurs de l’ENSCMu volontaires et la globalité du projet est encadrée par une enseignante de l’ENSCMu, Corinne Trouche. Les jeunes ingénieures y jouent une place importante (8 sur les 10 étudiants participants en 2017/2018) puisqu’elles montrent aux enfants que l’on peut être une femme et suivre des études scientifiques. Cette année dix élèves ingénieurs en première année de cycle ingénieur sont intervenus dans deux écoles primaires proches de Mulhouse, à Habsheim et Rixheim, en février – mars, et ont accueilli une école de St Louis à l’ENSCMu en avril, aboutissement d’un travail démarré dès le mois d’octobre.
Encadrés par Corinne Trouche, enseignante à l’ENSCMu, les élèves se sont chargés de l’organisation des interventions dans chaque école, du choix des expériences à faire avec les enfants du CP au CM2, jusqu’à la planification de leurs interventions en passant par la préparation des supports et du matériel nécessaires. Après une rapide présentation de la chimie dans la vie quotidienne, les écoliers en classes monolingues et bilingues allemand ont pu assister à des expériences présentées par les élèves. Puis ils ont réalisé eux-mêmes de petites manipulations simples et visuelles comme la bouteille bleue, l’encre magique, le volcan chimique, la magie des bonbons… En fin de séance, ils ont reçu un petit diplôme et un livret d’expériences à faire à la maison. Ces animations ont aussi eu lieu certaines années précédentes et seront probablement reconduites en 2018/2019, « année de la chimie de l’école à l’université ».

• Interventions à l’école maternelle
Dans le même esprit en maternelle, l’ENSCMu s’investit tous les ans depuis 2014 dans le projet science de l’école des Romains à Rixheim, dirigée par Véronique Letourneur sous la houlette de Samuel Fouchard, enseignant-chercheur. Ce projet a pour but de sensibiliser les élèves de maternelle à une culture scientifique et technique en les mettant au contact d’un monde réel dans lequel filles et garçons pratiquent la science, en leur proposant des thèmes variés dans tous les domaines (vivant, matière, objets), en leur permettant de découvrir, se questionner, mener des investigations…, en construisant ainsi des connaissances simples (que l’on aura identifiées), en répondant à leur questionnement, en développant des compétences langagières.
Cette année dix élèves ingénieurs ont assuré trois sessions d’ateliers chimie de février à avril dans les classes de moyennes et grandes sections. Ils viennent également de présenter un spectacle de chimie devant les familles lors des portes ouvertes de l’école maternelle le 08 juin dernier.
Pour ce projet les élèves doivent élaborer et tester des expériences adaptées au public visé, et vulgariser leur propos à travers la création d’un petit carnet d’accompagnement qui est remis à chaque enfant en fin de séance. Ils veillent également à organiser leur présence matérielle et physique sur place en collaboration avec les enseignants avec qui le travail démarre dès le mois de novembre.

 

Quelle est la perception de ces actions, auprès de vos étudiants, des petits élèves et de leurs familles ?

Ces actions sont accueillies avec enthousiasme par les élèves, c’est un rendez-vous planifié et attendu impatiemment par les enfants et les parents!!! Elles ont un côté scientifique fort tout en gardant un côté ludique! Les étudiants adaptent leur discours en fonction de l’âge des enfants, ce qui rend les échanges étudiant/élève très vivants.
Pour les petits élèves c’est un premier contact avec la chimie, et il est fréquent à la fin des animations de les entendre dire aux étudiants: « c’était super », « moi plus tard, je veux faire comme toi », « je viendrai dans ton école de chimie », « on peut refaire de la chimie? »…
Pour les étudiants c’est aussi un premier contact avec la vulgarisation scientifique, première fois qu’ils doivent planifier, organiser, gérer, ils s’adaptent vite et sont heureux et fiers lors des animations, aboutissement de leur travail en amont.
Il n’est pas rare que le week-end certaines tables de cuisine se retrouvent avec : vinaigre, bicarbonate et liquide vaisselle… pour refaire grâce aux petits livrets explicatifs les expériences en famille sous le regard intrigué et amusé des parents !

 

Les formations en chimie comptent traditionnellement beaucoup de filles. Pourquoi est-ce important pour l’ENSCMu de mettre en place de type d’action ?

La formation à l’ENSCMu inclut la gestion d’un projet personnel au choix en première et deuxième années de cycle ingénieur. Les projets cités entrent dans ce cadre et font donc l’objet d’un tutorat destiné à faciliter l’autonomie des élèves ingénieurs dans la mise en œuvre et le maniement des concepts enseignés dans le cadre de la formation encadrée. L’objectif est de permettre aux futurs ingénieurs de travailler en équipe et d’acquérir des aptitudes en management et gestion de projet, pour développer leur capacité à entreprendre, à s’organiser, à assurer une prestation de qualité vis à vis d’un partenaire extérieur et ainsi les préparer au métier d’ingénieur.
Ce type d’action est également important au titre de l’investissement de l’ENSCMu dans le tissu socio-économique local, et dans la promotion des sciences auprès des enfants et jeunes, à la fois filles et garçons. Nous bénéficions en effet d’effectifs féminins plus élevés que dans d’autres domaines scientifiques mais c’est une caractéristique que nous devons travailler à conserver. Ces actions permettent de casser des images préconçues et de donner le goût des sciences, ce qui l’ENSCMu considère comme faisant partie de sa mission.

Les fondamentaux du BIM

Le BIM n’est pas une révolution, mais une évolution qui mobilise tous les acteurs de la filière BTP et impacte à la fois le fonctionnement interne des entreprises de construction et les relations entre les différents intervenants sur un même projet.

L’émergence du BIM est intimement liée aux nouvelles technologies. Les logiciels bien sûr, mais également les matériels permettant la capture et le transport des données. Cette caractéristique fait du BIM un concept et des méthodes en perpétuelle évolution.

Le BIM concerne l’ensemble du cycle de vie d’un ouvrage. Il est, par conséquent, nécessaire de décrire l’usage du BIM et ce qu’il apporte tout au long des différentes phases d’un projet :

  • la conception et le chiffrage ;
  • les études d’exécution ;
  • la fabrication et l’omniprésence du numérique utilisé historiquement pour l’automatisation de la production en construction métallique et en construction en béton préfabriqué ;
  • la construction sur site et l’impact du BIM sur la relation étude/chantier. L’information doit circuler de façon bidirectionnelle. Le chantier accède aux données du modèle BIM et peut, entre autres, renseigner ce dernier sur l’état d’avancement du montage de la structure ou des phases de coulage du béton.

Le BIM s’adresse à tous les intervenants et à toutes les étapes.

Le BIM change la façon de travailler des maîtres d’ouvrage en phase d’étude de faisabilité et de conception (délais de construction, critères financiers, performances énergétiques et environnementales, qualité des bâtiments) et des architectes (respect des normes en vigueur, gestion des modifications, visualisation de la maquette 3D, collaboration). Une fois la construction terminée, le modèle virtuel 3D est transmis au propriétaire de l’ouvrage avec toutes les informations nécessaires pour la gestion des installations, les travaux d’entretien et les modifications éventuelles. La maquette numérique est également utile en phase de déconstruction de l’ouvrage.

De la maîtrise d’ouvrage au constructeur, des commanditaires aux sous-traitants, un nombre important de sociétés peuvent collaborer et partager l’information autour de maquettes numériques. Il apparaît clairement qu’il n’y a pas qu’un seul BIM, mais différentes maquettes en fonction des phases du projet. La mise en place de méthodologies, l’utilisation de normes et de protocoles BIM internes aux sociétés sont indispensables pour une gestion optimale du projet.

BIM est un acronyme anglo-saxon qui signifie « Building Information Modeling ». Le M identifie dans certains cas « Model » ou « Management ».

En français, il est possible de le traduire en « modèle d’information du bâtiment » ou « modélisation de l’information du bâtiment », ou encore « gestion de l’information du bâtiment ».

Le terme de « maquette numérique » est également fréquemment utilisé en France.

ti-c3201-nv17221102097-web-768

Son origine

Le BIM ou la BIM est un concept relativement ancien. On attribue en effet la paternité du BIM à Charles M. Eastman, professeur au Collège d’Architecture et d’informatique de l’institut Georgia Tech. Ce dernier a travaillé sur le BIM fin 1970, début 1980. Charles Eastman est le co-auteur d’un ouvrage de référence publié en 2008 puis révisé en 2011, le BIM Handbook . Il a été un des pionniers dans le développement de logiciels de modélisation 3D paramétrique pour l’Architecture et l’ingénierie de la construction et a dirigé de nombreux projets de recherche depuis le milieu des années 1970.

Le développement du concept BIM va de pair avec l’apparition des logiciels de conception et/ou fabrication assistée par ordinateur CAO/CFAO 3D. Au début des années 1980, les premières solutions commerciales sont apparues.

Citons, comme exemple l’application ArchiCad (Éditeur : Graphisoft) pour la modélisation architecturale.

L’amélioration des performances des ordinateurs, la baisse de leurs coûts (PC) et l’usage d’interfaces graphiques interactives ont ensuite permis le développement de solutions dites 2D, puis 3D pour la filière construction.

Objectifs

La filière « Construction » au sens large n’est pas réputée pour son haut niveau de productivité. C’est une industrie qui fait (ou faisait) face à de gros problèmes de qualité. La maquette numérique est un des éléments de réponse à la non-qualité. La maitrise d’ouvrage a deux exigences : que les délais soient respectés et qu’il n’y ait pas de dépassement des budgets. Améliorer la qualité est très clairement l’objectif majeur du BIM.

C’est un énorme défi car le BIM est avant tout un changement d’attitude et un changement des habitudes

Maquette numérique

Le BIM est un processus de génération des données pour la conception et la construction d’un bâtiment et d’exploitation de ces informations sur le cycle complet de vie de l’ouvrage.

L’une des caractéristiques de l’approche BIM est l’échange autour de modèles virtuels de bâtiments créés numériquement. Ces modèles facilitent la conception, l’analyse et le contrôle en comparaison avec les procédures manuelles.

La forme la plus aboutie de cette démarche est le travail collaboratif autour de la maquette numérique qui peut être interne à une entreprise ou entre les différents intervenants dans la réalisation d’un projet.

Le BIM est un outil d’information puissant qui ne concerne pas uniquement le bâtiment mais également les infrastructures. Par conséquent, il existe différents formats de maquette numérique, depuis la représentation à l’échelle d’une ville facilitant la prise de décisions en termes d’aménagements urbains jusqu’à la modélisation d’un ouvrage complet incluant le détail des systèmes constructifs.

Dans le cadre du BIM pour la structure, un modèle virtuel 3D est composé de tous les objets et les assemblages d’objets utilisés dans le projet en cours.

  • Objets BIM

Les objets BIM sont des composants uniques (poutre, voile, plaque, boulon…). Ils possèdent des paramètres pour la définition des caractéristiques géométriques (profil de l’élément, dimensions de la section, longueur…). La valeur de ces paramètres a une influence sur l’apparence physique des objets.

Ces composants peuvent également contenir, sous la forme d’attributs, les informations nécessaires pour les concevoir, les positionner, les spécifier et les analyser :

    • matériau utilisé ;
    • type de protection ;
    • couleur d’apparence ;
    • spécifications techniques du fabricant ;
    • propriétés d’analyse ;
    • classes d’exécution ;
    • performance thermique ;
    • durée de vie ;
    • date de mise en fabrication et/ou de montage ;
    • etc.

La maquette numérique ou BIM offre aux différents intervenants la possibilité de concevoir et de valider les choix à chaque stade d’avancement d’un projet.

Différents niveaux de développement pour la représentation des éléments de la maquette numérique (appelés « LOD » de l’anglais Level of Development) ont été adoptés au niveau international, depuis l’esquisse en phase de conception, jusqu’à la définition détaillée de l’ouvrage tel que construit.

La mise en pratique des outils et processus BIM ne fait que débuter. Les technologies vont évoluer et s’améliorer. Nous pensons en particulier aux technologies de scannérisation et de vectorisation des ouvrages. Les formats d’échanges s’améliorent également et de plus en plus d’applications seront certifiées IFC. Le risque existe néanmoins de voir s’imposer des formats natifs ou des plateformes collaboratives propriétaires. Cela nuirait grandement à la diversité des solutions et aux bienfaits de la concurrence. Des associations et initiatives gouvernementales agissent pour promouvoir des formats neutres et des pratiques dites OpenBIM. Nous pouvons citer et souligner les actions de Mediaconstruct (le chapitre français de buildingSMART International) et du PTNB.

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 31 juillet !

Le BIM pour la structure – Une pratique collaborative, un article de Jean-Yves VETIL et Dominique FLASQUIN

Le gros chantier des fabricants

Eclairage, coffrets électriques, climatisation… Dans la maquette numérique d’un projet BIM, ces objets sont modélisés et décrits par des données, géométriques et techniques, dépendant de leur fonction. C’est l’une des principales différences entre une maquette BIM et une maquette 3D provenant d’un logiciel de CAO. La problématique du BIM étant assez récente, la tâche, qui revient aux fabricants de ces équipements, continue de soulever plusieurs questions, liées à la création de cette base de données, à sa diffusion et à son exploitation future.

Spécialiste de la ventilation et du confort thermique, l’industriel Aldes s’est emparé du sujet à la fin de l’année 2014. A l’exception des accessoires et des conduits, ces derniers étant intégrés de manière native aux logiciels BIM comme Revit, le catalogue entier a été converti, avec l’appui de prestataires expérimentés. Le degré de complexité de l’opération est cependant variable. «Modéliser une bouche d’aération est facile, explique Sandra Colonnese-Delaere, responsable du marketing services et support. En revanche, une centrale de traitement d’air est un objet paramétrique, dont la version est tributaire du volume d’air à traiter et des options (bypass, chauffage, etc). Cet objet possède de facto de multiples déclinaisons

Les caractéristiques d’une centrale de traitement d’air sont variables et sa modélisation BIM est donc plus complexe.

Schneider Electric, qui a publié ses premiers objets BIM en 2015, a été confronté à des questionnements comparables. «Nous avons commencé avec les éléments techniques les plus encombrants, tels que les transformateurs, car le BIM sert en priorité à déterminer l’occupation des espaces, détaille Bertrand Lack, du département stratégie et innovation. Un constat s’est vite imposé : le terme «bibliothèque BIM» n’a pas de sens. Il n’existe pas deux tableaux électriques basse tension assemblés de la même manière dans le monde. Comment produire un fichier BIM unique pour un système complexe et évolutif, qui n’est pas aussi trivial qu’un bloc d’éclairage de sécurité ? Les outils de configuration pour tableau électrique que nous développons ont pour but de générer automatiquement un modèle BIM précisant les informations utiles, à mesure que le projet avance.»

Le format lui-même de ce fichier est susceptible d’entraver le processus. «Le BIM n’est pas un standard, poursuit Bertrand Lack. L’architecte peut travailler avec Archicad, le bureau d’études avec Revit… Certes, l’IFC (Industry foundation classes) a été conçu pour formaliser les échanges d’informations entre logiciels BIM. Mais, en cas de reprise d’un élément de la conception, le fichier natif et son logiciel sont requis. Par analogie, l’IFC est au BIM ce que le PDF est à Word.» Schneider Electric a opté pour le logiciel Revit, leader sur le marché, à l’instar d’Aldes. L’IFC, aussi pratique soit-il, doit se perfectionner. «Ce format reste instable et ne conserve malheureusement pas toutes les données associées aux objets» souligne Sandra Colonnese-Delaere.

Lutte contre l’infobésité

Quant à la géométrie de l’objet BIM propre à tel équipement, on imagine que le fichier CAO ayant permis la fabrication de l’équipement considéré est un bon point de départ. Il n’en est rien : tout doit être refait. «Nos logiciels de CAO fournissent des plans détaillés, mais seule l’enveloppe extérieure a un intérêt pour nos clients, confie Sandra Colonnese-Delaere. Il s’agit d’établir un compromis entre le poids du fichier et le maximum d’informations utiles. Faute de quoi, la maquette d’un hôpital équipé de 600 volets de désenfumage deviendrait surchargée.» Ne serait-ce que trois ans en arrière, ce principe de sobriété n’était pas assimilé. «Des prestataires surfant sur la vague du BIM  proposaient des objets certes esthétiques, mais trop lourds» enchaîne Sandra Colonnese-Delaere. Une certaine confusion se manifeste encore. «On nous a déjà demandé des modèles BIM pour les disjoncteurs cachés à l’intérieur du tableau électrique, évoque Bertrand Lack. Or, c’est ce dernier qui importe

Ce sont désormais les champs des données techniques, greffés à chaque objet, qui constituent l’enjeu. Ils sont mis à contribution pendant la conception du bâtiment puis, plus tard, pendant son exploitation. Combien en faut-il ? Que doivent-ils contenir ? En outre, un langage universel vient à manquer. «Les professions dans les bureaux d’études ont besoin d’objets génériques, agnostiques (communiquer l’identité des fabricants dans les appels d’offres publics est interdit par la loi, ndlr) et d’un dictionnaire commun, sur lequel tout le monde s’aligne, indique Bertrand Lack. Les fabricants et les utilisateurs (exploitants, électriciens) doivent s’accorder sur une terminologie unique pour définir les propriétés : courant, tension, etc. C’est un projet initié par le Plan de transition numérique du bâtiment notamment.» Aldes travaille de son côté avec Uniclima, syndicat des industries thermiques, aérauliques et frigorifiques, pour qu’un dictionnaire transverse aboutisse. «Mais les bureaux d’études et les architectes peinent à exprimer leurs souhaits en la matière» note Sandra Colonnese-Delaere. L’expectative est de rigueur dans des processus aussi neufs.

Collaboration impérative

Le BIM a donc pour vocation d’accompagner le bâtiment tout au long de sa durée de vie et d’en faciliter l’exploitation. Une nouvelle fois, ce n’est pas une mince affaire. «La finalité consiste à fournir au Facility Manager (appelés aussi services généraux, ndlr), à l’exploitant, un dossier des ouvrages exécutés au format numérique, signale Bertrand Lack. Quand il sélectionne l’avatar du tableau électrique dans la maquette BIM, il s’attend à trouver l’historique des interventions, le type de disjoncteurs, le plan de maintenance, etc. Mais Schneider Electric ne fournit que les composants du tableau. La personne qui le réalise, le tableautier dans notre jargon, le vend à un installateur-électricien. Il y a plusieurs niveaux de décision – contractant général, bureau d’étude, installateur… – et de multiples retours entre chacun d’eux.» Difficile de compiler des données d’origines aussi diverses dans un fichier unifié. «Une plateforme collaborative pour inciter au partage de ces données et gérer les droits est impérative, ajoute Bertrand Lack. Mais les métiers rechignent à communiquer sur leur business.» Les profits sont loin d’être immédiats. «Les investissements sont réalisés en amont, et les bénéfices se décalent vers l’aval» admet Sandra Colonnese-Delaere. Plutôt vers l’exploitant, donc.

A plus forte raison, la question économique n’est pas à éluder pour les fabricants. Modéliser un objet BIM, pour commencer, n’est pas gratuit. «Il faut compter entre 600 et 5000 € selon la complexité de l’objet, estime Sandra Colonnese-Delaere. L’intégralité de notre catalogue, composé de 7000 références environ, est couvert par 120 familles d’objets BIM.» Ensuite, à l’heure du numérique, ces données sont partagées via des plateformes cloud. Aldes et Schneider Electric ont fait le choix de publier leurs fichiers BIM sur leur propre portail, en accès libre et gratuit pour leurs clients, et progressivement sur les plateformes généralistes et centralisées, telles que BIMobject ou BIM&CO, qui ont acquis une position dominante sur le marché. Car il s’agit bien d’un marché, la mise à disposition des objets étant payante, ce qui grignote les marges. Mais le risque va bien au-delà. «Qui nous dit qu’une telle plateforme ne va devenir l’Uber du bâtiment ? » s’interroge Bertrand Lack.

L’engin de chantier passe à la 3D

Indispensables à la mise en œuvre du projet de construction, les engins de chantier ont droit aussi à leurs modèles 3D. Depuis le printemps dernier, l’entreprise Kiloutou met à disposition 50 objets BIM liés à sa gamme de manutention et d’élévation. Ces fichiers au format Revit et IFC sont à télécharger à partir de la plateforme Bim&Co. Intégrés à la maquette BIM, ils permettent de visualiser les abaques et aident à choisir le matériel le mieux adapté au contexte. Kiloutou travaille en outre sur un projet de réalité augmentée, qui a pour objectif de superposer la vue réelle du chantier et l’engin en 3D. Cet outil affiche les courbes de charge et les dimensions de l’engin. On suppose qu’il servira aussi à examiner l’encombrement et les possibilités de manœuvre.

Par Frédéric Monflier

Faciliter le «Facility Management»

La conception et l’édification d’un bâtiment, que ce soit un ensemble résidentiel, une usine ou un immeuble de bureaux, sont des projets de longue haleine, qui peuvent durer plusieurs années. Mais l’exploitation dudit bâtiment, en somme tout ce qui le maintient fonctionnel de sa mise en service à sa déconstruction, court sur plusieurs décades et représenterait trois quarts de son coût total. Un cycle au cours duquel la maquette BIM promet également de jouer un rôle central et majeur, visant à améliorer l’efficacité des opérations : gestion générale du bâtiment (ou facility management), pilotage de la performance énergétique, entretien et maintenance des installations techniques, à savoir l’éclairage, le chauffage, la ventilation, la climatisation (CVC), la sécurité incendie, etc.

Le BIM étant un concept neuf, a fortiori dans le domaine de l’exploitation, la plupart des projets sont récents voire expérimentaux. Faute de recul, les bénéfices sur le long terme sont donc assez théoriques, mais quelques cas pratiques fournissent de bons indicateurs. Illustration avec le Château des apprentis d’Auteuil, à Meudon, où l’entreprise Engie Axima s’occupe de la maintenance. D’une superficie de 17 000 m2, cet établissement scolaire et professionnel, bâti à la fin du 19e siècle, a fait l’objet d’une modélisation BIM à partir d’un nuage de points produit par un scanner.

Une référence pour les appels d’offre

«Non seulement l’enveloppe géométrique a été modélisée, mais aussi les installations techniques, détaille Raphaël Contamin, directeur de la BIM Factory chez Engie Axima. Grâce à nos équipes spécialisées dans les métiers de la maintenance, chaque objet a été décrit dans la maquette BIM : catégorie, fonction, etc. Le gestionnaire s’en sert pour lancer des appels d’offre, concernant le traitement de la charpente par exemple. Auparavant, il aurait fait appel à un géomètre expert qui aurait procédé à un relevé sur site. Désormais, les volumes et la configuration des poutres sont extraits directement de la maquette BIM. Même cas de figure si le contrat de maintenance change de prestataire : l’inventaire des équipements, obligatoire, s’effectue à partir de l’avatar numérique. Les économies sont considérables

A ce premier niveau, le BIM aurait déjà un effet positif, facilitant la gestion des actifs patrimoniaux, accélérant les procédures, réduisant les coûts. A un deuxième niveau, il devient un outil de terrain, au plus près des opérations. «Les flux de données provenant des capteurs de la GTB (gestion technique du bâtiment) et de la GMAO (gestion de la maintenance assistée par ordinateur) peuvent être ajoutés de manière dynamique à une maquette BIM, poursuit Raphaël Contamin. Une fois les connexions établies entre la maquette et ces outils, il suffit de cliquer sur une centrale de traitement d’air pour visualiser la fiche technique au format PDF, vérifier l’état de fonctionnement grâce aux données des capteurs, obtenir l’historique des opérations de maintenance… Croiser ces informations est un moyen d’établir un premier diagnostic en cas d’anomalie. L’équipe de maintenance a la possibilité de mieux préparer ses interventions et de planifier son stock de pièces de rechange. Actuellement, les techniciens se déplacent sur le site, font un premier repérage, réparent l’installation en partie puis reviennent deux jours plus tard. Pendant ce temps, le client n’a toujours pas eu de réponse à son besoin immédiat

La réalité augmentée s’en mêle

Ce principe sera mis en pratique par Engie Axima dans deux projets :  l’IUT C, dont la construction s’achève à Roubaix, et la piscine Yves Blanc à Aix-en-Provence, dont la réouverture est prévue en septembre prochain, suite à des travaux de réhabilitation. «Engie Axima s’est chargée de la conception, de la réalisation et assurera l’exploitation-maintenance, explique Raphaël Contamin. De ce fait, par anticipation, la maquette BIM dessinée durant le chantier a été adaptée à ce type d’intervention. Les techniciens accédant à la maquette via une tablette, il est indispensable d’alléger le fichier pour ne conserver que les informations utiles à l’exploitation. Par exemple, le modèle 3D d’un pilier en béton est important au moment de la conception. Après, il l’est moins

Depuis fin 2016, une démarche similaire a été mise en œuvre sur site Campus Hélios de Thalès, à Vélizy, dont l’exploitation et la maintenance sont à la charge de Vinci Facilities. Grâce à une application de réalité augmentée, les techniciens, munis d’une tablette, sont guidés jusqu’à l’emplacement précis de l’équipement à visiter et obtiennent toutes les informations techniques utiles. Un gain de temps appréciable quand il s’agit de se déplacer sur un site qui s’étend sur 49000 m2. L’application, la géolocalisation et les connexions entre maquette BIM et GTB/GMAO ont été réalisées par la société Syntetic.

En vidéo: Sur le Campus Hélios de Thalès, les techniciens de Vinci Facilities se déplacent jusqu’au lieu d’intervention à l’aide d’une tablette, qui affiche la maquette BIM en surimpression.

C’est bien l’enjeu pour qu’un tel dispositif soit complet et efficace : irriguer la maquette BIM avec des données provenant des capteurs de la GTB, des installations techniques et autres objets connectés. A l’heure du numérique, établir des passerelles logicielles n’a rien d’insurmontable. Mais cette ouverture – idée en contradiction avec la tradition dans ces filières – suscite des interrogations quant à la sécurité des équipements, aux responsabilités, etc. La situation tend à se normaliser. Vinci Facilities discute par exemple avec le Gimélec, syndicat professionnel qui fédère les industriels de l’équipement électrique et des automatismes.

De son côté, la Smart Building Alliance milite pour que la maquette BIM et les données du bâtiment puissent être interfacées. Pour cette organisation, la donnée constitue un élément valorisable à part entière, à la source de nouveaux services et applications à destination des occupants en particulier. Vinci Facilities collabore avec la start-up Jooxter, créatrice d’un service d’optimisation d’espaces de travail basé sur des objets connectés. Et Engie Axima a développé FlexiBIM, consacré à l’aménagement des bureaux. Le BIM devient un nouveau relais de croissance pour les spécialistes du «Facility Management».

Frédéric Monflier