Responsabilité sociétale : la communication des entreprises

Depuis une vingtaine d’années, de plus en plus d’entreprises produisent, en plus de leur rapport annuel, un rapport de responsabilité sociale qui est d’ailleurs obligatoire pour certains secteurs ou dans certains pays. Dans l’espoir d’une standardisation qui permette des comparaisons entre entreprises et dans le temps, le Global Reporting Initiative propose des indicateurs normalisés de performance sociale et environnementale auxquels peuvent se référer les entreprises pour produire leur rapport de développement durable et de responsabilité sociale.

La reddition de comptes en matière environnementale se fait aussi par d’autres véhicules, telles que les plateformes externes de divulgation. Initié par de grands investisseurs, le Carbon Disclosure Project (CDP) recueille les émissions des plus grandes entreprises calculées selon un protocole d’évaluation normalisé. Il publie les résultats de l’exercice chaque année en mettant en valeur les entreprises les plus performantes.

Enfin, les entreprises font l’objet de classements généraux par des indices s’adressant aux investisseurs responsables ou soucieux de minimiser les risques sociaux et environnementaux de leurs investissements. Ces indices retiennent les entreprises les plus performantes en fonction d’une liste de critères environnementaux, sociaux et de gouvernance qui leur est propre. ASPI Eurozone (Advanced Sustainable Performance Indice), Dow Jones Sustainability Index (DJSI), Ethibel Sustainability Index (ESI) et FTSE4Good sont les indices les plus utilisés en Europe.

Pour finir, le greenwashing consiste à faire valoir la qualité écologique d’un produit ou d’une organisation sans en avoir sensiblement amélioré la performance environnementale réelle. L’organisation TerraChoice dresse une liste des sept péchés capitaux du greenwashing à partir d’une analyse des pratiques des entreprises :

  • l’option cachée ;
  • l’absence de preuve ;
  • l’imprécision ;
  • les labels mensongers ;
  • la non-pertinence ;
  • le moindre mal ;
  • le mensonge.

info-part-4_ok

Extrait de l’article G8405 « Développement durable et responsabilité sociale de l’entreprise » de Corinne GENDRON

Responsabilité sociétale : quelles stratégies pour les entreprises ?

Principaux acteurs de l’économie, les entreprises ont été très tôt interpellées pour participer aux efforts visant un développement durable. Dès 1999, à l’occasion du sommet de Davos, le secrétaire général de l’Organisation des Nations unies (ONU), Kofi Annan, invita formellement les entreprises à respecter et à promouvoir les grands principes internationaux en matière d’environnement et de droits humains en adhérant notamment au Pacte Mondial.

L’engagement des entreprises s’inscrit dans une longue évolution à travers laquelle les entreprises se sont peu à peu ouvertes au problème environnemental, ont accepté d’en assumer une part de responsabilité, pour finalement participer aux efforts de protection. Cet engagement varie selon les entreprises en fonction de l’historique du secteur, de la culture organisationnelle, ou des convictions personnelles du dirigeant. De plus, chaque secteur économique comporte des défis écologiques particuliers et requiert des efforts qui lui sont propres : la protection de l’environnement n’a pas les mêmes implications pour l’industrie extractive que pour les institutions financières par exemple.

Le positionnement de l’entreprise à l’égard de l’environnement et de la société est partie intégrante de sa stratégie et se décline à tous les niveaux de l’organisation. Il peut prendre quatre grandes configurations :

  • l’entreprise délictuelle ;
  • l’entreprise conforme ;
  • l’entreprise chef de file ;
  • enfin l’entreprise écologique.

L’entreprise délictuelle fait fi des exigences écologiques et sociales au risque de basculer dans l’illégalité ; sa gestion n’intègre pas de principes écologiques, et elle n’a ni politique environnementale, ni système d’information ou de veille reliés aux questions de responsabilité sociale.

L’entreprise conforme respecte ses obligations juridiques, mais sans anticiper les nouvelles exigences. Elle aborde les questions environnementales et sociales comme une contrainte supplémentaire à intégrer au moindre coût.

L’entreprise chef de file se fixe des objectifs élevés de responsabilité environnementale et sociale, et utilise sa performance extrafinancière comme facteur distinctif inhérent à son image de marque. En plus d’une politique et de procédures de gestion, elle compte bien souvent une direction ou un service dédié aux questions environnementales et de responsabilité sociale. Elle met à profit ses innovations technologiques et managériales pour améliorer sa performance écologique.

Enfin, l’entreprise écologique définit sa mission en regard des impératifs écologiques et aligne sa gestion interne sur les grands principes du développement durable.

info-part-1_ok

Extrait de l’article G8405 « Développement durable et responsabilité sociale de l’entreprise » de Corinne GENDRON

Les professionnels de la robotique industrielle réunis sur Robot4Manufacturing

Le Canada, pays à l’honneur pour la 2ème édition
Venez rencontrer des entreprises locales, nationales et internationales à travers des rendez-vous d’affaires préorganisés en amont de l’événement. Vous recherchez ou proposez des solutions dans la robotique industrielle ? Inscrivez-vous en ligne, remplissez votre profil détaillant vos projets et/ou expertises et choisissez quelles sociétés pour souhaitez rencontrer pendant Robot4Manufacuting. Notre équipe se charge de créer un planning sur mesure avec vos choix pour des rendez-vous qualitatifs et ciblés pour une convention sans perte de temps.
Cette année, Robot4Manufacturing et la SDED (Société de Développement économique de DrummondVille au Québec) créent un espace dédié à la délégation canadienne. Une quinzaine d’entreprises feront le déplacement pour des RDV ciblés et programmés en amont !
Parmi les exposants d’ores et déjà confirmés : Actemium, Yaskawa, Sepro Group, Bene Solutions, Omron, Huguet…

 

Industrie du futur… Un axe : la robotique industrielle
En parallèle des rendez-vous d’affaires, Robot4Manufacturing peut compter sur un programme de conférences de haut-niveau pour permettre aux professionnels d’obtenir une vision globale de l’état de l’art de la robotique industrielle.
Parmi les conférences :
– Etat de l’art : la robotique industrielle aujourd’hui en France – Symop
– La robotique collaborative – Yaskawa France et Universal robots Spain
– Conférence regards croisés : France vs Canada
– Use case – Groupe Atlantique

 

Robot4Manufacuting est organisé par ORYON, agence de développement économique de la Roche-sur-Yon et advanced business events, organisateur d’événements professionnels.
Les partenaires industriels : Sepro Group, Yaskawa et Huguet.
Les partenaires : Région Pays de la Loire, La Roche-sur-Yon agglomération, Banque Populaire Atlantique, CCI Vendée, Proxinnov, EMC2, PFT Automatismes & Composites, Symop.

Recherche désespérément spécialistes en Linux et open source

Engagées dans leur transformation numérique, les entreprises doivent adapter leur Système d’information (SI) et s’appuyer sur de nouvelles méthodes et outils. Et, dans bien des cas, il s’agit de déployer des solutions open source ou Linux. Les embauches de ce type de profil sont désormais une priorité pour 83 % des employeurs selon le rapport de la fondation Linux et du site d’emploi Dice.

« Les talents de la technologie open source sont en forte demande, car Linux et d’autres logiciels open source dominent le développement logiciel » commente dans un communiqué le directeur exécutif de la Fondation Linux, Jim Zemlin.

L’automatisation de certaines opérations permet de réduire les taches chronophages et de limiter les risques d’erreurs. Or, les outils les plus connus viennent de l’open source. Puppet (sous licence Apache 2) permet d’automatiser un grand nombre de tâches d’administration, comme l’installation de logiciels, de services ou encore de modifier des fichiers. Quant à l’outil de gestion de configuration Chef, il présente l’avantage d’être multi-plate-forme.

Innovation et passion pour l’Open source

Autre solution très en vogue pour optimiser la virtualisation : la conteneurisation. Elle permet à des instances virtuelles de se partager un système d’exploitation hôte unique, sans couche logicielle supplémentaire. C’est ce qu’on appelle des conteneurs (l’une des solutions le plus connues s’appelant Docker).

Et c’est là que le bât blesse : les développeurs maîtrisant ces technologies sont une denrée rare. Par exemple, en 2017, seulement 27 % des recruteurs recherchaient une expertise dans les conteneurs. Aujourd’hui, 57 % des recruteurs en recherchent.

Résultat, la moitié des entreprises interrogées sont prêtes à payer à des candidats, qui ont une bonne expérience, une certification Linux parmi lesquelles la CompTIA Linux, la LPIC-3 (Linux Professional Institute), la Linux Enterprise Professional Certification ou encore la Red Hat Certified Engineer (RHCE).

Mais des spécialistes du cloud sont également très recherchés (64 %). La sécurité informatique et le développement Web représentent la moitié des profils demandés.

Confirmation de cette tension sur ce marché, seul un tiers des entreprises interrogées en 2016 étaient prêtes à payer ces certifications.  En les décrochant, les salariés pourront aussi prétendre à un salaire plus élevé ! Selon Foote Partners (créée en 1997, cette société dans l’analyse de l’organisation dans l’IT), la certification moyenne permet d’augmenter de 7,6 % sa rémunération.

Plus de 70 % des entreprises misent aussi sur d’autres avantages pour les séduire : vacances plus longues, heures de travail flexibles, télétravail. Mais pour la majorité des développeurs, le plus important est de pouvoir utiliser les dernières technologies, de profiter de la liberté de l’open source (64 %) et d’assouvir leur passion personnelle à l’égard de l’open source (62 %).

Par Philippe Richard

Prévoir l’évolution des solides mous pour l’impression 4D

Pasquale Ciarletta, chargé de recherche CNRS à l’Institut Jean Le Rond d’Alembert a publié dans Nature Communications les résultats de ces travaux : un modèle mathématique qui prévoit l’apparition de plis dans des solides mous. L’intérêt ? Les plissements dans ce genre de matériaux sont des phénomènes non-linéaires. Contrairement aux flambements – fléchissement d’un matériau perpendiculairement à l’axe d’une compression qu’on lui soumet – ou froissements qui sont liés à des propriétés élastiques structurelles et qui peuvent être décrits par des équations linéaires, le plissement d’un solide mou est un phénomène local et violent qui apparaît instantanément sans qu’aucun signe extérieur préalable ne se manifeste. Il est lié à un seuil d’instabilité critique global et c’est à partir de ce seuil que le modèle mathématique a pu prévoir le seuil de plissement.

© P.Ciarletta Un bloc fait d'un hydrogel mou (a) est comprimé en appliquant une pression entre les doigts (b). On observe l’apparition soudaine d’un plissement de surface (flèche blanche) lorsqu’une compression critique est exercée.
© P.Ciarletta Un bloc fait d’un hydrogel mou (a) est comprimé en appliquant une pression entre les doigts (b). On observe l’apparition soudaine d’un plissement de surface (flèche blanche) lorsqu’une compression critique est exercée.

Comme une transition de phase

Ce phénomène présente des similarités avec les transitions de phases liquide/vapeur. Dans les solides mous, la compression provoque localement une cohabitation entre une surface encore stable et des couches sous-jacentes déstructurées. Alors que la limite de compression au-delà de laquelle le solide va s’écrouler est connue, des phénomènes locaux peuvent se manifester avant cette limite. La compréhension des phénomènes physiques lors du plissement est encore aujourd’hui partielle. Pour construire ce modèle mathématique, la chercheuse s’est donc appuyé sur d’autres modèles (théorie des perturbations singulières et techniques de bifurcation) pour dériver le seuil d’apparition des plis en fonction du seuil connu d’instabilité globale.

La prédiction mathématique s’est révélée en concordance avec les expériences ou les simulations numériques effectuées. Le modèle peut s’appliquer à tous les matériaux souples dont la loi d’élasticité n’est pas linéaire.

Des applications en impression 4D

Ce phénomène de plissement suscite beaucoup d’intérêt en sciences de l’ingénieur ou encore en biologie du développement pour expliquer la formation de sillons localisés comme ceux des circonvolutions du cerveau. Sa prédiction permet d’envisager de fabriquer des objets en 3D avec des solides mous et d’en contrôler la déformation ou l’évolution pour en faire des objets fonctionnels dans le temps. C’est le passage à l’impression 4D (impression 3D + temps).

On peut alors imaginer des systèmes de taille micrométriques dont le changement de forme, initié par des stimulations externes, les rendraient interactifs : structures capables d’enfermer ou libérer des molécules sur commande, circuits électroniques intégrés flexibles, capteurs environnementaux ou médicaux… Cependant, avant cela il faudra réussir à prévoir l’emplacement et le nombre de plis car ce modèle ne prévoit que le seuil d’apparition des plis.

 Sophie Hoguin

Femme et ingénieure… épisode 3

La faible proportion de femmes ingénieures a incité la CDEFI (Conférence des directeurs des écoles françaises d’ingénieurs) à mettre en place l’opération Ingénieuses en 2011, afin d’attirer davantage de jeunes filles en écoles d’ingénieur-e-s. La cérémonie de remise des prix a eu lieu le 25 mai dernier, l’occasion de rencontrer les lauréats du Projet le plus original, ENSCMu.

 

Les projets :

Projet à destination des enfants d’une maternelle :
Les étudiants de première année participent à la présentation d’ateliers scientifiques à l’école maternelle des Romains de Rixheim. Cette collaboration entre une grande école et une école maternelle permet de sensibiliser les élèves en maternelle à un monde où filles et garçons pratiquent la science. Depuis 2014 et chaque année, entre huit et douze étudiants en première année à l’ENSCMu choisissent ce projet. Durant l’année 2017-2018, le projet a été soutenu pendant sept mois par dix élèves, dont six filles. L’objectif premier a été de susciter la vocation d’ingénieur et de lutter contre les idées reçues. Les élèves sont intervenus à quatre reprises en école maternelle. Au cours de ces ateliers, les enfants ont pu expérimenter la cuisine moléculaire, créer une lampe à lave ou encore de la neige qui ne fond pas.

• Projet à destination des écoles primaires :
Le projet consiste à des animations organisées par des élèves-ingénieurs et encadrés par des professeurs. Le but de ces interventions est d’éveiller la curiosité des filles. Le projet commence en octobre, les élèves-ingénieurs sélectionnent trois dates et trois écoles primaires, pour un total de cinq classes. Ils choisissent différents publics, allant du CP au CM2. D’octobre à janvier, des expériences sont réalisées par les élèves-ingénieurs afin de juger si elles sont réalisables et adaptées aux enfants. De février à avril, le groupe d’étudiants de l’ENSCMu intervient sur trois après-midis afin de faire réaliser des activités scientifiques aux enfants.

 

Entretien avec Corinne Trouche et Samuel Fouchard, enseignants à  l’ENSCMu et porteurs de ces projets.

Pouvez-vous nous raconter l’histoire de ces projets ?

• Interventions dans les écoles primaires
L’action mise en œuvre consiste à promouvoir la chimie auprès des plus jeunes afin de les inciter à s’intéresser aux métiers scientifiques. Cette promotion prend la forme d’animations scientifiques en école primaire, organisées par des élèves ingénieurs de l’ENSCMu volontaires et la globalité du projet est encadrée par une enseignante de l’ENSCMu, Corinne Trouche. Les jeunes ingénieures y jouent une place importante (8 sur les 10 étudiants participants en 2017/2018) puisqu’elles montrent aux enfants que l’on peut être une femme et suivre des études scientifiques. Cette année dix élèves ingénieurs en première année de cycle ingénieur sont intervenus dans deux écoles primaires proches de Mulhouse, à Habsheim et Rixheim, en février – mars, et ont accueilli une école de St Louis à l’ENSCMu en avril, aboutissement d’un travail démarré dès le mois d’octobre.
Encadrés par Corinne Trouche, enseignante à l’ENSCMu, les élèves se sont chargés de l’organisation des interventions dans chaque école, du choix des expériences à faire avec les enfants du CP au CM2, jusqu’à la planification de leurs interventions en passant par la préparation des supports et du matériel nécessaires. Après une rapide présentation de la chimie dans la vie quotidienne, les écoliers en classes monolingues et bilingues allemand ont pu assister à des expériences présentées par les élèves. Puis ils ont réalisé eux-mêmes de petites manipulations simples et visuelles comme la bouteille bleue, l’encre magique, le volcan chimique, la magie des bonbons… En fin de séance, ils ont reçu un petit diplôme et un livret d’expériences à faire à la maison. Ces animations ont aussi eu lieu certaines années précédentes et seront probablement reconduites en 2018/2019, « année de la chimie de l’école à l’université ».

• Interventions à l’école maternelle
Dans le même esprit en maternelle, l’ENSCMu s’investit tous les ans depuis 2014 dans le projet science de l’école des Romains à Rixheim, dirigée par Véronique Letourneur sous la houlette de Samuel Fouchard, enseignant-chercheur. Ce projet a pour but de sensibiliser les élèves de maternelle à une culture scientifique et technique en les mettant au contact d’un monde réel dans lequel filles et garçons pratiquent la science, en leur proposant des thèmes variés dans tous les domaines (vivant, matière, objets), en leur permettant de découvrir, se questionner, mener des investigations…, en construisant ainsi des connaissances simples (que l’on aura identifiées), en répondant à leur questionnement, en développant des compétences langagières.
Cette année dix élèves ingénieurs ont assuré trois sessions d’ateliers chimie de février à avril dans les classes de moyennes et grandes sections. Ils viennent également de présenter un spectacle de chimie devant les familles lors des portes ouvertes de l’école maternelle le 08 juin dernier.
Pour ce projet les élèves doivent élaborer et tester des expériences adaptées au public visé, et vulgariser leur propos à travers la création d’un petit carnet d’accompagnement qui est remis à chaque enfant en fin de séance. Ils veillent également à organiser leur présence matérielle et physique sur place en collaboration avec les enseignants avec qui le travail démarre dès le mois de novembre.

 

Quelle est la perception de ces actions, auprès de vos étudiants, des petits élèves et de leurs familles ?

Ces actions sont accueillies avec enthousiasme par les élèves, c’est un rendez-vous planifié et attendu impatiemment par les enfants et les parents!!! Elles ont un côté scientifique fort tout en gardant un côté ludique! Les étudiants adaptent leur discours en fonction de l’âge des enfants, ce qui rend les échanges étudiant/élève très vivants.
Pour les petits élèves c’est un premier contact avec la chimie, et il est fréquent à la fin des animations de les entendre dire aux étudiants: « c’était super », « moi plus tard, je veux faire comme toi », « je viendrai dans ton école de chimie », « on peut refaire de la chimie? »…
Pour les étudiants c’est aussi un premier contact avec la vulgarisation scientifique, première fois qu’ils doivent planifier, organiser, gérer, ils s’adaptent vite et sont heureux et fiers lors des animations, aboutissement de leur travail en amont.
Il n’est pas rare que le week-end certaines tables de cuisine se retrouvent avec : vinaigre, bicarbonate et liquide vaisselle… pour refaire grâce aux petits livrets explicatifs les expériences en famille sous le regard intrigué et amusé des parents !

 

Les formations en chimie comptent traditionnellement beaucoup de filles. Pourquoi est-ce important pour l’ENSCMu de mettre en place de type d’action ?

La formation à l’ENSCMu inclut la gestion d’un projet personnel au choix en première et deuxième années de cycle ingénieur. Les projets cités entrent dans ce cadre et font donc l’objet d’un tutorat destiné à faciliter l’autonomie des élèves ingénieurs dans la mise en œuvre et le maniement des concepts enseignés dans le cadre de la formation encadrée. L’objectif est de permettre aux futurs ingénieurs de travailler en équipe et d’acquérir des aptitudes en management et gestion de projet, pour développer leur capacité à entreprendre, à s’organiser, à assurer une prestation de qualité vis à vis d’un partenaire extérieur et ainsi les préparer au métier d’ingénieur.
Ce type d’action est également important au titre de l’investissement de l’ENSCMu dans le tissu socio-économique local, et dans la promotion des sciences auprès des enfants et jeunes, à la fois filles et garçons. Nous bénéficions en effet d’effectifs féminins plus élevés que dans d’autres domaines scientifiques mais c’est une caractéristique que nous devons travailler à conserver. Ces actions permettent de casser des images préconçues et de donner le goût des sciences, ce qui l’ENSCMu considère comme faisant partie de sa mission.

Les fondamentaux du BIM

Le BIM n’est pas une révolution, mais une évolution qui mobilise tous les acteurs de la filière BTP et impacte à la fois le fonctionnement interne des entreprises de construction et les relations entre les différents intervenants sur un même projet.

L’émergence du BIM est intimement liée aux nouvelles technologies. Les logiciels bien sûr, mais également les matériels permettant la capture et le transport des données. Cette caractéristique fait du BIM un concept et des méthodes en perpétuelle évolution.

Le BIM concerne l’ensemble du cycle de vie d’un ouvrage. Il est, par conséquent, nécessaire de décrire l’usage du BIM et ce qu’il apporte tout au long des différentes phases d’un projet :

  • la conception et le chiffrage ;
  • les études d’exécution ;
  • la fabrication et l’omniprésence du numérique utilisé historiquement pour l’automatisation de la production en construction métallique et en construction en béton préfabriqué ;
  • la construction sur site et l’impact du BIM sur la relation étude/chantier. L’information doit circuler de façon bidirectionnelle. Le chantier accède aux données du modèle BIM et peut, entre autres, renseigner ce dernier sur l’état d’avancement du montage de la structure ou des phases de coulage du béton.

Le BIM s’adresse à tous les intervenants et à toutes les étapes.

Le BIM change la façon de travailler des maîtres d’ouvrage en phase d’étude de faisabilité et de conception (délais de construction, critères financiers, performances énergétiques et environnementales, qualité des bâtiments) et des architectes (respect des normes en vigueur, gestion des modifications, visualisation de la maquette 3D, collaboration). Une fois la construction terminée, le modèle virtuel 3D est transmis au propriétaire de l’ouvrage avec toutes les informations nécessaires pour la gestion des installations, les travaux d’entretien et les modifications éventuelles. La maquette numérique est également utile en phase de déconstruction de l’ouvrage.

De la maîtrise d’ouvrage au constructeur, des commanditaires aux sous-traitants, un nombre important de sociétés peuvent collaborer et partager l’information autour de maquettes numériques. Il apparaît clairement qu’il n’y a pas qu’un seul BIM, mais différentes maquettes en fonction des phases du projet. La mise en place de méthodologies, l’utilisation de normes et de protocoles BIM internes aux sociétés sont indispensables pour une gestion optimale du projet.

BIM est un acronyme anglo-saxon qui signifie « Building Information Modeling ». Le M identifie dans certains cas « Model » ou « Management ».

En français, il est possible de le traduire en « modèle d’information du bâtiment » ou « modélisation de l’information du bâtiment », ou encore « gestion de l’information du bâtiment ».

Le terme de « maquette numérique » est également fréquemment utilisé en France.

ti-c3201-nv17221102097-web-768

Son origine

Le BIM ou la BIM est un concept relativement ancien. On attribue en effet la paternité du BIM à Charles M. Eastman, professeur au Collège d’Architecture et d’informatique de l’institut Georgia Tech. Ce dernier a travaillé sur le BIM fin 1970, début 1980. Charles Eastman est le co-auteur d’un ouvrage de référence publié en 2008 puis révisé en 2011, le BIM Handbook . Il a été un des pionniers dans le développement de logiciels de modélisation 3D paramétrique pour l’Architecture et l’ingénierie de la construction et a dirigé de nombreux projets de recherche depuis le milieu des années 1970.

Le développement du concept BIM va de pair avec l’apparition des logiciels de conception et/ou fabrication assistée par ordinateur CAO/CFAO 3D. Au début des années 1980, les premières solutions commerciales sont apparues.

Citons, comme exemple l’application ArchiCad (Éditeur : Graphisoft) pour la modélisation architecturale.

L’amélioration des performances des ordinateurs, la baisse de leurs coûts (PC) et l’usage d’interfaces graphiques interactives ont ensuite permis le développement de solutions dites 2D, puis 3D pour la filière construction.

Objectifs

La filière « Construction » au sens large n’est pas réputée pour son haut niveau de productivité. C’est une industrie qui fait (ou faisait) face à de gros problèmes de qualité. La maquette numérique est un des éléments de réponse à la non-qualité. La maitrise d’ouvrage a deux exigences : que les délais soient respectés et qu’il n’y ait pas de dépassement des budgets. Améliorer la qualité est très clairement l’objectif majeur du BIM.

C’est un énorme défi car le BIM est avant tout un changement d’attitude et un changement des habitudes

Maquette numérique

Le BIM est un processus de génération des données pour la conception et la construction d’un bâtiment et d’exploitation de ces informations sur le cycle complet de vie de l’ouvrage.

L’une des caractéristiques de l’approche BIM est l’échange autour de modèles virtuels de bâtiments créés numériquement. Ces modèles facilitent la conception, l’analyse et le contrôle en comparaison avec les procédures manuelles.

La forme la plus aboutie de cette démarche est le travail collaboratif autour de la maquette numérique qui peut être interne à une entreprise ou entre les différents intervenants dans la réalisation d’un projet.

Le BIM est un outil d’information puissant qui ne concerne pas uniquement le bâtiment mais également les infrastructures. Par conséquent, il existe différents formats de maquette numérique, depuis la représentation à l’échelle d’une ville facilitant la prise de décisions en termes d’aménagements urbains jusqu’à la modélisation d’un ouvrage complet incluant le détail des systèmes constructifs.

Dans le cadre du BIM pour la structure, un modèle virtuel 3D est composé de tous les objets et les assemblages d’objets utilisés dans le projet en cours.

  • Objets BIM

Les objets BIM sont des composants uniques (poutre, voile, plaque, boulon…). Ils possèdent des paramètres pour la définition des caractéristiques géométriques (profil de l’élément, dimensions de la section, longueur…). La valeur de ces paramètres a une influence sur l’apparence physique des objets.

Ces composants peuvent également contenir, sous la forme d’attributs, les informations nécessaires pour les concevoir, les positionner, les spécifier et les analyser :

    • matériau utilisé ;
    • type de protection ;
    • couleur d’apparence ;
    • spécifications techniques du fabricant ;
    • propriétés d’analyse ;
    • classes d’exécution ;
    • performance thermique ;
    • durée de vie ;
    • date de mise en fabrication et/ou de montage ;
    • etc.

La maquette numérique ou BIM offre aux différents intervenants la possibilité de concevoir et de valider les choix à chaque stade d’avancement d’un projet.

Différents niveaux de développement pour la représentation des éléments de la maquette numérique (appelés « LOD » de l’anglais Level of Development) ont été adoptés au niveau international, depuis l’esquisse en phase de conception, jusqu’à la définition détaillée de l’ouvrage tel que construit.

La mise en pratique des outils et processus BIM ne fait que débuter. Les technologies vont évoluer et s’améliorer. Nous pensons en particulier aux technologies de scannérisation et de vectorisation des ouvrages. Les formats d’échanges s’améliorent également et de plus en plus d’applications seront certifiées IFC. Le risque existe néanmoins de voir s’imposer des formats natifs ou des plateformes collaboratives propriétaires. Cela nuirait grandement à la diversité des solutions et aux bienfaits de la concurrence. Des associations et initiatives gouvernementales agissent pour promouvoir des formats neutres et des pratiques dites OpenBIM. Nous pouvons citer et souligner les actions de Mediaconstruct (le chapitre français de buildingSMART International) et du PTNB.

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 31 juillet !

Le BIM pour la structure – Une pratique collaborative, un article de Jean-Yves VETIL et Dominique FLASQUIN

Le gros chantier des fabricants

Eclairage, coffrets électriques, climatisation… Dans la maquette numérique d’un projet BIM, ces objets sont modélisés et décrits par des données, géométriques et techniques, dépendant de leur fonction. C’est l’une des principales différences entre une maquette BIM et une maquette 3D provenant d’un logiciel de CAO. La problématique du BIM étant assez récente, la tâche, qui revient aux fabricants de ces équipements, continue de soulever plusieurs questions, liées à la création de cette base de données, à sa diffusion et à son exploitation future.

Spécialiste de la ventilation et du confort thermique, l’industriel Aldes s’est emparé du sujet à la fin de l’année 2014. A l’exception des accessoires et des conduits, ces derniers étant intégrés de manière native aux logiciels BIM comme Revit, le catalogue entier a été converti, avec l’appui de prestataires expérimentés. Le degré de complexité de l’opération est cependant variable. «Modéliser une bouche d’aération est facile, explique Sandra Colonnese-Delaere, responsable du marketing services et support. En revanche, une centrale de traitement d’air est un objet paramétrique, dont la version est tributaire du volume d’air à traiter et des options (bypass, chauffage, etc). Cet objet possède de facto de multiples déclinaisons

Les caractéristiques d’une centrale de traitement d’air sont variables et sa modélisation BIM est donc plus complexe.

Schneider Electric, qui a publié ses premiers objets BIM en 2015, a été confronté à des questionnements comparables. «Nous avons commencé avec les éléments techniques les plus encombrants, tels que les transformateurs, car le BIM sert en priorité à déterminer l’occupation des espaces, détaille Bertrand Lack, du département stratégie et innovation. Un constat s’est vite imposé : le terme «bibliothèque BIM» n’a pas de sens. Il n’existe pas deux tableaux électriques basse tension assemblés de la même manière dans le monde. Comment produire un fichier BIM unique pour un système complexe et évolutif, qui n’est pas aussi trivial qu’un bloc d’éclairage de sécurité ? Les outils de configuration pour tableau électrique que nous développons ont pour but de générer automatiquement un modèle BIM précisant les informations utiles, à mesure que le projet avance.»

Le format lui-même de ce fichier est susceptible d’entraver le processus. «Le BIM n’est pas un standard, poursuit Bertrand Lack. L’architecte peut travailler avec Archicad, le bureau d’études avec Revit… Certes, l’IFC (Industry foundation classes) a été conçu pour formaliser les échanges d’informations entre logiciels BIM. Mais, en cas de reprise d’un élément de la conception, le fichier natif et son logiciel sont requis. Par analogie, l’IFC est au BIM ce que le PDF est à Word.» Schneider Electric a opté pour le logiciel Revit, leader sur le marché, à l’instar d’Aldes. L’IFC, aussi pratique soit-il, doit se perfectionner. «Ce format reste instable et ne conserve malheureusement pas toutes les données associées aux objets» souligne Sandra Colonnese-Delaere.

Lutte contre l’infobésité

Quant à la géométrie de l’objet BIM propre à tel équipement, on imagine que le fichier CAO ayant permis la fabrication de l’équipement considéré est un bon point de départ. Il n’en est rien : tout doit être refait. «Nos logiciels de CAO fournissent des plans détaillés, mais seule l’enveloppe extérieure a un intérêt pour nos clients, confie Sandra Colonnese-Delaere. Il s’agit d’établir un compromis entre le poids du fichier et le maximum d’informations utiles. Faute de quoi, la maquette d’un hôpital équipé de 600 volets de désenfumage deviendrait surchargée.» Ne serait-ce que trois ans en arrière, ce principe de sobriété n’était pas assimilé. «Des prestataires surfant sur la vague du BIM  proposaient des objets certes esthétiques, mais trop lourds» enchaîne Sandra Colonnese-Delaere. Une certaine confusion se manifeste encore. «On nous a déjà demandé des modèles BIM pour les disjoncteurs cachés à l’intérieur du tableau électrique, évoque Bertrand Lack. Or, c’est ce dernier qui importe

Ce sont désormais les champs des données techniques, greffés à chaque objet, qui constituent l’enjeu. Ils sont mis à contribution pendant la conception du bâtiment puis, plus tard, pendant son exploitation. Combien en faut-il ? Que doivent-ils contenir ? En outre, un langage universel vient à manquer. «Les professions dans les bureaux d’études ont besoin d’objets génériques, agnostiques (communiquer l’identité des fabricants dans les appels d’offres publics est interdit par la loi, ndlr) et d’un dictionnaire commun, sur lequel tout le monde s’aligne, indique Bertrand Lack. Les fabricants et les utilisateurs (exploitants, électriciens) doivent s’accorder sur une terminologie unique pour définir les propriétés : courant, tension, etc. C’est un projet initié par le Plan de transition numérique du bâtiment notamment.» Aldes travaille de son côté avec Uniclima, syndicat des industries thermiques, aérauliques et frigorifiques, pour qu’un dictionnaire transverse aboutisse. «Mais les bureaux d’études et les architectes peinent à exprimer leurs souhaits en la matière» note Sandra Colonnese-Delaere. L’expectative est de rigueur dans des processus aussi neufs.

Collaboration impérative

Le BIM a donc pour vocation d’accompagner le bâtiment tout au long de sa durée de vie et d’en faciliter l’exploitation. Une nouvelle fois, ce n’est pas une mince affaire. «La finalité consiste à fournir au Facility Manager (appelés aussi services généraux, ndlr), à l’exploitant, un dossier des ouvrages exécutés au format numérique, signale Bertrand Lack. Quand il sélectionne l’avatar du tableau électrique dans la maquette BIM, il s’attend à trouver l’historique des interventions, le type de disjoncteurs, le plan de maintenance, etc. Mais Schneider Electric ne fournit que les composants du tableau. La personne qui le réalise, le tableautier dans notre jargon, le vend à un installateur-électricien. Il y a plusieurs niveaux de décision – contractant général, bureau d’étude, installateur… – et de multiples retours entre chacun d’eux.» Difficile de compiler des données d’origines aussi diverses dans un fichier unifié. «Une plateforme collaborative pour inciter au partage de ces données et gérer les droits est impérative, ajoute Bertrand Lack. Mais les métiers rechignent à communiquer sur leur business.» Les profits sont loin d’être immédiats. «Les investissements sont réalisés en amont, et les bénéfices se décalent vers l’aval» admet Sandra Colonnese-Delaere. Plutôt vers l’exploitant, donc.

A plus forte raison, la question économique n’est pas à éluder pour les fabricants. Modéliser un objet BIM, pour commencer, n’est pas gratuit. «Il faut compter entre 600 et 5000 € selon la complexité de l’objet, estime Sandra Colonnese-Delaere. L’intégralité de notre catalogue, composé de 7000 références environ, est couvert par 120 familles d’objets BIM.» Ensuite, à l’heure du numérique, ces données sont partagées via des plateformes cloud. Aldes et Schneider Electric ont fait le choix de publier leurs fichiers BIM sur leur propre portail, en accès libre et gratuit pour leurs clients, et progressivement sur les plateformes généralistes et centralisées, telles que BIMobject ou BIM&CO, qui ont acquis une position dominante sur le marché. Car il s’agit bien d’un marché, la mise à disposition des objets étant payante, ce qui grignote les marges. Mais le risque va bien au-delà. «Qui nous dit qu’une telle plateforme ne va devenir l’Uber du bâtiment ? » s’interroge Bertrand Lack.

L’engin de chantier passe à la 3D

Indispensables à la mise en œuvre du projet de construction, les engins de chantier ont droit aussi à leurs modèles 3D. Depuis le printemps dernier, l’entreprise Kiloutou met à disposition 50 objets BIM liés à sa gamme de manutention et d’élévation. Ces fichiers au format Revit et IFC sont à télécharger à partir de la plateforme Bim&Co. Intégrés à la maquette BIM, ils permettent de visualiser les abaques et aident à choisir le matériel le mieux adapté au contexte. Kiloutou travaille en outre sur un projet de réalité augmentée, qui a pour objectif de superposer la vue réelle du chantier et l’engin en 3D. Cet outil affiche les courbes de charge et les dimensions de l’engin. On suppose qu’il servira aussi à examiner l’encombrement et les possibilités de manœuvre.

Par Frédéric Monflier

Faciliter le «Facility Management»

La conception et l’édification d’un bâtiment, que ce soit un ensemble résidentiel, une usine ou un immeuble de bureaux, sont des projets de longue haleine, qui peuvent durer plusieurs années. Mais l’exploitation dudit bâtiment, en somme tout ce qui le maintient fonctionnel de sa mise en service à sa déconstruction, court sur plusieurs décades et représenterait trois quarts de son coût total. Un cycle au cours duquel la maquette BIM promet également de jouer un rôle central et majeur, visant à améliorer l’efficacité des opérations : gestion générale du bâtiment (ou facility management), pilotage de la performance énergétique, entretien et maintenance des installations techniques, à savoir l’éclairage, le chauffage, la ventilation, la climatisation (CVC), la sécurité incendie, etc.

Le BIM étant un concept neuf, a fortiori dans le domaine de l’exploitation, la plupart des projets sont récents voire expérimentaux. Faute de recul, les bénéfices sur le long terme sont donc assez théoriques, mais quelques cas pratiques fournissent de bons indicateurs. Illustration avec le Château des apprentis d’Auteuil, à Meudon, où l’entreprise Engie Axima s’occupe de la maintenance. D’une superficie de 17 000 m2, cet établissement scolaire et professionnel, bâti à la fin du 19e siècle, a fait l’objet d’une modélisation BIM à partir d’un nuage de points produit par un scanner.

Une référence pour les appels d’offre

«Non seulement l’enveloppe géométrique a été modélisée, mais aussi les installations techniques, détaille Raphaël Contamin, directeur de la BIM Factory chez Engie Axima. Grâce à nos équipes spécialisées dans les métiers de la maintenance, chaque objet a été décrit dans la maquette BIM : catégorie, fonction, etc. Le gestionnaire s’en sert pour lancer des appels d’offre, concernant le traitement de la charpente par exemple. Auparavant, il aurait fait appel à un géomètre expert qui aurait procédé à un relevé sur site. Désormais, les volumes et la configuration des poutres sont extraits directement de la maquette BIM. Même cas de figure si le contrat de maintenance change de prestataire : l’inventaire des équipements, obligatoire, s’effectue à partir de l’avatar numérique. Les économies sont considérables

A ce premier niveau, le BIM aurait déjà un effet positif, facilitant la gestion des actifs patrimoniaux, accélérant les procédures, réduisant les coûts. A un deuxième niveau, il devient un outil de terrain, au plus près des opérations. «Les flux de données provenant des capteurs de la GTB (gestion technique du bâtiment) et de la GMAO (gestion de la maintenance assistée par ordinateur) peuvent être ajoutés de manière dynamique à une maquette BIM, poursuit Raphaël Contamin. Une fois les connexions établies entre la maquette et ces outils, il suffit de cliquer sur une centrale de traitement d’air pour visualiser la fiche technique au format PDF, vérifier l’état de fonctionnement grâce aux données des capteurs, obtenir l’historique des opérations de maintenance… Croiser ces informations est un moyen d’établir un premier diagnostic en cas d’anomalie. L’équipe de maintenance a la possibilité de mieux préparer ses interventions et de planifier son stock de pièces de rechange. Actuellement, les techniciens se déplacent sur le site, font un premier repérage, réparent l’installation en partie puis reviennent deux jours plus tard. Pendant ce temps, le client n’a toujours pas eu de réponse à son besoin immédiat

La réalité augmentée s’en mêle

Ce principe sera mis en pratique par Engie Axima dans deux projets :  l’IUT C, dont la construction s’achève à Roubaix, et la piscine Yves Blanc à Aix-en-Provence, dont la réouverture est prévue en septembre prochain, suite à des travaux de réhabilitation. «Engie Axima s’est chargée de la conception, de la réalisation et assurera l’exploitation-maintenance, explique Raphaël Contamin. De ce fait, par anticipation, la maquette BIM dessinée durant le chantier a été adaptée à ce type d’intervention. Les techniciens accédant à la maquette via une tablette, il est indispensable d’alléger le fichier pour ne conserver que les informations utiles à l’exploitation. Par exemple, le modèle 3D d’un pilier en béton est important au moment de la conception. Après, il l’est moins

Depuis fin 2016, une démarche similaire a été mise en œuvre sur site Campus Hélios de Thalès, à Vélizy, dont l’exploitation et la maintenance sont à la charge de Vinci Facilities. Grâce à une application de réalité augmentée, les techniciens, munis d’une tablette, sont guidés jusqu’à l’emplacement précis de l’équipement à visiter et obtiennent toutes les informations techniques utiles. Un gain de temps appréciable quand il s’agit de se déplacer sur un site qui s’étend sur 49000 m2. L’application, la géolocalisation et les connexions entre maquette BIM et GTB/GMAO ont été réalisées par la société Syntetic.

En vidéo: Sur le Campus Hélios de Thalès, les techniciens de Vinci Facilities se déplacent jusqu’au lieu d’intervention à l’aide d’une tablette, qui affiche la maquette BIM en surimpression.

C’est bien l’enjeu pour qu’un tel dispositif soit complet et efficace : irriguer la maquette BIM avec des données provenant des capteurs de la GTB, des installations techniques et autres objets connectés. A l’heure du numérique, établir des passerelles logicielles n’a rien d’insurmontable. Mais cette ouverture – idée en contradiction avec la tradition dans ces filières – suscite des interrogations quant à la sécurité des équipements, aux responsabilités, etc. La situation tend à se normaliser. Vinci Facilities discute par exemple avec le Gimélec, syndicat professionnel qui fédère les industriels de l’équipement électrique et des automatismes.

De son côté, la Smart Building Alliance milite pour que la maquette BIM et les données du bâtiment puissent être interfacées. Pour cette organisation, la donnée constitue un élément valorisable à part entière, à la source de nouveaux services et applications à destination des occupants en particulier. Vinci Facilities collabore avec la start-up Jooxter, créatrice d’un service d’optimisation d’espaces de travail basé sur des objets connectés. Et Engie Axima a développé FlexiBIM, consacré à l’aménagement des bureaux. Le BIM devient un nouveau relais de croissance pour les spécialistes du «Facility Management».

Frédéric Monflier

La maquette numérique bouleverse les codes du BTP

Acronyme de Building Information Modeling, BIM désigne le concept de maquette numérique du bâtiment. Un plan 3D, en somme ? En vérité, la méthode va bien au-delà : dans une maquette BIM, à la différence d’une maquette 3D classique, la moindre fenêtre est nommée comme telle et constitue un objet 3D distinct, auquel sont attribués des méta-données décrivant ses caractéristiques, dont le matériau employé, le type de vitrage, etc. Le modèle résultant est suffisamment complet et explicite pour envisager de la simulation de performances, un exercice dont la grande industrie manufacturière est coutumière depuis 25 ans. «Alors que le BTP ne se livre qu’à des calculs réglementaires, l’industrie utilise la simulation pour vérifier que le fonctionnement d’une voiture ou d’un avion sera optimal avant même sa fabrication, explique l’architecte François Pélegrin, à la tête du cabinet d’architecture du même nom. Les détracteurs objectent que ce n’est pas nécessaire car chaque bâtiment est unique. De mon point de vue, c’est une raison supplémentaire de le définir intégralement de manière virtuelle avant de commencer le chantier. C’est la maquette BIM qui fait figure de prototype

Une maquette très visuelle, donc très éclairante. «Cet outil démocratise la compréhension des projets, poursuit François Pélegrin. Il facilite la lecture des contraintes issues du Plan local d’urbanisme, car celles-ci sont matérialisées en 3D. La vérification se déroule sereinement. A Bussy Saint-Georges (en Seine-et-Marne, ndlr), où seront livrés en décembre prochain 109 logements pour l’association Emmaüs, nous avons déposé en avril 2016 le premier permis de construire numérique en France et avons pu faire en deux heures avec l’instructeur, grâce au BIM, ce qui peut nécessiter plusieurs semaines.» A fortiori quand la réalité virtuelle, prolongement naturel du BIM, est mise à contribution. «Co-développée avec BTP Consultants et Scale-1, BIM Screen, notre application de revue en projet en 3D immersive, permet de visiter le bâtiment virtuel. Le but ne change pas : il s’agit d’anticiper les difficultés futures, que ce soit pendant la maîtrise d’oeuvre ou plus tard, l’exploitation

L’adoption s’accélère

Ce point illustre combien le BIM ne se résume pas à un corpus de règles techniques et encourage surtout une approche collaborative. Chaque métier est invité à partager des informations et à enrichir, ce faisant, la maquette BIM qui devient le pivot du projet. Et cela même si, hélas, les intervenants ne sont pas toujours à la hauteur de leurs prétentions. «Des bureaux d’étude, des entreprises voire des architectes font de beaux discours, mais l’épreuve du feu révèle qu’ils ne maîtrisent pas le BIM» regrette François Pélegrin, qui reconnaît que le secteur est en phase d’apprentissage mais plaide pour l’honnêteté. «Sur le chantier de Bussy Saint-Georges où le BIM ne faisait certes pas partie des engagements, le bureau d’études promouvait des compétences BIM qu’il ne possédait pas au final. Nous avons dû le remplacer pour effectuer en phase concours les calculs thermiques» enchaîne-t-il.

Heureusement, l’idée et surtout les compétences progressent. Et de plus en plus vite, observe Philippe Valentin, président et fondateur de la plateforme BIM Sky : «Le sondage que nous avions réalisé il y a un an montrait encore des réticences, liées notamment à l’aspect «high tech» du BIM. Aujourd’hui, la méfiance a quasiment disparu. Les syndicats et les fédérations du BTP sont sensibilisées. Tout l’écosystème du bâtiment pousse en faveur de l’adoption du BIM, avec un effet amplificateur. » Les chiffres publiés en mars dernier par le Plan de transition numérique dans le bâtiment (PTNB) abondent dans ce sens : fin 2017, 35% des 1360 professionnels interrogés déclaraient avoir une connaissance suffisante du BIM, soit 15% de plus qu’un an plus tôt, et 53% estiment avoir besoin de se former rapidement. La plateforme BIM Sky, créée en mars 2017, est un centre d’expertise et de formation consacré aux néophytes et aussi aux professionnels avertis qui cherchent une réponse précise. «On essuie les plâtres depuis 2012, indique Philippe Valentin. Nous faisons profiter les entreprises de notre expérience pour leur éviter de reproduire les mêmes erreurs.» BIM Sky assure actuellement la gestion BIM de la prochaine usine PSA au Maroc, livrée début 2019. Les lignes de production, modélisées avec le logiciel Catia, sont intégrées dans la maquette BIM, réalisée avec Revit. La maquette fera office de superviseur général pour observer comment les processus industriels et l’infrastructure du bâtiment s’interconnectent.

siege bim sky
La maquette BIM du futur siège du groupe Valentin et de BIM Sky, livré début 2019. Même le mobilier de bureau a été modélisé.

 

Les signaux étant positifs, la règlementation pour imposer le BIM, mise sur la table en janvier 2017 avant d’être reportée, n’est peut être pas une étape obligatoire. Alors que plusieurs pays l’ont inscrit dans la loi pour les marchés publics, comme le Royaume-Uni, ou prévoient de le faire, les pouvoirs publics en France misent sur l’incitation. La filière du bâtiment a de son côté signé une charte où elle s’engage à généraliser le BIM dans toute construction neuve d’ici à 2022. Le marché se structure de lui-même, semble-t-il, et «la France, qui se croyait en retard il y a cinq ans, fait maintenant partie des bons élèves» se réjouit François Pélegrin. Mais l’impact sera majeur sur les métiers et la façon dont ils interagissent, dans ce véritable mille-feuilles qu’est le bâtiment. «Le BIM va bouleverser beaucoup de choses dans le jeu des acteurs, confie François Pélegrin. Les métiers qui reposent sur du code-calcul (thermique, acoustique, structure…) peuvent exécuter une simulation à partir de la maquette. L’expertise subsiste mais les autres tâches, les métrés par exemple, disparaissent et le temps passé sur le projet s’en trouve réduit. Si moi, architecte, je consacre une centaine d’heures supplémentaires à la réalisation d’une maquette BIM qui fait économiser une centaine d’heures au bureau d’études, je m’attends à ce que les honoraires soient renégociés. Les rapports entre fournisseurs de produits et services et concepteurs changent également, le choix d’un équipement pouvant être automatisé à partir d’une maquette BIM. Les modes de consultation seront révolutionnés

Un outil de contrôle-qualité

Les écueils ne manqueront probablement pas, le temps qu’une nouvelle organisation se mette en place. Mais ils ne font guère le poids au regard des bénéfices attendus, ne serait-ce que pour diminuer les erreurs de conception. «Les reprises pour cause de non-qualité coûtent entre 10 et 15 milliards d’euros par an au secteur du BTP,  soit environ 15% du chiffre d’affaire total, estime François Pélegrin. La maquette numérique permettra d’effacer une bonne partie de ce gaspillage. J’en ai fait l’expérience avec un charpentier qui travaille depuis toujours en 3D. La charpente initiale ne correspondait pas à notre projet de couverture dans la maquette, la position des velux n’étant pas respectée. Le charpentier a pu la modifier en phase de conception, s’épargnant 2000 à 3000 € de rectifications sur le chantier.» Philippe Valentin évoque aussi des premiers retours patents : «Pour un projet de bâtiment résidentiel collectif simple, une démarche BIM sérieuse engendre entre 7 et 24 € d’économie au mètre-carré. Et plus un projet est complexe, plus le BIM est utile

Des économies seraient donc à la clé, malgré l’investissement initial, estimé par Philippe Valentin à 10000 € par personne, en additionnant les coûts du  logiciel, du matériel et de la formation. Ce qui est une somme pour une TPE. Quant à la durée supérieure de la phase d’études et de conception, elle est endossée principalement par les architectes. «Mais il faut raisonner en coût total de possession, observe Philippe Valentin. Si le projet est conduit de manière globale, et non étape par étape, et soutenu par un vrai «coach » BIM, tout le monde est gagnant, du maître d’ouvrage aux entreprises qui ont réalisé le projet. Les gains sont réalisés sur tous les postes et pour tous les corps de métier : consommation énergétique, approvisionnements, modes opératoires, etc. Les acteurs qui se sont engagés dans une démarche BIM ne reviennent pas en arrière, c’est la meilleure preuve que ça marche. »

Le numérique et ses dangers

La problématique de la propriété intellectuelle des données resurgit souvent quand une démarche BIM est entreprise. «Mais ce souvent les avocats qui agitent le drapeau, tempère François Pélegrin. Depuis 30 ans, on échange des documents électroniques, des plans notamment, et personne ne s’en inquiète.» Le danger viendrait plutôt des effets inhérents du numérique, à savoir le piratage des données et «l’ubérisation» : une IA suffisamment entraînée pourrait traiter des millions de modèles 3D pour élaborer automatiquement un nouveau projet, menaçant du même coup tous les métiers créatifs, dont l’architecture. Autodesk, dont le logiciel Revit est leader du marché, est également ciblé depuis novembre 2017 par une pétition de l’Unsfa (Union nationale des syndicats français d’architectes), qui accuse l’éditeur de commettre un «racket», ni plus ni moins. En cause : le passage du mode d’achat de licence perpétuelle à un mode par abonnement, l’augmentation jugée exorbitante du coût des mises à jour, la «confiscation» des données, hébergées désormais sur le cloud… L’éditeur s’est défendu depuis, mais l’affaire se poursuit.

Frédéric Monflier

Comment le thermicien économise de l’énergie

EnergyPlus, Pleiades ou encore ClimaWin : ces logiciels de simulation sont utilisés pour modéliser le comportement thermique d’un bâtiment, neuf ou en cours de réhabilitation, dans le but d’estimer sa consommation énergétique. Ils sont indispensables, ne serait-ce que pour vérifier la conformité du futur ouvrage à la règlementation thermique en vigueur et aux labels de performance énergétique visés par le maître d’ouvrage. Mais ils n’ont rien d’une partie de plaisir pour les bureaux d’études. «L’ingénieur thermicien doit saisir à la main de nombreux paramètres – géométrie, matériaux, environnement, climat… – avant de lancer le calcul du modèle thermique et d’analyser le confort, les déperditions, etc. détaille Donia Marzougui, ingénieur en efficacité énergétique des bâtiments BIM au sein de l’INES (Institut national de l’énergie solaire). La préparation est laborieuse. Les préconisations du bureau d’études se traduisent par des modifications de la maquette 3D de l’architecte et ainsi de suite. Chacun travaillant sur un support différent, ces allers-retours sont synonymes de perte de temps, voire d’informations

Le BIM est voué à fluidifier ce processus. «La maquette BIM est importée dans le logiciel de simulation, via un protocole d’interopérabilité (IFC, Green Building XML…), explique Donia Marzougui. L’ingénieur n’a plus besoin d’élaborer son propre modèle géométrique et gagne du temps. Il exécute la simulation thermique comme d’habitude et, si jamais des changements sont nécessaires, il pourra réaliser un nouveau calcul à partir de la maquette actualisée par l’architecte, sans avoir à tout recommencer. Le BIM change les pratiques du métier et requiert une période d’adaptation, mais il accélère les prises de décision, quant aux choix des matériaux par exemple. Il permet d’examiner plus rapidement plusieurs scénarios énergétiques.»

Détection automatique de ponts thermiques

L’idée de raccourcir ces longs processus a incité le CSTB (Centre scientifique et technique du bâtiment) à fusionner deux outils dont il est le promoteur : eveBIM, un «viewer» gratuit pour visualiser la maquette BIM, et Trnsys, logiciel de simulation thermique dynamique considéré comme une référence. «La maquette BIM, via IFC, est désormais compatible avec Trnsys et peut être enrichie avec les propriétés thermiques des matériaux notamment, commente Paul Sette, ingénieur dans la division Système d’information et Applications métier au CSTB. La simulation s’appuie sur l’enveloppe BIM 3D existante, ce qui supprime une étape. Toutes les dimensions sont systématiquement prises en compte dans le calcul des échanges thermiques entre les pièces adjacentes, avec l’extérieur, etc. Avec l’apport de maquette BIM 3D, les ponts thermiques sont aussi détectés de manière automatique. L’ingénieur économise plusieurs jours de saisie dans les projets de grande ampleur, temps qu’il pourra consacrer à optimiser les paramètres. C’est là où se situe sa valeur ajoutée. Enfin, Trnsys est très puissant mais très exigeant. Couplé à eveBIM, il se veut plus convivial, plus accessible.»

evebim
Le logiciel eveBIM-Trnsys affiche les courbes de température consécutives à une simulation, réalisée directement à partir d’une maquette BIM.

La maquette BIM et son export ont logiquement une incidence sur la simulation thermique ultérieure. «Que ce soit pour le dessin du modèle 3D ou la création de l’IFC, plusieurs options sont possibles, mais certains choix sont meilleurs que d’autres pour que la simulation thermique soit réussie, confie Paul Sette. Le CSTB a donc édité un guide de bonnes pratiques pour accompagner les architectes et les bureaux d’études. L’apparence de la maquette ne change pas, mais les outils utilisés dans le logiciel CAO seront mieux adaptés

Frédéric Monflier

BIM et énergie : formations européennes en vue

Sacré raccourci que BIMEET,  qui signifie précisément «BIM-based EU-wide standardized qualification framework for achieving energy efficiency training». Né en septembre 2017 et prévu pour deux ans, ce projet européen réunit plusieurs organismes de cinq pays différents (France, Angleterre, Luxembourg, Grèce et Finlande), dont le CSTB et l’INES en France. Financé par le programme de recherche et de l’innovation H2020, il se consacre à la formation à l’efficacité énergétique dans une démarche BIM et cherche à impliquer tous les métiers de la construction, techniciens et ouvriers de chantier en particulier. «Un premier état des lieux indique qu’il n’y a pas ou peu de formations sur le sujet, constate Donia Marzougui de l’INES. BIMEET s’efforcera d’améliorer les compétences et les qualifications des professionnels du secteur du bâtiment en démontrant l’utilité du BIM dans la construction durable et éco-énergétique. Les résultats seront diffusés sur la base du cadre européen de qualifications

Enfin une plateforme d’échange de déchets entre industriels !

Techniques de l’ingénieur :  Pouvez-vous nous présenter le fonctionnement de votre plateforme?

Olivier Gambari : iNex Circular est une plateforme qui cartographie les besoins en matières premières sur une zone, ainsi que les déchets qui y sont produits.  Elle permet de faire de l’écologie industrielle et territoriale, l’un des sept piliers de l’économie circulaire. Les sociétés qui nous intéressent sont celles qui ont des besoins en matières premières et celles qui mettent leurs déchets en décharge ou les envoient à l’incinération. Plutôt que de consommer uniquement de la matière brute, elles pourront, grâce à notre solution, s’échanger des déchets.

Grâce à notre base de connaissance sur la substitution des matières, la plateforme sait quelle matière première peut être remplacée par quel déchet présent sur la zone.  L’intérêt même du système est de faire « matcher » les entreprises pour que les déchets des unes, deviennent les matières premières des autres. Pour ce faire, nous utilisons des données à disposition en open-data. Cela nous permet de ne pas avoir à contacter les entreprises une par une ! Il existe ainsi de nombreuses bases de données déclaratives sur les déchets. Les syndicats et réseaux professionnels nous fournissent également des informations sur les matières premières utilisées et les déchets produits.

E.T.I : Qui sont vos clients ?

O.G : Nous travaillons avec des entreprises industrielles : il en existe 235.000 en France dont certaines ont une obligation légale de déclarer les déchets qu’elles produisent, ainsi que certaines matières premières qu’elles consomment.  Nous avons également récolté directement des données auprès des 3.000 entreprises avec qui nous avons travaillé en direct. Enfin, nous intégrons les fermes et de la restauration collective lors de démarches de bio-méthanisation.

La plupart de nos clients sont des acteurs locaux de développement qui veulent mettre en place une écologie industrielle et territoriale (EIT).  Ce sont des collectivités, des gouvernements, des communautés de communes ou des régions. Nous travaillons avec plus de 1.000 entreprises en Belgique, avec le gouvernement wallon, depuis novembre dernier. Cela va très vite grâce au soutien politique : plusieurs synergies ont déjà été mises en place. Nous sommes aussi implantés sur trois zones industrielles en Espagne. En France, nous avons travaillé uniquement sur le projet Rhône Médian. Un fabricant de films plastique va y récupérer les films de plusieurs acteurs sur la zone. Nous sommes en discussion avec une chaîne de magasins nationale pour valoriser localement ses films. En revanche, il n’y a pas d’appel d’offre depuis plus d’un an sur l’économie circulaire et notamment sur l’EIT. La feuille de route sur l’économie circulaire n’en prévoit pas non plus.

E.T.I : Concrètement, comment accompagnez-vous les entreprises ?

O.G : Le travail se fait en trois étapes. La première phase est d’utiliser notre outil pour savoir quelles sont les grandes tendances sur le territoire. Cela permet de savoir quelles sont les matières sur lesquelles il y aura le plus de rentabilité . Ce bilan est automatique grâce à nos bases de données.

Nous organisons ensuite des ateliers avec les entreprises ciblées autour d’une thématique matière. À ce moment, les acteurs ont tout intérêt à travailler entre elles. Suite à ces ateliers, nous créons des réseaux sur la plateforme entre les entreprises désireuses de se lancer. Nous essayons alors d’inciter les entreprises qui ne se sont pas manifestées à faire partie de cette synergie. Nous accompagnons les entreprises pour leur fournir les moyens techniques. Nous trouvons notamment un logisticien local et les technologies nécessaires.

E.T.I : Quelles sont les matières les plus échangées via iNex Circular ?

O.G : Les entreprises qui utilisent la plateforme échangent notamment des plastiques, des cartons, du bois pour faire du bois-énergie ou des palettes. Il y a également tout ce qui est lié à la méthanisation. Ce sont les déchets issus de l’alimentation collective ou des fermes.

Nous travaillons également sur des déchets plus spécifiques. Nous avons récemment travaillé avec une enseigne de supermarchés pour valoriser les épluchures de ses oranges pressées. Nous travaillons par ailleurs sur un projet de valorisation du phosphore contenu dans des tensio-actifs d’eaux de lavage.

E.T.I : Y a-t-il une distance maximale de parcours pour les déchets ?

O.G : Le transport est généralement au maximum de 100 km. Ce sont les coûts de transports qui imposent la distance maximale. Les acteurs qui passent le cap le font parce que cette solution coûte moins cher que les méthodes d’élimination traditionnelles. Cela permet également de baisser leurs émissions de CO2.

Enfin, je tiens à dire que la feuille de route de l’économie circulaire est extrêmement généraliste et n’apporte pas de solutions concrètes. Toutefois, le triplement de la taxe générale sur les activités polluantes (TGAP) va aider à la mise en place de ce genre de démarches. La mise en décharge des déchets va commencer à coûter extrêmement cher. Cela fait et va faire venir vers nous de plus en plus d’entreprises.

Propos recueillis par Matthieu Combe, journaliste scientifique

Revue du web #115 spéciale robotique : les 5 vidéos les plus étonnantes

Entrepôt du futur : 1100 robots en action

Chez Ocado, un magasin britannique, les robots préparent 65 000 commandes par semaine. Aucune collision grâce à un système de contrôle de trafic aérien !

 

Le retour des Transformers : ce robot se transforme en vol !

Son nom ? Dragon…
Conçu par une équipe de l’université de Tokyo, il peut modifier sa forme en vol pour se faufiler dans des environnements difficiles et même saisir des objets.

 

La réalité augmentée pour faciliter la collaboration homme-machine

Grâce au casque HoloLens, le laboratoire de robotique de l’université de Brown peut visualiser en réalité augmentée les mouvements planifiés par un robot.

 

Matériaux : une fibre élastique pour créer des nerfs artificiels de robot

Des chercheurs de l’Ecole polytechnique fédérale de Lausanne ont imaginé une fibre très élastique utilisable comme capteur. Doigts robotiques, vêtements… les applications possibles sont multiples.

 

Un robot doté de… vrais muscles

Ce petit robot biohybride japonais est pourvu de petits muscles plus vrais que nature, créés à partir de  cellules souches de rat.

Par I. B.

Revue de presse anglophone #17

La coupe du monde de football… robotique

Capture d’écran 2018-06-26 à 11.01.56

Pendant que la « vraie » coupe du monde de football se déroule en Russie, une autre compétition, robotique cette fois, se déroule à Montreal. Lire

Source : The Guardian

Comment les compagnies téléphoniques se partagent vos données

Capture d’écran 2018-06-26 à 11.14.08

Aux Etats-Unis les scandales récents concernant l’usage des données privées par les opérateurs téléphoniques ont fait prendre conscience des enjeux entourant cette problématique. Lire

Source : Wall Street Journal

Comprendre pourquoi le corail meurt

Capture d’écran 2018-06-26 à 11.18.47

Dans un laboratoire de Philadelphie, des chercheurs s’acharnent à faire mourir du corail pour mieux comprendre l’impact des activités humaines sur ces organismes. Lire

Source : New York Times

Jugement capital pour Uber à Londres

Capture d’écran 2018-06-26 à 11.24.09

Uber pourrait perdre sa licence pour exercer ses activités au Royaume -Uni. Le jugement qui commence cette semaine à Londres est très important pour la start-up américaine. Lire

Source : New York Times

Les pistolets à rayons laser, c’est pour quand?

Capture d’écran 2018-06-26 à 11.28.30

Pour le moment les pistolets à rayons laser existent… sous forme de jouets pour les enfants. En sera-t-il autrement un jour ? Lire

Source : The Guardian

Femme et ingénieure… épisode 2

La faible proportion de femmes ingénieures a incité la CDEFI (Conférence des directeurs des écoles françaises d’ingénieurs) à mettre en place l’opération Ingénieuses en 2011, afin d’attirer davantage de jeunes filles en écoles d’ingénieur-e-s. La cérémonie de remise des prix a eu lieu le 25 mai dernier, l’occasion de rencontrer la lauréate Elève-ingénieur Maghreb, Siham MEFTAHI.

 

Son parcours :  

Siham a été chef de projet et Vice Team Leader à Enactus, le réseau des jeunes entrepreneurs des Arts et Métiers de Casablanca pendant 4 ans (2014-2018). Cette expérience lui a permis de s’interroger sur la condition de la femme. Cela l’a poussée à fonder son entreprise sociale féminine « Safe Eat » : en mêlant le problème des femmes inactives et la dangerosité des fast food.  Safe Eat est un réseau de femmes en situation difficile qui préparent des plats sains, et assurent la restauration d’événements. Elle est membre de l’association Moukawilati qui aide les femmes marocaines à entreprendre.  Elle a été nominée par Google et a remporté le prix d’entrepreneur junior femme 2017.

 

Entretien avec Siham :

Qu’est-ce qui a vous a motivée à participer au concours Ingénieuses’18 ?

S.M. : Ce concours met en valeur le savoir-faire technique des femmes et donne une belle image des femmes intelligentes. De plus, c’est un concours français qui a choisi d’être ouvert sur le Maghreb, donc pour moi, en tant que jeune femme ingénieure et entrepreneure, c’était une opportunité de montrer l’image de la femme marocaine et maghrébine, et surtout d’encourager d’autres jeunes de mon pays à participer à ce genre de concours.

 

Pourquoi avoir voulu devenir ingénieure/entrepreneure ?

S. M. : Cela remonte à mon enfance. Mon grand frère est ingénieur, il représentait pour moi un exemple. Avec tous les livres à la maison, la façon dont mes parents étaient fiers de lui, j’ai voulu à mon tour être ingénieure. De plus, j’avais un très bon esprit d’analyse que je voulais développer. Ingénieure, c’était ce que je voulais être, et j’ai relevé le défi de le devenir. Après avoir intégré l’ENSAM Casablanca, j’ai découvert ma passion pour l’entrepreneuriat et j’ai encore choisi de suivre mon instinct. Mon nouveau défi : comment utiliser ce savoir acquis au sein de mon école pour aider l’évolution de mon pays, et surtout des femmes de mon pays ? Comment faire entendre aux jeunes filles qu’il suffit d’y croire pour aboutir à ses objectifs ? Comment réaliser un vrai changement ? La combinaison ingénieure et entrepreneure était tout simplement la réponse : à travers la création d’une entreprise sociale, Safe Eat, qui est un réseau de femmes dans le besoin qui préparent et commercialisent des plats fait maison. L’ingénierie m’a permis de m’ouvrir sur d’autres horizons et de saisir plusieurs opportunités ainsi que de me fixer des objectifs, et à la fin devenir la femme que je suis fière d’être.

 

Quel serait votre conseil pour des jeunes femmes souhaitant suivre votre voie ?

S. M. : Mon conseil est surtout « Faites ce que vous voulez, soyez le maître de votre vie, et croyez en vous ». Vous êtes courageuses, intelligentes et fortes, rien ne vous manque. Ayez confiance en vous et valorisez votre savoir. Relevez le défi et montrez au monde ce que vous pouvez faire. Et surtout en ingénierie, optez pour la filière qui vous intéresse, vous pouvez faire de la mécanique, de l’automatique, de l’informatique… et toute autre option, rien ne peut vous en empêcher. Vous pouvez même entreprendre, créer vos propres business et vos propres chances. Il n’y a aucune limite pour vos rêves. Faites voir au monde ce que vous pouvez faire.

Les recycleurs relèvent le défi du recyclage des plastiques

À en croire Guy Castelan, chef de projet ACV et développement durable chez PlasticsEurope,  «recycler 100% des plastiques est une vision», comme le zéro accident en entreprise. Il y voit même «une étoile polaire inatteignable». Pour sa part, Philippe Maillard, nouveau Président de la Fnade préfère parler de «recyclage matière et énergétique». Les dernières interventions de Brune Poirson confirment qu’il s’agit plutôt d’une tendance à atteindre qu’un objectif ferme.

Il est vrai que la chaîne actuelle du recyclage des plastiques ne fonctionne pas. Le taux de recyclage des plastiques n’est encore que de 22% en France. Et les nouveaux plastiques mis sur le marché en Europe ne contiennent en moyenne que 7% de matière recyclée. Tendre vers 100% de plastiques recyclés demandera donc des engagements forts, mais également plus de collecte et d’usines.

Augmenter fortement la collecte

Dans un premier temps, pour recycler 100% des plastiques, il faudrait en collecter 100%. Le décret 5 flux qui oblige les entreprises à trier papier/carton, métaux, plastiques, verre et bois n’est que trop peu respecté. La Fnade demande des outils de suivi, de contrôle et des pénalités pour mieux faire respecter la loi. Par ailleurs, la collecte reste trop faible dans les centres urbains denses et hors-foyer. Notamment, la collecte dans les centres-villes doit devenir une priorité. Ainsi, les initiatives telles que TriLib à Paris et les Points Tri à Marseille doivent être multipliées.

La feuille de route pour l’économie circulaire prévoit la mise en place de consignes solidaires, malgré l’opposition de certaines collectivités qui craignent des pertes économiques. Carlos de Los Llanos, directeur scientifique de Citeo, veut les rassurer : toutes les nouvelles solutions (apports volontaires, kiosques, machines de tri…) viennent en complément de la collecte, et non en substitution. Il apparaît en effet que les automates attirent de nouveaux citoyens vers le geste de tri. D’après des retours d’expériences, le fait de donner ne serait-ce qu’un centime en bon d’achat dans un automate de collecte fait que les personnes ont plus confiance dans le recyclage.

Des engagements volontaires insuffisants

La Fnade demande des soutiens pour investir dans l’outil industriel. «Quand on fait le calcul de l’investissement nécessaire pour atteindre l’objectif de 100% des plastiques valorisés, cela représente 2 milliards d’euros», projette Jean-Marc Boursier, président sortant de la Fnade. Or la feuille de route économie circulaire ne prévoit aucune aide au financement et le secteur privé n’investira pas sans débouché.

L’Ademe développe donc l’intégration des matières recyclées dans les nouveaux produits avec ses appels à projet «Objectif Recyclage Plastiques» (Orplast). Une centaine de projets sont soutenus, à hauteur de 30 millions d’euros. Ils visent à canaliser environ 300.000 tonnes supplémentaires de déchets plastique vers les recycleurs d’ici trois ans. «Avec 300.000 tonnes supplémentaires, cela fera passer le taux d’incorporation de matières recyclées dans le vierge de 7% à 13%», calcule Jean-Marc Boursier. Ce qui reste loin des objectifs de la feuille de route. «Si l’on veut aller au-delà, il faudra que l’Europe et la France prennent des engagements, avec des quotas d’incorporation obligatoires», insiste-t-il.

La ligne de la Fnade est claire : si les engagements volontaires sont insuffisants, elle demandera de mettre en place des obligations d’incorporation de plastiques recyclés dans certains produits. Et ce, pour les quatre principales résines employées, soit 80 % des 5 millions de tonnes de plastique consommés annuellement en France. «La Fnade pense qu’il est raisonnable de prévoir 10 % en 2020 et 25 % en 2025», avertit Jean-Marc Boursier.

Par Matthieu Combe, journaliste scientifique

Cybersécurité : trop de victimes par des pièges classiques

Qui contacter en cas de piratage informatique ? Pour de nombreuses TPE, PME et particuliers, la réponse n’est pas évidente. Démunis et paniqués, ils ne savent pas qui pourraient les aider. C’est pour répondre à cette problématique que le gouvernement a lancé il y a un an la plateforme Cybermalveillance.gouv.fr.

Outre une fonction pédagogique (avec un kit de sensibilisation), sa mission originelle est de mettre en relation les entreprises et particuliers victimes d’un acte de malveillance numérique avec des prestataires spécialisés dans ce domaine.

Un an après son lancement, cette plateforme livre ses premiers résultats. Ils ne sont peut-être pas très représentatifs de la réalité, car il faut suivre un « parcours ». Derrière ce terme se cache une démarche faite par les victimes (professionnelles et particuliers) : elles doivent diagnostiquer jusqu’au bout leur problème en répondant aux questions de la plateforme.

Sensibilisation

Selon Cybermalveillance.gouv.fr., il y a eu 14 275 « parcours » dont 80 % menés par des particuliers. Logiquement, les plaintes principales concernent les ransomwares. Il s’agit des codes malveillants qui chiffrent (ou cryptent) les fichiers stockés sur un ordinateur, mais qui peuvent aussi être partagés par différents salariés d’une entreprise. En 2017, cette menace représentait entre 30 et 50 %. Puis, elle est descendue à 10 % à partir de février dernier.

Les menaces suivantes ne sont pas vraiment originales dans leur principe. Il s’agit en effet du phishing (20 % des parcours) et du spam (environ 15 %). Pourtant, cela fait des années que le grand public connait ces techniques malveillantes. Cette constance confirme que la sensibilisation des salariés (et pourquoi pas d’ailleurs les collégiens et les lycéens ?) doit perdurer.

Alors que le RGPD est exécutoire depuis le 25 mai dernier, il est inquiétant de constater que le principal signalement des entreprises concerne des infiltrations sur des serveurs contenant des données clients. Les obligations des professionnels vis-à-vis des données à caractère personnel des clients (mais aussi des salariés) permettront-elles de limiter ce type de « parcours » dans les prochaines statistiques ? Les sanctions de la CNIL seront peut-être dissuasives !

Reste la multiplication des arnaques au faux support technique (de Microsoft notamment). Elles représentent un quart des problèmes rencontrés par les particuliers (mais des entreprises en sont aussi victimes) au mois de janvier 2018.

Là aussi, il convient d’être vigilant. La formation des salariés et des particuliers reste la meilleure parade.

Philippe Richard

50% d’électricité renouvelable dès 2030 est possible en France selon une étude Artelys / E3G

Les auteurs montrent qu’il sera inutile de construire de nouvelles centrales au gaz fossile et qu’il sera possible d’éliminer complètement le charbon ainsi que de fermer environ 20 GW de nucléaire. En plus de l’hydroélectricité déjà en place 35 GW de centrales photovoltaïques et 40 GW de centrales éoliennes suffiront pour atteindre le niveau de 50%, dont 37% de solaire et d’éolien.

Les auteurs du rapport soulignent que, «sources importantes de flexibilité, le pilotage des consommations et le stockage d’électricité quotidien associé à la fonctionnalité de déchargement des batteries des véhicules électriques sur le réseau (vehicle-to-grid) facilitent l’intégration d’une proportion croissante d’électricité d’origine renouvelable (en particulier la production solaire photovoltaïque). De même, les interconnexions sont des outils stratégiques pour assurer la flexibilité du système électrique, en remplacement des centrales thermiques flexibles».  

Selon les scientifiques, «malgré la fermeture de 24 GW de capacités de production en base et semi-base, la France ne nécessite aucun investissement dans de nouvelles capacités au gaz (aucune centrale CCG de semi-base et aucune OCGT de pointe ne sont nécessaires) ou de stockage d’électricité (stations de pompage-turbinage hydraulique ou batteries connectées au réseau). Au lieu de cela, les interconnexions, un plus grand recours aux centrales CCG existantes et le pilotage de certaines consommations fournissent la flexibilité nécessaire pour intégrer la production croissante d’ENR et satisfaire les pointes de consommation électrique, même en période de faible production des énergies renouvelables»

Le rapport est disponible à cette adresse, en langue française:
http://www.energyunionchoices.eu/wp-content/uploads/2018/06/EUC_French_Report_Final.pdf

«Les véhicules électriques sont dotés de la fonctionnalité de déchargement de leurs batteries sur le réseau (V2G), laquelle permet d’activer une nouvelle capacité substantielle de stockage de l’énergie disponible pour les besoins du système électrique» expliquent les auteurs.

«Les coûts avantageux des batteries et des énergies renouvelables, seuls, ne sont pas suffisants pour transformer intégralement le secteur de l’énergie. Un nouveau souffle politique est nécessaire pour créer les conditions de leur essor, notamment en développant des réseaux intelligents et transfrontaliers, et en fermant des centrales nocives et en fin de vie» a déclaré Manon Dufour, directrice du bureau E3G à Bruxelles.

L’agence Bloomberg New Energy Finance (BNEF), référence à l’échelle mondiale dans le domaine des CleanTechs et basée à New-York, vient également de publier son New Energy Outlook (#NEO2018) soulignant également le rôle clé que vont jouer les batteries pour parvenir à de très hauts niveaux d’énergies renouvelables.

En réponse au projet du géant chinois CATL de construire une giga-usine de production de batteries en Allemagne, l’américain Tesla a également révélé un projet de gigafactory dans ce pays. Plus précisément à la frontière franco-allemande et pas loin du BENELUX.

Jean-Gabriel Marie

Les trottinettes électriques partagées vont-elles réduire l’usage de la voiture individuelle?

Beaucoup plus écologique et moins consommateur de l’espace urbain qu’Autolib, le concept de Vélib 1 reposait sur de simples vélos et des bornes fixes où l’utilisateur devait restituer la bicyclette. Face à l’arrivée des solutions concurrentes en free-floating (sans système de bornes grâce à la géolocalisation par smartphone) menée par des entreprises chinoises comme Mobike, la réponse avec Vélib 2 a été de proposer des vélos électriques qui donnent une justification au système à base de bornes car ces dernières deviennent des points de recharge électrique. Mais l’installation des nouvelles bornes électrifiées s’avère complexe à Paris et il est possible que l’aventure Vélib 2 échoue.

«Et maintenant des trottinettes électriques en libre-service !» s’exclame Le Parisien. «Le groupe américain Lime lance ce vendredi ses premières trottinettes électriques en libre-service à Paris». Le système proposé par  Lime (ex LimeBike) est encore plus écologique, plus simple et moins coûteux: pas besoin de bornes où venir charger les trottinettes électriques de cette entreprise. Il permet de bénéficier de l‘attractivité de la propulsion électrique pour séduire la clientèle, sans subir les inconvénients des systèmes à base de bornes. Les trottinettes Lime sont en effet géolocalisables par smartphone et par ailleurs ramassées tous les soirs pour être rechargées pendant la nuit. De faible volume et de faible masse, le ramassage peut être réalisé par des moyens très simples et est donc peu coûteux.

Lime propose aux utilisateurs un coût d’1 euro par utilisation, auquel s’ajoute 0,15 euro par minute, soit un total de 2,5 euros pour 10 minutes. Assez pour parcourir 2 kilomètres à 12 km/h en moyenne, la vitesse de l’engin est bridée à 24 km/h. L’autonomie de la batterie est de 50 kilomètres pour un usage urbain standard, soit assez pour que chaque trottinette soit utilisée par 25 utilisateurs chaque jour (soit un total de 4 heures d’utilisation) et générer ainsi un gain d’environ 60 euros par jour, soit 1800 euros par mois. Même si le taux d’utilisation s’avérait deux ou trois fois inférieur, l’équation resterait rentable.  L’investissement initial peut être amorti en seulement quelques mois. La quantité d’électricité consommée est en effet très faible (coût bien inférieur à 1 euro pour 50 kilomètres), le coût principal, outre les frais de réparation et les vols, porte sur la rémunération des personnes chargées du ramassage des engins le soir et de les charger durant la nuit.

Le ramassage peut être réalisé par des professionnels ou alors par des personnes désireuses de gagner ponctuellement un peu d’argent, en suivant le concept d’Uber. C’est le système qu’a mis en place la société Bird, les ramasseurs étant alors qualifiés de «Bird Hunters», et cela marche très bien. A San Francisco, Austin et San Diego 60% du ramassage des e-trottinettes de Lime est réalisé de cette manière, par des freelancers. L’avantage est qu’il n’est pas nécessaire pour l’entreprise d’investir dans des véhicules pour le ramassage. L’investissement initial se limite alors aux seules trottinettes électriques.

A San Francisco chaque e-trottinette Lime a réalisé 9,3 courses par jour et a rapporté 27,7 dollars par jour en moyenne, pour un coût global de 14,30 dollars. Etant donné que chaque e-trottinette ne coûte que 430 dollars on peut calculer que le temps de retour sur investissement est de moins de 2 mois. L’équation économique est donc hautement disruptive. C’est une énorme machine à sous qui se dessine à l’horizon car le marché mondial, de New Delhi à Rio de Janeiro en passant par Bangkok, est colossal ! «Selon l’agence Bloomberg, Bird est sur le point de conclure une levée de fonds d’au moins 150 millions de dollars auprès d’importants fonds de la Silicon Valley» rapporte le blog Silicon 2.0. «Moins d’un an après sa création, la société fondée par Travis VanderZanden, un ancien dirigeant d’Uber et de Lyft, sera ainsi valorisée à un milliard de dollars, contre à peine 300 millions il y a deux mois.»  Lime a de son coté levé 250 millions de dollars auprès de Google Ventures et cherche à lever 500 M$. Davantage que Blablacar en 14 ans souligne l’agence 15Marches, spécialisée en mobilité.

La vitesse moyenne de circulation d’une automobile à Paris est inférieure à 15 km/h. Les trottinettes électriques (qui peuvent être équipées de porte-bagages) sont donc des concurrentes non seulement pour la marche, le vélo et les transports en commun, dont le métro qui est le lieu dont l’air est le plus pollué de Paris, mais aussi pour les voitures, individuelles ou partagées. Ludiques, elles remplissent d’enthousiasme celles et ceux qui les essayent et le désir de les utiliser se propage de manière virale. Et pas seulement chez les adolescents.  Les vélos peinent à attirer les automobilistes car il faut pédaler. Vélib 1 était en majorité utilisé par des personnes qui voulaient échapper autant que possible au métro. Les trottinettes électriques sont motorisées et ont donc un potentiel de séduction bien plus élevé tout en étant très écologiques.

Le calcul est simple: il y a 2,3 millions d’habitants à Paris intra-muros. Environ 230.000 e-trottinettes suffisent pour répondre à la totalité des déplacements intra-mutros de 95% de ces habitants. Cela correspond à un investissement de seulement 85 millions d’euros. Vélib 1 (8700 vélos) coûtait à la Mairie de Paris 16 millions d’euros par an. Et la fermeture d’Autolib (3900 voitures) pourrait coûter 300 M€ aux contribuables.

«Nous ne serons pas satisfaits tant qu’il n’y aura pas plus de trottinettes que de voitures» a déclaré Travis VanderZanden au  New York Times. La déferlante des trottinettes électriques partagées ne fait que commencer et a le potentiel de submerger le marché de la mobilité urbaine beaucoup plus rapidement qu’avec l’intégralité des autres systèmes de mobilité mis en place dans le passé.

Jean-Gabriel Marie

Innovations méthodologiques et pratiques en qualité et systèmes de management

La qualité est à l’honneur dans l’agenda français, européen et mondial de 2018 !

Ce mois de juin, se tient à Paris le congrès européen de la qualité avec le soutien de France Qualité (AFQP) avec pour devise « « Feel the new Quality way! ».

Septembre 2018 sera également une date clé pour la qualité et les démarches de certification associées puisque le 14 septembre 2018 sonnera la fin de la période de transition pour la migration des systèmes de management de la qualité certifiés selon le référentiel ISO 9001 : 2015.

 

Comme l’a récemment rappelé Yves VALENTIN, Directeur Général de Techniques de l’Ingénieur, rendre compte de l’innovation fait partie intégrante de la mission d’éditeur technique et scientifique : « L’innovation, qu’elle soit de produit et de procédé ou organisationnelle, se doit d’être au cœur de la stratégie des entreprises industrielles : c’est un moyen d’atteindre ses objectifs stratégiques, d’améliorer sa compétitivité, de se différencier. … Nous publions chaque année des centaines d’articles sur les  innovations technologiques et les meilleures pratiques à adopter pour accompagner les entreprises dans le changement. »

 

Les fiches pratiques « Piloter et animer la qualité », éditées par Techniques de l’Ingénieur, accompagnent depuis 2012 les responsables et chefs de projets qualité dans la mise en œuvre et l’animation des systèmes de management qualité, sécurité ou environnement de leurs entreprises.

Une équipe d’auteurs expérimentés, professionnels d’entreprises ou consultants, a rédigé plus de 130 fiches pratiques pour aider les fonctions qualité et QSE dans leur quotidien.

Un travail approfondi de mise à jour des fiches selon les nouveaux référentiels s’est achevé et nous ouvrons, aujourd’hui, une nouvelle rubrique destinée à rendre compte des évolutions et innovations en qualité et systèmes de management pour apporter à nos lecteurs un peu de cette saveur des « nouveaux chemins de la qualité » !

Nos expériences dans des secteurs d’activité et pour des tailles d’entreprises variés nous ont convaincus du besoin de faire évoluer ou de créer de nouvelles pratiques et approches pour mieux répondre aux défis actuels des entreprises.

Un exemple est l’élaboration d’un modèle d’architecture de système de management de la qualité spécifiquement conçu et adapté à des entreprises organisées en holding regroupant des fonctions Support auprès de filiales opérationnelles qui proposent des produits et services à leurs clients avec une marge d’autonomie dans la définition de leur offre et le pilotage de leurs activités.

Les fondements de ce modèle sont présentés dans la première fiche de cette rubrique, accessible gratuitement, intitulée : « De la cartographie des processus à l’architecture de S.M.Q ». Les récentes mises en œuvre du modèle présenté, dans des groupes d’entreprises de secteurs différents (Ingénierie, Archivage et numérisation de documents, Conception et fabrication de pièces en caoutchouc pour divers secteurs d’activités), nous ont permis de valider l’approche avec ses méthodes et ses outils, notamment dans leur capacité à enrichir la démarche qualité, à l’accorder au mieux avec les autres pratiques de l’entreprise pour le pilotage de la performance.

D’autres sujets, présentant des expériences ou méthodes novatrices, seront développés dans cette nouvelle rubrique de « Piloter et animer la qualité » au cours de l’année 2018 et 2019, portant par exemple sur les pratiques de développement de l’intelligence collective dans les démarches qualité, de maîtrise des risques stratégiques, organisationnels ou opérationnels, sur l’optimisation et l’articulation des instances de pilotage et de décision dans l’entreprise.

Comme nous n’avons pas la prétention d’avoir exploré tous les nouveaux chemins, nous lançons un appel à tous les praticiens qui souhaiteraient partager leurs innovations méthodologiques, managériales ou opérationnelles dans le domaine des systèmes de management.

Faites-nous part de vos créations, sous forme de pitch d’une demi-page tout d’abord, et après sélection et validation des propositions, les auteurs des expériences sélectionnées seront invités à rejoindre notre collectif d’auteurs et d’utilisateurs des fiches pratiques « Piloter et animer la qualité ».

Il nous revient, praticiens des systèmes de management, de faire vivre et développer nos connaissances, nos savoir-faire et nos méthodes, au cœur des situations professionnelles et sans craindre de sortir des sentiers battus, si besoin.

 

Auteur : Olec Kovalevsky

Consultant en systèmes de management

Coordinateur scientifique « Piloter et animer la qualité »

Pilote du groupement de consultants Performance Qualité TPE – PME

Des métamatériaux activables pour contrôler les sons

Alors que les métamatériaux fabriqués actuellement sont conçus avec des géométries fixes qui déterminent leurs propriétés, aussi inhabituelles soient-elles, des chercheurs de l’USC Viterbi (Los Angeles – USA) en collaboration avec des chercheurs du MIT et de l’Université du Missouri ont développé un métamatériau capable de bloquer des ondes sonores et des vibrations mécaniques qui peut être commutable à distance en utilisant un champ magnétique. Leurs travaux ont été publiés dans Advanced Materials en avril 2018.

Vue de près du métamatériau acoustique @Qiming Wang

Compression par champ magnétique

Le matériau fabriqué présente une structure lattice (structure de type treillis dont la maille élémentaire est souvent en nid d’abeille) intégrant des particules de fer. Lorsqu’un champ magnétique lui est appliqué, la géométrie et l’architecture intérieure du matériau change. Ses propriétés aussi. Et ce de manière réversible. La nouvelle structure compressée obtenue présente la capacité de bloquer les ondes sonores d’une certaine fréquence ainsi que les vibrations mécaniques ayant la même forme d’onde.

Module d’élasticité et densité négatives

Le mécanisme d’action s’appuie sur les propriétés anormales connues des métamatériaux acoustiques : un module d’élasticité effectif et une densité effective négatifs qui sont normalement tous deux positifs dans les matériaux standards. Ce qui signifie par exemple que lorsque l’on comprime le matériau, cela exerce sur lui une force de traction ! Les matériaux ayant ses propriétés négatives piègent certaines ondes par effet de résonance.

Le métamatériau fabriqué ici laisse passer certaines fréquences lorsque le module élastique et la densité sont négatifs en même temps. Si l’un ou l’autre des propriétés est négative et l’autre positive, les ondes sont bloquées. A chaque commutation du champ magnétique déterminée et que l’on a réussi à prévoir de manière théorique, l’état évolue de double négatif à une seule propriété négative.

Pour la suite, les chercheurs voudrait concevoir un matériau avec une réfraction négative – c’est-à-dire où une onde se réfléchit avec un angle impossible. Mais d’abord, ils doivent réussir à fabriquer des structures soient plus grandes soit plus petites que celles qui est présentée ici afin de travailler avec des gammes de longueurs d’onde plus variées.

Sophie Hoguin

Plus de 90% de la population mondiale respire un air pollué

Des chiffres alarmants

Sept millions : c’est le nombre de personnes qui meurent chaque année à cause de l’exposition aux particules fines présentes dans l’air ambiant et à cause de la pollution de l’air à l’intérieur des habitations. Rappelons que ce rapport s’appuie sur la collecte des concentrations moyennes annuelles de particules fines PM10 et PM2,5 (PM2,5 : taux de sulfate, nitrates et carbone noir qui sont les polluants les plus dangereux pour la santé). Il faut souligner que le rapport a le grand mérite de reposer sur les données les plus complètes jamais publiées sur la qualité de l’air : plus de 4 300 villes de 108 pays sont répertoriées soit 1 000 villes de plus que lors du dernier bilan de 2016. Cependant, le rapport pointe un manque criant de données pour le continent africain même s’il faut préciser que plus de deux fois plus de villes du continent ont transmis leurs concentrations en particules fines par rapport aux versions précédentes.

Les pays pauvres en première ligne

Le risque lié aux particules fines est inégalement réparti au sein de la population mondiale comme le confirme le Dr Tedros Adhanom Ghebreyesus, Directeur général de l’OMS : «La pollution de l’air est une menace pour nous tous, mais les populations les plus pauvres et les plus marginalisées sont les premières à en souffrir». Les pays en voie de développement sont, en effet, particulièrement concernés avec 90% des cas de mortalité observés principalement en Afrique et en Asie du Sud-Est. Souvent, les moyennes annuelles de pollution dépassent plus de 5 fois les limites établies par l’OMS dans ces régions. Une injustice qui s’explique par de multiples facteurs qui peuvent être économiques, géographiques ou politiques. L’une des raisons majeures est l’inégalité face à l’accès à des combustibles de cuisson au domicile non nocifs pour la santé. En effet, la principale source de pollution de l’air à l’intérieur des habitations est associée à l’utilisation du charbon de bois en tant que combustible dans les pays asiatiques et africains.

La nécessité d’agir

Malgré une prise de conscience du sérieux et de la gravité de la situation qui a été marquée par un certain nombre de mesures prises (la Chine a mis fin cet hiver au chauffage au charbon par exemple), les avancées demeurent insuffisantes pour permettre d’endiguer le fléau. Face à l’urgence, l’OMS a annoncé la tenue de la première conférence mondiale dédiée à la pollution de l’air et la santé à Genève, au siège de l’institution, du 30 octobre au 1er novembre 2018. Le but est de réunir les gouvernements et les partenaires dans le cadre d’une mobilisation mondiale qui devra aborder les enjeux majeurs tels que la construction d’un urbanisme sain et abordable ou la gestion des déchets et des énergies domestiques.

Par Aliye Karasu

EDF donne sa nouvelle vision de l’avenir énergétique de la France

Sur quatre pages, l’électricien national donne sa vision de l’avenir énergétique pour l’Hexagone. Sans surprise, le nucléaire y tient une place centrale même si une certaine inflexion est à noter. L’énergéticien mise aussi sur l’électrification des transports et l’hydrogène, à l’image de sa récente prise de participation dans McPhy.

Nucléaire oui, mais pas forcément à 60 ans

Représentant trois quarts de sa production, le nucléaire occupe une bonne place dans le mix électrique d’EDF. Malgré la loi sur la transition énergétique votée en 2015 prévoyant de réduire à 50% la part de l’atome dans le mix français pour faire de la place aux énergies renouvelables, le groupe dirigé par Jean-Bernard Levy continue à défendre son parc nucléaire et ses 400 TWh par an. EDF ne fait d’ailleurs pas mention de la loi dans sa contribution d’acteur. Et pour cause, le groupe prévoit de renouveler l’ensemble de son parc par des EPR et insiste sur la nécessité de lui donner le feu vert rapidement : « il serait présomptueux de vouloir planifier la quantité aujourd’hui. Mais être capable de disposer des GW que le pays, en temps voulu, estimera nécessaire suppose une décision prochaine : un engagement rapide conduit à une première mise en service d’une nouvelle centrale en 2030 ou peu après », explique EDF. Seule « concession », EDF estime qu’il ne lui sera pas possible de renouveler le parc de centrales nucléaires au même rythme que durant les années 70-80. Une évidence à une époque où le nucléaire était une priorité nationale et les recours administratifs moins nombreux… « En conséquence, nous envisageons certains des arrêts dès le début des échéances des cinquièmes visites décennales, à partir de 2029. L’essentiel du parc actuel aura donc été arrêté d’ici 2050 », indique le groupe. C’est la première fois qu’il indique publiquement ne pas souhaiter étendre la durée de vie de tous ses réacteurs à 60 ans.

La transition énergétique se joue aussi sur les transports

Les débats sur la transition énergétique se concentrent souvent à tort sur le mix électrique, responsable de seulement 20% des émissions de gaz à effet de serre (GES) au niveau mondial. Grâce à un mix électrique très décarboné, le secteur des transports français pèse mécaniquement plus, près de 45 % des émissions de GES, pour 30 % des consommations d’énergie finale de l’Hexagone. La substitution des carburants fossiles constitue donc un enjeu immense auquel l’électromobilité peut et doit apporter des réponses selon EDF. La vente de véhicules électriques a battu un nouveau record l’année dernière (1,2 million d’unités vendues), même si le VE ne pèse toujours que 1% des ventes mondiales.

« Les solutions de mobilité propre s’ouvrent, les investissements de recherche, de développement et d’industrialisation s’accélèrent à l’échelle mondiale. Deux technologies s’annoncent en priorité : mobilité électrique (batteries) et mobilité hydrogène » qui est une mobilité électrique puisqu’elle utilise une pile à combustible. Pour que cette dernière technologie soit considérée comme vertueuse, l’hydrogène doit en tout état de cause être produit à partir d’énergies renouvelables. Un intérêt qui explique sans doute pourquoi EDF a investi récemment dans McPhy Energy, une start-up française spécialisée dans l’H2, ayant entre autres participé à l’installation de « stations-services » à hydrogène. Selon EDF, l’intégration de ces nouveaux carburants devrait se concentrer d’abord sur le transport lourd, maritime, ferré (lorsqu’il n’est pas électrifié) et routier. La conversion de l’ensemble du parc automobile particulier n’est donc pas la priorité.

Electrification rampante

Si l’électricité ne représente aujourd’hui que 25 % des consommations finales d’énergie, cette part est amenée à augmenter au fil de la transition énergétique, de l’électrification des usages (ex : voiture électrique) et de la consommation électrique propre à l’usage des nouvelles technologies. Cette tendance se heurte à une autre dynamique puissante : l’efficacité énergétique. Que ce soit dans l’industrie, les transports ou dans les bâtiments, la sobriété énergétique est devenue avec les années un véritable pilier des stratégies énergétiques des pays, suivant l’adage : « l’énergie la moins chère (et accessoirement la moins polluante), est celle que l’on ne consomme pas ». De fait, des doutes ont émergé sur l’orientation de la demande d’électricité en France et en Europe après une hausse continue depuis les 30 Glorieuses, hors crises économiques. EDF joue l’optimisme et prévoit de son côté une hausse, modeste, sur les deux prochaines décennies, entre 0 et 0,5 % par an.

Comme le note l’électricien, ce n’est pas tant les volumes consommés, que la répartition des composantes production du système électrique qui vont sensiblement évoluer vers davantage de décentralisation. « Nous allons vers un système composé de grands actifs et de multiples actifs locaux de petite taille », indique EDF. Une référence à un phénomène encore marginal en France : l’autoconsommation (seulement 20 000 installations en France), mais qui se développe à mesure de la baisse des prix des panneaux solaires. Un segment sur lequel EDF s’est positionné avec une offre commerciale dédiée. Signe qu’EDF continue à tenter le grand écart entre d’une part la valorisation de son outil industriel historiquement centralisé et nucléaire, et d’autre part les nouvelles formes de production locales et renouvelables.

Romain Chicheportiche

Femme et ingénieure – épisode 1

La faible proportion de femmes ingénieures a incité la CDEFI (Conférence des directeurs des écoles françaises d’ingénieurs) à mettre en place l’opération Ingénieuses en 2011, afin d’attirer davantage de jeunes filles en écoles d’ingénieur-e-s. La cérémonie de remise des prix a eu lieu le 25 mai dernier, l’occasion de rencontrer la lauréate Femme ingénieure, Amandine DESSALLES.

Son parcours :

En parallèle de son diplôme d’ingénieur, Amandine a fait un Master Recherche, ce qui l’a amenée petit à petit à se questionner sur les interactions entre l’Homme et la machine.

Au sein de sa vie professionnelle, elle a exercé différentes fonctions : elle commença dans le département des Facteurs Humains sur l’interaction Homme-Machine, puis exerça un métier plus technique en tant qu’architecte sur le système de drones SDTI. Elle fut ensuite responsable du système d’information d’artillerie ATLAS et du matériel informatique NUMTACT avant d’être finalement responsable d’une équipe de 15 architectes pour le système d’information du Maintien en Condition Opérationnelle Aéronautique. Pendant son congé maternité pour son troisième enfant, Amandine en a profité pour participer à la création d’un réseau de mamans, appelé « MumAround » qui lutte contre l’isolement des femmes en congé maternité. Elle est encore aujourd’hui très active dans la vie associative puisqu’elle gère une association professionnelle de militaires qui vise à favoriser le dialogue au sein de son entreprise APNM France Armement. Elle est aussi membre de l’association « Avec les femmes de la Défense ».

 

Entretien avec Amandine :

Pourquoi avoir participé au Concours Ingénieuses’18, et pourquoi cette année ?

A. D. : J’avais déjà vu passer les appels à candidature les années précédentes, mais je ne pensais pas que mon profil était extraordinaire. Et puis cette année, je me suis dit « pourquoi pas ? ». Si beaucoup de candidatures sont reçues, cela pourra aider la cause et montrer la multiplicité des profils des femmes ingénieures d’aujourd’hui. C’est dans ce sens que j’ai participé à ce concours. Il faut montrer qu’aujourd’hui, on peut être femme et ingénieure, mais aussi maman, sportive…

Justement, on parle beaucoup de « conciliation vie professionnelle / vie personnelle », qu’en pensez-vous ?

A. D. : Je n’aime pas ce terme de « conciliation », il faut arrêter de croire qu’on peut tout faire. Au début j’ai essayé : travailler en tant qu’ingénieur, rater la réunion de 17h pour rentrer s’occuper des enfants… Et un jour, j’ai réalisé que ce n’était plus possible. La société veut nous faire croire qu’on peut réussir à tout concilier, à jongler avec tout, mais j’ai réalisé que ce n’est pas vrai. Il faut faire des choix, et les faire en accord avec soi-même. L’important est de trouver un équilibre et s’épanouir.

Si vous aviez un conseil à donner à une future diplômée, lequel serait-ce ?

A.D. : Croire en elle, ne jamais se dire que c’est impossible. Il ne faut pas se mettre des barrières soi-même, ne pas s’auto-dévaluer, ni se juger les unes les autres. Quel que soit le projet, on peut essayer. Si on rate, on rate, ce n’est pas grave, on apprend et on rebondira. Nous sommes normales.

Des métasurfaces peuvent transposer le son d’une octave

Ces travaux, publiés dans la revue Journal of Applied Physics, se sont donc intéressés à des métasurfaces élastiques non linéaires. Les métasurfaces, à l’instar des métamatériaux, sont des surfaces synthétiques dont les propriétés n’existent pas dans la nature et qui laissent souvent envisager des perspectives étonnantes comme l’invisibilité optique pour les métamatériaux ou acoustiques pour ces métasurfaces.

Cela donne toujours un La !

Habituellement, quand une onde acoustique vient frapper une surface naturelle, elle est réfléchie et modifiée mais seulement dans son amplitude (écart maximal de pression d’une onde sonore par rapport à sa valeur médiane) ou sa phase (décalage de l’onde dans son cycle). Sa fréquence reste inchangée (correspondant en musique à la hauteur d’une note). Des chercheurs du laboratoire d’acoustique de l’université du Mans et de l’université d’Harvard ont cependant créé des métasurfaces capables de transposer la fréquence d’une onde à l’octave ( ce qui correspond à une conversion de l’onde vers sa deuxième harmonique, soit à multiplier sa fréquence par deux). Pour le moment, les chercheurs n’ont pas réussi à modifier la fréquence de manière aléatoire ou vers d’autres intervalles.

Prédiction et numérisation

Les métasurfaces utilisées sont des surfaces élastiques, hautement déformables où ont été installées des séries de carrés tournants posés sur des sortes de ressorts. Et, fait intéressant ils ont montré que la surface réfléchissante pouvait être extrêmement fine, y compris d’une épaisseur moindre que la longueur d’onde acoustique étudiée.

En outre, l’une des originalités de ces travaux c’est que comparativement à la production d’ondes acoustiques non linéaires après passages dans des solides de types grains de cristal naturels ou synthétiques dont les propriétés ont du mal à être modélisées et contrôlées et souvent disparaissent sur de grandes distances, ces résultats ont pu être calculés et reproduits numériquement et par l’expérience et peuvent ainsi être transposés à d’autres types d’ondes ou surfaces. Ces travaux permettent ainsi d’envisager des applications pour l’atténuation et l’absorption sélective des sons ou encore pour le camouflage des sous-marins puisqu’elles fausseraient complètement les détections effectuées par effet Doppler.

Sophie Hoguin

Usages de l’informatique quantique : beaucoup de bruit pour l’instant !

Les scientifiques du laboratoire national d’Oak Ridge du ministère de l’Énergie américain sont les premiers à simuler avec succès un noyau atomique à l’aide d’un ordinateur quantique. Les résultats, publiés dans Physical Review Letters, ont démontré la capacité des systèmes quantiques à calculer les problèmes de physique nucléaire.

Le 7 juin dernier, pour la première fois, des scientifiques de Volkswagen ont réussi à simuler des molécules d’intérêt industriel (lithium-hydrogène, carbone) à l’aide d’un ordinateur quantique. À long terme, ils ambitionnent de simuler la structure chimique d’une batterie de véhicule électrique complète sur un ordinateur quantique. Leurs travaux de recherche sur l’informatique quantique ont été présentés lors du salon CEBIT (Hanovre, 12-15 juin).

L’informatique quantique, c’est fantastique ! Comme pour l’IA et la Blockchain, les ordinateurs quantiques font régulièrement la Une des médias. Principale raison de ce buzzword mondial : « l’informatique quantique sert à dépasser les limites des processeurs traditionnels pour des applications spécifiques d’optimisation et de simulation dont la complexité croit de manière exponentielle avec la taille du problème », explique le consultant Olivier Ezratty sur son blog. Les bits ne pouvant prendre qu’un état à la fois, il est souvent nécessaire d’itérer sur de nombreuses valeurs pour réaliser un calcul. Au contraire, les calculs réalisés avec des qubits (pour quantum binary digit) opèrent sur toutes les valeurs en même temps.

Quantique sur le web

Alors que la loi de Moore présenterait des signes d’essoufflement, l’informatique quantique permettrait de disposer de machines dotées d’une puissance de calcul sans commune mesure pour étudier plusieurs variables à la fois. Tous les géants de l’IT (dont Google, IBM et Intel, mais aussi Alibaba et Atos) ont développé de tels ordinateurs ou ont créé un laboratoire spécifique. Il est même possible de tester en ligne (sur abonnement) l’ordinateur quantique IBM Q Experience ou celui de Google (Volkswagen a d’ailleurs signé un partenariat avec ce dernier).

Les applications semblent très variées, mais les performances de ces ordinateurs pourraient très utiles dans la construction de modèles en physique et en chimie, la modélisation de nouveaux matériaux ou le machine learning. En 2015, une étude de chercheurs de l’Université de sciences et technologie de Chine, indiquait que l’usage de l’informatique quantique pourrait considérablement accélérer la recherche en apprentissage machine.

Enfin, les capacités des ordinateurs quantiques à naviguer parmi de larges bases de données non structurées permettraient d’optimiser les usages des transports dans une smart city.

Sensible au bruit

Mais nous n’en sommes pas encore là. Différents obstacles devront être levés. Premièrement, un ordinateur quantique doit notamment être maintenu à une température extrêmement froide, proche du zéro absolu, pour conserver sa stabilité.

Deuxièmement, ces systèmes sont sensibles au bruit inhérent à la puce. Cela génère des erreurs dans l’évolution des qubits pendant les calculs quantiques. Enfin, pour obtenir des résultats ayant des applications pratiques, il est nécessaire de disposer d’un grand nombre de qubits. Par exemple, pour factoriser de grands nombres, il faut disposer d’au moins autant de qubits qu’il y a de bits dans ce nombre.

« Nous n’atteindrons pas la suprématie quantique du jour au lendemain, et nous n’y parviendrons pas dans tous les domaines », a déclaré Brian Hopkins. Selon le vice-président de Forrester, l’informatique quantique n’en est qu’aux premières étapes de sa commercialisation, une étape qui se poursuivra jusqu’en 2025-2030.

Philippe Richard

 

Plus besoin de matière sombre pour expliquer la dynamique des galaxies naines

Depuis les années 1970, les astronomes ont admis que la matière sombre – ou invisible – est la principale composante de la matière dans l’Univers. L’astronome américaine Vera Rubin fut la première à constater le besoin d’introduire une importante quantité de matière en supplément à la matière observable pour expliquer la rotation du gaz ionisé au bord des grands disques de la Voie lactée ou de la galaxie d’Andromède : sans cette matière invisible, impossible d’expliquer pourquoi ce gaz tourne aussi vite.

L’astronome néerlandais Albert Bosma confirma ce besoin de matière noire dans les parties les plus externes, le halo des grandes galaxies spirales, en étendant l’étude des courbes de rotation à ces zones. Dans les années 1980, l’astronome américain Marc Aaronson découvrit un effet équivalent, cette fois dans les galaxies les plus minuscules environnant la Voie lactée.

Depuis, de nouvelles galaxies naines ont été découvertes et les mouvements de leurs étoiles, analysés. Une fois de plus, les étoiles qui les composent ont un mouvement beaucoup trop important pour être expliqué uniquement par l’attraction gravitationnelle qu’elles exercent les unes sur les autres. En supposant ces galaxies à l’équilibre, les cosmologistes ont attribué ces mouvements à la présence de matière sombre et calculé que les plus petites d’entre elles pouvaient contenir jusqu’à des milliers de fois plus de matière sombre que de matière observable, soit 99,9 % de la masse totale. L’hypothèse de départ supposait aussi que l’attraction gravitationnelle de la Voie lactée était négligeable.

Une piste insuffisamment explorée : l’attraction de la Voie lactée

C’est seulement dans le halo de la Voie lactée que l’on peut observer les galaxies les moins massives, contenant juste quelques milliers d’étoiles. En analysant leurs propriétés dynamiques, une équipe scientifique franco-chinoise de l’Observatoire de Paris – PSL, du CNRS et du National Astronomical Observatory of China (NAOC) a découvert un lien exceptionnellement fort entre le contenu supposé de matière sombre dans la plupart des galaxies naines, et l’attraction gravitationnelle exercée par la Voie lactée. Ce lien est si étroit que la probabilité que cela soit une simple coïncidence est inférieure à une chance sur dix milliards.

Cela signifie qu’en réalité l’attraction de la Voie lactée contrôle l’ensemble des mouvements des étoiles dans ces galaxies naines, et a contrario, que la masse sombre n’y joue aucun rôle. Les astronomes ont vérifié que cela ne pouvait venir d’un artefact, en montrant par exemple que la corrélation ne dépendait pas de la masse en étoiles. Comment expliquer un tel résultat ?

Un nouveau scénario

La Voie lactée peut influencer la dynamique des étoiles dans les galaxies naines satellites, via les effets gravitationnels dits de marée. Les scientifiques ont démontré que si les galaxies naines étaient le résultat d’une première rencontre avec le halo de la Voie lactée, l’agitation des étoiles pouvait s’expliquer sous la seule influence de la gravitation de la Voie lactée, et cela sans qu’il y ait besoin de matière sombre dans ces galaxies naines. Une telle possibilité avait rarement été évoquée pour les galaxies naines peuplant le halo de la Voie lactée : elles étaient considérées jusqu’à présent comme des galaxies satellites orbitant autour de la nôtre. Cette possibilité est renforcée par le fait que les deux plus grandes galaxies naines de notre voisinage, les Nuages de Magellan, sont bien à leur premier passage près de la Voie lactée.

Cette interprétation explique complètement la relation exceptionnellement forte entre la supposée masse invisible dans les galaxies naines et l’accélération gravitationnelle de la Voie lactée.

Durant le dernier milliard d’années écoulées, plusieurs petites galaxies très abondantes en gaz froid et neutre ont rencontré la Voie lactée. Le halo de la Voie lactée contenant du gaz très chaud à plus d’un million de degrés, celui-ci a arraché le gaz froid des galaxies naines déstabilisant complètement les orbites de leurs étoiles (voir vidéo). Ce sont donc des galaxies fortement déséquilibrées qui rejoignent la Voie lactée, tombant ensuite complètement sous son influence gravitationnelle. Les astronomes ont montré qu’en connaissant seulement la distance de ces galaxies par rapport à la Voie lactée ainsi que leur rayon, on pouvait prédire précisément l’agitation de leurs étoiles, c’est à dire la dispersion de leur vitesse observée sur la ligne de visée.

Des certitudes bouleversées

Les conséquences de cette étude bouleversent l’ensemble de nos connaissances sur l’existence de matière sombre dans les galaxies naines, un tel résultat pouvant s’étendre aussi aux galaxies naines au voisinage de la grande galaxie d’Andromède.

François Hammer, astronome de l’Observatoire de Paris – PSL et premier auteur de l’article, précise : « Ces nouveaux résultats ne prouvent pas stricto sensu l’absence de matière noire dans les galaxies naines, bien qu’il n’y ait plus de raison de présupposer son existence en l’absence complète de preuve. »

L’équipe poursuit son étude pour vérifier de nombreuses prédictions en particulier en utilisant le deuxième catalogue du satellite Gaia, paru récemment.

espace1
Cette galaxie sphéroïdale naine dans la constellation de Fornax se situe dans le halo de notre Voie lactée ; elle fait partie de l’échantillon des 17 galaxies de ce type, dont la dynamique a été analysée par les astronomes de l’Observatoire de Paris – PSL et du CNRS. Crédit : ESO/Digital Sky Survey 2

 

graph-espace
Sur l’axe vertical, le rapport supposé de masse sombre sur la masse en étoiles corrélé très précisément avec l’axe horizontal qui est le rapport de l’accélération gravitationnelle de la Voie lactée sur celle due aux étoiles des galaxies naines. Chacune des 17 galaxies naines est représentée sur la figure par un point. La droite en trait plein montre la relation exceptionnellement forte qui s’étend pour des valeurs de masse sombre sur masse stellaire allant de 10 à 4000. La droite en pointillé indique la prédiction du scénario d’un premier passage.

 

graph-espace2
L’agitation des étoiles dans les galaxies naines se mesure par la dispersion de la vitesse des étoiles (σlos, sur l’axe vertical). L’axe horizontal indique la prédiction du scénario de premier passage (σpredicted) qui est très proche des mesures de vitesses (σlos, sur l’axe vertical) faites avec les spectrographes de haute précision. Les droites ont la même signification que dans l’illustration précédente. Crédit : Observatoire de Paris – PSL/ Hammer et al. 2018

 

Référence Ce travail de recherche a fait l’objet d’un article intitulé “Galactic forces rule dynamics of Milky Way dwarf galaxies”, par F. Hammer et al., paraissant le 14 juin 2018 dans la revue Astrophysical Journal (arXiv:1805.01469). https://doi.org/10.3847/1538-43757/aac3da

Source : cnrs

Un métamatériau qui redirige parfaitement le son

Un certain nombre d’approches théoriques ont essayé d’imaginer un système capable à la fois de réfléchir un son dans la direction désirée et d’en préserver les caractéristiques. Mais personne n’avait jamais construit et expérimenté un tel système. C’est maintenant chose faite et c’est relaté dans un article Nature Communications.

C’est la forme qui importe

Le métamatériau conçu par ces chercheurs est fabriqué par une impression 3D de plastique, mais peu importe le matériau de construction, c’est la forme qui importe, c’est elle qui change la manière dont les ondes sonores sont transmises et réfléchies.

La structure de base est une série de rangées de colonnes creuses d’environ 13mm de large et qui sont coupées par une étroite fente verticale (voir photo). Au total, la longueur du système construit est d’un mètre pour 40 mm de hauteur, mais ces proportions peuvent être changées.

SoundControl1_small

Les ondes sonores vont être contrôlées en fonction de l’espacement entre chaque rangée de colonne et la taille des cavités internes à chaque colonne. Certaines colonnes sont très ouvertes, d’autres presque pleines. Cela recrée quelque chose approchant le système des bouteilles plus ou moins pleines de liquide qui, lorsque qu’on les frappe, émettent des sons différents.

Eviter les dispersions

Le défi c’est d’assurer à la fois la réflexion et la transmission complète du signal de l’onde sonore. En effet, généralement, les dispositifs existants quand ils arrivent à transmettre le signal en le modulant ou non, le font généralement sans contrôle de sa direction de réflexion, avec beaucoup de dispersion. Dans le système imaginé par ces chercheurs, les colonnes résonnent à la fréquence prévue mais interagissent aussi avec leur voisines, il a donc fallu mettre au point un programme d’optimisation qui prennent en compte ces interactions.

Après de nombreux calculs et essais, l’équipe a réussi à créer une conformation qui permet de rediriger une onde qui arrive face au matériau vers une direction formant un angle de 60° et ce avec une efficacité de 96 %. Ceci a été testé sur une onde de 3000Hz, mais le métamatériau peut être mis à l’échelle pour contrôler à peu près n’importe quelle longueur d’ondes. Selon l’angle de sortie de l’onde sonore, l’efficacité de retransmission du signal est plus ou moins forte.

L’application prévue par les chercheurs pour cette découverte est de manipuler des ondes dans l’eau pour une utilisation comme sonar.

Sophie Hoguin