Les ministres français peu concrets pour défendre la biodiversité

Comment endiguer rapidement et de manière efficace l’extinction massive du vivant qui est en train de se produire à travers le globe ? C’est la question que se posent les membres de l’IPBES, réunis pour une septième session plénière. Cette organisation créée en 2012, sur une idée de Jacques Chirac, a été pensée pour être le pendant du GIEC pour la biodiversité. Les représentants de 132 États étaient réunis jusqu’au 4 mai à l’UNESCO pour adopter leur rapport. Lors de la cérémonie d’ouverture, plusieurs voix se sont succédé pour rappeler à quel point les travaux de l’IPBES sont capitaux pour la préservation de la biodiversité.

Ceux-ci sont d’autant plus essentiels dans un contexte où se prépare la COP 15 sur la biodiversité en Chine en 2020. Devant un parterre de scientifiques internationaux, les grands absents de la matinée d’ouverture ont été les membres du gouvernement français. Une situation regrettée par Laurent Stéfanini, ambassadeur de France à l’Unesco. Ce dernier s’est cependant fait porte-voix pour le ministre des Affaires Étrangères Jean-Yves Le Drian pour annoncer que « 2020 sera l’année de la biodiversité comme 2015 a été celle du climat ».

De Rugy se veut être chef de la barque française pour la biodiversité

 Un avis partagé par le ministre de la Transition écologique et solidaire. François de Rugy a voulu se placer comme chef de file d’un grand mouvement en faveur de la biodiversité. Il s’est exprimé lors d’une brève intervention à la fin de la première journée de travail. « Cette nouvelle session de l’IPBES doit être l’acte de naissance d’une mobilisation internationale sans précédent pour la biodiversité. La France sera pleinement mobilisée, au niveau national comme au niveau international, pour en faire une priorité, au même rang que la lutte contre le réchauffement climatique » déclare-t-il. Un souhait qui résonne néanmoins comme un vœu pieu tant qu’aucune annonce claire sur la marche à suivre n’est donnée.

François de Rugy en a également profité pour rappeler à quel point la France a une riche biodiversité sur son territoire. Pour lui, cela s’explique notamment par l’abondance des écosystèmes ultramarins. Le ministre de la Transition écologique a également rappelé qu’il était essentiel que tous les acteurs respectent le Plan pour la biodiversité, annoncé à l’été 2018. Il a, de plus, annoncé la mise en place d’un réseau de surveillance de la biodiversité, composé de scientifiques français. Ceci a pour but d’aboutir à une meilleure coordination entre le monde scientifique et la sphère politique, en faveur de la préservation des intérêts environnementaux.

De la science à la finance, tous à mobiliser pour la biodiversité

De son côté, Frédérique Vidal, ministre de l’Enseignement supérieur, attend impatiemment le rapport final de l’IPBES, qui devrait être divulgué le 6 mai. Selon elle, c’est ce document qui donnera l’impulsion de l’action internationale. « Sans ce constat partagé, les décideurs du monde entier, les acteurs de la société civile et les scientifiques ne pourront pas engager d’action éclairée. Je souhaite donc que tous les gouvernements se saisissent pleinement du consensus scientifique qui leur sera présenté pour définir une feuille de route ambitieuse, articulée avec les engagements en faveur du climat » affirme-t-elle.

Tout aussi désireuse de voir aboutir la lutte pour la préservation de la biodiversité, Brune Poirson en appelle au monde de la finance. La secrétaire d’État rattachée au ministère de la Transition écologique a notamment voulu s’adresser aux banquiers. Pour elle, l’action conjuguée des scientifiques et des politiques aboutira seulement si ces acteurs participent également au changement. Encore une fois, l’intention est louable, mais aucune ambition concrète n’est affichée. Globalement, les ministres français attendent patiemment les grands rendez-vous. À commencer par le G7 environnement qui se tient à Metz les 5 et 6 mai.

Un métamatériau acoustique révolutionnaire

Notre monde moderne baigne dans un brouhaha insupportable. Heureusement, une équipe de chercheurs de l’université de Boston a développé un matériau permettant d’atténuer jusqu’à 94 % du son, tout en laissant l’air circuler librement. Imprimé en 3D, peu coûteux et léger, ce métamatériau pourrait éliminer une grande partie des bruits de moteurs et de ventilation.

L’effet Fano et l’atténuation des ondes acoustiques

Le physicien Ugo Fano a été le premier à théoriser le phénomène d’interférence quantique dont il a décrit le principe en 1961. Mais ce phénomène, qui intervient souvent en spectroscopie sous la forme d’une asymétrie des raies spectrales, a également des applications dans le domaine acoustique. En effet, la transmission asymétrique d’une onde acoustique, résultant en une atténuation par effet d’interférence, présente un certain nombre d’applications dans le domaine du filtrage et de l’isolation acoustique.

Les avancées de la recherche sur les métamatériaux

Les métamatériaux sont des milieux artificiels dont la structure est ordonnée de manière périodique. Cette particularité leur confère des propriétés électromagnétiques hors du commun, par exemple le phénomène de réfraction négative. Néanmoins, du point de vue acoustique, ceci a également un intérêt certain, car la propagation du son dans les métamatériaux est dominée par la forme de la structure, bien plus que par les propriétés des matériaux constitutifs. Si les métamatériaux ont déjà fait leurs preuves dans le domaine acoustique pour la modulation des fronts d’onde ou avec le phénomène de « cape d’invisibilité acoustique » (acoustic cloaking), il leur reste encore des défis à relever.

La problématique : atténuer le son tout en laissant l’air circuler

Comment atténuer le son tout en permettant à l’air de circuler librement ? C’est le challenge qu’a voulu relever l’équipe de l’université de Boston. En effet, bien que les métamatériaux étudiés jusqu’à présent soient capables d’atténuer le son de manière efficace, la section permettant à l’air de passer librement est souvent réduite pour favoriser la performance de l’amortissement. De tels matériaux sont ainsi inutilisables pour de la ventilation forcée. Afin de résoudre ce problème, les chercheurs ont proposé une méthodologie de conception d’un métamatériau à structure ultra ouverte (ultra-open metamaterials ou UOM) ayant la forme d’un anneau.

Modélisation mathématique et impression 3D

La structure UOM a été dimensionnée à partir des résultats d’une simulation numérique par éléments finis. Une fois la forme fixée, celle-ci a été fabriquée en utilisant un procédé d’impression 3D FDM à partir de plastique ABS, puis les porosités de l’objet imprimé ont été refermées en utilisant une résine époxy.

Afin de vérifier ses propriétés acoustiques, la pièce a ensuite été soumise à des essais en conditions réelles. L’équipe de chercheurs a mis au point un test simple et représentatif : un tube PVC a été placé à l’extrémité d’une enceinte audio et le métamatériau a été positionné à l’autre bout du tube. Les résultats sont visibles sur cette vidéo et parlent d’eux-mêmes : le métamatériau agit quasiment comme un bouton « mute ». En comparant les niveaux sonores avec et sans ce matériau, les chercheurs ont même calculé qu’il pouvait éliminer environ 94 % du bruit.

De nombreuses applications pour un monde plus silencieux

Leur prototype ayant fait ses preuves, les chercheurs sont dorénavant en quête de nouvelles applications pour rendre le monde réellement moins bruyant. L’application la plus évidente concerne tous les systèmes utilisant des ventilateurs, ce qui représente énormément de cas de figure, que ce soit dans la vie de tous les jours ou dans le monde industriel, avec en premier lieu les systèmes d’air conditionné ou de chauffage de type pompe à chaleur. Par ailleurs, ce matériau pourrait s’avérer très utile dans un futur proche, pour l’isolation acoustique des drones. En effet, des entreprises comme Amazon affirment vouloir utiliser des drones pour effectuer des livraisons aux particuliers, mais les nuisances sonores causées par les hélices sont fréquemment considérées comme des freins. Ce nouveau métamatériau, parce qu’il est léger et performant, serait donc un bon candidat pour résoudre ce problème.

Apple assure le recyclage de ses iPhone grâce à Daisy

Grâce à Daisy, Apple veut prouver que le monde du smartphone n’est pas étranger au recyclage. Ce robot mis en place par le numéro 2 mondial de la téléphonie mobile permet de trier les composants des smartphones envoyés à la poubelle. Ses performances sont élevées : Daisy peut ainsi recycler 200 téléphones à l’heure, soit 1,2 million d’unités par an. Pour le moment, le dispositif n’est disponible qu’aux États-Unis et aux Pays-Bas, où deux machines similaires sont en fonctionnement.

Le recyclage des téléphones est capital pour récupérer des matériaux essentiels à leur fabrication, et dont l’extraction est controversée. Cela concerne notamment le cobalt, un composant incontournable présent dans les batteries des smartphones, et souvent extrait par des enfants en République démocratique du Congo. Ce petit pays d’Afrique répond à 60 % des besoins mondiaux en cobalt.

Daisy, le robot d’Apple plus performant que Liam

De manière globale, Apple montre de plusieurs façons sa volonté d’adopter une attitude plus respectueuse de l’environnement dans ses activités. Grâce à Daisy, 15 % des smartphones qui sont restitués à la firme voient leurs matières premières triées. Et ce robot est bien plus performant que son prédécesseur, Liam. Ce dernier avait été créé pour recycler simplement l’iPhone 6, alors que Daisy est capable de démanteler neuf modèles différents.

Cependant, une grande marge de progression est à espérer, car le robot n’est pas fait pour démanteler les derniers nés d’Apple, à l’instar de l’iPhone X. Malgré cela, la vice-présidente d’Apple chargée de l’Environnement et des Initiatives sociales, Lisa Jackson, affirme que l’entreprise cherche activement des moyens de réduire son empreinte écologique. C’est pourquoi Apple a annoncé la mise en place d’une opération pour favoriser le retour de ses appareils en fin de vie.

Apple réduit son empreinte écologique par rapport à 2008

Grâce à une telle initiative de la part des consommateurs, Apple peut redéfinir sa stratégie de développement en verdissant sa ligne. Ainsi, le recyclage des matières premières des vieux appareils a permis de modifier la composition de certains produits neufs. Les nouveaux MacBook Air et les Mac Mini ont des boîtiers composés à 100 % d’aluminium recyclé. De plus, le géant du smartphone déclare souhaiter développer le reconditionnement des appareils encore en bon état. En 2018, 7,8 millions d’appareils reconditionnés ont été vendus.

Dans le rapport 2019 faisant état de son impact écologique, Apple rappelle que tout l’étain utilisé pour la confection des smartphones, notamment dans les cartes mères, est 100 % recyclé. Cela a permis d’éviter d’extraire 29000 tonnes de ce minerai. Dans le même temps, la firme américaine indique qu’en 2018, son empreinte carbone s’est élevée à 25,2 millions de tonnes de CO2. C’est 70% de moins qu’en 2008. Les trois quarts des émissions sont liées à la fabrication des appareils.

TOP 5 : les articles les plus lus #avril2019

La géo-ingénierie pour refroidir la planète bientôt testée ?

La géo-ingénierie revient sur la table avec une nouvelle étude parue dans la revue Nature Climate Change. L’idée n’est pas nouvelle ; elle consiste à répandre des produits chimiques dans le ciel. Mais les chercheurs pourraient bientôt lancer une première expérience sur le terrain.

 

HSE : la santé-sécurité au travail dans l’industrie 4.0

Derrière la mise en place de l’industrie 4.0 et la digitalisation de l’ensemble des activités économiques et/ou sociales, c’est l’ensemble de la société, de la place de l’homme et des relations interpersonnelles qui évoluent. Qu’en est-il des questions de santé-sécurité au travail ? Les risques évoluent mais la démarche de prévention change-t-elle ? Les principes fondamentaux sont-ils en train de se transformer ?

 

Une croissance économique durable est-elle réaliste ?

La notion d’économie durable a le vent en poupe. Pourtant accoler ces deux mots peut paraître antinomique, l’un tirant sa force d’une croissance infinie, l’autre partant du postulat de la finitude de nos ressources. Alors peut-on concilier économie et durabilité ? Tentative de réponse.

 

La Russie peut-elle faire web à part ?

En février 2019, un projet de loi « sur l’isolement du segment russe de l’Internet » a été adopté en Russie. Le pays avait déclaré son intention de se déconnecter temporairement du réseau Internet mondial. Info ou intox ?

 

L’innovation territoriale a besoin de l’Europe

A quelques semaines des élections européennes, la question qui revient est toujours la même. L’Europe est-elle un atout ou une contrainte ? Au-delà de l’aspect politique, l’industrie française, pour innover, a tout intérêt à se rapprocher de l’instance continentale, qui mène une politique assumée au niveau territorial pour impulser une innovation cohérente avec la réalité économique mondiale.

Par I. B.

L’Europe mise sur la 6G pour rester dans la course

La 5 G commence à faire tourner les têtes.  Depuis le 19 mars, les opérateurs allemands se battent à coups de milliards pour les fréquences 5G. En France, on regarde plutôt le calendrier. L’ouverture de réseaux 5G est planifiée pour 2020, mais elle sera limitée. Quant aux principaux axes de transport, ils devraient être connectés d’ici à 2025.

Pendant ce temps-là, la Chine et son géant des télécoms Huawei ont « entre 12 et 18 mois d’avance », estime sur franceinfo André Loesekrug-Pietri, fondateur du fonds d’investissement A.CAPITAL et porte-parole de la Joint European Disruptive Initiative (Jedi).

Garantir une qualité de service

Afin de ne pas jouer les Poulidor des télécoms mobiles, l’Europe ne regarde pas les échappés Chinois, mais au-delà ! C’est-à-dire la 6G. 287 experts et scientifiques de 28 pays de tous les continents ont participé au tout premier sommet 6G au milieu de la Laponie.

Lors du Sommet « 6G Wireless Summit », il a été demandé aux participants de se projeter dans le monde en 2030. « Nous devons aborder à la fois les problèmes du monde réel et les rêves pour l’avenir », a déclaré Takehiro Nakamura. Le vice-président directeur et directeur général des laboratoires 5G de NTT DoCoMo a aussi indiqué que les acteurs des télécoms devront aussi « fournir une fiabilité très élevée pour garantir une qualité de service à l’industrie ».

« La vision pour 2030 est que notre société sera axée sur les données grâce à une connectivité quasi instantanée et illimitée. Nous serons confrontés à une population croissante et vieillissante, à des demandes d’augmentation de la productivité et à la nécessité de connecter les milliards de personnes qui ne le sont pas encore », explique le professeur Matti Latva-aho, directeur de 6 G Flagship à l’Université d’Oulu.

Dangerosité des ondes

De son côté, Peter Vetter, responsable de la recherche chez Nokia Bell Labs, estime que le réseau devra être considéré comme une plate-forme qui crée des instances réseau pour des environnements spécifiques. « Il s’agira non seulement d’un réseau permettant la connectivité, mais aussi d’une infrastructure qui servira de capteur pour déduire l’état et la signification de l’infrastructure afin d’augmenter le nombre de personnes et de machines. Comprendre ce qui se passe dans une pièce, par exemple, ouvre de nouvelles applications pour la gestion de l’énergie ou la surveillance de la santé », explique M. Vetter.

Autre thème abordé en Finlande : la dangerosité des ondes. Cette question n’est pourtant pas encore au centre des préoccupations. « Mais c’est un sujet qui pourrait le devenir », note Philippe Dallemagne, responsable du secteur Systèmes sans fil embarqués au CSEM (Centre suisse d’électronique de microtechnique), à Neuchâtel. « Il est clair que multiplier les antennes pose probablement un problème de densité d’émissions de radiofréquences ».

Faudra-t-il réduire la puissance des antennes, en contrepartie de leur multiplication ?

Déchets nucléaires : le débat public est lancé

Que faire des déchets nucléaires français et comment les gérer ? Ce sont des interrogations auxquelles devront répondre les participants au débat public sur l’avenir de la gestion des déchets nucléaires. La Commission nationale du débat public (CNDP) a annoncé que la concertation nationale se tiendra du 17 avril au 25 septembre prochain. Cette dernière fait suite à la demande formulée par l’ancien ministre de la Transition écologique, Nicolas Hulot, auprès de la CNDP, en février 2018.

Au programme, plusieurs dossiers brûlants, à commencer par la saturation des actuels espaces de stockage des déchets nucléaires. La question est d’autant plus pressante que l’Agence nationale pour la gestion des déchets radioactifs (Andra) a révélé qu’il y a en France 1,54 million de mètres cubes de déchets nucléaires, soit l’équivalent de 400 piscines olympiques. Ils sont disséminés dans 950 sites répartis sur tout le territoire national.

Un débat qui reviendra sur Cigéo

Pour les associations de lutte pour la préservation de l’environnement, cette concertation est capitale. « Ces déchets sont tous toxiques et présentent un risque de contamination pour la santé mais aussi les sols, les nappes phréatiques, l’air, les cours d’eau ou la mer en cas de fuite » considère Greenpeace France. Pour l’ONG, il est capital que la concertation aboutisse à un cinquième Plan national de gestion des matières et des déchets radioactifs (PNGMDR) qui permette d’assurer pleinement la sécurité des citoyens.

L’épineux sujet du projet Cigéo à Bure sera, à ce titre, l’un des incontournables de ce débat public. Pour rappel, l’État prévoit de créer un centre de stockage des déchets nucléaires les plus dangereux sous ce petit village de la Meuse, dans une couche d’argile, à 500 mètres de profondeur. Ces déchets sont classés dans les catégories MA-VL (moyenne activité à vie longue) et HA-VL (haute activité à vie longue). S’ils ne représentent qu’une toute petite partie des déchets nucléaires français (3%), leur radioactivité est quant à elle estimée à plusieurs centaines de milliers d’années.

Les piscines de refroidissement interrogent

Cependant, le projet Cigéo est loin d’être le point le plus chaud de cette concertation, car il n’est pas nécessairement le plus urgent. « Même si le projet de Cigéo se fait, on ne pourra pas y mettre les premiers déchets HA-VL et MA-VL avant 2075. Il y a plein d’autres problèmes en amont » rappelle Yannick Rousselet, porte-parole de Greenpeace France sur les sujets nucléaires, à 20 Minutes. Il considère en effet que le sujet principal du débat est le traitement des sites dont la capacité de stockage est au bord de la saturation.

En novembre dernier, l’Institut de radioprotection et de sûreté nucléaire (IRSN) avait estimé que la situation des piscines de refroidissement – où sont placés les déchets en sortie de réacteurs – était « globalement très tendue ». Cela concerne notamment le site d’Orano à La Hague dans la Manche, où les piscines risquent d’atteindre leur stade de saturation à l’horizon 2030. De son côté, le Centre industriel de regroupement d’entreposage et de stockage (Cires) dans l’Aube risque d’être saturé, selon l’Andra, dès 2025.

Des solutions qui divisent

Pour pallier le problème de stockage des déchets les moins radioactifs, à l’instar de ceux présents sur le site de l’Aube, des voix prônent le recyclage. « Pour les [déchets] TFA (très faible activité), la réglementation française nous impose aujourd’hui de les mettre en stockage, bien qu’ils présentent une très faible radioactivité et que nous savons les recycler », déclare Valérie Faudon, déléguée générale de la Société française de l’énergie nucléaire (Sfen). Elle ajoute que cette pratique est répandue en Allemagne, au Japon et en Suède, et propose que la France puisse en faire de même.

L’une des autres pistes suivies par EDF est la création d’une nouvelle piscine de refroidissement. Le projet, qui pourrait potentiellement voir le jour vers 2030, se situerait dans la commune de Belleville-sur-Loire (Cher). Cette nouvelle structure aurait une capacité de 5000 tonnes. Initialement, le projet a été pensé pour être un site de traitement du Mox usé (un mélange d’oxydes composé d’uranium et de plutonium). Mais les associations opposées au nucléaire désapprouvent cette option. « Le recyclage des TFA pose ensuite la question de la traçabilité de ces déchets, avec le risque qu’ils finissent par se retrouver dans des biens de consommation grand public », indique Charlotte Mijeon, porte-parole du Réseau Sortir du Nucléaire.

Des associations, dont le Réseau Sortir du nucléaire, ont d’ailleurs annoncé qu’elles ne participeraient pas à ce débat public. « À quoi bon débattre des options de gestion de ces substances ingérables, si la seule solution réellement existante, à savoir l’arrêt de leur production, est exclue par les pouvoirs publics ? », interrogent-elles dans un communiqué commun.

Le « GIEC » de la biodiversité s’ouvre à Paris

Plus de 800 délégués se réunissent toute la semaine au siège de l’UNESCO à Paris. Parmi eux, des hauts représentants des gouvernements, des experts scientifiques, des représentants de la société civile et des entreprises de plus 132 pays. Au programme : l’examen par les gouvernements du rapport d’évaluation mondial de l’IPBES, le premier rapport intergouvernemental sur l’état de la biodiversité. Il s’agit de l’analyse la plus complète de la nature depuis l’évaluation décisive des écosystèmes pour le millénaire, réalisée en 2005.

En ouverture de cette semaine de travail, les appels à l’action se sont succédé. « Cette évaluation mondiale aura demandé l’analyse de plus de 15 000 publications scientifiques par plus de 150 chercheurs et autres porteurs, y compris des porteurs de savoirs autochtones et locaux, prévient Anne Larigauderie, secrétaire exécutive de l’IPBES. Ils y auront passé plus de trois ans et répondu à plus de 20 000 commentaires qui ont été soumis par leurs pairs et les gouvernements. »

 Faire le lien entre biodiversité et climat

 Le rapport sera approuvé par la plénière en fin de semaine et dévoilé le 6 mai prochain. « Cette évaluation mondiale démontre toute l’importance de la biodiversité, sa perte continue, les causes sous-jacentes de cette perte, les avenirs plausibles de la biodiversité, explique Robert Watson, Président de l’IPBES. Elle présente une gamme de politiques, de pratiques et de structures de gouvernance qui peuvent être utilisées par les gouvernements, les états, le secteur privé et la société civile pour protéger et utiliser de façon durable la biodiversité. »

Robert Watson le martèle : les luttes contre le changement climatique et pour la sauvegarde de la biodiversité vont de pair. Pour lui, « la perte de biodiversité et le changement climatique anthropique sont des questions d’équité inter et intragénérationnelle ». Il poursuit : « Il est essentiel que les questions de perte de la biodiversité et de changement climatique soient reconnues comme ayant un effet l’une sur l’autre et sont d’importance égales. La perte de biodiversité tout comme le changement climatique ne sont pas seulement une question environnementale, mais une question de développement, une question économique, sociale, de sécurité, ainsi qu’une question morale et éthique. La perte continue de biodiversité met à mal l’aptitude de la majorité des pays à atteindre la plupart des objectifs de développement durable. »

Des rendez-vous à ne pas louper

 Le rapport éclairera l’urgence autant que la nécessité d’agir pour préserver la biodiversité terrestre et marine. Dans les mois à venir, plusieurs rendez-vous sont inscrits à l’agenda de la communauté internationale. « Cette évaluation mondiale de l’IPBES servira notamment de base scientifique aux travaux de la COP15 de la Convention sur la diversité biologique en Chine en 2020, prévient Audrey Azoulay, directrice générale de l’UNESCO. L’IPBES forme donc l’espoir que son travail contribuera à susciter d’ici 2020 le grand élan international afin de faire enfin de la biodiversité la grande cause universelle qu’elle doit devenir aux côtés du changement climatique. »

En amont de ces événements, la France accueille le G7 des ministres de l’Environnement, des Océans et de l’Energie les 5 et 6 mai prochains. Du 24 au 26 août 2019, le sommet du G7 prendra place à Biarritz. En juin 2020, viendra le tour du Congrès de l’UICN à Marseille, à quelques mois de la COP15.

Ingénieuses’19 : les nominées sont connues !

Techniques de l’Ingénieur a été heureux de faire partie du jury Ingénieuses 2019 qui s’est réuni le lundi 15 avril pour étudier 179 candidatures et projets, répartis dans les 6 catégories du concours. Celui-ci récompense des actions ayant pour finalité l’égalité entre les femmes et les hommes.

À l’issue des délibérations, les nominé-e-s suivant-e-s ont été désigné-e-s :
  • Prix de l’école la plus mobilisée :
    • CentraleSupélec,
    • l’ENIT,
    • l’ENSI Poitiers
    • l’ISAE SUPAERO ;
  • Prix du projet le plus original :
    • l’IMT Mines Albi
    • l’IOGS ;
  • Prix pour l’enseignement à l’égalité femmes-hommes :
    • l’EFREI,
    • l’ESIGELEC
    • l’INSA Strasbourg ;
  • Prix de l’élève-ingénieure France en partenariat avec l’AUF : 
    • Stella BOURDIN, élève-ingénieure de CentraleSupélec,
    • Sarah CROMER, élève-ingénieure de l’ESTACA,
    • Mylène LE CALVEZ, élève-ingénieure de l’ENSIMAG,
    • Elise REY DU BOISSIEU,  élève-ingénieure de l’EPF
    • Marie TESTI,  élève-ingénieure de l’ENISE ;
  • Prix de la femme ingénieure :
    • Elisabeth EUDE, diplômée de l’INSA Rennes,
    • le Commandant Sophie, diplômée de l’ISAE-SUPAERO et
    • Rima OULD, diplômée de Polytech Sorbonne.

L’Agence universitaire de la Francophonie au Maghreb, le partenaire du concours pour le prix de l’élève-ingénieure Maghreb, a d’ores et déjà désigné Meriem BAKRI, élève-ingénieure de l’ESI Alger, comme lauréate 2019. Vous pourrez la retrouver lors de la cérémonie de remise de prix ainsi que l’ensemble des nommé-e-s.

La RATP sera partenaire de cette cérémonie, durant laquelle le nom des autres lauréat-e-s (élève-ingénieure France, femme ingénieur, et écoles d’ingénieur-e-s) sera dévoilé. Elle se tiendra le vendredi 17 mai, de 14 h à 18 à l’espace Van Gogh, 62 Quai de la Rapée, Paris 12e.

Cet événement est ouvert à tous et toutes. C’est l’occasion pour chacun d’assister à des conférences, des retours d’expérience d’ancien-ne-s lauréat-e-s, et d’échanger avec les autres participants. Pour vous inscrire à la cérémonie, rendez-vous sur le site d’Ingénieuses 2019.

L’aide à la conduite pourrait-elle nous transformer en « fous du volant » ?

Afin de ne pas se laisser distancer par son concurrent Airbus, Boeing n’aurait-il pas grillé les étapes obligatoires en matière de sécurité ? On peut se poser la question avec les crashs des Boeing 737 MAX.

L’avionneur avait en effet décidé d’installer le MCAS (Maneuvering Characteristics Augmentation System) sur tous ses 737 MAX, une nouvelle version modernisée et remotorisée du moyen-courrier. Officiellement, l’intégration de son logiciel du système anti-décrochage n’entraîne que de faibles modifications. Il n’était donc pas nécessaire de former les pilotes ou même de leur apprendre l’existence… du nouveau logiciel.

Aides à la conduite et sentiment de sécurité

En janvier 2016, le premier exemplaire d’essai du Boeing 737 MAX décolle. Sans souci. On connaît la suite… Et si demain, cela se produisait avec nos voitures ? D’ici trois ans, tous les modèles des constructeurs devront donc présenter par exemple le maintien de trajectoire et le contrôle de la somnolence. Objectif : renforcer la sécurité routière.

Megacities Institute, avec le soutien de ses membres (Allianz, Bosch et GiPA), a réalisé une étude auprès de conducteurs de véhicules semi-automatisés, c’est-à-dire équipés d’au moins un des trois systèmes d’aide à la conduite étudiés (freinage d’urgence, régulateur de vitesse adaptatif, parking automatisé).

Selon cette étude parue en février dernier, 94 % des conducteurs gardent le freinage d’urgence activé en permanence et 79 % activent régulièrement le régulateur adaptatif de vitesse. Ils apprécient ces aides à la conduite pour la sécurité procurée.

Freinage « plus sûr »

Mais cette débauche d’électronique représente-t-elle une réelle avancée pour la sécurité routière ? Selon un sondage réalisé par Bloomberg en juillet 2018, la moitié des automobilistes reconnaissent que les assistances à la conduite changent effectivement leur manière de conduire. Comme pour les pilotes d’avion, une formation ne serait-elle pas nécessaire pour mieux appréhender ces outils et savoir réagir correctement ?

L’automatisation créé un faux sentiment de sécurité. Le monde de l’aviation en est le parfait exemple. Mais elle pourrait s’appliquer aussi à l’automobile. Lors du déploiement de l’ABS en série sur les automobiles, une étude réalisée sur des taxis allemands a montré que les conducteurs, convaincus de disposer d’un freinage « plus sûr », réduisaient leurs distances de sécurité et augmentaient sensiblement leur vitesse.

Cependant, il faut noter que ce comportement de compensation (en référence aussi à l’homéostasie du risque, une théorie de Gérard Wilde établie en 1982) a tendance à disparaître dans le temps.

Reste que la vigilance doit être constante.  75 % des accidents ont lieu à proximité du domicile, la plupart du temps lors des trajets domicile-travail (source : Sécurité routière).

La Russie peut-elle faire web à part ?

Prise par deux sénateurs et un député russes, cette initiative sur « l’isolement » visait à répondre au « caractère agressif de la stratégie pour la cybersécurité nationale des États-Unis » adoptée en septembre 2018.

Le projet de loi portait principalement sur deux points : le contrôle du système de noms de domaine (DNS, le système d’adressage de l’Internet) et le routage du trafic (transfert des données d’un expéditeur vers des destinataires pour simplifier). Mais mi-mars, 15000 personnes ont manifesté à Moscou.

La « révolte Safran »

Depuis, les autorités ont précisé que le test ne visait pas à couper le cordon ombilical avec l’internet. La nouvelle loi « vise à garantir la survie d’Internet en cas d’éventuelles cyberactions agressives contre notre pays », a indiqué le porte-parole de Vladimir Poutine.

Néanmoins, progressivement, la Russie souhaite contrôler son trafic internet et les données. Depuis 2016, une loi oblige les entreprises traitant des données de citoyens russes à les stocker sur le territoire national.

L’idée de couper le web n’est pas nouvelle. Bloquer les connexions au réseau mondial est en effet possible. Mais sous certaines conditions comme le montrent les deux seuls exemples de blocage total : la Birmanie (au moment de la « révolte Safran » de 2007 menée par les moines bouddhistes) et l’Égypte (fin janvier dernier). Ces coupures ont été facilitées par le fait qu’il y a peu de fournisseurs d’accès à Internet (FAI) et qu’ils ont des liens plus ou moins étroits avec l’État.

Pour éteindre l’Internet, les FAI ont bloqué l’accès aux protocoles DNS (Domain name server, qui aiguille les ordinateurs vers les adresses des sites) et BGP (Border gate protocol, qui indique quelles adresses IP sont utilisées par les fournisseurs d’accès). Impossible aux PC de trouver un chemin permettant d’accéder à la toile.

Couper le fixe, le mobile, le câble…

Techniquement, l’État français pourrait obtenir le même résultat si les principaux FAI bloquaient l’accès à ces deux protocoles. En 24 heures, 90% des Français n’auraient plus Internet. Mais cette décision se heurterait à des obstacles techniques et juridiques et elle aurait de graves répercussions sur l’économie nationale.

Par ailleurs, pour qu’aucun accès au web ne soit possible il faudrait couper à la fois les lignes téléphoniques fixes et mobiles, le câble, la fibre optique et éteindre toutes les bornes Wi-Fi privées et publiques. Inimaginable. C’est comme si un pays fermait tous les axes routiers, des autoroutes jusqu’aux départementales, voire les routes de campagne. Impossible.

Pour revenir à la Russie, l’exercice serait difficile à relever. Contrairement à la Chine qui a pensé et conçu son réseau avec une gouvernance centralisée, la Russie compte plus de 3000 FAI avec de nombreuses connexions physiques et économiques avec l’étranger.

Le test ne se fera peut-être jamais. Il témoigne, en tous les cas, de la volonté de la Russie de limiter sa dépendance technologique et de restreindre sa surface d’attaque.

“Innovate! Towards Mobility for all” : le forum Imagine Mobility 2019

Assurer la mobilité pour tous et pour tous les territoires, notamment les zones rurales et périurbaines, est une nécessité absolue.

Le développement de nouvelles offres, la révolution digitale et la transition énergétique constituent un formidable potentiel pour répondre à cet enjeu majeur.

C’est le thème choisit par MOV’EO, le pôle de compétitivité en R&D Mobilité et automobile pour son forum Imagine Mobility 2019 :  « Innovate! Towards Mobility for all – Combining vision, technology & behavioural changes” sera le sujet des échanges entre acteurs français et européens de la mobilité.

Pour en savoir plus sur le programme, cliquer ici

En images : une eau qui ne gèle pas… même à -263°

Des chercheurs suisses sont parvenus à empêcher l’eau de se transformer en glace, malgré la température de -263 °C ! Pour réussir cet exploit, ils ont mis au point une nouvelle classe de lipides qui forment de minuscules canaux, si petits que la glace ne parvient pas à se former.

La filière éolienne fait une contre-PPE en faveur de l’offshore

Dans leur communiqué commun, le Syndicat des énergies renouvelables (SER) et la Fédération France Eolienne (FEE) rappellent que le 27 mars dernier, six Régions littorales métropolitaines, jugeant que le projet de décret concernant la PPE « était particulièrement insuffisant sur le volet éolien en mer, ont présenté une contre-proposition plus ambitieuse pour répondre aux attentes des territoires en matière de transition énergétique. En lien avec elles, la profession éolienne a également travaillé à une contre-proposition depuis plusieurs semaines. Sur la base de ces deux contre-propositions convergentes, la profession et les Régions pourront poursuivre leur travail en commun, dans le même but d’engager des appels d’offres réguliers avec un volume annuel plus ambitieux. »

Pour Jean-Louis Bal, président du SER, « le volume actuellement proposé dans le projet de PPE est insuffisant pour l’offshore et présente en outre des trous dans les appels d’offres en 2021 et 2022 ».

Le projet actuel de PPE prévoit en effet une capacité installée de 4,7 à 5,2 GW en 2028. Un chiffre qui, rappelle la filière, « comprend les capacités déjà en développement (3,1 GW) ainsi que les projets qui seront alloués entre 2019 et une date ultérieure. »

Comme un délai d’environ 6 à 7 ans est nécessaire entre l’attribution d’un appel d’offres et la mise en service d’un parc éolien en mer, seuls les projets attribués d’ici 2021 pourront être en service en 2028, en fin de calendrier de la PPE actuelle.

Ainsi, insistent le SER et la FEE, « l’option haute du projet de PPE correspond donc en grande partie à des volumes déjà attribués et ne reflète pas le potentiel de la filière. »

Le « souhait » de la profession sur l’offshore est de pouvoir disposer d’appels d’offres d’au moins 1 GW par an jusqu’en 2023, puis de 1,5 GW par an jusqu’en 2018.

Or, « le rythme d’appel d’offres prévu dans le projet de PPE se situe en moyenne entre 540 MW et 665 MW par an d’ici 2024, soit une dynamique nettement inférieure aux attentes de la profession et des régions littorales, qui défendaient un volume minimum de 1 000 MW par an – soit 1 à 2 projets de parcs ».

Manque de visibilité industrielle

Et la filière d’insister sur le fait que le projet de PPE qui va parvenir au CESE en mai ne permet pas « un développement durable de la filière industrielle de l’éolien en mer » car avec des « creux de charge dans les productions », il n’offre pas de visibilité suffisante pour investir dans les capacités industrielles et accélérer la baisse des coûts par effet d’échelle.

Le président du SER signale ainsi qu’il serait nécessaire de mettre en œuvre au moins deux fois 750 MW d’éolien posé supplémentaires, attribués entre 2021 et 2022, et trois appels d’offres de plus en faveur de la filière flottante. Pour le flottant, cela serait possible dans chacune des 3 régions accueillant une ferme pilote, via le lancement d’un appel d’offres de 250 MW, complété 2 à 3 ans plus tard par une tranche de 500 MW.

Enfin, la PPE, dans son cadre actuel, réduit la perspective des volumes d’appels d’offres engagés après 2024 (500 MW), « alors même que la compétitivité de la filière sera encore améliorée ». Ce qui constitue « un décalage par rapport à l’évolution des machines et standards dans le monde et en Europe, où les projets engagés dorénavant le sont sur des volumes dépassant 1 000 MW. »

Le SER et la FEE signalent qu’en termes d’éolien posé, la compétitivité de la filière est « avérée » avec des prix en Europe très concurrentiels depuis 2016 voire dans quelques cas – comme aux Pays-Bas, au Danemark ou en Allemagne – à parité avec les prix de marché ; la profession fait le même constat que les régions littorales et juge que le volume de projets engagés demeure notoirement insuffisant au regard du gisement disponible en France, le deuxième d’Europe.

Alors que l’appel d’offres en cours sur Dunkerque, avec un prix cible de 70 Euros/MWh, devrait montrer que la technologie permet d’être bien en-deçà de ce prix, le gouvernement doit prendre en compte ce facteur. Jean-Louis Bal rappelle ainsi que « si le prix ressort pour Dunkerque à 60 €/MWh, cela peut se traduire par un engagement pour 1 GW supplémentaire », grâce à l’économie réalisée sur le prix cible, sans augmenter le coût des engagements de la PPE*. En outre, les engagements déjà pris en matière d’offshore sont évalués à 18,7 milliards d’euros, tandis qu’il reste 6,7 md€ à engager.

Pour l’éolien flottant, la profession (et les Régions) juge que « les coûts de production rejoindront rapidement ceux de l’éolien en mer posé » ; ainsi, « les volumes envisagés sont également bien trop faibles pour enclencher une réelle dynamique industrielle porteuse d’emplois et de retombées économiques locales, alors même que la France s’est bien positionnée sur ce marché international émergent. »

*Etude fondée sur un prix de marché de gros évalué autour de 56 €/MWh

Perturbateurs endocriniens : les pistes pour mieux protéger la population

« On menace l’avenir de l’avenir, c’est un sujet inédit » déclare Émilie Gaillard, maître de conférences en droit à Sciences Po Rennes. La jeune femme alerte sur les graves risques que les perturbateurs endocriniens font courir à la population, et notamment aux personnes les plus fragiles. Également membre du Comité de Recherche et d’Information Indépendantes sur le génie Génétique (CRIIGEN), elle insiste sur l’urgence d’agir au nom des générations futures. Cet appel à l’action urgente est lié aux découvertes scientifiques de ces dernières années qui démontrent que l’exposition d’une personne aux perturbateurs endocriniens a également une incidence sur la santé de la descendance. Émilie Gaillard aimerait voir les citoyens se mobiliser pour la santé de leur descendance, dans des mouvements similaires à ceux organisés pour la préservation du climat.

Les industriels commencent à s’en préoccuper

De plus en plus d’industriels ont également conscience que la protection de la santé des consommateurs est une question essentielle. Charles Kloboukoff, président-fondateur de la marque de produits bio Léa Nature en fait partie. Pour lui, rechercher des solutions naturelles et bio pour le consommateur est essentiel. « Les perturbateurs endocriniens sont présents dans les emballages, les ingrédients, les additifs et les pesticides. Nous devons donc trouver les solutions pour limiter les sources d’exposition » déclare le président de Léa Nature. Aujourd’hui, cette firme développe un plan pour éradiquer le plastique de ses produits. La chasse concerne également les nitrites du jambon et les nanoparticules.

Léa Nature a investi durant les quatre dernières années 7 millions d’euros dans de nouvelles unités de transformation. Cette modernisation a permis de limiter la contamination des aliments par l’acrylamide – lors des processus de cuisson – et par les dioxines. Ces dernières ont tendance à s’accumuler notamment dans le foie et dans le lait maternel. Or, leur persistance dans le corps humain est de plusieurs années, et à haute dose ces perturbateurs endocriniens sont potentiellement cancérigènes. Charles Kloboukoff explique également que Léa Nature cherche à éliminer tous les perturbateurs endocriniens potentiels de la composition de ses cosmétiques. « C’est la raison pour laquelle nous n’avons pas de produit solaire, il n’y a pas aujourd’hui de solution bio qui soit satisfaisante » ajoute-il.

Signaler les perturbateurs endocriniens sur les étiquettes

La lutte et la sensibilisation contre les perturbateurs endocriniens se joue également sur le terrain médical. Dans la région Auvergne-Rhône-Alpes, des ateliers s’organisent dans les maternités, à l’adresse des femmes enceintes. Ils sont issus du projet Nesting – Nidification en français – porté par l’association Women Engage for a Common Future (WECF) installée aux Pays-Bas et active dans plusieurs pays d’Europe, dont la France. Lors d’ateliers animés par des sages-femmes, les futures mères apprennent à améliorer la qualité de leur environnement. L’objectif : limiter l’exposition du placenta aux perturbateurs endocriniens. Durant six jours, les participantes en apprennent plus sur l’effet cocktail, le principe de précaution et les outils qui leurs permettent de se prémunir, elles et leur progéniture.

« J’ai la fierté de dire que l’on contribue à expliquer ce qu’est un perturbateur endocrinien en France » se félicite Emilie Delbays, responsable formation santé environnementale de l’antenne WECF France. « WECF souhaite qu’une tolérance zéro s’opère pour les produits destinés aux moins de trois ans. Il faudrait étiqueter les produits contenants des substances à risque comme les bouteilles d’alcool » déclare-t-elle. Une mesure souhaitable dans un contexte où des études scientifiques relayées par l’Anses ont démontré que l’exposition aux « parabènes, phtalates et certains phénols » contenus dans les produits cosmétiques engendraient très probablement des « contaminations placentaires ».

HSE 4.0 : le travailleur sous capteurs

En matière de prévention des accidents, l’arrivée massive de capteurs divers et performants peut réellement apporter des améliorations. Par exemple, les nouveaux capteurs connectés permettent un suivi en temps réel pour des machines et procédés industriels, pour la gestion et la surveillance des entrées dans des espaces sécurisé, clos ou des procédures de consignation ou pour détecter des situations dangereuses ou des accidents (collisions par exemple), ils peuvent aussi apporter des améliorations sur les machines elles-mêmes avec l’intégration d’éléments de maintenance prédictive (surveillance de dispositifs de sécurité, d’usure d’éléments critiques, analyse des pratiques et des procédures de sécurité pour retour sur la conception et/ou la formation à l’utilisation de la machine etc). Cependant, il ne faut pas négliger l’aspect cybersécurité de ces nouveaux éléments avec la possibilité pour des personnes mal-intentionnées de faire des ajustements à distance mettant en danger les travailleurs ou d’autres personnes / biens. Par exemple, des ajustements de niveaux de vitesse, de force, de changements de la programmation pour effacer des données de suivi, d’erreurs, peuvent rendre la machine dangereuse. Et face à cette menace, même si elle est aujourd’hui encore considérée comme faible car le piratage vise plutôt des moyens de récupérer de l’argent que de nuire à une entreprise ou des personnes, les normes et les outils de parade ne sont pas encore développés. Par ailleurs, cette surveillance constante peut rapidement induire des problèmes d’éthique, de respect de la vie privée et induire un stress sur le travailleur constamment sous surveillance. Ces risques émergents sont à prendre en compte lors de l’arrivée massive de nouveaux éléments de surveillance et de suivi.

Ergonomie occupationnelle : la place de l’homme et des machines

Un des principaux risques en matière de SST dans l’industrie 4.0 est celui du couplage machine/technologie et humain. Ce problème, traité par l’ergonomie occupationnelle, c’est-à-dire l’ergonomie au poste de travail, est déjà connu notamment dans les cas de travail posté sur une chaîne de fabrication où l’humain doit s’adapter à la cadence et à la conformation de la chaîne. On sait que ce genre de couplage induit des risques de surcharge physique, cognitive et psychologique et un couplage « serré » avec les machines éliminent les zones tampons (marges de manœuvre, temps de réflexion, d’analyse, d’interprétation) qui permettent à l’humain de réguler son activité en fonction des données de son environnement et de son état personnel. Cela induit généralement un appel à des capacité de réserve qui générent stress, sentiment de perte de contrôle et baisse de satisfaction vis-à-vis de son travail. La question est comment gérer la variabilité des capacités des individus ? Comment mesurer l’état du travailleur (physique et mental) face à la nouvelle situation de travail ? Et après que faire des données, comment intervenir dans le processus du travail ? Et au final, quelle place donne-t-on au travailleur : est-il un simple maillon d’une chaîne de production que l’on essaye d’ajuster au même titre que les machines qui l’entourent – en attendant qu’une machine le remplace lui aussi ?

Le développement de capteurs qui mettent le travailleur sous surveillance de ses postures va-t-il être accepté par l’opérateur ? Les mesures de corrections/compensations vont-elles être trop « autoritaires », « punitives », « moralisatrices » ? Quelles barrières éthiques se donner ? Toutes ces réflexions se nourrissent d’expériences déjà en cours où l’on avance en marchant. Le risque de ces expérimentations est aussi de transformer le « travailleur » en cobaye, lui procurant une place d’objet plus qu’une place d’humain.

Ergonomie cognitive et informatique : le travailleur limité à son cerveau

L’avènement de l’industrie 4.0 transfère une grande partie du travail des opérateurs humains vers des tâches de commandes, de suivi et de contrôle de processus.

Les compétences liées évoluent vers des capacités à visualiser des informations dynamiques symbolisées sur un écran, les analyser, les synthétiser et identifier les éléments critiques et les anomalies et prendre les décisions qui s’ensuivent et adopter les actions aux résultats. Plusieurs défis sont à relever en matière de recherche : en amont, travailler sur la présentation visuelle des données, sur la navigation et l’évaluation de l’interface humain-ordinateur (via le retour utilisateur notamment) et en aval étudier la charge mentale des opérateurs, évaluer la conscience de la situation par ceux-ci, réfléchir aux aides à la décision, aux diagnostics, au suivi. Cette évolution souligne la transformation du travail vers une sédentarisation et une virtualisation des tâches avec des risques pour la santé d’une part et des risques pour la sécurité d’autre part (l’absence de lien avec la machine de production de manière physique tend faire sous-estimer les risques, une certaine monotonie peut induire une baisse de la vigilance etc.

Les capteurs aussi pour les EPI

Mais le développement des capteurs n’a pas que des visées de surveillance, ils peuvent aussi être à la base de nouveaux équipements de protection individuelle (EPI) plus intelligents. C’est notamment toute la dynamique autour des vêtements intelligents qui est en plein essor : adaptation au froid et au chaud avec des matériaux à changement de phase, vêtements lumineux (intégration de diodes par exemple), indicateurs d’usure, soutien mécanique (dos, pieds notamment) via des exosquelettes souples. Cependant, aussi « enthousiasmant » ces développements puissent-ils être, il faut garder à l’esprit qu’ils sont généralement portés par des start-up. Les produits doivent encore faire leurs preuves sur le terrain et l’absence de normes et de méthodes d’évaluation standardisées rend difficile la mise en avant de leur éventuelle plus-value.

 

Cet article est principalement issu des réflexions de Yvin Chinniah, professeur titulaire de génie industriel à Polytechnique Montréal, et membres du Labo Poly Industries 4.0, lors du colloque annuel de l’IRSST en novembre 2017 : « Révolution 4.0 : à l’aube d’une nouvelle SST ? »

L’usine 4.0 change-t-elle les fondamentaux de la santé-sécurité au travail ?

Derrière la mise en place de l’industrie 4.0 et la digitalisation de l’ensemble des activités économiques et/ou sociales, c’est l’ensemble de la société, de la place de l’homme et des relations interpersonnelles qui évoluent. En matière de santé-sécurité au travail (SST), la numérisation des activités et des relations a commencé à être évaluée et les nouveaux risques identifiés comme une charge mentale en augmentation et un décloisonnement des sphères privées et professionnelles. Dans l’industrie, l’automatisation transforme certaines usines en « monstre de production » supervisé par un minimum d’humains ou par le développement du travail collaboratif entre robots et humains (cobotisation). Quels nouveaux risques cela fait-il apparaître ? Les structures et les professionnels de la santé-sécurité sont-ils préparés à faire face à ces risques et la démarche actuelle est-elle pertinente ? Des éclairages et des éléments de réponse commencent à poindre sur ces questions émergentes.

Nouveaux risques, mêmes problèmes

Dans son «  Guide : L’industrie 4.0 ou la transformation numérique de l’industrie », le cabinet de conseil des représentants du personnels Secafi s’appuie sur des retours d’expérience pour donner quelques pistes de prévention des risques et d’évaluation des conditions de travail lors de transformations numériques ou robotiques dans les industries. Tout d’abord, Emmanuel Gastineau, auteur du guide fait remarquer que trop souvent, encore, les entreprises lancent le projet sans vraiment se poser les questions de son impact et n’apprécient le projet de transformation que dans sa dimension technologique et rarement humaine. En cas de raté, ce sont les salariés qui sont en première ligne. Le guide invite ainsi à se poser les questions de base de tout changement majeur dans l’organisation du travail : comment un projet va-t-il faire évoluer les lieux de travail, la charge et/ou l’intensité du travail ? Les relations et les places de pouvoir évoluent-elles ? Le travail réel devient-il plus ou moins intéressant ? Le sens est-il encore perceptible par les travailleurs ? Que vise le projet : augmentation de la productivité, diminution de la masse salariale ? Quels gains sont attendus et seront-ils partagés avec les travailleurs ? Les salariés sont-ils impliqués dans le changement ou cela vient-il seulement de la direction… En appliquant les outils, connaissances et méthodes déjà existants, les transformations de l’usine 4.0 peuvent déjà être bien couvertes en matière de prévention des risques professionnels. Mais encore faudrait-il que ces pratiques soient inscrites dans la culture des entreprises. Ce qui n’est pas forcément encore le cas.

Sabrina Jocelyn, ingénieure à l’IRSST (institut de recherche en SST québecois) et coauteure du rapport « Robotique collaborative – Évaluation des fonctions de sécurité et retour d’expérience des travailleurs, utilisateurs et intégrateurs au Québec » dresse le même genre de constat.

Dans leur étude sur la mise en place de la cobotisation dans certaines industries canadiennes, Sabrina Jocelyn et ses collègues notent que l’augmentation de la productivité est de loin la principale raison avancée par les entreprises pour justifier l’intégration de robots collaboratifs. Les questions de SST, même lorsque elles ont été abordées passent au second plan. Par ailleurs, que l’entreprise soit consciente ou non des exigences en matière d’appréciation du risque, celui-ci n’a jamais été évalué de manière complète et a fait apparaître « une véritable dualité entre les exigences de production et les enjeux de SST ». Si les travailleurs ont plutôt bien accueilli les robots qui allègent des tâches pénibles physiquement et qui les valorisent dans une nouvelle fonction axée sur la supervision, leur implication dans le projet a été minimaliste. La chercheuse ajoute de plus que « la réflexion quant au choix d’intégrer la cobotique dans un milieu de travail mérite d’être poussée davantage. Certaines entreprises auraient pu se munir d’un robot conventionnel et cela aurait suffi à leurs besoins ». On voit donc là aussi, que les fondamentaux des pratiques SST ne sont pas implémentés et qu’ils couvriraient pourtant une bonne partie des risques inhérents et émergents aux changements technologiques. Pour autant, certains auteurs, poussent la réflexion à une échelle plus grande et alertent sur des changements profonds pouvant affecter les pratiques en SST.

Le défi des travailleurs invisibles

A l’échelle de la société, un autre des défis majeurs pour les responsables de la SST posé par les évolutions induites par la digitalisation de la production et de la société est de rendre précaire et invisible pour les structures traditionnelles un certain nombre de travailleurs. Ainsi, soulève Kaj Frick*, professeur à la Lulea University of Technology en Suède «  Le travail, de plus en plus, adopte de nouvelles formes : freelances, travailleurs de plateformes, sous-traitance, contrats atypiques sans horaires, et toute autre forme de coopération où le lien direct avec l’employeur est faible. Dans toutes ces situations, le travailleur n’a absolument aucune prise avec l’organisation qui décide en réalité de ses conditions de travail et l’organisation ne les prend (quasiment) jamais en compte dans sa stratégie HSE. Et ce, même si théoriquement, ce genre de cas est prévu par les normes et les référentiels de management de la sécurité au travail.

Cette idée est d’ailleurs développée par Chris Laszcz-Davis*, présidente de The Environmental Quality Organization (Californie) qui décrit comment le nouveau monde a transformé les relations physiques et territoriales en les faisant passer dans le digital :  les communautés de travail traversent les frontières, les employés d’une structure deviennent des entrepreneurs au service de plusieurs structures, les relations sont ponctuelles autour de projet et non plus permanentes, les communautés sont donc mouvantes au gré du travail, du moment, la relation de « dépendance/fidélité » se fait au profit de structures digitales et non plus physiques, il n’y a plus de « carrières » avec montée en hiérarchie mais « un portfolio d’expériences », l’appartenance à une entreprise se transforme en appartenance à une communauté d’intérêt virtuel etc. En parallèle, elle note que les institutions traditionnelles (santé, éducation, justice, gouvernance en général) changent, s’affaiblissent et souvent ne répondent plus aux attentes. Ces lacunes doivent être comblées par d’autres entités ou par des infrastructures et relations sociales communautaires. Du coup, se pose la question de savoir comment atteindre la population de travailleurs qui n’est plus incluse dans le tryptique « patrons-syndicats-Etat ». Notant que la réflexion sur les changements induits par l’industrie 4.0 se poursuit, il convient de s’interroger sur la manière de diffuser des pratiques et de la culture de base de la SST qui ne sont pas pas encore acquis : « la sécurité n’est pas un fardeau économique mais un atout commercial », « les organismes de régulation doivent être des facilitateurs et non juste des juges de la conformité », « comment impliquer davantage les travailleurs et former, en nombre suffisant les professionnels de la SST ».

Les professionnels de la SST sont-ils eux-mêmes impactés ?

L’arrivée de l’industrie 4.o se fait de manière très hétérogène tant dans son ampleur que dans sa vitesse d’implémentation selon les secteurs d’activité, les pays et les entreprises. Aussi, les impacts sont réellement à évaluer au cas par cas, comme pour tout changement dans l’organisation de l’entreprise. Cependant, notent Paul Schulte et John Howard* du NIOSH américain (National institute for occupational safety and health) clairement les professionnels de la SST doivent impérativement développer de nouvelles compétences : notamment en matière de facteurs psychologiques, de capital humain, de dynamiques des organisations, sur les théories d’éducation et d’apprentissage tout au long de la vie, et sur le développement humain et économique en général. S’il faudra toujours une évaluation proactive des risques et un management de l’implémentation des nouvelles technologies ainsi que la promotion, forte, de la participation des travailleurs dans les projets mis en place, il faudra aussi réussir à développer une vision holistique des risques émergents et des effets secondaires qui pourraient résulter des changements mis en place.

Créer de nouveaux indicateurs pour de nouvelles compétences ?

Cette nécessité d’une vision globale, de l’anticipation de risques émergents est aussi développée par d’autres auteurs dont certains pensent qu’il faut revoir certaines méthodes de la SST. Ainsi, dans un article d’EHSToday,  magazine américain dédié à la SST, Terry Mathis, fondateur et Pdg de l’entreprise de conseil ProAct Safety fait référence à l’entrée dans l’ère des « systèmes cyber-physiques » : si au départ de ce changement on trouve la technologie, les implications sont bien plus profondes. Pour lui, « il apparaît alors essentiel d’accompagner le changement technologique en soutenant activement le changement culturel inhérent – sans quoi l’on s’expose à créer plus de problèmes qu’à en résoudre ». Pour cela il propose tout d’abord de commencer par adopter une posture fondamentale en SST : ne plus voir les travailleurs comme un problème à contrôler mais comme les usagers de l’effort de sécurité. En outre, il insiste sur la nécessité, plus que jamais d’adopter une stratégie globale pour la SST. Et cette stratégie doit donc viser à apporter de la valeur à ces usagers pour qu’ils puissent travailler en toute sécurité. La technologie doit venir appuyer ce but. Pour faire face aux changements de l’industrie 4.0, il insiste sur la nécessité de développer trois nouvelles compétences : pour l’encadrement en général, une bonne connaissance des technologies qui sont implantées et la capacité à les expliquer à leurs collaborateurs avec plus d’humilité et moins d’autoritarisme. Ce qui induit le deuxième point, un changement culturel dans les relations au travail avec plus de collaborations mais sous une forme plus centrée autour de la technique et du langage machine. Enfin, il estime qu’il faut aussi complètement faire évoluer les systèmes d’évaluation et de mesures en les centrant sur l’évaluation des capacités des hommes et des systèmes à intégrer et implémenter les nouvelles technologies d’un point de vue à la fois technique et culturel.

* Les travaux et tribunes de ces auteurs sont publiés sur le site de l’OIT à l’occasion du 100e anniversaire de l’OIT et de la publication d’un rapport sur les évolution de la santé sécurité au travail

Exclusif !  Cet article complet dans les ressources documentaires en accès libre jusqu’au 24 mai 2019 !

Évaluation des risques professionnels- Aspects opérationnels,
un article de Kamel BAHRI

Parrot : le spécialiste du drone se lance dans l’imagerie thermique

Parrot commercialisera le 9 mai prochain son nouveau drone à vocation professionnelle, Anafi Thermal, consacré à l’imagerie thermique. L’entreprise française mentionne plusieurs applications dans des filières aussi diverses que l’énergie, le BTP, la sécurité civile ou la zoologie : analyse de l’enveloppe thermique d’un bâtiment, inspection de fermes de panneaux solaires, repérage des points chauds durant les feux de forêts, comptage d’animaux… Le prix annoncé s’élève à 1900 € HT.

Avec ses 21,8 centimètres de long, une fois replié, et son poids de 315 grammes, l’Anafi Thermal est une version légèrement remaniée de l’Anafi, sorti en juillet dernier à destination du grand public. C’est l’illustration du principe de la «consumérisation» : s’inspirer des usages grand public pour faciliter la vie des professionnels, en misant sur la simplicité et, dans le cas présent, sur la compacité. Laquelle constitue «un point de convergence technologique» selon Henri Seydoux, le fondateur de Parrot.

Bénéficiant d’une autonomie de 26 minutes, ce quadricoptère embarque deux capteurs : l’un de 21 millions de pixels qui produit une image 4K dans le spectre visible, l’autre de 160×120 pixels réservé à l’image thermique. Ce micro-bolomètre, fourni par la société spécialisée Flir, est sensible au rayonnement infrarouge dans les longueurs d’onde comprises entre 8 et 14 micromètres. La mesure des températures est précise à +/-5% (gain minimal) ou à +/-10% (gain maximal).

Un vent plus favorable chez les pros

L’application mobile iOS/Android superpose les deux flux vidéo et laisse le choix parmi trois options d’affichage : relatif (écarts de température), absolu (avec sélection de la fourchette des valeurs) et spot (indication des points les plus chauds et les plus froids). Le fichier enregistré au format MP4 contient deux pistes, l’une relative à la prise de vue en direct avec les paramètres à l’instant T, l’autre avec les métadonnées associées à chaque pixel, permettant de modifier les paramètres thermiques pour une analyse a posteriori. L’Anafi Thermal est par ailleurs compatible avec les outils logiciels de Flir, utilisés pour le traitement de l’image et des données.

Il s’agit d’un lancement important pour Parrot, dont le destin se jouera davantage sur le terrain professionnel désormais. Cette marque emblématique dans l’univers du drone traverse en effet une zone de fortes turbulences. «La bulle du marché grand public se dégonfle» admet Henri Seydoux. L’arrivée d’Anafi l’été dernier n’a pas suffi à relancer les ventes des drones de loisir, dont le chiffre d’affaire a reculé de 32% en 2018. Le titre en bourse a perdu plus de la moitié de sa valeur et une centaine de personnes ont été licenciées, pour l’essentiel aux Etats-Unis et en Asie.

Ce phénomène semble toucher tous les acteurs du marché, dont le leader chinois DJI, qui ne communique aucun chiffre de vente cependant. Deux explications sont avancées : le fort taux d’équipement de la part des utilisateurs les plus technophiles, et la lassitude du grand public, rebuté par la règlementation. On ne se sert pas d’un drone, possiblement dangereux, comme d’un smartphone… En revanche, le segment professionnel s’annonce plus florissant, avec des perspectives de croissance à deux chiffres. Chez Parrot, il est d’ores et déjà majoritaire et son chiffre d’affaires a progressé de 5% en 2018.

RTE prépare au scénario du pire

Constat, la sécurité d’approvisionnement serait dégradée dans certains cas de figure cumulant plusieurs aléas tels que la poursuite du développement des énergies renouvelables, la mise en service de la centrale de Landivisiau et de l’EPR de Flamanville ainsi que l’installation de nouvelles interconnexions avec la Grande-Bretagne et l’Italie. Et ce, sans mesures additionnelles d’ores et déjà anticipées par le gouvernement qui a décidé d’activer plusieurs leviers à la fois sur la demande et sur l’offre électriques.

Le bilan provisionnel de RTE

RTE rappelle que son bilan provisionnel de novembre dernier qui donne une « vision à cinq ans », prend en compte « les orientations de la feuille de route énergétique du gouvernement, déclinée dans le projet de Programmation pluriannuelle de l’énergie (PPE) et la Stratégie nationale bas carbone (SNBC). Parmi ces choix figurent la fermeture des centrales au charbon d’ici 2022, l’accélération du développement des énergies renouvelables et des effacements de consommation, et la diversification du mix électrique d’ici 2035. »

Ce diagnostic que présente RTE chaque année s’établit autour d’un « cas de base » prenant en compte les orientations de politique énergétique, les informations les plus récentes transmises par les acteurs, ainsi que des hypothèses « médianes » pour l’évolution de certains paramètres (consommation, développement d’énergies renouvelables, etc.).

RTE ajoute que son bilan prévisionnel repose également sur des hypothèses de mise en service de nouveaux moyens de production. Néanmoins, RTE signale également que ce « cas de base » ne constitue pas une vision optimiste de l’évolution du mix à moyen terme, mais prend d’ores et déjà en compte des facteurs très « conservateurs ». Ainsi, sur les ENR, RTE intègre des incertitudes sur le développement des projets (par exemple, 1,4GW par an d’éolien terrestre contre 1,9 GW prévus dans le projet de nouvelle PPE). Pour le nucléaire, RTE mise sur un démarrage de l’EPR en 2020, alors que le planning d’EDF (qui risque de glisser à l’aune des récents incidents liés aux soudures) table encore sur fin 2019 et prévoit des indisponibilités dues aux visites décennales sur le parc nucléaire existant, en misant sur des durées d’arrêts provenant du retour d’expérience et non du planning prévu. Il se fonde enfin sur une consommation électrique stable à l’aune des tendances des dernières années et sur un mix à l’étranger (la France étant particulièrement bien interconnectée avec ses voisins européens) prudent intégrant des retraits de capacités en Allemagne et au Royaume-Uni notamment. Ce « cas de base » a en outre fait l’objet de plusieurs variantes.

Les cas critiques de RTE

La demande du gouvernement s’inscrit donc bien dans le cadre des variantes de ce « cas de base », puisqu’elle vise à « forcer » le modèle développé par RTE pour ses projections. RTE signale cependant que son diagnostic sur « la faculté de fermer toutes les centrales au charbon d’ici 2022, sans dégradation significative de la sécurité d’approvisionnement par rapport au critère, résistait à certains aléas, par exemple : un an de retard sur la mise en service des premiers parcs éoliens en mer ; trois ans de retard sur la mise en service de l’EPR de Flamanville (2022 vs. 2019) ; un an de retard sur le calendrier de mise en service de la centrale de Landivisiau ; un an de retard sur la mise en service de toutes les interconnexions actuellement en construction et enfin une légère augmentation de la consommation. »

Les approfondissements souhaités par le ministre, indique RTE, portent notamment sur des retards supplémentaires pour différentes sources de production (nucléaire, centrale gaz de Landivisiau) des retards dans la mise en service de l’interconnexion Eleclink avec la Grande-Bretagne, et surtout des événements précités simultanés deux à deux.

En outre, le ministre a demandé à RTE de prendre en compte une potentielle reconversion du site au charbon de Cordemais par le projet Ecocombust, fondée sur une alimentation de la centrale en bois.

Dans ce cadre de « non-réalisation cumulée de plusieurs hypothèses principales listées dans le bilan prévisionnel », RTE juge que « le critère de sécurité d’alimentation ne serait plus respecté à l’horizon 2022 en cas de fermeture de toutes les centrales au charbon ». Et dans des configurations plus dégradées évoquées par la demande du ministre, le manque de capacité pourrait atteindre en 2022 plusieurs gigawatts (entre 2 et 3 GW). Un manque de capacités qui n’interviendrait, insiste RTE que sur certaines heures dans l’année, et avec une probabilité faible. En outre, le risque serait transitoire et devrait être résorbé au plus tard en 2024.

Les remèdes du gouvernement

Dans ce contexte et pour anticiper l’ensemble de ces cas de figure, le Gouvernement va activer plusieurs leviers, sur la demande et l’offre d’énergie, pour parvenir à mettre en œuvre l’engagement d’arrêt de la production d’électricité à partir du charbon d’ici 2022 sans dégradation de la sécurité d’approvisionnement.

D’abord, de manière prioritaire, en intensifier les efforts en matière de maîtrise de la consommation d’électricité, en particulier celle de la « pointe » de demande électrique en cas de grand froid. Ensuite, « il apparaît ainsi indispensable d’optimiser la date et la durée des arrêts planifiés des réacteurs nucléaires pour gagner des marges en termes de sécurité d’approvisionnement ». François de Rugy a ainsi demandé à EDF d’optimiser les périodes d’arrêt dans le respect des décisions de l’autorité de sureté nucléaire afin de limiter les risques de dépassement sur les périodes hivernales. Le calage précis de ce calendrier sera discuté dans les semaines à venir avec l’entreprise, l’ASN et RTE. Enfin, « si des assurances sur le démarrage de l’EPR ne sont pas obtenues, une production d’électricité pour quelques dizaines d’heures par an (250 heures maximum), à Cordemais, serait nécessaire pour garantir la sécurité d’approvisionnement lors des épisodes de tension sur l’équilibre offre-demande dans l’Ouest de la France. La centrale de Cordemais serait alors mise à l’arrêt et gardée en veille », indique le ministre.

Le retour de la « petite loi »sur l’énergie et le climat

Quelques jours plus tard, le texte de cette loi nécessaire pour modifier la loi de 2015 de transition énergétique pour une croissance verte suite à l’annonce du gouvernement d’un report à 2035 de la réduction de la part du dans le mix électrique à 50%, contre 2025, était soumis au Conseil national de la transition écologique (CNTE). Et comme souvent en matière législative, le texte passe de 5 articles simples à 8 articles avec différentes visées.

D’abord, après le tollé soulevé par de nombreuses ONG par le manque de précision quant à l’objectif de neutralité carbone à l’horizon 2050 contenu dans le texte de loi présenté en février 2019, le gouvernement tient à préciser dans l’article 1 que : « atteindre la neutralité carbone à l’horizon 2050 » se fera « en divisant les émissions de gaz à effet de serre par un facteur supérieur à six entre 1990 et 2050. » Ce qui est au-delà de l’objectif jusqu’alors inscrit dans le droit français (code de l’énergie) qui tablait sur une division par quatre des rejets carbonés. Cet article continue en outre de retenir des modifications issues de la programmation pluriannuelle de l’énergie (PPE), comme la consommation énergétique primaire des énergies fossiles baissera plus vite que prévu, de 40% en 2030 par rapport à 2012 au lieu de 30%. Bien évidemment, puisque c’est le premier objectif de la loi, l’article 1 prévoit toujours que l’objectif 50% de nucléaire sera atteint en 2035.

Sans changement notable, l’article 2 de nouvelle loi énergie-climat crée, comme annoncé en novembre 2018 par le Président de la République, un Haut conseil pour le climat (HCC). Organisme indépendant, placé auprès du Premier ministre et siégeant au sein de France Stratégie, ce HCC devra réaliser et rendre chaque année un rapport « portant sur le respect de la trajectoire de baisse des émissions de gaz à effet de serre eu égard aux budgets carbone définis en application de l’article L 222-1 A, la bonne mise en œuvre des politiques et mesures pour réduire les émissions nationales de gaz à effet de serre, développer les puits de carbone, réduire l’empreinte carbone et développer l’adaptation au changement climatique, y compris leurs déclinaisons territoriales en s’appuyant sur les documents de planification territoriale. Le Haut Conseil pourra également émettre un avis sur les conséquences économique, sociale et environnementale, y compris pour la biodiversité, de ces actions ». Il est « composé d’au plus 13 personnalités qualifiées choisies en raison de leur expertise scientifique, technique et économique dans le domaine des sciences du climat et de la réduction des émissions de gaz à effet de serre. » Il y a urgence, la climatologue franco-canadienne Corinne Le Quéré préside déjà cet aréopage depuis janvier dernier, et son premier rapport pourrait être présenté avant la promulgation de la loi…

Se glisse ensuite l’article 3 du nouveau texte. Un article relatif au plafonnement des émissions des installations de production d’électricité à partir de combustibles fossiles. L’objectif est toujours de fermer les centrales au charbon. Ainsi, afin de concourir aux objectifs de réduction des émissions de GES et de contribuer à atteindre le plafond national des émissions des gaz à effets de serre pour les périodes 2019-2023 et suivantes, comme défini dans le code de l’environnement, « l’autorité administrative définit un plafond d’émissions applicable à compter du 1er janvier 2022, pour les installations de production électrique à partir de combustibles fossiles situées en métropole continentale et émettant plus de 0,550 tonnes d’équivalents dioxyde de carbone par mégawattheure. » Autant dire que seules les centrales au gaz pourront encore tourner après 2022. Les salariés impactés par les fermetures de centrales aux combustibles fossiles et les sous-traitants pourront « faire l’objet d’un accompagnement spécifique afin de favoriser leur reclassement sur un emploi durable, dans des conditions déterminées par décret. »

En outre, l’article 3 s’occupe aussi de la cogénération : « Pour les installations de cogénération, les émissions considérées pour l’application du précédent alinéa sont calculées en divisant les émissions de gaz à effet de serre par la production combinée d’électricité et de chaleur. »

Les articles visant à des mesures de simplification en faveur du développement des énergies renouvelables et l’amélioration des dispositifs d’efficacité énergétique sont peu modifiés par rapport à la version de février 2019. Désormais dans l’article 4 sur les ENR, la loi remet sur pied l’Autorité environnementale. Un sujet qui gêne depuis près d’un an les autorisations de parcs éoliens notamment. L’article 5 s’attaque quant à lui à la fraude aux certificats d’économie d’énergie (CEE), renforçant le contrôle du dispositif mis en œuvre à l’occasion de la loi POPE de 2005.

Vient ensuite l’article 6 qui détaille (alors que la version précédente ne faisait que les mentionner) les conditions de transposition des directives européennes et règlements adoptés dans le cadre du paquet énergie-climat « Clean energy for all ». Autant pour les directives que pour les règlements, « dans un délai d’un an à compter de la promulgation de la présente loi, le Gouvernement est autorisé à prendre par ordonnance les dispositions législatives nécessaires ».

L’article 7, tout nouveau de la loi, revient sur la régulation par la Commission de régulation de l’énergie. Cet article vise à renforcer les procédures du Cordis (comité de règlement des différends et des sanctions) et à un traitement des litiges de paiement de la contribution de service public de l’électricité (CSPE) au titre des années 2009 à 2015, via un recours, une fois encore à l’ordonnance gouvernementale.

Enfin, l’article 8, prend en compte de nouvelles modalités de pénalités financières relatives à l’Arenh (Accès régulé à l’électricité nucléaire historique). Un fournisseur qui fait appel à l’Arenh peut d’ores et déjà être soumis à des pénalités (appelés compléments de prix) quand il a commandé trop d’Arenh par rapport à son portefeuille de clients, mais l’article 8 permet de renforcer ces pénalités. Rappelons que ce complément de prix a pour objectif d’éviter qu’un fournisseur dit alternatif (à EDF) ne tire avantage du prix de l’Arenh (aujourd’hui 42 euros/MWh) pour effectuer de la revente sur le marché de gros du courant.

Recherche et innovation : la HSE version start-up !

Si les problématiques de santé-sécurité au travail (SST) font désormais partie intégrante des directions des grands groupes internationaux, ce n’est pas leur cœur de métier et cela bénéficie donc rarement d’investissements en R&D. Par conséquent, les innovations en la matière passent souvent par de la veille active de la part des responsables HSE (hygiène, sécurité, environnement) de ces entreprises. Assez naturellement, leurs regards se sont donc portés sur les écosystèmes de start-up, notamment pour développer des solutions en lien avec l’industrie 4.0. Trois exemples illustrent assez bien cette tendance : l’incubateur Oil & Gas autour de Total, l’accélérateur à start-up du bâtiment et l’événement de rencontres INNSafety.

Quand les industriels mutualisent la recherche

En 2016, Total ouvre son incubateur à start-up « usine 4.0 » en partenariat avec Impulse Partners, cabinet spécialisé dans la mise en relation entre grandes entreprises et start-up et dans l’accompagnement de ces dernières. Dès sa deuxième année d’existence, l’incubateur Total devient  un espace d’open innovation accueillant d’autres partenaires industriels. On y trouve donc Vinci Energies, Orano (ex-Areva), Eiffage Energies Systèmes, Solvay ou encore Air Liquide…

Il vise à développer des solutions pour digitaliser les process des industries de l’énergie. Cet effort de recherche et d’innovation en commun porte donc sur des problématiques propres au secteur et pour lesquelles les différents partenaires ont même intérêt à développer des standards ou des solutions compatibles. Assez naturellement, la thématique HSE a été choisie en 2018. Sept entreprises ont été sélectionnées pour intégrer l’incubateur pendant 6 mois. Les solutions proposées par ces entreprises tournent principalement autour de ces préoccupations :

  • des systèmes d’alerte (zone de danger, détection et/ou alerte accident)
  • des systèmes de capteurs permettant d’analyser comportement/posture, gestes pour surveiller et alerter en cas de fatigue, risques TMS
  • un système pour l’acquisition de consignes de sécurité – sans barrière de langue.

Dans cette formule, la solution proposée par les start-up est généralement mise à l’épreuve au sein même des sites de donneurs d’ordre. Ce qui permet d’orienter le développement du produit et son éventuelle industrialisation pour une adéquation optimum pour les grandes entreprises intéressées.

Le BTP, à fond sur la prévention

L’accélérateur de start-up « Santé – Prévention dans le BTP » fête son premier anniversaire. Né de l’alliance entre le CCCA-BTP (réseau d’apprentissage du BTP), l’OPPBTP (organisme de prévention du BTP), PRO BTP (groupe de protection sociale du BTP) et la Fondation Excellence SMA (fondation dédiée à la santé-prévention de la SMA, mutuelle du BTP), il vise à soutenir l’innovation dans des domaines comme l’organisation des chantiers, les objets connectés, la gestion de la data, l’utilisation de la réalité virtuelle et augmenté au service de la santé et de la prévention dans le secteur. Là encore, comme pour Total, l’initiative s’appuie sur Impulse Partners pour organiser la sélection des entreprises, les mettre en relation avec les acteurs du BTP et les accompagner dans le développement de leurs projets. Déjà quatre comités de sélection se sont tenus pour auditionner des entreprises et l’accélérateur en accueille à présent une vingtaine. Les problématiques couvertes sont extrêmement variées : exosquelette de manutention, solution anti-collision, système d’alertes, vêtements haute visibilité intelligents, apprentissage et éducation à la SST ou aux premiers secours, suivi des EPI, etc.

Si l’initiative est portée ici par des organismes plus institutionnels, le public lors des sélections est composé de dizaines de représentants du secteur dont bien sûr des responsables HSE de grands groupes du BTP. Mais la formule, a l’avantage ici d’être très ouverte et pertinente pour la variété des tailles des entreprises du bâtiment.

L’audition groupée

Certains grands groupes, eux, ne s’embarrassent pas d’un système d’incubation/accélération. Mais ils veulent néanmoins profiter des innovations qui peuvent apparaître dans l’écosystème des start-up. Cela donne naissance à des événements comme INNsafety dont la première édition s’est tenue à la Défense fin novembre 2018. A l’initiative au départ de L’Oréal en collaboration avec Environnemental Ressources Management (ERM), cet événement a aussi fait se déplacer St Gobain, Danone, Sanofi, Procter & Gamble, Unilever et Plastic Omnium. Il s’agit cette fois, pour les entreprises sélectionnées  en amont (8 en  2018) d’avoir la chance de rencontrer une centaine de partenaires ou clients potentiels et de voir leur dossier étudié par les sept grands sponsors de l’événement. Un gain de temps et d’énergie énorme pour les start-up et un moyen rapide de repérer des solutions innovantes, qui peuvent venir d’autres secteurs pour les entreprises qui se déplacent. Dans ce cas, même si on continue à parler de start-up, la maturité des entreprises candidates est très hétérogène : de la start-up qui cherche ses premiers grands contrats à des entreprises qui sont déjà bien implantées comme Proxipi dont les solutions anti-collisions sont développées et mise en œuvre depuis 2011 ou Essensium dont les traceurs de déplacement existent aussi depuis plusieurs années.

Le petit bout de la lorgnette ?

Quelle que soit la forme prise pour développer l’innovation en matière HSE dans les grandes entreprises, on voit que l’objectif est de trouver des solutions innovantes, là où ça coince encore en HSE : culture santé-sécurité, alerte/protection des personnels isolés, interaction homme/machine en environnement complexe, amélioration des EPI, prévention/surveillance des données de santé notamment pour les troubles musculo-squelettiques et les états de fatigue et connexion des travailleurs avec leur environnement via des objets connectés, réalité augmentée ou virtuelle et robotisation. Evidemment, au regard du panel des solutions sélectionnées, on a surtout l’impression qu’il s’agit d’une nouvelle forme de partenariat plus ou moins poussée mais que surtout, à l’image des salons professionnels de santé-sécurité, les responsables HSE viennent piocher des idées et des produits. En aucun cas, le système start-up, aussi innovant soit-il, ne semble pouvoir permettre de se passer d’une réflexion et d’une adaptation organisationnelle aux changements induits par l’industrie 4. 0.

 

Exclusif !  Cet article complet dans les ressources documentaires en accès libre jusqu’au 24 mai 2019 !

Évaluation des risques professionnels- Aspects opérationnels,
un article de Kamel BAHRI

La durabilité à l’épreuve de l’économie

Pour simplifier, dans le système – capitaliste et libéral – qui est le nôtre, l’activité économique détruit l’environnement.

En y ajoutant la notion de durabilité on le rend pérenne. Facile. Sauf que la durabilité est une chose simple à projeter mais extrêmement complexe à mettre en place pratiquement. Parce que l’évaluation de la durabilité économique d’une activité prend en compte l’intégralité de son cycle de vie.

Ainsi les véhicules électriques, s’ils ne produisent pas de CO2 pendant leur fonctionnement, nécessitent pour la fabrication de leur batterie des métaux rares qui, eux, sont très émetteurs de CO2.

Il en est de même dans une certaine mesure pour les éoliennes et les panneaux solaires.

Les crédits carbone sont un autre exemple. Mis en place pour permettre aux industriels de compenser leurs émissions de GES, il est aujourd’hui devenu un instrument de spéculation, et le moyen pour certaines entreprises de s‘acheter une image de durabilité sans rien changer de leurs pratiques non durables.

Des synergies ?

Autre exemple, le recyclage : selon un rapport de l’ADEME datant de 2002, le recyclage est une solution pertinente pour certains matériaux comme l’acier, l’aluminium ou le verre. Par contre, le recyclage du plastique est plus épineux. S’ils se substitue entièrement au plastique vierge dans les produits transformés, le plastique recyclé fait sens. Si le plastique recyclé est utilisé à la place du bois pour fabriquer des meubles, mieux vaut alors l’incinérer. Même chose pour les papiers et cartons : l’utilité écologique de leur recyclage dépend de plusieurs paramètres locaux comme la présence d’un incinérateur par exemple.

Du coup, une question émerge : étant donné que la notion de développement durable oblige à prendre en compte des contraintes – finitude des ressources, besoins – qui constituent des freins au développement économique, le développement durable et l’économie peuvent-ils être synergique ?

La réponse est non. L’économie de marché que nous connaissons se nourrit d’une croissance perpétuelle et régulière dans le temps. Tel quel, il n’est pas adapté, par définition, pour faire émerger des modèles durables soucieux de la gestion des ressources et des impacts environnementaux.

Ce que l’on observe via les exemples évoqués ci-dessus, c’est que les modèles économiques durables mis en place – pour le recyclage par exemple – sont contraints de s’adapter à la réalité économique. Pas le contraire. L’exemple de l’économie circulaire illustre bien cette adaptation.

Cela est connu, et cela ne changera pas. Ou pas assez vite par rapport à l’évolution des problématiques écologiques que nous connaissons.

Une illusion

Ainsi, la vision du développement durable comme une façon de concilier la croissance économique avec la protection de l’environnement et la cohésion sociale est une douce illusion. Et un contresens par définition.

Le cas de l’éolien en France en est le symbole. Longtemps subventionné pour rendre son prix de vente compétitif, l’électricité éolienne est artificiellement “boostée” par l’État dans le cadre de la transition énergétique.

Et même si le prix de l’éolien terrestre en France est aujourd’hui compétitif, l’État continue à garantir l’achat de l’électricité produite pour favoriser le développement de la filière. Cet exemple, loin d’être isolé, montre que beaucoup de solutions durables doivent être “accompagnées” pour pouvoir exister économiquement.

Les subventions destinées à encourager l’achat de véhicules électriques participent du même mouvement.

Mais le tableau n’est pas si noir. Pour une raison : l’innovation. Qui aurait cru il y a 20 ans que l’électricité solaire ou éolienne serait aussi rentable aujourd’hui ? L’innovation dans ces domaines a permis et permettra d’atteindre des niveaux de rendements exceptionnels.

D’ailleurs, le stockage efficace de l’énergie éolienne est probablement l’innovation qui permettra à l’éolien de se faire une place définitive dans le marché énergétique français et mondial, même si des solutions efficientes existent déjà. Entre-temps, il faudra que l’innovation permette à la filière éolienne de résoudre une autre problématique, celle de son empreinte écologique.

On en est loin. Mais si développement durable et économie de marché sont par essence incompatibles, la première option pour intégrer un modèle durable dans l’économie actuelle est bel et bien l’innovation.

Comment transformer une ligne droite en cercle ?

Nous vivons aujourd’hui dans une économie linéaire : nous prélevons des matières premières dans notre environnement, nous les transformons et les assemblons. Les produits ainsi fabriqués sont ensuite vendus, consommés puis jetés lorsqu’ils sont hors d’usage. Ces processus sont à la fois extrêmement consommateurs en énergie et producteurs de déchets.

L’économie linéaire est donc un système non durable. Depuis quelques décennies la montée en puissance du recyclage est un exemple de tentative d’”arrondir” la linéarité de l’économie.

Le but étant d’arriver à créer un cercle – vertueux – où l’extraction des matières premières et l’énergie consommée pour produire des biens ont un impact nul sur l’environnement.

L’économie n’est alors plus linéaire mais circulaire

L’Ademe définit l’économie circulaire comme “un système économique d’échange et de production qui, à tous les stades du cycle de vie des produits (biens et services), vise à augmenter l’efficacité de l’utilisation des ressources et à diminuer l’impact sur l’environnement tout en développant le bien être des individus”. Pour faire simple, l’économie circulaire est un modèle qui s’intègre dans les modèles économiques existants en y ajoutant les contraintes liées aux exigences de soutenabilité.

Quels sont les ressorts de l’économie circulaire ?

Trois piliers en portent les principes :

  • l’offre des acteurs économiques ;
  • les demandes des consommateurs ;
  • le recyclage.

Faire évoluer l’offre des acteurs économiques

L’offre des acteurs économiques concerne l’approvisionnement en ressources, l’écoconception, l’écologie industrielle et territoriale, ainsi que l’économie de fonctionnalité.

Au sein de l’économie circulaire, l’approvisionnement devient durable. Ainsi, les modes d’exploitation des ressources sont raisonnés :

  • prise en compte de la finitude des ressources ;
  • amélioration de l’exploitation des ressources (en limitant les rebuts d’exploitation par exemple) ;
  • prise en compte des impacts environnementaux liés à l’exploitation des ressources ; dans le modèle linéaire, les industriels veulent avoir accès à toutes les ressources potentielles ; dans une économie circulaire, l’accès aux ressources dépend du prix écologique à payer ;
  • prise en compte des externalités sociales de l’exploitation des ressources, principalement des impacts sociaux au niveau local.

Autrement dit, l’économie circulaire est avant tout un changement de paradigme assez simple à comprendre. En prenant en compte toutes les externalités liées à une activité industrielle, on contraint celle-ci pour la faire entrer dans un cadre pérenne. Et cela peut rapporter de l’argent, où en faire perdre moins, c’est selon. A titre d’exemple, la pollution de l’air coûte chaque année près de 3000 milliards d’euros dans le monde.

Deuxième volet d’action sur l’offre des acteurs économiques : l’écoconception. L’écoconception, en prônant une approche préventive des problèmes d’environnement, et ce dès la conception des produits, s’avère avoir des effets bénéfiques sur les profits des entreprises. En termes de cycle de vie des produits, l’écoconception est plutôt focalisée sur l’amont, alors que l’économie circulaire demande d’accorder une plus grande importance à l’aval, c’est-à-dire au devenir réel du produit, à son usage, à sa fin de vie, et à son insertion dans différents types de boucles de nature industrielle ou naturelle. Parmi toutes les composantes de l’économie circulaire, l’écoconception est l’usage qui s’est le plus banalisé dans les pratiques industrielles.

Pilier de l’économie circulaire, l’écologie industrielle et territoriale porte bien son nom : elle vise à optimiser les ressources – énergies, eau, matières, déchets mais aussi équipements et expertises – en se basant sur une approche systémique biomimétique.

Dernier composant de l’offre construite par les acteurs économiques, l’économie de fonctionnalité : elle se définit comme un système privilégiant l’usage plutôt que la vente d’un produit.

Elle vise à développer des solutions intégrées de biens et services dans une perspective de développement durable. Ainsi, l’échange économique ne repose plus sur le transfert de propriété de biens, qui restent la propriété du producteur tout au long de son cycle de vie, mais sur le consentement des usagers à payer une valeur d’usage.

Les demandes des consommateurs

Les consommateurs en font la demande depuis des années : ils veulent des produits qui durent plus longtemps. Aujourd’hui ce souhait est entendu par les industriels. Réemploi, réutilisation, vente, occasion, don, et plus généralement allongement de la durée de vie… les moyens de proposer aujourd’hui des produits qui “durent plus longtemps” sont très nombreux. Il s’agit là aussi d’un changement de pratique drastique pour les industriels dont l’usage des méthodes d’obsolescence programmée est aujourd’hui jugé intolérable par l’opinion publique.

Seconde tendance, la consommation responsable. Conscients de leurs rôles, les consommateurs assument aujourd’hui la responsabilité personnelle de choisir ou non d’acheter un produit, pas seulement en fonction de sa qualité mais également selon ses conditions de production et de son impact environnemental global (à tous les niveaux de son cycle de vie).

Le recyclage, pierre angulaire de l’économie circulaire

Le recyclage vise à utiliser les matières premières issues de déchets. Si certains matériaux – verre, papier, cartons, acier, aluminium, certains plastiques – sont aujourd’hui facilement recyclables, d’autres – papiers, cartons souillés, certains plastique, polystyrène… – posent plus de problèmes. Des problèmes techniques, ou économiques.

Intégrer le recyclage dans un système d’économie circulaire est à la fois nécessaire et compliqué, car il faut développer un modèle économique viable sur cette partie du process.

Ainsi, les ingrédients de l’économie circulaire, bien que complexes à mettre en place de façon synergique, permettent de construire des modèles économiques durables.

Reste à savoir si le poids des consommateurs, la mise en place de la RSE et l’urgence écologique permettront au modèle circulaire de remplacer l’économie linéaire.

L’économie durable, de la théorie à la pratique

L’économie durable se distingue par une prise en compte des aspects sociaux et environnementaux afin de répondre aux besoins du présent, sans compromettre la capacité des générations futures à répondre à leurs propres besoins.

Le développement durable précise, lui, les contours de l’économie durable en se caractérisant par “une conception de la croissance économique qui s’inscrit dans une perspective de long terme et qui intègre les contraintes liées à l’environnement et au fonctionnement de la société” (définition wikipedia). Bonnet blanc, blanc bonnet. Economie durable = développement durable.

La définition du développement durable publiée par la commission mondiale sur le développement et l’environnement de l’ONU diffère de celle donnée par wikipedia. Pour l’ONU, le développement durable est “un développement qui répond aux besoins des générations du présent sans compromettre la capacité des générations futures à répondre aux leurs« . Deux concepts sont inhérents à cette notion : le concept de « besoins », et plus particulièrement des besoins essentiels des plus démunis, à qui il convient d’accorder la plus grande priorité ; l’idée des limitations que l’état de nos techniques et de notre organisation sociale impose sur la capacité de l‘environnement à répondre aux besoins actuels et à venir« .

Cette définition ne fait pas spécifiquement référence à l’économie comme vecteur de la durabilité. Mais pourtant cette définition est la même que celle de l’économie durable.

Retour à la case départ ? Pas tout à fait.

Les besoins et les limites

L’intrication entre économie et développement durable permet de différencier fondamentalement ce qui distingue l’économie durable de l’économie au sens large. L’économie capitaliste libérale (en place aujourd’hui) est cadrée par l’offre et la demande. L’économie durable est cadrée par les besoins et les limites.

En considérant cette définition, on comprend mieux la difficulté de mettre en place de type de fonctionnement, qui doit sans cesse s’auto-évaluer et se circulariser. Analyse de cycle de vie, études d’impacts, empreinte écologique, recyclabilité… toutes ces notions qui constituent aujourd’hui des outils d’amélioration continue pour les industriels sont les piliers de la construction de modèles économiques durables.

Au-delà de la prise en compte de ces outils, c’est la pondération qu’on leur donne dans le processus de production qui va faire – ou pas – émerger des modèles durables de développement.

Prenons l’exemple des transports : la voiture électrique est un bon moyen de remplacer les voitures thermiques polluantes. Si on considère les émissions des véhicules une fois vendus, cela est vrai. Si on considère l’ensemble du cycle de vie des deux types de véhicules, cela est totalement remis en cause, car les batteries des véhicules électriques sont composées de métaux rares dont l’extraction “produit” beaucoup de CO2.

L’innovation

L’innovation est, avec le développement durable, le second pilier de l’économie durable, mais plus largement un pilier de l’économie au sens large. Et surtout de notre économie capitaliste. La révolution industrielle a financé l’innovation par le crédit, et cela n’a pas cessé depuis.

Le crédit permet de faire de la recherche, d’innover, et in fine de gagner de l’argent grâce à ces innovations.

L’innovation est partie intégrante de notre système économique. D’ailleurs, le fait que les chercheurs cherchent et “trouvent” est un pilier de notre fonctionnement économique au même titre que la capacité des banques à prêter de l’argent aux industriels pour financer leur R&D.

Le défi qui se pose est celui de la capacité de l’homme à s’emparer des enjeux du développement durable pour les transposer dans notre modèle économique préexistant en lui appliquant strictement ses contraintes propres.

Une fois établies les conditions d’une économie durable, reste à élucider une autre question : une économie durable peut-elle se construire et s’épanouir au sein d’un modèle capitaliste libéral ?

Quelles responsabilités pour une transition éco… nomique ?

Il y a quelques mois, une pétition faisait grand bruit : l’affaire du siècle. Soutenue par des ONG et des personnalités publiques, elle est rapidement devenue la pétition la plus populaire de l’histoire française, réunissant à ce jour plus de deux millions de signatures. L’objet ? Assigner l’État français en justice pour “inaction climatique” et l’obliger à respecter ses engagements climatiques internationaux.

Devant le succès de cette entreprise populaire, le gouvernement a reçu, par l’intermédiaire de François de Rugy, une délégation de signataires il y a quelques semaines. Arguant que l’État français avait déjà entrepris des actions pour lutter contre le changement climatique, le Ministre de la transition énergétique n’a pas convaincu ses invités. Ces derniers ont mis en avant l’incapacité de l’État à prendre des décisions “à la hauteur de l’urgence écologique”.

La situation écologique mondiale est en effet décrite comme une bombe à retardement depuis plusieurs décennies. Il semble aujourd’hui que l’explosion soit en cours. Les espèces disparaissent à une vitesse jamais observée auparavant, les effets de la pollution et du réchauffement ont des conséquences que nous avions sous-estimées… Et pourtant l’État donne l’impression de mettre des pansements là où on aurait tendance à amputer.

Pourquoi ? En 2008, le monde a connu une crise financière sans précédent. Et force est de constater que les États, notamment la France sous l’impulsion du Président Sarkozy, ont réagi rapidement et massivement pour renflouer les banques les plus impactées, ceci afin d’éviter un krach encore plus catastrophique et, selon les termes de l’ancien Président français, pour sauver l’économie mondiale.

Le système économique mondial a été sauvé, mais la crise de 2008 a tout de même ruiné des millions de foyers, détruits des millions d’emplois et fragilisé des économies nationales durablement.

Court terme Vs long terme

Ainsi, la politique, c’est avoir une vision à long terme pour un pays, mais c’est aussi et surtout la gestion du court terme. Traduisons : on ne peut pas s’occuper de développement durable que si la santé économique du pays le permet.

Est-ce le cas en France ? Non. La crise des gilets jaunes a commencé après les annonces sur la hausse du carburant. Elle a empiré lorsque le gouvernement a proposé de subventionner – un peu – l’achat de véhicules électriques hors de prix.

Pourtant la France est un pays qui a une sensibilité écologique. Sans tomber dans l’analyse de comptoir, on imagine que la majorité des gilets jaunes pourrait être signataire de la pétition “l’affaire du siècle”.

Mais voilà, chez les gilets jaunes comme au gouvernement, la gestion du lendemain devient tellement problématique – pour des raisons économiques – qu’y ajouter des contraintes de durabilité et de long terme paraît presque démagogique. Et pourtant c’est l’équation qui nous est posée, Emmanuel Macron est le premier à le rappeler.

Prenons l’exemple de la RSE (Responsabilité sociale des entreprises). Mise en place pour améliorer les conditions de travail en entreprise, prendre en compte l’éthique, développer l’intérêt managérial…, la notion de RSE est aujourd’hui accolée à celle de développement durable. Ainsi la responsabilité de l’appréhension des conséquences écologiques d’une activité industrielle est passée de l’Etat vers les entreprises. Dernier acte de ce glissement, un article de la loi PACTE à venir, exigeant une modification de l’article 1833 du code civil, et qui pourrait préciser qu’ « une société doit être gérée dans son intérêt propre en considérant les enjeux sociaux et environnementaux de son activité ». Alors, est-ce un désengagement de l’État ? Une responsabilisation des entreprises ?

Comme l’État, les entreprises obéissent à la contrainte – économique – du court terme.

Comme l’État, les entreprises doivent maintenir une croissance pour continuer se développer.

Une fois ces conditions remplies, il est temps de se pencher sur les conséquences de nos activités sur le long terme.

De fait, la mise en place de la RSE et son évolution visent à intégrer dans l’ADN du secteur privé la notion de préservation des ressources et plus globalement de développement durable. Ainsi, l’Etat n’ayant pas réussi à imposer à ses entreprises ni à lui-même une contrainte native de durabilité, il en transfère la responsabilité au secteur privé.

Plus de marge de manœuvre pour les entreprises

Comme dit plus haut, la manœuvre pourrait s’avérer payante, et il est évident que les entreprises doivent être partie prenante dans la problématique écologique. Elles ont également souvent un fonctionnement plus agile que les États.

La réalité économique s’impose aux États comme aux entreprises. Il en est de même pour la réalité écologique. Tout est question de temporalité.

Le secteur privé est aujourd’hui sur le devant de la scène pour s’emparer des questions de long terme. Et plus seulement pour une question d’image. Il est vital que cette prise en main soit un succès, car il est certain que la crise écologique, si elle n’est pas prise en compte, sera à l’origine d’une crise financière sans précédent. Mais à quel terme ?

Si cela se produit, les États et les entreprises seront impactés ensemble, au-delà de leurs responsabilités.

Le numérique au service de Notre-Dame

Vieille de 850 ans, la cathédrale pourrait profiter des différentes reproductions numériques pour renaître de ses cendres. Aussi surprenant que cela puisse paraître, les architectes pourraient s’appuyer sur le jeu vidéo Assassin’s Creed Unity qui se déroule pendant la Révolution française. A cette occasion, son éditeur, Ubisoft, a reproduit une version de Notre-Dame à l’échelle 1 : 1.

Autre piste très utile : l’extraordinaire travail de l’historien d’art Andrew Tallon. En 2010, ce professeur à la faculté du Vassar college de New York, a numérisé le bâtiment grâce à une technologie laser. Le chercheur, décédé il y a quelques mois, avait créé un site internet dédié à la numérisation des cathédrales gothiques françaises, en open source, « Mapping gothic France ».  Et son mentor, un pionnier de l’utilisation de l’ingénierie moderne en architecture historique, Robert Mark, est décédé début de 2019.

Une précision à cinq millimètres

Les scanners laser qui avaient été utilisés par Andrew Tallon avaient capturé la totalité de l’intérieur et de l’extérieur de la cathédrale dans des nuages de points 3D méticuleux.

Les scanners laser, avec leur précision exquise, ne manquent rien. Monté sur un trépied, le rayon laser balaye le chœur d’une cathédrale, par exemple, et mesure la distance entre le scanner et chaque point touché.

Chaque mesure est représentée par un point coloré qui crée de manière cumulative une image tridimensionnelle de la cathédrale. « Si vous avez bien fait votre travail », expliquait Tallon, l’analyse est « précise à cinq millimètres [0,5 centimètre] près ». Résultat, son travail avait révélé une structure « vivante » et extraordinaire.

« Le principal défi consiste à reconstruire dans la forme à l’identique, mais pas forcément avec les mêmes matériaux, ni les techniques d’origine », note Hervé Cazelle, architecte du patrimoine qui a participé à une vingtaine de chantiers de reconstruction de bâtiments historiques, contacté par France 24.

Xavier Roy: « L’Europe est très présente dans les territoires »

Editions Techniques de l’ingénieur: Présentez-nous France Clusters

Xavier Roy: France Cluster est une association qui regroupe environ 200 pôles de compétitivité et clusters et développe des actions auprès de plus de 60 000 entreprises. Les actions menées sont à destination des clusters, des pôles de compétitivité et des outils d’accélération des PME, avec une orientation très “territoires”.

E.T.I: Quelles sont les objectifs de l’association ?

X.R: Le réseau que nous formons a trois ambitions. D’abord, soutenir l’innovation sous toutes ses formes: nous ne sommes pas focalisés uniquement sur l’innovation technologique. Les innovations organisationnelle ou commerciale constituent par exemple des angles d’amélioration pour les entreprises qui sont souvent un peu négligés en France, en tout cas par rapport à ce qu’on peut voir chez certains de nos voisins européens. La seconde ambition qui nous anime est le soutien de la coopération entre entreprises, qui pour nous peut être un moteur fort pour la croissance. Enfin, nous croyons beaucoup à une coopération entre les différents acteurs de l’innovation ancrée au niveau territorial.

E.T.I: Justement, comment s’articule le soutien de l’Europe à l’innovation en France ?

X.R: L’Europe est très présente dans les territoires. Toutes les régions françaises développent d’ailleurs des stratégies régionales d’innovation en cohérence avec les orientations européennes. Grâce à cette articulation l’Europe a beaucoup soutenu, par exemple via le programme S3, l’innovation au sein des territoires.

E.T.I: Dites-nous en plus sur la stratégie S3 ?

X.R: S3 signifie Smart specialization strategy : il s’agit pour l’Europe de favoriser l’innovation au niveau régional et donc pousser chaque région à concentrer ses ressources sur les domaines d’innovations pour lesquels elle a les meilleurs atouts par rapport aux autres régions européennes.

Du coup, S3 incite les régions à se spécialiser de manière cohérente par rapport à leur potentiel mais aussi en fonction de ce qui est fait dans les autres régions. Ce faisant, on assiste à un renforcement des synergies entre les politiques de recherche et d’innovation développées aux niveaux européen, national et régional. Cela permet de concentrer les investissements.

Aussi, les porteurs de projets innovants que sont les pôles et les clusters, quand ils sont soutenus au niveau régional, ont tendance à l’être également au niveau européen grâce à ce croisement de stratégies. Cette cohérence est importante car elle a un effet démultiplicateur financièrement parlant, mais aussi au niveau de l’ouverture sur les marchés.

E.T.I: Vous effectuez également un gros travail de fond pour améliorer l’accès aux subventions pour les porteurs de projets…

X.R: Nous avons une marge de progression très importante quant à l’utilisation de l’argent européen, c’est certain. C’est aussi pour cela que nous incitons largement les porteurs de projets sur nos territoires à se rapprocher toujours plus des partenaires européens. Mais pour cela il faut trouver les bon cadres, les bonnes informations. Et cela prend du temps.

Ce travail se fait au niveau des porteurs de projets, mais aussi au niveau des collectivités territoriales, principalement des régions qui sont souvent les interlocuteurs pour tout ce qui touche à la gestion de ces crédits européens.

Et bien sûr nous rapportons aussi à la commission européenne, en faisant remonter de l’information sur les difficultés que les porteurs de projets peuvent rencontrer sur certaines de leur propositions.

Propos recueillis par Pierre Thouverez

Le modèle européen face à ses limites ?

Xavier Roy est directeur général de France Clusters, une association qui fédère pôles de compétitivité et clusters, et accompagne plus de 60 000 entreprises dans leurs démarches innovantes.

Editions Techniques de l’ingénieur: Aujourd’hui l’Europe doit impulser l’innovation dans les territoires tout en prenant en compte les spécificités de ces derniers. Comment faire?

Xavier Roy: Les discussions que nous avons avec les institutions européennes à ce niveau sont très intéressantes: la notion de région n’a pas du tout la même signification en France ou en Autriche par exemple. Il faut bien mesurer ces différences.

Prenons l’exemple des trois pôles de compétitivité de l’eau en France: Montpellier, Nancy et Orléans. Ces trois organismes ressentent très fortement le besoin de travailler ensemble pour pouvoir développer une offre «France» à l’international.

Du coup, ils ont créé une marque, France Water Team, pour, tout en gardant la spécificité de chacun de ces pôles territoriaux, avoir la possibilité de profiter de la marque «France».

E.T.I: Cette orientation territoire au niveau européen est parfois critiquée…

X.R: C’est vrai, l’Europe est très orientée sur les territoires, et ceci est très structurant pour la réflexion de nos acteurs industriels. Si cette approche peut parfois crisper, puisque la notion de territoire n’est pas la même dans tous les pays européens, il faut se dire que c’est la même chose en ce qui concerne l’innovation.

Certains pays vont avoir une vision très orientée innovation technologique, d’autre plus innovation commerciale… C’est l’Europe qui doit faire cette synthèse là, et cela fait émerger des discussions très intéressantes.

E.T.I: L’Europe est également souvent accusée de favoriser les très grandes entreprises

X.R: C’est vrai qu’aujourd’hui les règles sont plutôt écrites pour les «grands» que pour les «petits». Et il est trop compliqué pour les petits de s’adapter aux règles faites pour les grands. C’est un peu la limite de la politique européenne, quand veut appréhender les choses à la fois au niveau global et territorial.

E.T.I: Justement, ces grandes entreprises françaises leader sur leurs marchés, que doivent-elles faire pour le rester ?

X.R: Si par exemple on veut défendre la place de la cosmétique en France, qui héberge des entreprises leader au niveau mondial, il est important de ne pas être frileux sur les conditions de l’innovation. Car on ne reste pas leader mondial sans innover. Et quand on voit ce qui est débloqué pour l’innovation au niveau européen par rapport à ce qui est fait en Asie, on comprend que le défi est immense.

Nous avons besoin de «champions», de grands groupes qui sont à a fois des fleurons nationaux mais également des locomotives. Mais nous avons également besoins d’entreprises de taille intermédiaires, qui ont un potentiel différent mais bien réel : agilité, capacité à s’adapter rapidement, à faire évoluer son offre… c’est en mettant tout cela en cohérence qu’on pourra développer un écosystème global innovant et compétitif.

Propos recueillis par Pierre Thouverez

La France au travers du prisme européen

Même si la politique industrielle est souvent moins commentée que la politique, force est de constater que dans l’opinion publique l’idée selon laquelle les intérêts européens sont incompatibles avec les intérêts français a fait son chemin.

Dernier exemple en date, le projet de privatisation des barrages français. Devant la pression de Bruxelles, l’état envisage de privatiser une partie du secteur énergétique français, en l’occurence 150 de ses barrages. L’idée est de se mettre en conformité avec les réglementations européennes de mise en concurrence sur le marché de l’hydraulique.

Aujourd’hui, le sujet est symbolique puisqu’il est le signe, pour certains, que l’Europe impose à la France des mesures qui vont contre son intérêt général. D’autant plus qu’avec les barrages, on touche à un secteur hyper stratégique, celui de la production nationale de l’électricité. On oublie souvent que les barrages hydroélectriques servent aussi de réservoir d’eau froide pour refroidir les centrales nucléaires. Cela rajoute à l’intérêt stratégique.

Pour autant, l’exploitant privé d’un barrage français pourrait-il refuser de refroidir une centrale nucléaire qui en aurait besoin ? Non, bien sûr. C’est l’état qui gère les appels d’offres, et qui choisit le meilleur candidat par rapport au cahier des charges qu’il a lui-même établi.

Nous sommes donc là dans un cas de transfert d’exploitation commerciale, pas de souveraineté. Pour autant, le sujet crispe. Le cas de la privatisation des autoroutes a eu beaucoup d’écho, et les usagers ont pu constater que privatisation ne rimait pas toujours avec baisse des prix.

Ainsi, l’image de l’Europe pour ses concitoyens est fragilisée. Mais au-delà des réglementations économiques, qui évoluent pour s’adapter à un marché mondialisé, l’Europe a aussi un rôle à jouer plus en amont, au niveau de la recherche et de l’innovation. Car c’est bien là que se jouent les enjeux industriels de demain. Enjeux qui ont beaucoup plus à voir avec notre souveraineté.

Que fait l’Europe pour l’innovation ?

L’Europe abrite seulement 7 % de la population du monde, mais représente 20 % de l’économie mondiale en termes de PIB.

Outre un leadership sur certains secteurs comme la transition énergétique ou la santé, la création d’organismes comme le conseil européen de la recherche, créé en 2007, et destiné à financer des projets à fort potentiel mais dont le retour sur investissement n’offre que peu de garanties, montre que l’Europe s’est saisie de ces enjeux.

Mais est-ce suffisant ? Aujourd’hui les investissements engagés par les géants américains et chinois sur des domaines comme l’intelligence artificielle, la e-santé, la robotique, les batteries, défient l’imagination. Et surpassent la puissance de feu européenne dans les grandes largeurs, d’un facteur 4 en moyenne.

Pourtant, ce qu’on appelle la troisième révolution industrielle, et qui va changer drastiquement nos modes de vie, se joue aujourd’hui. L’Europe connaît parfaitement les implications stratégiques à long terme immenses derrière ces enjeux. Mais elle n’a pas aujourd’hui la puissance financière suffisante pour engager ces combats de front. Au risque de devenir à moyen terme un simple marché et plus une force industrielle ? Ce n’est pas exclus.

Le problème de l’investissement

Des politiques européennes sont menées, aux niveaux territorial et national pour rendre l’industrie continentale plus agile, plus synergique, et donc plus compétitive.

Et ceci sur l’ensemble des secteurs de l’industrie. Les cinq Fonds structurels et d’investissement européens ont, depuis 4 ans, investit aux alentours de 405 milliards d’euros dans l’économie réelle. C’est tout de même une somme colossale. Qui doit être utilisée plus efficacement.

Au total, ce sont tout de même près de 1,7 million de projets d’investissement qui ont été sélectionnés en vue d’un soutien de l’UE dans l’ensemble de l’Europe, en plus des 2,7 millions de bénéficiaires des programmes de développement rural.

Dans ce contexte économique hyper polarisé, difficile d’imaginer qu’un pays puisse, sans l’Europe, dégager les financements nécessaires pour innover aujourd’hui sur les domaines technologiques à fort potentiel.

C’est bien la contradiction qui se pose aujourd’hui aux citoyens qui voteront à partir du 23 mai. S’il est facile de trouver les limites du modèle européen, il paraît bien ambitieux d’imaginer s’en affranchir.

Par Pierre Thouverez

L’Europe croit à une politique d’innovation territoriale

Xavier Roy est directeur général de France Clusters, une association qui fédère pôles de compétitivité et clusters, et accompagne plus de 60 000 entreprises dans leurs démarches innovantes.

Editions Techniques de l’ingénieur: Quel regard portez-vous sur les élections européennes à venir (23-26 mai 2019) ?

Xavier Roy: Les élections européennes sont intéressantes pour nous surtout via le collectif innovation. Il s’agit d’un collectif de tête de réseau qui s’occupe d’innovation. France cluster coopère avec ce collectif pour faire remonter efficacement des informations au niveau de l’Europe.

E.T.I: Quel est votre constat sur la politique d’innovation au niveau européen ?

X.R: On observe que l’Europe est très attentive aux questions d’innovation. Notamment en ce qui concerne l’innovation technologique, qui permet à notre économie européenne de rester dans la course au niveau mondial. Après, il ne faut pas oublier qu’aujourd’hui inventer ne suffit pas. Il faut réussir à vendre.

Nous travaillons beaucoup sur les problématiques de mise sur le marché, de commercialisation, de la recherche de marchés applicatifs pour les innovations que l’on porte. C’est d’ailleurs dans ce sens qu’ont été mises en place les SATT sur la valorisation des brevets universitaires et la recherche de marchés applicatifs. Cela répondait à un besoin du côté des universités. Nous faisons pareil, mais au niveau des entreprises. Par exemple nous repérons des marchés applicatifs et nous sollicitons alors l’innovation pour qu’elle vienne répondre à des enjeux de marché.

E.T.I: D’autant plus que l’Europe fait aujourd’hui face à une concurrence exacerbée de la part de l’Asie et des Etats-Unis…

X.R: Il est très problématique de voir des concurrents américains et asiatiques racheter les entreprises européennes qui innovent et commercialiser leurs solutions.

Je pense par exemple au cas d’un cluster qui fédère des acteurs locaux de la distribution, du petit commerçant aux grandes surfaces. Aujourd’hui pour ces acteurs la réalité est de se dire qu’ils n’ont aucun intérêt à développer une concurrence entre eux, car les vrais concurrents sont Amazon ou Alibaba, qui ont un pouvoir financier sans commune mesure et face auxquels il est nécessaire d’avoir une stratégie concertée.

C’est là que doit se faire l’accompagnement de nos entreprises, pour qu’elles puissent continuer à innover tout en développant des stratégies commerciales adaptées à l’offre et à la concurrence. C’est un grand enjeu.

E.T.I: En France quels sont les grands chantiers à mener pour «rester» dans la course à l’innovation ?

X.R: Les défis sont nombreux. D’abord la redynamisation de notre tissu industriel évidemment. Ensuite, un grand enjeu est celui des compétences, car nos PME expriment de vraies difficultés de recrutement. Enfin, il y a la transition écologique: se demander comment les collaborations inter-entreprises, dans ce qu’elles ont mis en place font de l’économie circulaire par exemple.

Les opportunités d’innovation au sens large liées à la transition écologique sont nombreuses: innovation organisationnelle, écologie industrielle, RSE…

E.T.I: On a parlé des articulations Europe/régions. Qu’en est-il au niveau national ?

X.R: Nous interpellons beaucoup nos interlocuteurs européens sur la relation Europe/territoire. D’autant plus qu’en France, on a souvent le sentiment que les acteurs qui comptent sont l’Europe et les régions. Nous pensons qu’il faut aussi se concentrer sur le niveau national. Quand on essaie d’attaquer des marchés au niveau international, ce qu’on vend -entre autres- c’est la marque France. Donc il faut veiller, au niveau des régions, à ce que des acteurs n’entrent pas dans une concurrence inutile sur une même activité par exemple.

Dans le cadre de la loi NOTRe, il est dit que le développement économique est sous la responsabilité des régions, ce qui a du sens pour permettre une prise de décision au niveau territorial. Pour autant, il faut rester mesuré. Le territoire national a toute sa place à jouer, d’autant plus que la marque «France» constitue un atout fort.

Propose recueillis par Pierre Thouverez

Transformation numérique : pourquoi les PME françaises sont à la peine ?

Alors qu’en France la population est désormais habituée à l’achat en ligne (7 consommateurs sur 10), seule 1 PME sur 8 fait usage de solutions de vente en ligne. Et deux tiers des TPE/PME possède un site internet contre trois quarts dans le reste de l’Union européenne. Pour les auteurs de l’étude de l’Apec « ce retard pris sur la transformation numérique prive ainsi ces entreprises d’un marché à fort potentiel ». L’étude menée par l’Observatoire de l’Apec grâce à des entretiens qualitatifs auprès d’entreprises, de cadres ou d’accompagnants, révèle les processus à l’œuvre dans la transformation des TPE/PME françaises et les freins qui y sont rencontrés.

Une transformation au fil de l’eau

Comme le souligne le document, dans la majeure partie des TPE/PME les changements sont de faible envergure. Ils se font petit à petit, au gré des besoins internes ou externes. Ils sont alors perçus comme des projets « informatiques » et ne sont pas ressentis comme une transformation numérique. Il s’agit par exemple de la création d’un site internet, d’une page ou d’un compte sur un/des réseaux sociaux dans le cas d’objectif de communication externe ou alors de la mise en place d’outils de relations clients (CRM) ou de type ERP (intégration informatique des commandes/facturation et/ou des ressources humaines).

Dans ce cas, leur impact sur l’organisation et le travail est faible et limité et la transition assez fluide. Les projets sont menés sur fonds propres, généralement sans aide extérieure. Cependant ce schéma général est très variable selon les entreprises et surtout selon les secteurs d’activité. Dans les secteurs très concurrentiels comme l’hôtellerie-restauration, dans des secteurs du médical ou des services, ou dans la sous-traitance avec des grands groupes, les transformations sont plus rapides et de plus grande envergure.

Des freins identiques aux autres entreprises

Dans ce cas, on voit alors apparaître des résistances tant chez les collaborateurs que chez les cadres à l’instar des difficultés rencontrées lors de changements majeurs dans une grande entreprise. On retrouve alors les mêmes écueils : absence de prise en compte du temps d’adaptation nécessaire à la nouvelle organisation et aux nouveaux outils avec une prévisible baisse de productivité temporaire, formation insuffisante, résistance par peur de la nouveauté ou du transfert de pouvoir, de contrôle ou des connaissances, charge de travail supplémentaire non reconnue et non valorisée etc. La réussite tient alors souvent à l’implication de la direction et éventuellement à l’intervention de ressources extérieures.

Par ailleurs, pour certaines problématiques, les TPE/PME sont très démunies voire n’y pensent même pas. Il s’agit par exemple des questions de gestions des données, de sécurité et d’hébergement.

Des aides méconnues

Sur la question des aides, les TPE/PME sont peu demandeuses. Elles manquent généralement de temps et de moyens pour les chercher et restent méfiantes vis-à-vis de tout élément extérieur, parfois pour des raisons de confidentialité. De plus, elles connaissent rarement l’existence de telles aides et quand elles en ont connaissance, elles trouvent que le vocabulaire et les dispositifs proposés sont inadaptés à leur situation et à leur réalité. Pourtant, elles ont rarement les ressources internes pertinentes pour établir un bon diagnostic, pour rédiger un cahier des charges ou pour le suivi de la mise en place des nouveaux outils.

Les accompagnements existent et sont multiples, ils peuvent être humains ou financiers et sont présents à toutes les étapes du processus, du préfinancement au suivi. Ils proviennent d’organismes institutionnels ou professionnels et sont parfois gratuits ou proviennent de cabinets et d’entreprises spécialisées. Mais, l’étude le souligne, les entreprises font appel à eux souvent après démarchage et peu spontanément. Aussi, pour soutenir l’évolution des TPE/PME vers la numérisation des activités, l’Apec insiste sur la nécessité que les différents accompagnateurs, qu’ils soient payants ou gratuits, adaptent leurs offres aux spécificités des petites entreprises : communiquer plus intensivement sur les services qu’ils apportent, employer du vocabulaire simple (parler de logiciel de gestion de production et pas d’ERP par exemple), présenter des outils simplifiés par rapport à ceux déployés dans les grandes structures, mettre en relation les pairs car leur expérience est reconnue comme pertinente et fiable par les TPE/PME, et savoir s’adapter aux spécificités de l’entreprise cliente car il s’agit souvent, pour ces entreprises, de pouvoir faire du sur-mesure.