Le cabinet de conseil spécialisé EcoAct publie son classement annuel des entreprises sur la performance en matière de reporting climat. Microsoft remporte la première place du podium global sur les 4 indices boursiers étudiés : CAC40 (France), FTSE 100 (Royaume-Uni), IBEX 35 (Espagne) et DOW 30 (États-Unis). Les deux entreprises les mieux classées du CAC 40 se trouvent dans le top 10 global : BNP Paribas se hisse en 5ème place et Danone en 8ème place.
Ce classement voulant faire la part belle à la transparence, il se base sur la documentation publique, facilement accessible : les reportings extra-financiers, les sites institutionnels, les blogs d’entreprise… « Notre méthodologie repose sur 64 critères dans 4 grandes thématiques : la mesure et le reporting, la stratégie et la gouvernance, les cibles et les stratégies de réduction et l’engagement et l’innovation, explique Arnaud Doré, directeur associé Europe du Sud chez EcoAct. Cette année nous avons durci l’analyse et les critères de notation pour refléter l’importance et l’urgence de s’engager dans une stratégie climatique rigoureuse. »
De plus en plus d’entreprises pour la neutralité carbone
Malgré des critères de notation plus stricts, les notes moyennes des indices augmentent. « Les entreprises françaises ont le score moyen le plus élevé, ce qui indique qu’elles sont pour la plupart très engagées sur le climat », estime Arnaud Doré.
De plus en plus d’entreprises s’engagent désormais vers la neutralité carbone. C’est le cas de 17 des 40 entreprises du CAC40. « En France, la majorité des entreprises s’engagent au moment où elles ont déjà une stratégie claire et ont déjà développé un plan d’action très rigoureux », prévient Arnaud Doré. Sur les 17 entreprises engagées du CAC40, 12 ont pris un engagement qui définit leur compréhension de la neutralité carbone et 11 ont fixé un calendrier précis.
Vers un alignement sur les recommandations de la TCFD et des SBT
De plus en plus d’entreprises s’alignent sur les recommandations de la TCFD (Taskforce on Climlate-related Financial Disclosures – groupe de travail sur la publication d’informations financières relatives au climat). Ces recommandations visent à garantir que les entreprises fournissent aux investisseurs des informations utiles à la prise de décision en ce qui concerne les risques et les opportunités liés au climat.
Au niveau du CAC40, 22 entreprises ont établi leur stratégie autour de la TCFD. Elles communiquent sur ses 4 domaines clés : gouvernance, stratégie, gestion des risques, mesures et objectifs. En plus, 17 entreprises du CAC40 prennent en compte des scénarios climatiques dans leur business plan.
Les entreprises s’intéressent enfin aux « Science based targets » (SBT), l’initiative qui invite les entreprises à aligner leurs objectifs de réduction des émissions de CO2 sur les scénarios du GIEC limitant le réchauffement climatique sous les 2°C. La moitié des entreprises du CAC40 ont fixé une trajectoire alignée sur l’initiative SBT, 5 entreprises se sont engagées à le faire.
Les chiffres de la filière éolienne sont au beau fixe, selon l’Observatoire de l’éolien 2020 élaboré par France Energie Eolienne, le porte-parole des professionnels éoliens français, qui regroupe 90 % des acteurs du secteur en France. En 2019, la puissance éolienne installée a ainsi augmenté de 1 336 mégawatts (MW). La puissance raccordée du pays atteignait 16 600 MW fin 2019, en hausse de 8,75 %. La production annuelle cumulée de l’énergie éolienne a augmenté de 22,7 % en un an pour atteindre 34,1 térawattheures (TWh), soit 6,3 % de la production française.
Ces bons chiffres sont dus à un facteur de charge en hausse à 24,7 %, contre 22,8 % en 2018, grâce aux nouvelles éoliennes raccordées et à leur meilleur facteur de charge technique. « Ces performances confortent l’éolien dans sa deuxième place des énergies renouvelables en France en termes de production », se félicite France Energie éolienne. Avec la crise sanitaire, les installations et les raccordements ont subi quelques retards au premier semestre 2020. La puissance raccordée s’élevait ainsi à 17 000 MW à la fin juin.
Aligner les moyens avec les objectifs de la PPE
À travers la programmation pluriannuelle de l’énergie, les pouvoirs publics confirment qu’ils misent sur le développement soutenu de la filière éolienne. La PPE 2023-2028 prévoit en effet de multiplier par 2,5 les capacités de production éoliennes d’ici 2028. Mais dans le cadre réglementaire actuel et avec de nombreux territoires interdits aux éoliennes, France Energie Eolienne juge « irréaliste » l’atteinte de ces objectifs. « Aujourd’hui 47 % du territoire national est interdit à l’éolien, rappelle Nicolas Wolff, président de France Energie Eolienne. L’urgence est donc à la cohérence entre objectif et moyens mis en œuvre pour les atteindre. »
Ces territoires interdits aux éoliennes sont pour la plupart des terrains militaires et des zones couvertes par des radars qui peuvent être perturbés par les éoliennes. La filière appelle à un travail interministériel d’assouplissement des normes et souhaite tester de nouveaux dispositifs qualifiés d’« in fill » qui évitent de brouiller les radars. Elle souhaite aussi pouvoir installer des éoliennes sur certaines parties des terrains d’entraînement militaire.
Une filière qui contribue à la réindustrialisation de la France
La filière continue toutefois à embaucher. Les créations d’emplois ont augmenté de 11 % sur l’année 2019. Avec 2 000 nouveaux emplois en un an, la filière comptait plus de 20 200 emplois fin décembre. « D’ici 2028, l’éolien, terrestre et en mer confondus, devrait générer près de 50 000 emplois en France, prévoit Nicolas Wolff, président de France Energie Eolienne. La filière est le premier employeur dans le secteur des énergies renouvelables à l’échelle nationale, et concentre 41 % des emplois dédiés aux ENR ». L’industrie française de l’éolien en mer en construction, en vue de l’entrée en construction du parc de Saint-Nazaire, de Fécamp et de Saint-Brieuc pour une mise en service entre 2022 et 2023, participera activement à la dynamisation du tissu industriel en Bretagne, en Normandie et dans les Hauts-de-France.
Bien avant le début du confinement, Thuasne a décidé de produire ses propres masques, afin de permettre aux salariés de maintenir la production et à l’entreprise de continuer son activité.
Elizabeth Ducottet, PDG de Thuasne, s’est confiée à Techniques de l’Ingénieur quant à cette période très particulière, et qui perdure aujourd’hui, même si le confinement strict est terminé.
Yves Valentin : Trois mois après la fin du confinement, quelle est la situation aujourd’hui au sein de l’entreprise Thuasne ?
Elizabeth Ducottet : La crise sanitaire est encore bien présente. D’un confinement immobile, nous sommes aujourd’hui passés à un confinement mobile. Mais l’objectif reste le même : adopter toutes les mesures nécessaires pour ne pas accroître cette pandémie. Il faut donc, pour chacun d’entre nous, rester dans une démarche de protection, pour soi et pour les autres. Nous sommes toujours dans une crise sanitaire sans précédent, et nous ne savons pas du tout comment la situation va évoluer : aujourd’hui, notre quotidien, c’est l’incertitude. Il faut apprendre à vivre avec, sans pour autant en faire un fantasme négatif qui nous crispe et nous paralyse. Il faut au contraire considérer la situation actuelle comme notre nouvelle réalité, à laquelle il nous faut nous adapter, sans arrêter de vivre. C’est le plus important.
Comment avez-vous vécu la période de confinement ?
Cette première étape de la crise, nous l’avons vécue de manière très intense, en la gérant relativement bien, même si cela fut périlleux, avec une perte de chiffre d’affaires inévitable.
D’un seul coup, quand la crise du coronavirus a éclaté, les pharmacies, les médecins, se sont concentrés sur des missions hors de notre champ d’activité. D’un seul coup également, avec le confinement de la population, les accidents – entorses, fractures… – ont drastiquement diminué, et notre activité s’en est donc retrouvée naturellement très impactée. Nous avons continué à répondre à la demande en ce qui concerne les maladies chroniques bien sûr, mais la répartition globale de la demande par rapport à notre activité a été totalement bouleversée, de manière très brutale.
Cela nous a obligé à nous adapter, « en live », à une situation que nous n’avions jamais connue. Par exemple, notre équipe de télévendeurs – 50 collaborateurs – a dû, en une journée, migrer vers du télétravail. C’est une transformation brutale, sans préparation, que nous n’imaginions pas possible, et à laquelle nous n’aurions pas songé sans y être contraints par la situation.
A cet instant, c’est sur des caractéristiques très particulières, absolument pas quantitatives, que nous avons dû nous reposer pour poursuivre l’activité : la personnalité des salariés, la solidarité, la notion d’appartenance à un groupe, l’efficacité collective… Toutes ces caractéristiques se sont d’un seul coup révélées indispensables pour nous permettre de surmonter le défi qui a été, et qui est toujours, face à nous.
Cela a-t-il renforcé la cohésion au sein de l’entreprise ?
C’est très probable. L’expérience commune que nous vivons depuis le mois de mars constitue un socle extrêmement fort pour l’entreprise. D’ailleurs, tous les séminaires de rentrée que nous préparons reviennent sur cette histoire récente. Il faut nous appuyer sur ce que nous venons de vivre pour cimenter la confiance collective acquise ces derniers mois. Le fait d’avoir surmonté cette crise nous donne aujourd’hui la conviction que quels que soient les défis qui nous attendent dans les mois qui viennent, nous saurons nous en sortir.
Cette résilience dont l’entreprise a fait preuve, et qui se retrouve beaucoup dans les entreprises de taille intermédiaire, est selon moi un atout très important pour toutes les ETI et qui comptera dans les mois qui viennent.
Faudrait-il plus d’ETI en France ?
C’est certain. Cette résilience, caractéristique des ETI, de part leur structure, a fait ses preuves. C’est à mon avis une des raisons pour lesquelles un pays comme l’Allemagne, où on trouve beaucoup plus d’ETI qu’en France, s’en sort aussi bien.
Très rapidement après l’annonce du confinement, Thuasne s’est attelé à la production de masques. Comment avez-vous géré cette bascule ?
Nous avions prévu d’équiper tous les salariés de masques afin de ne pas stopper la production industrielle. De toutes les manières, une entreprise comme la nôtre, qui évolue dans le secteur de la santé, ne peut pas se permettre d’arrêter sa production, tant la demande est quotidienne. Livrer l’après-midi les commandes reçues le matin est l’ADN de notre activité et une des raisons d’être de notre entreprise.
Dès le mois de janvier, en voyant ce qui se passait en Chine, en constatant les premiers cas en Europe, nous savions que la France n’échapperait pas à cette crise sanitaire. Nous avons donc commandé des masques afin de pouvoir continuer l’activité. Ces masques nous ont rapidement été réquisitionnés, le 1er mars, pour être redirigés sur la filière sanitaire, qui en avait plus que jamais besoin. Il fallait, ce qui est tout à fait normal, apporter aux médecins de quoi soigner, et aux malades de quoi se protéger.
C’est à ce moment que nous avons décidé, en tant qu’entreprise évoluant dans la filière textile, de fabriquer nos propres masques, avec notre savoir-faire et nos technologies : nous avons par exemple utilisé exclusivement des fibres dédiées à un usage médical, au standard Ecotex, pour fabriquer nos masques. Même si on ne peut pas parler de masque chirurgical au sens strict, nous avons appliqué à la fabrication de ces derniers tous nos standards habituels de fabrication de matériel médical, qui sont bien sûr très élevés. Il s’agit donc, en termes d’appellation, d’un masque grand public, mais c’est en réalité un produit aux performances très supérieures à celles requises. Trois types de masques que nous produisons aujourd’hui ont d’ailleurs fait l’objet de brevets.
Comment avez-vous opéré concrètement ?
Nos équipes d’ingénieurs se sont mises au travail immédiatement pour réaliser les premiers prototypes. Nous avons mis en place en interne un laboratoire d’essais, avec des outils de métrologie, pour être certains de savoir où nous allions et maîtriser les paramètres de qualité nécessaires : filtration, résistance, nombre de lavages… Nous voulions être certains de fournir un produit haut de gamme et assurant à ceux qui le portent la sécurité indispensable. D’ailleurs nous avons appelé ce masque « Security ».
Ainsi, dès l’annonce du confinement, nous savions que tous les collaborateurs de l’entreprise étaient en mesure d’être équipés de masques performants pour venir travailler. D’ailleurs, chez Thuasne, nous n’avons eu aucune problématique de refus de la part des employés par rapport au travail sur site. Tout le monde a continué le travail normalement. Cela a d’ailleurs constitué pour nous une première victoire, dans une période où l’incertitude était totale au niveau sanitaire.
Au-delà des collaborateurs de l’entreprise, la demande en termes de masques était alors criante sur tout le territoire. Comment avez-vous appréhendé cette situation ?
Nous avons continué à faire évoluer ces masques pour les améliorer. Nous avons travaillé sur le confort, l’épaisseur notamment… Et nous avons décidé d’équiper nos séniors, nos retraités, avec ces masques. Nombre de nos anciens salariés ne pouvaient pas s’en procurer, il paraissait donc naturel pour nous de les soutenir de cette façon.
Au vu de la demande, le ministère de l’Economie et des Finances nous a demandé d’équiper en priorité les entreprises. Il s’agissait, évidemment, de soutenir au maximum les entreprises pour ne pas figer l’outil industriel français. Nous avons donc équipé beaucoup d’entreprises, de grande, moyenne et petite taille en masques.
Naturellement, nous avons aussi équipé les pharmacies, puisque c’est là que réside principalement notre réseau de vente et de distribution habituel. Il ne faut jamais oublier que l’officine constitue le premier accès aux soins.
Quel a été le rôle de l’AFNOR durant cette période ?
Nous avons été en relation permanente avec l’AFNOR, qui effectuait alors un travail considérable de prise en compte des paramètres indispensables quant à la qualité des masques, avec les informations alors disponibles. Cette relation était très importante, car nous avons vu se développer à ce moment beaucoup d’initiatives d’entreprises visant à produire des masques dans la précipitation. Et il est probable que beaucoup des masques alors fabriqués n’étaient pas suffisamment performants et sécuritaires. L’AFNOR, qui n’avait pas la possibilité dans un laps de temps aussi court, de créer une norme dédiée, a mis en place de nombreuses spécifications. Cela nous a permis de produire des masques haut de gamme dont nous savions qu’ils répondaient aux exigences sanitaires.
Nous avons également fait partie d’un groupe d’entreprises qui a collaboré étroitement avec l’AFNOR pour développer ces masques, qui étaient ensuite envoyés à la Direction générale de l’armement (DGA), pour être testés par des équipes d’ingénieurs.
Au final cela a été un réel parcours du combattant, autant sur le plan industriel que sur le plan de l’affectation efficace des moyens de production. La demande était telle que chez Thuasne, tous les sites de production se sont retrouvés d’une manière ou d’une autre impliqués dans la fabrication de ces masques.
Revenons sur l’histoire de Thuasne. Comment l’entreprise est-elle passée du statut de simple fournisseur au départ à celui aujourd’hui de fabricant de produits technologiques à forte valeur ajoutée ?
Cette évolution a été décidée il y a longtemps. Mon grand-père, qui était un ingénieur textile, a très tôt développé une conviction profonde : pour être pérenne, Thuasne devait absolument développer un produit fini, sous marque, distribué et vendu dans des magasins spécialisés. Cette intuition s’est révélée prophétique, puisque toutes les enseignes concurrentes qui faisaient appel à des sous-traitants ont aujourd’hui disparu.
Aussi, il a fallu démontrer que les produits que nous développons avaient un effet thérapeutique réel et quel en était le principe actif. Mon grand-père, entre les deux guerres mondiales, a, avec l’aide de médecins américains, fait des essais thérapeutiques pour montrer l’intérêt de la contention veineuse, notamment en ce qui concerne le traitement des ulcères aux jambes. L’effet thérapeutique, dont le principe actif est donc physique – la contention – et pas chimique – comme c’est le cas pour un médicament – a fini par être démontré dans les années 2000. Cela fut un véritable parcours du combattant, qui a permis de valider le principe de la cicatrisation par compression. Après cela, mon grand-père a développé toute une gamme de bandes utilisant ce principe de compression. Ces bandes ont représenté l’essentiel de notre activité d’après-guerre. Plus tard, nous avons élargi ces usages pour développer, sur le même principe, des ceintures lombaires, des orthèses, puis plus récemment des bas de contention. Il est très important aujourd’hui de caractériser les principes actifs des dispositifs médicaux, et dans le cas d’un principe actif physique cela est encore plus complexe. Mais c’est cela qui permet de valider l’intérêt thérapeutique de nos produits et donc leur valeur ajoutée.
Est-ce ce positionnement haut de gamme qui vous a permis de produire principalement en France et ensuite en Europe ?
Dans un premier temps nous nous sommes positionnés en tant que breveteurs. Nous avons plusieurs dizaines de brevets actifs, autour de la compression veineuse, thoracique, articulaire… Plus récemment, nous sommes intéressés par la compression lymphatique, qui entre en jeu dans les cas de cancers du sein par exemple. Toutes ces innovations ont toujours été orientées vers les besoins des patients. C’est d’ailleurs encore aujourd’hui ce qui guide notre R&D.
On parle actuellement beaucoup de la réindustrialisation nécessaire du pays, en ce qui concerne les produits à forte valeur ajoutée. Quel est votre point de vue sur le sujet ?
Le déclin industriel de la France est incontestable. Pourtant les ingénieurs français sont parmi les meilleurs du monde, sinon les meilleurs. Ce sont les conditions d’exploitation de l’industrie qui ne sont pas réunies. Il faut continuer à se battre pour créer en France un écosystème fiscal qui soit plus favorable. C’est cela qui condamne notre industrie pour le moment, il faut absolument trouver les moyens pour baisser les impôts sur tout ce qui touche à la production. J’ai l’impression que le ministre Bruno Lemaire est sensible à cette question et que les choses vont évoluer dans le bon sens, même si la période actuelle complique les velléités de changement.
À côté de la problématique fiscale il y a, comme je l’évoquais, le chantier de la digitalisation de l’industrie, qui me paraît fondamental pour redresser l’industrie française et la rendre plus agile.
Nous sommes chez Thuasne dans un processus de digitalisation de nos activités. Nous achevons en ce moment l’automatisation d’un de nos ateliers à Saint-Etienne, et plus généralement nous croyons fortement au concept d’usine 4.0. Cela dit, il s’agit d’un gigantesque chantier à mener.
Etes-vous optimiste pour l’avenir de notre industrie ?
Il ne faut pas se voiler la face : nous n’échapperons pas à la mondialisation. Si nous ne parvenons pas à être compétitifs sur les prix que nous proposons au niveau international, nous serons en grande difficulté et notre industrie disparaîtra. Croire que nous parviendrons à créer des espaces confinés au sein desquels nous vendrons nos produits en dehors du marché mondial est à mon sens totalement illusoire.
Comment faire pour retrouver cette compétitivité au niveau international ?
Pour Thuasne, la compétitivité est un défi quotidien. Si on regarde le marché des orthèses par exemple, on trouve des produits extrêmement variés, sur le marché asiatique, sur les marchés mexicain, turc, portugais… La concurrence est partout. Pour continuer à exister sur ces marchés, il faut absolument, je le répète, qu’en termes de fiscalité de production nous soyons dans la moyenne européenne. C’est absolument indispensable, et ce n’est pas le cas aujourd’hui.
Pensez-vous que les compétences, les savoir-faire locaux, peuvent permettre à la France de retrouver un avantage compétitif sur certaines filières industrielles ?
Prenons l’exemple de Saint-Etienne. C’est une ville et une région où on trouve de très bons ingénieurs et qui a su s’organiser pour devenir un bassin du dispositif médical en France et même en Europe. C’est aujourd’hui un véritable cluster qui abrite donc également nos concurrents, et tout un savoir faire académique : en témoignent le laboratoire de biomécanique développé par l’Ecole des Mines et l’université de médecine de Saint-Etienne par exemple, qui sont des établissements de très bonne qualité.
Il faut que ces clusters qui existent et qui se sont rapidement solidifiés se pérennisent pour que les industries locales continuent à exister. Des pays comme l’Allemagne ou l’Italie misent beaucoup, depuis longtemps, sur ces savoir-faire locaux. Nous devons prendre exemple sur eux à ce niveau. Ces synergies académico-industrielles doivent être préservées et soutenues.
Ces synergies permettront-elles, selon vous, d’inverser la tendance française qui voit de plus en plus d’entreprises industrielles mettre la clé sous la porte ?
Quand on ferme une usine, on tue quelque chose. On ne la réouvre jamais. Les savoir-faire s’échappent, et il faut alors redémarrer, mais sur autre chose, différemment. Notre première préoccupation doit donc être de tout faire pour ne pas fermer d’usines. Créer des dynamiques locales pour faire émerger des filières performantes est une solution. Nous avons les atouts pour y parvenir.
Propos recueillis par Yves Valentin, directeur général de Techniques de l’Ingénieur, et Pierre Thouverez, journaliste.
Après avoir longtemps pêché par manque de moyens, la France rattrape son retard en matière de dépistage de la Covid-19. Au mois de septembre, la barre du million de tests par semaine a été dépassée, et atteint aujourd’hui 1,2 million, soit environ 170 000 par jour. Mais malgré cela, les files d’attente peinent à décroître. Ainsi, les patients attendent parfois de longues heures devant les laboratoires d’analyse avant de pouvoir se faire tester. Dans le même temps, le nombre de malades augmente.
40 millions de tests disponibles dès fin septembre
C’est dans ce contexte qu’arrivera sur le marché un nouveau test de dépistage développé par le groupe pharmaceutique suisse Roche. Il permettra de détecter la présence d’antigènes du SARS-CoV-2, le virus responsable de la Covid-19, chez toutes les personnes porteuses, qu’elles aient des symptômes ou non. Par voie de communiqué, la firme a annoncé que dès fin septembre « 40 millions de tests rapides SARS-CoV-2 seront disponibles chaque mois ». Cette capacité sera doublée d’ici la fin de l’année, afin de pouvoir répondre à la demande mondiale. Pour assurer cette distribution, Roche a conclu un partenariat avec la société sud-coréenne SD Biosensor Inc., elle-même spécialisée dans les tests de dépistage rapides.
À l’instar des tests PCR majoritairement employés actuellement, ce nouveau test permet un dépistage par prélèvement nasopharyngé. L’échantillon prélevé est mis au contact d’une bandelette dont le fonctionnement repose sur le principe de la chromatographie immunologique. « Si l’antigène cible est présent à des concentrations suffisantes dans l’échantillon, il se liera à des anticorps spécifiques et générera un signal visuellement détectable sur la bandelette de test, généralement avec des résultats prêts en 15 minutes » explique Roche.
Pouvoir différencier la Covid-19 de la grippe
Face à la recrudescence de cas positifs dans le département, le préfet des Bouches-du-Rhône, Christophe Mirmand, a annoncé un renforcement du nombre de dépistages quotidiens dans les prochains jours. « Nous sommes en train de préparer un plan pour multiplier les points de tests pour ceux qui sont prioritaires […]. Nous allons pouvoir acquérir avec l’aide la Région Sud un dispositif de tests rapides, avec des résultats en 15 ou 30 minutes » a-t-il déclaré le 14 septembre dernier. Par ces mots, Christophe Mirmand évoquait le futur recours aux tests prochainement commercialisés par Roche.
Grâce à la rapidité de diagnostic qu’ils permettent et à la non-nécessité d’un laboratoire, ces tests pourront être déployés dans de nouveaux centres de dépistages. Ainsi, Philippe de Mester, directeur général de l’ARS PACA a affirmé que ces tests antigéniques seraient mis « à disposition du bataillon des marins-pompiers pour faire face aux situations d’urgence ». Pour Thomas Shinecker, PDG de Roche Diagnostics, la capacité à dépister rapidement et efficacement la maladie sera essentielle dans les prochains mois, lorsque la saison grippale débutera. Selon lui, il sera « important de savoir si une personne est atteinte du SRAS-CoV-2 ou de la grippe pour assurer le bon traitement ».
Jean-Yves Ingea, ancien collaborateur chez Thales, est le co-fondateur de la start-up Heropolis, qui fournit à ses clients une solution sécurisée d’identification et de réponse aux risques.
C’est à l’occasion d’un hackathon impulsé par des salariés de Thales que Jean-Yves Ingea a eu l’occasion de présenter son projet, qui sera d’abord développé en interne, avant de prendre son envol en-dehors du groupe.
Techniques de l’Ingénieur : Pouvez-vous nous présenter la solution logicielle que propose Heropolis ?
Jean-Yves Ingea : Heropolis est une solution sécurisée d’identification et de réponse aux risques. Nous permettons aux utilisateurs de notre plateforme de couvrir, à travers cette application digitale le « qui », le « quoi » et le « comment » relatif à la gestion du risque. Je m’explique : le « qui » concerne les responsables et les personnels impliqués dans la sécurité et sûreté d’une Entreprise ou d’une Collectivité. La plateforme en SaaS permet de lister et catégoriser les ressources : qui intervient ? Dans quelle situation ? Avec quelles ressources ?…
L’équipe d’Heropolis, à la Digital Factoryde Thales
Le « quoi » : quel type de protection, de sécurisation nécessite le service attendu ? A cette fin nous avons développé sur la plateforme une matrice de gestion des risques types, de services à ouvrir en amont ou en aval, d’événements à gérer…
Enfin le « comment » : nous avons inventé un éditeur de procédures qui permet de bâtir visuellement n’importe quel type de logigramme de réponse à événement, en combinant des actions métier bien spécifiques. Sur le terrain, nous fournissons également une application mobile qui permet de communiquer, d’accéder à des ressources ou des services, et de recevoir des actions à réaliser.
Les avantages sont multiples : cela permet de soulager le superviseur sur le terrain, mais aussi de fournir aux agents les successions de tâches à accomplir, en temps réel. Cela répond concrètement à des problématiques de formation souvent complexes, puisque certains grands événements sportifs de 2020 (courses cyclistes) sur lesquels nous sommes prestataires, ou les prochains jeux olympiques par exemple, nécessitent beaucoup de personnels qu’il faut former rapidement.
Heropolis est une success story née d’un hackathon initié par des salariés de Thales. Comment cela s’est-il passé ?
Tout a en effet démarré par une initiative portée par quatre employés de Thales, qui ont organisé l’équivalent d’un hackathon, qu’ils ont appelé le « Make it up ». Il y a eu quatre éditions au total, dont la première en 2015. L’idée était de venir pitcher une problématique, puis de former son équipe et préparer une démonstration, le tout en 54 heures. Le but final étant de convaincre l’auditoire pour récolter des financements. J’ai donc participé à l’événement en décembre 2015. Nous étions peu de temps après les attentats du 13 novembre, et la problématique que j’ai défendue à l’occasion de ce « Make it up » était : comment réduire le temps d’acheminement des secours sur les lieux d’un drame ? Comment alerter quand on ne peut pas téléphoner ? Globalement, comment améliorer la chaîne des secours ?
C’est autour de cette problématique que j’ai fédéré mon équipe, et 54 heures plus tard je suis monté sur scène pour présenter notre travail. Ce que j’ignorais, c’est qu’une partie importante des membres du Comex était présente, et notamment le directeur général de Thales Communications & Security (TCS) de l’époque.
Dans la salle il y avait également Olivier Flous, futur directeur de la Thales Digital Factory et Gérard Herby, responsable chez Thales de la business line « systèmes de protection » (PRS, à Vélizy), et notamment des systèmes de protection et de sécurité urbaine. Je précise cela car ces personnes, qui étaient présentes dans la salle à ce moment-là se sont révélées plus tard importantes dans l’aventure Heropolis et travaillent avec nous encore aujourd’hui.
Comment s’est terminé ce hackhaton ?
Au bout de ce hackathon, il y a eu une remise de prix. Notre projet a été plébiscité, mais le plus important est que cela nous a permis d’obtenir des financements et du temps, environ une journée par semaine, pour se consacrer à la suite du projet.
A ce moment-là nous étions cinq collaborateurs à travailler sur le projet, et nous avons alors pu développer l’embryon de ce qui est plus tard devenu Heropolis. Nous avons, pendant une période de six mois, travaillé sur une seconde itération du projet. C’est ce mode de fonctionnement qui prévaut dans les grands groupes : une période de six mois durant laquelle on développe le projet, on le teste, on évalue son potentiel en termes de marché… et on décide soit de continuer, soit d’arrêter. Pour Heropolis, il y a eu trois cycles d’itération.
Dès le deuxième cycle d’itération, l’approche « premiers secours » que nous avions privilégiée a été revue, pour appréhender ces problématiques de gestion de la sécurité de manière beaucoup plus globale. Nous avons décidé d’aller vers des solutions touchant à la possibilité d’alerter des secours, c’était l’idée de départ. Mais nous avons élargi le champ d’application aux équipements des agents de sécurité, des agents municipaux, pour adresser cette problématique de la gestion de la sécurité et de la sûreté de manière beaucoup plus large.
A la troisième itération, nous avons eu ce qu’on appelle un « no go ». Thales a arrêté de financer le projet, qui aurait donc pu s’arrêter là. Nous n’étions pas en alignement avec les stratégies de marché de Thales communications à ce moment-là, pour des raisons conjoncturelles.
Que s’est-il passé après ce « no go » ?
Cela a finalement été un mal pour un bien. Nous nous sommes rapprochés d’Olivier Flous, qui venait de créer la Thales Digital Factory, et qui a proposé à Thales Communications & Security de nous récupérer au sein de cette nouvelle entité. Nous sommes alors en septembre 2017.
Décision est alors prise, par Olivier Flous, le directeur général de TCS et un membre du Comex de Thales d’extraire sur base de volontariat quatre des cinq collaborateurs impliqués depuis le départ, de les enlever de leur poste et de les placer à temps plein pendant six mois, au sein de la Digital Factory, sur le projet.
Nous nous sommes donc retrouvés dans une nouvelle phase, au sein d’un écosystème de start-ups, avec une accélération notoire du projet. Le fait d’être hébergés au sein de la Thales Digital Factory nous a permis de rencontrer beaucoup de personnes qui nous ont apporté les compétences, les idées, le réseau, pour passer à une autre échelle sur le développement d’Heropolis.
C’est à cette période par exemple que nous avons pu rencontrer Patrice Caine, le PDG de Thales, qui a été le premier à nous conseiller de diriger nos développements vers des applications de gestion de la sécurité pour les entreprises. A ce jour d’ailleurs, les entreprises constituent nos principaux clients.
En avril 2018, nous avons rompu nos contrats de travail avec Thales pour fonder concrètement l’entité Heropolis. Nous étions les fondateurs de l’entreprise, et Thales en était le premier actionnaire.
Etant aujourd’hui en-dehors du groupe Thales, poursuivez-vous une forme de collaboration avec le groupe ?
Aujourd’hui je n’ai pas de tout coupé les liens avec Thales. C’est un groupe dans lequel je me suis toujours bien senti, d’ailleurs encore aujourd’hui nous développons beaucoup de synergies entre Heropolis et Thales.
Quand je suis arrivé avec mon premier prototype d’Heropolis, j’ai pu sortir du périmètre pur de mon poste chez Thales pour m’ouvrir à d’autres compétences très diverses. Thales a fait preuve à ce moment-là d’une grande ouverture d’esprit en permettant d’aller chercher des compétences, au sein du groupe, sur la commercialisation, le design, plusieurs sujets nécessaires au développement d’Heropolis et sur lesquelles je devais acquérir des compétences rapidement.
Ensuite, l’intégration dans la Thales Digital Factory a permis à notre équipe une acculturation rapide au monde de l’innovation digitale, que ce soit sur les aspects techniques, la RGPD… Nous avons également, grâce à Thales, pu accéder à beaucoup de salons spécialisés pour rencontrer des interlocuteurs et développer notre carnet d’adresse. Nous avons également grâce à Thales bénéficié de nombreuses formations. Au final, nous avons bénéficié d’une sorte de « mentoring » interne tout au long des phases de développement du projet.
Jusqu’au 2 octobre, c’est le No Plastic Challenge, l’occasion de découvrir sur 15 jours 15 choix de consommation alternatifs ou des écogestes pour réduire la pollution plastique. À cette occasion, l’association publie un benchmark des solutions à la pollution plastique et microplastique qui recense les offres et solutions croissantes permettant de réduire à la source la pollution plastique. Objectif : revenir à un usage raisonné du plastique et rompre avec l’usage unique et le suremballage.
L’emballage représentant 45 % du plastique utilisé en France, le vrac, le « do it yourself » (DIY) et le réemploi sont des voies privilégiées pour réduire l’utilisation du plastique. Le benchmark des solutions dégage des tendances majeures et identifie 300 solutions et produits « low tech » et « tech », majoritairement des produits de grande consommation. Quelques solutions BtoB sont toutefois incluses. Ces solutions sont centrées sur la réduction et le réemploi pour s’affranchir des modèles de la grande consommation et de l’emballage.
Le réemploi et les solutions lavables s’imposent
Afin de diminuer la consommation d’eau en bouteille, plusieurs solutions s’attachent à valoriser l’eau du robinet : machines à gazéifier, gourdes, solutions de filtration et fontaines. En entreprise, les fontaines à eau branchées sur le réseau avec des carafes en verre peuvent désormais être associées à des solutions pour laver les verres, à l’instar du lave-verre Auum qui nettoie les verres en 5 secondes. Pour la machine à café, il existe aussi des gobelets réutilisables avec le service de nettoyage Clean Cup et Newcy.
Outre les démarches personnelles, les systèmes de consigne pour la vente à emporter et les boissons, ainsi que les concepts de recharge se développent. En parallèle des systèmes de consigne désormais bien connus pour les gobelets lors des festivals, de nouvelles offres émergent pour accompagner la vente de cafés ou boissons à emporter. Ces solutions organisent la récupération et le lavage des gobelets. Le retour se fait dans les cafés partenaires ou via des collecteurs situés dans des zones fréquentées. C’est par exemple la solution Milubo. Des solutions existent aussi pour la vente à emporter et la livraison de repas dans de la vaisselle consignée réutilisable. Les idées foisonnent en France. Parmi elles, En boîte le plat engage une trentaine de commerces à Toulouse dans un système de boîte en verre consignée à 5 €, récupérée et lavée.
Côté BtoB, des initiatives permettent le réemploi, notamment pour les parties logistique et e-commerce. Des entreprises comme Brambles, Euro Pool Group, IFCO ou encore Pandobac proposent de réutiliser palettes, containers, bacs et caisses. En parallèle, des systèmes d’emballage réutilisables et consignés se développent pour le e-commerce. C’est par exemple le cas des solutions Opopop et Hipli.
La substitution du plastique par d’autres matériaux donne par ailleurs lieu à de nombreuses innovations, notamment par les acteurs du secteur papier/carton. D’autres solutions se développent face à des sources de pollution plastique majeures : les mégots, les filets de pêche, l’usure des pneus ou des sols synthétiques et les microplastiques dans les produits de soins, détergents et peintures.
L’activité d’innovation vise principalement à créer, améliorer et renouveler des offres de biens, services et façons de faire ; elle est au service de la stratégie de l’entreprise et peut être déployée par différentes approches et processus de management en fonction des objectifs visés.
Les stratégies d’expansion par l’innovation se concrétisent souvent par des projets d’innovation peu risqués et à moindre coût, permettant de maintenir ou/et de renforcer un avantage compétitif, surtout sur les marchés de biens de consommation arrivant à maturité. L’amélioration et la diversification de l’offre des biens et services participent à la fidélisation des clients, et les incitent à renouveler et varier leurs achats. Pour ce faire, l’entreprise se doit de rester en prise avec les éventuels changements de valeur perçus par les clients, et être capable de mobiliser des savoirs essentiellement nouveaux ou recombinés.
En fonction de la taille des entreprises, la sélection des projets d’innovation se fait soit par la personne dirigeante, soit par un comité d’innovation composé de responsables de la stratégie. Certaines entreprises font appel à des experts reconnus pour leur capacité à explorer les futurs possibles des marchés et des technologies.
Les responsables de la stratégie de l’entreprise analysent les documents qui ont été établis par le porteur d’un projet d’innovation ou d’un groupe de travail. Ils peuvent demander au porteur du projet (groupe de travail) de venir exposer un argumentaire (une dizaine de minutes suffit). Ils doivent ensuite évaluer les projets d’innovation.
Fixer les modalités d’évaluation relève donc de la responsabilité du sommet stratégique de l’entreprise. Ce n’est pas tâche facile car il faut :
– déterminer la nature des critères d’évaluation et la façon de les mesurer ;
– réfléchir au mode de production du résultat d’évaluation.
Chaque projet d’innovation candidat est d’abord évalué séparément, puis comparé aux autres projets candidats et aux projets en cours de réalisation ; le problème étant que le budget dédié à l’ensemble des projets d’innovation n’est généralement pas extensible, car fixé lors de la mise en œuvre de la stratégie. On comprend pourquoi de plus en plus d’entreprises tentent de recourir à des financements externes pour innover.
Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 7 octobre 2020 !
Olivier Leclerc est en charge de l’intrapreneuriat chez Safran, au sein de la direction de la R&T et de l’innovation.
Pour Techniques de l’Ingénieur, il a accepté d’évoquer la naissance et les raisons d’être de cette démarche très innovante mais complexe à mettre en place, dans un groupe au rayonnement international, composé de plusieurs dizaine de milliers de salariés.
Techniques de l’Ingénieur : Depuis deux ans, Safran a lancé un programme d’intrapreneuriat. Comment a été initiée cette démarche ?
Olivier Leclerc : Nous avons lancé cette démarche d’intrapreneuriat pour les 90 000 collaborateurs du groupe en novembre 2018. Aujourd’hui, nous sommes donc sur le point de terminer la deuxième saison, et les projets retenus pour cette seconde édition seront présentés dans les jours qui viennent.
Olivier Leclerc est en charge de l’intrapreneuriat chez Safran, au sein de la direction de la R&T et de l’innovation
Cette démarche d’intrapreneuriat, pour Safran, s’est mise en place avec trois objectifs prioritaires. Tout d’abord, nous visons la création de valeur : développer de nouveaux revenus, investiguer des marchés nouveaux adjacents à l’activité du groupe.
Deuxièmement, il y a un enjeu de transformation culturelle : nous voulons montrer que l’on peut travailler et innover autrement, en développant plus d’agilité notamment.
Le troisième objectif a trait aux talents : comment les retenir, mais aussi comment les détecter, en adoptant une grille de lecture innovante par rapport à ce que l’on fait d’habitude.
C’est ce troisième point qui a été le déclencheur pour la mise en place de la démarche d’entrepreneuriat chez Safran il y a deux ans.
Quel était votre constat par rapport à la gestion des talents que vous évoquez ?
Chez Safran, nous sommes depuis un certain temps dans une phase où beaucoup de collaborateurs vont terminer leur carrière dans les années qui viennent et nous quitter. C’est pour cela que Safran recrutait beaucoup – avant la crise du Covid-19 – et continue à recruter : la question s’est donc posée de savoir comment rester attractifs pour recruter les meilleurs ingénieurs, les meilleurs talents. Cette démarche d’intrapreneuriat s’inscrit dans ce contexte.
Comment s’est déroulée la première saison du programme ?
La première saison de notre programme d’intrapreneuriat s’est concentrée sur les collaborateurs travaillant dans la zone France/Europe. Depuis cette année et la deuxième saison, le programme s’est étendu à l’ensemble des collaborateurs à travers le monde. Nous ne disposons pas encore du recul nécessaire pour évaluer l’adhésion des collaborateurs à la démarche. Pour avoir développé le même type de programme dans une autre industrie, je pense qu’il faut attendre au moins 6 à 7 saisons pour commencer à tirer des conclusions sur l’efficacité de ces démarches d’intrapreneuriat et évaluer leur pertinence.
Pour ce qui est de Safran, la démarche ne touche aujourd’hui pas encore tous les collaborateurs, nous sommes toujours dans une phase d’apprentissage.
Comment sont sélectionnés les programmes accélérés par Safran ?
Nous avons mis en place un processus de sélection en « entonnoir » : concrètement, nous commençons par faire des appels à projets, auxquels peuvent répondre tous les collaborateurs en proposant des solutions pouvant être mises en place sur une échéance de deux à cinq ans. Cela exclut de facto des sujets de recherche plus fondamentaux ou techniques, pour lesquels les timings de mise en place et de développement sont beaucoup plus longs.
A la suite de cela, nous passons en revue l’ensemble des projets proposés pour en retenir une douzaine.
Un représentant senior de chacune des sociétés du groupe compose nécessairement l’équipe du jury de sélection.
Le porteur de projet va pouvoir présenter son projet devant le jury mais également devant l’ensemble des collaborateurs, puisque la présentation est filmée. Cela permet également au jury de découvrir la personne qui présente le projet, évaluer sa capacité à le porter jusqu’au bout. Enfin, cela donne l’opportunité au porteur de projet de convaincre en interne, afin de former une équipe pluridisciplinaire qui in fine développera le projet.
Quelle est la suite du processus ?
Après cette première phase, les équipes sélectionnées ont un mois pour chercher et trouver, au sein de l’entreprise, les compétences dont ils ont besoin pour mener leurs projets à bien. Le but étant pour ces derniers de convaincre des collaborateurs et former une équipe de quatre personnes.
Une fois ces douze équipes constituées, elles repassent devant un jury qui va en sélectionner sept. A partir de là, ces sept équipes vont avoir quatre mois pendant lesquels nous allons leur proposer des formations, de l’accompagnement, afin de leur permettre de développer un véritable plan d’affaires autour de leur projet.
Pendant ces quatre mois, les collaborateurs constituant ces équipes développent ces projets en plus de leur travail « normal » chez Safran. À la fin de cette période, les équipes repassent de nouveau devant un jury pour présenter leur plan d’affaires.
Quels sont les critères de sélection du jury durant cette phase du projet ?
Trois conditions doivent être réunies pour que le projet passe à l’étape suivante : d’abord, il faut être convaincu que le plan d’affaires est intéressant. Ensuite, Il y a au moins une des business unit de Safran intéressée par le développement et l’industrialisation de la solution. Enfin, une partie significative des membres de l’équipe a envie de continuer à travailler sur le projet.
Si ces trois conditions sont remplies, le projet intègre alors notre accélérateur interne et les équipes le constituant travaillent à 100% sur le projet, pendant une durée de un à trois ans.
Nous rendons cela possible en proposant à ces équipes une mobilité interne : les collaborateurs quittent la business unit à laquelle ils étaient rattachés, et deviennent salariés de Safran SA, avec une fiche de poste « intrapreneur ».
Quels ont été les programmes retenus lors de cette première édition ?
Sur la première saison, parmi les sept équipes qui ont présenté leur business plan, le jury a sélectionné deux projets qui ont depuis intégré notre accélérateur.
Le premier projet a trait au développement d’une technologie innovante pour faire de la fonderie aluminium, dans le but de sécuriser l’approvisionnement de pièces rares produites en petites séries.
Le second s’attache à fournir des services d’analyse de conditions des pistes d’atterrissage en temps réel pour les aéroports. Ce dernier projet constitue quelque chose d’assez nouveau pour Safran, puisque nous n’avons pas à l’heure actuelle parmi nos clients des aéroports.
Quels sont les liens entre le programme d’intrapreneuriat et les secteurs R&D chez Safran ?
Il y a forcément un lien entre les secteurs R&D et l’intrapreneuriat, de manière native si je puis dire. Après, les projets développés en intrapreneuriat ont une spécificité qu’on ne retrouve pas forcément sur la R&D, au niveau du timing de la mise en application, qui s’étale sur trois à cinq ans.
Aussi, sur les projets d’intrapreneuriat, on va chercher à évaluer très rapidement l’appétence du marché, des clients pour la solution que l’on veut développer. En R&D, c’est plutôt l’inverse qui est fait. Il y a donc une certaine complémentarité qui se met en place.
La crise sanitaire que nous vivons depuis le mois de mars conforte t-elle cette volonté d’aller vers plus d’agilité via l’intrapreneuriat ?
Il est certain que les arguments développés à la genèse du programme et que j’ai évoqués tout à l’heure, à savoir le développement d’une nouvelle agilité, d’une manière d’innover différente, trouvent dans la crise sanitaire actuelle un écho particulier. Même si évidemment nous nous serions bien passés de cette crise, les problématiques nouvelles qu’elle draine sont en partie adressées par le programme d’intrapreneuriat mis en place depuis deux ans, en effet.
Née de la fusion en juin 2020 de deux acteurs majeurs dans la fourniture de plateformes en SaaS pour l’innovation collaborative, Ayno et MyCrowdCompany, l’entreprise Yumana fournit aujourd’hui à ses clients, entre autres, des solutions digitales pour gérer les dispositifs d’intrapreneuriat.
Céline Degreef, CEO de Yumana
Céline Degreef, CEO de Yumana, a répondu aux questions de Techniques de l’Ingénieur sur la mise en place de ces dispositifs dans les grandes entreprises : enjeux pour les différents secteurs de l’entreprise, pour la gestion de leurs collaborateurs… Mais aussi évolution des méthodes de travail, de l’innovation : l’intrapreneuriat fait évoluer les groupes qui choisissent d’y recourir.
Techniques de l’Ingénieur: Quels services propose Yumana à ses entreprises clientes ?
Céline Degreef : Nous fournissons à nos clients une plateforme clé en main qui leur permet de développer des dispositifs d’intrapreneuriat mais également d’innovation collaborative. Les dispositifs d’intrapreneuriat sont les plus ambitieux mais aussi les plus complexes à gérer pour une entreprise.
Nous travaillons avec des entreprises de tous secteurs confondus. Parmi elles, il y a plusieurs grands groupes qui utilisent notre plateforme pour gérer leur dispositif d’intrapreneuriat. Dans un groupe comme Safran par exemple, notre plateforme qui supporte le programme d’intrapreneuriat réunit environ 90 000 collaborateurs.
Quelles sont les attentes des grands groupes qui développent l’intrapreneuriat par rapport à l’utilisation de plateformes collaboratives d’innovation ?
Deux choses sont très attendues de cette plateforme : d’abord, le fait de pouvoir proposer des idées. Ensuite, une fois qu’une idée est sélectionnée, la plateforme va permettre d’identifier des sponsors, de faire des appels à financement, et d’accélérer les projets en ciblant les collaborateurs motivés et aptes à s’investir.
Quelles seront les différences au niveau de la plateforme selon le nombre de collaborateurs concernés par son utilisation ?
En fonction de la taille de nos clients, l’approche n’est pas du tout la même. La solution que nous proposons est digitale, elle est ensuite paramétrée en fonction des besoins spécifiques du client. C’est fondamental : la taille de l’entreprise, mais aussi ses attentes par rapport à l’outil développé, ses objectifs en termes d’innovation, de gestion RH… Cela dépend vraiment des objectifs du client. Pour Safran par exemple, la volonté est d’être disruptif : cela favorise l’émergence d’idées et de projets qui sont totalement en-dehors du corps de business de l’entreprise.
Pour d’autres entreprises, la volonté sera de rester sur de l’innovation incrémentale : comment développer de nouveaux services avec les outils déjà présents au sein de l’entreprise, par exemple, dans le but d’améliorer l’existant.
Vous preniez l’exemple de Safran. Est-ce que cette volonté de faire émerger des idées disruptives est quelque chose que l’on retrouve de plus en plus au sein des grands groupes industriels ?
Pas forcément. Cela va vraiment dépendre de leur stratégie sur tout ce qui touche à l’innovation. Safran n’a défini aucune thématique pour orienter les collaborateurs sur certaines idées structurantes. Ils ont fait le choix de rester totalement ouverts.
Plus généralement, l’entreprise cadre les réflexions et les idées des collaborateurs en fournissant des axes de travail, en lien avec la stratégie de l’entreprise, des problématiques spécifiques à résoudre…
Cela a aussi trait à la gouvernance de l’entreprise : à quel point veut-on laisser les collaborateurs s’exprimer, par exemple. Toutes ces données sont fondamentales pour que nous puissions développer une plateforme cohérente et efficace. Il est indispensable pour nous de bien comprendre comment l’entreprise veut utiliser l’outil et pour quelles finalités.
Un secteur comme l’industrie est-il plus adapté que d’autres au développement de plateformes d’intrapreneuriat ?
Pas forcément. Cela dépend en fait vraiment de la culture de l’entreprise. Dans des groupes comme LVMH ou Richemont par exemple, il y a une culture entrepreneuriale qui permet de faire émerger beaucoup de nouvelles idées de projets. Ce foisonnement est encouragé par le top management, il est dans l’ADN de l’entreprise. Dans d’autres entreprises, s’il n’y a pas de cadre, les collaborateurs vont avoir beaucoup plus de difficultés à s’approprier l’outil et à proposer de nouvelles idées. Cela peut même se révéler contre-productif. C’est pour cela qu’il est très important pour nous de bien appréhender la culture de l’entreprise et le contexte dans lequel on va développer des outils d’intrapreneuriat. C’est grâce à cette analyse que nous pouvons proposer un service adapté aux besoins de l’entreprise cliente.
Nous prenons aussi en compte le cycle de vie de l’innovation, qui varie selon les secteurs d’activités. Pour reprendre l’exemple de Safran, nous pouvons être amenés à développer des projets d’innovation qui peuvent durer une dizaine d’années. Dans des secteurs comme le retail, pour des grandes entreprises comme LVMH par exemple, les cycles sont beaucoup plus courts. Cela fait partie des paramètres à prendre en compte.
Peut-il y avoir une forme de collaboration entre le secteur R&D d’une entreprise et l’activité d’intrapreneuriat ?
Dans certains secteurs d’activités, la R&D est un moteur très puissant pour l’entreprise. Dans ce cas, on voit plutôt se développer des programmes d’intrapreneuriat orientés sur des périmètres disjoints de ceux de la R&D, afin de ne pas créer de potentielles tensions. Ceci dit, on trouvera aussi des entreprises au sein desquelles un porteur d’idée issu du programme intrapreneurial va collaborer avec un département R&D au sein de son entreprise pour développer son projet. C’est ce qui s’est passé chez Thales, à l’occasion de la création de la Digital Factory. Le groupe a décidé d’investir massivement pour accélérer l’innovation et la transformation numérique, en créant plusieurs entités à travers le monde afin d’incuber des startups du numérique et les accélérer, entre autres. Cependant, cet investissement ne remet pas en cause l’activité R&D préexistante sur le numérique au sein du groupe. D’ailleurs, les projets qui sont sélectionnés pour être passés au moule de la Digital Factory, s’ils sont validés, vont ensuite être réintégrés chez Thales dans une business unit du groupe. Cet exemple illustre aussi ce que l’intrapreneuriat permet en termes de timing. En multipliant les projets et en les testant rapidement, l’intrapreneuriat offre une agilité qu’on ne retrouve pas au niveau de la R&D, où les projets sont conduits sur du plus long terme. Il y a un aspect très complémentaire qui permet de manager l’innovation de manière différente.
Pour une entreprise, quels vont être les grands enjeux liés au développement de l’intrapreneuriat ?
Il y a deux grands enjeux quand on lance un programme d’intrapreneuriat. D’abord un enjeu RH : comment garder les talents ? Comment leur proposer une autre façon de collaborer ?
Le second enjeu, bien sûr, est économique : comment développer de nouveaux business models, de nouveaux services, de nouveaux produits. Selon moi, il faut retrouver ces deux enjeux dans un programme d’intrapeneuriat. Si l’on choisit de ne se concentrer que sur l’aspect RH, cela traduit une certaine tendance à ne pas être très orienté sur le résultat. En cas de crise, le programme d’intrapreneuriat sera souvent arrêté, faute d’enjeu financier. Si à l’inverse c’est le prisme business sur lequel le programme se concentre, dans ce cas l’intrapreneuriat n’est pas forcément l’outil adapté : la croissance externe, les alliances ou la recherche de partenaires externes paraissent être des moyens d’actions plus efficients.
Quel taux de participation des collaborateurs observez-vous sur les plateformes collaboratives installées chez vos clients ?
Un de nos clients, une entreprise qui emploie 145 000 collaborateurs à travers le monde, présente un taux de participation qui est d’environ 10%. C’est très élevé. Cela traduit le fait que dès qu’un appel à idée est lancé sur la plateforme, il y a beaucoup de foisonnement, de propositions… Comme je le disais tout à l’heure, pour les entreprises comme LVMH où Richemont par exemple, ce dynamisme et cette culture de l’innovation font partie de leur ADN. Il n’est donc pas surprenant de constater que les collaborateurs participent de manière importante.
Mais le taux de participation n’est qu’un indicateur parmi d’autres. L’avantage de la plateforme pour les salariés est qu’elle leur permet également de se positionner sur des projets de leurs choix selon leurs envies, leurs compétences… Aussi les collaborateurs ont la possibilité de mettre en avant sur la plateforme leurs propres compétences, ou des thématiques sur lesquelles ils ont envie de s’investir. C’est une manière assez innovante pour les salariés de se valoriser au sein de l’entreprise.
Est-ce que les démarches d’intrapreneuriat initiées par les entreprises, notamment via des plateformes comme celle proposée par Yumana, ont tendance à limiter les départs de collaborateurs désireux d’entreprendre par eux-mêmes ?
Dans certains cas, des projets sont sélectionnés par le programme d’intrapreneuriat, accélérés puis arrêtés à un moment, pour une raison ou pour une autre. Si le porteur du projet veut continuer à travailler dessus, il peut être amené à quitter l’entreprise. Cela arrive. Mais plus globalement, j’aurais tendance à dire que les collaborateurs ayant une âme d’entrepreneur, auront tendance à quitter l’entreprise de toute façon, un jour ou l’autre, pour se lancer. Pour ces derniers, le fait qu’il y ait ou pas un programme d’intrapreneuriat ne change pas la donne. Par contre, pour ceux qui n’ont pas forcément envie d’assumer tous les risques liés à l’entreprenariat, l’intrapreneuriat est une solution très pertinente. Il y a un confort certain à rester salarié, tout en développant des projets innovants via l’intrapreneuriat : la possibilité d’être sponsorisé, de profiter des compétences de l’entreprise, l’accompagnement RH, la puissance d’une grande structure…
Enfin, il y a aussi la gestion de l’échec : un projet qui échoue n’a pas les mêmes répercussion selon que l’on est intrapreneur ou entrepreneur. La faculté à se relever, pour l’intrapreneur, est bien plus importante. Du coup, il est beaucoup plus facile pour lui par la suite de passer à autre chose et de repartir dans un processus de création de projet, avec plus d’expérience. Cette résilience est plus difficile à maintenir pour les entrepreneurs.
Quelles sont les prochaines étapes pour l’intrapreneuriat ?
Nous sommes aujourd’hui à la croisée des chemins : les programmes d’intrapreneuriat lancés par des grands groupes, il y a quelques années, font l’objet d’un suivi quant à leurs résultats. On commence à avoir un recul suffisant pour évaluer ce que ces programmes apportent aux entreprises, autant d’un point de vue RH que d’un point de vue business. Ce qui est certain aujourd’hui, c’est que le soutien du top management quant à la démarche d’intrapreneuriat est fondamental. Sans cela, le dispositif dans son ensemble reste tributaire d’aléas qui le fragilisent.
L’avion zéro émission carburera à l’hydrogène pour Airbus. L’entreprise vient de dévoiler trois concepts d’avion préfigurant le premier avion commercial zéro émission au monde. Trois concepts qui permettront d’explorer différentes pistes technologiques et configurations aérodynamiques. Nom de code de ces concepts : « ZEROe », pour « zéro émission ». Sa feuille de route prévoit un premier démonstrateur au sol en 2021, un vol de démonstration en 2023 et la sélection de la technologie d’ici 2024.
Airbus estime que l’hydrogène est la solution la plus prometteuse comme carburant aéronautique pour atteindre les objectifs de neutralité climatique. Remplacer le kérosène par l’hydrogène demande toutefois de repenser l’architecture de l’avion. En effet, l’hydrogène demande un volume de stockage quatre fois plus grand que le kérosène pour fournir la même énergie. En plus, il nécessite d’être refroidi à près de -253°C pour être liquide.
Un turboréacteur, un turbopropulseur et un fuselage intégré
L’hydrogène peut directement être utilisé dans une turbine à gaz modifiée ou être converti en électricité grâce à une pile à combustible. Airbus prévoit d’allier ces deux solutions sur ses avions. Ainsi, un premier concept de turboréacteur pouvant embarquer entre 20 et 200 passagers imagine une turbine à gaz modifiée fonctionnant à l’hydrogène. Il serait capable d’effectuer des vols intercontinentaux de plus de 3 500 km. Les réservoirs d’hydrogène liquide sont situés derrière la cloison étanche arrière.
Le deuxième concept de turbopropulseur serait capable d’embarquer jusqu’à 100 passagers. Son moteur turbopropulseur serait également alimenté par la combustion d’hydrogène dans des turbines à gaz modifiées. Il serait capable de parcourir plus de 1 800 km.
Le dernier concept repense complètement l’architecture de l’avion afin d’offrir de multiples possibilités pour le stockage et la distribution d’hydrogène. Son fuselage intégré permettrait d’embarquer jusqu’à 200 passagers et repense l’aménagement de la cabine. Il pourrait également parcourir près de 1 800 km.
Airbus dévoile ses trois avions concept zéro émission. PHOTO//Airbus
« Nous avons 3 architectures d’avion différentes, mais il est trop tôt pour prédire laquelle sortira gagnante », prévient Jean-Brice Dumont, directeur de l’ingénierie chez Airbus. L’entreprise souhaite jouer le rôle de chef de fil pour la transition de l’écosystème aéronautique. Avec l’hydrogène, les aéroports auront par exemple besoin de nouvelles infrastructures de transport et de ravitaillement pour répondre aux besoins des opérations quotidiennes.
Pour nombre d’entreprises françaises, l’année 2020 marquée par la crise sanitaire liée à l’épidémie de coronavirus a été synonyme d’activité ralentie. Le confinement et l’arrêt de l’importation des matières premières venues d’Asie ont grandement contribué à ce ralentissement. Au printemps dernier, Techniques de l’Ingénieur s’était entretenu avec Jean-Guilhem Darré, délégué général du Syndicat des Indépendants (SDI). Il avait évoqué les espoirs de relocalisation, la compétitivité de la France et le risque de voir des faillites survenir. Quatre mois après le « déconfinement », Jean-Guilhem Darré s’exprime à nouveau.
Techniques de l’Ingénieur : De manière générale, comment se portent les entreprises aujourd’hui ?
Jean-Guilhem Darré – (c) SDI
Jean-Guilhem Darré : La réponse n’est pas simple. Sur le terrain, le moral et la motivation sont toujours présents. Mais la problématique que l’on rencontre aujourd’hui, c’est qu’on a eu entre deux et trois mois d’absence totale d’activités. Il y a eu énormément de charges courantes dont le paiement a été reporté, d’avril à août. Cela concerne les loyers commerciaux, les charges sociales, ou encore les remboursements des emprunts, dont les mensualités avaient été suspendues par les banques jusqu’en septembre. Et vers mars-avril 2021 s’ajouteront à ces charges les remboursements des prêts garantis par l’État (PGE).
Peut-on s’attendre à une rapide amélioration de la situation ?
Actuellement, les entreprises entrent dans une zone rouge. Cela s’explique par le fait que les aides qui ont été mises en place pendant la période de confinement et les mois supplémentaires ont été stoppées. Et le plan de relance n’est pas encore arrivé. Ce dernier n’arrivera pas avant le vote du projet de loi de finances pour 2021, qui aura lieu au début de l’année prochaine. Les entreprises se retrouvent donc dans une période d’entre-deux. Durant les six prochains mois, il n’y aura pas d’élément concret qui permette de relancer l’activité. Les entreprises se retrouvent aujourd’hui confrontées à un mur de dettes qu’elles pourraient peiner à solder. Cela sera particulièrement difficile pour les secteurs qui ont le plus souffert durant les dernières semaines.
Les sociétés de l’industrie font-elles partie des structures les plus en difficultés ?
Le secteur industriel a enregistré des pertes assez importantes, à hauteur de 10 %. La bonne nouvelle, c’est que peu de sociétés ont fermé leurs portes. Cependant, parmi celles qui l’ont fait, la proportion de PME est importante. Actuellement, l’industrie est en souffrance.
Les faillites risquent-elles d’accélérer dans les prochains mois ?
Le risque de voir des faillites en cascade est présent. A priori, les 550 000 entreprises qui ont sollicité un PGE devraient pouvoir subsister. Selon les informations communiquées par la Banque de France, les 120 milliards d’euros issus des PGE n’ont globalement pas encore été utilisés. Par conséquent, on est plutôt sur de l’épargne de précaution, comme le feraient les particuliers. Reste à savoir comment ces sommes seront utilisées durant les prochains mois. Il semble peu probable qu’elles servent à investir. Peut-être seront-elles employées pour payer les dettes dont nous parlions précédemment.
Les entreprises sont-elles exposées à d’autres facteurs de risques ?
La reprise de la cotation des entreprises à partir du mois de septembre, effectuée par la Banque de France, pourrait également mettre les sociétés en difficulté. L’indice de solvabilité des entreprises pourrait se retrouver impacté négativement. Par conséquent, certaines entreprises pourraient rencontrer de plus grandes difficultés pour accéder aux prêts bancaires et aux assurances de crédit. Les trois milliards d’euros prévus dans le plan de relance pour assurer le renforcement des fonds propres risquent de ne pas être suffisants. Et un manque de solvabilité risque de faire fuir les fournisseurs.
L’espoir de voir des unités de production relocalisées est-il toujours d’actualité ?
La relocalisation dépendra de décisions économiques et industrielles. Deux éléments peuvent amener à relocaliser. Premièrement, le souhait d’avoir une chaîne de production raccourcie, ce qui aurait un retentissement écologique. Deuxièmement, dans le cadre du plan de relance, les impôts de production vont être divisés par deux. Cela représentera 10 milliards d’euros d’économies par an à partir de 2021, et soulagera largement les entreprises industrielles. Les PME, les ETI [entreprises de taille intermédiaire, NDLR], et les grandes entreprises profiteront de cette mesure. En revanche, cette disposition ne touchera les TPE que dans une moindre mesure.
D’autres mesures de soutien sont-elles prévues par l’État ?
Les PME et les ETI pourront également profiter d’une autre mesure : le renforcement de leurs fonds propres. L’intérêt est de ne pas pénaliser leur capacité d’investissements. Ce dispositif fait également partie du plan de relance.
L’intrapreneuriat permet aux salariés de développer des projets innovants – du début à la fin – au sein d’une entreprise, en parallèle de leur travail. Qu’est-ce qui pousse aujourd’hui une grande entreprise, employant plusieurs milliers de salariés, à développer des dispositifs d’intrapreneuriat ?
Pour les grands groupes – industriels, informatiques, services… – une problématique devient de plus en plus prégnante depuis plusieurs années : retenir les talents. Et les jeunes talents en particulier. Ces derniers sont de plus en plus sensibles aux possibilités que leur offrent les entreprises pour s’épanouir professionnellement et accompagner les démarches innovantes. Selon une étude réalisée par Allianz France/ Ifop, réalisée en mars 2019, près de 67% des étudiants affirment que les entreprises ayant développé un programme d’intrapreneuriat attirent plus leur attention. 58 % d’entre eux se disent même motivés pour intégrer de tels dispositifs après leur embauche. On le voit donc, l’intrapreneuriat permet aux entreprises d’offrir un écosystème favorable pour retenir les talents dans l’entreprise.
Le salariat n’est plus une fin en soi
Ces talents, qu’ils soient cadres, ingénieurs, chercheurs, n’ont pas les mêmes attentes que leurs aînés. Le salaire ne constitue plus aujourd’hui l’alpha et l’omega pour concrétiser un projet de carrière. La possibilité de travailler sur des projets variés, innovants et ayant des finalités à court et moyen termes sont aujourd’hui des critères décisifs. Car c’est aussi cela que les dispositifs d’intrapreneuriat permettent : envisager l’innovation au sein d’une entreprise, en opérant un pas de côté par rapport aux champs très spécifiques de la R&D. Dans une grande entreprise industrielle, le secteur R&D est stratégique : c’est là où l’avenir d’un groupe, sur les moyen et long termes, se joue en ce qui concerne le développement et l’innovation. Cette importance stratégique induit une certaine rigidité au niveau de la marge de manœuvre dont jouissent les collaborateurs qui y évoluent.
L’intrapreneuriat apporte, pour l’entreprise comme pour les collaborateurs, une alternative à ces contraintes, une respiration. D’abord sur le timing : les projets d’intrapreneuriat sont calibrés pour être sélectionnés et accélérés sur un laps de temps relativement court, 4 à 5 années au maximum. C’est une façon d’innover alternative par rapport à la stratégie globale des grands groupes, plus agile et résiliente, qui correspond parfaitement aux attentes des collaborateurs motivés pour entreprendre.
Déployer l’innovation en entreprise de manière plus agile
Pour l’entreprise aussi la démarche permet de développer une agilité nouvelle. En effet, selon la culture de l’entreprise et sa stratégie, les programmes d’intrapreneuriat vont permettre d’explorer et de favoriser l’innovation sur tous les secteurs de marchés connectés à l’activité de l’entreprise. Un déploiement de l’innovation plus agile donc, qui correspond également à la réalité du moment. La crise sanitaire que nous traversons a incité les entreprises, quelque soit leur taille, à favoriser – et à moyen terme instituer – la diversification de leur activité et le développement de leur résilience.
Business is business
Mais il ne faut pas s’y tromper : l’intrapreneuriat n’évolue pas dans une bulle à part au sein de l’entreprise. Les idées retenues au cours des processus d’intrapreneuriat entrent dans des processus classiques de développement de projet : on passe de l’idée au projet, puis du projet au business plan. Et on continue, ou pas : dans le premier cas, une partie des ressources et des compétences de l’entreprise est mise à contribution pour apporter les compétences en interne au développement du projet sélectionné.
Le développement de business plans innovants constitue également pour les grands groupes un moyen de diversifier leur activité, en la faisant évoluer. A ce titre, l’intrapreneuriat permet de faire évoluer certaines pratiques en interne, en ce qui concerne le développement de nouveaux business plans comme on vient de l’évoquer, mais également en ce qui concerne les manières de travailler, de gérer les ressources humaines au sein de l’entreprise…
Beaucoup d’externalités positives
Innover autrement dans l’entreprise, retenir les talents, instaurer de nouvelles pratiques RH : les conséquences de la mise en place des dispositifs d’intrapreneuriat vont au-delà de cela. Dans une étude réalisée par Viadeo, CadreEmploi et le cabinet Deloitte citée par le Figaro, plusieurs externalités liées à la mise en place de l’intrapreneuriat sont identifiées comme des leviers de croissance pour les entreprises :
Au final, l’intrapreneuriat, qui faisait figure d’entité à part au sein des entreprises quand ces dispositifs ont émergé, est devenu un pilier pour les grands groupes. Il permet aux entreprises de faire évoluer leur manière d’innover, notamment en restant collés aux réalités du marché.
Pour les collaborateurs, l’intrapreneuriat est un biais pour se projeter à long terme au sein de leur entreprise, avec en point de mire la possibilité d’entreprendre et d’innover au sens large. Tout en restant en poste, fidèle à la stratégie globale de l’entreprise.
Pour plusieurs TPE et PME françaises, la crise de la Covid-19 a été synonyme de création et d’innovation. À Mulhouse (Haut-Rhin), Spinali Design, une petite société composée de huit personnes, a su profiter de cette période de troubles pour créer un gant intelligent. À peine quelques semaines ont été nécessaires pour sa mise au point. Cet accessoire vestimentaire connecté se distingue par sa capacité auto-désinfectante. En effet, grâce à un traitement spécifique à base de dioxyde de titane, ce gant intelligent est capable de détruire toutes les cellules, agents infectieux et substances odorantes se trouvant à sa surface lorsqu’il est exposé à une source de rayons UV.
Selon Romain Spinali, manager de l’innovation chez Spinali Design et professeur vacataire à l’Université de Haute-Alsace de Mulhouse, l’efficacité du gant serait d’au moins trois cents jours. Une solution made in France pour lutter contre la Covid-19, et d’autres « maladies des mains sales », affirme Romain Spinali, avec qui Techniques de l’Ingénieur s’est entretenu.
Techniques de l’Ingénieur : Comment ce gant intelligent est-il né ?
Romain Spinali – (c) Romain Spinali
Romain Spinali : En 2015, nous avions mis au point un maillot de bain connecté. À l’aide d’un capteur analysant le rayonnement UV, le vêtement rappelle à l’usager de se remettre de la crème solaire. Les informations sont consultables par l’utilisateur grâce à une application mobile téléchargée sur son smartphone. Nous avons décliné cette technologie au gant connecté, qui pourrait être une alternative au gel hydroalcoolique, notamment en hiver.
Comment le dioxyde de titane permet-il de neutraliser les matières présentes à la surface du gant ?
Sous forme de nanoparticules, le dioxyde de titane exposé aux rayonnements UV a la caractéristique d’effectuer une photocatalyse avec un phénomène d’oxydoréduction. Il dégrade à sa proche périphérie l’ensemble des cellules et agents infectieux qui viendraient à s’y trouver. En clair, le dioxyde de titane crée un milieu qui dégrade naturellement les cellules périphériques, les bactéries, les molécules odorantes et les virus. Au-delà du coronavirus, notre produit permet de se prémunir contre d’autres maladies saisonnières telles que la grippe, ou la gastro-entérite.
Comment savoir que la quantité d’UV est suffisante pour assurer le bon déroulement du processus ?
C’est justement l’un des challenges majeurs. C’est pour cela qu’il a fallu intégrer un capteur d’UV pour accéder à des données précises. À l’aide d’une application installée sur son smartphone, l’utilisateur peut suivre en temps réel l’état de dégradation des matières, et donc de désinfection des gants. Durant les périodes où l’ensoleillement est plus faible, le processus de dégradation peut être le même avec une lampe à UV classique.
Cet accessoire connecté est-il utilisable en cas de mauvaises conditions météorologiques ?
Plus l’intensité du rayonnement UV est forte, plus le gant dégrade rapidement les matières présentes à sa surface. À l’inverse, lorsque le temps est nuageux, le processus dure plus longtemps. Lorsque l’ensoleillement est optimal, le processus de dégradation prend entre quinze et trente secondes. Nous envisageons également de mettre au point une lampe à UVC, strictement réservée à l’usage des professionnels (un policier par exemple pourrait passer ses mains gantées sous la lampe UVC après chaque contrôle de papiers, NDLR). Bien que permettant une désinfection en à peine quelques secondes, nous ne recommandons pas l’usage des UVC par les particuliers, du fait de leur caractère hautement cancérigène.
Comment s’effectue la communication entre ce textile connecté et l’application mobile nécessaire à son emploi ?
Le capteur, composé d’une LED et d’une puce, fait la taille d’un timbre-poste. Il communique avec le smartphone via la technologie Bluetooth à basse consommation, auquel il envoie une information basique. Cette dernière est ensuite traitée grâce à un algorithme. L’intelligence artificielle nous permet de tester le produit et d’établir la courbe de dégradation des bactéries. À l’heure actuelle, nous continuons nos tests dans le but de vérifier si, à l’usage, les résultats sont les mêmes que ceux que nous avions prévus grâce à la cinétique de dégradation des bactéries sur le gant.
Dans quelles conditions cette intelligence artificielle a-t-elle pu être mise au point ?
Grâce à l’Université de Haute-Alsace et le professeur Pierre-Alain Muller, vice-président innovation, nous avons pu accéder à des techniques de développement essentielles au développement de notre intelligence artificielle. Sans toutes les ressources qualifiées qui ont été mises à notre disposition, notre TPE n’aurait pas pu mener ce projet à son terme.
Quels procédés vous permettront d’assurer l’apprentissage en continu de cette intelligence artificielle ?
Pour améliorer l’algorithme, nous allons faire circuler une certaine quantité de gants, et suivre l’évolution des cas de Covid-19 a minima en Europe et en Amérique du Nord. Les gants seront récupérés régulièrement pour analyse.
Avez-vous prévu un moyen d’assurer la gestion de la fin de vie de cet article ?
Nous avons tenu à développer ce produit dans le respect des règles de développement durable. Ainsi, ce gant est pensé pour pouvoir nous être retourné en fin de vie ou en cas de défaillance. L’objectif est de pouvoir récupérer un certain nombre de composants, notamment les électroniques. Ni le textile, ni les différents composants n’ont vocation à finir à la poubelle.
Tout le monde connaît les célèbres « tattoos » de la marque de chewing-gum Malabar, ces dessins qui s’impriment sur la peau grâce au procédé de décalcomanie. En s’inspirant de cette technique, des chercheurs ont réussi à mesurer l’activité cérébrale grâce à des électrodes tatouées éphémères posées sur le crâne de patients et ainsi effectuer des électroencéphalographies (EEG). Ce travail de recherche, réalisé au sein du département Bioélectronique de l’École des Mines de Saint-Étienne, vient d’être publié dans la revue Nature flexible electronics.
Contrairement aux électrodes actuelles qui sont conçues à partir de métaux comme de l’argent, cette technologie repose sur des capteurs fabriqués à partir d’un mélange de deux polymères nommé PEDOT:PSS, formant ainsi une encre conductrice et capable de mesurer des signaux électrophysiologiques. « Comparé aux électrodes métalliques développées dans les années 60, le PEDOT:PSS est un meilleur matériau pour réaliser l’interface avec la peau humaine et enregistrer l’activité cérébrale, explique Esma Ismailova, chercheuse en bioélectronique à l’École des Mines Saint-Étienne. Il possède en effet une double propriété et peut conduire les électrons afin de capter le signal électronique du cerveau tout en ayant une capacité à mesurer la mobilité ionique. »
Une encre conductrice contenant le mélange les deux polymères
Alors que les électrodes classiques nécessitent l’utilisation d’un gel pour diminuer l’incidence de contact avec la peau et qui présente l’inconvénient de sécher au bout de quelques heures, ce nouveau dispositif est directement posé sur le crâne. « Son épaisseur est si fine, de l’ordre de quelques microns, qu’il épouse parfaitement la surface de la peau » ajoute la chercheuse. Comme avec les chewing-gums Malabar, ce procédé est composé d’une couche de cellulose puis d’une couche sacrificielle. Au lieu d’imprimer sur ce substrat des dessins à l’aide d’une encre de couleur, les chercheurs utilisent l’encre conductrice qui contient les deux polymères en utilisant une imprimante spécialement adaptée au secteur de la microélectronique. Une fois le dispositif posé sur la peau, il suffit de le frotter à l’aide d’une éponge humide pour dissoudre la couche soluble et ainsi transférer le tatouage et ses électrodes sur le corps.
Pour les chercheurs, la difficulté a été de concevoir des capteurs capables de détecter les signaux très faibles du cerveau. « Nous avions déjà réussi à mesurer les signaux du cœur et des muscles grâce à cette technique, confie Esma Ismailova. Dans le cas d’un EEG, le signal est beaucoup plus complexe et fragile à mesurer, de l’ordre de quelques millivolts seulement. Il est aussi beaucoup plus sensible aux bruits environnants et aux nuisances électromagnétiques ». Comme c’est le cas avec les électrodes métalliques, ces capteurs nécessitent de raser les cheveux localement à l’endroit où ils doivent être posés. Un laboratoire italien, partenaire de ce travail de recherche, a démontré que les cheveux peuvent pousser à travers ces tatouages éphémères sans entraîner une trop forte détérioration de la captation du signal. Dans le futur, il est envisagé d’utiliser seulement trois à quatre électrodes tatouées éphémères pour réaliser un EEG, en prenant soin de les localiser à des endroits précis sur le crâne, alors que la technique actuelle nécessite l’emploi de 8 à 64 électrodes métalliques selon le diagnostic à réaliser. Les chercheurs comptent alors développer des algorithmes et se servir de l’intelligence artificielle afin de reconstituer le signal de l’activité cérébrale.
« Notre technologie est beaucoup moins invasive et apportera du confort au patient, déclare la chercheuse. À l’hôpital, le protocole de préparation des patients est assez lourd avec la mise à disposition d’une chambre bien isolée pour éviter le bruit extérieur et le port d’un casque accroché au menton. À terme, nous pourrons même réaliser l’enregistrement de l’activité cérébrale au domicile des personnes. Notre technologie évitera le stress de l’hospitalisation surtout pour les enfants et les personnes âgées ». Avec leur coloration légèrement bleu ciel, ces tatouages miniaturisés sont quasi imperceptibles, si bien que les patients pourront presque oublier qu’ils portent un dispositif électronique sur la tête. Ils devront tout de même veiller, lors de leur toilette, à ne pas asperger d’eau ces tatouages afin de ne pas les détériorer. Leur efficacité est estimée à environ trois jours.
A gauche de l’image, une électrode tatouée éphémère et à droite, une électrode métallique actuellement utilisée dans le milieu médical. Crédit photo : Laboratoire de Bioélectronique de l’École des Mines de Saint-Étienne
Une transmission des données grâce à une connexion Bluetooth
Grâce à ces électrodes tatouées éphémères, les médecins pourront aussi réaliser, au même moment qu’un EEG, une magnétoencéphalographie (MEG). Cet examen, qui consiste à enregistrer l’activité électromagnétique du cerveau, est souvent prescrit aux personnes épileptiques et celles souffrant d’un cancer du cerveau, mais est difficilement réalisable en parallèle d’un EEG actuellement. Le métal des électrodes classiques vient en effet perturber le champ magnétique. « Nous n’aurons pas cette difficulté avec notre technologie, poursuit Esma Ismailova. Nous avons démontré qu’elle ne crée aucune nuisance pour la MEG puisqu’elle contient uniquement du plastique fonctionnel. »
Concernant la transmission du signal une fois capté, un dispositif électronique d’enregistrement a été intégré dans la décalcomanie lors des essais cliniques. Puis, à l’aide de câbles, les informations de l’activité cérébrale ont été transférées à un ordinateur. À l’avenir, les chercheurs souhaitent équiper le patient d’un amplificateur de signal embarqué et miniaturisé qui pourra par exemple se coller à la peau. Ce patch transmettra ensuite le signal via une connexion Bluetooth vers un ordinateur. Il est aussi imaginé de faire transiter le signal vers un téléphone portable qui retransmettra ensuite les données à un centre hospitalier.
Les datacenters sont des maillons essentiels à toutes les entreprises et les particuliers qui échangent en temps réel des milliards de données. Tous les grands opérateurs de centres de données travaillent à optimiser leur fonctionnement et leur consommation électrique.
Sachant que plus de 60 % de la population mondiale est à moins de 150 kilomètres du rivage selon l’UICN (Union mondiale pour la nature), Microsoft réfléchit à installer des datacenters sous-marins près des côtes. Ces installations pourraient ainsi fournir des connexions performantes (cette promiscuité permettant de réduire la latence).
Cette idée n’est pas récente. En 2014, Microsoft entame la phase 1 (jusqu’en 2016) de son projet Natick. Deux ans plus tard, son « Northern Isles datacenter » est plongé au large de la Californie.
Ayant eu la confirmation de la validité de son projet, l’éditeur a lancé en 2017 la phase 2. Cette fois, le prototype (une citerne étanche de 12 mètres de long et intégrant 864 serveurs) est plongé au nord de l’Écosse, dans les iles Orcades. Il est simplement alimenté par un câble sous-marin et de l’énergie renouvelable en provenance des Orkney Islands.
Pas d’intervention humaine ; pas d’erreurs…
L’objectif de cette seconde partie était de vérifier la faisabilité logistique, environnementale et économique du concept. Suite à un appel d’offres international, c’est Naval Group, une entreprise française qui possède une expertise mondiale en matière d’ingénierie, de fabrication et de maintenance de navires et de sous-marins militaires, qui assure l’analyse de ces différents points.
Après deux ans d’exploitation et une intégration réussie à l’infrastructure cloud de Microsoft, le bilan est positif. En premier, ce datacenter sous-marin est plus fiable que son équivalent terrestre avec un ratio de 1 pour 8 concernant les pannes serveurs. Or,le coût des serveurs intervient pour 50 % dans le coût complet d’un datacenter à terre.La durée de vie moyenne des serveurs à terre est de 3 ans. Après deux ans d’immersion, tous les composants sont comme neufs. Les taux de panne ont été très faibles, ce qui rallonge la durée de vie des serveurs », indique Béatrice Nicolas Meunier, vice-présidente Développement et Programmes R&D de Naval Group.
Si l’eau assez fraîche de l’Écosse (16°C maximum en août près de ces îles…) permet de dissiper plus facilement l’énergie calorifique produite par les ordinateurs avec une moindre élévation de température, c’est la conception du datacenter qui permet d’obtenir un tel ratio.
L’équipe du projet Natick a en effet conçu un centre de données capable de fonctionner sans interventions humaines pendant cinq ans. Les avantages de cette approche comprennent des coûts d’exploitation plus faibles (pas besoin de personnel) mais, surtout, des risques d’une mauvaise manipulation humaine quasi inexistants. Or, « les opérateurs de data centers ont du mal à quantifier précisément l’impact des interventions humaines sur le degré de pannes. Le projet Natick montre justement quels composants peuvent être à l’origine d’une défaillance », précise Béatrice Nicolas Meunier.
Ces excellents résultats sont peut-être dus à l’atmosphère d’azote inerte et hermétique dans laquelle la nacelle a été pressurisée avant son déploiement. L’absence de corrosion des composants électroniques serait également un facteur favorable. Des hypothèses qui vont être étudiées par Microsoft.
Ces excellents résultats indiquent que l’atmosphère d’azote inerte et hermétique préserve les serveurs ce qui permet un faible de taux de panne et l’accroissement de la longévité des serveurs. D’où l’objectif atteignable de longévité des serveurs de 5 ans sans intervention. Cette hypothèse, parmi d’autres, sont en cours d’études par Microsoft et Naval Group.
Mais à terme, on pourrait imaginer que de telles « citernes » pressurisées soient installées dans des… datacenters terrestres. Il est encore trop tôt pour connaitre la finalité du projet Natick. Mais Microsoft pourrait tirer des leçons de cette immersion pour installer des mini datacenters sous l’eau ou à terre, près de certains utilisateurs professionnels qui souhaitent bénéficier d’une très faible latence.
« Sans entrer dans les détails, nous pouvons vous dire que nous avons travaillé sur plusieurs designs de mini datacenters et sur la sécurité (encre trainante, filets de chaluts…) de telles structures à 40 mètres, ou plus, de profondeur. Si un bateau s’approche d’une zone où sont immergés des datacenters, il sera repéré suffisamment tôt pour être averti et permettre de redonder les données par précaution », indique Béatrice Nicolas Meunier.
Article mis à jour le 23/09/2020 : ajout des citations de Béatrice Nicolas Meunier, vice-présidente Développement et Programmes R&D de Naval Group.
Le dossier de présentation du plan hydrogène des ministères de la Transition écologique et de l’Economie rappelle que « la France a été l’une des premières nations à déployer un plan hydrogène en 2018 ». Ces trois dernières années, l’État a apporté son soutien à la filière via plusieurs mécanismes. Le Programme d’investissements d’avenir (PIA) a mobilisé plus de 100 millions d’euros en soutenant la mise en œuvre de démonstrateurs et la prise de participation dans des entreprises à fort potentiel. En outre, l’Agence nationale de la recherche (ANR) a soutenu la recherche publique en mobilisant plus de 110 millions d’euros sur les 10 dernières années. Bpifrance a accompagné de nombreuses startups ou PME dans leurs projets d’innovation et de développement technologiques, alors que, de son côté, l’Ademe a soutenu le déploiement de la mobilité hydrogène en apportant 80 millions d’euros. Enfin, la Banque des Territoires s’est également positionnée en soutenant des projets de déploiements portés par des collectivités, rappellent les ministres.
Trois grands axes
C’est devant l’Association française pour l’hydrogène et les piles à combustible (Afhypac) et l’ensemble des acteurs et partenaires de la filière que les deux ministres ont donné les trois grandes priorités de ce vaste plan, doté de 2 milliards d’euros sur les seules années 2020 à 2022.
D’abord, décarboner l’industrie, en faisant émerger une filière pour l’électrolyse et passer de l’usage de l’hydrogène provenant de sources carbonées dans l’industrie à de l’hydrogène décarboné. Ensuite, développer les transports collectifs et marchandises fonctionnant à l’hydrogène (trains, poids-lourds, véhicules utilitaires légers, bennes à ordures ménagères, etc.) et soutenir les projets territoriaux d’envergure. Enfin, la troisième priorité vise à soutenir la recherche, l’innovation et le développement des compétences.
Ils détaillent également la répartition de 3,4 milliards d’euros (sur les 7,2 milliards d’euros) sur la période 2020-2023. Ainsi, 54 % seront consacrés à la décarbonation de l’industrie, 27 % au développement de transports collectifs et marchands hydrogène et le solde, 19 % pour la recherche, l’innovation et la formation.
Décarboner l’industrie et créer une filière électrolyse
Le gouvernement rappelle que la stratégie retient l’électrolyse qui apparaît comme le plus prometteur, sur lequel la France dispose déjà d’industriels à fort potentiel. Le marché de la production d’hydrogène décarboné par électrolyse doit donc évoluer vers des projets de plus grande taille et de plus importante capacité. La France se fixe ainsi un objectif de 6,5 GW d’électrolyseurs installés en 2030.
Ainsi, dès 2021, le gouvernement veut lancer la construction d’un Projet Important d’Intérêt Européen Commun (PIIEC/IPCEI) sur l’hydrogène, sur le modèle de « L’Airbus des batteries ». Il s’agit plus particulièrement de faire émerger en France des projets de « gigafactory » d’électrolyseurs, selon un schéma similaire au plan batterie qui prévoit le développement des usines de Nersac puis de Douvrin par ACC, entreprise commune de PSA et Total/Saft (bientôt rejoints par Renault), indique le gouvernement dans la présentation de son plan hydrogène. Dès lors que ces moyens de production commencent à exister, le gouvernement estime que parallèlement, un verdissement de l’usage de l’hydrogène dans l’industrie sera possible.
Développer la mobilité hydrogène
Le plan vise à développer les transports collectifs et marchandises fonctionnant à l’hydrogène et soutenir les projets territoriaux d’envergure. Le développement des technologies et composants clés se poursuivra notamment au travers de projets pilotes pour des navettes fluviales et des navires fonctionnant à l’hydrogène, ainsi que l’accélération des efforts d’innovation en faveur d’un avion décarboné à hydrogène dont l’entrée en service pourrait avoir lieu au cours de la décennie 2030, explique le gouvernement.
Dans ce cadre, avant la fin de l’année 2020, un appel à projets (AAP) « Briques technologiques et démonstrateurs » sera lancé. Cet AAP est doté de 350 millions d’euros jusqu’en 2023. Par ailleurs, un appel à projets « Hub territoriaux d’hydrogène » sera lancé par l’Ademe (doté de 275 millions d’euros d’ici 2023) pour le déploiement, par des consortiums réunissant des collectivités et des industriels fournisseurs de solutions, d’écosystèmes territoriaux de grande envergure regroupant différents usages (industrie et mobilité), pour favoriser au maximum des économies d’échelle.
Soutien à la recherche, l’innovation et la formation
De nombreux nouveaux d’usages de l’hydrogène sont à explorer : utilisation dans les réseaux énergétiques pour faciliter le déploiement des renouvelables, dans l’industrie, la sidérurgie notamment, les mobilités, la décarbonation du secteur gazier. Autant de domaines qui impliquent de la recherche, de l’innovation et de la formation.
Le gouvernement annonce, d’ici la fin de l’année, un programme prioritaire de recherche (PPR) « Applications de l’hydrogène » opéré par l’ANR (Agence nationale de la recherche) qui permettra de soutenir la recherche en amont et de préparer la future génération des technologies de l’hydrogène (piles, réservoirs, matériaux, électrolyseurs…). Ce programme vise à contribuer à l’excellence française dans la recherche sur l’hydrogène et sera doté de 65 millions d’euros.
Dès 2021, sera lancé un « accompagnement du développement de campus des métiers et des qualifications rassemblant, dans la même organisation ou sur le même site, lycées d’enseignement technologique et professionnel (baccalauréats technologiques et professionnels, section de techniciens supérieurs), universités (IUT, licences professionnelles ou spécialisées, masters, formations d’ingénieurs, doctorats) et grandes écoles d’ingénieurs. »
Chaque année depuis 1986, l’ONG américaine Ocean Conservancy organise une journée internationale du nettoyage des côtes. En 2019, 943 195 bénévoles dans 116 pays ont collecté près de 32,5 millions de déchets en une seule journée, pour un total d’environ 9 400 tonnes. En tête, près de 4,8 millions d’emballages alimentaires souples principalement en plastique – entre autres, sachets de chips et de bonbons – suivis par 4,2 millions de mégots (qui contiennent des filtres en plastique). Les bénévoles ont aussi collecté 1,9 million de bouteilles, 1,5 million de bouchons, près de 943 000 pailles et agitateurs, près de 755 000 gobelets, assiettes et 740 000 sacs de course. C’est la première fois que les emballages alimentaires souples sont les produits les plus retrouvés au bord des plages et des rivières.
Selon PlasticsEurope, l’association des fabricants de plastiques européens, près de 40 % du plastique produit en Europe sert à produire des emballages. Le recyclage des plastiques atteignait 24,2 % en France et 32,5 % en Europe en 2018. Selon l’Environmental Protection Agency, seulement 13 % des contenants et emballages en plastique ont été recyclés aux États-Unis en 2017. « Parce qu’ils sont souvent de faible densité et composés de plusieurs couches de plastique et d’autres matériaux, ces articles sont en fait non recyclables », partage Ocean Conservancy.
Des déchets de plus en plus en plastique
« Au début du nettoyage international des côtes, les volontaires trouvaient des bouteilles en verre, des canettes en métal, des sacs en papier et d’autres objets qui ont été de plus en plus remplacés par des alternatives en plastique, rappelle Allison Schutes, directrice en charge de l’événement à Ocean Conservancy. En conséquence, de plus en plus de plastiques d’origine alimentaire se retrouvent dans notre environnement, où ils persistent et menacent sans cesse la faune. »
Journée de nettoyage des côtes 2019 en Jamaïque. Copyright Jamaica Environment Trust
L’ONG appelle au développement d’alternatives. « Nous avons besoin d’experts en science alimentaire et en emballage pour accélérer la recherche et le développement d’emballages qui ne sont pas destinés aux sites d’enfouissement, et qui assurent la sécurité et la santé des personnes et de nos océans », appelle Nick Mallos, directeur principal du programme des océans sans déchets d’Ocean Conservancy.
Depuis 1986, plus de 16,5 millions de bénévoles ont collecté plus de 156 000 tonnes de déchets. La Journée internationale du nettoyage des côtes a généralement lieu le troisième samedi de septembre. Face à la pandémie répandue dans de nombreuses régions du monde, Ocean Conservancy appelle cette année ses bénévoles à participer à des nettoyages en solo ou en petit groupe et à adopter des mesures de réduction des déchets à domicile.
Il y a quelques mois, des inconnus ont mis en vente sur le dark web des assiettes et des couverts utilisés lors d’un repas organisé lors d’un sommet du Forum Économique de Davos. Impossible d’être sûr qu’ils avaient été utilisés par Donald Trump, Angela Merkel ou Emmanuel Macron. Mais cette vente montre que l’imagination des pirates ou des officines à la solde d’un État n’a pas de limite.
En analysant l’ADN présent sur ces assiettes, il est en effet possible d’en savoir beaucoup plus sur les traits de caractère d’une personne. « Ce risque est d’autant plus inquiétant pour les chefs d’entreprises et les hommes politiques que le séquençage d’ADN devient à la portée de tous. Le premier séquençage d’un génome avait couté 2,2 milliards de dollars en 2003 et nécessité plusieurs années. Aujourd’hui, pour moins de 400 € vous obtenez le résultat sous quelques semaines », prévient Renaud Lifchitz, spécialiste chez Digital Security (Groupe Econocom).
Un vigile pas physionomiste
Cet expert en cybersécurité a réalisé une étude très originale, car elle est à la croisée de deux domaines : la cybersécurité et la génomique grand public. « J’ai pu constater qu’on pouvait désanonymiser assez facilement un génome. Grâce à l’accès ouvert à plusieurs bases de données généalogiques et génomiques en ligne et aux réseaux sociaux, on peut recouper ces informations et trouver assez souvent quel est son porteur. On peut déjà le faire avec une quasi-certitude aux États-Unis où environ 25 millions d’Américains auraient déjà fait séquencer leur ADN », explique-t-il.
Or, les risques de cette démocratisation ne sont pas anodins. Le principal est celui d’une attaque ciblée, c’est-à-dire visant une entreprise en particulier. « Jusqu’à présent, les attaquants n’ont que des moyens “techniques” pour analyser le niveau de sécurité d’une entreprise. Après avoir récupéré un cheveu (ou son verre d’eau, son empreinte) du vigile à l’accueil d’une entreprise, le séquençage de son ADN permet de découvrir ses traits de caractère. Dans le cas de notre vigile, si on découvre par exemple qu’il n’est probablement pas très physionomiste, cette information permet à un attaquant d’entrer dans l’entreprise sans être trop repéré et ensuite d’étudier in situ les faiblesses du réseau informatique… », déclare Renaud Lifchitz.
Fuites de données génétiques
Les exemples d’exploitation malveillante du séquençage de l’ADN par des pirates sont multiples. Si on constate que le comptable ou le directeur financier d’une entreprise n’est pas très « consciencieux », cela peut représenter une faiblesse exploitable. Les pirates peuvent en profiter pour infiltrer le réseau informatique de l’entreprise en envoyant un e-mail de phishing à ce collaborateur qui ne respectera certainement pas toutes les consignes de cybersécurité de son entreprise (comme ne pas cliquer sur une pièce jointe infectée d’un e-mail envoyé par un inconnu par exemple).
Des scenarii dignes d’un film de science-fiction ? Pas sûr. En 2019, un mystérieux groupe de hackers iraniens a piraté une dizaine d’applications de séquençage d’ADN.
Et le contexte est plutôt favorable aux pirates, car il y a de plus en plus d’entreprises – notamment en Europe (Italie et Pays-Bas notamment) – qui font du séquençage d’ADN. « Or, plus il y a d’entreprises qui manipulent ce genre d’informations, plus il y a de risques de piratage et de fuites de données personnelles (dont des informations génétiques). Certaines de ces entreprises ont passé des certifications de sécurité, mais d’autres se contentent d’indiquer qu’elles sécurisent les données… », prévient Renaud Lifchitz.
La preuve, le site Web de généalogie et de tests ADN, MyHeritage, a été victime d’une fuite des données concernant plusieurs dizaines de millions de ses clients.
Le séquençage d’ADN pourrait également favoriser les dérives. Un DRH pourrait exploiter ce type d’informations pour faire du « profiling » de ses salariés. Autre risque : des assureurs pourraient nous demander notre ADN avant de souscrire un contrat d’assurance. Leurs primes varieraient en fonction de notre empreinte génétique.
Pour l’instant, la réglementation française encadre les usages des séquençages. La loi bioéthique interdit les séquençages récréatifs. Ils sont limités aux enquêtes criminelles et aux dépistages de maladies génétiques. Ceci dit, ce séquençage à titre personnel est autorisé dans la plupart des pays d’Europe.
Cette partie écologie comprend notamment des moyens additionnels en faveur de la transition énergétique, pour rénover énergétiquement les bâtiments, développer des projets de décarbonation, d’électrification des usages et d’hydrogène, sans oublier la mobilité propre.
Le bâtiment rénové
Le secteur du bâtiment est doté de 7 milliards d’euros pour la rénovation. Tous les bâtiments sont concernés par cette aide, du privé au public en passant par les bailleurs sociaux. Côté privé, le plan de relance va rehausser le budget du dispositif MaPrimeRénov’ de 2 milliards d’euros sur 2021-2022. Côté public, 4 milliards d’euros seront investis par l’État dont 300 millions d’euros délégués aux régions. Une enveloppe sera dédiée aux projets de rénovation thermique des bâtiments des collectivités locales, via les préfets. Le reste de l’enveloppe sera consacré à la rénovation des bâtiments de l’État. De premiers appels à projets sont attendus dès mi-septembre. Cette mesure devrait permettre la rénovation de quelque 12 millions de m² sur les 100 millions de m² constituant les bâtiments publics de l’État, précise le gouvernement. Enfin, l’enveloppe envisagée pour la rénovation énergétique et la réhabilitation lourde des logements sociaux est de 500 millions d’euros pour les années 2021 et 2022, dont 40 millions d’euros qui seraient réservés à un appel à projet visant à massifier les solutions industrielles pour un objectif de 10 000 logements rénovés. À ce stade, le nombre de logements pouvant être aidés sur le volet « restructuration-réhabilitation lourde » peut être estimé à environ 40 000. Le gouvernement estime que les mesures pourraient démarrer dès le printemps 2021.
La décarbonation de l’industrie
Ce dispositif comporte 2 volets : l’investissement dans des procédés industriels moins émetteurs de CO2 et la compensation du surcoût de l’énergie décarbonée par rapport aux fossiles. Environ 1,2 milliard d’euros y seront consacrés.
Côté investissement dans des procédés industriels moins émetteurs, il s’agit notamment d’électrifier des process fonctionnant aujourd’hui à l’énergie fossile. Certaines filières et certains sites (notamment dans les secteurs de la cimenterie ou de la métallurgie) sont plus polluants que d’autres. Cette mesure permet d’identifier ces sites pour les aider à se décarboner. Côté compensation du surcoût de l’énergie décarbonée par rapport aux énergies fossiles, il s’agit d’inciter des industries à passer d’une solution fossile à une source de chaleur bas-carbone.
Dès cette année, des appels à projets seront lancés pour des investissements dans l’efficacité énergétique et pour le soutien à la chaleur bas-carbone ainsi qu’un appel à manifestation d’intérêt pour la transformation des procédés. En 2021 et 2022, d’autres appels à projets sont prévus pour des investissements d’efficacité énergétique et de transformation des procédés pour la réduction des émissions (dont par exemple l’électrification) et pour le soutien à la chaleur bas-carbone.
L’électrification des transports
En matière de transports, 11 milliards d’euros seront débloqués, dont 4,7 milliards d’euros pour le réseau ferré (à la fois développement du réseau et recours à l’électrification et à l’hydrogène). En outre, côté véhicules électriques, 100 millions d’euros sont consacrés au développement de bornes pour les véhicules électriques, afin d’atteindre l’objectif déjà fixé de 100 000 bornes à l’horizon 2021. Les infrastructures fluviales seront elles aussi rénovées (175 millions d’euros) et l’électrification des ports maritimes pour permettre aux bateaux à quai de se connecter au réseau va être réalisée (200 millions d’euros).
Réseaux électriques et zone rurale
Un volet concerne l’amélioration du réseau de distribution en zone rurale afin de renforcer sa résilience aux événements climatiques et en développant les investissements en faveur de la transition énergétique. La mesure est évaluée à quelque 50 millions d’euros affectés au FACE (Financement des aides aux collectivités pour l’électrification rurale) en plus des 377 millions d’euros déjà prévus.
Soutien à la filière nucléaire
Le plan de relance, dans le cadre du soutien aux filières industrielles française, concerne également le nucléaire. Il a pour objectif de favoriser l’innovation, notamment en matière de gestion des déchets, et à accélérer les opérations de démantèlement des installations à l’arrêt définitif. Au titre des projets visés, il faut noter le soutien à un Centre d’excellence dans le soudage en Bourgogne-Franche-Comté, à un projet de Technocentre de valorisation des métaux de très faible activité dans le département du Haut-Rhin, le projet Nuward de petit réacteur nucléaire modulaire (SMR, en initiale anglaise) de conception française. En outre, le plan vise à améliorer la compétitivité des entreprises, en levant certains verrous technologiques, notamment via le projet « Usine du Futur » et un fonds d’investissement sera créé avec EDF pour soutenir les entreprises de la filière. Le soutien total à la filière s’élèvera à 200 millions d’euros complété par un soutien du PIA (programme d’investissements d’avenir). En outre, plusieurs projets prévus seront dotés, faisant au total que le plan de soutien à la filière nucléaire représentera un effort de quelque 470 millions d’euros, pour une mise en œuvre prévue dès cette année et jusqu’en 2022.
Contribution de Bpifrance
Bpifrance sera amené à contribuer à hauteur de 2,5 milliards d’euros en financement direct sur la durée du plan de relance. Ces financements viseront le soutien à l’émergence et à la croissance des Greentechs, à la filière ENR, notamment pour favoriser l’accès des entreprises aux solutions vertes, et enfin, à la « mise en transition des entreprises » avec un accompagnement dédié.
L’hydrogène décarboné
Le gouvernement affiche enfin « une volonté claire de soutenir le développement de l’hydrogène vert, qui est une filière d’avenir à fort potentiel ». Le coup d’accélérateur est net, avec 2 milliards d’euros sur 2020-2022, et près de 7,2 milliards d’euros d’ici à 2030 pour soutenir tout à la fois la R&D, ainsi que les projets industriels de développement de l’électrolyse. Des chiffres à comparer au Plan Hulot présenté il y a deux ans et qui devait être doté de 100 millions d’euros. Les mesures spécifiques de ce nouveau plan hydrogène ont été présentées le 8 septembre.
Le Syndicat des énergies renouvelables (SER) se félicite « des moyens additionnels qui seront déployés pour accélérer la rénovation du bâti. Il est cependant essentiel que les dispositifs de soutien aux particuliers deviennent réellement opérationnels pour l’ensemble des ménages français, tant pour les opérations de rénovation globale que pour les autres types de travaux, et que le Gouvernement puisse garantir un traitement rapide des demandes ».
Le SER rappelle par ailleurs « qu’une relance durable passera nécessairement par un soutien continu et amplifié aux énergies renouvelables ». Dans la lignée des propositions du SER présentées en juin dernier, « il apparaît fondamental d’accompagner le plan de relance gouvernemental par un effort de simplification pour permettre aux projets renouvelables de se développer plus rapidement et tenir la trajectoire de la PPE », insiste le lobby du renouvelable français.
Néanmoins, les renouvelables ne sont citées dans cette catégorie qu’avec l’accent mis sur la chaleur renouvelable. Enerplan signale ainsi que « pour atteindre ses ambitions, la rénovation énergétique devra intégrer l’autoconsommation au sein des bâtiments autant que faire se peut. Qu’il s’agisse de chaleur ou d’électricité, les installations solaires thermiques et photovoltaïques apportent une économie directe de carbone et de charges pour les occupants des bâtiments rendus plus efficaces grâce à l’isolation. Des dispositions réglementaires sont à prendre d’urgence afin de faciliter le recours à l’électricité solaire pour tous les bâtiments (tarif d’achat en guichet jusqu’à 500 kW). Cela permettra en outre de favoriser la convergence avec la recharge intelligente des voitures électriques. »
Face à la pénurie de main-d’œuvre qui touche le secteur agricole, pourquoi ne pas imaginer que des robots fassent le travail des hommes ? Depuis une quarantaine d’années, plusieurs travaux ont été menés en France et en Europe pour mettre au point des robots cueilleurs de fruits. Nécessitant l’emploi de plusieurs technologies de pointe, notamment en matière de détection et de géolocalisation, les robots cueilleurs de fruits ne sont pas des machines simples à concevoir. Entretien avec Gilbert Grenier, professeur à Bordeaux Sciences Agro, ingénieur agronome et expert en histoire de la robotique.
Techniques de l’Ingénieur : Quelle est la place des robots cueilleurs de fruits dans l’agriculture française ?
GRENIER_Gilbert (c) Agro Bordeaux-1
Gilbert Grenier : Je vais être très clair, il n’y en a pas. Ou quasiment pas. Les recherches sur ces robots ont commencé dans les années 1980, et certaines sont même allées relativement loin. En 1985, le robot cueilleur Magali a été lancé en France. Il avait été développé par le Cemagref Montpellier (l’actuel Inrae, NDLR) et la société Pellenc SA pour cueillir des pommes. Au début des années 1990, un autre projet avait été porté en collaboration avec un laboratoire de recherches situé à Valence (Espagne) pour mettre au point un robot cueilleur d’agrumes, nommé Citrus. À ma connaissance, il n’y a pas eu de projet similaire sur notre territoire depuis lors.
Pour quelles raisons Magali et Citrus n’ont-ils jamais été déployés à grande échelle ?
Ces deux robots n’ont jamais été commercialisés à cause de plusieurs verrous technologiques qui existaient à cette époque. Premièrement, il y avait un problème de vision : les caméras de cette période n’étaient pas aussi performantes qu’aujourd’hui. Deuxièmement, l’informatique était très pauvre en matière de puissance de calcul. Troisièmement, il y avait des soucis de géolocalisation, car il n’y avait pas encore de GPS.
Aujourd’hui, le recours aux robots cueilleurs de fruits pourrait-il avoir un intérêt pour les arboriculteurs ?
Aujourd’hui, nous avons atteint des niveaux de maturité sur plusieurs points. De plus, nous avons à l’heure actuelle une problématique sociétale qui n’existait pas dans les années 1980, celui de la disponibilité de la main-d’œuvre. Il est parfois difficile de trouver des personnes qui connaissent les bons gestes techniques. En effet, cueillir une pomme n’est pas quelque chose de si évident ! Pour aller chercher un fruit sur un arbre, c’est toute une histoire. Pour aller le chercher là où il se trouve, il faut avoir une grande capacité de détection en 3D. Les agriculteurs français peinent à trouver des cueilleurs sur le territoire, et font appel à des travailleurs du Maghreb ou d’Europe de l’Est. À l’heure actuelle, les arboriculteurs seraient prêts à avoir des robots, ce qui n’était pas le cas il y a trente ou quarante ans.
Dans ce cas, quels sont les freins actuels au développement et à la commercialisation de nouveaux robots cueilleurs ?
Pour que ces appareils voient le jour, il faudrait qu’un industriel ose se lancer. Il lui faudrait savoir intégrer le marché, et faire en amont de massifs investissements en recherche et développement pour mettre au point un outil. Idéalement, il faudrait qu’un consortium d’entreprises développe cette activité.
Pourraient-ils complètement se substituer à la main-d’œuvre ?
Je ne le pense pas. On pourrait plutôt imaginer que ces robots se développent en cobotique (une collaboration de l’homme avec le robot, NDLR). Cela signifie qu’il y aurait une plateforme mobile sur laquelle les cueilleurs manuels effectueraient les tâches les plus difficiles, et que des bras robotisés fassent le reste. Ces bras seraient des robots manipulateurs qui iraient récolter les fruits un par un. Il faudrait probablement entre une et trois secondes pour que la machine ramasse un fruit. Ainsi se posent les questions de rentabilité. De plus, il est clair qu’il faudrait que plusieurs bras soient déployés sur une même cueillette pour accroître le rendement. Or, cela aurait un coût considérable.
L’exemple de « Robocrop », le robot britannique cueilleur de framboises qui serait capable de ramasser jusqu’à 25 000 fruits par jour, est-il prometteur pour l’ensemble de la filière arboricole ?
Pour que l’utilisation d’un robot soit pertinente, il faut que le fruit ait une réelle valeur ajoutée commerciale. Cela est d’autant plus vrai lorsque ce dernier est petit, parce qu’il faut davantage de gestes pour remplir un panier. Je ne crois pas qu’il y ait un intérêt à utiliser ce type de machine pour des variétés de fruits vendus à bas prix. Pour qu’il ait un intérêt, le robot doit pouvoir récolter autant de fruits qu’un cueilleur, pour un tarif qui n’excède pas celui de la main-d’œuvre humaine.
Cette méthode de caractérisation nouvelle, présentée dans le journal German Chemical Society est basée sur un système d’imagerie qui capture la lumière émise par des molécules fluorescentes.
Utiliser les propriétés de la lumière issue de sondes fluorescentes est au cœur de nouvelles techniques d’imagerie qui permettent d’observer l’intérieur de membranes cellulaires comme jamais auparavant. Credit : Jin Lu.
Observer une membrane cellulaire : une opération délicate
Majoritairement constituée de lipides, la membrane cellulaire forme l’interface entre l’intérieur et l’extérieur d’une cellule. Bien que le rôle biologique de cette membrane soit fondamental, son observation est souvent négligée, en particulier parce que les techniques d’observation actuelles sont peu adaptées.
En effet, selon Matthew Lew (Washington University in St. Louis)¹, “avec les techniques d’imagerie traditionnelles, il est difficile de différencier ce qui est à l’intérieur de ce qui est à l’extérieur de la membrane, car celle-ci apparaît comme un objet transparent et spongieux.”
Le chercheur explique qu’ils recherchaient un moyen de caractériser l’intérieur des membranes cellulaires sans utiliser de technique destructive comme l’utilisation d’un traceur fluorescent, associé à de la spectrométrie de masse.
Principe de fonctionnement
La méthode qu’ils ont développée est différente : elle utilise également un traceur fluorescent, mais elle a l’énorme avantage d’être non destructive et permet de détecter la phase de la membrane ainsi que sa composition chimique hétérogène.
Selon Jin Lu, chercheur postdoctoral du laboratoire du professeur Lew et premier auteur de l’étude, “dans les membranes cellulaires, il y a de nombreuses molécules lipidiques. Certaines sont sous forme liquide, d’autres sont solides ou en gel.”
Lorsqu’elles sont sous forme solide, ces molécules sont ordonnées en une structure rigide. Sous forme liquide, elles sont beaucoup plus libres de leurs mouvements. Les chercheurs ont voulu exploiter cette caractéristique en ajoutant une solution contenant des sondes fluorescentes. Quand les molécules fluorescentes sont entourées de lipides en phase solide, elles restent fixes, quand il s’agit d’une phase liquide, elles ont une orientation libre.
Sous l’effet de la lumière, ces marqueurs fluorescents relâchent des photons. Grâce à un système d’imagerie également développé par ce même laboratoire, ils arrivent ainsi à déterminer l’orientation des molécules. En répétant ce processus des centaines de milliers de fois, ils sont ainsi capables d’obtenir une cartographie des nanodomaines ordonnés et leur entourage liquide désordonné.
Une avancée pour l’étude de la matière molle
Cette méthode, appelée single-molecule orientation localization microscopy (SMOLM) permet de déterminer les interactions entre lipides, enzymes et molécules fluorescentes avec un niveau de détail jamais atteint auparavant.
Matthew Lew explique : “À cette échelle où les molécules sont constamment en mouvement, tout est auto-organisé (…). Chaque molécule subit les forces des autres molécules qui l’entourent. C’est ce qui détermine comment une molécule particulière va se déplacer et remplir ses fonctions.”
Puis il ajoute : “L’observation directe de tels phénomènes est très difficile. Dorénavant, tout ce dont vous avez besoin c’est d’une molécule fluorescente. Parce qu’elle est intégrée, l’observation de ses mouvements nous informe sur ce qu’il y a autour.”
(1) Professeur assistant du Preston M. Green Department of Electrical and Systems Engineering (McKelvey School of Engineering at Washington University in St. Louis)
Alors que jusqu’ici, les techniques conventionnelles comme la thermographie infrarouge ne permettent pas de descendre sous le micromètre, des chercheurs viennent de mettre au point un revêtement moléculaire capable de mesurer la température de fonctionnement de composants électroniques à l’échelle nanométrique. Ce résultat, publié dans la revue Nature communications, est le fruit d’une collaboration entre deux laboratoires du CNRS à Toulouse : celui de chimie de coordination (LCC) et celui d’analyse et d’architecture des systèmes (LAAS).
Cette nouvelle technologie utilise la bistabilité d’une famille de composés chimiques appelée molécules à transition de spin, c’est-à-dire leur capacité à passer d’un état à l’autre facilement. Cette commutation est réalisée à partir d’un stimulus extérieur comme un changement de température mais aussi d’une impulsion électrique, un champ magnétique ou une pression et peut être réversible. « Nous avons commencé à étudier ces molécules vers la fin des années 80, explique Azzedine Bousseksou, chercheur au CNRS. Au début, le changement d’état se faisait uniquement dans un milieu cryogénique, à très basses températures. En 1993, le phénomène pouvait se faire à température ambiante et à partir de 2007, nous avons développé les toutes premières couches minces nanométriques qui présentent la commutation à température ambiante. »
Cartographier le changement de couleur du revêtement moléculaire
Environ 200 à 300 molécules à transition de spin ont été synthétisées jusqu’ici à travers le monde. Pour la thermométrie, les chercheurs utilisent une seule d’entre elles, à savoir un borate de la famille du triazol dont la formule chimique est la suivante : [Fe (HB (1,2,4-triazol-1-yl) 3 ) 2]. Cette molécule possède une propriété particulière et est capable de changer de couleur en fonction de la température extérieure. À l’échelle macroscopique, elle peut en effet passer du blanc vers le rose très rapidement et de façon réversible. Les chercheurs déposent donc des couches minces de cette molécule sur des composants électroniques comme des puces ou des mémoires. Lorsque ces derniers chauffent de manière anormale, les molécules à transition de spin, présentes à la surface, changent de couleur. Les scientifiques réalisent alors une cartographie optique à l’aide d’un spectroscope pour observer ce changement. Leur travail de recherche a consisté à construire une courbe de calibration pour faire la corrélation entre un changement de couleur de la couche mince déposée sur le support avec une valeur de la température, et ceci à l’échelle nanométrique. « Les industriels du secteur de la microélectronique rencontrent de gros problèmes de surchauffe de leurs composants, ajoute le chercheur. Grâce à notre technologie, nous les aidons à mieux comprendre le fonctionnement thermique de leurs composants et à identifier à quel endroit la température s’élève et ceci, à l’échelle du nanomètre. Ils peuvent ainsi sélectionner les meilleurs éléments et ainsi concevoir des composants stables et fiables. »
L’atout majeur de la molécule à transition de spin utilisée est sa résilience au changement de température. Elle est en effet capable de subir des millions de cycles thermiques sans se fatiguer et de manière entièrement réversible. « Quel que soit le nombre de cycles, nous avons remarqué que le chemin thermique emprunté ne change pas, analyse Azzedine Bousseksou. Il n’y a donc aucune erreur de correspondance entre un changement de couleur et la variation de température. D’où la naissance du nanothermomètre. »
Autre avantage : le procédé est intégrable sur n’importe quel système souple, qu’il soit solide, mais aussi en solution. Il présente donc un fort intérêt dans le domaine biologique. « Nous pouvons par exemple aider les biologistes à mieux comprendre le mécanisme de repliement des protéines et surtout à identifier précisément à quelle température la protéine se replie de manière efficace. »
Des muscles artificiels intégrables dans un corps humain
Cette nouvelle technologie a fait l’objet d’un brevet et le groupe eV Technologies a déjà acheté une licence. Ce travail de recherche va se poursuivre, notamment en direction d’applications dans le domaine de la micro-électronique et plus tard dans le domaine biologique. L’équipe de recherche « Matériaux Moléculaires Commutables » du LCC-CNRS souhaite mettre à profit une autre propriété des molécules à transition de spin qui, en plus de changer de couleur, sont capables de changer de volume. Sous l’effet d’une variation de température par exemple, ces molécules peuvent en effet gonfler puis se dégonfler, faisant alors apparaître un mode de respiration de la molécule. Ce mouvement de respiration trouve son intérêt dans le développement d’actionneurs micrométriques et de muscles artificiels. Le secteur de la robotique est en effet à la recherche de matériaux actifs robustes capables de mimer cette fonction afin de fabriquer des exosquelettes. A plus long terme, il est aussi envisagé de réparer des déformations musculaires directement dans le corps d’un être humain à l’aide de muscles artificiels intégrables conçus avec des molécules à transition de spin.
Le 11 novembre 2019, un séisme de magnitude 5 a frappé le village du Teil et ses environs, dans la vallée du Rhône, en Ardèche, générant une rupture et un déplacement inattendus de la surface du sol. Une nouvelle étude parue le 27 août 2020 dans la revue Communications Earth & Environment, montre que le séisme est dû à la réactivation de la faille de La Rouvière, et qui n’était pas considérée comme active de nos jours. Jean-François Ritz, directeur de recherche CNRS au laboratoire Géosciences de Montpellier, et premier auteur de l’article, répond à nos questions.
Techniques de l’ingénieur : Pourquoi le séisme du Teil a-t-il été une surprise ?
Jean-François Ritz : Le séisme du Teil a été une surprise à double titre. Tout d’abord, le foyer étant très superficiel, autour de 1 km de profondeur, la rupture a atteint la surface, bien que la magnitude (M5) du séisme fût modérée. Généralement –statistiquement en régions continentales, et hors zone de subduction –, on s’attend à ce qu’il y ait une rupture de surface à partir de magnitude 6, pour des profondeurs moyenne de nucléation comprises entre 5 et 12 km. La faible profondeur du foyer explique également qu’il y ait eu autant de dégâts avec notamment plus de 900 maisons endommagées qui ne sont plus habitables. L’énergie n’a pas eu l’espace et le temps de se dissiper au sein de la roche, comme il aurait été le cas si le foyer du séisme était autour de 5-10 km de profondeur. C’est donc une première en France : l’observation directe de ce phénomène de rupture de surface ; un risque qui était considéré comme négligeable jusque-là. La faille de La Rouvière fait 10 km de long. Le 11 novembre 2019, elle a cassé sur la moitié de sa longueur (5 km). Le séisme a entraîné un déplacement moyen du sol de 10 cm verticalement et de l’ordre de 10 cm horizontalement également.
Et la deuxième surprise ?
Ce séisme s’est produit sur une faille qui n’était pas cartographiée comme potentiellement active. Or elle l’est, puisqu’elle a produit un séisme. Du coup, c’est un nouveau problème pour tous les scientifiques qui s’intéressent au risque sismique. Y a-t-il d’autres failles comme celle de la Rouvière qui pourraient être réactivées dans la région de Montélimar, sur le faisceau de failles cévenol, ou ailleurs en France, voire en Europe de l’Ouest ? Pour mieux estimer cette probabilité, plusieurs équipes en France ont entamé des investigations paléosismologiques à la recherche d’indices d’anciens séismes le long de telles failles.
Une faille non cartographiée comme active, qu’est-ce que cela signifie ?
On considère qu’une faille est active lorsque celle-ci montre des traces d’activité au cours des deux derniers millions d’années, c’est-à-dire au cours de la période quaternaire. Dans le cas de la faille de La Rouvière, de telles traces de déplacement dans les formations quaternaires n’avaient pas été observées. D’où une question importante : la faille avait-elle cassé avant mais la/les trace(s) de ces anciens séismes n’étaient pas visibles en surface, ou est-ce la première fois qu’elle est réactivée depuis qu’elle existe ? Cette faille est héritée de l’Oligocène, une période durant laquelle une tectonique d’extension a affecté le sud-est de la France il y a 20 à 30 millions d’années, et qui a vu l’ouverture de la Méditerranée occidentale (Golfe du Lyon).
Par conséquent, il nous faut reprendre notre base de données sur les failles potentiellement actives en France métropolitaine, et donc lancer de nouvelles études, notamment sur un certain nombre de failles anciennes afin de déterminer si nous devons les considérer comme actives ou non. Nous devons notamment réaliser plus d’investigations paléosismologiques, c’est-à-dire rechercher les traces potentielles de séismes anciens – bien sûr en surface si celles-ci sont préservées et si on peut encore les observer – mais surtout au niveau de coupes réalisées dans les dépôts quaternaires, au droit des failles anciennes. On réalise pour ce faire des « tranchées » de 2 à 6 mètres de profondeur pour observer les dépôts récents et étudier s’ils sont affectés ou non par des ruptures que l’on n’aurait pas vu en surface. Les résultats de ces recherches aideront les spécialistes du risque sismique à déterminer si oui ou non le dimensionnement des constructions et les ouvrages sensibles, notamment les centrales nucléaires qui sont dans la région, doit être réévalué.
Après avoir travaillé pendant plus de 25 ans comme ingénieure dans le CAO DAO et supercomputing et s’être investie dans l’association Femmes Ingénieurs en tant que présidente, Marie-Hélène Therre s’est tournée vers le consulting. Elle intervient dans les entreprises pour faire prendre conscience des biais, notamment dans l’innovation. Son but : déjouer l’androcentrisme qui prévaut encore aujourd’hui afin de mettre en place des projets plus inclusifs et donc véritablement innovants.
« Les biais sont des raccourcis que fait notre cerveau pour emmagasiner plus rapidement des informations plurielles ou complexes. Il classe les objets et les personnes, d’où la catégorie des hommes et la catégorie des femmes », explique la consultante. Or, aux femmes sont souvent associés les mots « foyer » et « famille » quand « carrière » et « leader » désignent communément les hommes. Et ces biais sont perceptibles lorsqu’une innovation est pensée et développée.
Des innovations pensées pour les hommes
Marie-Hélène Therre prend l’exemple de mini-ordinateurs portables sortis il y a quelques années dont une gamme était réservée aux hommes et l’autre aux femmes. « Sur la première, vous retrouviez des produits bureautiques comme Word, Excel, etc. En revanche, la version ‘femme’ était colorée alors que l’autre était noire, et les logiciels à l’intérieur permettaient entre autre de suivre sa courbe de poids ». Mais plus qu’une innovation stéréotypée voire complètement excluante pour une partie de la population, ne pas prendre conscience des biais peut avoir des conséquences très dangereuses. L’ingénieure rappelle qu’auparavant, les crash-tests étaient réalisés avec des mannequins hommes puis avec des mannequins enfants. Il a fallu attendre beaucoup plus longtemps pour s’interroger sur la morphologie des femmes et cela a causé la mort de nombreux fœtus car la question des femmes enceintes n’avait pas été posée.
Pour y remédier, Marie-Hélène Therre intervient en entreprise essentiellement sous forme d’ateliers afin de favoriser les échanges. Les équipes et elle réfléchissent à l’impact des a priori sur les projets, les normes choisies, et déconstruisent certaines idées communes : certains pensent qu’un objet fabriqué pour les hommes fonctionne aussi bien pour les femmes, mais ce n’est pas le cas. Selon l’ingénieure, il faut réfléchir dès la conception à toutes les personnes susceptibles d’utiliser les produits. Cela permet une analyse plus fine du marché et intègre les attentes de la population complète, et pas seulement d’une partie de la population. Mais elle reconnait que ce sont des démarches qui prennent du temps, car aujourd’hui encore les hommes blancs et valides restent majoritaires dans les environnements scientifiques, techniques et technologiques. Un autre frein qu’elle distingue : « La plupart des entreprises pensent que la question de la mixité dépend essentiellement des ressources humaines donc d’embaucher autant de femmes que d’hommes. Ils ne pensent pas du tout au niveau des produits, des services et des projets ».
Pourtant, les avantages sont nombreux pour les entreprises qui intègrent la dimension hommes-femmes dès la conception d’un produit : « Ça génère de la valeur ajoutée, de nouvelles idées émergent, ça permet aussi d’intégrer d’autres dimensions comme le handicap, les facteurs socio-culturels. L’innovation peut ainsi avoir un impact sociétal car elle est destinée à tous ». Seule manière selon elle de parler réellement d’innovation.
C’est l’occasion de gagner un crédit pour le module CerT.I. de votre choix, avec à la clé une attestation qui valorise l’assimilation de vos connaissances.
Vous voulez enrichir votre CV et afficher un badge CerT.I. sur votre profil ?
Pour tenter votre chance et remporter une tablette Archos ainsi que le crédit CerT.I. de votre choix, il suffit de répondre à cette question ; un tirage au sort déterminera les 10 gagnants (Règlement concours CerT.I.1 ) :
Qu’est-ce que le CerT.I. ?
Avec CerT.I,, Techniques de l’Ingénieur met à la disposition de ses abonnés un passeport pour intégrer de nouveaux projets. Le module se compose d’un article interactif, de quiz d’entrainement ainsi qu’un test de validation élaborés par les meilleurs experts et validés par les comités scientifiques.
Restez en veille et donnez de la hauteur à vos projets en réussissant les tests CerT.I. !
Pour remporter le module CerT.I. de votre choix et découvrir ce nouvel outil, tentez immédiatement votre chance en répondant à la question ci-dessus !
Discipline pluridisciplinaire par excellence, à mi-chemin entre la biologie et l’ingénierie, les organes sur puce ont révolutionné la culture cellulaire. Sur une puce gravée d’un système microfluidique (qui consiste en des canaux traversés par un liquide physiologique), des cellules sont ensemencées pour ensuite former des tissus voire même des organes. Il est même possible de connecter des puces entre elles pour reproduire le fonctionnement de l’organisme. « La taille d’une puce fait entre 100 micromètres et un millimètre, nous sommes donc au stade des micromachines et de la microtechnologie », souligne Dominique Collard, directeur de recherche au LIMMS, un laboratoire spécialisé dans la recherche sur les microsystèmes, commun entre le CNRS et l’Université de Tokyo (Japon).
Fabrice Soncin, qui dirige une équipe de recherche intégrée au projet SMMiL-E, un programme tourné vers la cancérologie, également au LIMMS, explique le concept : « Tout comme un organe est constitué d’une apposition de différents tissus formés de divers types cellulaires, les organes sur puce miment cela in vitro. Le grand avantage est que, grâce aux systèmes microfluidiques, nous parvenons à perfuser les cellules avec leur milieu de culture. » Directeur du laboratoire Biologie à grande échelle (CEA, Inserm et Université Grenoble-Alpes), Xavier Gidrol renchérit : « Dans un système microfluidique, le milieu de culture circule en permanence, ce qui permet de garder les cellules vivantes pendant plusieurs mois, voire même une année ».
Une micro-fabrication par photolithographie
L’approche de microfabrication est résumée par Fabrice Soncin : « Au départ, on grave des galettes de silicium : on construit à très haute résolution un moule inverse de ce qu’on veut et, sur ces moules, on fait couler du PDMS, un matériau biocompatible qui va se solidifier pour former des microcanaux de l’ordre de quelques micromètres, soit une taille manipulable et visualisable au microscope. C’est dans ces microcanaux que circulera le milieu de culture et qu’on ensemencera les cellules ».
Cagatay Tarhan, diplômé de l’Université de Tokyo et enseignant-chercheur chez Yncréa Hauts de France et au LIMMS, ajoute : « Avant le moulage avec le PDMS, nous avons recours à la photolithographie, mais à l’échelle du micron. Son fonctionnement rappelle celui de la photographie. »
On vous explique la démarche photolithographique dans le dictionnaire technique multilingue de Techniques de l’Ingénieur : « Une fine couche de résine photosensible est tout d’abord déposée sur le substrat. Elle est ensuite exposée à une source lumineuse (rayonnement ultra-violet UV) à travers un masque optique présentant des zones opaques et transparentes et reproduisant les motifs planaires du circuit à graver. Les motifs sont ensuite révélés dans une solution chimique, ce qui aboutit à une reproduction des motifs du masque en négatif ou en positif selon le type de résine utilisé. »
Reproduire des vaisseaux sanguins tumoraux
L’équipe de Fabrice Soncin travaille à fabriquer des modèles 3D in vitro de vaisseaux sanguins, l’angiogenèse (formation de nouveaux vaisseaux sanguins) étant l’un des mécanismes essentiels de la croissance tumorale. « Cela nous permet de tester in vitro des molécules médicamenteuses et de limiter fortement l’utilisation de modèles animaux », souligne le directeur de recherche de l’Inserm.
Reconstruction 3D en microscopie confocale d’un vaisseau sanguin créé au sein d’un dispositif microfluidique (BioMEMS; crédits: F. Soncin)
Etape par étape, il relate comment reproduire des vaisseaux sanguins perfusés : « Nous gravons des galettes de silicium pour y créer le moule à l’inverse et nous faisons couler dedans le PDMS qui, en se polymérisant, va devenir comme du plastique poreux. Une fois que ces canaux sont créés, nous les collons sur une lame de verre pour fermer l’une des faces des canaux de manière à ce que ce soit hermétique. Ensuite, nous connectons les canaux à un système fluidique : contrôleurs de pression, débitmètres, valves, ou autre… Concrètement, nous faisons geler dans ces canaux un hydrogel qui servira de matrice extracellulaire sur laquelle les cellules s’établiront. À l’intérieur de cet hydrogel, nous créons un premier canal en continuité avec le système de perfusion, et c’est à travers ce système fluidique que nous ensemençons les cellules endothéliales. Au bout de trois jours, ces cellules forment une monocouche qui vient tapisser le canal. Les cellules endothéliales poussent jusqu’à confluence et s’arrêtent, comme dans le cas d’un vaisseau in vivo. Dans ce canal de cellules endothéliales, nous faisons passer du milieu de culture dans des conditions qui miment la perfusion sanguine, et des cellules circulantes de l’immunité, qui participent aux réactions inflammatoires ».
Toujours selon le chercheur, différentes analyses peuvent être menées par la suite sur cette structure in vitro : l’observation en temps réel sous microscope confocal (en immunofluorescence), l’analyse de protéines (par Western Blot), un profilage de l’expression des gènes… Cependant, quand il ne s’agit pas d’observation au microscope, il faut récupérer les cellules : « Pour ce faire, il est nécessaire de détruire l’organe, précise Fabrice Soncin, par lyse de l’hydrogel ou digestion enzymatique. Or, un problème est que nous avons peu de cellules car nous travaillons sur des dimensions très petites… Pour étudier les protéines, nous avons besoin de beaucoup de cellules et donc de plusieurs puces ». Le chercheur affirme par ailleurs qu’un même moule peut servir plusieurs fois, « tant qu’il est bon », et servir à créer « une dizaine d’unités de puces », mais cela reste à l’échelle du laboratoire, le but n’étant pas d’en industrialiser la fabrication.
Il existe cependant des entreprises qui commercialisent des puces destinées à la culture cellulaire. C’est le cas de la startup américaine Emulate, dont la technologie est notamment utilisée à l’Institut Pasteur.
Interested in learning how our Lung-Chip could be used for COVID-19 research? Join us on May 7th at 11 am EDT for a webinar on how the Lung-Chip can be used to study viral infection.#research#biotech#organchips#organsonchips#COVID19
Cette société est une « spin-out » qui a vu le jour au Wyss Institute, à Harvard (Etats-Unis), le laboratoire précurseur des organes sur puce et à l’origine du premier poumon sur puce.
Ce ne sont pas des vaisseaux sanguins mais un pancréas qui est construit sur puce par l’équipe de recherche de Xavier Gidrol, en collaboration avec l’équipe de Fabrice Navarro au CEA Leti. Le pancréas, comme le rappelle le chercheur, remplit deux fonctions. Une fonction dite « endocrine » : il sécrète l’insuline et le glucagon, des hormones qui régulent le taux de glucose dans le sang. Et une fonction « exocrine » dont la vocation est de sécréter des sucs digestifs qui se déversent dans le côlon pour aider à la digestion.
« Nous travaillons sur plusieurs organes sur puce qui miment l’une ou l’autre de ces fonctions, indique Xavier Gidrol. Nous réalisons des organes sur puce autour des maladies affectant le pancréas, comme le diabète ou le cancer. Le premier modèle que nous avons conçu était des îlots de Langerhans [amas de cellules pancréatiques productrices d’hormones, NDLR]. Le but a été de les vasculariser grâce à des co-cultures afin de permettre aux îlots de sécréter de l’insuline pendant un mois, et nous permettre ainsi de tester des médicaments. En effet, un problème majeur aujourd’hui est l’attrition [également appelée ‘taux d’abandon’, elle correspond à la perte de participants dans un essai clinique, NDLR], et une de ses raisons est l’inadéquation des modèles animaux qui ne sont pas toujours pertinents d’un point de vue scientifique ou bien acceptés d’un point de vue éthique. Les organes sur puce comblent ce vide car ils constituent des modèles plus pertinents pour les tests médicamenteux, en espérant qu’on obtiendrait ainsi moins de rejets et de déchets. »
Le deuxième modèle de pancréas sur puce conçu dans ce laboratoire vise à déterminer si le diabète augmente ou pas le risque de cancer du pancréas : « La littérature est essentiellement basée sur l’épidémiologie, note Xavier Gidrol, et très peu de papiers essaient d’identifier les mécanismes moléculaires impliqués. Ce que l’on étudie cette fois est la fonction exocrine, en créant des organes sur puce de tissus grâce à des cellules prélevées de personnes non diabétiques et d’autres de patients diabétiques. Nous mimons ainsi le micro-environnement d’un patient diabétique et celui d’un donneur non-diabétique afin d’étudier les conséquences du diabète sur la cancérisation du pancréas, celle-ci émergeant dans la partie exocrine de l’organe ».
Dans cette même logique de recréation de micro-environnement de diabétique et de non-diabétique, l’équipe développe une peau sur puce : « Nous cherchons à savoir comment le diabète influence la cicatrisation de la peau, poursuit Xavier Gidrol. Nous créons artificiellement une blessure et nous étudions comment le micro-environnement diabétique retarde la cicatrisation de la blessure. Nous travaillons sur des cellules de peau, différenciées à partir des cellules humaines d’un donneur, que nous vascularisons en co-culture ».
À la place du PMDS, cette équipe de recherche utilise du COC. « Au début de la discipline, le PDMS était l’élastomère le plus utilisé, explique Xavier Gidrol. Mais il est controversé, car beaucoup de molécules pharmaceutiques s’y accrochent. Le choix de l’élastomère est en fonction de la physiologie que l’on souhaite mimer. Historiquement, le premier organe sur puce était un poumon, et pour celui-ci le PMDS est idéal car il est élastique. Le COC, quant à lui, est rigide. »
Adapter le liquide physiologique, un défi
Pour Fabrice Soncin, la composition de la matrice extracellulaire, le substrat sur lequel les cellules s’accrochent et qui est nécessaire à maintenir les cellules en vie, peut se révéler problématique : « Le souci est dans la composition et la reproductibilité. Cette matrice est extraite de tissus vivants et comme ce sont des matériaux biologiques, leur composition diffère entre les lots achetés. Elle peut être riche en collagène issu de tendons d’animaux mais il existe aussi des hydrogels plus spécifiquement conçus pour la culture de cellules tumorales mais leur composition n’est pas non plus connue et varie aussi en fonction des lots achetés. Nous nous retrouvons à nous poser des questions comme : est-ce que nos observations sont finalement dues à la composition spécifique du lot ? L’idéal est de créer une matrice de synthèse pour contrôler beaucoup mieux la composition et la structure. En ce sens, nous avons démarré un partenariat avec une entreprise de biotechnologie qui commercialise une matrice synthétique de composition et de fabrication connues ».
Une recherche en synergie
Des scientifiques aux profils variés interviennent dans la recherche sur les organes sur puce. Leurs expertises se complètent. « Je suis ingénieur spécialisé en électronique, témoigne Cagatay Tarhan, directeur du programme SMMiL-E, mais l’équipe comprend également des biologistes, des ingénieurs en mécanique, des biophysiciens, des scientifiques spécialistes des matériaux, des chimistes, des data scientists, des statisticiens… ». L’esprit collaboratif ne s’arrête pas là et dépasse même les frontières françaises, comme l’explique Dominique Collard : « Le LIMMS a été fondé il y a 25 ans et le but à la base était de développer de nouveaux microsystèmes. Ensuite, une fois que cette technologie est devenue suffisamment mature, cela nous a permis de l’appliquer à la médecine et à la biologie. Nous avons alors entrepris de transférer la technologie du Japon jusqu’en France où nous pouvons travailler sur des études précliniques. Et c’est à Lille que l’opportunité s’est présentée pour mener des travaux en cancérologie avec le Centre Oscar Lambret et en lien avec l’Université de Lille ». Des chercheurs japonais participent régulièrement à des travaux collaboratifs en se rendant sur place, au LIMMS lillois.
Pour sa part, l’équipe de Xavier Gidrol s’implique dans plusieurs projets européens : elle fait notamment partie de la European Organ-on-Chip Society (EUROoCS). En 2018, année de sa création, l’EUROoCS a publié un projet de roadmap pour la recherche européenne future portant sur les organes sur puce. « Tous les ans, l’EUROoCS organise un colloque où se réunissent ses membres », indique Xavier Gidrol. En raison de la pandémie de Covid-19, l’édition 2020 du colloque annuel s’est déroulée en ligne, en juillet. Il se tiendra à Uppsala (Suède) en 2021.
Image de une : Puce microfluidique à visée médicale. Crédit photo : FMNLab / CC BY (https://creativecommons.org/licenses/by/4.0)
Dans un premier temps fixée au 7 avril 2020, la date butoir pour déposer un projet ou une candidature a été repoussée au 20 juillet 2020 en raison de la crise sanitaire.
Le jury, composé de représentants de la CDEFI et de ses partenaires : l’Agence universitaire de la Francophonie, Elles bougent, Femmes Ingénieurs, Talents du numérique, ATC France, Bureau national des élèves ingénieurs (BNEI), Campus Channel, la Commission des titres d’ingénieur (CTI), Ingénieurs et scientifiques de France (IESF), STMicroelectronics et Techniques de l’Ingénieur, s’est réuni virtuellement le 2 septembre 2020 et a étudié les 144 candidatures et projets.
À l’issue des délibérations, les nominé-e-s suivant-e-s ont été désigné-e-s (par ordre alphabétique) :
prix à destination des écoles (trois prix seront décernés) : Cesi école d’ingénieurs, l’ENSIM, l’ENSI Poitiers, l’EPF, l’ESITech, Grenoble INP, l’IMT Lille Douai, et Polytech Orléans ;
prix de l’élève-ingénieure France, en partenariat avec l’AUF : Maud CADORET, élève-ingénieure à l’université de technologie de Troyes (UTT), Caroline DUZAC, élève-ingénieure à l’ENI de Tarbes, Julie SULMONT, élève-ingénieure à l’INSA Rennes ;
prix de la femme ingénieure (deux prix seront décernés) : Andreia CATHELIN, diplômée de l’ISEN Lille et ingénieure chez STMicroelectronics, Cécile CHARREL, diplômée de l’ISEP et ingénieure chez STMicroelectronics, Cécile FLOER, diplômée de l’ENSEM et maître de conférences à l’université de Lorraine, Héloïse JACOB, diplômée de l’EIVP et ingénieure chez Data Soluce, et Fahimeh PONSONNAILLE, diplômée de l’institut Sup Galilée et ingénieure au sein du Groupe SACRED.
Enfin, l’Agence universitaire de la Francophonie au Maghreb, partenaire de la CDEFI, a également statué sur la lauréate du prix de l’élève-ingénieure Maghreb.
Vous pouvez dès à présent noter la date de la cérémonie de remise des prix, qui se tiendra à distance le jeudi 1er octobre 2020 de 15 h à 18 h. Les noms des lauréates (élèves-ingénieures France et Maghreb, femmes ingénieures, et écoles d’ingénieur-e-s) seront alors dévoilés.
En collaboration avec deux entreprises, la start-up londonienne Xtera et l’entreprise japonaise KDDI Research, l’équipe de recherche dirigée par le Dr Lidia Galdino (UCL Electronic & Electrical Engineering et chercheur à la Royal Academy of Engineering), a atteint un taux de transmission de données de 178 térabits par seconde (soit 178 000 000 mégabits par seconde).
Le précédent record, 44,2 térabits par seconde, avait été atteint en mai 2020 par des chercheurs australiens grâce à l’introduction d’un nouveau dispositif appelé « Micro-comb ».
La vitesse de transmission obtenue par l’équipe du Dr Lidia Galdino est proche de la limite théorique de transmission des données fixée par le mathématicien américain Claude Shannon en 1949. Pour se rendre compte de la portée de ce record, c’est comme si on téléchargeait tout le catalogue de Netflix en moins d’une seconde !
Coût abordable
Pour relever ce défi, les scientifiques se sont appuyés sur une longueur d’onde beaucoup plus large que celle généralement utilisée dans la fibre optique. Actuellement, on bénéficie d’une bande passante de 4,5 THz. Les chercheurs utilisaient une bande passante de 16,8 THz.
Pour obtenir une telle bande passante, ils ont combiné différentes technologies d’amplification et ont ensuite comprimé plus d’informations que d’habitude en modulant la luminosité, la phase et la polarisation des longueurs d’onde des signaux avant qu’ils ne soient envoyés à travers les fibres optiques.
L’avantage de cette technique (baptisée Geometric Shaping-GS) est qu’elle peut être déployée de manière rentable sur des infrastructures déjà existantes, en améliorant les amplificateurs situés sur les réseaux de fibres optiques à des intervalles de 40 à 100 km.
Une solution intéressante d’un point de vue économique puisqu’un tel amplificateur ne reviendrait qu’à 18 000 euros. Or, en France, on estime que la pose d’une fibre enterrée sous la chaussée revient à 75 900 euros par kilomètre.
De quoi peut être favoriser le service universel pour la fibre souhaité par Secrétaire d’État au numérique, Cédric O… Le Très haut débit (THD) pour tous deviendra-t-il une réalité ?
L’entreprise TenCate Geosynthetics est spécialisée dans la vente de géotextiles pour les travaux publics, l’aménagement paysager, les centres de stockage des déchets et l’agriculture. Elle développe aussi une activité insolite : la vente de nappes pour protéger les glaciers. Des installateurs se chargent ensuite de vendre leurs prestations aux propriétaires de glaciers ou de domaines skiables. Entretien avec Nicolas Laidié, directeur du segment « non tissés » chez TenCate Geosynthetics pour l’Europe, le Moyen-Orient et l’Afrique.
Techniques de l’Ingénieur : À quoi sert la technologie TenCate Toptex GLS 340 ?
Nicolas Laidié : C’est une petite activité qui a tendance à fortement augmenter avec l’intérêt de protéger les glaciers et l’activité économique qui fait vivre les économies locales du tourisme et des loisirs d’hiver. Des glaciers ou massifs qui fondent peuvent menacer le tourisme d’hiver dans certaines régions. D’où l’intérêt de solutions comme notre nappe TenCate Toptex GLS 340.
Cette activité existe depuis une quinzaine d’années, en particulier en Autriche sur de nombreux glaciers et massifs montagneux du Tyrol. Cette solution consiste à protéger les glaciers pour éviter leur fonte en été. La nappe est ainsi installée au printemps. Les bandes mesurent 70 mètres sur 5 mètres, pour 2 millimètres d’épaisseur. L’assemblage entre les différentes bandes se fait le plus souvent par soudage au chalumeau à gaz. À l’automne, la nappe est retirée. Les installateurs la gardent en attendant de la réinstaller à la prochaine saison. Elle est ainsi réutilisable entre 3 et 4 saisons.
Les travaux sont opérés à de hautes altitudes et il n’est pas possible de recouvrir toute la montagne. L’étendage de ces nappes va rester relativement limité, sur des zones exposées au soleil, soumises aux plus fortes fontes. Sur le glacier Presena en Italie, on est passé d’une couverture de 30 000 m² en 2008 à 100 000 m². C’est déjà une surface importante, mais cela reste une goutte d’eau par rapport à l’envergure de la zone qu’il faudrait couvrir en totalité.
Au début des années 2000, nous avons mené une grande étude à l’Institut de métrologie et de géophysique de l’Université d’Innsbruck en Autriche pour montrer l’apport de cette solution. Comparée à 3 autres solutions qui consistent à ne rien faire, injecter de l’eau ou compacter la glace, la nappe réduisait la fonte des glaces de 60 %.
C’est une nappe non tissée composée de filaments continus en polypropylène entremêlés. Autrement dit, chaque fil ne s’arrête jamais dans toute la nappe et se retrouve ainsi entremêlé avec les autres dans l’épaisseur, de façon aléatoire. Pour obtenir ce mélange aléatoire, notre procédé brevet mélange les filaments avec des jets d’eau à haute pression.
Cette structure tridimensionnelle est très importante pour plusieurs raisons. Premièrement, elle permet d’avoir une grande perméabilité à l’air pour éviter que le vent en altitude se glisse en dessous ou frotte à la surface, entraînant un appel d’air qui ferait soulever ou s’envoler la nappe. La deuxième caractéristique est de laisser passer l’eau. Lorsqu’une nappe est appliquée sur une pente, la pluie doit pénétrer dans la structure du non tissé et suivre cette structure avec la pente. Cette perméabilité à l’eau est importante pour éviter qu’elle reste dans la structure, et éviter ainsi un contact prolongé entre l’eau et la neige, ce qui ferait faire fondre la neige.
Nous avons une nappe très perméable à l’eau et à l’air mais très résistante. Lorsqu’elle est exposée sur les pentes d’un glacier, elle ne va pas se dégrader rapidement car elle est résistante aux UV et a une bonne résistance mécanique. En plus, le produit est blanc et est donc très réfléchissant à la lumière. En fin de compte, nous avons une nappe réfléchissante et isolante qui engendre une température sous sa surface bien inférieure à celle au-dessus.
Comment s’assurer que l’impact environnemental est limité et que la nappe sera recyclée en fin de vie ?
Sur les glaciers, la faune et la flore ne sont pas très développées. Mais on s’intéresse à la dégradation potentielle du produit. Entre 3 et 5 ans, la nappe ne va pas relarguer de matières dans la nature. Elle est imputrescible et ne va pas se dégrader car elle est résistante aux UV. Le produit est posé et retiré. Le fait que l’installation soit à cycle court rassure sur le fait qu’il ne va pas rester dans la nature pendant des décennies.
La nappe est fabriquée en polypropylène, un plastique recyclable. À partir du moment où elle est récupérée, elle peut être recyclée. L’est-elle réellement ? Cela dépend des opérateurs jusqu’à la fin de la chaîne. Nous orientons nos clients vers une filière de recyclage si besoin, mais comme nous ne connaissons pas chaque site d’installation, nous ne pouvons pas aller derrière chaque propriétaire pour nous assurer du bon recyclage effectif. Cela dépend de la bonne conscience environnementale de chacun.