Les aérogels sont des mousses solides extrêmement légères, car elles sont constituées d’un réseau de porosités nanométriques. En plus d’être les solides les plus légers du monde (composés jusqu’à 99,8% d’air), les aérogels sont d’excellents isolants électriques, thermiques et soniques. Cependant, comme les aérogels sont des matériaux céramiques, leur point faible reste leur stabilité mécanique, principalement aux hautes températures.
Si les plus connus sont à base de silice (SiO2), il est par ailleurs possible de synthétiser de nombreux types d’aérogels céramiques, de type nitrures, carbures ou oxydes et même des aérogels polymères dont certains sont biosourcés : les bioaérogels.
Architecture unique et superelasticité
L’aérogel dont il est question ici n’est pas fait de silice, mais de nitrure de bore hexagonal (hBN), la forme cristalline thermodynamiquement stable à température ambiante du nitrure de bore. C’est de cette forme hexagonale, analogue à celle du graphite, que viennent les propriétés exceptionnelles de ce matériau. En effet, la structure de cet aérogel permet un certain « glissement » entre les nanofeuilles de hBN. Par conséquent, lorsque ce matériau est soumis à un effort en compression uniaxial, il est capable de se déformer de façon superélastique en retrouvant 95% de sa taille d’origine. Pour les plus sceptiques, voici une vidéo montrant le comportement du matériau durant les essais mécaniques de mise en compression.
Des propriétés thermiques exceptionnelles
Outre sa superelasticité, cet aérogel présente surtout des propriétés thermiques plus qu’intéressantes. Contrairement à beaucoup d’autres aérogels, il est capable de résister à des chocs thermiques intenses (montées et descentes de 275 °C par seconde) et à des températures de plus de 900 °C dans l’air et 1400 °C dans le vide, durant des temps d’exposition longs. Encore mieux : alors que les céramiques ordinaires ont tendance à s’allonger avec l’augmentation de la température, cet aérogel fait tout l’inverse : il se contracte avec l’échauffement, car il possède un coefficient de poisson négatif.
Les applications spatiales des aérogels
Les aérogels sont devenus célèbres grâce à la NASA, lors de la mission Stardust, dont l’objectif était la récupération de poussières issues de la comète Wild-2. Mais les applications spatiales potentielles de ce nouvel aérogel au nitrure de bore sont probablement bien plus vastes. En effet, sa résistance aux chocs thermiques et sa légèreté en font probablement le matériau idéal pour les rentrées et sorties atmosphériques des engins spatiaux.
Vers une nouvelle génération de matériaux ultralégers ?
Le professeur Duan, de l’Université de Californie à Los Angeles (UCLA) affirme que le procédé utilisé pour concevoir cet aérogel pourrait être utilisé pour la fabrication d’autres matériaux ultralégers. Cette nouvelle génération de matériaux pourrait ainsi s’avérer extrêmement utile pour le stockage de l’énergie thermique, la catalyse ou la filtration.
Dans les prochains jours, une sortie brutale du Royaume-Uni de l’Union européenne sera à prévoir. Les présentations de Theresa May devant le Parlement britannique se suivent et se ressemblent, et le scénario d’une sortie sans accord semble se préciser. Les analystes craignent que cette sortie soit notamment suivie par un marasme économique. Les écologistes craignent également que le fait de quitter l’Union européenne porte préjudice à l’environnement du pays. Une interrogation légitime lorsque l’on sait que 80 % des lois sur la pollution, le recyclage, les produits chimiques, ou encore le réchauffement climatique proviennent de l’Union européenne.
Après le départ du Royaume-Uni de l’Union européenne, plus rien n’obligera l’État insulaire à suivre les directives données par Bruxelles. Les défenseurs d’une politique environnementale forte craignent également qu’après le Brexit, le gouvernement soit totalement enferré dans d’autres problématiques et que la question de l’environnement soit laissée de côté. Une hypothèse partagée par Richard Black, directeur du think tank Energy and Climate Intelligence : « Si nous avons un Brexit sans accord, le gouvernement va être occupé par d’autres choses. »
Les ONG environnementales britanniques craignent le Brexit
Les mots de Theresa May et du ministre de l’Environnement Michael Gove sont toutefois plutôt rassurants. Ce dernier assure que le Brexit sera l’occasion pour le pays de « redessiner la politique environnementale qui assurera le même niveau de protection que celui garanti par l’Union européenne ». Et depuis l’an dernier, la Première ministre avait assuré que le Royaume-Uni continuerait de tenir ses « engagements envers la planète ». Par ailleurs, le gouvernement prévoit la création d’un Bureau pour la protection de l’environnement qui aura pour rôle d’apporter aux équipes gouvernantes des informations fiables et indépendantes. Il jouerait le rôle qu’assure actuellement la Commission européenne et prendrait ses fonctions en 2021.
Mais malgré ces assertions, les écologistes ne sont pas convaincus. Ils estiment que si le bureau est une initiative louable, il n’aura pas les moyens d’agir. Dans tous les cas, cet organisme ne jouera pas un rôle aussi contraignant que la Commission européenne sur le gouvernement britannique. Après le Brexit, le gouvernement désignera lui-même le directeur de ce bureau. C’est également le gouvernement qui le financera. En ce sens, la question de son indépendance pourrait légitimement être remise en question. Une configuration que déplore la militante de l’ONG Friends of the Earth Kierra Box. « Cela ne ressemble pas à l’organisation puissante qu’on nous avait promise » déplore-t-elle.
Le Brexit, une aubaine pour les entreprises pollueuses
Et la perplexité quant à la future action britannique pour l’environnement dépasse les frontières nationales. Les institutions européennes craignent que le Brexit entraîne un vide juridique qui empêcherait le Royaume-Uni de sanctionner les entreprises qui enfreindraient les lois environnementales. Des entreprises ont déjà commencé à faire pression sur le gouvernement, à l’instar d’Ineos. Selon The Guardian, la société pétrochimique menace de fermer son usine de Middlesbrough, causant ainsi la perte de 350 emplois, si elle devait continuer de respecter les directives européennes en termes de pollution de l’air et de l’eau.
Et il se pourrait fortement que les entreprises aient gain de cause. Le gouvernement leur a bien affirmé qu’une fois le Brexit acté, le pays ne serait plus soumis à la réglementation européenne. La gestion des déchets pourrait également être très fortement impactée, favorisant l’incinération ou l’enfouissement des déchets. Le déversement de produits chimiques dans les eaux ne serait pas impossible non plus. « L’inquiétude pourrait bien se produire: tout à coup, aux frontières de l’UE, vous avez un pays qui applique des normes insuffisantes en matière de législation environnementale ou sociale […] et nous ne pouvons rien faire. Ce n’est pas bon pour l’environnement » déclare anonymement un député européen.
En 2018, 50,2 gigawatts (GW) de nouvelles capacités charbon, dont 34,5 GW en Chine, ont été mises en route dans le monde. C’est 20 % de moins qu’en 2017 et 53 % de moins qu’en 2015. À l’opposé, les capacités mises à l’arrêt ont augmenté : 30,9 GW, en hausse de 7 % par rapport à 2017. Malgré ces chiffres encourageants, la hausse nette des capacités mondiales atteint 19,4 GW sur l’année. Le nombre de centrales à charbon en activité demeure incompatible avec le maintien du réchauffement climatique à nettement moins de 2°C comme le stipule l’Accord de Paris, dénoncent Global Energy Monitor, Greenpeace et Sierra Club dans un nouveau rapport.
Plus de centrales mais moins de nouveaux projets
D’autres chiffres montrent le ralentissement des nouveaux projets. Ainsi, la mise en chantier de nouvelles constructions a atteint 28 GW, en baisse de 39 % par rapport à 2017 et de 84% par rapport à 2015. Les projets en phase de préconstruction (483 GW) ont pour leur part baissé de 24 % par rapport à 2017 et de 69% par rapport à 2015.
A l’opposé, un chiffre montre que tout n’est pas gagné. Les capacités des centrales charbon en cours de construction sont reparties à la hausse en 2018. Alors que le volume des constructions en cours était passé de 338 GW en 2015 à 209 GW en 2017, il atteint 236 GW en 2018.
Opposition mondiale, mais des financements asiatiques
Ces tendances reflètent un climat politique et économique de plus en plus contraint pour les promoteurs de centrales au charbon. Citons notamment des restrictions financières imposées par plus de 100 institutions et des plans d’élimination du charbon dans 31 pays. Cependant, les agences financières d’État en Chine, au Japon et en Corée du Sud sont devenues les sources de financement les plus importantes pour les centrales à charbon situées en dehors de leurs frontières.
Malgré la politique pro-charbon de Donald Trump et ses efforts pour ne pas fermer les centrales vieillissantes, les États-Unis concentrent la moitié des arrêts de centrales à charbon dans le monde en 2018. Sur l’année, 45 unités ont été arrêtées, soit 17,6 GW de capacités retirées. C’est le deuxième plus grand recul historique du pays.
La Chine fait encore exception
La Chine est une exception frappante au ralentissement mondial du développement des centrales au charbon. Les promoteurs ont relancé la construction de dizaines de projets suspendus. Un rapport de mars 2019 du China Electricity Council, le représentant des services publics d’électricité du pays, propose de fixer le plafond de capacité de charbon du pays à 1 300 gigawatts en 2030. « Un niveau qui permettrait d’ajouter 290 gigawatts de nouvelle capacité, plus que l’ensemble du parc de charbon des États-Unis », regrettent les trois organisations. Soit de quoi autoriser des centaines de nouvelles unités.
« Une nouvelle vague de construction de centrales au charbon serait presque impossible à concilier avec les réductions d’émissions nécessaires pour éviter les pires effets du réchauffement planétaire, affirme Lauri Myllyvirta, expert de la division pollution atmosphérique de Greenpeace. Les objectifs énergétiques de la Chine ont une incidence plus importante sur les émissions mondiales que toute autre décision de politique nationale. »
Deux tiers des dentifrices commercialisés en France contiennent du dioxyde de titane. Suite à une nouvelle étude, l’association Agir pour l’Environnement a établi une liste édifiante de 271 dentifrices dont la composition intègre cette substance qui comporterait un risque pour la santé. Ce sont ainsi deux dentifrices sur trois qui sont concernés, sur les 408 dentifrices commercialisés sur le marché français. Parmi ceux qui en contiennent, 25 sont estampillés « bio ». Et même un dentifrice pour enfants sur deux comporte dans sa composition cette substance controversée. Une information d’autant plus préoccupante qu’en janvier dernier, le gouvernement a confirmé l’interdiction de cet additif de tous les produits alimentaires. Le dioxyde de titane disparaîtra donc de tous les aliments en France dès mi-avril 2019.
Sur les emballages, la présence de dioxyde de titane est signalée par les dénominations E171 ou TiO2. Utilisé pour favoriser la blancheur et la brillance des produits, il se présente sous la forme d’une poudre blanche qui sert de colorant. La controverse liée à l’utilisation de ce produit est due à sa composition qui contient des nanoparticules. D’une taille inférieure à 100 nanomètres, les particules de dioxyde de titane pourraient s’infiltrer très facilement dans l’organisme. En 2017, l’Institut national de la recherche agronomique (INRA), avait rendu publique une étude confirmant que le dioxyde de titane favorisait la croissance de « lésions colorectales précancéreuses » chez le rat.
Le dioxyde de titane, un très répandu « cancérogène possible »
Cette étude menée sur le rat n’a cependant pas permis d’établir la dangerosité avérée du dioxyde de titane sur l’homme. Toutefois, des études pilotées par l’Agence de sécurité sanitaire (Anses) ont confirmé le passage des nanoparticules de TiO2 à travers la barrière hémato-encéphalique. Déjà en 2006, le Centre international de recherche sur le cancer (CIRC) avait reconnu le dioxyde de titane comme « cancérogène possible pour l’homme ». Or, à l’heure actuelle, la réglementation n’exige pas que la mention « nanoparticules » figure sur les emballages des produits concernés. C’est pourquoi Agir pour l’Environnement demande à la Direction générale de la répression des fraudes (DGCCRF) une enquête pour savoir « si l’absence de la mention nano sur l’étiquetage des dentifrices est justifiée ».
Pour Magali Ringoot, chargée de mission chez Agir pour l’Environnement, il est insensé que la substance soit interdite dans l’alimentation et pas dans les produits de toilette. Selon elle, « il serait incohérent de tolérer le dioxyde de titane dans les dentifrices alors qu’on l’interdit dans l’alimentation ». Agir pour l’Environnement a lancé une pétition dans le but d’étendre l’interdiction du dioxyde de titane à d’autres produits que les seules denrées alimentaires. Le dioxyde de titane est également présent dans l’enrobage des chewing-gums, et selon l’UFC-Que Choisir dans 4000 médicaments.
L’attention de l’association Agir pour l’Environnement se focalise particulièrement sur le dentifrice à cause du risque d’ingestion qu’il implique. Ce risque est d’autant plus fort chez les enfants, qui sont plus prompts que les adultes à avaler une petite quantité de dentifrice à chaque brossage de dents. Par ailleurs, Agir pour l’environnement s’est particulièrement penché sur le cas d’un dentifrice pour enfants, le « Signal kids goût fraise 2-6 ans ». Dans ce produit de la marque leader sur le marché français, 47% des particules de TiO2 sont inférieures à 100 nanomètres. Notons que le dioxyde de titane a essentiellement une utilité esthétique, pour atteindre un blanc éclatant.
L’objectif du Challenge Industrie du futur est de mettre en contact des industriels expérimentés avec des startups innovantes qui proposent des solutions pour l’industrie 4.0. Kaoutar Sghiouer, product manager en Intelligence Artificielle chez Atos et mentor lors de la première édition du Challenge, nous explique comment fonctionne ce type de partenariat.
Comment se passe l’intégration des startups du Challenge avec Atos ?
Lors de la première édition du Challenge, j’accompagnais des startups spécialisées en intelligence artificielle. C’est mon domaine de compétences donc je pouvais vraiment apporter une valeur ajoutée. Le but est d’abord de bien comprendre les spécificités de leur projet et leurs objectifs. Ensuite, nous travaillons ensemble sur la façon d’intégrer la jeune entreprise aux propositions de valeur d’Atos. Il faut parfois revoir leur business model s’il n’est pas cohérent avec le marché ou si leur offre s’avère irréalisable. Après le Challenge, notre objectif est de concrétiser les partenariats et d’intégrer les startups à notre portfolio.
Pourquoi décider de travailler avec des jeunes entreprises ?
Quand il y a un besoin, deux solutions s’offrent à nous : soit investir et créer au sein d’Atos une entité chargée de développer une offre avec de nouvelles technologies, soit faire appel à des startups qui proposent déjà le service que nous recherchons. Avec cette deuxième option, nous avons directement affaire à des experts de leur domaine qui veulent relever des défis. Nous devons simplement les aider à se développer pour correspondre à nos attentes. Si travailler avec des startups est un investissement en termes de temps et d’argent, cela a beaucoup d’avantages. D’ailleurs, rien que dans la section « Intelligence Artificielle » d’Atos, 6 à 10 startups travaillent avec nous !
Et quels sont les avantages du côté des startups ?
De manière générale, c’est une relation gagnant-gagnant. Nous jouons en quelque sorte le rôle de parrain, et nous les aidons à adapter leurs offres. Les startups trouvent plus facilement des clients car la marque Atos rassure et crédibilise leur offre. Ainsi, les jeunes entreprises gagnent en visibilité et ont accès à notre réseau, ce qui a un impact positif sur leur chiffre d’affaires.
L’Europe lance aux constructeurs automobiles un nouveau défi. Le 27 mars dernier, le Parlement européen a voté une baisse d’émissions de CO2 des véhicules neufs de 37,5 % par rapport à la limite de 2021. Soit une moyenne imposée par l’Europe de 59 g/km en 2030, contre 95 g/km de CO2 en 2021. Les utilitaires légers sont également concernés par la mesure, mais seront tenus à réduire leurs émissions de 30 % seulement.
La mesure a été largement adoptée, avec 521 députés qui ont voté pour. La décision du Parlement européen est plus ambitieuse que la recommandation de la Commission européenne qui demandait que la réduction pour les véhicules des particuliers ne soit que de 30 %. Un premier pallier est fixé pour 2025, date à laquelle les émissions de CO2 devront avoir reculé de 15 %.
Une voie ouverte vers les transports décarbonés
Le Parlement européen est bien décidé à faire respecter cette mesure. Par voix de communiqué, l’institution explique que « les constructeurs dont les émissions moyennes dépassent les limites devront payer une prime sur les émissions excédentaires ». Les parlementaires se laisseront ensuite jusqu’à 2023 pour savoir quoi faire des sommes générées par ces primes. La possibilité de les allouer à un fonds pour tendre vers une mobilité totalement décarbonée et assurer la formation des travailleurs du secteur automobile est envisagée.
Cette mesure a été adoptée en cohérence avec les objectifs posés par l’Accord de Paris et la limitation du réchauffement climatique. « Nous nous sommes fermement battus pour sauvegarder l’intégrité environnementale de la proposition et apporter de réels avantages en matière de santé, de consommation et d’innovation aux citoyens européens » expliquait Miriam Dalli, députée européenne (Parti travailliste) maltaise, après le vote. Cette dernière déclare également que cette issue reflète l’issue d’un bras de fer musclé qui a opposé les députés à l’industrie automobile et quelques États membres de l’Union.
Réformer un transport routier hyper-pollueur
Une telle réduction des gaz à effet de serre des véhicules des particuliers représentera une avancée majeure de ce secteur. Depuis les années 1990, le secteur automobile est le seul qui n’a pas encore opéré une baisse significative des émissions des gaz à effet de serre. L’Agence européenne pour l’environnement estime même qu’en 2016, 72,9% des émissions de dioxyde de carbone émises sur le continent sont liées au transport routier.
Le Parlement européen ne cantonne pas ses décisions aux véhicules à moteur thermique. Les députés affichent également leur souhait de voir se développer l’usage des véhicules « à émission nulle et à faibles émissions ». De plus, ces derniers rappellent que cette décision concernant les véhicules particuliers s’inscrit dans l’objectif européen du zéro émission de gaz à effet de serre d’ici 2050. Notons cependant que la nouvelle directive européenne devra être validée par les députés européens en session plénière et par les États membres de l’Union avant d’entrer officiellement en vigueur.
Large approbation pour le projet de loi sur l’orientation des mobilités au Sénat. Les sénateurs, qui ont eu le texte entre les mains avant les députés, ont voté pour le texte avec 248 voix sur 348. Le Sénat déclare que le vote a porté sur un texte « substantiellement amélioré par rapport au projet de loi initial ». Désormais, le texte s’apprête à partir à l’Assemblée nationale pour être adopté par les députés. Hervé Maurey, sénateur de l’Eure et président de la commission d’aménagement du territoire et du développement durable, espère que les points les plus forts du projet seront conservés par les députés.
« Si, d’aventure, ce texte devait finalement ne pas comporter de volet financier sérieux et ne pas prévoir d’aides concrètes allouées aux EPCI [établissements publics de coopération intercommunale] pour qu’ils exercent la compétence sur les mobilités, je ne les soutiendrais pas, et je ne serais sans doute pas le seul » indique Hervé Maurey. La volonté du Sénat est de désenclaver les territoires défavorisés par les réseaux de transports tout en intégrant des véhicules propres. Dans son intervention liminaire, le rapporteur Didier Mandelli s’était justement demandé : « Comment faire pour que la révolution des mobilités ne soit pas une machine de plus à créer des gagnants et des perdants, mais au contraire, une machine à désenclaver ? »
Collectivités et entreprises invitées à favoriser les transports verts
De nombreuses mesures font partie du projet, dont l’objectif est de tendre vers une réduction des véhicules polluants. Si le projet de loi est définitivement adopté avec les dispositions actuelles, les collectivités qui disposent de peu de moyens se verraient attribuer une partie de la taxe intérieure de consommation sur les produits énergétiques (TIPCE). Cela leur permettrait de couvrir les « zones blanches » de leurs territoires. Les collectivités territoriales se verraient également attribuer la gestion des « petites lignes ferroviaires d’intérêt local ». Sur tout le territoire, il y aura des « autorités organisatrices de la mobilité » dont l’objectif sera d’organiser les transports. Dans le même temps, dès 2021, les bus devront prévoir des emplacements pour les vélos.
Les entreprises sont également largement concernées par ce projet de loi. Celui-ci envisage de récompenser financièrement les entreprises qui développeront le télétravail. Les dirigeants pourront encourager leurs employés à choisir de faire leurs trajets domicile-travail à vélo ou en covoiturage. Sur la base du volontariat, les patrons pourront rembourser jusqu’à 400 euros des frais de déplacement des employés. Les entreprises devront également verdir leur parc automobile, tout comme les VTC, les taxis et les loueurs de voiture.
Ce nouveau service vous permet de rester en veille sur les sujets que vous choisissez. C’est un outil que nous mettons à votre disposition pour :
Être informé en temps réel.
Recevoir, dans un mail unique, toute l’information qui vous concerne.
Optimiser votre utilisation des documentations sélectionnées par Techniques de l’Ingénieur
Identifier les informations essentielles.
Suivre uniquement les sujets qui vous intéressent.
La Veille Personnalisée est accessible à tous les utilisateurs ayant un compte sur le site Techniques de l’Ingénieur. Elle se matérialise par la réception d’un mail, le lundi matin, regroupant toutes les nouvelles parutions de la semaine précédente, de l’ensemble du site (Article de référence, Fiche pratique, Actualité, livre blanc, webinar, dossier, etc…).
Le fonctionnement de votre nouvel outil est facile et rapide. Rendez-vous dans votre espace personnel sur le site Techniques de l’Ingénieur. Dans la colonne de gauche, cliquez sur « Ma veille personnalisée ». Sélectionnez un ou plusieurs mots-clés dans le référentiel et chaque semaine, vous recevrez l’ensemble des contenus publiés par Techniques de l’Ingénieur sur ces sujets !
Dans le cadre de l’Accord de Paris, l’Union européenne (UE) s’est fixé comme objectif de réduire ses émissions de gaz à effet de serre de 40 % d’ici 2030 par rapport à 1990. Une nouvelle étude du think tank britannique Sandbag montre que l’UE est déjà sur les rails pour réduire ses émissions d’au moins 50% en 2030. Cela, grâce à plusieurs mesures déjà adoptées. Entre autres, le paquet énergie propre, les mesures sur les transports et les annonces de sorties du charbon.
D’ici la COP26 de 2020, les pays signataires de l’Accord de Paris doivent fournir de nouveaux engagements climatiques. En effet, les contributions nationales actuellement sur la table mènent le monde vers un réchauffement climatique de 3°C en 2100 par rapport à l’ère préindustrielle. Insuffisant pour respecter l’accord qui vise de le limiter à 2°C, voire 1,5°C à cet horizon.
Une réduction des émissions européennes de 50 % à 58 % en 2030
Dans le cadre des discussions pour remonter l’ambition climatique européenne, Sandbag explique donc que l’engagement minimum de l’UE doit être d’« au moins 50% » en 2030. « Grâce aux futurs ajustements des politiques climatiques, une réduction des émissions de gaz à effet de serre de 58 % d’ici 2030 est possible », estime le think thank. Pour remonter l’ambition, il est envisageable de jouer sur cinq leviers : les dates d’élimination du charbon, l’efficacité énergétique, la pénétration des énergies renouvelables, la pénétration des véhicules électriques et la tarification du carbone. Il serait même possible d’aller encore plus loin « si d’autres mesures ou des changements plus ambitieux sont envisagés ».
Lumière sur les trois scénarios étudiés avec des baisses d’émissions de 50 % à 58 % selon les ambitions retenues sur 5 critères. Source : Sandbag.
Mais à ce stade, les États membres de l’UE se sont montrés incapables de s’accorder sur la nécessité de relever l’objectif européen pour 2030 (NDC), malgré une prise de position du Parlement pour -55%. Afin de ne pas rater ce rendez-vous, le secrétaire général des nations unies appelle les différents leaders à venir au sommet climatique des nations unies à New York, en septembre prochain, « avec des plans concrets et réalistes en vue de relever leurs objectifs climatiques d’ici 2020 ».
Depuis 1990 la soufflerie Jules Verne du CSTB, à Nantes, permet aux industriels de tous secteurs et de tous pays de tester leurs produits à l’échelle 1 ou légèrement réduit face aux intempéries : pluies, neige, grêle, brouillard, cyclones ou encore températures extrêmes. Dès 2013, une réflexion est engagée pour la moderniser et l’agrandir. Le projet se concrétise en 2018 pour un budget de 8,5 millions d’euros (infrastructures et renouvellement de l’instrumentation) financés à 50 % par le CSTB et à 50 % par la région Pays de la Loire et le FEDER. Cette rénovation vient de s’achever après un an de grands travaux nécessitant sa fermeture. Implantée sur 6000m², la soufflerie s’articule désormais sur 5 veines d’essais : thermique, atmosphérique, aéraulique, aérodynamique (vent jusqu’à 280km/h) et une nouvelle veine aéroacoustique. Cette dernière permet notamment de tester les bruits émergents de plus de 70dBA (au-dessus du fond sonore de la ville). Simultanément aux écoulements d’air, la soufflerie peut aussi recréer les effets d’ensoleillement de type tropical, de froid ou de chaud (de -32°C à +55°C) grâce à son circuit thermique. Cela permet de restituer le rayonnement solaire et son flux radiatif ou encore différentes teneurs hygrométriques (par exemple 95 % d’humidité pour des températures de 30 à 35°C typique des climats tropicaux). Que ce soit pour des drones militaires, pour des ponts suspendus, pour des trains ou encore pour des panneaux solaires, la soufflerie Jules Verne est réputée au niveau international tant pour ses équipements que pour l’expertise des quelques 80 salariés du site.
Des nouveautés qui vont faire du bruit
Outre l’allongement et l’élargissement de l’anneau dynamique équipé de six énormes ventilateurs (3200kW au total), la modernisation a aussi concerné les outils de mesure et les outils de simulation numérique en vue de développer de nouvelles applications et de conquérir de nouveaux clients. Ainsi, la soufflerie propose une approche numérique en parallèle de l’approche expérimentale : les essais peuvent être dimensionnés en amont et les résultats de modélisation physique obtenus en soufflerie peuvent être couplés aux résultats de simulation numérique pour une analyse fine et précise. Dans cette optique de développement d’outils innovants, le CSTB a notamment développé une application de réalité augmentée, CSTB Xperience, qui permet aux clients de rendre visible l’invisible en affichant les lignes d’émission qui matérialisent l’écoulement du vent ou encore d’afficher directement sur la maquette en soufflerie les résultats des mesures.
Parmi les nouvelles options proposées, la soufflerie s’est équipée d’aubages acoustiques qui offrent la possibilité d’étudier les nuisances sonores. Les acteurs du BTP pourront par exemple évaluer les nuisances sonores liées au vent sur la façade d’un bâtiment dès la phase de test de la résistance aérodynamique (qui teste le comportement face au vent) ce qui permettra de faire d’éventuels changements le plus en amont possible.
Des nouveautés pour un air plus sain
La veine aérodynamique a aussi été munie d’un dépoussiéreur. Il permet, lors des essais en soufflerie, d’étudier l’impact des chantiers, mines et carrières en termes de pollution de l’air et de tester des solutions d’aspiration/filtration des poussières.
La modernisation de la soufflerie vise aussi à la rendre parfaitement adaptée à l’émergence des énergies renouvelables. Ainsi, des systèmes gonflables et des équipements mobiles sont installés dans les veines et permettent d’en modifier la géométrie : les écoulements d’air reproduisent plus précisément la réalité du terrain comme pour la simulation d’un champ d’éolienne dont on voudrait étudier les performances en fonction de la disposition des éoliennes.
Dans le cadre du développement des nouvelles énergies, le CSTB a aussi accueilli un étudiant de thèse qui a travaillé sur les effets des sollicitations concomitantes du vent et de la houle sur des éoliennes flottantes à axe horizontal aboutissant à un nouveau type de flotteur.
Des nouveautés pour plus de sécurité
La soufflerie accueille aussi un nouveau banc d’essai à rouleau double essieu situé dans la veine thermique de la soufflerie. Il ouvre la possibilité de tester la résistance aux aléas climatiques de tous types de véhicules en roulage : voitures et camions jusqu’à 14 tonnes, y compris les véhicules hybrides ou tout électriques. Cet équipement vient améliorer l’expérience déjà forte en matière de test de sécurité pour les acteurs du transport : comportement des moteurs et du roulage par temps de neige et de froid sur les voitures, étude des phénomènes d’accrétion de neige ou de givre en entrée d’air des turbines de moteur d’hélicoptère, évaluation des sollicitations thermiques sur les organes de freinage des automobiles ou encore caractérisation aérodynamique des rames ferroviaires pour l’évaluation du risque de renversement…
Mounir Mahjoubi, secrétaire d’État au numérique depuis l’élection d’Emmanuel Macron, a quitté le gouvernement vendredi 29 mars 2019 pour se consacrer aux élections municipales à Paris. Il est remplacé par Cédric O, jusqu’alors conseiller auprès du Président notamment pour les affaires numériques. Les têtes changent mais le cap reste le même avec pour objectif de soutenir les entreprises françaises évoluant dans les nouvelles technologies (French Tech), de réduire la fracture numérique et de poursuivre la numérisation de la société. L’occasion de faire un bilan de ces deux premières années de la politique du numérique sous la présidence d’Emmanuel Macron.
Soutien aux entreprises : French Tech et Start-up
Dès 2017, Mounir Mahjoubi s’engage dans un tour de France des start-up pour recueillir doléances et souhaits. Il en tire plusieurs propositions d’actions et engage différentes actions globales ou sectorielles autour de quatre grands thèmes – simplification de la vie des entrepreneurs, financement, recrutement, accompagnement dans l’expansion internationale – qu’il présente en mai 2018. Le soutien à l’écosystème des start-up françaises (French Tech) passe au sein du gouvernement par la Mission French Tech. Ces deux dernières années auront vu le lancement de la phase 2 avec des changements structurels (passage des métropoles French Tech aux communautés et Capitale French Tech), une simplification du French Tech Visa permettant d’accueillir des salariés étrangers avec des formalités réduites (gratuit, valable 4 ans, sans condition de diplômes…) et des fonds dédiés (3 M€ dans la loi de finance et un fonds French Tech Seed doté de 400 M€). En parallèle des actions économiques, des actions portent sur la diversité dans la tech avec les initiatives Femmes@Numérique et French Tech Tremplin qui encouragent la présence des femmes et la diversité sociale dans les start-up.
Réduction de la fracture numérique
La politique de transition numérique de la société passe par l’accès de tous aux outils et aux nouvelles technologies. Deux grands programmes ont été lancés :
« France Num », à destination des TPE-PME qui sont peu nombreuses à avoir pris le virage du numérique. Lancé le 15 octobre 2018, il comprend notamment une plate-forme d’accompagnement, un référencement de conseillers et des prêts bancaires sans garantie pour les entreprises.
Le deuxième, à destination de la population en général, est constitué de la « stratégie nationale pour un numérique inclusif » dont une des premières concrétisations est le Pass Numérique : un service d’accompagnement doté d’une enveloppe de 6 M€ pour soutenir les initiatives visant à former, accompagner, équiper les 13 millions de Français utilisant peu ou pas l’Internet et éprouvant des difficultés face à ces outils.
Dématérialisation de l’État
Elle a réellement fait un bond en avant ces deux dernières années avec la mise en place opérationnelle de France Connect (portail d’identification numérique permettant d’accéder à tous les services publics avec un seul et même identifiant et qui s’ouvre aux entreprises privées assurant des services au public). Cette numérisation, qui s’est parfois faite à marche forcée, a cependant enregistrée son lot de dysfonctionnements, à l’instar des émissions de carte grise qui ont pris plusieurs mois de retard. Des ratés dont l’État doit encore tirer les enseignements, tant du point de vue de la mise en place pour le public que pour le fonctionnement des services où les tensions ont été exacerbées.
Les chantiers qui attendent Cédric O
Outre la continuité des actions déjà entamées, Cédric O devra s’emparer de plusieurs chantiers, notamment européens :
La mise en place du règlement européen « Platform to business – P2B » adopté mi-février 2019 au niveau européen et qui va encadrer les relations entre les grandes plates-formes de commerce en ligne avec leurs fournisseurs (PME notamment) pour éviter les pratiques déloyales et apporter plus de transparence sur les suspensions de compte, méthodes de mise en avant des produits etc. Des thématiques abordées dans la charte e-commerce signée la semaine dernière par de grandes places de marché numérique présentes en France (LeBonCoin, Darty-Fnac, Rakuten) pour s’engager auprès des TPE-PME françaises mais de laquelle est absente Amazon et Alibaba.
Assurer le positionnement de la France sur le règlement ePrivacy en discussion au niveau européen. Portant sur la protection des données privées, son contenu est décrié autant par les représentants des internautes que par les acteurs de l’Internet.
Placer la France au cœur du numérique international avec des opérations de communication comme la deuxième édition de « Tech for Good » en mai. Ce mini-sommet avait, l’an dernier, réuni une cinquantaine de grands patrons du numérique (dont Mark Zuckerberg pour Facebook ou Satya Nadella pour Microsoft) autour d’Emmanuel Macron. C’était déjà l’œuvre de Cédric O dont le carnet d’adresses sert justement depuis deux ans à gérer les relations entre les GAFA et l’Elysée.
Car Cédric O, bien qu’inconnu du public, est dans les rouages de la politique depuis plus de 10 ans. A 37 ans, ce diplômé d’HEC est passé par de grandes entreprises comme Safran et a été conseiller auprès de Pierre Moscovici, de Dominique Strauss-Khan, de François Hollande et d’Emmanuel Macron. Il a notamment été trésorier de l’association de financement de la campagne du président et fait partie de l’exécutif d’En Marche. Sa sœur, Delphine O, spécialiste des relations internationales, notamment au Moyen-Orient est députée suppléante de… Mounir Mahjoubi à la 16e circonscription de Paris. Elle siège donc depuis qu’il a intégré le gouvernement.
Fin février, le Cert-fr (Centre gouvernemental de veille et d’alerte aux attaques informatiques) a publié un avis sur une vulnérabilité dans les versions d’OpenSSL 1.0.2x antérieures à la 1.0.2r.
Si cette faille est dite « modérée », cet avis reste néanmoins important, car cette bibliothèque open source de chiffrement est très largement utilisée par les développeurs pour mettre en œuvre le protocole de communication sécurisée TLS et son prédécesseur SSL.
De son côté, l’équipe de recherche en cybersécurité de RIPS Technologies GmbH a publié le 19 février 2019 un bulletin dans lequel est révélée l’existence d’une nouvelle vulnérabilité WordPress. Cette attaque, peu complexe à mettre en œuvre, concerne ce système de gestion de contenu (CMS) gratuit, libre et open source qui est en écrit en PHP.
Navigateurs : alerte générale !
Ces deux failles confirment que l’open source n’est pas épargné par les vulnérabilités. Il faut néanmoins préciser que le nombre de failles est plus élevé du côté des logiciels propriétaires de Google (android), d’Adobe (Acrobat reader) et de Microsoft. Et la situation n’est pas très encourageante.
« En 2018, le nombre de vulnérabilités a dépassé celui de l’année précédente, avec une augmentation de 12 % du nombre total de vulnérabilités publiées en 2017 », constate Skybox Security, leader mondial en matière d’opérations, d’analyse et de reporting dans le domaine de la cybersécurité. La situation est surtout préoccupante avec les navigateurs dont le nombre de failles ne cesse de croître.
Manque de temps
Pour revenir à l’Open source, il est inquiétant de constater une augmentation de 88 % des vulnérabilités des bibliothèques d’applications open source au cours des deux dernières années. Dans son deuxième rapport, « The State of Open Source Security 2019 », la société de sécurité open source Snyk a répertorié 16 000 nouvelles vulnérabilités en 2018. Un record historique.
« Plus nous utilisons des logiciels libres, plus nous accumulons de risques, car nous incluons le code de quelqu’un d’autre qui pourrait potentiellement contenir des vulnérabilités maintenant ou à l’avenir », note Liran Tal, auteur du rapport Snyk.
Si tout le monde a plus ou moins conscience des risques, c’est la volonté et le manque de temps qui semble le plus inquiétant. Selon l’enquête DevSecOps de Sonatype (5 500 professionnels de l’IT interrogés), près de la moitié des développeurs de logiciels libres ont déclaré qu’ils croyaient que la sécurité devait être une priorité, mais qu’ils « n’avaient pas assez de temps à y consacrer ».
Où est le plastique qui disparaît de la surface des océans ?
Commençons par un rappel basique : les plastiques qui flottent sont ceux qui ont une densité inférieure à celle de l’eau, comme le polyéthylène, le polypropylène et le polystyrène expansé, notamment utilisés dans les emballages alimentaires à usage unique. Sont également concernés les objets chargés d’air, comme les bouteilles ou les briquets. En théorie, plus de la moitié du plastique rejeté chaque année dans les océans répond à ces critères. Toutefois, seulement 270000 tonnes de plastiques flottent dans les océans, ce qui représente entre 2% et 6% du déversement annuel. La grande majorité se trouve en-dessous de la surface : les scientifiques estiment qu’il y aurait au moins 150 millions de tonnes de plastiques réparties dans les océans.
Lorsqu’ils arrivent en mer, la moitié des déchets coule aussitôt, l’autre moitié flotte pendant quelques mois. Nous allons nous consacrer, dans un premier temps, à cette fraction flottante. Les déchets les plus rigides vont résister à la dégradation pendant plusieurs années, mais les plus fragiles et les moins épais vont se dégrader rapidement et relâcher des microplastiques et des nanoplastiques. Nous l’avons déjà dit, lorsque les scientifiques font leurs prélèvements avec des filets Manta, ils ne mesurent que les particules de plus de 0,33 mm. Très peu d’études ont fait des tests en mer avec des filets à plancton de mailles de 0,08 mm. Il s’agit là d’une première explication : une partie des déchets flotte bien sous une toute petite forme, mais le poids de cette portion reste inconnu.
Des plastiques qui se répartissent dans la colonne d’eau, les animaux et les glaces
Par la suite, quelle que soit leur taille, une partie des déchets est rapidement ingérée par diverses espèces marines. Ils se retrouvent ainsi dans leurs glandes digestives, dans leurs tissus ou bien sont rejetés sous forme d’excréments. La part absorbée par les espèces aquatiques demeure incertaine : les habitants de la mer seraient-ils devenus des réservoirs de plastique ? Une autre portion du plastique flottant se trouve emprisonnée dans les glaces de l’Arctique et de l’Antarctique. En faisant fondre des échantillons de la banquise arctique, des chercheurs allemands ont ainsi trouvé jusqu’à 12000 microplastiques dans un seul litre d’eau. Au total, 17 sortes de plastiques ont été retrouvées et 67% des particules détectées dans la glace mesuraient moins de 0,05 mm. Enfin, une dernière fraction du plastique est rejetée sur les plages et les côtes du monde entier.
Au fur et à mesure de leur dérive, les plastiques flottants qui n’ont pas été avalés sont colonisés par des micro-organismes et s’alourdissent. Les plus petits peuvent s’agréger ou s’enchevêtrer à d’autres molécules présentes dans le milieu marin. Leur densité augmente et il arrive un moment où elle devient supérieure à celle de l’eau. Les plastiques commencent alors à couler lentement. En fonction de leur nouvelle densité, ils se répartissent verticalement tout le long de la colonne d’eau, entre la surface et le fond. Ils peuvent alors y rester, être ingérés par d’autres organismes marins, ou se retrouver dans la neige marine – cette pluie continue de détritus marins qui tombe vers les abysses – et dans les sédiments. Le plastique connaît des mouvements incessants : lorsqu’il coule, il peut refaire surface ou être remis en suspension si sa densité se trouve à nouveau modifiée.
Des millions de tonnes dans les fonds des océans
Intéressons-nous désormais aux millions de tonnes qui coulent aussitôt, la fraction constituée des plastiques les plus lourds, ceux qui ont une densité supérieure à l’eau. François Galgani, chercheur à l’Ifremer et spécialiste des déchets plastiques, indique qu’il pourrait y avoir entre 71 et 116 milliards de gros débris plastiques dans le fond des océans et des mers, sans prendre en compte les microplastiques, d’une taille inférieure à 5 mm. Les scientifiques doivent désormais faire des estimations plus précises, notamment pour en déterminer le poids et mieux estimer leur localisation. Des dizaines de millions de tonnes sont transportées par les courants et finissent dans les fonds marins, les fosses océaniques ou les canyons sous-marins. Certaines fosses atteignant plus de 10 000 mètres de profondeur, une quantité impressionnante de plastiques pourrait s’y déposer.
Vingt-trois fosses océaniques ont, à l’heure actuelle, été répertoriées dans le monde. La fosse des Mariannes, située dans le nord-ouest du Pacifique, est la plus grande d’entre elles. Elle mesure 2500 km de long, 70 km de large et a une profondeur de plus de 11000 mètres. Il s’agit d’une zone largement inexplorée, où peuvent s’accumuler des déchets. Ajoutons-y des milliers d’autres canyons sous-marins propices au dépôt de plastiques. En revanche, il serait faux d’imaginer le fond des océans comme un tapis de déchets. Pour que les plastiques s’accumulent, « ils doivent rencontrer des obstacles comme des épaves, des rochers, des trous, des rigoles ou tout autre fosse« , explique François Galgani. Il est envisageable que des déchets se concentrent dans des zones à faible courant ou de forte sédimentation, mais la majorité des déchets qui ont coulé se trouverait loin des regards, dans les fosses océaniques.
Présentation du livre
« Survivre au péril plastique » dresse un tableau complet de la production, de l’utilisation, de la gestion et de l’avenir des plastiques. La pollution engendrée par ces matériaux est planétaire. Elle envahit les mers et les océans du monde, les rivières, la terre et l’air. Les gros déchets contaminent, étouffent et tuent les animaux. Les plus petits font de même sur une multitude d’espèces. Différents fragments de plastique se retrouvent inexorablement dans notre assiette et nous en ingérons au quotidien. Ils relâchent des perturbateurs endocriniens dans notre corps. Le constat est sans appel et incite à mettre en place des solutions rapidement.
L’ouvrage fait ainsi le tour des solutions pour nettoyer les eaux, créer des filières de transition, arrêter à la source les rejets dans l’environnement, valoriser 100 % des plastiques et repenser leur usage. Ces solutions sont mises en place par des entreprises, startups, collectivités, ONG et citoyens. Le monde politique joue également un rôle important.
Matthieu Combe a fondé le webzine Natura-sciences.com en 2009. Il collabore régulièrement avec Techniques de l’ingénieur. Son premier livre «Consommez écologique» est paru en 2014 aux éditions Sang de la Terre.
Annoncé pour la première fois par le W3C et l’Alliance FIDO en novembre 2015, WebAuthn est maintenant une norme d’authentification qui ambitionne de remplacer le mot de passe pour sécuriser nos comptes en ligne. « Cette avancée est un grand pas en avant pour rendre le Web plus sûr – et utilisable – pour les utilisateurs du monde entier », a déclaré le W3C dans son communiqué de presse.
WebAuthn est une interface. C’est ce qu’on appelle une API. Cette Application programming interface utilise une cryptographie asymétrique (à clé publique) au lieu de mots de passe ou de textes SMS pour l’enregistrement, l’authentification et l’authentification à double facteur avec les sites Web.
Sécurité et simplicité
Cela résout les problèmes de sécurité importants liés à l’hameçonnage (phishing), aux fuites de données et aux attaques visant les solutions à double facteur d’authentification tout en augmentant considérablement la facilité d’utilisation. Les utilisateurs n’ont plus à gérer des dizaines de mots de passe toujours plus complexes (mots de passe dits « forts » pour être plus difficiles, voire impossibles, à deviner).
WebAuthn peut se présenter sous la forme d’une clé de sécurité FIDO (de l’Alliance du même nom, Fast IDEntity Online) à connecter au port USB d’un ordinateur. Ce standard peut aussi être utilisé avec la reconnaissance digitale, faciale…
Ce standard pour navigateurs (ordinateurs et smartphones) et plateformes en ligne est déjà pris en charge par Windows 10 et Android, ainsi que par Google Chrome, Mozilla Firefox (qui avait commencé à la supporter dès avril 2018), Microsoft Edge et Apple Safari (preview).
Les services et applications Web commencent à activer cette fonctionnalité. WebAuthn est déjà implémenté sur des sites tels que Dropbox, Facebook, GitHub, Salesforce, Stripe et Twitter.
Le suivi rétinien se répand dans un nombre croissant de casques de réalité virtuelle, améliorant la netteté de l’image là où c’est nécessaire. Illustration avec le VR-1 de Varjo, présenté à Laval Virtual.
En pleine tempête du Brexit, la communauté scientifique s’interroge : quelles seront les conséquences à moyen et long terme ? Zoom sur la filière nucléaire avec le retrait d’Euratom, REACH, impact sur les personnels, incertitudes des chercheurs et des étudiants européens, accès aux fonds et aux infrastructures communes de la recherche européenne…
Le secteur des métiers de l’ingénierie devrait embaucher 50 à 60000 personnes par an entre 2018 et 2021. Mais, dans la première édition de son baromètre économique, Syntec-Ingénierie note un sous-effectif structurel qui atteint les 4 % et appelle à promouvoir en urgence la formation à ces métiers.
Convoquée à la grand-messe de la téléphonie mobile, l’industrie a mis l’accent sur la 5G et les écrans flexibles, espérant relancer un marché en berne.
Les systèmes d’air conditionné des bâtiments consomment chaque année 10% de l’électricité produite dans le monde. Heureusement la recherche avance et une équipe de chercheurs a mis au point une peinture permettant de refroidir les bâtiments de façon passive.
« Il va devenir nécessaire de sortir des perturbateurs endocriniens et des pesticides ». Cette assertion de Paul François, président de l’association Phyto-Victimes, donne le ton. Une frange du corps médical partage son opinion. Cet agriculteur céréalier charentais de 55 ans est particulièrement sensible à la question des risques liés à l’exposition aux perturbateurs endocriniens. Il est lui-même malade. Il souffre de sérieux problèmes neurologiques causés par un contact avec un herbicide, le Lasso, commercialisé par Monsanto. Ce produit, désormais interdit à la vente, a causé de lourdes lésions cérébrales qui font endurer de forts maux de tête à l’agriculteur. Sans antidouleurs, la vie de Paul François serait impossible.
Les pesticides, poisons intergénérationnels
Plus récemment, l’homme a été opéré d’une tumeur à la thyroïde. « Les médecins disent que c’est peut-être une répercussion de l’exposition aux perturbateurs endocriniens » explique-t-il. Aujourd’hui, il continue de mener son combat juridique contre la firme américaine, qu’il tient pour responsable de son « empoisonnement ». Cette lutte, il la mène depuis douze ans. Mais même affaibli, il tient à continuer son combat, au nom de ses collègues agriculteurs, chez qui le nombre de cancers et autres lourdes maladies chroniques sont en constante augmentation. Pour lui, l’unique façon de mettre fin à ce cercle vicieux est de cesser l’épandage de produits phytosanitaires sur les exploitations agricoles.
Si Paul François mène activement son combat, c’est pour libérer la parole des agriculteurs et de leurs familles.
Autre fléau lié aux perturbateurs endocriniens : l’infertilité. « Chez les agriculteurs, c’est un sujet tabou, mais de plus en plus sont touchés » explique le céréalier charentais. Et lorsqu’ils ont des enfants, parfois même ces derniers souffrent. « Des enfants d’agriculteurs viennent aussi contacter l’association. Ce sont des victimes collatérales. Souvent, ces enfants ont aidé leurs parents à épandre des produits chimiques sur les parcelles. Ils ont participé aux semis, aux jalons. C’est ce qui les a rendus malades eux aussi » déclare Paul François.
Consommateurs et médecins, acteurs du changement
Autre sujet de discussion : les produits phytosanitaires sont-ils réellement efficaces ? Autour de Paul François, des scientifiques doutent. Selon eux, les parcelles traitées aux produits chimiques n’ont pas de meilleurs rendements que les autres. Ainsi, ils rappellent le fait que depuis 1995, les rendements des cultures de blé ont sensiblement baissé. De là à penser que les agriculteurs risquent leur santé pour peu, il ne reste qu’un pas. « C’est pourquoi il faut que les consommateurs favorisent le passage vers le bio » soutient Paul François. Mais cette transition doit se faire avec les agriculteurs, en accompagnant leur transition. Les défenseurs d’un changement de modèle agricole aimeraient voir émerger une politique claire. Elle permettrait ainsi d’accompagner les agriculteurs durant les années de conversion.
Cependant, ils ne sont pas les seuls à avoir un rôle capital à jouer. Les médecins sont également appelés à agir activement pour la sensibilisation du public. Pierre-Michel Périnaud, médecin généraliste et président de l’association l’Alerte des médecins, affirme que la profession doit savoir garder sa neutralité. Pour lui comme pour d’autres, le corps médical ne devrait pas distribuer de produits faisant la promotion d’un groupe pharmaceutique. Cela concerne notamment les services de maternité, qui distribuent du lait infantile non bio. Pour les militants de la suppression des produits phytosanitaires, cela s’apparente à de la promotion de produits potentiellement néfastes pour la santé. « Or, il faut arrêter la propagande », termine Paul François.
Après environ 7 ans, tous les systèmes sont prêts pour le lancement, il y a un mois environ, des premiers satellites haut débit produits en série du monde. Pesant 147 kilos, ces petits satellites sont positionnés sur une orbite basse quasi polaire (1 200 km d’altitude).
Fabriquée à Toulouse par une entreprise commune à OneWeb et Airbus, cette constellation reposera sur 648 satellites opérationnels. Il y aura 252 satellites de remplacement.
Il existe différents projets d’internet par micro satellites. Mais OneWeb peut se targuer d’avoir de puissants investisseurs : Softbank (principal, actionnaire), Virgin Group, Coca-Cola et Qualcomm. Intelsat, le numéro un mondial des télécommunications par satellite, devait se rapprocher de ce projet, mais le mariage n’a pas eu lieu.
Ce lancement témoigne aussi du succès de Syrlinks. Installée à Cesson-Sévigné, cette entreprise va produire plus de 3 000 équipements radiofréquence pour faire fonctionner cette constellation ; il s’agit d’un émetteur-récepteur pour contrôler le satellite à partir de l’infrastructure au sol et d’un amplificateur faible bruit à l’entrée du récepteur GPS. Cet émetteur-récepteur constitue un vrai cordon ombilical. Il permet de commander et contrôler les satellites, et de les faire communiquer avec la Terre.
Mais y aura-t-il de la place pour tout le monde ? De nombreux industriels aux États-Unis, en Europe, en Asie, ou encore au Brésil ont des projets de constellations de micro ou nanosatellites. Ainsi Starlink, initié par SpaceX, prévoit de lancer 12 000 satellites.
De quoi augmenter le nombre de déchets dans l’espace…
La mobilité effrénée est la principale source des rejets carbonés dans l’Union européenne. Face au poids du transport dans l’impact environnemental, tant en matière de CO2 que de pollution aux particules, dès 2009, l’Union européenne a mis en place une réglementation : des règles pour lutter contre les effets nocifs des voitures particulières et des véhicules utilitaires légers, fondées sur les émissions « au pot d’échappement » (également appelées émissions « du réservoir à la roue »).
La dernière révision de cette réglementation a ouvert la porte à la prise en compte des émissions des véhicules sur des périmètres plus complets, dont les contours seront à définir par la Commission européenne en 2023, explique l’OIE, émanation de l’Union française de l’électricité.
Réglementation et réalité
En 2017, les émissions moyennes de CO2 par kilomètre parcouru des véhicules mis en circulation en Europe ont augmenté de 0,4 gCO2/km par rapport à 2016 et atteignaient alors 118,5 gCO2/km2, loin des 95 gCO2/km, l’objectif fixé par la réglementation européenne à l’horizon 2021, constate l’OIE. Pour poursuivre et accélérer le recul des rejets carbonés des véhicules neufs, l’Europe a fixé un nouveau cap à l’horizon 2030 : une baisse de 37,5 % des émissions des voitures neuves par rapport aux objectifs 2021, soit des rejets moyens de CO2 d’environ 59 gCO2/km.
Comparer ce qui est comparable
Pour l’heure, « pour un segment donné, les véhicules à motorisation essence émettent plus de CO2 qu’un véhicule à motorisation diesel, alors que les véhicules électriques et les véhicules à pile à combustible n’émettent pas de CO2 à l’usage », rappelle l’OIE.
Ainsi, le moteur électrique n’émet pas de CO2 « du réservoir à la roue », mais pour « la production d’électricité au réservoir », rien n’est moins certain. D’où la nécessité de bien prendre en compte l’impact de la montée en puissance des véhicules électriques (VE) en termes d’émissions de CO2.
Ainsi, l’OIE juge qu’« une évolution progressive des analyses des émissions de CO2 “du réservoir à la roue” vers des analyses “du berceau à la tombe” , c’est-à-dire sur l’ensemble du cycle de vie, s’impose mais reste complexe à mettre en œuvre en pratique dans les réglementations. Néanmoins, le résultat de ces comparaisons entre motorisations s’avère être déterminant pour définir les technologies garantes d’une réduction globale des émissions de gaz à effet de serre et d’atteinte de la neutralité carbone à horizon 2050 ».
Dans une première approche, les analyses du « puits à la roue » (« well to wheel ») permettent de prendre en compte, pour tous les types de motorisations, les émissions de CO liées à la production de l’énergie utilisée dans la production des carburants, explique la note de l’observatoire. Ainsi, pour un VE, une telle approche permet d’intégrer l’empreinte carbone de la production d’électricité, soit par exemple en France 57 gCO2/kWh (chiffre Agence de l’environnement et de la maîtrise de l’énergie, ADEME). Cette même approche invite à prendre en compte, pour un véhicule hydrogène, le mode de production de l’hydrogène. Pour les véhicules thermiques cela permet de s’apercevoir qu’une voiture au GNV (gaz naturel pour véhicules) émet environ 7% de moins de CO2 qu’une voiture diesel et 25% de moins qu’un véhicule essence.
Au final, pour apprécier l’ensemble des émissions de CO2 d’un véhicule, il convient de prendre en compte l’ensemble de l’analyse du cycle de vie, encore dénommé « cradle to grave ». Celle-ci prend en compte la fabrication du véhicule et de ses composants, la production et le transport de l’énergie, l’utilisation du véhicule et la fin de vie du véhicule. Un tel périmètre fait par exemple ressortir que la production des batteries des véhicules électriques (qui constitue une phase particulièrement énergivore), majoritairement réalisée aujourd’hui en Asie, augmente sérieusement le bilan carbone du VE, dans la mesure où la réponse à la demande asiatique en énergie repose principalement sur les fossiles.
Les différents périmètres possibles pour une réglementation sont ainsi résumés en trois grandes catégories : « du berceau à la tombe », « au pot d’échappement » et « du puits à la roue ».
Le VE gagnant sur tous les plans
Plusieurs études en analyse du cycle de vie ont d’ores et déjà été réalisée. La Fondation Nicolas Hulot (FNH) associée à l’European Climate Foundation (ECF) a étudié l’impact des citadines et berlines ; l’ADEME et l’IPFEN (IFP Energies nouvelles) y ont inclus les véhicules utilitaires légers et les bus et poids lourds. Enfin, Carbone4 a pris en compte la majeure partie des véhicules particuliers. Bilan, ces études montrent que le VE l’emporte sur toute la ligne. Pour l’étude FNH/ECF, l’écart d‘émissions de CO2 constaté avec les véhicules thermiques est en faveur du VE de l’ordre de 2,2 à 3,2 fois. Le document ADEME/IFPEN juge que l’écart d’émissions par rapport à la version thermique est d’environ de 2 à 6 fois moindre que la version électrique. Enfin l’étude de Carbone 4 trouve un écart de 2,6 à 4 fois moins en faveur du VE, en termes de rejets carbonés.
La 21e édition de Laval Virtual, qui a fermé ses portes dimanche dernier, a accueilli quelque 18000 visiteurs (professionnels et grand public inclus), bien que les chiffres officiels ne soient pas encore arrêtés. Une affluence comparable à celle de l’an dernier, dont les organisateurs se satisfont très bien. Interrogé par Ouest France, Laurent Chrétien, directeur général de l’évènement, estime en effet que le salon a atteint une «taille parfaite», réunissant «toutes les communautés de la réalité virtuelle et augmentée : start-ups, chercheurs, fabricants, artistes, etc.»
Cette diversité se fait jour quand on traverse les différents halls de Laval Virtual. Si les applications industrielles forment toujours le pivot du salon, d’autres filières – production audiovisuelle, divertissement, santé, immobilier… – exposent désormais et démontrent à quel point la réalité virtuelle et la réalité augmentée se généralisent, depuis l’apparition des casques grand public comme l’Oculus. Pour la deuxième année consécutive, des expériences de nature artistique ont également profité d’un espace à part entière.
La réalité virtuelle s’impose de fait comme un terrain d’expression et de communication, de sensibilisation même, justifiant la création du prix «VR for a cause». «Le vainqueur, Holoforge Interactive, a modélisé le Mont Saint-Michel, la cause étant ici la protection du patrimoine, détaille Maud Oukaltoum, responsable du pôle évènementiel de Laval Virtual. Un autre projet sélectionné, Hero : A Vérité VR Experience, se consacre au conflit syrien.»
Si l’on se focalise sur l’aspect technique, on découvre comment certains casques se perfectionnent avec l’intégration du suivi rétinien. On observe aussi combien les «accessoires» se multiplient pour renforcer l’immersion : Manus VR dont les gants permettent de visualiser ses propres mains et d’interagir avec des objets 3D, Senseglove, un dispositif haptique qui reproduit des sensations tactiles quand on se saisit d’un objet… Le Virtualize Elite 2 de Cyberith est quant à lui un plan incliné qui analyse la vitesse et la direction de l’utilisateur pour simuler le déplacement de son avatar dans un environnement 3D. Les salles de jeux d’arcade ne sont pas la seule clientèle car les métiers de la sécurité civile peuvent, à l’aide d’un tel outil, se former pour intervenir à plusieurs sur un sinistre.
Des solutions livrées clé en main
En provenance d’universités et de laboratoires surtout japonais, de nombreux projets plus expérimentaux peuvent prêter à sourire : petit ventilateur chauffant fixé à un casque de réalité virtuelle pour ressentir l’arrivée d’une tempête de sable dans un désert, mécanisme «tire-nez» grâce auquel les visiteurs se retrouvent dans la peau de Pinocchio… Ces drôles de concepts stimulent toutefois l’émergence d’idées novatrices. «Ce sont les prémices de technologies à venir» explique Maud Oukaltoum.
De manière plus concrète, d’autres acteurs cherchent à simplifier les solutions existantes pour démocratiser la réalité virtuelle et prospecter une nouvelle clientèle qui ne disposent pas des moyens financiers et/ou humains adéquats. Illustration avec Diiice, une salle immersive livrée clé en main par l’intégrateur Immersion, qui peut entrer dans une pièce de 2,5 mètres sous plafond. Le prix inférieur à 50000 € HT peut convaincre une PME. La cabine de Jaluxi, offrant une surface de 9m2, s’inscrit dans une démarche comparable, bien qu’elle se destine au divertissement. Prête à l’emploi, elle est fournie avec son matériel informatique, son logiciel et son casque de réalité virtuelle. En Suisse, les magasins MediaMarkt l’utilisent pour moderniser l’expérience-client.
La réalité virtuelle et augmentée est appelée à se déployer un peu partout, donc, et le marché s’annonce florissant : IDC prévoit un chiffre d’affaire mondial et global (matériel, logiciel et service) de 215 milliards de dollars en 2021, contre 11,4 milliards en 2017. Une motivation supplémentaire pour se rendre à la prochaine édition de Laval Virtual, qui se tiendra du 22 au 26 avril 2020.
Pour la deuxième année, le leader international dans le domaine du roulement mécanique SKF coorganise le Challenge Industrie du Futur. Le concours, en partenariat avec Techniques de l’Ingénieur, encourage et récompense les startups qui innovent dans le monde de l’industrie.
Les 21 startups finalistes sélectionnées présenteront leur projet face à des industriels lors de la finale du 6 juin, au Campus de l’Espace. Cinq prix seront décernés selon des thématiques précises, avec des récompenses allant de 3 000 à 6 000€.
Le Prix SKF distinguera les startups qui développent des matériaux et des procédés du futur. Frédéric Ponson, program director à SKF, s’enthousiasme de découvrir les nouvelles solutions proposées par les startups : « Nous espérons avoir des propositions pour de nouveaux matériaux, de nouveaux revêtements et de nouveaux procédés, par exemple en fabrication additive ou concernant l’intégration de robots dans les usines ».
Les startups qui conçoivent des nouveaux matériaux ou des revêtements innovants à base de composites, polymères, céramiques etc. peuvent être candidates à ce prix. Les jeunes entreprises qui imaginent de nouveaux procédés pour créer l’usine du futur sont également attendues dans cette catégorie.
La startup sélectionnée gagnera un chèque de 3 000€, en plus de l’accompagnement des entreprises partenaires dont bénéficient tous les finalistes.
Philippe Sasseigne, le directeur du parc nucléaire et thermique, a rappelé que le Grand carénage vise à maintenir le parc nucléaire dans la durée. « Il s’agit d’un axe fort de stratégie économique d’EDF pour contribuer à la transition énergétique. Une transition dont l’objectif est de décarboner l’énergie et en particulier l’électricité ». Cette stratégie Cap 2030 a aussi pour objet de renforcer la place de leader d’EDF en matière d’énergies bas carbone dans la durée, en se fondant sur la complémentarité entre les énergies renouvelables et le nucléaire. Une stratégie qui se trouve confortée par la programmation pluriannuelle de l’énergie (PPE), laquelle permet la prolongation de réacteurs, en réduisant la part du nucléaire dans l’électricité à l’horizon 2035 à 50%, contre 75% aujourd’hui, mais aussi qui ne ferme pas la porte à la possibilité de construire de nouveaux réacteurs, donnant deux ans à EDF pour se préparer pour l’avenir.
Le Grand carénage
Le programme Grand carénage recouvre tout à la fois la mise à niveau de la totalité du parc de réacteurs de 900 MW à l’âge de 40 ans et leur prolongement de 10 ans au départ, mais aussi la maintenance habituelle du parc (par exemple, des examens périodiques tous les dix ans des réacteurs de l’ensemble du parc nucléaire) et les mesures post-Fukushima demandées par l’autorité de sûreté nucléaire française (ASN – Autorité de sûreté nucléaire), a signalé Emmanuelle Verger, directrice gestion-finance à la direction du parc nucléaire et thermique d’EDF, lors de la convention SFEN.
Des impératifs de sûreté
De son côté, Julien Collet, directeur général adjoint de l’ASN, a détaillé les enjeux en termes de sûreté de ce grand carénage. Rappelant d’abord que les quatrièmes visites décennales sur le parc 900 MW vont rester inégalées par leur ampleur et par le volume de travaux réclamés à EDF dans la mesure où plusieurs réacteurs atteindront les 40 ans en même temps, J. Collet a souligné que le Grand carénage devait intégrer plusieurs aspects. D’abord, il a souligné que les 40 ans constituent une échéance technologique et pas un couperet, signalant qu’il s’agissait d’une hypothèse de conception. L’objectif est donc de qualifier les équipements dans la durée, notamment la cuve du réacteur. L’échéance technologique vise à traiter l’obsolescence de certains équipements – ce pas uniquement sur le plan de la sûreté – et donc parfois de remplacer ou de mettre à niveau différents éléments. En termes de sûreté, il s’agit notamment de vérifier la conformité des installations, donc le respect du référentiel de départ, notamment à l’aune d’événements récents sur le parc 900 MW qui ont fait apparaître certains écarts.
Ensuite, le Grand carénage prend en compte le retour d’expérience de Fukushima, l’objectif poursuivi étant d’éliminer les risques de fusion du cœur, d’éviter les vidanges des piscines (comme cela a été le cas à Fukushima) et de disposer à tout moment d’eau pour refroidir les installations. Cela se traduit par la mise en œuvre de moyens mobiles d’intervention (la Force d’action rapide nucléaire – FARN), mais aussi l’installation de diesels d’ultime secours afin de maintenir l’approvisionnement en eau en cas d’accident, d’un centre de crise bunkerisé, ainsi que par une modification d’équipements, par exemple la distribution d’électricité et le contrôle commande.
Ensuite, une réévaluation du niveau de sûreté, qui vise plus particulièrement, en France à se rapprocher le plus possible de l’installation la plus récente du parc, c’est-à-dire des critères de sûreté de l’EPR. Ce qui implique des aménagements dans les réacteurs datant de 40 ans et de nombreuses phases de démonstration que cet objectif est bien atteint.
Un changement du cadre de la réglementation est également en place, depuis la loi de transition énergétique de 2015, avec l’obligation de procéder à des enquêtes publiques. Enfin, J. Collet a souligné que le calendrier du Grand carénage est contraint, puisque la mise en œuvre des éléments liés au retour d’expérience de Fukushima a différé le début des travaux proprement dits de prolongation du parc. En 2020, l’ASN rendra un avis dit « générique » pour l’ensemble des prescriptions applicables sur le parc 900 MW, avant la déclinaison réacteur par réacteur. Mais dans le même temps, la première visite décennale aura lieu à Tricastin 1, dès cette année, indique J. Collet.
Une opération rentable
Une série d’opérations sur la période 2014-2015 qui mobilise toute la filière nucléaire, soit près de 2 600 entreprises en France et quelque 220 000 emplois, a insisté P. Sasseigne.
Son coût est maintenant estimé à environ 45 milliards d’euros (51 milliards de dollars, soit 48 milliards d’euros en 2015 euros). Depuis le début du plan, en 2014, le coût du Grand carénage a été réduit de 10 milliards d’€, compte tenu du fait que le gouvernement a annoncé la fermeture de deux réacteurs à Fessenheim, mais aussi grâce à la réduction des coûts obtenue par le management de projet mis en place par EDF (soit deux tiers de cette réduction).
La maintenance courante représente environ 21 milliards d’euros de ce coût. Le Grand carénage s’élève ainsi autour d’un milliard d’euros par an sur la base d’une production d’environ 400 TWh/an, soit environ 2 €/MWh à 2,5 € /MWh, a indiqué E. Verger.
Même s’il est difficile de prévoir un prix de l’électricité sur le marché dans les 10 à 15 prochaines années, EDF s’attend à un retour sur investissement à deux chiffres grâce à ce programme, d’ici 2025, a insisté E. Verger.
« Il est évident que le prix de l’électricité sur le marché est un fait hautement dimensionnant, mais du point de vue actuel, aucun argument économique ne permet d’affirmer qu’il n’y a pas de raison de ne pas prolonger la durée de vie du parc », conclut-elle
Cet article a été co-écrit par Bertrand Bocquet, Martine Legris (Univ. Lille, CNRS, UMR 8026, Centre d’etudes et de recherches administratives, politiques et sociales, Lille), Mireille Havez (Maison régionale de l’environnement et des solidarités, Lille), Bénédicte Lefebvre (Univ. Lille, CNRS, UMR 8019, Centre lillois d’études et de recherches sociologiques et économiques) et Florence Ienna (COMUE Lille Nord de France, mission culture, patrimoine, société, F-59658 Villeneuve-d’Ascq).
Les science shops, boutique des sciences en français, sont des dispositifs indépendants qui permettent aux organisations de la société civile d’accéder à la recherche académique. Mais il ne s’agit pas ici de mobiliser les citoyens pour des projets de recherche. Ce sont les personnels de la recherche qui se mobilisent pour répondre aux demandes de la société. Une coopération fructueuse à la fois pour les citoyens qui développent leurs compétences et leur « pouvoir d’agir » et pour les scientifiques qui accèdent à des questions et des terrains d’études originaux tout en contribuant à résoudre des problèmes concrets. Comment organiser cette coopération ? C’est l’objet principal des science shops.
De nouveaux rapports entre chercheurs et citoyens
La vulgarisation scientifique est souvent vécue comme une communication des chercheurs vers le public. Mais face aux grands défis sociétaux, une demande de plus en plus forte émane de la société civile pour un dialogue bilatéral. La simple publication des résultats scientifiques et une communication à sens unique ne sont pas des réponses suffisantes à une telle demande.
Sous le double effet de la montée en puissance des dispositifs de démocratie participative, d’une part, et des politiques nationales et européennes d’ouverture de la recherche, d’autre part, on assiste aujourd’hui à de profondes transformations des rapports entre sciences et sociétés, qui se veulent plus coopératifs comme le souligne au niveau national le rapport Houllier sur les sciences et recherches participatives paru en février 2016. Dans ce rapport, les sciences participatives sont définies « comme les formes de production de connaissances scientifiques auxquelles des acteurs non-scientifiques-professionnels, qu’il s’agisse d’individus ou de groupes, participent de façon active et délibérée. »
Les sciences participatives ont pris un essor au cours des quinze dernières années notamment via des plates-formes numériques en ligne, permettant à tout un chacun de participer à des projets de recherche. Les participants sont mis à contribution pour la collecte de grande quantité de données (échantillons, photographies, informations géolocalisées) ou bien pour le traitement de données (par exemple via des jeux ou la mise à disposition d’une partie de la puissance de calcul de son ordinateur). Les exemples se multiplient.
Ces évolutions donnent lieu au développement de pratiques de recherches originales, mobilisant les énergies, savoirs et savoir-faire de la société civile aux côtés de la recherche académique. Ces partenariats suscitent aujourd’hui largement l’attention des pouvoirs publics et des instances de programmation de la recherche et font l’objet d’analyses à différents niveaux institutionnels (régional, national, européen).
Un concept qui n’est pas nouveau
Il existe un format de coopération entre chercheurs et citoyens, peu connu en France, qui accompagne les parties prenantes dans un travail non plus seulement de participation mais sur la création des savoirs, sur le travail de recherche en lui-même : les boutiques des sciences. Celles-ci se positionnent en tant qu’interface entre des organisations de la société civile qui ont une visée d’intérêt général (collectifs de citoyens, associations, établissements scolaires, conseils de quartier…) et la recherche académique (enseignants-chercheurs, ingénieurs de recherche, doctorants, étudiants). Ces boutiques sont de petites entités, sans but lucratif, qui accompagnent les recherches quelles que soient les disciplines, gratuitement et sur demande des organisations locales. Le fait de répondre aux besoins de la société par un processus ascendant est un élément clé qui les distingue des autres mécanismes de transfert de connaissances.
Les demandes des organisations de la société civile sont de l’ordre de la méthodologie, de l’expertise et de la recherche scientifique. Les boutiques des sciences aident ces organisations à traduire leur demande afin qu’elles accèdent à la recherche académique dans le cadre d’un véritable partenariat, puis accompagnent les acteurs tout au long du processus de recherche. Dans la recherche collective pour trouver des réponses aux questions posées, de nouvelles connaissances sont générées ou bien les connaissances existantes sont combinées et adaptées pour répondre à des objets de recherche plus transversaux.
Le concept est né dans les années 70 aux Pays-Bas et aux États-Unis. Puis il se développe dans les années 80 dans huit autres pays en Europe, dont la France. Dans les années 90, le concept essaime dans le monde entier (Canada, Corée du Sud, Afrique du Sud, Nouvelle-Zélande, Malaisie). Il continue de se développer en Europe dans les années 2000. Aujourd’hui plus d’une quarantaine de pays sont concernés. En France le concept renaît en 2005 à l’ENS Cachan portée par des étudiants avec l’aide de l’Association Sciences Citoyennes.
Boutique des sciences, nord de France, Author provided
Puis grâce à l’action du réseau mondial des boutiques des sciences, Living Knowledge, et du programme européen « Science with and for society » trois boutiques sont créées : la première en 2011 à Grenoble porté par une association, la seconde en 2013 à Lyon portée par l’Université de Lyon et la troisième en 2015 à Lille portée par la ComUE Lille Nord de France et la Maison européenne des sciences de l’homme et de la société (MESHS). Une nouvelle boutique est également en cours de création à Montpellier portée par la MSH Sud.
Depuis les années 2000, les boutiques des sciences sont soutenues par la Commission européenne via les appels à projets. On peut citer dernièrement le projet InSPIRES du programme H2020 « Science with and for society ».
Des modèles adaptés aux contextes locaux
Il existe de nombreux modèles dans la manière dont les boutiques des sciences sont organisées et fonctionnent puisqu’elles dépendent fortement des contextes locaux dans lesquels elles se situent. On peut néanmoins définir deux structures organisationnelles dominantes : celles portées par une association et celles portées par des structures universitaires. Les formats de projets mis en œuvre pour répondre aux demandes peuvent être des stages d’étudiants en master 2 recherche (Lyon, Lille), des projets intégrés dans les cours de l’université quel que soit le niveau (Québec), des recherche-action (Grenoble).
Le terme science est utilisé dans son sens le plus large, englobant les sciences sociales et humaines, ainsi que les sciences naturelles, physiques, de génie et techniques. Voici quelques exemples de sujets ayant été traités par les boutiques des sciences françaises : analyse des causes de mortalité hivernale des abeilles ; la trame verte et bleue dans le bassin minier : quelle appropriation par les habitants ; étude des nuisances sonores nocturnes d’éoliennes ; l’engagement associatif des femmes issues des migrations subsahariennes ; transmission de l’histoire des luttes des immigrations (et des quartiers populaires) ; les projets de coopération internationale : diagnostic d’une base de données associatives.
Un véritable travail de coopération où chacun apporte son expertise
Comment induire une coopération entre des parties prenantes qui ont des fonctionnements, des cultures et des attentes très différents ? C’est toute l’originalité du travail d’accompagnement proposé par les équipes des boutiques des sciences. Nous prenons ci-dessous plus spécifiquement le cas de la boutique des sciences Lille Nord de France où les projets se formalisent par des stages d’étudiant en master 2 avec un double tutorat associatif/chercheur d’une durée de six mois. La coopération repose sur l’engagement à respecter les objectifs des différentes parties prenantes :
offrir au chercheur un sujet de recherche original qui peut donner lieu à une publication,
offrir à l’étudiant un travail de stage de recherche, directement utile à la société et en lien avec des professionnels en dehors des laboratoires, qui valorise son projet professionnel,
offrir à l’association une méthodologie et des connaissances qui lui permettent une première réponse à la question posée, de mieux comprendre son terrain et de faire évoluer ses pratiques et ses activités.
Tout d’abord un travail de sollicitation de la demande est nécessaire : rencontrer les acteurs associatifs pour faire connaître et expliquer le dispositif. Toutes les associations ne sont pas éligibles. Elles doivent servir l’intérêt général, être à but non lucratif et être en capacité d’accueillir un étudiant en stage pendant six mois. Ensuite lorsque des demandes sont formulées, des rencontres entre la boutique des sciences et les associations ont lieu pour comprendre les demandes et les traduire ensemble en questions de recherche. Cette première étape est enrichissante pour les associations qui découvrent alors un autre regard porté sur leur sujet d’étude leur permettant ainsi une prise de recul.
Une fois la question formulée, la boutique des sciences sollicite des équipes de recherche qui pourraient être concernées de par leur discipline. L’enseignant-chercheur intéressé par le sujet doit être en mesure d’encadrer un étudiant et de participer aux rencontres avec l’association.
Une fois tous les protagonistes trouvés, la boutique des sciences les accompagne et suit le projet jusqu’à la fin. L’étudiant s’engage à rédiger un document synthétique et accessible, destiné à l’appropriation des savoirs par les acteurs associatifs, en plus de son mémoire de recherche. Les parties prenantes s’engagent à organiser un rendu public des résultats.
Les résultats sont publics, accessibles à tous, pouvant ainsi être repris par d’autres organisations et d’autres chercheurs. À la fin de la collaboration, le demandeur doit être capable de s’approprier et d’utiliser les résultats.
Une recherche avec et pour la société
Ce dispositif original est une opportunité pour le secteur associatif de mieux comprendre son terrain et donc de modifier son activité, de développer son « pouvoir d’agir ». Il lui permet également de mieux comprendre les démarches scientifiques, le champ d’action de la recherche et ses limites. Pour la communauté scientifique (chercheur·e·s et étudiant·e·s), c’est un moyen d’accéder à des terrains et des sujets de recherche encore peu étudiés, faisant ainsi évoluer leurs disciplines, tout en étant directement en lien avec les questions issues de la société. Les boutiques des sciences permettent un enrichissement croisé, et favorisent les approches interdisciplinaires. Elles reposent sur un engagement mutuel fondé sur le bien commun et basé sur une éthique de la recherche, qui met les différents types de connaissances en dialogue et les partenaires dans un rapport de parité.
ParBertrand Bocquet, Professeur des Universités, Physique & Science, Technologie et Société, Université de Lille et expert chez Techniques de l’Ingénieur
Cet article a été publié pour la première fois sur le site The Conversation sous licence Creative Commons. Lire l’article original.
Depuis le début des années 2000, les chercheurs du monde entier développent des matériaux dits autoréparants.
De manière plutôt étonnante, le besoin de créer ce type de matériau est apparu quand les mécanismes de tests pour repérer les défauts dans les structures ont montré leurs limites.
Plutôt que de développer des techniques très onéreuses pour repérer des défauts minuscules au sein de grandes structures (des ailes d’avion par exemple, où un défaut de fabrication peut entrainer des pertes en vies humaines), les chercheurs ont misé sur la mise au point de matériaux ayant les capacités de « réparer » seuls ces défauts.
L’exemple ultime de matériaux autoréparant est bien sûr la peau humaine. Et pourtant notre épiderme porte aussi en lui les germes d’un matériau qui cesse petit à petit de fonctionner.
Le vieillissement d’abord: la plupart des matériaux se décomposent progressivement, parfois sur une très longue période.
Après, l’usure: la plupart des matériaux s’usent progressivement en raison d’une utilisation constante.
Enfin, les défauts: certains matériaux se cassent brusquement et de manière très inattendue lorsque des forces appliquées (contraintes et déformations) entrainent une propagation rapide des fractures internes (généralement de minuscules fissures ou d’autres défauts à l’intérieur).
Bien sûr, les défauts constituent le plus grand défi pour les chercheurs, au vu de leurs conséquences en cas de casse pendant l’utilisation réelle du matériau.
D’où la quête d’un matériau qui se répare automatiquement, c’est-à-dire sans diagnostic préalable et avant aggravation du défaut.
Les premiers matériaux auto-cicatrisants (2001) étaient des polymères avec une sorte d’adhésif interne intégré. Depuis, divers matériaux autoréparables ont été mis au point. Il en existe quatre types principaux :
des matériaux contenant des «agents réparant»;
matériaux avec une sorte de circulation interne «vasculaire» analogue au sang;
matériaux à mémoire de forme;
polymères réversibles.
Les agents réparant intégrés
Les matériaux auto-cicatrisants les plus connus ont des microcapsules intégrées remplies d’un produit chimique semblable à de la colle. Si le matériau se fissure à l’intérieur, les capsules s’ouvrent, le matériau de réparation «s’évacue» et la fissure se colmate. Il fonctionne de manière similaire à l’époxy, fourni sous la forme de deux polymères liquides dans des récipients séparés. Lorsqu’on mélange les liquides, une réaction chimique se produit et un adhésif puissant (un copolymère) se forme.
Les matériaux auto-cicatrisants peuvent utiliser des capsules incorporées de différentes façons. L’approche la plus simple consiste pour les capsules à libérer un adhésif qui remplit simplement la fissure et lie le matériau ensemble.
Le principal inconvénient de la méthode d’encapsulation est que les capsules doivent être très petites pour ne pas affaiblir la structure qu’elles composent. Aussi, elles ne peuvent agir qu’une seule fois.
Les matériaux microvasculaires
Comme son nom l’indique, ce matériau tire son efficacité via des tubes vasculaires très minces qui permettent de pomper les agents réparants à un endroits pour les orienter vers une fissure ou autre.
Les tubes mènent dans des réservoirs sous pression. En cas de défaillance, la pression est libérée à une extrémité du tube, ce qui permet à l’agent réparant de pomper à l’endroit où il est nécessaire. Cette méthode permet de sceller les fissures jusqu’à dix fois la taille de la méthode des microcapsules, mais elle fonctionne plus lentement, car le matériau de réparation doit ensuite se déplacer. Cela pourrait poser problème si une fissure se propage plus rapidement que sa réparation. Mais dans un gratte-ciel par exemple, ou un pont, où une défaillance peut apparaître et se propager au fil des mois ou des années, un système de tubes de réparation intégrés pourrait certainement bien fonctionner.
Les matériaux de mémoire de forme
Les matériaux à mémoire de forme ont besoin d’énergie – de chaleur en général – pour retrouver leur forme originelle.
En pratique, un réseau intégré de câbles à fibres optiques peut être utilisé, similaire aux réseaux vasculaires utilisés dans d’autres matériaux autoréparables. Mais au lieu de gonfler un polymère ou un adhésif, ces tubes sont utilisés pour alimenter en lumière laser et énergie thermique la zone où un défaut est présent.
Comment les tubes savent-ils où livrer leur lumière? Si le matériau se fissure, il fissure également les tubes de fibre optique encastrés à l’intérieur, de sorte que la lumière laser qu’ils transportent fuit directement au point de défaillance.
Les polymères réversibles
Les polymères n’ont pas toujours besoin de systèmes internes sophistiqués, tels que des capsules intégrées ou les tubes vasculaires, pour réparer les dommages internes.
Concrètement, certains se séparent pour révéler ce qu’on pourrait considérer comme des extrémités hautement «réactives» ou des fragments qui tentent naturellement de se rejoindre. Excités par la lumière ou par la chaleur, ces fragments «errants» tentent naturellement de se lier à d’autres molécules à proximité, inversant ainsi les dommages et réparant le matériau : certains se cassent pour exposer des extrémités chargées électriquement, ce qui confère aux fragments brisés une attraction électrostatique intégrée. En cas de dommage, des forces électrostatiques rassemblent les fragments, permettant au matériau de s’autoréparer.
Les matériaux, au cours de leur cycle de vie (durée de service), subissent en général de nombreuses sollicitations qui les endommagent. Or, l’opération de remplacement est coûteuse, voire impossible dans certain cas. Il serait intéressant, par exemple, qu’un satellite puisse s’autoréparer suite à un impact, qu’un avion soit capable de combler ses fissures en attendant la prochaine inspection, ou encore qu’une prothèse soit en mesure de s’autoréparer pour éviter une opération. De plus, en Europe, environ 40 % des matières plastiques terminent leur vie sous forme de déchets ultimes n’étant ni recyclées ni transformées en énergie.
La capacité des systèmes naturels ou artificiels, à se guérir spontanément après dommages tout en gardant leurs fonctions, est une caractéristique importante pour leur durabilité. L’autoguérison est très commune dans les systèmes biologiques. On peut citer la guérison de la peau blessée ou encore la réparation de l’ADN, comme le confirme les travaux de T. Lindahl, prix Nobel de chimie en 2015. Inspirés par cela, les systèmes autoréparables, appelés aussi autocicatrisants, ont été largement explorés depuis 15 ans. Suite à une dégradation (thermique, mécanique, chimique…), ces matériaux déclenchent spontanément, ou sous l’effet d’un stimulus externe, un processus physicochimique d’autoréparation pour restaurer leurs propriétés initiales. Ce processus permet ainsi d’augmenter leur durée de vie.
Un des premiers modèles synthétiques de ces matériaux a été proposé par White et al. en 2001 à partir de matériaux polymères composites incorporant un catalyseur et des capsules contenant un agent réparant. L’inconvénient de cette méthode repose sur le fait qu’une même région du matériau ne peut plus être réparée dès lors que la capsule d’agent actif a été consommée. Même si des améliorations ont été proposées, ces matériaux reposent sur des systèmes relativement complexes. De plus, la réparation modifie également leurs propriétés mécaniques, ce qui en limite le champ d’applications.
Aussi, un intérêt croissant est porté sur une deuxième famille de matériaux autoréparables obtenus via une réticulation réversible. Ces derniers présentent l’avantage, en théorie, de pouvoir être fracturés et réparés autant de fois que possible. Cette famille se divise en deux groupes selon que leur réticulation réversible est obtenue par liaison covalente ou par liaison non covalente.
De nombreux polymères supramoléculaires autoréparables de ce type ont été développés en laboratoire. Ces polymères possèdent comme caractéristique commune d’être intrinsèquement autoréparables, c’est-à-dire qu’ils cicatrisent grâce à leurs propriétés chimiques sans avoir recours à un agent cicatrisant stocké séparément. Certains polymères ont besoin d’un stimulus extérieur pour s’auto-réparer comme la température, d’autres en revanche sont autonomes. Dans ce dernier cas, il est important que les polymères aient une faible température de transition vitreuse. Celle-ci garantit en effet la mobilité et la dynamique des molécules favorisant l’autoréparation. Toutefois, cette température ne doit pas être trop faible pour que les liaisons non covalentes libres restent à la surface de la zone coupée afin de permettre la cicatrisation. Pour les polymères présentant une structure semi-cristalline ou cristalline, il est en plus nécessaire de supprimer la cristallinité du polymère dans la zone fracturée, afin de permettre aux liaisons non covalentes de se reformer. Le temps d’attente avant que les faces soient remises en contact joue un rôle capital. Ce temps s’étend de la minute à plusieurs heures dans le meilleur des cas. Mais, plus ce temps d’attente est faible et meilleure est l’efficacité d’autoréparation.
Aujourd’hui, deux produits issus de ces recherches sont sur le marché dans le domaine des caoutchoucs portant les marques Reverlink® et SupraB™ .
La conception de ces polymères continue d’être améliorée pour répondre aux besoins du marché notamment en augmentant leur rigidité. Plusieurs stratégies sont étudiées, qui se focalisent notamment sur l’incorporation de nanoparticules. Ces derniers systèmes présentent souvent la particularité de s’autoréparer à température ambiante sous rayonnement UV ou IR.
Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 19 avril !
Les matériaux dits intelligents, et parmi eux les matériaux programmables sont un défi à l’imagination des chercheurs et des industriels.
Comme pour les matériaux autoréparants, inventés à l’origine pour économiser des coûts de tests de résistance très onéreux et limités en précision, les matériaux programmables ont été développés pour éviter d’avoir utiliser massivement des mécanismes robotiques afin de rendre les matériaux dynamiques. Et ainsi élargir leur potentiel applicatif.
Les polymères sont le chaînon de base de matériaux très utilisés par l’industrie : bois, cuir, peintures, colles, plastiques… Tous ces matériaux sont candidats à la « reprogrammation ».
Pour déverrouiller le potentiel programmable d’un matériau, il faut tenir compte de ses caractéristiques naturelles. Pour obtenir des transformations précises et prévisibles à partir d’un matériau, il est nécessaire de le structurer d’une manière particulière, puis de l’activer avec de l’énergie.
Le type d’énergie nécessaire varie selon le matériau choisi. Cela peut être la température, l’humidité, la lumière, la pression, les vibrations et l’électricité.
L’exemple du bois
Prenons l’exemple du bois, qui réagit bien à l’eau. La cellulose se dilate lorsqu’elle est mouillée, et a pour effet de faire gonfler le bois. Suffisamment pour imaginer insérer des morceaux de bois dans des fissures dans la roche et les humidifier pour aider les mineurs à briser la pierre, par exemple.
Pour plus de précision, la structure des polymères est analysée pour prévoir les déformations et in fine les programmer.
Le secteur du textile utilise également des polymères qui peuvent être programmés, avec pour effet principal de proposer des structures capables de passer d’une forme 2D aplatie à une forme 3D complexe.
Aujourd’hui, la tendance évolue vers des matériaux composés d’une matrice de polymère dans laquelle on noie des fibres. Cela permet d’obtenir des matériaux composites qui allient résistance et légèreté.
Alliés à des capteurs et des actionneurs (sous forme de circuits électroniques), on obtient alors des composites capables de contrôler les vibrations et les ondes acoustiques qui les traversent et ainsi repérer l’apparition de défauts… ou encore de fabriquer de l’énergie par exemple.
L’enjeu de la miniaturisation des capteurs
Ces composites et la miniaturisation des capteurs et des actionneurs permettent de fonder beaucoup d’espoirs en ce qui concerne le développement de dispositifs antivibratoires qui permettraient de rallonger la durée de vie des systèmes mécaniques en les rendant également plus confortables à l’usage.
Les secteurs intéressés en premier chef par ces matériaux sont l’automobile, la construction mais surtout l’aviation. En effet, en considérant le matériau comme un système, il devient possible de le programmer pour répondre instantanément aux sollicitations de son environnement.
Ainsi les avions pourraient devenir des structures entièrement interconnectées et qui évoluent pour s’adapter aux contraintes : température, humidité, vent… ceci afin de soulager au maximum la structure de l’avion.
Côté construction, on imagine facilement l’intérêt du développement de tels matériaux. Des procédés d’écoute acoustique permettent de jauger l’état d’une structure, via l’écoute passive des signaux acoustiques émis dans le matériau suite à l’apparition d’un défaut.
Incontestablement les débouchés industriels sont immenses, mais pour le moment, comme en ce qui concerne les matériaux autoréparants, les prix de fabrication ne suivent pas encore. Pour le moment.
L’enjeu industriel est ici important, car la pression autour des émissions de CO2 liées à sa fabrication font du béton – et surtout du ciment – un matériau condamné à évoluer rapidement.
On estime entre 5 et 7% aujourd’hui la part de la fabrication de béton dans les émissions totales de CO2 au niveau mondial.
Tout porte à croire que la pression écologique autour des émissions de CO2 obligera à limiter la production de ciment dans les prochaines années. Pourtant la demande est là. Les besoins en ciment sont très importants, et il n’est pas question aujourd’hui de trouver une alternative mais plutôt un ciment qui produirait le moins de gaz à effet de serre possible durant son cycle de vie.
L’enjeu autour du clinker
Au cours du cycle de vie du béton, le processus le plus émetteur de CO2 est la fabrication du ciment. En effet, la production du clinker, principal composant du ciment, est très énergivore. Elle consiste à chauffer à environ 1500 degrés un mélange de calcaire (80%) et de matériaux aluminosilicates (20%). Ainsi, la fabrication d’une tonne de clinker produit 900 tonnes de CO2. A cela s’ajoute l’extraction de 1,6 tonne des matières constituant le clinker.
C’est à ce niveau du cycle de vie que le potentiel de réduction de l’empreinte carbone lié à la production du béton est le plus important.
C’est donc à ce stade là que se concentrent les recherches.
Aujourd’hui le ciment classique – Portland – est de loin le plus utilisé et le plus polluant. Il est composé à 95% de clinker. Il est apprécié car il est économique, de grande qualité et très résistant pour la fabrication de béton armé par exemple.
Les tentatives pour mettre au point des bétons alternatifs moins impactant dans leur fabrication sont nombreuses.
Mettre au point un béton compétitif en termes de prix
D’abord, les ajouts cimentaires. Il s’agit d’obtenir un béton mélangé en y incorporant des produits résiduaires d’autres industries destinés aux sites d’enfouissement. Les ajouts cimentaires les plus utilisés sont :
la fumée de silice ;
les cendres volantes ;
le laitier de haut fourneau.
Ensuite, le ciment argile. Sa particularité est d’être produit à froid via un procédé d’activation alcaline. La réaction moléculaire, qui se fait à froid, est naturelle et ne nécessite aucun produit issu de la pétrochimie. Cette technologie, issue des géopolymères, se résume en fait à recréer de la pierre à partir de l’argile.
Autre exemple, le fibrociment. Pour sa fabrication, on utilise du ciment et des fibres minérales. Cela permet d’utiliser beaucoup moins de ciment, parfois jusqu’à 50%.
Les matériaux les plus utilisés pour le béton fibré sont les cendres de fumier, les déchets domestiques ou la gomme de pneu usé.
Enfin, une start up a également mis au point un composite bas carbone à partir de sable du désert – une ressource abondante – qui remplace une partie du ciment et permet de réduire de 50% le bilan carbone associé à la production du béton.
Une utilisation encore très large du Portland
Si les performances de ces bétons alternatifs sont de plus en plus intéressantes, force est de constater que le secteur du bâtiment utilise encore très majoritairement le béton Portland. Preuve que les solutions existantes doivent encore être affinées pour que leur prix baisse.
Car techniquement, on arrive aujourd’hui à proposer, grâce aux mélanges, des bétons avec des propriétés innovantes – légèreté, isolation phonique, thermique, durabilité… dont l’utilisation s’avère plus pertinente que le Portland contextuellement. C’est en termes de prix que doit désormais s’opérer la marche en avant.
Comment conclure sans faire mention des bétons « absorbeurs de CO2 ». Ces bétons consomment du CO2 pendant leur processus de durcissement, et ont tendance à être moins demandeurs en termes de consommation d’eau. Même si les performances de ces bétons s’améliorent et permettent d’obtenir des cycles de vie du produit intéressant écologiquement, le problème reste le même que pour les autres bétons alternatifs : le prix.
Aujourd’hui, les « meilleurs » bétons pour l’environnement ont une empreinte carbone entre 25 et 6O% moins importante que le béton Portland, selon les bétons. Les fourchettes de gain varient énormément. Mais l’enjeu est clair, réduite l’empreinte et le prix du béton.
D’autant plus que le béton reste un matériau nécessaire dans la conduction de la transition énergétique : les fondations des éoliennes, les centrales électriques, les barrages… tous ces outils pour développer une production d’énergie « renouvelable » sont composés en grande partie de béton.
La téléphonie s’intéresse de près à la recherche sur le graphène. Pour plusieurs raisons. D’abord pour les connections : Possédant une conductivité électrique et thermique deux fois plus importante que le cuivre, l’usage du graphène permettrait d’obtenir des connexions WIFI 100 fois plus performantes.
C’est aussi au niveau des transistors que le graphène pourrait se révéler indispensable… en remplaçant le silicium. En effet on estime que ce dernier aura atteint ses limites en termes de miniaturisation dans une dizaine d’années, et le graphène est le candidat parfait pour le remplacer. D’ailleurs le transistor le plus petit du monde est en graphène : il fait un atome d’épaisseur pour 10 de largeur !
Une vitesse de transmission très au dessus de la moyenne
C’est en particulier la vitesse de transmission électronique 30 fois plus importante que celle du silicium qui fait du graphène une solution à fort potentiel dans un secteur industriel névralgique.
Les technologies de batterie et de stockage de l’énergie pourraient également voir leur efficience grimper en flèche via l’usage du graphène.
Si on devait miser sur un secteur industriel dont le graphène va révolutionner les codes, la santé serait un candidat tout à fait crédible. En effet, si les implants bioniques à base de graphène sont encore du domaine de la science fiction, la recherche a fait une découverte surprenante : le graphène est très bien accepté par nos tissus biologiques et montre une capacité exceptionnelle à interagir avec eux.
Un potentiel encore mal connu
Il n’a été jusqu’ici exploité que combiné à d’autres éléments comme le gaz, les métaux ou d’autres sources de carbone. Mais depuis, les chercheurs testent le graphène afin de créer des antennes, des filtres d’eau de mer, des fenêtres, de la peinture, des ailes d’avion, des raquettes de tennis, des système de séquençage d’ADN, des pneus, de l’encre et bien d’autres choses encore.
Si les propriétés du graphène sont de mieux en mieux comprises par les chercheurs, les applications industrielles potentielles semblent difficiles à cerner tellement elles sont larges : filtration de l’eau de mer, peinture, pneus, internet des objets, structures d’avions…
Le salon Laval Virtual est généralement l’occasion d’entrer en contact avec une nouvelle génération de casques de réalité virtuelle, et cette édition 2019 s’est pliée à la règle. Ou presque… Car nulle part, même sur le stand de Microsoft, on ne trouvait trace du HoloLens 2.0, la dernière version du casque de réalité augmentée dont le Mobile World Congress de Barcelone avait eu la primeur il y a quelques semaines. D’autres modèles en ont profité pour retenir l’attention des visiteurs, notamment le Pimax, qui se montrait pour la première fois dans la Mayenne.
L’entreprise chinoise du même nom, qui cible en priorité le grand public, promeut un large champ de vision (200°), pour favoriser l’immersion, et la réalité virtuelle en haute voire en très haute définition. Ainsi, l’un de ses derniers modèles arbore le sigle 8K, bien qu’il comporte en réalité deux écrans de définition 4K (soit 3840×2160 pixels chacun), ce qui n’est pas du tout la même chose qu’un écran 8K (plus de 30 millions de pixels). Une définition supérieure signifie une netteté supérieure, un critère d’autant plus important quand l’écran se situe à quelques centimètres des yeux.
Alléger les calculs 3D
Revers de la médaille : la puissance de traitement requise s’amplifie. Les images 3D calculées pour chaque œil doivent en effet s’enchaîner de façon fluide, avec peu ou pas de latence, pour que l’expérience demeure agréable. A moins de posséder une machine de guerre, il est difficile d’espérer obtenir les taux de rafraîchissement conseillés, entre 60 et 90 Hz. C’est la raison pour laquelle le rendu fovéal se développe : seule la portion d’image dans la direction du regard bénéficie d’une définition optimale, afin d’alléger la charge de la station de travail reliée au casque. Schématiquement, cette technique repose sur l’analyse de la réflexion d’un signal infrarouge par la rétine. Un suivi rétinien qui, par ailleurs, intéresse les formateurs faisant usage de la réalité virtuelle : ils savent où regardent les personnes.
Le casque StarVR a été l’un des pionniers en la matière, mais son avenir est compromis, l’entreprise éprouvant des difficultés à financer le projet. Le Vive Pro Eye, dévoilé dernièrement par HTC et présent à Laval Virtual, fonctionne selon un principe similaire. Il en va de même pour le VR-1 conçu par l’entreprise finlandaise Varjo, dont un exemplaire était exposé sur le stand de l’intégrateur Immersion, qui en assure aussi la distribution. Le VR-1 combine deux écrans pour chaque œil. Le premier, d’une définition de 1440×1600 pixels, est réservé à la vision périphérique, tandis que le second, en Full HD (1920×1080 pixels), occupe le centre du regard, lequel est détecté par un dispositif de suivi rétinien (qui serait le plus précis à ce jour, selon Varjo). Il en résulte une définition de 60 pixels par degré d’angle à l’endroit de l’image où les yeux convergent. Le champ de vision total s’étend quant à lui sur 87 degrés.
Mis à l’essai, le casque VR-1 se révèle en effet satisfaisant. Dans un cockpit d’avion, les chiffres, instructions et autre cadrans placés sous le regard apparaissent immédiatement de façon lisible. Voilà qui pourrait plaire aux instructeurs et formateurs dans l’aéronautique et ailleurs, eux qui se plaignent habituellement de la définition insuffisante des casques se destinant au grand public et au «prosumer». Vendu près de 7000 € avec sa licence, le VR-1 se veut plus professionnel.
Le support qu’il faut mettre en place pour ces entreprises est très différent de celui couramment mis en œuvre pour des entrepreneurs ayant eu une vie professionnelle en tant que salariés avant d’entreprendre. Les deux types de projets diffèrent non seulement au niveau des ressources disponibles, mais aussi dans les méthodes de travail, de gestion des ressources humaines, des stratégies partenariales, ainsi qu’au niveau de l’exposition de l’entrepreneur aux regards des institutions et des médias. Souvent menés en parallèle d’une dernière année d’étude, ces projets demandent au jeune entrepreneur d’exercer deux activités à plein temps : celle de dirigeant et de candidat à un diplôme. Ce retour d’expérience correspond à la méthodologie mise en place dans la couveuse d’entreprises française Solen Angels en s’inspirant des expériences américaines et canadiennes.
Contexte, enjeu, problématique et objectifs du projet
En premier lieu, le processus de création d’entreprises par des étudiants en cours ou juste après leur formation est étudié de manière importante, parce qu’il est sans doute plus naturel, dans le contexte américain. En France, bien que récemment mis en place dans le contexte universitaire au travers notamment du dispositif PEPITE (Pôle étudiant pour l’innovation, le transfert, et l’entrepreneuriat), ce processus est notablement moins documenté.
En second lieu, au niveau mondial, selon les chiffres du Bureau International du Travail sur 90 pays représentant 84 % de l’emploi total, 46 % des travailleurs sont à leur propre compte, contre 26,4 % de salariés. Dans les pays à haut revenu, les salariés représentent encore 77 % des emplois (10 % de travailleurs non-salariés), alors que dans les pays à revenus moyens, 53 % des travailleurs sont à leur compte. En fait, la création d’entreprises individuelles apparaît comme un remède au déficit de développement économique.
Troisième élément de contexte, particulièrement en Europe : un certain divorce s’installe entre les jeunes générations et les entreprises, notamment les plus traditionnelles. Selon un sondage IFOP pour ADIA en 2010, 65 % des dirigeants considèrent les jeunes professionnels comme peu impliqués. Une étude en 2015 montre que seulement 9 % des jeunes estiment que l’entreprise les intègre bien et 40 % d’entre eux envisagent de créer leur entreprise. Si 80 % des jeunes professionnels ont une bonne image de l’entreprise, cela semble être de la leur et pas de l’entreprise en général. Nous assistons à une profonde mutation de la relation au travail, qui se reflète dans les valeurs mises en avant : respect, dynamique et travail. La tendance est à la petite structure, agile et agissante, avec une dimension éthique.
Les étudiants entrepreneurs constituent une population très différente des créateurs d’entreprises habituels, tels que les couveuses d’entreprises en rencontrent et en accompagnent régulièrement (tableau ci-dessous).
Tableau 1 – Comparaison entre le créateur moyen classique et l’étudiant entrepreneur
Créateur classique
Étudiant entrepreneur
Dispose d’une expérience professionnelle
N’a pas d’expérience professionnelle, hors stage
A acquis le métier au préalable
N’a jamais exercé son métier
Connaît les principales étapes du développement de produit
Imagine le process de fabrication et de création
Créé plutôt dans son domaine de connaissance
Tout domaine, sur la base d’une idée
Peu influencé par les modes
Très influencé par les récents succès de la nouvelle économie
Dispose de fonds propres ou d’économies qu’il peut investir
Fonds propres extrêmement faibles, voire nuls
Dispose d’indemnités (pôle emploi)
N’a pas de revenus
Créé après un poste qu’il a quitté
Engage une création pendant ses études
Consacre 100 % de son temps à la création
Les études sont prioritaires
Part d’une idée éprouvée
Part d’une idée spéculative
Travaille de chez lui ou d’un lieu qu’il a choisi
Doit être hébergé
Les écoles et universités disposent de programmes de formation à l’entrepreneuriat, utiles à des fins pédagogiques, mais peu adaptés en situation d’incertitude, notamment lorsque les encadrants et formateurs présentent des biais culturels : salariés de grandes entreprises tentant d’adapter des modèles de développement industriel disproportionnés, enseignants du secteur public ayant une approche théorique de la création d’entreprises. Bien que connus, les déterminants de la création d’entreprises chez les étudiants sont peu pris en compte. En effet, la plupart des systèmes pédagogiques visent au développement, comme dans d’autres matières, des capacités entrepreneuriales et des techniques supposées associées (business plan…) et négligeant un des critères déterminants : l’attrait. En cela, l’acquisition de ces compétences sur une base théorique peut même, pour peu qu’elle soit rébarbative, conduire, par la réduction de l’attrait à une contre-performance regrettable, d’autant que les modes de création d’entreprises en France se sont depuis quelques années, notamment par la digitalisation des services, extrêmement simplifiés. En véhiculant une fausse image de difficulté, ces approches peuvent limiter les projets effectivement menés à bien, ce qui est effectivement observé. Les formations ont un effet modéré sur l’intention entrepreneuriale, les caractéristiques liées aux personnalités et aux valeurs sont déterminantes : autonomie, pouvoir, action, challenges, avoir un travail intéressant.
Il est à noter que ces recherches mettent en avant trois perceptions ou croyances, qui priment significativement sur la réalité effective. Dans ce contexte, la mission que nous nous sommes fixée a été de traiter ces croyances par leur concrétisation avec des éléments factuels, de manière à passer d’une forme de pensée magique à une sécurisation rationnelle et objective. Ces trois croyances sont :
la perception de désirabilité ;
la propension à agir ;
la perception de faisabilité.
Dans ce contexte, nous pouvons observer quatre types de créateurs étudiants (figure 1), même si cette segmentation peut être relativement floue pour la plupart d’entre eux et peut varier en fonction de l’évolution du projet.
placer ici la figure 1
Figure 1 – Segmentation de l’approche entrepreneuriale
Par certains aspects, cette segmentation ressemble à la typologie de Jung . La méthodologie que nous allons retenir a donc fortement à faire avec un comblement des sous-évaluations de chacun des types et une relativisation de leurs tendances naturelles. Toutefois, l’accompagnement d’un entrepreneur ne peut se faire, et en cela elle diffère fortement de l’accompagnement pédagogique, que par :
une personnalisation très importante ;
l’apport d’informations claires, stables et documentées ;
l’interdit de décider à la place : seul l’entrepreneur est légitime pour prendre les décisions.
Un point particulièrement important, propre à la population de créateurs considérés, est constitué par l’ensemble des désirs des entités environnant le jeune entrepreneur.
De jeunes et photogéniques entrepreneurs suscitent l’appétence des structures engagées dans leur projet :
leurs écoles qui veulent montrer la pertinence de leur formation ;
leur banque qui veut montrer qu’elle soutient l’innovation ;
les collectivités locales qui veulent prouver l’attractivité de leur territoire ;
la presse en quête de nouvelles de meilleure fraîcheur.
Alors qu’un entrepreneur classique subit seulement, et cela peut déjà être stressant, l’exposition à sa famille et à ses amis, le jeune entrepreneur peut être placé sous les projecteurs à l’occasion d’événements, colloques, concours aussi divers qu’il est possible d’imaginer. Or, son projet est par nature incertain et une partie significative de celui-ci gagnerait, en termes de stress, à être mené sans qu’il leur soit trop souvent demandé où ils en sont, de manière trop intrusive par des personnes non impliquées dans le suivi du projet.
Cette dimension humaine qui intègre l’approche psychologique est à prendre avec sérieux, notamment pour les plus créatifs des porteurs de projet qui sont statistiquement plus exposés que la moyenne aux troubles dépressifs , notamment en relation avec l’éthique et la responsabilité sociétale . Ce dernier aspect renforce l’idée qu’un accompagnement sur-mesure prenant la totalité de la personnalité du futur entrepreneur est indispensable et soulève le problème des compétences et savoir être des encadrants.
Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 14 avril !
Dans l’industrie manufacturière, explorer un modèle 3D à l’aide d’un «powerwall» ou d’une salle immersive (cave) est une pratique courante et précise… surtout quand on travaille seul. Car l’image projetée par le ou les vidéoprojecteurs ne montre qu’un seul point de vue, calculée à partir de la localisation d’une seule paire de lunettes stéréoscopiques. Peu importe que deux ingénieurs ou plus soient présents : tout le monde partage la même perspective, ce qui n’est pas l’idéal pour échanger des impressions. Un inconvénient que la technologie Dual Eye Point, présentée par le belge Barco sur le salon Laval Virtual, est chargée de résoudre.
Cette méthode permet de détecter la position de deux paires de lunettes distinctes, de calculer les deux images 3D correspondantes, puis de les projeter en même temps. Le vidéoprojecteur mis à contribution dans cette démonstration, UDX-4K32, offre en effet la possibilité de diffuser deux images indépendantes à une fréquence de 120 Hz, chacune bénéficiant d’une définition WQHD (soit 2560×1600 pixels, la définition native de la matrice DLP). Chaque paire de lunettes active, qui fonctionne donc par cycle d’obturation et d’ouverture, est réglée de façon à ne «voir» qu’une seule image sur les deux.
Une solution intéressante, mais également exigeante, puisqu’elle requiert de calculer deux images 3D, provenant de deux stations de travail. Il y a quelques années, Christie, gros concurrent de Barco, avait également travaillé sur le simulateur Dualview, qui avait la même finalité. Mais l’installation des deux vidéoprojecteurs était beaucoup plus contraignante.