A vos agendas : l’inclusivité s’invite au printemps de l’innovation

Pour cette année, le Réseau de Recherche sur l’Innovation (RRI), organise les 6 et 7 Avril un colloque sur les Recherches participatives en France et les leviers de l’inclusivité au Learning center innovation du Campus  Cité scientifique, à l’Université de Lille.

Ce colloque a pour objectif de réunir les différents courants des recherches participatives en France. Un champ émergent qui tend à étendre ses sujets de recherche dans tous les secteurs d’activité pour aborder des questions socialement  vives et innover dans des transformations sociotechniques. L’accent sera porté sur les leviers de l’inclusivité du monde de la recherche et de la société civile dans les projets  de recherche.

Cet évènement s’articulera autour de quatre questions liées à l’inclusivité des parties prenantes au sein de la recherche participative :

  • L’inclusivité dans le processus de recherche
  • Les dimensions collectives de l’inclusivité
  • Les dispositifs facilitateurs de l’inclusivité
  • Inclusivité et transformation écologique

Techniques de l’ingénieur s’associe à cet événement et vous propose en accès libre, du 5 au 9 avril les articles suivants de la rubrique «Sciences, techniques et société» de l’offre « Eco-conception et innovation responsable »  :

Le programme de l’évènement est à retrouver ici : programme colloque – Recherches participatives

UE : La fausse interdiction des moteurs thermiques en 2035

L’Union européenne avait prévu en 2022 d’interdire les moteurs thermiques en 2035. Mais début mars, l’Allemagne avait créé la surprise en bloquant le texte au conseil de l’Union européenne, manifestant son souhait de développer les carburants synthétiques. Le texte avait pourtant fait l’objet en octobre d’un accord entre États membres, dont l’Allemagne, et négociateurs du Parlement européen, et avait été formellement approuvé mi-février par les eurodéputés.

En raison de cette abstention sur le texte sur cette dernière étape, le vote avait été reporté sine die. Sans l’Allemagne, la majorité qualifiée des 27 qui est requise (vote favorable d’au moins 55 % des États représentant au moins 65 % de la population de l’UE) n’était en effet plus atteinte.

La Commission européenne et l’Allemagne ont finalement annoncé samedi 25 mars avoir trouvé un accord pour débloquer le texte. Ce dernier reste inchangé. Mais Bruxelles s’est engagée à une dérogation pour les véhicules utilisant du carburant synthétique (ou e-fuels), comme le demandait l’Allemagne, dans une proposition séparée. Celle-ci devra être validée d’ici à l’automne 2024.

Des carburants synthétiques après 2035

Les véhicules équipés d’un moteur à combustion pourront être immatriculés après 2035 s’ils utilisent exclusivement des carburants neutres en termes d’émissions de CO2, s’est réjoui le ministre allemand des Transports, Volker Wissing. Ces carburants synthétiques peuvent être produits par un mélange entre du CO2 et de l’hydrogène. Le premier pourrait être récupéré dans l’atmosphère ou capturé en sortie des usines, le second produit par électrolyse de l’eau grâce à des énergies renouvelables.

Pour la filière automobile, cette décision permettra de prolonger l’utilisation des moteurs thermiques. Mais l’usage de cette technologie dans l’automobile est contesté, car elle demande beaucoup d’électricité. Elle coûte aussi cher, a peu de chances de s’imposer sur le marché des véhicules particuliers et ne concernerait dans le meilleur des cas qu’une minorité de véhicules de luxe, estiment de nombreux experts.

Porsche et Ferrari, notamment, soutenaient la position de l’Allemagne. Le premier a inauguré sa première usine de production en Chili en décembre 2022. Le second mise toujours sur les moteurs thermiques. « La bonne nouvelle pour nous, c’est que nous allons pouvoir continuer à vendre des moteurs thermiques en plus de nos moteurs électriques », a de son côté réagi le  PDG de Ferrari, Benedetto Vigna auprès de Reuters.

Des carburants pour les plus riches qui retardent l’action climatique

Dans un rapport, l’ONG Transport & Environnement estime que l’essence synthétique pourrait coûter plus de 2,82 euros par litre à la pompe en France en 2030, soit presque 50 % de plus que l’essence ordinaire aujourd’hui. « Le coût plus élevé des e-fuels signifiera que seuls les riches pourront se les offrir, tandis que tous les autres seront poussés à contourner les règles et à utiliser de l’essence fossile à la place. Les automobilistes et le climat seront perdants », estime Marie Chéron, responsable des politiques véhicules à T&E France.

Julia Poliscanova, directrice principale des véhicules et de la mobilité chez Transport & Environnement, estime même cet accord dangereux. « Les carburants de synthèse sont une diversion coûteuse et massivement inefficace de la transformation vers l’électrique qu’affrontent les constructeurs automobiles européens. Dans l’intérêt de la crédibilité climatique de l’Europe, l’accord sur les voitures zéro émission de 2035 doit entrer en vigueur sans plus tarder. »

Du fait des ressources limitées en e-fuels, autoriser la vente de moteurs à combustion après 2035 pourrait priver les voitures existantes de cette solution nécessaire à leur décarbonation. « Si l’essence de synthèse est employée dans les nouvelles voitures, les véhicules déjà en circulation consommeront 135 milliards de litres d’essence fossile supplémentaires et émettront 320 MtCO2e de plus d’ici à 2050 que si l’essence de synthèse était disponible pour le parc automobile existant », projette Transport & Environnement.

La réindustrialisation de la France nécessite de former 5 000 soudeurs supplémentaires par an !

Dans un autre article, nous avons évoqué comment les nouvelles pratiques en matière de soudage et industrie 4.0 pouvaient aider les industriels à attirer de nouveaux talents.

Nous avons cette fois demandé l’avis éclairé de Jean-Marc Scolari, gérant de Fronius France, concernant la formation des soudeurs.

Jean-Marc Scolari, Fronius
Jean-Marc Scolari, managing director de Fronius France et président du groupe soudage chez Evolis. (Crédit : Fronius)

Jean-Marc Scolari est le gérant de Fronius France.

Il représente également le groupe soudage au sein de l’organisation EVOLIS et il est présent au conseil d’administration de l’Institut de soudure.

Le groupe Fronius est spécialisé dans l’élaboration de nouvelles solutions destinées au contrôle et à la gestion de l’énergie, pour les chargeurs de batteries industrielles, les techniques de soudage et les onduleurs photovoltaïques.

Techniques de l’ingénieur : La pénurie de soudeurs est-elle un frein à la réindustrialisation de la France ?

Jean-Marc Scolari : La pénurie de soudeurs n’est pas nouvelle et cela fait plusieurs années que l’on recherche entre 5 000 et 7 000 soudeurs et chaudronniers en France.

Avec Evolis et l’Institut de soudure, nous sollicitons ainsi les politiques sur la pénurie de soudeurs dans un contexte de réindustrialisation et de montée en puissance du nucléaire.

Nous leur disons : Vous vous projetez sur la construction de 6 nouveaux EPR, très bien, mais comment allons-nous faire, sachant qu’actuellement à Flamanville nous avons des soudeurs américains et qu’il faut des années pour former un soudeur habilité ?

Or, les certifications nécessaires pour travailler dans le nucléaire coûtent cher, entre 3 500 € et 5 000 €. Si, jusqu’à présent, ces formations étaient souvent financées par le compte CPF des soudeurs, les pouvoirs publics ont récemment décidé de changer les règles, c’est-à-dire en imposant que les jurys soient paritaires (50 % interne aux certificateurs, 50 % externe) alors que les examens de soudeurs sont réalisés par un seul inspecteur qualifié qui vérifie la qualité de la soudure.

Avec Evolis et l’Institut de soudure, nous avons fait part de cette aberration aux pouvoirs publics. Les incohérences de ce genre sont malheureusement fréquentes et freinent la réindustrialisation.

Par ailleurs, la guerre en Ukraine a également perturbé le secteur de l’armement. L’entreprise Nexter, le fabricant du célèbre canon César, s’est par exemple engagée à tripler sa production de munitions d’ici à 2025 et, en plus d’être confrontée à des problématiques d’approvisionnement en poudre, elle subit de fortes contraintes en ce qui concerne la main-d’œuvre nécessaire aux opérations de soudage.

La robotique et la cobotique peuvent-elles aider à pallier cette pénurie ?

Quand on parle de réindustrialisation, il faut en effet parler de robotisation et plus généralement d’automatisation des procédés. Chez Fronius, c’est un challenge qui nous tient à cœur et quand nous développons un équipement de production, nous cherchons à obtenir la machine la plus aboutie, donc la plus automatisée possible.

Néanmoins, la France est loin d’être le pays le plus robotisé, un pays comme l’Italie ayant un taux de robotisation par opérateur trois fois supérieur. Nous avons donc une marge de manœuvre importante, mais cela nécessite des investissements.

Or, les industriels français sont souvent frileux quant aux investissements et ont parfois tendance à restreindre leur capacité d’innovation, à cause de budgets trop figés. Cela les pénalise, car ils ne perçoivent pas toujours la plus-value qui leur permettrait d’aller conquérir des marchés plus rétributeurs et d’être plus attractifs lorsqu’ils se positionnent sur des appels d’offres.

Il ne faut cependant pas se leurrer : la robotique et la cobotique ne solutionnent pas tout et certaines applications sont difficilement robotisables, par exemple dans le secteur naval. Si certains de nos partenaires travaillent à l’élaboration de chariots de soudage sur rails, pilotés automatiquement, à l’heure actuelle, la construction d’un bateau c’est beaucoup de soudage manuel, dans des positions pas toujours confortables. Dans les faits, nous aurons donc toujours besoin de soudeurs !

La formation de nouveaux soudeurs est-elle la clé ?

L’indépendance énergétique et l’armement sont des domaines stratégiques, régaliens qui nécessitent de disposer de ressources financières et humaines suffisantes. Il faudra nécessairement former de nouveaux soudeurs, ce qui prendra du temps, mais aussi ouvrir de nombreux centres de formation en soudage, car les centres actuels ne suffiront pas. Or, la formation c’est la clé de la réindustrialisation.

Actuellement, les quelques dizaines d’ingénieurs-soudeurs qui sortent des écoles sont immédiatement captés par les grands donneurs d’ordres tels que EDF, Orano et Framatome.

Pour contourner la pénurie, certaines entreprises sont forcées de recruter des profils non techniques, par exemple des boulangers en reconversion, et de se charger de leur formation en interne !

Car les grands donneurs d’ordres n’attendent pas que les choses changent d’elles-mêmes. En réponse à l’abandon des pouvoirs publics concernant la formation aux métiers techniques, ils ont pris les devants et se sont concertés pour créer leurs propres écoles de formation en soudage. L’école HEFAÏS, créée par EDF, Naval Group, Orano et CMN, accueille ainsi, depuis septembre 2022, des sessions de formation pour les salariés d’entreprise[1]. Mais ils ne sont pas les seuls, puisque les Chantiers de l’Atlantique et Fives Nordon ont pris des initiatives similaires.

Comment attirer les jeunes vers les filières techniques ?

La pénurie de soudeurs et de main-d’œuvre technique vient de très loin. Depuis longtemps, quand un collégien dans le secondaire n’est pas orienté vers l’enseignement général, il le vit souvent comme un échec, car cela lui est présenté comme un échec.

Il y a bien les stages de 3e qui aident à faire découvrir le monde du travail, mais ce n’est pas suffisant, car cela se joue aussi au niveau de la formation des enseignants, qui bien souvent ne connaissent pas l’industrie et ont une vision erronée des ateliers de production.

Il faut promouvoir les métiers techniques, redonner de l’appétence pour l’industrie et montrer que l’industrie ce n’est pas Zola, surtout que les niveaux de rémunération sont en moyenne bien plus importants que dans le service.

Enfin, les industriels sont conscients, au regard des tensions observées sur le marché du travail, qu’ils doivent gagner en attractivité vis-à-vis des jeunes générations et ils sont prêts à faire les efforts nécessaires. Cela passe par l’amélioration de l’équilibre entre vie professionnelle et vie personnelle, des conditions de travail, des salaires, mais aussi par une modernisation des outils de production afin de décarboner la production dans les usines.

Les métiers du soudage vous intéressent et vous envisagez une formation ? Voici quelques liens pour vous aider dans vos recherches.


[1] L’école sera ouverte aux personnes en recherche d’emploi en 2023

[2] Technicien Supérieur de l’École d’Adaptation aux Professions du Soudage (EAPS)

[3] Ingénieur International en Soudage (IWE)

Industrie 4.0 : de la maintenance corrective à la maintenance prédictive intelligente

Un extrait de La maintenance prédictive intelligente pour l’industrie 4.0 par Gilles ZWINGELSTEIN

Deux approches distinctes ont été développées pour la maintenance prévisionnelle conventionnelle qui, dans la majorité des cas, ne concerne que les données relatives à un équipement bien identifié. La première approche repose sur l’utilisation d’analyses statistiques et de fiabilité sur les défaillances connues de l’équipement en exploitant les données archivées dans les logiciels de GMAO (gestion de maintenance assistée par ordinateur). Ces analyses statistiques permettent de développer des modèles de prévision des défaillances et d’établir les intervalles des tâches de maintenance préventive optimaux. La seconde approche est fondée sur l’utilisation d’une surveillance de l’état de l’équipement par des capteurs afin de prédire quand une panne de machine se produira. Grâce aux données big data contenues dans le cloud, extraites grâce au data mining et traitées par des algorithmes reposant sur l’intelligence artificielle, les exploitants ont ainsi à leur disposition des outils très performants pour prédire le comportement de leurs machines et prendre les décisions appropriées.

La mise en place de plates-formes IoT en vue de la maintenance prédictive

Pour faciliter la mise en œuvre de la maintenance intelligente 4.0, de très nombreuses plates-formes IoT sont actuellement proposées par les grandes sociétés de service, et par des start-up qui expérimentent des solutions de maintenance prédictive intelligente dans le cadre de projets pilotes. Voici quelques exemples des principales plates-formes disponibles actuellement sur le marché international.

  • Predix APM Health de General Electric

Cette plate-forme cloud permet de développer des applications IoT, mais aussi de collecter et d’analyser les données générées par les machines.

  • IBM Watson IoT plateforme

La plate-forme IBM Watson IoT prend en charge le contrôle à distance des objets connectés, la transmission et le stockage sécurisés de données dans le cloud, l’échange de données en temps réel, ainsi que des options d’apprentissage automatique grâce à l’intégration de la technologie AI.

  • MindSphere de Siemens

MindSphere est une plate-forme cloud operating system conçue pour le partage de données et d’applications industrielles. Elle permet de consolider, stocker et partager l’information issue de différents sites et de la traiter avec des outils analytiques de pointe.

  • Amazon Web Services

La plate-forme IoT Amazon Web Services (AWS) inclut une suite IoT qui prend en charge tous les aspects des applications. Cette suite comporte quatre entités : AWS IoT Core constitue la base de toute application IoT ; AWS IoT Device Management ajoute et organise les périphériques ; AWS IoT Analytics analyse automatiquement les données IoT ; et AWS IoT Device Defender configure les mécanismes de sécurité pour les systèmes IoT.

  • Microsoft Azure IoT

La plate-forme Microsoft Azure IoT Suite permet de connecter des centaines d’appareils de différents fabricants, de rassembler des analyses de données et d’utiliser les données IoT à des fins d’apprentissage automatique.

  • Huawei

La plate-forme « IoT connection management platforms » comprend un module « Manufacturing Predictive Maintenance ». Il est utilisé pour la collecte et l’analyse de données des objets connectés à proximité, le prétraitement des ressources informatiques du Edge computing et la modélisation et l’analyse de données sur le cloud.

  • Google cloud IoT

La plate-forme Google cloud IoT inclut des composants spécifiques pour développer un programme de maintenance prédictive intelligente. On compte cinq de ces composants : IoT et Pub/Sub acquièrent des données ; cloud data flow les traite ;  big Query fournit un stockage des données à l’échelle de l’entreprise ; data Studio permet de partager des visualisations relatives aux équipements ; cloud machine learning est construit sur TensorFlow et élabore des modèles.

Les thèses du mois : Global Industrie, laboratoire de la réindustrialisation made in France

Pour notre dossier de mars, « Global Industrie, laboratoire de la réindustrialisation made in France », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.

 

Interactions Homme-Machine dans un environnement cyber-physique augmenté : vers une heuristique de conception d’environnements collaboratifs capacitants pour l’industrie du futur
David Baslé
Thèse de doctorat en Génie Industriel, conception et production, soutenue le 28-11-2022
Laboratoire : Sciences pour la conception, l’optimisation et la production

 

Conception des procédés par optimisation de superstructures pour l’usine du futur (PRO-FUTUR)
Christian Steven Quintero Masselski
Thèse de doctorat en Génie des procédés, des produits et des molécules, soutenue le 20-07-2022
Laboratoire réactions et génie des procédés

 

Outil d’authoring 3D du jumeau numérique de lignes d’assemblage pour augmenter l’opérateur de l’usine du futur
Pierre Bégout
Thèse de doctorat en Informatique, soutenue le 16-12-2022
Laboratoire en sciences et techniques de l’information, de la communication et de la connaissance

 

Proposition d’un modèle de données pour l’édition et l’exploitation d’Environnements Virtuels ou Augmentés dans un contexte industriel.
Killian Richard
Thèse de doctorat en Réalité virtuelle et augmentée, soutenue le 07-09-2022
Laboratoire d’innovation numérique pour les entreprises et les apprentissages au service de la compétitivité des territoires

 

Biofuels and food security
Aicha Lucie Sanou
Thèse de doctorat en Sciences économiques, soutenue le 13-07-2022
Centre d’études et de recherches sur le développement international

 

The resource, waste and climate conundrum : essays on the economics of recycling
Etienne Lorang
Thèse de doctorat en Sciences économiques, soutenue le 18-03-2022
Bureau d’économie théorique et appliquée

 

Solvants alternatifs pour le traitement et le recyclage de fibres textiles mélangées
Guillaume Sim
Thèse de doctorat en Chimie, soutenue le 11-01-2023
Laboratoire de chimie (Lyon)

 

Recyclage assisté des métaux stratégiques de batteries lithium-ion par chauffage micro-ondes
Mélissa Richard
Thèse de doctorat en Physique et chimie des matériaux, soutenue le 06-12-2022
Chimie de la matière condensée de Paris

 

Contribution au développement d’un fil textile RFID
Sofia Benouakta
Thèse de doctorat en Électronique, soutenue le 30-06-2021
Laboratoire AMPERE

 

Capteur RFID UHF simple, fiable, et efficace : application à l’emballage alimentaire intelligent
Benjamin Saggin
Thèse de doctorat en Électronique, soutenue le 17-12-2021
Institut d’électronique et des systèmes

Nouvelles pratiques en matière de soudage et industrie 4.0 : des solutions pour attirer de nouveaux talents ?

Nous avons interrogé Christophe Jouve, responsable robotique et intégrateurs chez Fronius France au sujet de ces nouvelles pratiques et notamment des avantages de la cobotique pour le soudage.

Christophe JOUVE-Fronius
Christophe JOUVE, responsable robotique et intégrateurs chez Fronius France (Crédit : Fronius)

Fronius est un groupe familial autrichien proposant des solutions de soudage industrielles. Spécialiste reconnu des techniques de soudage, Fronius accompagne les industriels et fournit une multitude d’équipements dédiés au soudage manuel, robotisé et automatisé.

Christophe Jouve aide les clients de Fronius à développer des applications robotisées adaptées à leurs besoins.

Techniques de l’ingénieur : L’industrie 4.0 impactera prochainement le monde du soudage. Comment Fronius se prépare-t-il à ce bouleversement ?

Christophe Jouve : Fronius se prépare activement à l’arrivée du 4.0. Côté générateur, nous sommes prêts à fournir de la data et à intégrer tous les liens avec les serveurs et nous proposons déjà des solutions permettant de présenter les données aux utilisateurs. C’est particulièrement utile pour le suivi de la qualité de production.

Les générateurs de soudage modernes intègrent des bases de données exhaustives concernant la nature des matériaux à souder, les fils et les gaz de soudage, ce qui permet de faciliter le choix des paramètres.

Mais il est d’ores et déjà possible d’aller plus loin : en production, l’enregistrement des paramètres utilisés pour obtenir tel ou tel cordon de soudure permet par exemple de corréler la qualité de la soudure aux données des générateurs et donc de comprendre l’origine des problèmes afin de les corriger.

Si, dans 10 ans, ces pratiques seront courantes, peu de sociétés collectent actuellement les data des générateurs et les exploitent, car cela sous-entend de disposer de toute la structure informatique nécessaire. Fronius prépare donc le terrain et nous sommes déjà prêts à accompagner nos clients vers ces changements.

Comment la cobotique est-elle utilisée pour les opérations de soudage ?

En soudage, nous utilisons principalement les cobots pour leur simplicité de programmation et leur souplesse.

S’il y a techniquement peu de différences entre un cobot et un robot. Un cobot possède des limitations de sécurité qui lui permettent de travailler à proximité des opérateurs. Or, en soudage à l’arc, ces limitations de sécurité sont particulièrement nécessaires, car les émissions UV des arcs électriques sont dangereuses pour les opérateurs.

Lorsqu’on couple cet aspect robotique/cobotique à des générateurs qui sont de plus en plus sophistiqués, il devient alors possible d’améliorer la reproductibilité des pièces et d’assurer des vitesses constantes.

Dans quels cas utilise-t-on la cobotique ou la robotique pour le soudage ?

La robotique existe depuis longtemps pour le soudage de pièces en grande série, alors que le soudage manuel est nécessaire pour les pièces unitaires ou non robotisables.

Si la robotique est rentable pour les grosses productions, lorsque les temps de cycle et les quantités de pièces le justifient, la cobotique vient combler un manque en permettant de prendre en charge des séries de quelques centaines de pièces. Grâce à la cobotique et aux nouveaux outils pour le soudage, de nouvelles perspectives sont ainsi en train de s’ouvrir.

Ces équipements modernes permettent-ils d’améliorer les conditions de travail des opérateurs ?

Grâce à la cobotique, les opérateurs sont déchargés des tâches rébarbatives, tout en réduisant les risques de TMS. Les « nouveaux » soudeurs ont ainsi une double compétence de soudeur/roboticien qui valorise leur travail.

D’une manière générale, au-delà de la cobotique et de l’aspect TMS, les conditions de travail se sont aussi grandement améliorées pour les soudeurs, qui ne sont plus seulement protégés des rayonnements UV. En effet, les équipements modernes apportent désormais une protection efficace des opérateurs vis-à-vis des fumées et des poussières et assurent un renouvellement de l’air.

Enfin, lorsqu’il s’agit de tâches non robotisables, les torches manuelles sont étudiées pour être les plus légères et maniables possibles.

Les entreprises peuvent-elles miser sur ces pratiques nouvelles pour attirer de nouveaux talents ?

Ces nouvelles façons de travailler apportent en effet d’autres perspectives pour la nouvelle génération de soudeurs qui pourra se dire qu’elle n’aura pas à passer sa vie accroupie par terre à souder dans des conditions difficiles. Les solutions robotiques et cobotiques apportent ainsi des ouvertures vers une façon physiquement moins éprouvante et moins rébarbative d’aborder le métier, et donc des perspectives d’évolution qui rassurent, notamment vis-à-vis de la fin de carrière.

Global Industrie 2023 : une édition sous le signe de la réindustrialisation

Sous le mot d’ordre « l’industrie se mobilise », la cinquième édition du salon Global Industrie[1] s’est tenue au début du mois de mars et a permis aux exposants de présenter leurs innovations, mais aussi d’échanger sur les thèmes qui font l’actualité de l’industrie, ainsi que sur les problématiques qui vont se poser à toutes les filières de l’hexagone dans les années à venir.

C’est dans ce cadre que le Ministre de l’industrie Roland Lescure s’est rendu sur le salon, le mercredi 8 mars, pour participer, notamment, à une conférence sur les femmes et l’industrie. 

Considéré comme le cinquième salon le plus important en Europe, Global Industrie a cette année accueilli près de 2 300 exposants venus de 85 pays différents, et drainé près de 38 700 visiteurs.

Bien évidemment, l’innovation technologique était au centre des attentes de cette édition, avec un accent fort mis autour des problématiques écologiques et énergétiques. Sobriété, transition énergétique, économies d’énergies, ou encore recyclage ont ainsi été mis à l’honneur lors de cette édition. Sans oublier les innovations technologiques relatives à l’avènement des usines 4.0.

Les awards 2023 remis durant le salon récompensent les industriels à l’origine d’innovations technologiques marquantes, et illustrent les tendances précédemment citées.

Parmi les 108 produits ou services en lice cette année, 6 se sont vus décerner un award. Trois de ces récompenses sont directement liées aux problématiques qui font la tendance actuelle de l’industrie, à savoir allier performance et sobriété, tout en étant plus responsable sur toutes les problématiques environnementales.

Dans la catégorie « transition numérique », c’est la société Keyprod qui s’est illustrée, avec un boîtier qui se fixe sur les machines industrielles, et qui en analyse les vibrations lors de son fonctionnement, afin d’améliorer la performance globale du parc machine d’usine. La facilité de paramétrage de ce boîtier, qui est prêt à fonctionner en moins de cinq minutes une fois aimanté sur une machine, est un atout considérable de ce produit, qui combine les technologies de l’IoT, de l’intelligence artificielle, de l’algorithmique.

Dans la catégorie « écoresponsabilité », c’est la société Néolithe qui a été récompensée. Cette jeune pousse tricolore a mis au point un procédé innovant, permettant de traiter les déchets non recyclables. Concrètement, Néolithe propose des unités de traitement, les fossilisateurs, qui vont pouvoir prendre en charge industriellement des mélanges de déchets pour les transformer en pierre. Comme cela se produit lors d’un processus de fossilisation classique. Cette technologie permet aux recycleurs d’avoir une alternative aux deux modes de traitement de ces déchets non recyclables actuels, à savoir l’enfouissement et l’incinération. Selon Néolithe, l’utilisation massive de la fossilisation accélérée pourrait réduire l’empreinte carbone de l’hexagone de 5 à 10 % !

Dans la catégorie « jeune pousse », c’est la société PureNat qui a raflé la mise, grâce à un matériau innovant, breveté, se présentant sous la forme d’un fil flexible. Ce dernier optimise le principe de photocatalyse et permet de lutter durablement contre les polluants de l’air. Les produits développés par PureNat sont malléables, ce qui constitue une innovation majeure, et associent performance et durabilité.

Pour ces trois entreprises, l’award Global Industrie devrait sans nul doute constituer un tremplin pour poursuivre le développement de produits autour des technologies innovantes déjà mises au point.


[1] Global Industrie 2023

La société Primo1D produit des tags RFID UHF unidimensionnels

Pour le moment, Primo1D destine prioritairement l’utilisation de cette technologie à l’industrie textile. En effet, les tags sont intégrés au vêtement lors de sa fabrication et, au vu des réglementations de plus en plus contraignantes imposées aux fabricants et aux distributeurs en termes de traçabilité et de recyclage, cette solution leur permet de gérer efficacement ces problématiques.

Ludovic Paquet, directeur commercial de Primo1D, a expliqué à Techniques de l’Ingénieur l’intérêt que représente cette innovation de rupture pour les industriels, notamment avec la mise en place progressive de la loi AGEC, qui va responsabiliser les fabricants et les distributeurs sur l’ensemble du cycle de vie des produits qu’ils mettent sur le marché.

Techniques de l’Ingénieur : Présentez-nous la société Primo1D.

Ludovic Paquet : Primo1D est une jeune entreprise industrielle, spin off du CEA de Grenoble, fondée en 2013. Nous avons la chance d’évoluer dans une région ayant un écosystème technologique et innovant fort.

Le CEA de Grenoble développe depuis longtemps des techniques de communication sans contact, notamment sur la RFID, qui constitue la base de notre technologie. Cela nous a offert un socle technologique solide pour mettre en place nos procédés.

Qu’est-ce qui fait la spécificité du tag RFID UHF que vous avez développé ?

La RFID est une technologie qui permet d’identifier des objets en masse, de façon unique et à grande distance. Cela va servir à tracer les objets industriels dans une chaîne logistique, pour être en mesure de gérer les stocks de manière plus performante.

Nous avons repensé le facteur de forme de l’étiquette RFID. Alors que l’immense majorité des acteurs de la RFID proposent des étiquettes 2D, nous proposons un tag RFID de forme filaire, incluant du textile.

Cela permet de produire des tags ayant un impact carbone un peu moins important que les étiquettes classiques à base de plastique. Aussi notre tag a vocation à s’intégrer directement dans la matière du produit industriel concerné. Cela peut être du textile, mais aussi du caoutchouc, un matériau qui contient souvent du textile. 

Une fois embarqué dans la matière, il est impossible de dissocier le tag de l’article, ce qui assure une collecte des données tout au long du cycle de vie de l’article. L’idée est de pouvoir, grâce au standard RFID existant sur le marché, rendre l’article unique et traçable.

Le tag développé par Primo1D s’adresse particulièrement aux acteurs de l’industrie textile. Pour quelles raisons ?

Il y a un enjeu fort pour les acteurs de la filière textile, fabricants et distributeurs, sur la problématique de traçabilité. Notamment pour tout ce qui concerne les enjeux liés à la gestion des stocks, des retours d’articles, fréquents dans le cas des produits textiles. De nombreux industriels du textile se tournent aujourd’hui vers la technologie UHF[1] pour mieux gérer ces paramètres. 

Il y a une autre composante forte qui est la loi AGEC, qui rend les distributeurs responsables de la mise en marché de leurs produits, mais surtout de leur utilisation ou réutilisation en fin de vie. Il devient donc vital pour ces acteurs de pouvoir tracer les articles qu’ils fabriquent, du début à la fin de leur cycle de vie. 

Dans un avenir proche, le recyclage des vêtements textiles va devenir un enjeu fort. Les tags RFID UHF peuvent apporter une aide forte pour la collecte, le tri et le recyclage, qui constituent des casse-tête pour ce secteur d’activité, notamment en raison des volumes concernés qui sont très importants. 

Au-delà du fait que notre tag RFID UHF soit embarqué dans le produit, nous garantissons à l’utilisateur la possibilité de lire le tag RFID embarqué dans le produit en fin de vie, pour appréhender au mieux les possibilités de réutilisation.

Justement, en ce qui concerne le recyclage, la présence de tags, par exemple dans des vêtements, ne pose-t-elle pas une contrainte supplémentaire ?

La loi AGEC qui va se déployer à l’échelle européenne va contraindre les marques à se pencher très concrètement sur la problématique du recyclage.

Notre assemblage technique fait que lorsque vous mettez du textile dans une machine à recycler du textile, il y a différentes étapes : l’une d’entre elles, l’effilochage, va consister à couper en tous petits morceaux le textile, voire le broyer, pour en refaire, in fine, un fil textile quasi vierge.

Nous avons démontré, expériences à l’appui, que notre fil n’a pas d’impact dans ce procédé là : une masse de vêtements taguée avec notre fil, en fin d’effilochage, a exactement les mêmes caractéristiques techniques que des vêtements non tagués.

C’est un élément important, car il ne faut pas que le tag vienne compliquer les processus de recyclage.

Quelles étaient vos attentes en participant à l’édition 2023 du salon Global Industrie ?

Nous avons deux gros marchés pour lesquels notre solution technologique est pertinente : le textile et l’industrie. Dans l’industrie, nous nous intéressons particulièrement aux marchés des pneus et des câbles électriques. En ce qui concerne ces marchés, les exigences de traçabilité des produits sont de plus en plus prégnantes, et vont s’accentuer dans les années qui viennent. Ce sont donc des secteurs d’activités ou l’utilisation de notre tag pourra faciliter ces évolutions.

Sur ces deux marchés, nous collaborons avec des acteurs importants tant au niveau des pneus que des câbles électriques, pour mettre en place des solutions techniques adaptées à leurs besoins.

Global Industrie nous a permis de rencontrer des acteurs de ces filières, pour leurs présenter nos solutions et voir avec eux comment répondre au mieux aux contraintes de traçabilité qui se posent à eux.


[1] Ultra haute fréquence

Adaptation climatique du parc nucléaire : la question prioritaire de l’eau

Le rapport de la Cour des comptes sur l’adaptation au changement climatique du parc de réacteurs paru ce 21 mars est passé quasiment inaperçu. Pourtant, alors qu’Emmanuel Macron entend lancer la construction de six réacteurs de type EPR 2, étudie la possibilité d’en construire huit supplémentaires et souhaite prolonger la durée des réacteurs déjà construits à soixante ans, la question mérite d’être sérieusement explorée.

Des adaptations sont menées depuis les années 1990, mais l’évolution rapide des connaissances sur le changement climatique impose la revue des dispositifs de sûreté existants et la définition d’une véritable stratégie d’adaptation pour le nouveau nucléaire, note la Cour des comptes. Elle estime l’investissement pour l’adaptation au changement climatique et aux événements associés autour « du milliard d’euros pour la période passée et d’environ 600 millions d’euros pour les quinze prochaines années ». EDF ne l’ayant « pas évalué complètement et précisément », elle enjoint l’énergéticien à « identifier et mesurer les coûts d’adaptation au changement climatique du parc de production nucléaire, en fonctionnement [56 réacteurs implantés sur 18 centrales, ndlr]et en investissement ».

Six sites particulièrement à risque

En période de canicule ou de sécheresse, les normes encadrant les prélèvements d’eau et les rejets thermiques des centrales peuvent contraindre l’exploitation et réduire la disponibilité et la production du parc. C’est notamment le cas lorsque les réacteurs se situent en bord de rivière ou d’estuaire. La Cour des comptes identifie un risque d’indisponibilité pour « six sites » : Saint-Alban, Tricastin, Bugey, Blayais, Golfech et Chooz. Elle recommande de mieux mesurer les impacts de la contrainte hydrique sur ces centrales et d’adapter si nécessaire leurs capacités d’entreposage avant rejet des effluents liquides.

Les pertes de production liées à ces restrictions restent la plupart du temps limitées, inférieures à 1 % de la production annuelle. Elle a néanmoins atteint un record de 1,4 % en 2003, à cause de la canicule. La Cour des comptes note que « ces indisponibilités sont concentrées sur des périodes brèves, estivales le plus souvent, et peuvent s’avérer critiques en accroissant les risques de tension sur le réseau ». Ces indisponibilités liées au réchauffement climatique pourraient être multipliées « par un facteur de trois à quatre » d’ici 2050, relève en outre l’autorité administrative.

Pour une meilleure évaluation et prise en compte des risques

Les épisodes caniculaires et de sécheresse étant appelés à se multiplier, la Cour des comptes appelle à consolider et mettre à jour les fondements scientifiques justifiant les limites réglementaires applicables aux rejets thermiques des réacteurs nucléaires. La recherche doit également permettre de mieux connaître l’évolution du débit des fleuves.

Si des solutions techniques plus sobres en consommation d’eau, voire des technologies « à sec », sont expérimentées à l’international, EDF n’a proposé « aucune innovation opérationnelle concernant les systèmes de refroidissement dans le cadre du nouveau programme nucléaire », regrette la Cour. Elle demande donc à l’énergéticien de « renforcer la recherche et développement sur les systèmes de refroidissement sobres en eau ainsi que sur des systèmes de traitement biocide plus sobres en réactifs chimiques rejetés dans le milieu naturel ».

« Keyprod est un bon exemple de réindustrialisation »

Les boîtiers développés par Keyprod s’accompagnent d’une application web, qui centralise les données récoltées et permet une gestion plus performante de l’ensemble du parc machines d’un atelier.

César Allievi, Responsable marketing de l’entreprise, a répondu aux questions de Techniques de l’Ingénieur, quelques jours après la récompense obtenue lors de l’édition 2023 du salon Global Industrie.

Comment est né Keyprod ?

L’histoire de Keyprod débute en 2008 lorsque Damien Marc, actuel CEO de l’entreprise, reprend l’entreprise gérée par son père, JPB Système, une société industrielle du secteur aéronautique, produisant des fixations et des bouchons pour les moteurs d’avion. Ces vis et ces bouchons ont la particularité de ne pas se dévisser, ce qui constitue en soi une innovation majeure et brevetée. En 10 années, Damien Marc a fait grandir cette entreprise, qui est aujourd’hui leader mondiale sur son marché, et également une vitrine de l’industrie du futur avant l’heure.

César Allievi, Responsable marketing de Keyprod. ©Keyprod

Pour en arriver là, il lui a fallu trouver de nouveaux clients, et être en capacité de produire plus. Damien Marc a donc intégré de nouvelles machines dans les ateliers, et JPB Système est passé du statut de bureau d’études en recherche et développement à celui de producteur à part entière.

De nouvelles machines ont donc tout de suite été installées dans les ateliers, en les automatisant immédiatement. L’automatisation des process a permis de gagner en productivité et de dégager du temps, qui était auparavant consacré à des tâches n’ayant aucune valeur ajoutée. Nous avons donc digitalisé nos process nativement, ce qui nous a également permis de commencer à collecter une grande quantité de datas. Aussi, nous avons rapidement robotisé toutes les tâches à faible valeur ajoutée, ce qui nous a amélioré la performance globale de nos process de production.

En 2017, nous avons intégré l’accélérateur de Bpifrance, ce qui a été le véritable déclencheur de la genèse de Keyprod. Cet accélérateur nous a permis de faire du networking, de faire visiter nos installations à de nombreux industriels, qui ont été pour la plupart très intéressés par nos installations, et désireux de faire la même chose dans leurs usines.

De son côté, Damien Marc a continué à phosphorer sur le sujet, jusqu’au jour où, au détour d’une conversation avec un opérateur dans l’atelier, ce dernier a couru pour stopper une machine car il avait entendu un son qui n’aurait pas dû se produire. Il a ainsi évité la casse d’un outil…  et a provoqué un déclic chez Damien Marc, qui venait de trouver le langage commun de toutes les machines de production : la vibration. A partir de là, nous avons amassé des données sur les vibrations de tous les types de machines, c’est comme cela que Keyprod est né.

En quoi consiste la solution que vous proposez aujourd’hui ?

La solution que nous proposons est une sorte de middleware, avec d’un côté des boîtiers IoT qui s’aimantent sur les machines et captent leurs vibrations, les comprennent grâce à de l’algorithmique, de l’IA et du machine learning, et vont ainsi être en mesure de comprendre les cycles de production pour pouvoir retranscrire ces captations en indicateurs de performance industrielle.

Ils peuvent être positionnés n’importe où sur la machine, et se paramètrent en moins de cinq minutes.

De l’autre côté, nous avons développé une application web qui va agréger toutes ces données et permettre de conduire plus efficacement des process d’amélioration continue de la production industrielle, sur tout le parc machines d’une chaîne de production. Ce boîtier IoT, disposant d’un écran tactile qui sert d’interface à l’opérateur, a reçu l’award de la transition numérique pendant l’édition 2023 du salon Global Industrie. Il va informer in fine l’opérateur de toutes les causes de non production, qui seront ensuite analysées par le manager grâce à l’application web dédiée.

Quels sont les différents niveaux d’utilisation de ces boîtiers ?

Nous allons avoir deux niveaux d’utilisation. D’abord, il est possible de régler un seuil de vibration au-dessus duquel il y a production, et en-dessous duquel il y a non production. Déjà, cette information permet de calculer les temps de production et de faire fonctionner 90% de l’application, ce qui fournit des données fiables sur les taux de performance, de disponibilité machine, de charge… Ceci permet d’établir le pareto des pertes en complétant les causes, que ce soit sur le boitier tactile ou dans l’application directement.

Le second niveau d’utilisation concerne notre boîtier KEYNETIC, celui qui a reçu l’award. Ce dernier fonctionne un peu comme la célèbre application Shazam, qui reconnaît le titre d’une chanson et son auteur grâce à l’audio de la chanson en question. Au contraire de Shazam, qui dispose d’une base de données dans laquelle il va identifier des titres, nos boîtiers vont apprendre la signature vibratoire du cycle de production d’une pièce produite, pour ensuite les reconnaître automatiquement et effectuer un comptage des pièces produites. Il faut en général environ cinq minutes au boîtier pour collecter les données de vibrations nécessaires à son paramétrage.

Revenons à l’édition 2023 du salon Global Industrie. Qu’attendiez-vous de votre participation cette année ?

Il s’agit de notre seconde participation au salon Global Industrie. Nous avons lancé la commercialisation de nos boîtiers en 2022, il s’agit donc en 2023 pour nous d’une phase d’accélération. Global Industrie nous permet de rencontrer de nouveaux clients potentiels, de faire connaître notre projet et d’élargir notre réseau dans le secteur industriel.

La volonté derrière le développement de nos boîtiers et de l’application est de donner de l’autonomie à nos clients. Ainsi, le temps de paramétrage très court, et l’accompagnement initial que nous fournissons à nos clients leurs permettent, rapidement, d’être totalement autonomes sur la gestion de ces outils, ce qui n’est pas forcément le cas des solutions disponibles sur le marché.

Pour terminer, quel est votre point de vue sur la réindustrialisation de l’hexagone et le made in France, deux sujets dont on parle beaucoup en ce moment ?

Notre solution a été créée par l’industrie, pour l’industrie. Nous sommes des fervents défenseurs du made in France, convaincus que l’hexagone compte de nombreux savoirs faire, dans tous les domaines. Nous en sommes un parfait exemple, puisque nous avons développé des compétences de très haut niveau sur des domaines comme le digital, les hardwares, l’algorithmique, les logiciels embarqués, le traitement du signal… tout cela 100% en France. D’ailleurs, notre histoire, qui débute avec JPB Système, et se poursuit aujourd’hui avec Keyprod, montre la capacité de notre industrie à développer des compétences nouvelles et être innovante et compétitive. Il s’agit selon moi d’un excellent exemple de réindustrialisation.

Propos recueillis par Pierre Thouverez

Juice, Euclid, SVOM, Ariane 6 : les temps forts de l’Europe spatiale en 2023

L’année 2023 s’annonce riche, mais aussi difficile côté lanceur, pour l’Europe spatiale et le Centre national d’études spatiales (CNES). Pour partager cette actualité, l’association des journalistes de l’environnement (AJE) a invité Philippe Baptiste, président-directeur général du CNES, à s’exprimer lors d’un webinaire en ligne le 13 mars. Ainsi, avec trois ans de retard, le premier lancement d’Ariane 6 devrait finalement bien avoir lieu fin 2023. À condition évidemment que les futurs essais de la fusée et de son pas de tir au Centre spatial guyanais se déroulent sans encombre majeur.

Une année difficile pour les lanceurs en Europe

Philippe Baptiste, président-directeur général du CNES, reconnaît la difficulté actuelle de l’accès autonome de l’Europe à l’espace, alors qu’elle devait recourir, en période de transition entre les deux lanceurs Ariane, au lanceur moyen russe Soyouz. Une voie abandonnée depuis l’invasion de l’Ukraine. En parallèle, le nouveau lanceur léger européen Vega-C, qui devait effectuer son premier vol commercial avec à son bord deux satellites d’Airbus, s’est perdu après son décollage depuis Kourou, le 20 décembre 2022. « C’est un moment difficile pour les lanceurs en Europe avec beaucoup de projets en attente d’être lancés », reconnaît-il. Mais il l’assure : « Ariane 6 va arriver, c’est notre priorité n°1 ! ».

Si l’Europe accuse un certain retard sur la réutilisation des lanceurs par rapport notamment à SpaceX et Blue Origin, Philippe Baptiste rappelle que le CNES travaille sur le sujet avec l’agence spatiale allemande et japonaise. Le démonstrateur Callisto, une fusée mono-étage expérimentale, entièrement réutilisable, « d’une quinzaine de mètres de haut » fera « ses premiers essais en 2024 », assure-t-il.

Les missions Juice, Euclid et SVOM

La toute prochaine mission d’exploration de l’Agence spatiale européenne (ESA) à quitter la Terre est Juice (JUpiter ICy moons Explorer). Elle s’envolera depuis le site de Kourou en Guyane française en avril 2023, lancée par l’avant-dernière Ariane 5. Cette sonde spatiale rejoindra la sonde Juno de la Nasa, en orbite de Jupiter depuis 2016. « Il a sept ans de trajet avec pour but d’observer Jupiter et ses 3 grandes lunes glacées (Ganymède, Callisto et Europe, ndlr), détaille Philippe Baptiste. On est très intéressé par ces lunes glacées parce qu’il peut y avoir des traces de vie, en particulier dans les océans souterrains des satellites de Jupiter. » Sept laboratoires français sont impliqués dans le développement des instruments scientifiques de Juice.

Euclid, le télescope spatial de l’ESA, quittera également la terre en 2023. Philippe Baptiste explique le but du projet. Direction le point de Lagrange L2 du système Soleil-Terre, situé à 1,5 million de kilomètres de la Terre à l’opposé du Soleil, où il entrera en orbite pour effectuer ses observations. « Il a comme mission de cartographier en trois dimensions des centaines de millions de galaxies pour essayer de comprendre à la fois l’énergie sombre qui déforme la lumière et comprendre les mécanismes d’accélération de l’expansion de l’univers », explique Philippe Baptiste. La mission embarque encore une fois plusieurs instruments développés par la communauté française et par le CNES.

Enfin, la mission franco-chinoise SVOM doit décoller en décembre 2023 depuis la base de lancement de Xichang, en Chine. Elle placera un satellite en orbite basse de la Terre, à une altitude de 650 km. Cette collaboration entre le CNES et l’administration spatiale nationale chinoise (CNSA) doit étudier les plus lointaines explosions d’étoiles, les sursauts gamma. Il s’agit de « gros paquets d’énergie qui rayonnent dans l’univers et qui permettent d’indiquer qu’il y a une explosion d’étoiles ou de la fusion d’objets très compacts, très énergétiques », précise Philippe Baptiste. Les observations depuis l’espace seront complétées par un important segment au sol.

Néolithe ouvre une troisième voie de traitement des déchets non recyclables

Néolithe est une société créée en janvier 2019 qui développe une nouvelle voie de traitement des déchets non-recyclables en proposant une alternative à l’enfouissement et à l’incinération : la fossilisation accélérée, qui stocke plus de carbone qu’elle n’en émet. Ce procédé breveté consiste à transformer les déchets non recyclables en Anthropocite, nouvelle matière se présentant sous la forme de granulats minéraux utilisables dans le secteur de la construction.

Nicolas Cruaud, président et cofondateur de Néolithe, a répondu aux questions de Techniques de l’Ingénieur, suite à la participation de Néolithe au salon Global Industrie 2023.

Techniques de l’Ingénieur : Présentez-nous Néolithe ?

Nicolas Cruaud : Nous avons créé Néolithe, avec mes deux associés, Clément Bénassy et William Cruaud, il y a trois ans. Aujourd’hui notre start-up industrielle compte 168 salariés. Le pari que nous nous sommes lancés est de traiter industriellement et écologiquement les déchets non-recyclables en mélange (comme le plâtre, les plastiques, le bois, les isolants…). Ce que l’on appelle le refus de tri.

Nicolas Cruaud, président et cofondateur de Néolithe (Copyright Néolithe)

Pour tous ces déchets, il n’y avait que deux solutions de traitement : l’enfouissement et l’incinération, des méthodes intrinsèquement polluantes qui émettent beaucoup de gaz à effet de serre. Pour répondre plus proprement à ce besoin, nous avons inventé une troisième voie de traitement des déchets : la fossilisation accélérée, qui séquestre du CO2 au lieu de le réémettre dans l’atmosphère. Ce procédé est né de l’observation de mon père William Cruaud, tailleur de pierre en Anjou, qui a analysé la pierre de tuffeau issue de la sédimentation des déchets du crétacé en calcaire.

Inspirés par ce processus naturel de sédimentation, nous avons cherché à reproduire cette transformation et c’est ainsi que nous avons mis au point notre procédé de fossilisation accélérée, qui vient bouleverser le mode de traitement des déchets en les transformant en pierre.

Moins émetteur de gaz à effet de serre et assurant la revalorisation de 100% des déchets traités en granulats minéraux utilisables dans le secteur de la construction, ce procédé innovant se positionne comme une alternative à l’enfouissement et à l’incinération.

Pour vous donner une échelle, si demain nous traitions par fossilisation accélérée l’ensemble des déchets émis en France chaque année, nous pourrions réduire l’empreinte carbone française de 5 à 10 %, toutes industries confondues. Ce procédé est donc en situation de faire évoluer la décarbonation de manière très significative.

Comment fonctionne votre procédé de fossilisation accélérée ?

Pour rappel, Néolithe est une start-up industrielle spécialisée dans la conception et la fabrication de fossilisateurs, des unités industrielles de traitement des déchets non-recyclables (non-inertes et non-dangereux) par fossilisation accélérée.

Implantés directement sur les plateformes ou les centres de tri qui réceptionnent et captent les déchets, nos fossilisateurs, qui représentent une surface au sol d’environ 500 m², sont capables de traiter 10 000 tonnes de déchets par an. Il s’agit d’une solution qui participe activement à la réduction des émissions de gaz à effet de serre, en stockant plus de carbone qu’elle n’en émet. Cela via un procédé entièrement mécanique, ne nécessitant aucune chauffe et n’émettant aucun rejet (odeur, fumée, eaux usées…). Aujourd’hui nous traitons essentiellement les déchets industriels banals issus du secteur de la construction, appelés DIB. Nous prévoyons d’ici 2 ans de traiter également les ordures ménagères.

Pour revenir plus en détail sur ce procédé à froid unique, voici les principales étapes qui le composent : La première étape, dite de broyage, consiste à réduire les déchets à l’échelle d’une sorte de farine très fine (grains entre 0 et 500 microns). La seconde étape, dite de mélange, consiste à faire réagir cette farine de déchets avec des liants qui permettent de minéraliser la matière. À la fin de cette réaction, nous obtenons une sorte de pâte à modeler minérale. Concernant les liants que nous utilisons lors de cette étape, il s’agit de formulations que nous avons mises au point et que nous produisons nous-mêmes. La troisième étape, dite de façonnage, consiste à presser et à modeler cette pâte minérale pour obtenir des granulats de la forme et de la densité souhaitée. Les granulats minéraux issus de la fossilisation accélérée des déchets sont appelés « Anthropocite ». Ils peuvent se substituer à des granulats naturels issus des carrières pour une utilisation en béton non-structurel, sans risque technique ou environnemental.

De plus, ils agissent en tant que puits de carbone en prévenant la dégradation des matières biogéniques contenues dans le DIB de chantier. L’Anthropocite a un bilan carbone négatif, c’est-à-dire que pour une tonne de déchets traitée, 338 kg de CO2 équivalent est stocké au sein des granulats. La fabrication et l’utilisation de ces granulats ont donc un effet positif sur l’environnement.

Enfin le CSTB a délivré une Evaluation Technique de Produits et Matériaux (ETPM) afin de prouver la qualité des bétons non-structurels composés de 10% de granulats d’Anthropocite.

Cet agrément est le socle prouvant la qualité de l’Anthropocite et ouvrant la voie vers de nouveaux usages. Aujourd’hui, ce matériau est utilisable par des professionnels au sein des bétons non-structurels, première étape indispensable avant la réalisation de bétons structurels. Néolithe a pour objectif d’étendre les usages de ce nouveau matériau vers d’autres types de bétons et à des pourcentages de plus en plus élevés, avec un objectif, à court terme, de 30 % de substitution de granulats traditionnels.

En quoi la fossilisation accélérée constitue-t-elle une technologie innovante de traitement des déchets ?

Notre procédé de fossilisation accélérée des déchets non-recyclables est très bien accueilli. Il est une réponse industrielle aux problématiques environnementales d’aujourd’hui, et par conséquent, il s’inscrit pleinement dans le cadre de la stratégie nationale bas carbone.

Pour recontextualiser la gestion des déchets non-recyclables, les solutions actuelles de traitement comme l’enfouissement ou l’incinération, deviennent de plus en plus contraignantes et coûteuses. L’enfouissement est voué à disparaître, et l’incinération n’est clairement pas une solution d’avenir de par ses émissions de CO2. Les industries recherchent et se tournent donc de plus en plus vers de nouveaux procédés pour traiter leurs déchets.

De plus, si la question environnementale via les émissions de CO2 n’était pas prioritaire il y a cinq ou dix ans, elle est devenue essentielle et capitale aujourd’hui. Au-delà des industries, notre solution décarbonée de Fossilisation Accélérée des déchets non-recyclables intéresse l’ensemble des acteurs de la filière : politique, société civile…

Enfin, le granulat d’Anthropocite qui résulte de ce procédé est le matériau idéal pour toutes les entreprises du secteur du BTP qui cherchent à décarboner leurs activités.

Quels étaient les enjeux de votre présence à Global Industrie cette année ?

Nous pensons vraiment que nous avons le potentiel de créer un impact positif à l’échelle industrielle car notre procédé traite les déchets non-recyclables et capture le carbone.

Être présent à la 5ème édition de Global Industrie, la plus grande vitrine française de l’innovation industrielle, et remporter un Global Award en présence de Roland Lescure, ministre de l’Industrie, et de Nicolas Dufourcq, DG de la Bpifrance, nous aide à gagner une crédibilité et, espérons-le, nous aidera à nous développer plus rapidement pour traiter les déchets dans le monde entier.

Quels sont les autres salons auxquels vous participez en général ?

Nous participons à plusieurs salons cette année, comme Talent For The Planet, Le Jour E, Concrete Expo, SIM, Pollutec, SMCL… L’un des principaux est Pollutec qui se déroulera du 10 au 13 octobre 2023 à LYON Eurexpo. Il s’agit du rendez-vous incontournable pour les acteurs du déchet, de l’environnement et de la transition écologique. Il est primordial de promouvoir la fossilisation accélérée des déchets non-recyclables.

Quelles sont vos ambitions pour les années à venir ?

Notre ambition principale est de participer activement et significativement à la réduction des gaz à effet de serre pour limiter au maximum les impacts liés au réchauffement climatique.

Pour atteindre cet objectif ambitieux et urgent, nous développons très rapidement notre activité. Nous recrutons en moyenne 2 collaborateurs/trices par semaine dans tous les secteurs (administratif, ingénierie, laboratoire, production…) afin d’assurer notre développement. D’ailleurs, n’hésitez pas à nous contacter pour participer à notre aventure !

Nous sommes actuellement en train d’installer notre premier Fossilisateur industriel et nous planifions à l’horizon 2023 d’en installer sept en France. À l’horizon 2026, nous visons une capacité de traitement de 2,5 millions de tonnes de déchets ultimes soit l’économie d’1 million de tonnes de CO2 par an.

Enfin, nous visons également un déploiement à l’international. Nous entamons dès à présent des démarches pour installer des Fossilisateurs à l’extérieur de nos frontières : Angleterre, pays nordiques, Suisse, et même Japon (pays très contraints en termes de surfaces).

Propos recueillis par Pierre Thouverez

Avec OODA, Obvious Technologies invente le poste de commandement 4.0

Acronyme d’Observe, Orient, Decide, Adapt, OODA a pour objectif principal celui de fluidifier la boucle de décision propre au règlement d’un incident : enfant perdu dans la foule, acte terroriste, vol, mouvement de foule ou encore débordement sur la voie publique. Mêlant les technologies de jumeau numérique et de modélisation 3D avec celles de l’analyse de données, le logiciel offre un environnement de visualisation tridimensionnel intuitif et immersif dans lequel s’affichent, en temps réel, des informations ciblées et interprétées à l’aide de puissants outils d’analyse.

Ex-gendarme formé à Saint-Cyr, le cofondateur d’Obvious Technologies Thierry Orosco a notamment passé trois ans à la tête du GIGN. Après un passage dans le privé, il a finalement créé l’entreprise dont il est aujourd’hui président aux côtés de son actuel DG Naoufal El Ouali, et de Béranger Kabbas, son directeur Technique. Thierry Orosco nous retrace le parcours atypique qui l’a amené à la tête de cette jeune entreprise innovante et nous décrit par le menu son offre logicielle.

Techniques de l’Ingénieur : Quel parcours vous a amené à co-fonder Obvious Technologies ?

Thierry Orosco-Obvious Technologies
Thierry Orosco, Président et cofondateur d’Obvious Technologies

Thierry Orosco : J’ai débuté ma vie professionnelle en tant qu’officier de gendarmerie, après avoir été formé à Saint-Cyr. J’ai toujours été passionné par l’opérationnel. Cela m’a amené à passer les tests du GIGN[1]. J’ai ainsi passé près de la moitié de ma carrière au sein de cette unité, que j’ai fini par diriger, ce qui était un rêve pour moi. Ce fut une très belle aventure humaine, vécue au cœur des opérations. J’ai ensuite eu le désir de continuer à vivre des choses qui me feraient vibrer, non plus en Gendarmerie, mais dans le privé. J’ai, dans un premier temps, travaillé au sein du groupe Engie. En 2017, j’ai eu l’envie d’accélérer les choses. Pour ce faire, il me semblait pertinent de m’impliquer dans une plus petite structure, plus agile, plus souple. J’ai eu la chance de rencontrer l’un de mes deux actuels associés, qui venait du monde de l’entreprise, et plus précisément du secteur de la sécurité électronique. Cela m’a semblé très complémentaire de mon expérience. Nous avons donc décidé de cofonder Obvious Technologies pour développer notre logiciel, OODA.

Cela s’est fait en mars 2019. Une partie des fondements de notre logiciel ont toutefois été bâtis au sein de la société qui appartenait à mon associé. Un troisième cofondateur venant du monde du jeu vidéo nous a par ailleurs rejoints. Cela a été très important : nous voulions concevoir un logiciel à l’interface transparente et amplificatrice d’efficacité. Nous nous sommes pour cela inspirés du monde du jeu vidéo, ainsi que de celui des smartphones.

Quatre ans plus tard, nous nous sommes bien développés : notre CA a grimpé de 600 % par rapport à l’an dernier ; nous faisons du bénéfice ; nous avons une quinzaine de développeurs basés en France, ainsi que des bureaux accueillant une dizaine de collaborateurs aux Émirats arabes unis. Nous avons ainsi gagné un certain nombre de marchés dans les pays du Golfe, qui ont une grosse appétence pour le numérique. Nous commençons aussi à gagner des parts de marché en France. Nous avons aujourd’hui une trentaine de clients.

Quels sont les fondements technologiques du logiciel que vous avez développé, OODA ?

Le logiciel s’appelle OODA, pour « Observe, Orient, Decide, Adapt ». C’est la boucle de décision que tout le monde connaît et que l’on met parfois en œuvre, un peu comme Monsieur Jourdain, sans même le savoir. Nous essayons de rendre cette boucle de décision la plus rapide possible, alors que l’on a aujourd’hui une quantité croissante de données à disposition. On demande de plus en plus de réagir en temps réel, tout en étant submergé par de la data…

Nous avons donc construit notre plateforme logicielle avec en tête l’objectif d’agréger toutes les briques logicielles permettant de gérer différentes familles d’objets connectés : par exemple un ensemble de caméras, via un VMS[2]. Nous intégrons ces informations au sein de notre plateforme dans le but de les rendre disponibles à l’usager de manière transparente. Nous voulons que l’utilisateur puisse rester concentré sur son métier, plutôt que de se perdre dans les méandres des fonctionnalités… Il n’a ainsi qu’à se laisser guider par son intuition, tel un utilisateur de smartphone. La technologie amène à la fois de la rapidité et une plus grande pertinence des éléments à la base des prises de décision.

Notre interface est en grande partie en 3D. Nous intégrons donc les modèles tridimensionnels dont nos utilisateurs peuvent éventuellement déjà disposer, ou nous les développons nous-mêmes. Il peut s’agir d’une simple zone, d’un bâtiment entier, ou de surfaces beaucoup plus grandes : nous avons par exemple modélisé des stades pour la coupe du monde au Qatar, ou encore l’Exposition universelle Dubaï 2020…

OODA-interface3D
OODA dispose d’une interface 3D dans laquelle s’affichent, en temps réel, des informations issues de l’analyse des données de natures très diverses.

Concrètement, quelles informations votre interface présente-t-elle à l’utilisateur ?

Nous fournissons essentiellement de la visualisation de données. Aujourd’hui, l’important n’est pas tant la data elle-même, que la possibilité de l’exploiter de la manière la plus transparente qui soit. Mon passé opérationnel m’a aussi conduit à mettre l’accent sur l’accompagnement de l’utilisateur dans la gestion des alertes. Lorsqu’une alarme s’affiche à l’écran, ça n’est en effet que le début du travail ! Nous guidons donc l’utilisateur dans la résolution de l’incident : nous l’informons des moyens dont il dispose et nous lui indiquons la meilleure façon de les mettre en œuvre. Nous lui permettons également de vérifier que cela s’est effectivement déroulé comme prévu : dans le cas d’un véhicule, par exemple, la plateforme indique s’il est bien arrivé à destination. Ces fonctions d’accompagnement se poursuivent jusqu’au retour à une situation normale.

À quels secteurs cette solution se destine-t-elle ?

Nous avons plusieurs verticales de marché. La première d’entre elles est constituée par les villes.

Le deuxième grand marché pour nous est représenté par les infrastructures critiques : centres de production d’énergie, infrastructures de transports…

Le troisième sujet d’intérêt est celui des grands évènements, qu’ils soient politiques – comme un G20, Davos… – culturels ou sportifs.

La plateforme peut aussi servir à d’autres fins que des usages sécuritaires : si l’on peut localiser une équipe d’agents sur le terrain, on peut aussi, par exemple, localiser une flotte de bennes de collecte de déchets ; si l’on peut agir sur des caméras, on peut aussi agir sur des feux de signalisation, etc.

L’émergence des données ouvertes est aussi une opportunité : on peut par exemple intégrer des vidéos Météo-France dans la plateforme pour visualiser le sens du vent, ce qui peut être utile pour des pompiers, dans le cas de la gestion d’un sinistre. On peut intégrer toutes ces données ouvertes afin de permettre à l’utilisateur d’enrichir son champ de réflexion avec d’autres paramètres que ses seules informations propriétaires.

Notre outil peut aussi servir à planifier un évènement, en aidant l’utilisateur à prévoir les moyens dont il aura besoin, à définir à l’avance des zones à fermer, etc. Nous avons aussi intégré une fonction de retour d’expérience, de re-jeu, permettant notamment de réfléchir à la façon d’améliorer les choses pour de futures interventions. Enfin, nous proposons aussi une fonction de simulation, qui permet notamment d’entraîner les équipes.

OODA est aussi disponible sur smartphone et tablette. Cela permet aux acteurs de terrain de bien comprendre la situation, leur place dans le scénario et ce que l’on attend d’eux. Ils peuvent également eux-mêmes faire remonter des informations qui seront à leur tour interprétées par la plateforme, de la même manière que le sont les données issues de capteurs.

Le dernier niveau d’accès à la plateforme est le niveau stratégique : il permet au grand responsable, au grand décideur, de prendre connaissance de la situation, et de donner son accord pour les actions prévues.

Parmi les nombreux cas d’usage de votre solution, pouvez-vous nous citer un exemple particulièrement marquant ?

Nous commençons à travailler avec une très importante société saoudienne – Safe – qui est le fruit de la nationalisation des services de surveillance privée de toutes les infrastructures critiques du pays. Notre solution leur permet d’avoir une véritable tour de contrôle, qui leur offre une vision globale sur les centaines de sites surveillés et les milliers d’agents qui en ont la charge.

Travaillez-vous éventuellement toujours à l’amélioration, à l’enrichissement de votre logiciel ?

Bien sûr ! Les technologies évoluent très vite, et tout ce qui est de nature à faciliter le travail de l’utilisateur nous intéresse. Nous sommes ainsi notamment en train d’enrichir la fonction mobile. Les utilisateurs de terrain vont par exemple pouvoir faire remonter des schémas d’observation.

Certains clients nous font aussi part de leurs besoins. Nous évaluons la faisabilité et développons, le cas échéant, de nouvelles fonctionnalités sur mesure, qui peuvent ensuite éventuellement être proposées à l’ensemble de nos clients.

Nous avons eu la volonté de départ d’être disruptifs. Depuis un an, nous nous apercevons, en France comme à l’étranger, que notre idée de fusionner l’ensemble des données et de les rendre accessibles via une interface unique est de plus en plus appréciée et recherchée. Il y a un vrai besoin de simplification, tout en étant plus performant et plus moderne.

Pour quel modèle économique avez-vous opté ?

Nous proposons aussi bien l’achat que l’abonnement. Cela dépend fortement de la culture du client. Certains préfèrent faire l’acquisition de la solution, là où d’autres optent pour le SaaS[3]. Si le moteur de la solution peut ainsi être dans le Cloud, nous avons toutefois à cœur de protéger les données du client, qui ne quittent pas ses propres serveurs.


[1] Groupe d’intervention de la Gendarmerie nationale

[2] Video management system

[3] Software as a service

La sélection du printemps pour oxygéner vos idées !

Le saviez-vous ? Techniques de l’Ingénieur nourrit une vision 360 des enjeux industriels.

Découvrez un échantillon ! Ces articles vous sont ouverts jusqu’au 14 mai.

Arboriculture : Cearitis s’inspire de la nature pour lutter contre les ravageurs

Cousines, Marion Canale et Solena Canale-Parola partagent une même sensibilité pour l’oléiculture de par leur histoire familiale. Les deux petites-filles d’oléiculteur ont donc décidé d’unir leurs forces en fondant Cearitis, afin de lancer sur le marché une solution de biocontrôle permettant de lutter contre un ravageur : la mouche de l’olive, Bactrocera Oleae. Pour y parvenir, la jeune pousse née au Biocluster d’Évry-Courcouronnes mise sur une approche dite « push-pull », combinant répulsion des ravageurs en dehors de la parcelle cultivée et attraction de ces mêmes insectes dans des pièges sélectifs.

Outre la mouche de l’olive, la start-up désormais basée à Aix-en-Provence se penche sur d’autres ravageurs : la mouche des fruits rouges, Drosophila suzukii ou encore Ceratitis capitata, une mouche des fruits attaquant plus de 250 variétés.

Désireuse d’épauler un secteur contraint de composer avec l’interdiction d’un nombre croissant d’insecticides de synthèse, la directrice générale de Cearitis, Solena Canale-Parola, nous dévoile les ambitions de l’entreprise qu’elle a cofondée.

Techniques de l’Ingénieur : Quelle est la genèse de Cearitis ?

Solena Canale-Parola, Cearitis
Solena Canale-Parola, cofondatrice et directrice générale de Cearitis. © Cearitis

Solena Canale-Parola : Cearitis a été créée en mars 2020, sur la base des travaux de Marion Canale, qui était à l’époque étudiante à Sup’Biotech, école d’ingénieurs en biotechnologies. Durant son cursus, elle a eu à traiter pendant plusieurs années un cas d’étude. Elle a choisi, pour ce projet, un sujet qui la touchait particulièrement : les mouches de l’olive. Marion est en effet petite-fille d’oléiculteur. Elle connaît donc personnellement cette problématique et a voulu trouver une solution. Se sont ensuivies trois années de travail de R&D, réalisées dans le cadre de ses études. À l’issue de son parcours étudiant, Marion m’a contactée afin de me présenter son projet. En plus d’être aujourd’hui associées, nous sommes en effet cousines et donc toutes les deux petites-filles d’oléiculteur. Je me suis ainsi lancée à ses côtés dans l’aventure Cearitis.

Initialement, l’entreprise était basée au Biocluster d’Évry-Courcouronnes, le Genopole. Cela nous a permis de bénéficier de différents programmes proposés par cette structure – Shaker, puis Booster – et de réaliser ainsi nos premières expérimentations. Il fallait, toutefois, que nous nous rapprochions de notre marché cible.

Nous avons donc décidé de nous installer dans le Sud de la France, au Technopôle de l’Arbois, qui dispose d’une pépinière d’entreprises, cleantech[1]. Nous avons pu y développer un laboratoire et nous y avons également installé nos bureaux.

Quelles étapes avez-vous d’ores et déjà franchies en matière de recherche et développement ?

Il nous a tout d’abord fallu définir la nature de la technologie à développer. Pour réaliser une protection par biocontrôle, nous avons dû réfléchir à une manière plus innovante de protéger les vergers et plus adaptée aux ravageurs qui les attaquent, que les approches conventionnelles. Nous avons donc développé une solution dite en « push-pull », ou « attraction-répulsion ». Pour cela, nous avons notamment travaillé en laboratoire dans des tunnels de vol.

Nous sommes ensuite passés aux études semi-field, une étape à mi-chemin entre le laboratoire et le terrain, puis aux essais sur le terrain.

piège-Cearitis
En complément de molécules répulsives, Cearitis déploie, en dehors des parcelles, des pièges attractifs permettant de cibler spécifiquement certains ravageurs. © Cearitis

En quoi consiste cette approche push-pull que vous évoquez ?

Il s’agit d’une approche biomimétique : on mime l’attraction entre le fruit et le ravageur, mais aussi la répulsion qui existe entre eux. Lorsqu’ils pondent, les ravageurs laissent en effet derrière eux une substance, que l’on appelle le jus de ponte, qui envoie un signal répulsif à leurs congénères. Ils comprennent ainsi que le fruit est déjà occupé. Ce sont donc ces phénomènes d’attraction et de répulsion que nous mimons grâce aux molécules que nous avons développées.

Comment, concrètement, ces molécules peuvent-elles être mises à profit sur le terrain ?

La partie répulsive est très simple à mettre en place : il s’agit d’une solution que l’on pulvérise sur les fruits et les arbres. Cela permet de faire barrière à l’insecte sur la parcelle. Les mouches déviées de la parcelle sont ensuite attirées par notre piège attractif. Il s’agit d’un dispositif que nous avons nous-mêmes conçu, avec en tête l’objectif qu’il soit totalement autonome et, surtout, qu’il agisse spécifiquement sur les ravageurs que nous visons. Il ne peut pas piéger d’autres insectes. Cela permet de protéger la biodiversité.

Cette combinaison de mécanismes attractifs et répulsifs permet d’avoir une très bonne protection des parcelles.

mouche-olive-Cearitis
Cearitis développe notamment une solution de lutte contre la mouche de l’olive, Bactrocera oleae. © Cearitis

Contre quelles espèces d’insectes ravageurs votre technologie permet-elle de lutter ?

Il s’agit, d’une manière générale, des mouches des fruits, mais nous visons plus spécifiquement la mouche de l’olive Bactrocera oleae, la Drosophila suzukii, qui, elle, attaque les cerises ou encore les fruits rouges, ainsi que la Ceratitis capitata. Cette mouche méditerranéenne affecte en effet une très large variété de cultures : il y en a près de 250, mais les principales sont les fruits à noyau, les agrumes, ou encore les mangues.

 

Quelle est l’efficacité de la technologie que vous avez développée ?

Les insecticides chimiques de synthèse qui existent actuellement devraient être retirés du marché dans quelques années. Ils sont certes néfastes tant pour la biodiversité que pour les agriculteurs eux-mêmes, mais ils permettent malgré tout d’apporter une protection comprise entre 97 et 100 % là où, non protégée, une culture attaquée par un ravageur subit une perte de 90 à 100 %. Au niveau des protections biologiques, les meilleures d’entre elles – et elles sont assez rares – atteignent un niveau de protection de 80 à 90 %.

De notre côté, nos derniers tests sur le terrain réalisés en Espagne et au Portugal ont permis de révéler une efficacité supérieure à 96 %. Il s’agit de très bons résultats, que nous espérons confirmer lors de nos prochains essais.

Toutefois, lorsque l’on mise sur des solutions biologiques, il faut aussi prévoir une approche complémentaire, et c’est ce que nous prônons. Nous sommes tout à fait conscients que cette complémentarité est nécessaire. Nous proposons donc également un service d’agroécologie. Il s’agit, en substance, d’aider l’arboriculteur à mettre en place des itinéraires techniques alternatifs permettant d’atteindre la plus haute efficacité possible en matière de lutte contre les ravageurs. Nous faisons en sorte d’analyser la parcelle sous de multiples aspects, à « 360° ».

Quels marchés visez-vous ? À quelle échéance ?

Nous vivons une situation d’urgence sur la cerise : toutes les substances de synthèse sont en train d’être retirées du marché. Sauf qu’aucune solution biologique n’est encore disponible. Il existe d’autres types de solutions, telles que des filets, mais leur coût se situe aux alentours des 20 à 25 k€ à l’hectare… Ce marché de la cerise représente donc l’une de nos principales préoccupations. Nous espérons pouvoir proposer le plus rapidement possible des solutions à la filière française.

Les produits biologiques nécessitent cependant les mêmes procédures d’homologation que les produits phytosanitaires conventionnels, qui prennent entre 5 et 8 ans. Toutefois, lorsque l’on se trouve dans une situation d’urgence phytosanitaire, comme c’est le cas pour la cerise, des dérogations peuvent être mises en place. C’est ce que nous espérons, afin de pouvoir proposer une solution rapidement.

Nous serons toutefois sans doute confrontés à cette contrainte de délais pour l’un des autres marchés que nous visons, celui de l’olive. Nous travaillons cependant d’ores et déjà avec d’autres pays d’Europe comme l’Espagne et le Portugal, mais aussi d’autres continents, notamment le Brésil. Leurs procédures de mise sur le marché sont un peu plus rapides, ce qui devrait nous permettre d’y commercialiser nos solutions au plus vite.

Nous envisageons ainsi de créer, à terme, nos propres installations de production. Il faudra pour cela que nous poursuivions nos levées de fonds. Nous sommes d’ailleurs en train d’achever la première d’entre elles, d’un montant de 800 k€.

Vous avez annoncé conjointement il y a peu le lancement d’un partenariat avec la greentech Afyren. Quels sont les objectifs de cette collaboration ?

Afyren va en effet nous permettre de sécuriser notre approvisionnement en matières premières pendant cinq ans, des matières premières biosourcées, saines et développées en accord avec nos valeurs environnementales. Nous sommes très heureux de la mise en place de ce partenariat avec des collaborateurs qui ont la même vision que nous de l’agriculture de demain.


[1] Technologies propres

20 nouvelles startups industrielles intègrent le club Tech Factory de France Industrie

Créé en 2021, le club Tech Factory rassemble une soixantaine de startups de l’écosystème français. D’après Alexandre Saubot, président de France Industrie, l’intégration de nouvelles étoiles montantes s’inscrit dans une « vocation de promotion et de mobilisation de l’industrie vers un objectif commun : la réindustrialisation de la France. »

Qu’est-ce que le club Tech Factory ?

Ce club fait partie des initiatives engagées par France Industrie pour :

  • améliorer l’environnement économique et réglementaire des startups industrielles ;
  • les rendre plus visibles ;
  • accélérer leur industrialisation.

Depuis sa création, le club Tech Factory poursuit deux objectifs.

D’une part, renforcer la visibilité des startups industrielles choisies en leur permettant d’accélérer leurs collaborations avec les membres de France Industrie, qu’ils soient des entreprises ou des fédérations industrielles. Les membres du club ont ainsi un accès privilégié et un soutien de France Industrie.

D’autre part, le club a aussi pour vocation d’être un laboratoire d’idées permettant d’identifier et de lever les freins au développement des startups industrielles en France.

promotion 2023 du club Tech Factory
La promotion 2023 du club Tech Factory de France Industrie (Crédit : France Industrie)

Qui sont les startups de la promo 2023 ?

Voici la liste des startups de la promotion 2023 regroupées par famille, ainsi qu’une rapide description de leur activité.

Chimie

  • Dioxycle développe des solutions de recyclage du CO2 industriel en produits chimiques d’intérêts et carburants, grâce à une technologie basée sur l’électrocatalyse.

Énergie

  • Airthium conçoit des générateurs de chaleur décarbonés pour l’industrie et des systèmes de stockage d’électricité.
  • Jimmy Energy a mis au point un générateur thermique fonctionnant grâce à un microréacteur nucléaire qui transmet la chaleur à un circuit primaire.

Matériaux et construction

  • BLACKLEAF a mis au point un procédé 100 % écologique permettant de produire du graphène de hautes performances au prix le plus compétitif.
  • Gwilen transforme les sédiments marins en matériaux de construction, grâce à un procédé inspiré de la diagenèse, sans cuisson.
  • Woodoo améliore le bois et a inventé le bois augmenté, tactile et léger, pour les interfaces homme-machine et les intérieurs automobiles.

Mobilité

  • Caps propose un drone autonome à forte capacité d’emport pour la logistique industrielle et militaire ainsi que pour le transport de passager en milieu urbain.
  • FinX révolutionne le monde nautique en développant des moteurs de bateaux à membrane ondulante, imitant la nage des poissons.

Mode et textile

  • Authentic Material revalorise les gisements de matières naturelles des Maisons de Luxe (co-produits de production, chutes d’atelier, invendus…), dans une démarche d’économie circulaire.
  • Fairbrics a développé une alternative aux fibres synthétiques traditionnelles de l’industrie textile et propose la première fibre textile ayant un impact positif sur les quantités de CO2 émises.

Santé/Biotech/Medtech

  • Core Biogenesis a développé un procédé permettant d’obtenir un facteur de croissance recombinant pour cellules souches à partir des plantes, sans utiliser de composé animal et d’endotoxine.
  • Ganymed Robotics a développé une plateforme technologique combinant vision par ordinateur et mécatronique, permettant de guider le geste du chirurgien pendant des opérations.

Technologies propres

  • Eranova[1] a développé une technologie innovante et brevetée qui utilise les macroalgues vertes échouées sur les plages, un polluant, comme ressource pour la fabrication de résines biosourcées, recyclables et compostables.
  • NetZero[2] propose un procédé industriel de captage du CO2 présent dans l’atmosphère permettant de l’enfouir dans le sol. L’entreprise prélève les déchets agricoles, qui contiennent du CO2 capté par photosynthèse, et utilise la pyrolyse pour les transformer en biochar.
  • Revcoo[3] déploie des outils de captation de CO2 à destination des industriels. Ces systèmes sont placés au niveau des cheminées des usines et captent jusqu’à 95 % du CO2 rejeté, grâce à une technologie de cryogénie.

Télécom et électronique

  • Hummink propose une nouvelle technologie de fabrication et de réparation pour les marchés de la microélectronique et du semiconducteur.
  • Ternwaves a inventé et développé une technologie de connectivité révolutionnaire pour les réseaux terrestres et satellitaires. Cette technologie résout le problème de la limitation en capacité de ces réseaux.

Alimentation et agriculture

  • Green Spot Technologies produit et distribue des ingrédients fermentés et upcyclés en récupérant les co-produits de la première transformation (brasserie, jus, concentré).
  • HappyVore conçoit et produit des aliments similicarnés à base de protéines végétales pour constituer une alternative à la viande.
  • Gourmey est l’entreprise pionnière de la viande de culture en France, produite à partir de cellules animales.

[1] Lire l’article « Eranova : des algues vertes aux biopolymères » publié le 8 mars 2023

[2] Lire l’article « Le biochar permet une séquestration long terme du carbone » publié le 26 octobre 2022

[3] Lire l’article « Revcoo : une technologie basée sur le froid pour valoriser le CO₂ d’origine industrielle » publié le 4 octobre 2022

Les start-up à vocation industrielle séduisent les investisseurs

Cocorico, les levées industrielles françaises ont augmenté de 36 % en 2022, alors que la tendance mondiale est à la baisse. Avec 3,78 Mds€ levés, la France passe devant l’Allemagne. Le nombre de levées supérieures à 100 M€ a doublé et parmi ces levées de fonds, 28 % l’ont été par des start-up industrielles.

Lancé il y a 6 ans, le développement de la « French Tech » porte ses fruits si l’on en croit l’observatoire de Bpifrance qui gère les différents dispositifs : Plan start-up industrielles lancé en janvier 2021 (2,3 milliards d’euros), plan deeptech lancé en 2019 (3 milliards d’euros) et réabondé en janvier 2023 (500 millions d’euros).

Pour mesurer les effets de ses financements, Bpifrance vient de publier son observatoire des start-up industrielles qui développent, lors d’une phase de R&D, des innovations de produits ou de procédés impliquant à terme une production en série de biens matériels.

Première licorne industrielle

Selon cette étude, l’hexagone compte 1 900 start-up à vocation industrielle, dont 35 % dans la santé (Biotech et Medtech), 17 % dans l’électronique et la photonique et 10 % dans l’énergie. Les autres sont dans la robotique, l’agro-industrie, la chimie industrielle, les biens de consommation…

Alors que la faillite de la Silicon Valley Bank, spécialisée dans le capital-risque, pourrait fragiliser des start-up américaines (la SVB se présentant comme la partenaire de la moitié des start-up américaines financées par capital-risque), les start-up industrielles françaises lèvent de plus en plus de fonds pour financer leur croissance et leur industrialisation.

Leurs levées ont augmenté de 36 % en 2022, à l’encontre d’une tendance mondiale à la baisse. Cette accélération a permis entre autres l’avènement de la première licorne industrielle (Exotec). Son système Skypod déploie des robots pour apporter les articles directement aux opérateurs dans les entrepôts.

Cette solution permet ainsi à ses clients de s’adapter rapidement à la demande des consommateurs et aux fluctuations de la chaîne d’approvisionnement, tout en atténuant les contraintes de main-d’œuvre, en augmentant la sécurité sur le lieu de travail et en optimisant la rentabilité.

croissance des fonds levés
La croissance des fonds levés pour financer l’industrialisation de ces start-up s’explique notamment par une année record avec 8 levées supérieures à 100 M€. Source : analyse Bpifrance.

Sur les 197 start-up industrielles qui ont levé des fonds en 2022, 60 % sont des Deeptech, parmi lesquelles 40 % sont des Greentech cherchant à améliorer l’impact environnemental des entreprises ou des consommateurs finaux.

Ces levées de fonds ont permis la création de 76 sites industriels en 2022. Parmi ces inaugurations, 35 proviennent de start-up appartenant majoritairement aux secteurs de l’agro-industrie, de la valorisation de déchets et dispositifs de dépollution et de la chimie industrielle et des matériaux.

On peut citer le cas de l’usine de Lacroix Electronics à Beaupreau-en-Mauges (Pays de la Loire). Inaugurée en septembre 2022, cette ligne d’assemblage électronique de 19 000 m² est décrite comme un « concentré d’innovations » : intelligence artificielle pour le comptage des composants, robots pour la préparation des commandes, cobots pour manipuler les bobines et de nouvelles machines de pose de gros composants.

Autre exemple significatif, l’usine du Groupe Madic à Saint-André-de-Cubzac (Nouvelle-Aquitaine). Inaugurée en décembre 2022, cette ligne de production de 18 000 m² permet d’intégrer de nouvelles productions : stations-service préfabriquées, bornes électriques haute puissance et dispositifs dédiés à l’hydrogène pour les futures stations de distribution.

secteurs et levées de fonds
Le secteur de la santé est en tête des levées suivi par la mobilité, l’énergie, l’agro-industrie et la robotique. Source : analyse Bpifrance.

Enfin, la répartition géographique de ces entreprises est assez homogène, même si l’on constate une dynamique de levées de fonds particulièrement importante en Île-de-France, Auvergne-Rhône-Alpes, Nouvelle-Aquitaine et Occitanie.

Une fenêtre très réduite pour limiter le réchauffement climatique à 1,5°C

Le GIEC a approuvé le week-end dernier la synthèse de neuf années de travaux sur le climat. « Le rapport publié aujourd’hui par le GIEC est un guide pratique pour désamorcer la bombe à retardement qui menace le climat », a déclaré António Guterres, secrétaire général de l’ONU, le qualifiant de « guide de survie pour l’humanité ». Le secrétaire général de l’ONU a ainsi exhorté les dirigeants des pays développés à s’engager à atteindre l’objectif zéro émission nette dans les meilleurs délais.

Le budget carbone pour limiter le réchauffement à 1,5°C écoulé d’ici 2030 ?

S’il est encore possible, selon le GIEC, de limiter le changement climatique à 1,5°C d’ici la fin du siècle, la fenêtre est de plus en plus réduite. « Il existe une fenêtre d’opportunité qui se referme rapidement pour assurer un avenir viable et durable pour tous », martèlent les auteurs. Mais pour cela, la coopération internationale doit se renforcer et proposer des « mesures d’atténuation et d’adaptation urgentes, efficaces et équitables ». L’action climatique nécessitera « un meilleur accès à des ressources financières adéquates, en particulier pour les régions, secteurs et groupes vulnérables ».

La décennie 2020-2030 est capitale. En 2019, les émissions mondiales de CO2 s’élevaient à 59 gigatonnes de CO2 (GtCO2). Pour avoir une chance sur deux de limiter le réchauffement climatique à 1,5°C d’ici la fin du siècle, la meilleure estimation du budget carbone restant à partir de début 2020 est de 500 GtCO2. Sur la décennie, si les émissions restent sensiblement au même niveau qu’en 2019, les émissions de CO2 sur la décennie suffisent donc à dépasser le budget carbone restant pour limiter le réchauffement à 1,5 °C.

Pour ne pas dépasser le seuil de +1,5°C par rapport à l’ère préindustrielle, les émissions de gaz à effet de serre doivent au contraire diminuer de 43 % d’ici 2030 par rapport à 2019. « Les choix et les actions mis en œuvre au cours de cette décennie auront des impacts maintenant et pendant des milliers d’années », assurent les auteurs.

Les émissions projetées des infrastructures fossiles existantes suffisent à dépasser le budget carbone pour limiter le réchauffement à 1,5°C si elles ne sont pas équipées d’un système de capture et de stockage de CO2. « J’appelle également les dirigeants de toutes les compagnies pétrolières et gazières à faire partie de la solution », a ainsi déclaré António Guterres.

Toutes les solutions et financements disponibles

Le temps n’est plus aux demi-mesures. Seule une action profonde, immédiate et transformatrice pourrait permettre d’inverser la courbe mondiale d’émissions de gaz à effet de serre. Pour y arriver, le GIEC identifie secteur par secteur, des solutions rapidement mobilisables. Et il évalue leur potentiel de réduction des émissions de gaz à effet de serre en fonction du prix de la tonne de CO2.

Les deux mesures qui ont le plus fort potentiel de réduction des émissions de gaz à effet de serre à moindre coût – majoritairement à moins de 20 dollars la tonne de CO2-équivalent – sont le développement de l’énergie solaire et de l’énergie éolienne. La réduction de la déforestation et la restauration des forêts renferment également un potentiel important. Des solutions déjà disponibles dans tous les secteurs – agriculture, énergie, transports, industrie, bâtiments, l’utilisation des terres… – permettraient de réduire les émissions nettes annuelles de 31 à 44 gigatonnes d’équivalent CO2 d’ici 2030, soit de 47 % à 75 %.

Il existe suffisamment de capitaux et de liquidités au niveau mondial pour combler les déficits d’investissement mondiaux, insiste le GIEC. Les scientifiques appellent les acteurs politiques, financiers et économiques à lever les obstacles à la réorientation vers l’action climatique.

Guerre en Ukraine : des cyberattaques plus discrètes, mais destructrices

Le 24 février 2022, la Fédération de Russie lançait l’invasion de son voisin ukrainien. À cette époque, de nombreux médias mettaient en avant les risques de cyberattaques de grande ampleur destinées à déstabiliser le pays.

Il y a un peu plus d’un an, nous constations que cette cyberguerre tant redoutée était finalement absente. Quel est le bilan au printemps 2023 ? Les analyses de différents experts ont montré que les risques de sabotages à grande échelle d’infrastructures sensibles n’ont pas eu lieu.

Les cyberattaques se sont déroulées de façon beaucoup plus discrète, mais parfois tout autant destructrice. En un mot, les Russes n’ont pas utilisé la grosse Bertha[1], mais plutôt des petites armes cyber sophistiquées et difficiles à repérer.

Certes, les Russes ont mené quelques cyberattaques classiques de type attaques Ddos[2] visant à paralyser le réseau informatique d’une banque ukrainienne ou d’une administration en le submergeant de requêtes envoyées par des millions d’ordinateurs contrôlés (à l’insu de leur possesseur) par des pirates.

Virus destructeurs

En réalité, l’invasion de l’Ukraine a commencé bien avant le 24 février 2022. De nombreuses opérations de renseignement avaient été menées plusieurs mois auparavant. Des pirates informatiques soutenus par le Kremlin ont, par exemple, ciblé les communications entre les soldats et leurs commandants et ont sondé les systèmes énergétiques pour voir lesquels étaient en ligne et connectés au réseau.

Mais surtout, les Russes avaient déjà mené des opérations pour « sonder » le niveau de résistance des réseaux informatiques ukrainiens dès 2015 (logiciel malveillant BlackEnergy) et l’année suivante avec le virus Industroyer.

Autre constat de ce bilan, la guerre en Ukraine a surtout été le terrain favori des wipers, des logiciels malveillants destructeurs. Le TAG (Threat Analysis Group, des experts en cybersécurité de Google) a constaté plus d’attaques de logiciels malveillants destructeurs en Ukraine au cours des quatre premiers mois de 2022 qu’au cours des huit années précédentes réunies !

Parfois utilisés conjointement avec des vers pour se propager sur tout le réseau, les wipers sont des codes malveillants qui effacent toutes les données enregistrées sur des disques durs ou les rendent inutilisables. Principal objectif dans le cadre de la cyberguerre : empêcher l’ennemi d’accéder à des données critiques ou essentielles à ses activités.

Dès février 2022, l’agence américaine de cybersécurité et de sécurité des infrastructures (CISA-Cybersecurity and Infrastructure Security Agency) avait alerté sur la multiplication de ces programmes malveillants (HermeticWiper, CaddyWiper, WhisperGate…) visant des infrastructures ukrainiennes.

La Russie a également intensifié ses opérations dans le cyberespace, frappant le fournisseur d’accès Internet par satellite Viasat, une attaque qui pourrait avoir dégradé les communications ukrainiennes dans les premières heures de l’invasion.

Des pirates russes visant le Pentagone

Mais comme sur le terrain, les Ukrainiens ont également résisté dans le cyber. Avec l’appui du renseignement américain et en particulier de la National Security Agency, ils ont repoussé une cyberattaque du groupe russe Sandworm qui aurait paralysé un réseau électrique desservant environ 2 millions de personnes.

L’Ukraine n’est pas la seule cible des pirates russes. Selon un rapport de l’Unité 42 de Palo Alto, une entreprise américaine spécialisée dans la cybersécurité, un groupe d’une dizaine de pirates informatiques, appelé « Trident Ursa », a tenté d’infiltrer une entreprise de raffinage de pétrole dans un État membre de l’OTAN à la fin du mois d’août 2022.

Identifié pour la première fois au milieu des années 90, ce groupe lié à la Russie tente souvent d’infecter des réseaux informatiques en cachant des logiciels malveillants dans des clés USB. Parmi ses cibles, la NSA et le Pentagone en… 1996.


[1] En référence à la très grosse pièce d’artillerie utilisée par l’armée allemande lors de la Première Guerre mondiale

[2] Distributed Denial of Service

Motion : la bionique bientôt au service d’enfants en situation de handicap

Fédérant quatorze partenaires basés en France, en Belgique, aux Pays-Bas et au Royaume-Uni, le projet Motion – pour Mechanised Orthosis for Children with Neurological Disorders – bénéficie d’une équipe pluridisciplinaire, composée d’experts en ingénierie mécanique, informatique, ou encore biomédicale, mais aussi de cliniciens, à même de définir clairement les besoins des utilisateurs finaux : les enfants atteints de troubles neurologiques.

Alors que des orthèses actives motorisées pour la hanche et la cheville ont été développées par des équipes belges, un groupe français s’attelle quant à lui à la mise au point d’un exosquelette des membres inférieurs passif, à grand renfort d’outils numériques de simulation et de contrôle-commande.

Docteur en automatique, productique et informatique industrielle, enseignant-chercheur au sein de l’école d’ingénieurs Junia[1] et co-responsable du domaine ingénierie médicale et santé, Laurent Peyrodie est responsable du programme Motion. Il nous en retrace la genèse et les aboutissements.

Techniques de l’Ingénieur : Quelles sont les origines du projet MOTION ?

Motion-Laurent Peyrodie
Laurent Peyrodie, enseignant-chercheur au sein de l’école d’ingénieurs Junia et responsable du programme Motion.

Laurent Peyrodie : Il y a une dizaine d’années, Luc Masson, père d’une enfant polyhandicapée, a rencontré un groupe d’étudiants. Il leur a demandé s’ils pouvaient construire un exosquelette qui permettrait à sa fille de marcher… Ces étudiants sont venus me voir pour me faire part de cette demande. Je suis en effet co-responsable du domaine ingénierie médicale et santé à Junia-HEI. J’ai dit « OK » ! Nous avons donc commencé à travailler sur des études de faisabilité, un cahier des charges… Nous avons par ailleurs rencontré des médecins. Au fil des discussions, nous en sommes venus à la conclusion qu’il y avait effectivement matière à proposer autre chose qu’un simple verticalisateur rigide. Nous avons donc monté un premier dossier et avons obtenu un financement Feder[2]. Nous avons poursuivi nos études et avons construit une première structure, un mini-démonstrateur.

Forts de cette première réalisation et de l’expérience acquise, nous avons voulu aller plus loin. Nous avons répondu à un appel à projets de l’Interreg des 2 mers, et avons monté un projet aux côtés de quatorze partenaires répartis dans quatre pays : Pays-Bas, Belgique, Angleterre et France. Ce projet réunit à la fois des acteurs très techniques et des spécialistes cliniciens.

Le clinicien est un intermédiaire très important, qui permet de définir des besoins dont l’utilisateur final n’a pas forcément conscience lui-même.

Nous sommes, à Lille, chargés de la partie basse de la structure. Cette structure d’exosquelette des membres inférieurs comporte six moteurs : trois par côté, un sur le genou et deux sur les hanches. La cheville n’est quant à elle pas motorisée.

Nos collègues de l’Université de Louvain ont de leur côté développé un système spécifique pour la cheville, en motorisant des orthèses. Une autre équipe belge a également développé une orthèse uniquement pour la hanche. Notre objectif est en effet de développer des solutions ciblant spécifiquement certaines parties du corps en fonction de la pathologie de l’enfant.

Motion-exosquelette
L’exosquelette des membres inférieurs développé à Lille comporte six moteurs : trois par côté, un sur le genou et deux sur les hanches. Seule la cheville n’est pas motorisée.

Quelles sont les spécificités du travail sur un exosquelette pour enfant ?

Le challenge principal consiste à s’adapter à la croissance de l’enfant. Nous avons donc conçu une structure capable d’évoluer à la fois en hauteur et en largeur. Elle est ainsi adaptée à des enfants âgés de huit à quinze ans, et pesant de vingt-cinq à soixante kilos. Il y a aussi un défi en matière de contrôle-commande : il faut que les algorithmes puissent s’adapter eux aussi aux différentes morphologies.

Quelle approche technique avez-vous adoptée pour concevoir le dispositif ?

Il existe deux grands types d’exosquelettes : des modèles passifs et actifs. Nos collègues de Louvain ont fait le choix d’un exosquelette actif : ils contrôlent finement le couple moteur envoyé à l’articulation.

De notre côté, pour nos modules concernant la hanche et le genou, nous avons fait le choix d’une structure dite passive, qui suit une trajectoire préprogrammée en fonction des paramètres morphologiques de l’enfant et basée sur des schémas de marche modélisés.

L’un des impératifs était de développer une structure permettant une marche fluide. Nous avons donc conçu un système de capteurs au sol qui, en mesurant la pression exercée, permet de savoir quand l’essentiel de la masse du corps a été transféré sur un pied, et donc à quel moment l’autre pied peut se lever. Ceci afin de permettre à l’enfant de réapprendre une marche naturelle. Cela implique une phase d’apprentissage, dans laquelle la notion d’équilibre est centrale.

En ce qui concerne les moteurs, nous avons considéré deux options : les relier à l’articulation via des câbles, ou les installer directement au niveau de l’articulation. Nous avons opté pour cette deuxième possibilité, en faisant par ailleurs appel à un fabricant de moteurs réputé – Maxon – capable de fournir des produits bénéficiant de certifications. Nous leur avons ajouté un réducteur, afin d’adapter leur couple.

Nous avons, enfin, relié les moteurs à des cartes d’acquisition Epos4, elles-mêmes connectées via EtherCAT à une structure de commande de type Speedgoat.

motion-structure
Allégée à l’aide de tubes en fibres de carbone, la structure est simplement sanglée aux membres de l’enfant.

Hormis ces briques technologiques matérielles, à quelles solutions avez-vous fait appel sur le plan logiciel ?

Nous avons notamment utilisé les logiciels Simulink et MATLAB de MathWorks. Le module Simscape Multibody de Simulink nous a permis de simuler le système mécanique : mon collègue a importé le modèle – très complexe – du robot dans le module et construit tout le système de contrôle-commande dans MATLAB/Simulink, afin d’obtenir un système de commande en temps réel via le matériel Speedgoat que j’évoquais précédemment. Une fois tout le programme téléchargé, le dispositif peut par ailleurs fonctionner de manière autonome.

L’avantage de ces logiciels réside dans leur côté tout-en-un : ils permettent de simuler à la fois le côté mécanique et les aspects contrôle-commande, mais aussi de mettre en œuvre en temps réel ce contrôle-commande. Cela évite de passer par des langages comme le C ou le C++. On récupère aussi toutes les données issues des capteurs – capteurs de pression, gyroscopes – ainsi que les données issues des moteurs eux-mêmes. On gagne beaucoup de temps !

Cela s’est révélé crucial en pleine période Covid… Nous avons pu poursuivre les simulations malgré tout. Or, plus on gagne du temps au moment de la conception, plus on en dispose, ensuite pour réaliser des tests cliniques.

Quelles sont les prochaines étapes du projet ?

La prochaine grande étape va être celle des tests visant à valider le fonctionnement de la machine et le fait qu’un enfant la supporte.

Ensuite, il nous faudra évaluer le bénéfice au patient, via un protocole clinique. Ce bénéfice devrait porter sur des aspects tels que la taille et la cadence des pas, l’augmentation de la stabilité et la diminution de l’énergie nécessaire à la marche, ainsi que, plus largement, l’amélioration de la qualité de vie de l’enfant.

Si ces étapes se révèlent fructueuses, nous pourrons alors imaginer la suite… éventuellement une commercialisation. Mais cela impliquera de nouvelles procédures pour obtenir la certification CE propre aux dispositifs médicaux.

Nous sommes donc à la recherche de nouveaux financements. Nous avons notamment déposé un nouveau dossier de demande de financements européens. L’idée est de poursuivre les développements avec nos collègues de Louvain, de tester cela à l’hôpital et de comparer les résultats avec ce qui peut être fait à domicile. Il nous reste aussi un travail à réaliser sur l’alimentation par batterie. Le système actuel fonctionne très bien, mais ne dispose pas de certification CE. Un gros travail scientifique et technique est aussi en cours au niveau du maintien de l’équilibre de la structure. L’analyse des données massives que nous commençons à engranger va nous y aider.

Nous avons par ailleurs conçu une combinaison textile intelligente. Des capteurs intégrés au tissu permettent de mesurer différents paramètres physiologiques : température, rythme cardiaque, réponse électrodermale… Cela va nous permettre d’évaluer le niveau de stress de l’enfant, et donc son degré d’acceptation du dispositif. Si tout se passe bien, dans trois ans, nous devrions avoir validé le bénéfice clinique du système et nous pourrons alors passer à la phase d’industrialisation.

D’une manière plus large, il y a aussi toute une réflexion éthique à avoir : quel est le sens de faire marcher un enfant qui n’a pas forcément conscience de la marche ? A-t-on le droit de « forcer » quelqu’un à marcher ? Qu’est-ce que cela va lui apporter… ? Tout cela soulève des questionnements complexes. Un des objectifs du projet est aussi de montrer au monde de la santé que les technologies bioniques peuvent être une aide, et non pas un frein ou un substitut à leur travail.


[1] JUNIA est une école d’ingénieurs qui porte les diplômes JUNIA HEI, JUNIA ISA et JUNIA ISEN, des activités de recherche et des services aux entreprises. Elle compte 5 000 étudiants, 450 collaborateurs et est implantée à Lille, ainsi qu’à Bordeaux et Châteauroux.

[2] Fonds européen de développement régional

500 solutions pour une économie circulaire du plastique

Pour agir contre la pollution plastique, l’arsenal législatif se renforce. La Directive européenne sur les plastiques à usage unique et la loi anti-gaspillage pour une économie circulaire, dite « loi Agec », prônent le développement du recyclage et du réemploi des emballages plastiques en France et en Europe. Pour atteindre ces objectifs et passer à l’échelle certaines solutions qui ont montré leur maturité, l’association No Plastic In My Sea et ses partenaires, Réseau Consigne, Réseau Vrac et l’Institut du Commerce publient le rapport 500 solutions à la pollution plastique et 12 recommandations. Au menu : des solutions de réduction des plastiques à usage unique grâce au réemploi, à la vente en vrac et à l’écoconception.

Diminuer le recours aux bouteilles en plastique

No Plastic in my sea s’intéresse en premier lieu à la réduction des bouteilles en plastique. En France, la loi Agec vise une réduction de 50 % des bouteilles en plastique mises sur le marché en 2030 par rapport à 2020. En absence d’échéancier prévu par loi, l’association incite les producteurs de boissons et d’eau embouteillées à développer leurs plans de réduction. L’association s’appuie notamment sur les solutions de fontaines à eau et de boissons existantes pour les professionnels. « On cible en priorité la bouteille plastique, car c’est quasiment la moitié des emballages des ménages et le premier déchet à usage unique que l’on retrouve sur les plages selon l’étude de 2018 de la Commission européenne », explique Muriel Papin, déléguée générale de No Plastic In My Sea.

Un vrai changement d’usage se prépare. Depuis janvier 2022, la loi Agec oblige aussi les établissements de plus de 300 personnes recevant du public à s’équiper d’au moins une fontaine à eau potable, accessible gratuitement avec une signalétique claire, et de la raccorder à un réseau d’eau potable. Le rapport incite ces établissements qui n’ont pas encore installé et signalé ces points d’eau à rattraper leur retard d’ici juin 2023. « Ces points d’eau où les gens pourraient remplir facilement leurs gourdes sont trop peu développés : il devrait notamment y en avoir partout dans les gares, les aéroports, les musées et les centres commerciaux », souligne Muriel Papin.

Vers davantage de réemploi

La diminution de la pollution plastique passera par le développement du réemploi. La loi Agec prévoit notamment que 5 % des emballages mis sur le marché soient réemployés en 2023, 10 % en 2027. No plastic in my sea appelle tous les secteurs concernés à développer au plus vite des solutions, en s’appuyant notamment sur le budget de 50 millions d’euros, consacré au développement de solutions de réemploi, annoncé par l’éco-organisme Citéo.

« Il y a des solutions qui existent, des startups qui sont en mesure de travailler avec des grands groupes, insiste Muriel Papin. Il y a de l’investissement de la part de l’Ademe et des éco-organismes, donc il n’y a pas de raison que les grandes marques et les distributeurs ne passent pas à l’action. »

Nouveauté : l’instrumentation s’invite au salon de l’analyse industrielle !

Au vu du contexte international actuel, qui impacte directement les entreprises françaises et leurs chaînes de production, de nouveaux enjeux liés à la transition énergétique et à l’industrie 4.0 émergent. Afin de proposer des solutions concrètes et adaptées aux nouvelles problématiques, le salon s’agrandit et accueille, en plus des fabricants d’analyseurs, les détecteurs industriels dans le domaine du gaz, du pétrole, des fluides, de l’air, et les fournisseurs d’instruments de process. 

Cette nouvelle édition regroupera les 5 et 6 avril, 2 500 professionnels et 80 intervenants qui seront rassemblés pour partager leurs expériences et présenter leurs produits, services et innovations pour répondre aux besoins de ce secteur.

À cette occasion, vous aurez la possibilité d’échanger et débattre sur les défis autour de l’analyse industrielle et de l’instrumentation avec des ateliers, des conférences et des tables-rondes centrés sur :

  • les opportunités de croissance, de prévisions de marché, 
  • les nouveauté en matière de réglementations et normalisation, 
  • les technologies, tendances et innovations en industrie, 
  • les nouveaux besoins en analyse, 
  • la sécurité, surveillance des sites,
  • et le contrôle de process industriels, de même que la gestion des rejets.

N’hésitez pas et prenez votre badge visiteur ici : https://www.analyse-industrielle.fr/visiter.php

Pour plus d’informations sur le salon, rendez-vous sur le site du salon de l’analyse industrielle.

Les destructions de zones humides dans le monde moins élevées que prévu

Durant la majeure partie de l’histoire humaine, les zones humides ont été considérées comme des terres improductives. Elles ont alors été drainées pour notamment être transformées en terres cultivables. Ce drainage a d’ailleurs produit certaines des terres les plus fertiles de la planète. Ce n’est qu’à partir de 1971, date de la Convention de Ramsar, que la conservation de ces écosystèmes a été officiellement reconnue comme une priorité internationale. L’on sait aujourd’hui que les zones humides jouent un rôle dans l’atténuation du réchauffement climatique en absorbant le CO2 atmosphérique. Jusqu’ici, la littérature scientifique rapportait qu’entre 28 % et 87 % d’entre elles avaient été détruites depuis 1700 à l’échelle mondiale. Une nouvelle étude, parue dans Nature, estime que la destruction est plus limitée.

Pour obtenir une image globale la plus précise possible, une équipe de chercheurs, regroupant entre autres l’université de Stanford, a combiné des archives historiques provenant de 3 000 documents issus de 154 pays, à des cartes actuelles de zones humides. Résultat : la destruction se chiffre à 3,4 millions de km² entre 1700 et 2020, soit une perte nette de 21 % de la superficie initiale. Mais de fortes disparités sont constatées, puisque certaines régions des États-Unis, de la Chine, de l’Inde, d’Asie du sud-est, et même d’Europe ont vu disparaître plus de 50 % de leurs zones humides en un peu plus de 300 ans. L’Irlande a par exemple perdu plus de 90 % de ses écosystèmes. Et cinq pays seulement représentent plus de 40 % de toutes les pertes mondiales, ce sont les États-Unis (15,6 % du total), la Chine (12,6 %), l’Inde (6,5 %), la Russie (4,5 %) et l’Indonésie (4,1 %).

La production de riz est le deuxième motif de conversion

Concernant les motifs de conversion de ces territoires, la transformation en terres cultivées est la cause la plus fréquente de perte des zones humides naturelles (61,7 % de la perte totale). Vient ensuite la conversion pour la production de riz inondé (18,2 %) ; celle-ci se révèle être un facteur de perte important dans certaines régions du monde, comme c’est le cas en Asie et en Afrique subsaharienne, où elle représente environ 40 % de toutes les pertes. À l’échelle mondiale, la conversion en zones urbaines représente 8 % de toutes les pertes de zones humides et la transformation en foresterie se chiffre quant à elle à 4,7 %. À noter que ce dernier domaine est le principal facteur de la perte en Suède, en Finlande et en Estonie, représentant plus de 45 % des pertes totales dans ces pays. Les dernières motivations de destruction de zones humides sont à mettre sur le compte de la culture de ces milieux humides (4,3 %), puis le pâturage (2,0 %) et enfin l’extraction de la tourbe.

Un point important concerne la dégradation des tourbières. Il s’agit d’un type de zone humide caractérisé par des profondeurs de sols organiques de plus de 40 cm, et dont la destruction se révèle particulièrement impactante en raison de leur rôle majeur dans le stockage du carbone dans le sol. Parmi les régions riches en tourbières, celles d’Europe du Nord ont subi les pertes les plus précoces et les plus élevées depuis 1700, suivies d’une augmentation récente du drainage des tourbières en Indonésie et en Malaisie pour la culture du palmier pour produire de l’huile.

Ce nouveau chiffrage montre que la plupart des études précédentes ont surestimé la conversion mondiale des zones humides, car elles s’appuyaient sur des données concentrées dans les régions à forte perte. Les auteurs de cet article rappellent que cette nouvelle estimation ne doit pas diminuer l’urgence de protéger et de restaurer les écosystèmes des zones humides, en particulier dans les régions où des drainages sont encore en cours. Ils expliquent que : « nos cartes de l’étendue des zones humides, des taux de conversion et des facteurs d’utilisation des terres permettent de nombreuses applications. Ces informations fournissent une base de référence pour les objectifs de conservation et la priorisation de la protection des zones humides et des espèces qui en dépendent. Dans un contexte de restauration, la compréhension de l’histoire de l’utilisation de ces terres aide à choisir des sites pour des interventions, telles que la réhumidification. »

Au moins 6,7 milliards d’euros pour recycler les plastiques européens

L’Union européenne s’est dotée d’objectifs ambitieux dans le cadre de la stratégie européenne sur les matières plastiques. Elle fixe notamment un objectif de recyclage des emballages plastiques de 50 % d’ici 2025 dans le but de générer 10 millions de tonnes de plastiques recyclés dans de nouveaux produits, dans tous les États membres, d’ici la même année. Dans un nouveau rapport, la Banque européenne d’investissement (BEI) estime qu’il manque entre 6,7 et 8,6 milliards d’euros pour y arriver. Plus des deux tiers financeraient de nouvelles capacités de recyclage, le reste soutiendrait le développement de nouvelles capacités de tri.

Un manque d’usines à combler

Compte tenu des différentes pertes le long du processus, le rapport estime que pour être en capacité de produire 10 millions de tonnes de plastiques recyclés d’ici 2025, il faudra avoir une capacité de tri totale de 16,7 millions de tonnes de plastiques par an au niveau européen. Il en manque à ce jour 4,2 millions de tonnes.

Les 650 usines de recyclage présentes en Europe pourraient actuellement produire un maximum de 6,3 millions de tonnes de plastiques recyclés. Elles en produisent en réalité autour de 5 millions de tonnes, d’après les dernières données. Pour combler le retard, la BEI estime qu’il faudra investir entre 4,6 et 5,7 milliards d’euros, soit plus de deux tiers de l’investissement total.

Des recommandations hautement politiques

Pour faciliter le recyclage des plastiques, le rapport dresse cinq grandes recommandations législatives. La première : prendre des mesures pour imposer des restrictions sur les emballages difficiles à recycler. La BEI identifie « l’interdiction de certains produits en plastique à usage unique, des restrictions sur les emballages en plastique multi-couches, des restrictions sur les emballages composites, tels que les emballages associant papier et plastique, des restrictions sur les emballages multi-polymères ».

La BEI relève aussi l’importance de mettre en place d’autres filières à responsabilité des producteurs (REP), au-delà des seuls emballages. Ces dispositifs, sur le principe « pollueur-payeur », permettent de rendre responsables les metteurs sur le marché de l’ensemble de leur cycle de vie, de leur écoconception jusqu’à leur fin de vie. « Les gouvernements nationaux ont la possibilité d’introduire des systèmes obligatoires ou des systèmes de collecte pour des applications industrielles spécifiques, par exemple dans l’industrie automobile, le secteur électrique et électronique, le secteur agricole et dans le bâtiment et la construction », propose-t-elle.

Il s’agirait également d’introduire des incitations tarifaires pour améliorer la compétitivité des produits en plastique, à haute teneur en matières recyclées, face au plastique vierge. La BEI recommande en parallèle d’imposer des quotas d’incorporation de plastiques recyclés pour obliger les producteurs et les propriétaires de marques à mettre en place des dispositifs dédiés de collecte, de tri et de recyclage. Enfin, elle souligne l’importance de renforcer encore les campagnes de sensibilisation du public.

Le rapport identifie en parallèle quatre recommandations financières clés que la BEI pourrait accompagner afin de résoudre le problème de la pollution par les déchets plastiques tant à l’intérieur qu’à l’extérieur de l’Union européenne. Il s’agit notamment de prêts aux producteurs et marques pour améliorer la circularité des plastiques, de prêts aux municipalités et aux collectivités locales pour augmenter la capacité de tri et de recyclage du plastique. La BEI propose enfin de soutenir les activités de recherche, de développement et d’innovation pour améliorer les technologies de tri et de recyclage, et les projets de gestion intégrée des déchets et de traitement des eaux dans les pays en développement.

Vers un nouveau marché de l’électricité ?

La forte hausse des prix de l’électricité en 2021 et surtout en 2022 a durablement marqué les esprits. Ceux des consommateurs – particuliers et entreprises – qui sont touchés de plein fouet, tout comme ceux des législateurs, tant à la maille nationale qu’européenne. Gouvernements des États membres et élus européens avaient donc appelé l’an dernier à revoir l’organisation du marché de l’électricité, fortement encensé par les plus libéraux pendant des années, mais désormais vu à juste titre comme mal adapté à la sécurisation des prix et des investissements sur le long terme. La Commission européenne a présenté son projet de réforme le 14 mars 2023 « afin d’accélérer l’essor des énergies renouvelables et l’abandon progressif du gaz, de réduire la dépendance des factures des consommateurs par rapport à la volatilité des prix des combustibles fossiles, de mieux protéger les consommateurs contre les futures flambées de prix et les manipulations du marché et de rendre l’industrie de l’UE propre et plus compétitive ».

Les objectifs sont donc nombreux et il s’agit de réviser plusieurs actes législatifs de l’Union européenne. Clairement, la logique de marché n’est pas remise en cause. La fixation des prix de l’électricité par le recours aux centrales de production selon leur « merit-order » – c’est-à-dire en les appelant par ordre de coût marginal croissant – reste la norme pour gérer l’équilibre sur les marchés de court terme. À vrai dire, ce système fonctionne bien, mais il a conduit à de fortes hausses de prix ces derniers mois car les dernières centrales appelées, celle qui fixent le prix spot, sont des centrales à gaz dont le coût avait beaucoup augmenté. Pour limiter cet effet, l’intention de la Commission est d’augmenter le recours aux moyens de production décarbonés ayant des coûts marginaux faibles.

Booster les contrats à prix fixe

Concrètement, il s’agit d’inciter les États membres à favoriser deux types de contrats donnant une visibilité de long terme. Le premier est celui des contrats de droit privé entre producteurs et grands consommateurs, les fameux PPA (Power Purchase Agreement) qui ont déjà le vent en poupe : ils permettent à des entreprises de sécuriser leur approvisionnement d’électricité en l’achetant directement auprès d’exploitants de parcs éolien ou solaire, sur plusieurs années et à un coût compétitif. Le second concerne des contrats entre la puissance publique et des producteurs, de même nature que ceux ayant permis le soutien aux énergies renouvelables depuis quelques années en France. Appelés « Contracts for Difference » (CfD) en anglais, ils reposent sur le fait que le producteur revend son électricité sur le marché, mais en fixant avec les pouvoirs publics une référence de prix : si le prix de marché est inférieur à cette référence, l’État met la main à la poche pour compléter ; si le prix de marché est supérieur à la référence, le producteur doit reverser la différence à l’État. Ces contrats avec complément de rémunération n’ont longtemps fonctionné que dans un seul sens, où l’État subventionnait les énergies renouvelables, permettant ainsi la baisse de leurs coûts. La situation s’est inversée lorsque les prix de marché ont atteint des sommets l’an dernier, et ce sont plus de 25 milliards d’euros que les seules filières éolienne et solaire vont réinjecter dans les finances publiques françaises en 2022 et 2023 (estimation de la CRE en novembre 2022).

Booster l’utilisation des PPA et des CfD fait partie des recommandations d’un groupe d’experts académiques, publiées dans un récent rapport par la Commission de régulation de l’énergie. Le texte de la Commission prévoit qu’une même centrale de production d’électricité puisse cumuler un PPA et un CfD, ce que la loi française permet déjà d’ailleurs. Surtout, il rend éligibles toutes les sources d’énergies décarbonées, tant pour les centrales futures que les actuelles si elles font l’objet d’investissements pour leur mise à niveau. Les énergies renouvelables sont visées, mais, sous couvert de cette neutralité technologique très fortement soutenue par la France, les centrales nucléaires vont l’être aussi.

Par le biais de ces contrats fixant des prix en relation avec les coûts d’exploitation, la Commission espère réduire la volatilité des marchés et sécuriser les prix sur le long terme pour protéger les consommateurs. D’autres mesures viennent compléter la panoplie : plus d’information sur les contrats de fourniture, désignation d’un fournisseur de dernier recours pour les particuliers, utilisation de tarifs régulés en cas de crise, exigence d’une meilleure couverture de long terme des fournisseurs pour éviter qu’ils soient uniquement dépendants des marchés spot, identification des besoins de flexibilité (stockage, effacement de la demande, etc.), meilleure intégration des énergies renouvelables par les gestionnaires de réseau, renforcement de la surveillance des marchés.

Mais tout cela suffira-t-il ? Si la direction semble la bonne, il est encore trop tôt pour en tirer un satisfecit. En effet, le texte de la Commission doit encore être négocié par le Parlement et le Conseil européens et ne sera décliné dans les États membres peut-être que l’année prochaine. Si les parcs éoliens et solaires vont continuer de se développer sans aucun doute, il est peu probable de voir de nouvelles centrales nucléaires se mettre en marche d’ici 15 ans, hormis celles déjà en construction. Les centrales gaz ont donc encore de beaux jours devant elles, et leur coût marginal va encore s’imposer comme la référence sur les marchés. S’il doit encore y avoir crise, par exemple l’hiver prochain, les mesures d’urgence comme les boucliers tarifaires ou la captation de la rente infra-marginale risquent bien d’être les seules solutions…

Les véhicules en fin de vie, une mine urbaine

Chaque année en France, près de 1,4 million de véhicules hors d’usage (VHU) sont traités, alors même que 2,5 millions de voitures neuves sont mises sur le marché. À l’échelle de l’Europe, on compte 6 millions de VHU par an, dont seulement 19 % sont recyclés, les autres finissants en décharge ou incinérés.

Les VHU sont considérés comme des déchets dangereux, tant qu’ils n’ont pas subi une dépollution. Ils sont principalement composés de métaux et de différents types de plastiques (polypropylène, polyéthylène, ABS), mais aussi de nombreux fluides polluants tels que les huiles de moteurs, les boîtes de vitesse et les liquides de freins, ainsi que des matières organiques non recyclables.

Lorsqu’un véhicule en fin de vie arrive dans un centre de traitement, il est d’abord dépollué : les huiles, filtres à huile, à gasoil et/ou essence, liquides de frein, liquides de refroidissement et de lave-glace, batterie au plomb, fluides de climatisation, pneumatiques, réservoir GPL sont extraits. Une fois retirés, ils sont stockés puis traités de manière à éviter les risques pour l’environnement et la santé. C’est à la fin de cette phase que le VHU est considéré comme non dangereux. Il est ensuite démonté pour en récupérer certaines pièces qui seront revendues sur le marché de l’occasion. Il est ainsi possible de collecter entre 20 et 30 pièces en fonction du type de véhicule. Les pneus sont principalement incinérés ou traités par des entreprises à l’instar de BlackCycle afin d’en récupérer la matière. Les autres matériaux comme les câbles, les boîtiers électroniques, le plastique des pare-chocs seront envoyés vers des filières de recyclage. La carcasse, c’est-à-dire ce qui n’a pas été valorisé, est ensuite broyée. Des broyats sont extraits des métaux et des plastiques qui seront massifiés et revendus par des entreprises de recyclage.

Un secteur très réglementé

En 2000, la directive européenne 2000/53/CE sur les VHU fixait un taux minimum de 85 % de réutilisation et de recyclage en masse des VHU et de 95 % pour la réutilisation et la valorisation, y compris énergétique. Elle interdisait également l’utilisation de substances dangereuses lors de la fabrication de nouveaux véhicules (comme le plomb, le mercure, le cadmium et le chrome hexavalent), sauf dans le cas où il n’existait pas d’alternatives. En 2021, la Commission européenne a lancé une étude de faisabilité sur le devenir des VHU dont les résultats paraîtront au printemps. Mais selon l’Ademe, le taux de réutilisation et de valorisation actuel des VHU est d’environ 80 %, encore loin des 95 % fixés.

En 2020, dans le cadre de la loi Agec (anti-gaspillage pour une économie circulaire), de nouvelles filières REP (responsabilité élargie du producteur) sont créées avec l’agrément d’éco-organismes. Ainsi, à partir du 1er janvier 2024, chaque centre VHU agréé devra nouer un contrat avec un éco-organisme ou un système individuel mis en place par les constructeurs pour pouvoir continuer son activité de traitement et de recyclage des VHU.

Éoliennes : une haine basée sur des arguments « extrêmement stéréotypés »

Durant la campagne présidentielle de 2022, l’opposition entre nucléaire et énergies renouvelables a cristallisé les débats autour des enjeux énergétiques et écologiques. La candidate du Rassemblement national, Marine Le Pen, proposait même d’« arrêter toute nouvelle construction de parc éolien » et de « lancer un grand chantier pour les démonter ». Dans son nouveau livre « Éoliennes :  pourquoi tant de haine ? » (Les petits matins, 18 €), Cédric Philibert, chercheur associé à l’Institut français des relations internationales (Ifri) et ancien de l’agence internationale de l’énergie (AIE), s’intéresse aux arguments repris par les opposants au développement de l’éolien en France.

Où cette haine française des éoliennes est-elle née ? « À l’origine, cela vient des milieux ultraconservateurs américains et australiens dans des think tanks largement financés par les producteurs d’énergie fossile – le charbon d’abord, le pétrole et le gaz –, assure Cédric Philibert. Ce sont eux qui ont concocté la plupart des arguments qui sont aujourd’hui repris par une fraction du lobby nucléaire en France. »

Une opposition ancrée entre nucléaire et renouvelables

Il y a deux sortes de pro-nucléaires : ceux qui pensent que les énergies renouvelables font obstacle au nucléaire et ceux qui jugent qu’elles sont indispensables en complément du nucléaire. Le spécialiste des énergies renouvelables explique comment cette première frange d’opposants a transformé et repris à son compte les arguments venant de l’étranger. « Aux États-Unis et en Australie, l’opposition à l’éolien va de pair avec la négation du problème du climat en dénonçant le fait que l’on empêche d’exploiter le pétrole et le gaz de schiste, partage Cédric Philibert. En France, c’est repris sous l’angle que le nucléaire est tellement mieux pour le climat. »

Les partisans se battent à coup de chiffres : le nucléaire émettrait moins de 10 grammes de CO2 par kilowattheure, alors que le solaire en émettrait plutôt entre 25 et 40 grammes. « Comme si cela faisait une grosse différence : il s’agit de remplacer du gaz qui émet plus de 400 (grammes de CO2 par kilowattheure) et du charbon qui en émet près de 1 000 », s’insurge l’auteur. « Les énergies renouvelables ont souvent été présentées comme avant tout une alternative au nucléaire, mais c’est surtout maintenant au niveau global une alternative aux énergies fossiles », souligne Cédric Philibert.

L’ancien expert de l’AIE relève des arguments « extrêmement stéréotypés » pour justifier la haine des éoliennes. Les opposants les accusent de dévaster les paysages, de tuer les oiseaux, de bétonner les terres, de coûter cher aux contribuables, de polluer et d’être des sources de production d’électricité intermittentes. « Ces arguments ont souvent un grain de vérité au départ : il y a par exemple quelques oiseaux qui peuvent être tués par une éolienne, reconnaît Cédric Philibert. Puis, cela devient une des raisons principales d’atteinte à la biodiversité : c’est faux et surtout, en luttant contre le changement climatique, les éoliennes permettent de réduire une grosse raison d’atteinte à la biodiversité »

L’intermittence : un faux problème ?

Jusqu’où peut-on aller dans le développement des énergies renouvelables, malgré leur production intermittente ? « En réalité, il n’y a pas de limite », assure Cédric Philibert. Il reconnaît toutefois la nécessité d’avoir une base de production flexible de centrale thermique pour les longs épisodes en hiver où il n’y a pas beaucoup de vent ni beaucoup de soleil pendant plusieurs jours. « Toutes les flexibilités ordinaires qu’on a – les batteries, la gestion de la demande, les interconnexions avec l’étranger, les voitures électriques – trouvent leur limite dans ces épisodes. »

Le défi consistera, selon lui, à alimenter ces centrales thermiques par de l’hydrogène. « L’hydrogène n’est pas un stockage très efficace, mais permet de stocker l’électricité pendant plusieurs mois et de déstocker au moment où on en a besoin, ce qu’on ne peut pas faire avec une batterie ou même avec une station de transfert d’énergie par pompage hydraulique. »

Une constellation de satellites pour la sécurité de ses communications en Europe

Le contexte géopolitique actuel oblige l’Union européenne à accélérer, d’un point de vue quantitatif et qualitatif, ses capacités de télécommunications sécurisées par satellite.

Un objectif qui n’a pas attendu le conflit ukrainien pour être fixé par l’Europe. Depuis que l’OTAN a déclaré en 2016 que le cyberespace était le cinquième domaine militaire opérationnel dans lequel elle opérait, les Alliés se partagent plus d’informations et s’entraident en cas de cyberattaques.

Cette volonté s’est traduite notamment par la création du Centre de coordination du domaine de l’information et du cyberespace (CIDCC) géré par quatre pays de l’UE (France, Allemagne, Hongrie et Pays-Bas). Mais depuis quelques mois, la guerre des ondes prend de la hauteur !

« L’espace est en effet un domaine très convoité dans lequel l’Union européenne doit garantir ses intérêts essentiels. Et nos technologies spatiales sont devenues des capacités stratégiques pour nos citoyens, pour la résilience de nos économies et bien sûr pour nos armées », a rappelé Thierry Breton, Commissaire européen pour le marché intérieur.

Afin d’assurer la confidentialité des échanges entre pays membres, l’Union européenne a décidé de s’appuyer sur différents réseaux. Dès 2019, l’UE avait lancé un projet d’infrastructure européenne de communication quantique (EuroQCI).

Il y a quelques mois, l’agence spatiale européenne (ESA), la Commission européenne et le SES (Société Européenne des Satellites) ont annoncé le développement d’un système de distribution de clés cryptographiques par satellite.

Nouvelle étape dans la politique de souveraineté numérique, IRIS² (Infrastructure européenne pour la résilience, l’interconnectivité et la sécurité par satellite). Un budget de 2,4 milliards d’euros a été voté en février pour permettre à l’UE de déployer sa constellation de satellites multi-orbitaux. L’infrastructure sera achetée par la Commission dans le cadre d’un partenariat public-privé, par le biais de contrats attribués par voie concurrentielle à l’industrie

Synergies avec Galileo et Copernicus

S’appuyant sur la cryptographie quantique grâce à l’infrastructure européenne de communication quantique (EuroQCI), ce réseau satellitaire fournira dès 2025 une infrastructure de communication sécurisée aux organes et agences de l’UE, aux services d’urgence, aux délégations européennes dans le monde entier. Ensuite, ce service devrait être également disponible pour les entreprises.

Des synergies avec les constellations existantes Galileo (navigation par satellite) et Copernicus (observation de la terre) permettront à IRIS² de proposer une grande variété d’applications gouvernementales, principalement dans les domaines de la surveillance (par exemple, la surveillance des frontières), de la gestion des crises (par exemple, l’aide humanitaire) et de la connexion et de la protection des infrastructures clés (par exemple, les communications sécurisées pour les ambassades de l’UE).

Le système permettra également des applications plus « grand public », notamment l’accès mobile et fixe à large bande par satellite, les liaisons par satellite pour les services B2B, l’accès par satellite pour le transport.

Au-delà des aspects géopolitiques d’IRIS², il faut souligner la volonté de l’Europe de stimuler l’innovation et la compétitivité dans l’industrie européenne des communications par satellite, y compris les petites et moyennes entreprises et les start-ups. Une priorité, car l’Europe est encore pénalisée par des investissements trop faibles dans la R&D et par l’absence d’une puissante base industrielle et technologique de défense. En dehors des secteurs de l’aéronautique et des missiles, ce secteur est en effet très fragmenté.

En 2020, les dépenses combinées des États membres en matière de R&D dans le domaine de la défense s’élevaient à 2,5 milliards d’euros. Elles ne représentaient que 1,2 % de leurs dépenses totales en matière de défense, selon une « analyse des lacunes en matière d’investissement dans la défense et la voie à suivre » publiée par la Commission européenne.

Philippe Fuchs : « Il ne faut être ni technophobe ni technophile par rapport au Métavers mais analyser sérieusement son intérêt et ses limites »

Philippe Fuchs, conseiller VR/AR pour Techniques de l'Ingénieur
Philippe Fuchs est un ancien professeur de Réalité Virtuelle à l’école des Mines de Paris. Il est conseiller VR/AR pour Techniques de l’Ingénieur et un des conseillers scientifiques pour l’offre « Le traitement du signal et ses applications ».

Techniques de l’Ingénieur : Pouvez-vous revenir sur votre parcours professionnel ?

Philippe Fuchs : Après une période d’enseignement, l’école des Mines de Paris m’a recruté pour lancer un nouvel axe de recherche autour de la réalité virtuelle et de la réalité augmentée, adaptées à des usages professionnels.

Qu’est-ce qui vous a amené à vous intéresser à la réalité virtuelle ?

Les premiers chercheurs en VR et AR sont issus soit de l’informatique graphique, soit de la robotique. C’était mon cas lorsque je travaillais dans le centre de robotique de l’école des Mines de Paris. Il est aisé de passer du domaine de la téléopération, qui consiste à agir dans un espace éloigné, en ajoutant des informations virtuelles (AR), à celui de la réalité virtuelle, où l’on agit dans un espace virtuel.

Quelles ont été les évolutions les plus marquantes du secteur ?

La grande évolution de la VR a eu lieu autour de 2015 lorsque le prix du matériel est devenu accessible au plus grand nombre. C’est ainsi que l’on est passé d’applications professionnelles à des usages grand public.

Quel regard portez-vous sur le développement du métavers ? Êtes-vous plutôt enthousiaste ? Avez-vous des interrogations, des craintes ?

Je crains que les contre-vérités perdurent encore quelques temps, ce qui empêche de saisir les véritables potentialités des métavers. Il ne faut être ni technophobe ni technophile par rapport au Métavers mais analyser sérieusement son intérêt et ses limites. C’est l’objectif de l’article intitulé « De la réalité virtuelle aux métavers » que j’ai écrit pour Techniques de I’Ingénieur. Le développement de métavers dans le domaine des arts et de la culture m’enthousiasme. C’est le secteur le plus prometteur pour la société à mon avis. C’est pour cela que je suis membre fondateur de l’association « métavers Arts et Culture » qui vient d’être créée en 2022, principalement pour aider à mieux comprendre l’intérêt de métavers dans ces domaines.

Quelle place pourrait occuper ces technologies immersives dans ce domaine ? Y a-t-il déjà des exemples marquants ?

Les technologies immersives et un métavers artistique doivent permettre une accessibilité aisée aux arts et aux activités culturelles pour un public plus élargi. On pense particulièrement aux plus jeunes, adeptes des jeux vidéo. Mais ils ne sont pas les seuls intéressés. Des exemples marquants sont les « concerts virtuels », réalisés par des artistes, tels Jean-Michel Jarre qui en a déjà réalisé plusieurs pour des millions d’internautes.

Quels conseils donneriez-vous à un étudiant ou ingénieur désirant s’orienter dans le secteur de la RV ?

Il y a encore des start-ups, des ingénieurs qui ont débuté sans prendre le temps de se former à ce domaine scientifique et technique qui a pourtant émergé il y a 30 ans. La RV n’est plus une innovation. Il faut donc bien étudier les concepts de base, les techniques associées et le comportement humain avant de décider de créer une start-up.

Quelles compétences/qualités sont, selon vous, indispensables en général et plus particulièrement sur vos domaines d’expertise ?

Il faut avoir des compétences dans différentes disciplines : l’informatique, les sciences de l’ingénieur et les sciences humaines (physiologie et sciences cognitives). En dehors de ces compétences, il faut avoir les qualités nécessaires pour travailler dans un domaine très interdisciplinaire.

Que vous apporte la collaboration avec Techniques de l’Ingénieur, en tant qu’auteur et conseiller scientifique ?

Durant toute ma carrière, j’ai participé activement à faire connaître la RV en écrivant plusieurs livres. Mon action en tant qu’auteur et conseiller scientifique a grandement contribué en étant très complémentaire à ma démarche de partage et d’information.

Des papillons à l’origine d’une nouvelle peinture ultralégère

L’ensemble des couleurs du commerce sont basées sur les pigments. Ces derniers ont en effet l’avantage d’être réplicables en grands volumes. Toutefois, ils comptent aussi de nombreux défauts : instabilité dans l’atmosphère, perte des couleurs, toxicité environnementale sévère. Une solution pourrait venir de la coloration structurelle artificielle, permise par un phénomène optique produit par les structures micro ou nanométriques. Malheureusement, cette piste a rapidement été abandonnée pour la production de masse du fait des techniques complexes de nanofabrication et des coûts importants. C’était sans compter le professeur Debashis Chanda, de la University of Central Florida, et grand amateur de papillons. Il n’a pas hésité à s’inspirer de leurs colorations flamboyantes pour mettre au point un nouveau type de peinture ultraléger…

Des couleurs vives pour une masse minimale

Dans la nature, les organismes vivants présentent une coloration soit chimique, soit structurelle. Le premier cas explique par exemple la fleur rose de la plante Formasa azaleas, dont les molécules de cyanidine (un pigment présent dans la vacuole de la plante) sont absorbées. À l’inverse, le bleu métallique du papillon Morpho didius provient de la diffusion de la lumière sur ses ailes (pourvues de nanostructures lamellées). En général, les animaux recourent à un mélange de ses deux possibilités pour leur coloration. Debashis Chanda, lui, a voulu reprendre à son compte la couleur vive du papillon péruvien. Pour ce faire, il a dû se pencher vers le domaine de la plasmonique, qui étudie l’interaction entre un rayonnement électromagnétique (la lumière ici) et les électrons libres à l’interface entre un métal et un matériau diélectrique (l’air dans ce cas).

papillons métalliques
La peinture plasmonique une fois appliquée sur les ailes de papillons métalliques
Crédits : University of Central Florida.

Comme présenté dans Science Advances le 8 mars 2023, le chercheur a cherché à obtenir une cavité plasmonique auto-assemblée. Il s’est donc muni d’un évaporateur à faisceau d’électrons qu’il a braqué sur un miroir à revêtement en oxyde d’aluminium transparent. En fait de cavité, Debashis Chanda a récupéré en sortie des nanoîles d’aluminium apportant une réponse optique personnalisée en fonction des paramètres géométriques sélectionnés durant l’assemblage. Le résultat final est une peinture prête à l’emploi, et ce sur n’importe quelle surface ! Sa densité de surface d’à peine 0,4 g/m² fait d’ailleurs d’elle la peinture la plus légère au monde. À titre de comparaison, un Boeing 747 nécessite actuellement environ 500 kg de peinture. Avec la découverte du professeur à la University of Central Florida, il suffirait désormais de 1,3 kg maximum… Soit près de 400 fois moins ! Une affaire à suivre donc, d’autant plus que l’évaporateur à faisceau d’électrons est un appareil déjà largement répandu dans les industries électronique, optique et aérospatiale…