Grâce à l’IA, XXII analyse en temps réel les flux de vidéosurveillance

La plateforme XXIICORE a vu le jour en 2021 et s’adresse notamment au secteur des villes et autres collectivités. Permettant de mettre en œuvre toutes les solutions de vision par ordinateur développées par XXII, cette plateforme pourrait également bénéficier aux marchés du commerce, de l’industrie agroalimentaire, ou encore de la logistique. Grâce à l’IA, la plateforme est en outre capable d’orchestrer le fonctionnement des différents algorithmes et d’en mutualiser les calculs. Pouvant fonctionner en local sur des serveurs, ou dans le cloud, XXIICORE est accessible sur abonnement, comme nous l’explique Souheil Hanoune, Directeur R&D et associé de XXII.

Techniques de l’Ingénieur : Quel est l’historique de XXII ?

Souheil Hanoune – Chief Technical Officer, Directeur R&D et associé de XXII. © XXII

Souheil Hanoune : XXII est, à l’origine, une start-up, qui a maintenant grandi et compte 70 à 80 personnes. Elle a été créée en 2015, par William Eldin et Damien Mulhem, qui sont des amis d’enfance. William est l’un des cofondateurs de Coyote, l’avertisseur de radars. À l’époque, chez Coyote, il avait déjà commencé à s’intéresser à la vision par ordinateur et, petit à petit, il a décidé de quitter l’entreprise pour fonder XXII.

À ses débuts, XXII était une entreprise sur la vision au sens large, c’est-à-dire qu’elle s’intéressait à la réalité virtuelle, à la réalité augmentée, donc à des expériences de vision avec l’humain au centre de ses usages. L’un des objectifs était aussi de monter une équipe dédiée à l’intelligence artificielle. J’ai pour ma part rejoint l’entreprise quelques mois après sa création, en 2016, et j’ai monté cette équipe IA, puis le laboratoire R&D, puis l’équipe de production… De 2015 jusqu’à l’année passée, nous faisions essentiellement du service. Nous proposions à des clients dans différents secteurs des expériences, des solutions et des projets incluant soit de la vision par ordinateur, soit de la VR et de l’AR : de la réalité virtuelle et de la réalité augmentée.

Petit à petit, la vision par ordinateur a pris plus d’ampleur dans l’entreprise, du fait de son existence dans l’écosystème et dans le marché. En 2019, nous avons ainsi commencé à penser un produit. Nous avons très naturellement construit la vision d’une solution très horizontale, qui aurait la capacité d’attaquer plusieurs secteurs de marché, dans un but d’agilité. Nos années passées à faire du service nous ont permis de construire un état de l’art, une étude de marché. En 2021, nous avons donc créé XXIICORE, une plateforme qui permet de déployer, d’optimiser les calculs et de proposer aux clients n’importe quelle solution en vision par ordinateur développée chez XXII. Tout cela de manière extrêmement facile et extrêmement peu coûteuse. Nous nous sommes très naturellement orientés vers les villes, vers la smart city, et en début d’année, nous avons complété notre solution autour des smart infrastructures, des infrastructures privées qui peuvent être liées à la ville. XXIICORE a aussi pour ambition d’être déclinable sur différents autres secteurs de marché : commerce, alimentaire, industrie, logistique… car nous avons déjà mené des projets dans ces secteurs et nous avons déjà identifié des cas d’usages à fort retour sur investissement.

Pourquoi ce nom, XXII (« Twenty-two ») ?

Ce nom a plusieurs sens. Il est tout d’abord en lien avec le vingt-deuxième siècle, une vision chère à William et Damien. C’est aussi et surtout le nom de leur groupe de musique ! Ils avaient ainsi la marque depuis leur adolescence. Après avoir fait quelques années dans la musique, chacun a poursuivi son chemin. Ils se sont finalement rejoints en 2014 et se sont posé la question de relancer la marque. C’est comme cela que le nom de l’entreprise a été choisi.

Vous évoquiez la plateforme XXIICORE. Sur quelles technologies est-elle basée ?

L’IA est centrale. C’est-à-dire que les algorithmes de vision par ordinateur sont centraux dans la plateforme. L’idée de base était de se dire : aujourd’hui, à l’époque, en 2019, comment peut-on répondre aux besoins de marchés avec de la vision par ordinateur ? Au lieu de faire comme nos concurrents et de nous orienter vers des marchés où l’on installe des caméras dédiées, nous avons décidé de nous baser sur les parcs de caméras existants. Nous nous sommes alors demandé comment répondre à un client qui a plusieurs dizaines, voire centaines de caméras. Une notion fondamentale est alors ressortie : quand on a un logiciel d’IA, le modèle lui-même représente la moitié de la valeur, et l’autre moitié de la valeur est constituée par la façon dont on met ce modèle à disposition du client, comment on fait en sorte qu’il soit utilisable de manière simple et accessible. C’est ainsi que la plateforme XXIICORE est née. Nous avons travaillé sur toute la chaîne de valeur : de la R&D en deep learning[1] avec des réseaux de neurones et de l’IA décisionnelle, jusqu’aux algorithmes, que nous avons portés dans XXIICORE.

Cette plateforme a plusieurs objectifs. Le premier est qu’elle puisse porter n’importe quel algorithme qui traite en temps réel des images issues d’un parc de caméras. Le deuxième objectif était d’avoir une plateforme qui puisse être déployable en local, mais aussi sur cloud. La plateforme est donc basée sur des technologies telles que Kubernetes, Docker[2] … Un autre objectif était aussi de pouvoir optimiser la puissance de calcul. Nous avons donc cherché à optimiser chacun des algorithmes, mais au-delà de ça, nous avons aussi développé ce que l’on appelle un scheduler, un « orchestrateur ». Il s’agit d’une technologie que nous avons brevetée et qui permet de mutualiser les calculs : plutôt que de déployer plusieurs fois un même algorithme pour chaque flux d’images, dans notre plateforme, une IA supervise tout cela et compte combien de flux on peut faire passer par un même algorithme. Nous sommes, à ma connaissance, les seuls à faire ça. Cela permet d’économiser encore plus de puissance de calcul nécessaire pour traiter un nombre donné de caméras. Cette quantité dépend notamment du nombre d’images par seconde à traiter : pour compter des humains, deux images par seconde peuvent suffire, là où il en faut 12, 15 ou 25 pour détecter des mouvements ou des chutes.

Parmi les multiples possibilités offertes par la plateforme, on trouve par exemple la surveillance et la gestion du stationnement. © XXII

Votre solution s’adresse à des parcs de caméras existants. Y a-t-il malgré tout des caractéristiques techniques minimales à respecter pour que le système fonctionne ?

Il y a effectivement des résolutions minimales nécessaires. Mais rien d’extraordinaire, une résolution de 720p est largement suffisante et un nombre important d’algorithmes peut fonctionner en 480p : tout ce qui est comptage, détection de périmètre… C’est uniquement quand on s’intéresse à des comportements un peu plus complexes que la résolution prend de l’importance : stationnement, maraudage ou encore détection de dépôts sauvages.

D’autres paramètres sont également importants, notamment l’angle d’attaque de la caméra. Si la caméra est trop plongeante, les algorithmes à utiliser sont très différents de ceux utilisés traditionnellement pour une vue à 45 ou 60° et sur lesquels nous avons entraîné et affiné nos algorithmes. Nous avons d’ailleurs, pour cela, une équipe dédiée à la data, chargée de réaliser des captations dans les villes. Nous allons dans les villes avec nos propres caméras, nous demandons les autorisations de captation et nous identifions des zones propices à l’entraînement de nos algorithmes.

Vos algorithmes sont donc « prêts à l’emploi » et ne nécessitent pas, pour vos clients, de phase d’apprentissage ?

Tout à fait. Et c’est le cas de tous nos algorithmes. Nous ne présentons pas, d’ailleurs, des algorithmes à nos clients, mais des solutions équivalentes à ce que ferait un humain. Chaque cas d’usage fait appel à une combinaison spécifique d’algorithmes qui ont déjà appris, qui sont déjà fine-tuned[3]. Il reste parfois simplement quelques seuils, quelques éléments de réglage à adapter, en fonction de l’angle de la caméra, de son ouverture, de la surface qu’elle couvre etc. Ces seuils peuvent être réglables une seule fois, au départ, et après nous n’y touchons plus. Il peut aussi s’agir de réglages extrêmement simples et facilement compréhensibles qui peuvent être ajustés au fur et à mesure par un opérateur. Il y en a moins de dix dans toute la plateforme.

Sur quels types de machines la plateforme peut-elle tourner ?

Nous privilégions aujourd’hui plutôt les technologies serveurs, pour plusieurs raisons. La première est qu’il faut la puissance de calcul nécessaire pour gérer plusieurs dizaines de caméras. La deuxième raison est que nos clients sont essentiellement des villes, auxquelles nous ne pouvons mettre à disposition de simples stations de travail : il leur faut des technologies serveurs qui peuvent être redondantes, pour lesquelles des pièces de rechange peuvent être fournies pendant cinq à sept ans, et dont les capacités peuvent être augmentées. Si le client veut gérer trente ou quarante caméras, nous venons simplement ajouter des GPU[4]. Toutefois, la puissance de calcul nécessaire dépend exclusivement du nombre de caméras : nous avons, en interne, de simples PC sur lesquels nous faisons des démonstrations et qui peuvent gérer quatre ou cinq flux.

À quels types d’applications votre solution permet-elle de répondre ? Avez-vous quelques exemples à nous donner… ?

Les algorithmes de la plateforme peuvent par exemple assurer des fonctions de comptage d’humains ou de véhicules. © XXII

Nous avons deux « cœurs ». Un premier lié à l’alerting, c’est-à-dire de la remontée d’alerte en temps réel. C’est l’idée initiale avec XXIICORE. S’ajoute à cela le comptage. Cela n’est pas forcément destiné aux opérateurs employés dans les centres de supervision urbains, mais plutôt aux maires, aux responsables d’agglomération, aux responsables de la voirie… pour leur donner des informations sur les dynamiques de la ville. Tous nos algorithmes tournent autour de l’humain et des véhicules, et de toute la dynamique qui peut exister entre ces deux aspects. Les applications peuvent donc être du comptage d’humains, du comptage de véhicules – avec d’ailleurs différentes typologies de véhicules : camions, vélos, motos, trottinettes –, ou de la périmétrie, c’est-à-dire la détection de pénétration d’une zone. Nous avons aussi des détections plus intelligentes : personnes sur des voies ferrées, dépôts sauvages, détériorations, détections de chutes de personnes. En parallèle, nous avons tout un ensemble de comptages qui permettent de récupérer des informations statistiques : passage dans un sens, violation de sens interdit… Nous avons aussi des applications d’alerting liées à la sécurité, comme l’alerte de feu rouge brûlé.

Face à toutes les possibilités offertes par vos algorithmes, quelle importance accordez-vous à l’éthique de votre solution ?

Les questions éthiques sont centrales pour nous. Tout ce qui est lié à la protection des données personnelles et les questions éthiques sont des aspects historiquement centraux chez XXII. Nous avons travaillé avec la CNIL[5] dès 2018, au moment du lancement du RGPD. En ce qui concerne l’éthique, nous avons plusieurs axes. Nous avons notamment une charte éthique, qui est le fruit d’un travail de quatre ans, mené par un comité éthique composé d’intervenants externes tels que des journalistes, des philosophes… – qu’ils soient plutôt pour ou contre l’usage de ces technologies – ainsi que des représentants du personnel. Le comité se penche régulièrement sur des cas d’usage et différents sujets précis. Nous avons particulièrement en tête la protection des données et l’usage des technologies dans un objectif de bien-être et de développement positif de la société. Au-delà de ça, pour des questions juridiques et liées aux données personnelles, nous travaillons systématiquement avec la CNIL et nous réalisons systématiquement pour tous nos algorithmes des AIPD : des analyses d’impact relatives à la protection des données. XXII n’utilise par exemple jamais de données biométriques.

La reconnaissance faciale ne fait donc pas partie des pistes que vous explorez…

Pas du tout, la plateforme n’offre aucune fonctionnalité de ce type. Nous avons en fait des fonctionnalités avancées qui permettent de suivre une personne sur une vue caméra ou entre des caméras, mais on ne se base absolument pas sur son visage : on se base sur la forme globale, sur les vêtements etc. Nous ne stockons jamais ces informations plus que quelques minutes. On peut par exemple utiliser cette approche pour aider une personne qui a perdu son bagage dans une gare. Suivre une personne dans une ville, en revanche n’a pas beaucoup d’intérêt et a très peu de chance de fonctionner. Nous ne voulons donc pas nous positionner sur ce type d’usage. Nous nous positionnons au contraire à rebours de nos potentiels concurrents internationaux, qui, eux, n’ont aucun problème à utiliser de la reconnaissance faciale de manière massive. Notre objectif est de fournir des solutions qui n’utilisent pas ce type d’algorithmes. Si les villes et d’autres structures n’ont pas le choix, elles seront en effet contraintes d’utiliser les technologies problématiques de reconnaissance faciale.

Qui sont aujourd’hui vos clients ?

Nous avons actuellement, parmi nos clients, à la fois des villes, une trentaine, et des infrastructures privées comme des musées ou des sites touristiques, une vingtaine environ. Nous visons de fortes croissances. Les villes vont en effet petit à petit constater le déploiement de la solution dans d’autres municipalités, ce qui va donc permettre de les rassurer sur le bien-fondé de la technologie et de son utilisation. Nous misons aussi sur la vente indirecte avec nos intégrateurs et nos distributeurs qui répondent notamment aux appels d’offres de vidéosurveillance lancés sur les marchés publics.

Quel modèle économique avez-vous adopté ?

Nous avons mis en place un abonnement sous forme de licence annuelle. Le client paie un accès par caméra et peut appliquer autant d’algorithmes qu’il le souhaite sur cette même caméra. Nous sommes en train de réfléchir pour faire évoluer l’offre actuelle vers un système de packs, qui permettraient de rendre la solution plus abordable en n’obligeant pas les clients à acheter tous les traitements, mais uniquement les packs qui les intéressent. Nous proposons, de plus, des licences flottantes : une licence n’est pas attachée à une caméra physique. Un client qui a cent caméras peut donc n’acheter qu’une quarantaine de licences, et en fonction du moment de la journée, mettre un traitement sur une caméra, puis sur une autre. Il ne se passe en effet jamais des choses intéressantes sur toutes les caméras en même temps.

Quelles sont les évolutions à venir de la technologie et de la plateforme sur lesquels vous travaillez ? Avez-vous des projets particuliers en tête pour les mois prochains ?

Aujourd’hui, l’entreprise est en train de changer d’échelle. Nous avons observé une appétence du marché pour notre produit, que nous commençons à vendre et à déployer. Nous commençons aussi à nous attaquer à d’autres pays d’Europe qui ont les mêmes principes que la France et les mêmes problématiques à traiter. Nous prévoyons en outre de grosses évolutions. Les premières consisteront à proposer des produits à d’autres secteurs que j’évoquais en début d’entretien : le commerce de détail, la logistique… Cela avec la même base d’IA, mais avec des adaptations pour répondre de la manière la plus efficace aux besoins spécifiques de ces secteurs. Nous avons également des projets de R&D plus fondamentaux, notamment des algorithmes d’IA très poussés développés pour des cas d’usage où l’apprentissage sur de grosses bases de données n’est pas possible. Si l’on veut traiter la problématique des risques, on ne va pas créer des accidents spécialement pour entraîner l’algorithme… Nous travaillons donc sur des familles d’algorithmes qui ont la capacité d’apprendre directement chez le client, et de se nourrir de comportements et de situations complexes. Nous avons aussi des CIFRE[6], avec des doctorants travaillant en collaboration entre XXII et des laboratoires publics. Ils s’intéressent à des problématiques d’IA assez complexes, afin de développer des algorithmes pouvant être déployés dans plusieurs secteurs en répondant à chaque fois à un besoin spécifique.

Côté financement, nous préparons une levée de fonds à la fin du premier semestre et nous voulons doubler les effectifs de l’entreprise entre juin 2022 et juin 2023. Nous prévoyons donc un effort important de recrutement. Nous nous intéressons en effet à des marchés tels que l’Espagne, l’Allemagne ou encore le Benelux.


[1] Apprentissage profond

[2] Kubernetes et Docker sont complémentaires. Solution Open Source, Kubernetes, est une plateforme d’orchestration de containers. Docker gère le cycle de vie des containeurs.

[3] Ajustés avec précision

[4] Graphics Processing Unit : processeur graphique

[5] Commission nationale de l’informatique et des libertés

[6] Conventions industrielles de formation par la recherche

Techniques de l’Ingénieur est partenaire du salon mondial de la défense et de la sécurité Eurosatory

L’événement Eurosatory a lieu du 13 au 17 Juin 2022, au parc des Expositions de Villepinte. C’est l’occasion de rencontrer les acteurs, les décideurs et les dernières innovations de la Défense et de la Sécurité de demain . Ce salon réunit : 

  • un salon international, rassemblant plus de 1800 exposants et au moins 90 pays. C’est la possibilité d’accéder à tous les marchés mondiaux et de rencontrer les parties prenantes des domaines Défense et Sécurité terrestres et aéroterrestres tels que des industriels mais également des Délégations Officielles, des VIP experts, des opérationnels utilisateurs, des bureaux d’études, des chercheurs…,
  • un salon professionnel dédié au Business, qui regroupe l’offre et la demande, en un même lieu, pour mieux appréhender les tendances mais également permettre l’émergence d’opportunités et le développement de nouveaux projets,
  • un salon au cœur de l’innovation avec une vitrine technologique présentant plus de 500 nouveaux produits, une visibilité sur les startups du moment avec Eurosatory LAB et des démonstrations dynamiques de matériels et systèmes sur plus de 20000m²,
  • un centre de réflexion favorisant les échanges autour de l’évolution de la Défense et de la Sécurité entre tous les acteurs du domaine via des conférences, des rendez-vous d’affaires, des mises en relation exposants-visiteurs, des conseillers en stratégie véritables « accélérateurs de business ».

Durant 5 jours, vous découvrirez la gamme la plus complète de produits représentatifs de la filière, allant du plus petit composant au produit fini pour le maintien de la paix, pour la sécurité et la défense, sur une grande surface d’exposition, également en extérieur.
Cette manifestation est également ponctuée de diverses animations telles que:

  • une exposition de plus de 400 véhicules en réel
  • des démonstrations dynamiques dédiées à chaque savoir-faire dans des mises en situation réelles
  • l’Eurosatory LAB, un  pôle d’excellence et d’attractivité dédié, réusnissant plus de 80 startups françaises et internationales
  • le concours Eurosatory Startup
  • le « Cocktail Lab » offert chaque midi autour de l’agora
  • des conférences sur des thématiques importantes actuelles
  • les Pitchs Exposants venus présenter leurs produits, innovations, nouveautés…

Vous désirez en savoir plus, n’hésitez pas à aller sur le site de l’événement en cliquant ici.

Les drones au service de l’agriculture durable

Les drones, qui sont définis comme étant des objets volants sans équipage humain et guidés à distance, sont apparus entre les deux guerres mondiales et ont envahi actuellement notre vie quotidienne, dans les domaines civils et militaires. Dans le domaine civil, ils ont de multiples applications en sciences (cartographie, études de phénomènes atmosphériques, etc.), dans l’industrie (observation thermique de bâtiments et machines industrielles, transport de colis et bientôt de personnes, etc.), en production vidéo (documentaires avec prises de vue aérienne, scènes de film, etc.), en sécurité civile (observation de la foule lors de manifestations, recherche de victimes prises au piège dans des immeubles en feu, etc.), en loisirs (de nombreuses compétitions de vitesse entre drones sont organisées durant toute l’année par exemple), etc.

Nous nous intéresserons au domaine agricole dans cet article, car son utilisation pourrait contribuer à préserver l’environnement et la santé humaine tout en maintenant le niveau de vie des agriculteurs.

Drones agricoles et développement durable

Les drones pourraient devenir de bons guides et alliés des agriculteurs par la capacité offerte de déployer une stratégie sur-mesure d’irrigation et d’épandage des intrants (à savoir les engrais et solutions de biocontrôle, incluant les phytosanitaires). En effet, dans un contexte difficile où l’eau est devenue une ressource précieuse, tout dispositif permettant de minimiser sa consommation devrait être examiné. Il en est de même au niveau de la pollution de l’eau : une utilisation parcimonieuse et néanmoins suffisante de substances chimiques, permettant de limiter la pollution des cours d’eau et nappes phréatiques, devrait être examinée avec attention, d’autant plus que cette dernière peut avoir des conséquences néfastes sur la santé publique.

La gestion raisonnée de l’eau d’irrigation

Afin d’obtenir un bon rendement, les plantes cultivées doivent être suffisamment hydratées tout au long de leur cycle de croissance. Lorsque cette condition n’est pas respectée, on parle de « stress hydrique » [1].

Les plantes perdent 98 % de l’eau, pompée par les racines, sous la forme de transpiration et majoritairement à travers de minuscules ouvertures, appelées « stomates », réparties à la surface des feuilles. Cette perte d’eau a lieu simultanément aux échanges gazeux de la plante avec l’atmosphère (à savoir l’absorption et le rejet de dioxygène et de dioxyde de carbone) et favorise la circulation de la sève qui transporte les matières minérales nutritives. Lorsque l’eau se raréfie, les stomates se referment pour éviter une trop grande perte d’eau par transpiration. Cela engendre une baisse des échanges gazeux et en particulier l’absorption de dioxyde de carbone et donc une baisse de l’activité de photosynthèse et des réactions biochimiques internes. La chaleur liée à l’activité biochimique ne peut plus être évacuée hors de la plante par les stomates et la température des feuilles augmente. Cette variation de température peut être détectée et visualisée à l’aide d’une caméra thermique qui capture les ondes infrarouges émises par les corps chauds et les restitue sous la forme de fausses couleurs en fonction de leurs valeurs.

Principe de l’imagerie thermique. © Jeanne Périé
Document créé à des fins pédagogiques pour montrer le principe de l’imagerie thermique. Toute ressemblance avec un lapin crétin est fortuite.
La température du corps de l’animal est visible dans la zone comprise entre les deux yeux, là où la peau est nue. Elle est représentée par une couleur jaune orangé.
Lorsque la peau est recouverte de fourrure, la chaleur est retenue et donc l’extrémité des poils en contact avec l’air ambiant est plus froide que la peau, d’où la couleur violette.
Les yeux sont de couleur jaune très clair ; cela signifie qu’ils sont plus chauds que le reste du corps.

Le lien entre l’augmentation de la température et le stress hydrique peut être chiffré à l’aide de modèles mathématiques et une évaluation du rendement futur peut être faite.

Cette technique de diagnostic et de prévision a été mise au point depuis une quarantaine d’années, mais sa mise en œuvre était imprécise jusqu’à peu, car elle reposait sur des images satellitaires manquant de finesse. Les drones capturent des images en direct à l’aide de capteurs multispectraux embarqués et enregistrant des images en lumière visible et ondes infrarouges entre autres. Leur maniabilité, leur vol en basse altitude au plus près des cultures et la faible vitesse, pouvant tendre vers le vol stationnaire, apportent la finesse requise pour faire des diagnostics en temps réel et spécifique aux parcelles survolées.

Les imageries effectuées par les satellites et par les drones sont donc complémentaires[2].

Fort de ce diagnostic en temps réel, l’agriculteur pourra remédier par une irrigation personnalisée de la zone concernée sans devoir arroser tout le reste de la culture.

La gestion raisonnée de l’épandage des intrants

La lumière solaire frappant la surface des feuilles des plantes peut être absorbée ou réfléchie de manière totale ou partielle. La quantité de lumière réfléchie, appelée « réflectance », est liée à la concentration en pigments de chlorophylle, de couleur verte, et de caroténoïde, de couleur orange, présente dans la feuille. On s’intéresse plus particulièrement aux ondes rouge et proche infrarouge. Les mesures de leurs réflectances respectives sont comptabilisées dans l’indice NDVI[3].

Moins il y a de pigments et plus l’indice NDVI est faible. Or, une carence en azote, l’un des éléments essentiels à la croissance des plantes, se traduit par une réduction des pigments colorés de la feuille. Donc un indice NDVI faible est synonyme de carence probable en azote, et donc d’un stress nutritif.

Les drones sont capables de détecter ces variations respectives de réflectance de lumière rouge et proche infrarouge à l’aide de leurs capteurs embarqués.

Vues d’un champ de vignes souffrant de stress nutritif. Les parties vertes correspondent à des plantes bien nourries et les parties rouges révèlent des plantes stressées. © PRDML

Fort de ce diagnostic en temps réel, l’agriculteur pourra remédier par un épandage d’engrais personnalisé de la zone concernée sans apport supplémentaire pour tout le reste de la culture. C’est ce qu’on appelle l’agriculture de précision.

La prévention et le traitement des maladies

La plupart des maladies des plantes et attaques d’insectes conduisent à la destruction des feuilles et donc à une réduction de la surface végétale. Cette destruction peut concerner une petite zone noyée dans la totalité de la surface cultivée et rester insoupçonnée pendant un grand laps de temps. Les drones permettent de détecter cette anomalie. L’agriculteur ira vérifier par lui-même la nature de cette anomalie et pourra remédier le cas échéant par un épandage de produits phytosanitaires personnalisé de la zone concernée sans apport supplémentaire pour tout le reste de la culture. Le drone est donc un outil précieux, permettant d’orienter rapidement le regard de l’agriculteur vers les zones posant problème au sein des cultures.

Le drone dédié à l’agriculture proposé par Agrodrone

Les drones existent à tous les formats, mesurant de quelques centimètres à plusieurs dizaines de mètres et pesant de quelques grammes à plus d’une tonne.

Le drone RDM AG dédié à l’agriculture, conçu et fabriqué par Agrodrone, marque commerciale de la SARL PRDML Reflet du Monde, a un diamètre d’un peu plus de deux mètres et pèse dix kilogrammes à vide. Il transporte une masse maximale de quinze kilogrammes, dont cinq de matériel agricole et dix sous la forme de graines ou de produits de biocontrôle à répandre par exemple. Il est actuellement testé pour déposer à la cime des arbres fruitiers des anneaux contenant des phéromones pour éloigner certains insectes parasites spécifiques à l’arboriculture, en partenariat avec le centre recherche Invenio et la Région Nouvelle-Aquitaine. Cette application a l’avantage d’être rapide et sécuritaire.

Ce drone coûte à l’achat entre trente et cinquante mille euros selon les options choisies et bénéficie d’aides du gouvernement dans le cadre du « plan France 2030 » qui encourage l’utilisation de technologies disruptives dans l’agriculture. Le gain de temps et d’énergie ainsi que l’abaissement des coûts globaux permettent d’amortir assez rapidement cet achat.

Ses moteurs électriques, écologiques, permettent d’éviter une dépendance directe aux augmentations brutales de prix des carburants fossiles.

L’entreprise conçoit chaque modèle de drone dans son bureau d’études qu’elle commercialise ensuite [4].

En résumé

Patrice Rosier, le co-fondateur en 2014, et Lilian Marolleau sont les créateurs de la SARL PRDML, rassemblant entre autres les marques Agrodrone et Reflet du Monde. La société propose également des formations au pilotage de ces drones qui nécessitent une certification spécifique. Les deux co-fondateurs ont des compétences complémentaires. Patrice Rosier dirige la partie recherche et développement. Il est doté d’une formation en ingénierie et d’une longue pratique de l’aéromodélisme, passion qui l’anime depuis son enfance. La Médaille d’or du Concours Lépine qu’il a gagnée en 2004 grâce à un prototype de drone démontre sa maîtrise technique et sa capacité d’innovation dans ce domaine. © PRDML

Les drones sont destinés à devenir des outils précieux pour les agriculteurs dans la mesure où ils permettent de faire des diagnostics et de l’observation en temps réel de l’état des cultures de très grandes surfaces, y compris dans des endroits d’accès difficiles et sans causer de dommages aux sols et aux cultures sur pied. Les systèmes embarqués d’imagerie multispectrale, s’appuyant sur des études développées depuis une quarantaine d’années, conduisent à une gestion raisonnée de l’irrigation, d’engrais, de phytosanitaires ou de solutions de biocontrôle, réduisant ainsi la consommation d’eau et de produits chimiques.

Cette réduction de la consommation de ressources s’inscrit parfaitement dans une stratégie en accord avec les principes du développement durable, et permet de maintenir le niveau de vie des agriculteurs en réduisant leurs dépenses.

Patrice Rosier, grâce aux marques commerciales du groupe PRDML, propose des produits adaptés aux enjeux de l’agriculture durable actuelle et conformes aux préconisations du volet spécifique à l’agriculture inclus dans le « plan France 2030 » et le plan Européen Ecophyto 2+.


[1] Mémoire rédigé par Serge Olivier Kotchi en 2004 dont le titre est « détection du stress hydrique par thermographie infrarouge – application à la culture de la pomme de terre ».

[2] Article dont le titre est : « Agriculture et infrarouge voire thermographie » par la librairie Thermographique.
Consulter aussi la thèse de doctorat soutenue par Emilien Alvarez-Vanhard en octobre 2021 – page 53 « Les synergies de la télédétection optique par drone et satellite : changement d’échelle et application à la conservation des prairies humides »

[3] Mémoire rédigé par Caroline Guénette en 2003 dont le titre est « évaluation du potentiel de l’infrarouge spectral pour la détection hâtive du stress nutritif chez les végétaux de grandes cultures – application à la culture de la pomme de terre ».

[4] article de Bordeaux Technowest intitulé « Trois questions à Patrice Rosier, co-fondateur de Reflet du Monde »

G-Éco : l’«imprimerie 3D» engagée

Disposant d’un parc d’une vingtaine de machines, G-Éco est capable de mettre en œuvre trois grandes technologies d’impression 3D : l’impression par dépôt de filament, l’impression sur lit de poudre (SLS) ou encore l’impression 3D sur résine, ou SLA. Outre le marché de la pièce détachée, l’entreprise girondine s’adresse également aux intégrateurs, à qui elle est capable de fournir des composants en petite ou moyenne série, ainsi qu’au marché du prototypage, le tout d’une manière flexible et dans des délais très courts. Forte d’une centaine de clients et d’un catalogue de près de 1 500 références de pièces, G-Éco bénéficie en outre d’un rythme de croissance soutenu, comme nous l’explique son fondateur et actuel PDG Sébastien Lecocq.

Techniques de l’Ingénieur : Comment G-Éco a-t-elle vu le jour ?

Sébastien Lecocq : J’ai créé l’entreprise en 2020. Sa naissance est donc relativement récente. J’ai eu, auparavant, l’opportunité de travailler dans un centre hospitalier, au sein d’un atelier de réhabilitation psychosociale où l’on accueille des patients en situation de handicap psychologique. Je les formais aux technologies 3D, à la modélisation, à l’utilisation d’imprimantes 3D. L’objectif était de leur apporter ces compétences afin qu’ils puissent les utiliser dans le cadre d’une réinsertion professionnelle. Dans les faits, c’était un peu différent. L’atelier fonctionnait bien, il y avait de l’intérêt, les compétences étaient transmises et acquises, mais les personnes formées ne les mettaient pas à profit lorsqu’elles trouvaient du travail. Je trouvais cela assez dommage. J’ai donc souhaité proposer une marche supplémentaire en construisant un projet d’entreprise adaptée à même d’accueillir ces personnes afin qu’elles puissent y poursuivre leur formation. Au-delà des aspects techniques, l’objectif était de les faire monter en compétences sur le savoir-être : comment je me comporte en entreprise, comment je m’intègre… Cela a été le postulat de départ. En complément de ce pilier social, ma volonté était aussi de travailler autour des technologies 3D pour proposer des solutions locales de maintenance et de fabrication de pièces détachées permettant de lutter contre l’obsolescence.

Vous évoquiez la notion « d’entreprise adaptée ». Qu’est-ce que cela implique ?

Cela implique plusieurs choses. La première, qu’il faut bien avoir en tête, c’est qu’une entreprise adaptée est une entreprise à part entière. C’est-à-dire que l’on a le même niveau d’exigence sur le plan financier qu’une entreprise classique. On se doit d’être rentable, on se doit de générer de la richesse ; à la différence des ESAT[1], un modèle qui repose plus sur les subventions et qui se veut plus occupationnel. En matière d’engagements, nous avons l’obligation d’avoir plus de 55 % de nos salariés qui sont en situation de handicap. La plupart d’entre eux sont souvent éloignés de l’emploi. Nous allons donc leur dispenser des formations tout au long de leur présence au sein de l’entreprise. Nos salariés n’ont pas vocation à faire carrière pendant 25 ans chez nous, même si certains le feront, car la marche sera trop haute pour pouvoir réintégrer une entreprise ordinaire. La plupart de nos salariés sont donc là pour un temps défini, propre à chacun, et qui dépend des programmes de formation que nous déployons pour les amener à un niveau leur permettant d’intégrer des entreprises dites « ordinaires ». Ces entreprises font partie d’un tissu de partenaires que nous avons mis en place autour de notre écosystème. L’aspect social et l’aspect formation me semblent deux piliers très importants de notre projet. Je ne pouvais pas envisager de créer une entreprise qui ne soit pas la plus inclusive possible.

À quels types de clients, quels types de marchés vous adressez-vous ?

Aujourd’hui, nous avons trois activités principales. La première est celle que j’évoquais et qui tourne autour de la pièce détachée. Pour ce volet-là, nous nous adressons à des clients qui exploitent des lignes automatisées. C’est donc assez vaste. Nous sommes très présents dans l’embouteillage, dans l’agroalimentaire, dans l’industrie pharmaceutique… Ce sont des acteurs qui ont une multitude de pièces détachées sur leurs équipements et pour lesquels il est parfois difficile de s’approvisionner, car ils disposent parfois d’équipements exploités depuis de nombreuses années. La question du délai est aussi importante, les fournisseurs ayant, particulièrement en ce moment, des tensions d’approvisionnement qui impliquent des temps d’attente très, très longs. Nous apportons donc une solution agile. Nous définissons, en amont, avec le client, son besoin et la faisabilité d’y répondre grâce à l’impression 3D. Nous lui proposons ensuite un stock digital, dans lequel il n’a plus qu’à piocher afin que nous produisions un, cinq… ou dix exemplaires de la pièce voulue, dans des temps extrêmement courts. Nous avons par exemple réalisé, pour l’un de nos clients, des fûts et des cales optiques en frittage de poudre. Ces 40 pièces ont été fabriquées sous un délai d’une semaine entre la réception des fichiers, l’optimisation et la préparation du design, puis le départ des produits de nos ateliers. Dans le cas de ce client, le respect des délais et la qualité des pièces produites étaient les deux facteurs clé. Il s’agit donc du premier volet de notre activité.

Le second s’adresse à des intégrateurs : des gens qui proposent, fabriquent et vendent des produits complexes faisant appel à de la plasturgie. Pas pour des boîtiers extérieurs, car l’impression 3D n’est pas forcément adaptée, mais pour des composants non visibles, des composants internes, que nous sommes capables de produire en petite ou moyenne série. Nous n’avons, pour cela, pas besoin d’outillage ou de moules d’injection, ce qui rend le travail beaucoup plus flexible, plus sobre en matière d’énergie et de matières premières.

Enfin, le troisième volet est celui du prototypage. Dans ce cas de figure, nous accompagnons nos clients sur les phases amont de développement de leurs produits en leur permettant de fabriquer des prototypes de leurs produits.

Combien de clients comptez-vous actuellement ?

La première année de l’entreprise a été difficile de par le contexte sanitaire. Mais si je prends comme référence les douze derniers mois, je dirais que nous avons aujourd’hui une centaine de clients actifs dans le domaine agroalimentaire et de l’embouteillage, pour lesquels nous fabriquons environ 1 500 références de pièces. Nous avons un rythme de croissance de notre portefeuille-clients de l’ordre de 10 à 15 % par mois.

Quels sont vos effectifs ?

Notre structure compte aujourd’hui huit salariés, dont quatre en situation de handicap. Ce qui est intéressant est que nous avons différents profils : nous avons des gens dont le handicap ne leur a jamais permis de travailler et à qui nous proposons de travailler pour la première fois, dans un cadre adapté en matière d’horaires, de projets et de charge de travail. Il y a une vraie satisfaction pour eux à ce niveau-là ! Ce sont des gens pour qui nous avons mis en place des parcours de formations d’environ 150 à 170 heures réparties au moment de l’embauche, afin d’arriver à un niveau de compétences utile à l’entreprise. Nous avons aussi un public en reconversion, des gens qui ont développé des difficultés au cours de leur carrière et qui se retrouvent à ne plus pouvoir exercer le travail qu’ils ont fait pendant plusieurs décennies. Nous leur proposons de se repositionner sur des métiers à valeur ajoutée, comme les travaux de bureau d’étude, de modélisation, d’exploitation d’imprimantes 3D et pour lesquels nous adaptons les conditions de travail à leurs capacités.

Sur le plan technique, de quels moyens disposez-vous ?

Nous disposons d’un parc d’une vingtaine d’imprimantes 3D sur site, qui couvrent trois technologies. Nous sommes axés sur l’impression 3D polymère, donc plastique, un terme qui peut parfois avoir une connotation péjorative, raison pour laquelle je préfère celui de polymère. Nous travaillons notamment le dépôt de filament : nous partons d’une matière solide sous forme de filament. Nous travaillons aussi avec les technologies SLS[2], avec des matières premières sous forme de poudre, ce que l’on appelle aussi l’impression 3D sur lit de poudre. Enfin, nous proposons aussi l’impression 3D sur résine, ou SLA[3]. Nous partons, avec cette technique, de matière première liquide, que nous polymérisons avec de la lumière UV.

Nous disposons également de tous les équipements nécessaires au volet « post-traitement », tout ce qui tourne autour du prototypage. Nous sommes capables de faire de la mise en peinture, de l’apprêtement, du sablage… Cela nous permet de livrer un vrai produit fini à nos clients et pas uniquement une pièce brute, directement sortie d’imprimante 3D.

Quelle approche adoptez-vous pour maintenir à jour ce parc matériel ?

Nous ne le renouvelons pas, mais nous le complétons. Nous avons fait le choix d’avoir des imprimantes 3D qui ne sont pas forcément destinées à un usage industriel : nous n’avons pas de grosses machines de production de série par impression 3D. Nous avons donc un parc machines relativement flexible, que nous complétons en fonction des évolutions technologiques qui sont proposées par nos partenaires. Nous avons commencé avec le dépôt de filament, puis nous avons intégré le dépôt de filament composite, puis le SLA, puis le SLS… Nous avançons au fur et à mesure de l’évolution des technologies 3D.

Au-delà de l’impression 3D à base de polymères, envisagez-vous éventuellement de vous tourner un jour vers d’autres catégories de matériaux, telles que l’impression 3D métal ?

Je pense qu’il est aujourd’hui encore un peu tôt. Dans les marchés sur lesquels nous sommes présents, on ne retrouve pas d’alliages de métaux extrêmement techniques et onéreux, comme cela peut-être le cas dans l’aéronautique, l’aérospatial ou la défense. Or, l’impression 3D métal reste, mine de rien, très onéreuse en équipement et en matières premières. Sur nos marchés, la technologie n’est pas suffisamment mûre pour que nous l’intégrions. Nous proposons en revanche des solutions de substitution : nous avons un certain nombre de pièces détachées qui sont à l’origine en aluminium ou en alliages et que nous reproduisons en polymères en les retravaillant. Nous utilisons notamment des polymères chargés en fibres de carbone ou en fibres de verre, qui nous permettent d’approcher les caractéristiques mécaniques des métaux ou des alliages.

Quelle taille les pièces que vous produisez peuvent-elles atteindre ?

Même si nous ne traitons pas l’impression 3D grand format – c’est-à-dire de l’ordre du demi-mètre cube – nous n’avons pas vraiment de limites : nous adoptons en effet une approche qui consiste à réaliser plusieurs sous-ensembles, que nous venons ensuite assembler pour obtenir des pièces de grande taille. Cela ne consiste pas simplement à couper tout droit et à coller : nous travaillons sur des assemblages faisant appel à des composants métalliques, de façon à obtenir les résistances mécaniques attendues. Il est vrai que la taille est l’un des premiers freins qui apparaît lorsque nous discutons avec nos clients. Or, dans les faits, nous ne sommes pas limités en taille. En revanche, il est vrai que cela demande un peu de réflexion et de travail en bureau d’études. Nous réalisons par exemple des moules de coulée pour l’aéronautique qui sont réalisés en six, sept, voire huit sous-ensembles que nous venons ensuite préparer pour assemblage.

Outre l’impression 3D en tant que telle et les autres services que vous proposez, le scan 3D fait-il également partie de vos possibilités ?

C’est une solution que nous avons évaluée, mais que nous n’avons pas retenue dans nos process de travail. Pourquoi ? Simplement parce que le scan 3D est très pertinent pour certaines applications, mais pour des applications mécaniques comme les nôtres, il y a beaucoup de détails qui ne sont pas capturés par les scanners 3D, aussi bons soient-ils. Cela nous demanderait donc, derrière, beaucoup de retravail : le fichier 3D obtenu n’est pas exploitable en l’état et il est plus rapide pour nous de modéliser par des techniques traditionnelles de prises de cotes sur les pièces.

G-Éco a déposé, début 2022, un brevet portant sur des mousses d’encollage imprimées en 3D. Des mousses utilisées pour apposer des étiquettes sur des contenants tels que des bouteilles ou des flacons. © G-Éco

Quelles sont les perspectives pour G-Éco dans les mois à venir ?

Nous avons prévu trois nouveaux recrutements en fin d’année, aussi bien sur le volet commercial, pour accompagner notre déploiement auprès de nos clients, que sur le volet technique, pour renforcer notre bureau d’études qui, aujourd’hui, approche de son seuil maximal d’activité. Les technologies d’impression 3D sont vraiment en plein développement et des acteurs comme nous ont vraiment un rôle important à jouer, car pour beaucoup de nos clients adopter en interne ces technologies n’est pas la solution.

Nous avons aussi un projet qui a fait l’objet d’un dépôt de brevet en début d’année. Il s’agit d’un projet portant sur des mousses d’encollage, qui sont utilisées pour venir apposer des étiquettes sur des contenants : bouteilles, flacons… Cela fonctionne très bien aujourd’hui, mais il y a beaucoup d’inconvénients. C’est très contraignant en matière de maintenance, d’entretien, d’usure… C’est également limité dans les formes. Nous avons été capables de développer une solution de mousse imprimée, que nous commercialisons aujourd’hui auprès de nos clients et qui répond à l’ensemble de leurs demandes et des griefs qu’ils pouvaient avoir sur les mousses existantes. Ce projet démarre très fort : il est déjà déployé chez une trentaine de clients, qui sont tous extrêmement satisfaits du résultat obtenu. Nous travaillons donc à développer et à déployer ce brevet.


  1. Établissement et service d’accompagnement par le travail
  2. Selective Laser Sintering : frittage sélectif par laser
  3. Stereolithograph apparatus : Stéréolithographie

Stockage d’énergie par batteries : « On est au début d’une nouvelle ère »

Filiale de Vinci Énergies, Omexom a notamment construit le plus grand site français de stockage d’énergie par batteries, à Dunkerque, dans le département du Nord. Raccordé au réseau RTE en 90 kV, ce système implanté sur l’ancienne raffinerie nordiste du groupe TotalEnergies contribue notamment à la régulation de la fréquence du réseau électrique. L’entreprise a ainsi à son actif près de 50 systèmes de stockage déjà opérationnels, qui participent à l’équilibre entre la consommation et la production d’électricité en France métropolitaine et dans les territoires d’Outre-Mer. Omexom travaille également sur de nombreux autres projets : cinq sont en cours pour 2022, pour une puissance totale de 100 MW. Omexom maîtrise en outre tous les maillons essentiels de ses systèmes : batteries, gestion du courant, contrôle-commande, mais également intégration mécanique, puisqu’elle dispose de ses propres ateliers. Des points qu’aborde plus en détail le dirigeant de l’entreprise Thibault Fauquant dans l’interview qu’il nous a accordée.

Techniques de l’Ingénieur : Pouvez-vous, en quelques mots, vous présenter ainsi que l’entreprise que vous dirigez, Omexom ?

Thibault Fauquant. © Omexom

Thibault Fauquant : Je suis chef d’entreprise chez Omexom conversion & storage depuis un peu plus de cinq ans. Omexom fait partie des nombreuses entreprises de Vinci Énergies, et elle est spécialisée dans la conception de systèmes de stockage d’énergie. Nous sommes une cinquantaine de salariés, et l’entreprise est basée à Saint-Évarzec, près de Quimper (29). Omexom a vu le jour à mon arrivée en 2017, mais ses activités émergeaient d’une autre entreprise de Vinci Énergies. Les premières activités de stockage ont ainsi véritablement eu lieu il y a dix ans, en 2012.

Le rôle d’Omexom est avant tout celui d’intégrateur. En quoi consiste-t-il et quelles technologies de stockage mettez-vous en œuvre ?

Notre rôle d’intégrateur consiste à associer tous les équipements nécessaires pour obtenir, au final, une installation de stockage d’énergie. Nous nous consacrons uniquement aux grosses installations, nous ne travaillons pas autour des installations résidentielles. Dans nos systèmes, on retrouve ainsi une partie « batteries », qui commence par de petites batteries comparables chimiquement à celles de nos téléphones. Ces batteries sont assemblées en modules, eux-mêmes assemblés en racks. Ces racks sont assemblés à l’étranger, en Chine ou en Corée, chez les fabricants de batteries. L’Europe est toutefois en train de s’industrialiser. Notre rôle est donc de designer la partie batteries : déterminer le bon volume, le bon type de batteries, car il en existe un grand nombre.

Nous travaillons avec la technologie lithium-ion. Nous avons opté, depuis le départ, pour des batteries de type LNMC (Lithium-nickel-manganèse-cobalt), mais le marché est en train de tendre vers le LFP : lithium-fer-phosphate. C’est ce que l’on retrouve désormais dans les véhicules électriques, et notre marché stationnaire est porté par ce marché des voitures à batteries. En cinq ans, l’évolution des batteries a été assez incroyable.

Cette partie « batteries » constitue la brique centrale, mais la partie « gestion du courant » est également importante : une batterie fournit du courant continu, or l’utilisateur final a besoin de courant alternatif 50 Hz. Derrière une batterie, il faut donc placer un convertisseur. Nous appelons cela un PCS, pour power conversion system. Il s’agit d’un convertisseur AC-DC bidirectionnel, qui se distingue des onduleurs utilisés, par exemple, dans le photovoltaïque, qui eux ne fonctionnent que dans un sens. Avec nos systèmes, quand on décharge la batterie, on prend de l’énergie en courant continu que l’on convertit en alternatif pour l’injecter sur le réseau, alors que quand on charge la batterie, on part de l’énergie du réseau en alternatif. De plus, après avoir commencé avec des systèmes de batteries de 1 000 volts, nous utilisons depuis deux ans des batteries qui fournissent, une fois chargées, une tension de 1 500 volts. L’avantage crucial de cette technologie 1 500 volts est qu’elle permet de diminuer l’intensité nécessaire pour obtenir une même puissance. Moins d’ampères c’est donc des câbles moins gros, mais aussi des disjoncteurs et toute la chaîne de protection dimensionnés à la baisse. Tous les coûts sont ainsi réduits.

Après le convertisseur que j’évoquais, on trouve un transformateur BT-HT(1). On sort du convertisseur en 600 ou 800 volts triphasé et on remonte en haute tension A (HTA), qui peut aller jusqu’à 33 kV. Selon les installations, nous sommes raccordés soit au gestionnaire de réseau Enedis, pour des installations jusqu’à 10 MW, soit, au-delà, au gestionnaire de réseau de transport RTE. Nous sommes dans ce cas raccordés en HTB (Haute Tension B), qui va de 50 kV à 400 kV. Outre toute cette partie puissance, nous mettons également en place tout un système de contrôle-commande. Pour gérer la charge et la décharge des batteries, il faut en effet un pilote dans l’avion : il y a de la chimie derrière et des risques à prévenir comme l’emballement thermique. Tout cela est très complexe à gérer. Notre expertise va donc au-delà de la conception électrotechnique des systèmes. Ce pilotage passe notamment par la mise en place d’accès à distance, depuis notre siège de Quimper, ce qui implique un haut niveau de cybersécurité. Contrairement à des installations éoliennes ou photovoltaïques, dont une grande partie reste passive, pour nos systèmes de stockage, tout est pilotable ou au moins monitorable. Cela génère une quantité astronomique de données, qu’il faut ensuite traiter. Notre expertise allie donc la partie électrotechnique et ces aspects de contrôle-commande liés à l’informatique industrielle, mais également une troisième brique : nous avons au sein de nos équipes à Quimper un tiers de salariés qui se consacrent à l’intégration mécanique. Nous avons 3 500 m² d’ateliers où nous réalisons nos propres équipements, avec notre propre bureau d’étude. Cela nous permet de tester tous nos équipements avant leur installation sur site.

Omexom intègre notamment ses systèmes de stockage par batteries dans des conteneurs. © Omexom

Sous quelle(s) forme(s) les systèmes que vous concevez sont-ils assemblés ?

Nous proposons soit des conteneurs, soit, maintenant de plus en plus, des solutions outdoor. Nous achetions beaucoup de racks de batteries, que nous installions dans des conteneurs et que nous câblions nous-mêmes, mais nous achetons désormais de plus en plus d’armoires extérieures de 400 kVA, qui se parallélisent. Elles sont étanches et placées sur des skids(2) intégrant batteries, convertisseurs et transformateurs. Nous réalisons tout cela sur place et disposons d’un banc d’essai qui nous permet de les tester.

Quels sont les applications possibles et les principaux intérêts de ces systèmes de stockage ?

Il y a de multiples applications possibles, qui diffèrent selon les régions du monde. Pour la France, nous avons énormément travaillé dans des territoires insulaires, dont la production repose souvent pour une part importante sur le photovoltaïque ou l’éolien. Des études ont en effet montré qu’au-delà de 30 % d’énergies renouvelables, le stockage devient indispensable pour assurer la flexibilité de ces petits réseaux. Nous proposons des offres clé en main, qui incluent des prévisions météo, permettant d’anticiper la production et de gérer le stockage nécessaire. Il s’agit ainsi d’applications d’intégration des énergies renouvelables. Nous faisons du lissage en journée, et nous nous arrangeons pour que les batteries soient pleines en fin de journée.

En métropole, les applications sont un peu différentes. Il existe en effet ce que l’on appelle des services système : tous les services qui permettent d’assurer l’équilibre du réseau. À tout moment, on doit avoir un équilibre entre production et consommation. Les batteries sont petit à petit en train de venir remplacer des services systèmes déjà existants, sur la réserve primaire(3) ou secondaire(4). Nos systèmes permettent de réaliser du soutien fréquence, ou FCR(5), c’est-à-dire d’aider à maintenir la fréquence du réseau à 50 Hz. Ils intègrent en effet un oscilloperturbographe, qui surveille le 50 Hz, et déclenche soit la charge des batteries en cas d’élévation de fréquence, soit une injection dans le réseau si le 50 Hz s’écroule. Sur les îles, nous avons aussi une autre application possible, qui est celle de l’arbitrage : en Corse par exemple, en cas de surproduction solaire, EDF peut stocker de l’énergie dans des batteries à un coût très bas. Cela permet d’éviter le démarrage de groupes diesel au moment de la baisse de production, en fin de journée, qui eux, engendreraient un prix très élevé du kWh. Ce type d’application, l’arbitrage, est aussi possible en Angleterre ou encore en Allemagne.

Quelle est la durée de vie des batteries ?

Sur les systèmes que j’ai décrits, la durée de vie des batteries est de vingt ans. Une batterie perd environ 2 % de ses capacités par an, et 40 % avant d’arriver en fin de vie, sur la base d’un cycle de charge par jour.

La réutilisation de batteries issues de voitures électriques est-elle envisageable ?

Les batteries de voitures ont une tension de 400 à 600 volts. Elles ne sont donc pas adaptées à nos systèmes de 1 500 volts. L’économie que l’on réaliserait en récupérant les batteries ne compenserait pas le surcoût engendré par un système de stockage basé sur ces batteries de plus faible voltage, qui impliquerait de multiplier les transformateurs, les convertisseurs… Nous n’aurions, en plus, aucune garantie sur la durée de vie. Après, il ne faut pas enterrer l’idée de réutiliser les batteries de seconde vie. Cela peut en effet être envisagé pour de petits systèmes, à l’échelle d’une commune par exemple, dans le résidentiel ou le tertiaire, mais ça n’est pas notre marché.

Vous avez récemment fait naître, à Dunkerque, le plus grand site français de stockage d’énergie par batteries. Dans quel type d’application ce site s’inscrit-il ? Quelles sont ses caractéristiques ?

Le projet de Dunkerque assure de la FCR, il fait partie de la réserve primaire. Il est aussi lauréat de l’Appel d’offre long terme (AOLT) lancé par RTE. C’est le mécanisme de capacité, ou Mécapa, qui permet au réseau d’avoir une vision de long terme sur les investissements dans les unités de production. Le projet fait 61 MW / 61 MWh. Il est connecté dans la raffinerie de Dunkerque en 90 kV au réseau de transport RTE. Nous avons installé 27 conteneurs de batteries, autant de convertisseurs, 29 transformateurs de puissance, 2 tableaux HTA, 2 transformateurs HTA-HTB. Le projet a été réalisé en deux tranches : une première en 2020, de 25 MW et une seconde en 2021 de 36 MW.

Composé de 27 conteneurs et réalisé en deux tranches, le projet implanté sur l’ancienne raffinerie de Dunkerque atteint une capacité de 61 MW / 61 MWh. © Omexom

Quel est le lien entre ce projet et la raffinerie de Dunkerque ?

Pour le dire simplement, il n’y en a aucun… En fait, l’avantage du site, qui ne réalise aujourd’hui plus de raffinage, est qu’il dispose, de par ses activités passées, d’un point de raccordement énorme au réseau RTE. Point de raccordement qui n’était plus utilisé. Or, pour installer un système, que ce soit du solaire, de l’éolien ou du stockage, trouver un point de raccordement est crucial. Plus encore que le foncier et le prix de vente de l’électricité. Ce projet de stockage a également permis de redonner de l’activité à ce site mis à l’arrêt.

Quels sont les autres projets sur lesquels vous travaillez ?

Nous avons cinq projets en cours pour 2022, pour une puissance totale de 100 MW, aussi bien en France que dans les territoires ultramarins. Nous travaillons par exemple sur un projet implanté dans une autre raffinerie, celle de Grandpuits, que TotalEnergies a également décidé d’arrêter, comme celle de Dunkerque. Il s’agit d’un projet de 43 MW / 43 MWh, qui sera notre plus gros, celui de Dunkerque ayant été réalisé en deux tranches. Nous avons aussi un projet combinant photovoltaïque et stockage à Gièvres, dans le Loir-et-Cher, ainsi qu’un autre projet en Corse. Nous avons également un projet à la Réunion, combinant éolien et stockage. Nous devrions également gagner cette année nos premiers projets à l’export : nous visons l’Italie et la Belgique.

Parallèlement au développement de ces projets, poursuivez-vous également des travaux de recherche et développement ?

Absolument ! La R&D est intrinsèquement liée à nos activités. Tout évolue très vite : les batteries, le contrôle-commande… Il y a de grosses problématiques de consommation auxiliaire, de rendement, de performances. L’idée est donc d’optimiser tout cela par le pilotage. Les batteries ont aussi besoin de se trouver dans des environnements très contrôlés en température, hygrométrie… Nous travaillons donc également sur les conditions d’exploitation, de maintenance, sur le dimensionnement des systèmes de climatisation. Il nous faut également maîtriser les risques incendies et environnementaux.

En milieu rural, certaines zones éloignées du réseau subissent parfois des chutes de tension. Les systèmes de stockage que nous développons pourraient également répondre à ces problématiques et éviteraient ainsi des travaux très coûteux de renforcement réseau. On est au début d’une nouvelle ère, il s’agit d’une véritable révolution, d’autant plus depuis le début de la guerre en Ukraine. Les questions d’énergie se révèlent centrales. On ne pourra se passer des EnR et on ne pourra pas développer ces énergies renouvelables sans stockage. C’est ce qui permet de les rendre pilotables. Nous avons multiplié par dix notre chiffre d’affaires en cinq ans et nous prévoyons encore 30 à 40 % de croissance cette année. Les demandes affluent !

_______________________________________

(1) Basse tension – Haute tension

(2) Châssis mobile sur lequel peuvent être fixés divers éléments industriels

(3) La réserve primaire intervient en 15 à 30 secondes et doit pouvoir répondre à la perte simultanée des deux plus gros groupes de production, soit une puissance de 3 000 MW au niveau européen. Le système français y contribue à hauteur d’environ 540 MW.

(4) La réserve secondaire est activée automatiquement en 400 secondes. Elle représente en France entre 500 MW et 1 180 MW. Tous les producteurs opérant des groupes de production de plus de 120 MW en France ont l’obligation d’y participer.

(5) Frequency Containment Reserves ou réserves de stabilisation de la fréquence

Comment stocker l’hydrogène sous terre

Comment faire émerger un nouveau vecteur énergétique ? Déjà très utilisé dans le monde à partir d’énergies fossiles, l’hydrogène est confronté à cette question, non seulement pour se verdir, mais également pour démultiplier ses usages dans l’industrie, qui en est la première utilisatrice actuellement, pour la fabrication de méthane de synthèse, de méthanol, d’ammoniac, et pour la mobilité des véhicules lourds, voire des véhicules légers. Imaginer un déploiement à large échelle pour des marchés de masse impose de penser des modes de stockage. Si des réseaux de transport dédiés à l’hydrogène permettraient le stockage d’une petite fraction, ce sont surtout des sites souterrains qui pourraient accueillir les plus grandes capacités(1).

Selon la fédération d’acteurs regroupés dans France Hydrogène, la demande nationale d’hydrogène décarboné en 2030 serait entre 680 et 1 090 kt/an, selon le niveau d’ambition. Le stockage géologique pourrait à cette date compter une capacité de 15 à 20 kt.

Les cavités salines en pole position

En France, sept bassins hydrogène ont été identifiés, là où production et consommation, ainsi que les chaînes logistiques, seront les plus importantes. Ils sont situés dans le Nord, la Vallée de la Seine, Le Grand-Ouest, le Sud-Ouest, la Moselle-Rhin, en zones méditerranéenne et rhônalpine. Dans les quatre derniers, il existe déjà des sites potentiels de stockage, en cavité saline. Parmi tous les acteurs engagés dans la caractérisation de cette solution, deux se distinguent par des réalisations en cours. Storengy, filiale d’Engie, est le plus avancé car le chantier du projet européen HyPSTER à Etrez (Ain) démarre en juin. « Nous allons convertir un ancien site de stockage de gaz naturel qui est à 800 m de profondeur et peut contenir jusqu’à 44 tonnes d’hydrogène dans un volume de 8 000 m³. On y injectera de l’hydrogène produit par un électrolyseur d’1 MW d’Elogen à partir d’électricité renouvelable. L’injection et le soutirage de l’hydrogène vont se faire avec un cyclage élevé, en fonction de la variabilité de la production d’électricité. On va étudier les aspects technico-économiques d’une telle configuration, avec 100 cyclages en trois mois » explique Germain Hurtado, directeur du projet HyPSTER.

Un autre projet en cavité saline, nommé Hygéo, est prévu en Nouvelle-Aquitaine dans la commune de Caresse-Cassaber. Porté par Téréga et HDF, en lien avec le BRGM(2), il vise un stockage équivalent à 1,5 GWh d’énergie. Des aspects environnementaux et sociétaux seront étudiés, ainsi que les modes d’exploitation selon la nature des besoins en hydrogène. En effet, les quantités d’hydrogène utilisées et le rythme auquel elles doivent être déstockées ne sont pas les mêmes selon que la molécule va servir pour de la mobilité, de la production d’électricité, de la transformation en méthane ou des usages industriels. L’an dernier, un rapport de l’Ineris avait pointé des différences de rentabilité pour le stockage salin en fonction des contraintes techniques de ces usages (l’avantage allant à la mobilité et un peu à l’industrie) et elles demandent certainement à être confirmées.

Recherche en roches poreuses

Si la France a la chance de posséder de nombreux gisements salins propices au stockage, ce n’est pas le cas de tous les pays. Une autre solution est donc d’avoir recours à des structures souterraines poreuses. L’hydrogène peut y être stocké dans l’interstices des minéraux des roches poreuses et perméables, en prenant ainsi la place de l’eau si c’est un champ aquifère ou du vide laissé par un champ de gaz déplété. La société Géostock s’y intéresse via le projet Hystories, « qui va permettre de mieux déterminer les conditions technico-économiques de ce type de stockage. Certains aspects techniques sont aussi à préciser, comme l’impact de l’activité microbienne qui est plus propice dans ces milieux poreux où la surface d’échange avec l’hydrogène est beaucoup plus grande. On va justement évaluer cette activité microbienne avec Hystories en faisant des prélèvements dans une douzaine de sites en Europe » détaille Arnaud Réveillère, directeur adjoint de Géostock Green Storage.

D’ici trois ans, tous ces projets auront fait avancer la connaissance sur les sites de stockage souterrain d’hydrogène et la façon de les exploiter. Il sera alors tout juste temps de se lancer dans la mise en service de ces stockages. Car, au regard des objectifs de la Commission européenne, il faudrait 30 à 60 TWh de stockage en Europe d’ici 2030, soit au moins une centaine de sites, par conversion de cavités existantes.


(1) Ce sujet a été abordé durant le salon Hyvolution

(2) Bureau de recherches géologiques et minières

L’Ademe publie une étude nationale inédite sur l’agrivoltaïsme

40 % de part d’énergies renouvelables dans la production d’électricité d’ici 2030 en France, tel est l’objectif fixé par la Programmation pluriannuelle de l’énergie (PPE). L’installation de panneaux photovoltaïques sur des terrains agricoles pourrait contribuer à atteindre ce chiffre. À ceci près que l’agrivoltaïsme ne peut se développer sans la nécessité de préserver les sols agricoles. Face aux multiples questions et enjeux que pose ce sujet, l’Ademe vient de publier une vaste étude, disponible sur son site internet, dont l’objectif est d’aider les parties prenantes à évaluer la pertinence des différents types de projets photovoltaïques sur des terrains agricoles.

Une première phase de cette étude a consisté à réaliser un état de l’art bibliographique de l’agrivoltaïsme. Il en ressort que la performance énergétique des systèmes photovoltaïques implantés sur des terres agricoles est inférieure ou égale à ceux implantés sans activité agricole. Celle-ci dépend de plusieurs caractéristiques, notamment du taux de couverture des modules sur une parcelle, leur orientation, leur hauteur… De la même manière, la mise en place de ces panneaux a des effets neutres ou négatifs sur la production agricole. Leurs impacts dépendent des conditions pédoclimatiques des projets, des espèces et des variétés cultivées.

Les auteurs du rapport pointent du doigt deux cas de figure où ils observent une forte variation des rendements de la production agricole, dans un sens comme dans l’autre. Le premier, « lorsque la lumière est le facteur limitant la croissance des plantes : dans ce cas, l’augmentation de l’ombrage a des conséquences négatives pour la croissance des plantes. » Et le second, « lorsque l’eau est le facteur limitant la croissance : selon les cas, l’amélioration de l’efficience de l’eau peut contrebalancer les effets d’ombrage, et le rendement peut être supérieur à celui obtenu sans panneaux photovoltaïques. »

Une seconde phase de l’étude a consisté à réaliser des enquêtes auprès d’agriculteurs disposant d’installations photovoltaïques. Une enquête a été menée sur une cinquantaine d’entre eux en France et dans le monde. Ce travail a permis de mettre en évidence leur méconnaissance des effets d’ombrage des modules sur les cultures ainsi qu’un manque de retours agronomiques et d’expériences. Face à ces difficultés, ces agriculteurs éprouvent des difficultés à capitaliser sur les expériences antérieures, ce qui les pousse à devoir expérimenter par eux-mêmes. Les experts de cette étude ont aussi mis en lumière « des modifications potentiellement profondes des itinéraires techniques et des productions des exploitations, notamment lorsque l’activité agricole pratiquée sous les panneaux photovoltaïques diffère de l’activité agricole initiale. »

Ces enquêtes ont abouti à la rédaction d’une dizaine de fiches techniques récapitulatives par type d’installation. Les résultats sont détaillés, système par système, dans un rapport spécifique intitulé Recueil de retours d’expérience et fiches techniques récapitulatives.

Un outil pour analyser les multiples enjeux de ces projets

À partir de ces deux travaux, les auteurs ont construit un outil d’analyse des impacts et de la pertinence des installations photovoltaïques sur des terrains agricoles. Il se révèle très utile pour réfléchir aux multiples enjeux de ces projets, car au-delà des interactions directes entre les deux productions (énergétiques et agricoles), les conséquences économiques, sociales et territoriales de ces systèmes doivent également être prises en compte.

Cet outil repose sur l’étude de trois critères fondamentaux caractérisant les synergies entre les productions photovoltaïques et agricoles. Le premier étant l’évaluation du service apporté à la production agricole, qui peut par exemple se traduire par la protection des cultures contre des aléas météorologiques, ou alors l’amélioration du bien-être animal. Le second critère concerne l’incidence des modules sur la production agricole, qu’elle soit quantitative ou qualitative. Et enfin, un dernier critère porte sur l’appréciation de l’incidence de ces systèmes sur les revenus de l’exploitation agricole.

Au final, cet outil permet d’analyser et d’identifier les projets les plus vertueux. Compte tenu du nombre important de paramètres à prendre en compte et de la diversité des contextes pédoclimatiques, une analyse au cas par cas des projets se révèle indispensable afin de bien les évaluer.

Des avancées concernant le recyclage chimique du PMMA synthétisé par polymérisation RAFT

Moins connue que la polymérisation, la décomposition des polymères en monomères fait actuellement l’objet d’un nombre croissant d’études, dans le but de développer de nouveaux procédés de recyclage chimique.

La méthode de polymérisation RAFT

Découverte en 1998, la polymérisation radicalaire contrôlée par transfert de chaîne réversible par addition-fragmentation (RAFT) est une technique relativement récente. Contrairement aux processus traditionnels de polymérisation non contrôlée, elle permet de synthétiser des polymères fonctionnels d’architecture non linéaire.

Processus d’inversion d’une polymérisation radicalaire contrôlée : comparaison de la nouvelle approche avec les approches précédentes (crédit : J. Am. Chem. Soc. 2022, 144, 10, 4678-4684)

Cette technique a une autre particularité : celle de produire des polymères possédant une haute fidélité en bout de chaîne, une propriété que les chercheurs de l’ETH Zurich ont exploitée pour développer une méthode de dépolymérisation efficace, au potentiel élevé.

Récupérer plus de 90 % des éléments constitutifs des polyméthacrylates

Dans l’étude publiée en open access dans le Journal of the American Chemical Society (JACS), Athina Anastasaki, du Laboratory of Polymeric Materials de l’ETH Zurich et ses collègues, présentent leur démarche de décomposition de polyméthacrylates obtenus par la méthode RAFT.

Après différents essais, les chercheurs ont découvert qu’un PMMA présentant un groupe terminal RAFT pouvait être dépolymérisé de manière optimale après mélange dans un solvant et chauffage à 120°C.

Ils expliquent ainsi avoir réussi à récupérer jusqu’à 92 % des éléments constitutifs, sans ajout de catalyseur, ce qui sous-entend que l’utilisation d’un catalyseur adapté permettrait d’augmenter encore la quantité récupérée.

Le transfert vers l’industrie n’est pas pour demain

Comme l’affirme Athina Anastasaki dans un communiqué de presse, « Il faudra beaucoup de temps et de recherches avant que le procédé ne s’impose dans l’industrie chimique ».

En effet, comme cette méthode n’est applicable qu’aux polymères obtenus par polymérisation radicalaire contrôlée, son utilité dépendra de la mise en circulation de nouveaux types de polymères adaptés. En outre, cette méthode a l’avantage de ne pas nécessiter l’implantation de nouvelles usines.

Par ailleurs, si les monomères ainsi formés par dépolymérisation ont une qualité similaire aux produits d’origine, les polymères RAFT nécessaires ont l’inconvénient d’être plus chers que les polymères classiques. Pour remédier à ce problème, les chercheurs vont donc maintenant travailler sur des méthodes de passage à plus grande échelle, afin d’améliorer la compétitivité.

Nous ne sommes encore qu’au début des recherches sur la dépolymérisation. Selon Mme Anastasaki, « il existe plus de 30 000 études sur le développement de nouvelles stratégies de polymérisation, mais seule une poignée d’entre elles abordent le sujet de la récupération des monomères ».

Verres de sécurité : des matériaux protecteurs

Un verre est dit de « sécurité » lorsque par constitution, traitement ou assemblage avec d’autres matériaux, la probabilité de sinistres par choc, déformation ou incendie est considérablement réduite. Quels types de verres de « sécurité » sont produits actuellement ? Comment leur performances pourraient-elles encore être améliorées ?

Le verre a connu, depuis les années 1980, une évolution technologique spectaculaire dans le secteur du bâtiment. Il est présent autant dans la construction en façade qu’en décoration intérieure. Sa transparence et son côté design contemporain contribuent évidemment à cet essor. Toutefois, le choix d’un verre inapproprié à sa destination peut avoir des conséquences pour la sécurité des utilisateurs. C’est pourquoi il existe des verres de « sécurité ». Ces verres sont généralement de type silicate sodocalcique et peuvent être feuilletés, trempés ou encore armés. Ils comportent des caractéristiques particulières de protection, et doivent répondre aux normes spécifiques les concernant.

Verre armé, trempé ou feuilleté

Le verre armé est un verre obtenu par coulée ou laminage, dans lequel une armature métallique a été incorporée au moment de la fabrication. Il  peut ensuite être poli mécaniquement. Dans ce cas, il prendra la dénomination de « glace ». En cas de bris, les morceaux sont retenus par l’armature métallique, ce qui diminue considérablement le risque de leur chute. Le verre profilé est un type particulier de verre armé. En forme de U, il s’agit de verre recuit armé de fils métalliques longitudinaux, livré en barre de six ou sept mètres. Le verre profilé armé est un produit verrier translucide qui peut être assimilé à du bardage. Il apporte ainsi une lumière naturelle à l’intérieur du bâtiment, tout en le protégeant des regards extérieurs. Destiné aux bâtiments industriels, sportifs, commerciaux, agricoles…,  non réfrigérés et à faible ou moyenne hygrométrie, il peut être posé en façade extérieure ou en cloison intérieure, ainsi qu’en toiture inclinée. Enfin, en double paroi et d’épaisseur égale à 7 mm, ces verres spéciaux sont acceptés – avec la présence de joints antichocs – dans les portes et parties fixes attenantes dans les axes de circulation des locaux publics ou parties communes des habitations.

Le verre trempé, quant à lui, est un verre recuit qui a subi un traitement thermique augmentant ainsi sa résistance mécanique et thermique. Ce traitement a pour effet d’engendrer à l’intérieur du verre un système de contraintes qui renforce considérablement la résistance du produit fini. Ces contraintes mettent la surface du verre en forte compression alors que l’intérieur est en tension. De ce fait, il résiste à des différences de températures qui peuvent aller jusqu’à 200 °C – contre 30 °C pour un verre recuit classique ! De plus, en cas de bris, le verre se fragmente en petites particules de verre limitant les risques d’accidents par coupure. Dernier cas de figure, le verre feuilleté est composé de plusieurs feuilles de verre collées entre elles par un intercalaire plastique, qui a pour rôle de maintenir le vitrage en place après qu’un choc a brisé le verre. Ces intercalaires  se présentent sous forme de film, généralement PVB (poly/butyral de vinyle) ou EVA (éthylène-acétate de vinyle), ou bien sous forme liquide, coulée entre deux verres (résine).

De l’industrie du  XIX siècle aux développements technologiques à venir

Depuis l’industrialisation de la fabrication du verre au XIXe siècle et la découverte du procédé de fabrication par flottage dans les années 1960, le verre et ses transformations sont en constante évolution. Et on peut prédire sans risque que cela va continuer… Le développement des verres de sécurité a permis une augmentation sensible de l’utilisation de ce matériau dans pratiquement toutes les situations. Des évolutions technologiques sont encore possibles et les fabricants de verre, au sein de leur département Recherche et Développement, travaillent sans cesse sur l’amélioration des performances du verre.

Pour connaître les normes de performance et la réglementation française en vigueur, consultez notre article de référence en accès libre jusqu’au 19 juillet :

Exclusif ! À l’occasion de l’année du verre, l’article complet dans les ressources documentaires est en accès libre jusqu’au 19 juillet !

Suivez ce lien pour télécharger l’article « Verres de sécurité – Sécurité des personnes et des biens », par Philippe GRELL.

Les thèses du mois : « Macron II : réindustrialisation et décarbonation, en même temps »

Pour notre dossier de mai, « Macron II : réindustrialisation et décarbonation, en même temps », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.

 

Méthodes de modélisation et d’optimisation technico-économique pour la planification de systèmes multi-énergies
Etienne Cuisinier
Doctorat en Génie Industriel conception et production, soutenu le 14/12/2021
Sciences pour la conception, l’optimisation et la production

 

Green Connections : A Network Economics Approach to the Energy Transition
Côme Billard
Doctorat en Sciences Economiques, soutenu le 3/12/2020
Laboratoire d’Économie de Dauphine

 

Choix d’un bouquet énergétique durable : Une approche par la théorie de portefeuille
Mehdi Jamai Mouhtadi
Doctorat en Sciences Économiques, soutenu le 14/12/2020
Montpellier Recherche en Économie

 

Instruments économiques et protection de la biodiversité : analyse juridique des mécanismes de compensation écologique et de paiements pour services environnementaux
Marius Combe
Doctorat en Droit de l’environnement, soutenu le 01/1/2020
Institut de Droit de l’Environnement

 

La prise en compte des fonctionnalités écologiques dans l’aménagement des territoires et l’application de la séquence Éviter-Réduire-Compenser : De l’échelle projet à la planification
Simon Tarabon
Doctorat en Sciences Agronomiques, soutenu le 26/11/2020
Institut méditerranéen de la biodiversité et d’écologie marine et continentale

 

Prospective analysis in the forest sector when facing environmental challenges: insights from large-scale bioeconomic modelling
Miguel Riviere
Doctorat en Sciences économiques, soutenu le 22/02/2021
Bureau d’économie théorique et appliquée

 

L’économie circulaire, une innovation au service du développement territorial ?
Amadou Niang
Doctorat en Sciences économiques, soutenu le 2/12/2021
Sciences pour l’Action et le Développement : Activités, Produits, Territoires

 

Le développement de l’employabilité sur le territoire : visions prospectives sur les métiers en tension : cas des services à la personne
Clara Aoun
Doctorat en Sciences de gestion, soutenu le 12/01/2021
Normandie innovation marché entreprise consommation

 

Enjeux et déterminants de la réindustrialisation de la France
Anaïs Voy-Gillis
Doctorat en Géographie, soutenu le 10/01/2020
Centre de recherches et d’analyses géopolitiques

 

Une sélection à répétition : l’accès des bacheliers professionnels à un diplôme de l’enseignement supérieur
Fanette Merlin
Doctorat en Sciences de l’éducation, soutenu le 30/11/2021
Institut de recherche sur l’éducation : sociologie et économie de l’éducation

L’Entreprise face aux transitions à venir

Un extrait de Entreprise du futur et transitions numérique, énergétique et écologique, par Jean-Pierre DAL PONT, Catherine AZZARO-PANTEL

Nous vivons sur une planète où l’incroyable expansion démographique se poursuit : nous étions un milliard d’individus en 1830, nous sommes sept milliards huit cents millions aujourd’hui et on prévoit deux milliards supplémentaires dans trente ans. La pression sur l’environnement est palpable. Les dérangements climatiques, le réchauffement attribué au GES (Gaz à effet de serre) d’origine anthropique, la pollution dont celle des océans par les gyres, sont de plus en plus sources d’interrogations comme d’inquiétudes. Les gouvernements doivent prendre des décisions globales. Un produit importé apporte avec lui la pollution dont celle des GES qui ont accompagné sa production : c’est la pollution à la frontière. Il faudrait faire payer le pollueur pour préserver la rentabilité du producteur vertueux. C’est ce que l’Europe tente de faire. Le climat est de plus en plus capricieux. Aux États-Unis, les phénomènes sont exacerbés : aux sécheresses extrêmes sources d’incendies (Californie) succèdent des inondations dévastatrices. Les GES sont montrés du doigt : la décarbonation s’impose !

Demain, la ville et ses magasins

L’urbanisation est le fait de l’exode rural : des paysans cherchent en ville une vie meilleure. On estime ainsi que 80 % de la population mondiale sera urbaine vers les années 2050. À tel point qu’aujourd’hui, 50 mégapoles possèdent plus de dix millions d’habitants… La ville est sous certains aspects une usine en elle-même. Le seul fait de permettre à des gens de vivre ensemble, de se mouvoir, de travailler, de se soigner, de se divertir, d’élever des enfants, nécessite de transformer et de transporter matière et énergie. Beaucoup de villes abritent des systèmes de production, et les systèmes de production sont des villes à part entière. L’analyse système d’une ville a conduit à la notion de smart city et des cellules qui la composent : les smart buildings. Les analogies avec les systèmes productifs classiques sont frappantes et les moyens d’étude qu’ils sous-tendent comparables.

L’avenir des Nations et leur liberté sont suspendus en grande partie à leur faculté à mettre sur le marché des produits compétitifs. On sait ce qu’il en est advenu de l’industrie automobile américaine face à la concurrence japonaise. La technologie est devenue une arme économique… La notion de développement durable a fait son chemin. Le citoyen a un nouveau regard sur le produit. Les notions d’écoconception, d’analyse du cycle de vie et d’économie circulaire sont de mieux en mieux comprises, et les entreprises sont obligées de se les approprier. Le consommateur citoyen veut comprendre et s’interroge sur le dilemme : production, écologie, emploi, croissance, bien-être. La tendance est pour que l’Entreprise devienne une « Société à Mission » contribuant au « Bien Commun ».

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 2 juin 2022 !

Entreprise du futur et transitions numérique, énergétique et écologique, par Jean-Pierre DAL PONT, Catherine AZZARO-PANTEL

Le best of presse : au fil de l’actu sci-tech #12

Ici vous trouverez notre récap’ de l’actualité scientifique et technologique qui a bercé ou chamboulé ce mois de mai. Et comme à l’accoutumée dans nos « best of presse », vous trouverez, en bas de cet article, une info bonus !

Réinventer le climat ?

Les treize équipes de recherche finalistes du Prix de l’inventeur européen 2022 sont connues depuis ce mardi 17 mai. L’AFP via Sciences et avenir nous apprend que huit des finalistes sont des femmes et sept projets sélectionnés sur treize relèvent de la transition énergétique et climatique. Un jury international décernera le 21 juin le Prix à quatre de ces équipes, récompensant « leur apport à la technologie, à la durabilité et à la croissance économique ainsi qu’à l’amélioration de la vie quotidienne », selon l’OEB, l’Office Européen des Brevets.
L’ingénieur aéronautique Français Frédérick Pasternak est en lice avec un interféromètre, un instrument de météorologie par satellite permettant d’améliorer considérablement la précision des prévisions météo et des prédictions scientifiques sur le changement climatique. Il répertorie les gaz dans l’atmosphère (CO2, CH4 et autres composés chimiques) en les quantifiant et en les localisant très précisément.
Toujours en France, la chimiste Claude Grison a mis au point une méthode de décontamination des sols pollués avec des plantes qui absorbent le métal, par exemple autour des sites miniers. Après leur récolte, elles peuvent être utilisées comme « éco-catalyseurs » (filtres) pour fabriquer de nouvelles molécules destinées aux industries chimique, pharmaceutique et cosmétique.
Rendez-vous sur le site de l’OEB pour connaître les onze autres équipes finalistes et le 21 juin pour les résultats !

Qu’est-ce qui fait roussir la Lune ?

Dans la nuit de dimanche 15 à lundi 16 mai, la Lune, la Terre, et le Soleil se sont parfaitement alignés. Cela a conduit à une éclipse totale de la Lune. La Terre, en projetant son ombre sur la Lune, lui a fait perdre son éclat blanc et revêtir des teintes cuivrées.
Le phénomène céleste était visible depuis une partie des continents européen, américain et africain, entre le lever et le coucher de la Lune. Les photos, parfois spectaculaires, abondaient sur la toile dans la matinée du 16 mai. L’événement est en replay grâce à la NASA. Avec un peu de patience, le prochain alignement peut être vécu en direct en novembre 2022 ! 

Immersion dans un monde souterrain

Le 6 mai, Chen Lixin, son équipe d’expédition et des spéléologues, ont exploré un nouveau gouffre karstique géant dans le comté de Leye, dans le sud de la Chine. C’est le 30e “Tiankeng”, terme mandarin qui peut être traduit par « fosse céleste » de cette région. Leur formation résulte de la dissolution des roches par les eaux de pluie. Elles s’écoulent à travers les fissures, en les élargissant progressivement. Ces immenses gouffres en résultent.
Pour explorer ce gouffre, l’équipe d’explorateurs a descendu les 192 mètres de profondeur en rappel. Il mesure 306 mètres de long et 150 mètres de large pour un volume dépassant les 5 millions de mètres cubes. L’ingénieur principal à l’Institut chinois de géologie du karst, Zhang Yuanhai décrit les profondeurs du gouffre comme “un autre monde”. Il débouche sur trois entrées de grottes, et contient une forêt avec des arbres de 40 mètres de haut et Chen Lixin décrit le sous-bois dense qui tapisse le sol comme « aussi haut que les épaules d’une personne. Il ajoute : « je ne serais pas surpris de savoir qu’il existe des espèces trouvées dans ces grottes qui n’ont jamais été signalées ou décrites par la science jusqu’à présent« . Voici de quoi alimenter nos rêves d’(anciens) lecteurs de Jules Verne. 

Il y a de l’eau dans la glace

Une équipe scientifique américaine a découvert un gigantesque réservoir d’eau liquide, cachée sous la calotte glaciaire dans l’Antarctique. L’étude a été publiée dans la revue Science le 5 mai. Elle pourrait modifier les prévisions d’évolution de cette région du globe.
L’expédition a mené l’équipe dans l’ouest de l’Antarctique, à 700 kilomètres du pôle Sud, sur la rivière de glace Whillans, parce qu’elle est infiltrée d’eau douce à l’état liquide.
Cette découverte remet en question les connaissances sur l’organisation des couches de l’Antarctique. Selon elle, au sommet se trouvait l’eau douce sous forme de glace. Elle reposait sur une couche de sédiments, qui s’appuyait sur un socle de roche profonde. L’eau circulant entre les couches supérieures et inférieures n’avait pas encore été étudiée.
L’équipe a employé la technique d’imagerie magnétotellurique, expliquée par Chloe Gustafson, post-doctorante en océanographie de l’Institut Scripps, à l’université de Californie à San Diego (UCSD) : « Cela consiste à analyser en profondeur les champs électromagnétiques générés par le Soleil, mais aussi par la Terre. La glace, les sédiments, le socle, l’eau douce ou l’eau salée ont tous des signatures différentes. C’est un peu comme faire une IRM de la Terre. »
Les données recueillies révèlent un volume d’eau souterraine dans un bassin sédimentaire de plus d’un kilomètre d’épaisseur. Les prélèvements sur la salinité laissent présumer un échange entre l’eau de mer fossile en profondeur et l’eau de fonte actuelle au-dessus. D’autres résultats suivront…

Le régal des régolithes

Une étude parue dans Nature Communications Biology ce 12 mai nous apprend que des scientifiques ont réussi pour la première fois à faire pousser des plantes dans du sol lunaire. Bill Nelson, le patron de la NASA, explique que « ces recherches sont cruciales pour les objectifs de la Nasa d’exploration humaine à long terme ». Il ajoute : « nous aurons besoin d’utiliser les ressources se trouvant sur la Lune et sur Mars pour développer des sources de nourriture pour les futurs astronautes vivant dans l’espace lointain. »
Cette expérimentation ne fait pas suite à un nouveau voyage de la Terre à la Lune. Des chercheurs de l’Université de Floride ont utilisé pour cette expérimentation plusieurs échantillons récupérés lors des missions Apollo 11, 12 et 17. Ces 12 grammes ont été collectés à différents endroits de la Lune. Ils sont constitués de régolithes, la roche meuble qui recouvre la surface de l’astre.
Au bout de deux jours, les graines d’arabidopsis thaliana ont donné des germes. Cette plante a été choisie pour sa culture simple, notamment dans les environnements hostiles.
Anna-Lisa Paul, spécialiste des plantes dans l’espace, dirige le laboratoire Space Plants Lab, qui a envoyé des plantations dans la Station spatiale internationale pour contrôler leur croissance. Elle est l’auteure principale de cette étude, et rapporte qu’au bout de vingt jours, les scientifiques les ont récoltées pour les étudier, notamment leur ADN. Les plantes lunaires ont réagi de la même manière que dans un environnement hostile, comme quand un sol contient trop de sel, ou des métaux lourds. Ils vont s’employer à comprendre par quels moyens cet environnement pourrait être rendu plus hospitalier.

Bonus : Ecoutez un trou noir

La NASA a profité de sa Black Hole Week (semaine du trou noir) du 2 au 6 mai 2022, pour publier la vidéo de la traduction sonore du trou noir de la constellation Persée. Située à plus de 200 millions d’années-lumière de la Terre, la constellation découverte en 2003, est composée de milliers de galaxies enveloppées de gaz chaud. L’intérieur de Persée émet des ondes de pression, qui se propagent à travers tous les gaz chauds environnants. C’est ce qui permet une traduction en son des ondes, en mouvements depuis le trou noir vers son entourage. Cette note est inaudible par l’oreille humaine parce qu’elle est environ 57 octaves en-dessous du do médian. Avec l’aide de l’observatoire spatial de rayons X Chandra, la fréquence de ces ondes a été augmentée de plusieurs millions de milliards de fois. Voici le résultat. L’image de la vidéo est aussi une capture de Chandra.
Et l’on disait l’espace silencieux !

 

Crédit image de une : Intissar El Hajj Mohamed // Techniques de l’Ingénieur

Mecaconcept : le « sur-mesure » au service de l’industrie

Filiale du groupe Industries Concept, Mecaconcept compte aujourd’hui une cinquantaine de salariés, parmi lesquels de nombreux ingénieurs et techniciens spécialistes de domaines aussi variés que l’automatique, la robotique, la vision par ordinateur ou encore l’intelligence artificielle. Des compétences multiples qui ont permis à l’entreprise d’obtenir, en 2018, le label d’« offreur de solutions pour l’industrie du futur ». Des solutions dont Mecaconcept va bientôt poursuivre le développement au sein d’un nouveau bâtiment, qui lui permettra de tripler les superficies de son bureau d’étude et de son service de production. C’est ce que nous dévoile Sébastien Nivet, PDG de Mecaconcept.

Techniques de l’Ingénieur : Pouvez-vous nous retracer l’historique de l’entreprise que vous dirigez aujourd’hui ? Comment a-t-elle évolué depuis ses débuts et sur quel(s) créneau(x) se positionne-t-elle actuellement ?

Sébastien Nivet, PDG de Mecaconcept. © Mecaconcept

Sébastien Nivet : Nous étions avant tout, à nos débuts en 1992 près de Saint-Étienne, un bureau d’études mécaniques ; la région stéphanoise était déjà à l’époque un véritable berceau de l’industrie, avec beaucoup de fabricants de machines-outils. Il y avait donc un besoin pour les grands donneurs d’ordres de sous-traitance mécanique. Comme beaucoup de fabricants de machines dites « spéciales », nous sommes donc nés de l’étude mécanique. Nous avons par ailleurs été parmi les premiers utilisateurs de logiciels de conception assistée par ordinateur (CAO). L’ancienne direction représentée par Monsieur Rascle, créateur de l’entreprise parti à la retraite en 2017, avait pris le parti de dire : la planche à dessin, le Rotring et le calque ne sont plus l’avenir du dessin industriel ; place à l’informatique. Je pense que l’histoire lui a donné raison ! Il n’y a ainsi jamais eu de planche à dessin chez Mecaconcept, malgré la création de l’entreprise qui remonte à 1992.

Assez rapidement, les donneurs d’ordres ont commencé à sous-traiter de petites parties mécaniques, de petits sous-ensembles. Du sous-ensemble, nous avons fini par traiter des machines complètes, à partir des années 2000. Notre premier client a été un acteur connu de l’industrie chimique : SNF Floerger, entreprise du secteur stéphanois qui est le leader mondial des floculants (procédé par lequel des particules s’agglomèrent, de façon à faciliter leur extraction, NDLR). Son dirigeant avait besoin de prouver le fonctionnement de certains de ses produits, il cherchait donc de petites machines lui permettant de prouver à quoi servait le floculant qu’il produisait. Nous sommes aussi rentrés chez Safran, à l’époque Messier-Bugatti, pour des parties liées aux produits composites de freinage, ce que l’on appelle plus simplement les freins à disques carbone. Nous avons ainsi commencé en 2000 à produire des machines spécifiques destinées à usiner ces freins à disque et nous nous sommes ensuite positionnés en tant que fournisseurs sur la partie « carbone ». Sur ces vingt dernières années, nous avons touché à tout le procédé de fabrication du frein à disque en carbone.

De tout cela sont nés plusieurs bureaux d’études chez nous : nous avions cette base de compétences mécaniques, mais il a fallu développer nos capacités à monter des machines. Nous avons donc embauché des automaticiens, mais aussi des spécialistes de la robotique : nous avons posé nos premiers robots à partir de 2008-2009. Nous avons donc une certaine expérience au sujet de l’installation de robots sur des lignes de fabrication, sur des projets souvent d’importance.

Petit à petit, l’entreprise a grandi, nous avons de plus en plus de techniciens et d’ingénieurs. Notre métier tourne aujourd’hui beaucoup autour de l’ingénierie. Nous sommes désormais avant tout fabricants d’équipements sur mesure : nous « taillons sur mesure » des machines, là où des concurrents font du « prêt à porter » avec de la machine standard. Nous n’avons pas de produits au catalogue, nous imaginons des machines, des solutions répondant spécifiquement aux problématiques et aux cahiers des charges de nos clients. Nous avons donc aussi des compétences en informatique industrielle et en vision par ordinateur. Nous avons un gros pôle « vision » capable d’intégrer des solutions du commerce, mais aussi de développer des équipements et algorithmes en interne. Nous touchons aussi à l’IA, qui nous permet de répondre à des problématiques que nous n’aurions pu traiter il y a seulement cinq ou six ans.

Nous sommes présents dans quasiment tous les secteurs d’activité : je parlais d’aéronautique avec Safran, mais nous avons aussi des demandes dans l’aérospatial, dans le nucléaire, dans l’agroalimentaire, dans l’industrie pharmaceutique, dans l’automobile. Ce côté « multisectoriel » qui nous caractérise nous a permis de passer la crise Covid d’une manière relativement indolore. SNF reste par exemple un client important, mais maintenant plutôt pour du process global. Nous réalisons des process clé en main. Ça n’est certes pas commun pour une société qui travaille à la base sur de la machine spéciale, mais notre historique a fait que nous nous sommes diversifiés dans toutes ces activités. Cela s’est fait de manière indépendante, mais ces différentes compétences peuvent venir se regrouper quand nous devons répondre à un besoin spécifique.

Quel est aujourd’hui l’effectif de l’entreprise ?

Nous restons une PME : nous sommes actuellement une cinquantaine de collaborateurs pour Mecaconcept, qui fait partie d’un petit groupe industriel, Industries concept. Ce groupe compte aussi notamment une autre société, SNS, qui se consacre quant à elle à l’usinage de pièces unitaires.

Mecaconcept assemble et teste l’intégralité de ses machines en interne. © Mecaconcept

Fabriquez-vous vous-mêmes les machines que vous concevez ?

Nous assemblons l’intégralité de nos machines en interne. Elles sont entièrement testées et validées chez nous. Pour les machines intégrées au sein d’un process, nous essayons systématiquement de simuler ce process pour mettre en fonctionnement la machine. Cela nous permet de garantir un temps de mise en route le plus court possible pour nos clients.

Quels secteurs géographiques couvrez-vous ?

Nos clients sont basés en France, mais puisqu’il s’agit de grands donneurs d’ordres, nous les accompagnons à l’international. Nous effectuons des livraisons et des installations dans le monde entier. Je suis par exemple actuellement en train de traiter un dossier avec Safran aux États-Unis, sur des problématiques liées à des pièces composites. Nous avons une démarche export depuis sept ou huit ans. Nous avons un bureau commercial au Maroc et nous venons d’en ouvrir un également au Canada, qui ira au-delà du commercial : nous prévoyons aussi d’embaucher des automaticiens, des concepteurs en mécanique, de manière à pouvoir appréhender une partie des projets sur place.

Quelle importance accordez-vous à la R&D dans vos activités ?

C’est une partie très importante chez nous. Nous développons en interne des éléments qui tournent autour de la vision, de la vision 3D, de la robotique, de la robotique mobile et nous avons d’ailleurs regroupé tout cela dans un projet que nous avons baptisé SIRAM[1], dont la vocation est de créer une navette autonome équipée d’un robot, avec de la vision 3D, un peu d’IA, qui vont lui permettre de s’adapter à diverses tâches dans des ateliers de production.

Faisant appel à des technologies de vision 3D, la navette autonome équipée d’un robot imaginée dans le cadre du projet SIRAM par Mecaconcept et ses partenaires se destine à la réalisation de multiples tâches au sein des ateliers de production. © Mecaconcept

Dites-nous en plus sur ce projet…

Nous travaillons depuis 2017 autour du guidage et de la vision 3D de robots. Nous ne sommes pas les seuls, mais nos travaux de R&D ont sans doute été un peu différents. Nous avons commencé en interne à travailler sur ce projet, sur fonds propres. À partir de 2020, nous avons lancé un projet Booster[2] cofinancé par la région Auvergne-Rhône-Alpes, de façon à pouvoir enclencher la phase 2 de ce projet. Nous avions sorti quelques prototypes, mais nous nous sommes dit à ce moment-là que pour aller plus loin, il nous faudrait nous entourer de partenaires dont les compétences seraient complémentaires aux nôtres. Nous avons donc entamé un partenariat avec l’École des Mines de Saint-Étienne et une société lyonnaise spécialisée dans le logiciel : Creative IT. C’est donc un projet collaboratif, qui a aujourd’hui abouti à un prototype. Ce prototype fonctionne et il est déjà capable de réaliser certaines tâches. Nous avons déjà réalisé une preuve de concept auprès d’un premier client, qui est un grand manufacturier français de pneumatiques, pour le chargement et déchargement de machines spécifiques. Nous avons d’autres idées en tête et nous allons continuer à faire évoluer notre prototype. Le projet Booster n’est d’ailleurs pas terminé, il s’achèvera à la fin de l’année 2022. Nous allons ainsi mettre en fonctionnement le robot au sein d’une usine simulée à l’École des Mines. Notre module sera interconnecté avec d’autres machines et aura pour mission de réaliser des tâches de travail telles que du prélèvement, du chargement de machines, tout en ayant une interconnectivité avec tous les autres éléments, notamment tous les logiciels présents dans cette usine simulée.

La deuxième version de ce prototype sera d’ailleurs en démonstration sur le salon Global Industrie.

La deuxième version du prototype réalisé dans le cadre du projet SIRAM sera en démonstration sur le salon Global Industrie. © Mecaconcept

Combien de projets traitez-vous en moyenne chaque année ?

Il est difficile de répondre à cette question… Nous répondons à tous types de projets : on peut par exemple avoir des projets d’automatisme à 1 500 € comme de plus gros projets à plusieurs millions d’euros. Globalement, je dirais que nous traitons plus d’une centaine de projets par an, dont le montant moyen est assez fluctuant. Parmi eux, nous pouvons avoir cinq ou dix gros projets qui vont mobiliser nos équipes pour plusieurs mois.

Dans quelle mesure les problèmes d’approvisionnement en semi-conducteurs et en matières premières vous affectent-ils ?

Nous subissons aujourd’hui un fort impact de la montée des prix des matières premières et des composants électroniques. Nous subissons également l’impact important des problèmes d’approvisionnement, surtout sur la partie électronique. Un moteur manquant à 1 000 € peut parfois bloquer la livraison d’une machine à plusieurs centaines de milliers d’euros pendant plusieurs mois ! Sur la partie matériaux, nous avons la chance de pouvoir nous adapter si besoin en changeant certaines matières en fonction des disponibilités. Nous avons la chance, dans le domaine de la machine spéciale, de pouvoir faire évoluer notre plan quasiment à mesure que nous usinons.

Quels sont vos projets pour les mois ou années à venir ? Quelles directions comptez-vous emprunter pour poursuivre votre développement ?

Nous avons une forte croissance depuis quelques années. J’ai repris l’entreprise avec un groupe d’ingénieurs et de techniciens en 2017, et nous avons engagé depuis 7 ou 8 mois un projet de construction d’un nouveau bâtiment, dans lequel nous réunirons nos activités d’usinage et nos activités de fabrication de machines ainsi que notre bureau d’études. Ce bâtiment sera situé à quelques kilomètres de notre siège actuel et nous permettra quasiment de tripler la superficie de notre bureau d’étude, ainsi que notre surface de production. C’est un projet de presque trois millions d’euros, qui va nous permettre de passer un palier et de répondre encore plus favorablement à nos clients. Nous avons l’image d’une entreprise innovante, qui fait des produits liés à des secteurs d’activité de pointe, et nos locaux n’étaient plus forcément représentatifs de ces aspects. Augmenter nos capacités de production était aussi crucial. Nous sommes partis de petits sous-ensembles, mais nous avons aujourd’hui abouti à la production de lignes complètes, dont la taille n’est pas la même… ! Nous avons donc besoin de place. En 2020 par exemple, année Covid, nous avons malgré tout réussi à débuter un gros projet à plus de 2,5 M€, chez un fabricant aéronautique, sur un atelier complet. Nous faisons toujours de la petite machine, nous ne voulons pas abandonner nos clients historiques, mais il est vrai que nous sommes de plus en plus appelés pour des unités complètes de production.

Vous parliez d’une « forte croissance » depuis quelques années ; comment cela se traduit-il en matière de chiffre d’affaires ?

Notre chiffre d’affaires a plus que doublé depuis 2016 : nous réalisions cette année-là un CA de 2,4 M€ et nous avons atteint 6,2 M€ l’année passée. Nous avons été très peu impactés par la phase Covid : nous avons beaucoup travaillé pour l’agroalimentaire et l’industrie pharmaceutique, des secteurs d’activité qui ont énormément fonctionné pendant cette crise. Nous avons aussi travaillé sur des projets de lignes de production de protections individuelles – les masques –, ainsi que pour des industriels produisant des vannes de dosages d’oxygène… Nous arriverons sans doute un jour à un palier de croissance, mais pour atteindre cette phase de stabilité nous avions besoin de nos nouveaux locaux.

Votre implantation en région stéphanoise est-elle un atout pour le développement de vos activités ?

Saint-Étienne est un berceau de la mécanique et de l’ingénierie en France. 99 % de nos recrutements se font avec des ingénieurs stéphanois, que ce soit en informatique, dans le domaine de la vision, en mécanique ou même chez les ingénieurs généralistes. Nous avons aussi la chance de pouvoir faire réaliser de très grandes pièces chez un usineur situé à côté de chez nous. Nous nous apercevons que nous avons de plus en plus de clients qui font appel à nous parce que nous sommes capables, dans un même secteur, de réunir de nombreux acteurs autour d’un projet commun. Nous nous appuyons, en tant que bureau d’études, sur ce tissu économique local. Ce ne sont pas de grosses sociétés, mais elles nous apportent une réactivité incomparable.

Vous êtes référencés en tant qu’ « offreur de solutions pour l’industrie du futur ». Qu’est-ce que cela implique ?

Dans le cadre des métiers liés à l’industrie 4.0, nos machines sont de plus en plus connectées vers l’extérieur : les industriels travaillent de plus en plus avec des logiciels ERP[3] et MES[4]. Nous travaillons aussi désormais sur des éléments que l’on voyait très peu il y dix ans, comme la vision par ordinateur, les robots. Nous intégrons donc de plus en plus toutes ces briques technologiques dans nos machines. Les clients sont d’ailleurs de plus en plus demandeurs, ils ont un besoin de retour d’informations et de technologies de plus en plus pointues. Les opérateurs sont souvent des jeunes, qui ont tendance à vouloir interagir avec l’interface homme-machine comme avec leur smartphone. Ce sont donc tous ces métiers du « 4.0 » que nous intégrons dans nos machines en tant qu’offreur de solutions pour l’industrie du futur. Pour vous donner un exemple : nous pouvons, pour une PME du e-commerce, concevoir un système permettant de traiter intégralement une commande de manière automatisée. Là où, à l’origine, nous aurions fourni un simple système de préparation de commande, nous ajoutons aujourd’hui une couche capable d’aller elle-même récupérer la commande effectuée sur internet, de la préparer, et même de faire le lien avec la société de livraison de colis en lui fournissant par exemple le poids du paquet, en imprimant l’étiquette de livraison, la facture client… Le e-commerçant n’a ainsi quasiment plus aucune tâche manuelle à effectuer pour préparer son colis.

Nous sommes aussi « offreurs de solutions » dans le sens où les machines que nous livrons sont parfois aux antipodes de la demande initiale qu’avait imaginée le client. Nous changeons parfois radicalement la vision que le client avait de la machine qu’il souhaitait. Nous avons cette plus-value de pouvoir accompagner nos clients dans la recherche de solutions. Nous réalisons une veille permanente et nous avons une vision très large de ce qui peut se faire. Cela nous permet de proposer des solutions auxquelles un client n’aurait pas forcément pensé. Nous capitalisons à la fois sur notre vision multisectorielle et sur notre historique.


[1] SIRAM : Système intégré pour robots assistants mobiles

[2] R&D Booster : appel à projets lancé par la région Auvergne-Rhône-Alpes, visant à promouvoir les projets collaboratifs de R&D en réponse à un enjeu de développement de nouveaux produits, procédés ou services.

[3] Enterprise Resource Planning. Logiciel de gestion intégrant des fonctionnalités permettant de gérer l’ensemble des services de l’entreprise tels que les stocks ou la production.

[4] Manufacturing Execution Systems. Logiciel destiné à encadrer les outils de production.

Comment Macron compte-t-il sauver l’industrie française ?

Avec la nomination d’Elisabeth Borne à Matignon, 30 ans après Edith Cresson, le poste de Premier ministre sera donc occupé par une ingénieure. Un bon signe pour l’industrie française ? Peut-être, mais la tâche qui attend la nouvelle locataire de Matignon s’annonce ardue, au vu du contexte. Alors que la pandémie mondiale de coronavirus a plongé une industrie française déjà moribonde dans un état de fragilité prononcé, la guerre en Ukraine a fait l’effet d’un coup de butoir supplémentaire

Alors que l’Etat a, via le plan de relance France 2030 et le plan Résilience, voulu relancer l’industrie française au prisme des leçons tirées de la crise sanitaire – nécessité d’une certaine autonomie, de relocaliser certaines activités, de diversifier les chaînes d’approvisionnement… – le bilan de l’année 2021 reste positif, avec 176 créations d’usines, contre seulement 56 fermetures, la relocalisation des sites de production en progression de 290 % sur l’année écoulée, et la création de plus de 30 000 emplois.

Pourtant, c’est l’inquiétude qui est de mise au moment d’évoquer les années à venir, pour notre outil industriel. Pour plusieurs raisons. D’abord parce qu’entre 2018 et 2020, de très nombreuses usines ont fermé dans l’hexagone. L’année 2021 illustre donc en partie un rattrapage de cette période très compliquée. Aussi, et c’est habituel, les années électorales sont souvent précédées de chiffres encourageants, notamment au niveau de l’industrie, car de nombreuses fermetures sont repoussées à la période post électorale. Prudence donc. Enfin, le déficit commercial français a atteint un nouveau record en 2021, avec une balance déficitaire de plus de 84 milliards d’euros. Un boulet récurrent, que le premier quinquennat d’Emmanuel Macron n’a pas réussi à alléger.

La politique volontariste d’Emmanuel Macron se heurte pour le moment à un contexte extrêmement tendu, et dont les issues – quid de la crise sanitaire dans les mois qui viennent, évolution du conflit ukrainien – sont aujourd’hui inconnues, avec des répercussions sur le cours des matières premières et sur les approvisionnements très pénalisantes.

Au-delà des plans de relance déjà mis en place et qui vont continuer d’alimenter des projets industriels innovants et de rupture dans les années qui viennent, le candidat Macron a égrainé durant sa campagne des mesures pour soutenir l’ensemble des secteurs industriels, avec la volonté de relocaliser et décarboner l’industrie.

La proposition de réduire les impôts de production qui pèsent sur l’industrie et l’agriculture, notamment en supprimant la CVAE pour toutes les entreprises, va dans ce sens. 

Ensuite, pour soutenir la relocalisation, Emmanuel Macron veut réviser la politique d’achat de l’Etat, avec pour objectif prioritaire d’acheter local, plutôt que d’acheter « moins cher », afin de favoriser le développement de filières locales innovantes.

Deuxième grand volet des ambitions industrielles du nouveau quinquennat, le soutien de projets industriels majeurs pour l’avenir du pays : mini-lanceurs spatiaux, biomédicaments, réacteurs nucléaires de troisième et quatrième génération… dans la continuité des investissements mis en place via France 2030.

Enfin, de nombreux aspects du programme du nouveau président élu ont des externalités sur certains secteurs de l’industrie : la troisième révolution agricole, mentionnée dans le projet du candidat Macron, doit voir un investissement massif être réalisé pour numériser, robotiser, et moderniser notre secteur agricole.

La filière automobile également, à travers le développement de véhicules électriques à bas prix pour les populations pour lesquelles le transport représente un centre de coût trop important, se voit soutenue par l’Etat, ainsi que les constructeurs aériens, confortés dans l’ambition de développer un avion bas carbone d’ici à 2030. 

Pour conclure, le second quinquennat d’Emmanuel Macron sera, une nouvelle fois, tributaire du contexte international, entre la volonté de moderniser notre outil industriel pour le rendre plus durable et plus compétitif, et celle de survivre aux problématiques immédiates – d’approvisionnement, de coût des matières premières – comme c’est le cas depuis 2019, pour certains secteurs. 

Par Pierre Thouverez

Décryptage du mécanisme pour booster la photosynthèse des microalgues

On connaît tous l’impact négatif qu’a le CO2 sur le climat. Paradoxalement, sa concentration dans l’atmosphère n’est pas suffisante pour que la Rubisco, l’enzyme fixatrice du CO2 chez les plantes, fonctionne à plein régime. Résultat : la photosynthèse ne se déroule pas de manière optimale. Dans le milieu aquatique et en particulier chez les algues, cette déficience en CO2 est encore plus marquée, car celui-ci diffuse beaucoup plus lentement dans l’eau que dans l’air. Pour pallier ce manque, les algues ont développé un mécanisme permettant d’accroître la concentration intracellulaire en CO2, appelé le CCM (CO2 concentrating mechanism). Alors que jusqu’ici, on ignorait le processus fournissant l’énergie nécessaire à ce mécanisme, des chercheurs du CEA et du Carnegie Institution de Stanford aux États-Unis viennent de le décrypter. Leurs travaux viennent d’être publiés dans la revue Nature.

« Chez les algues, l’énergie de la photosynthèse, qui est convertie par des photosystèmes dans les chloroplastes, sert à la fois à concentrer le CO2 et à le fixer grâce à la Rubisco à travers des réactions biochimiques, pour transformer le carbone minéral du CO2 en carbone organique sous forme de sucres », explique Gilles Peltier, directeur de recherche au CEA. « Grâce à nos travaux, nous avons découvert comment se répartit cette énergie entre ces deux mécanismes. »

Il existe plusieurs voies permettant de transformer l’énergie solaire au cours de la photosynthèse. La principale est celle consistant à générer un courant d’électrons, appelé transfert linéaire d’électrons, afin d’obtenir un pouvoir réducteur. D’autres voies existent, notamment celle appelée le transfert cyclique d’électrons. Elle ne produit pas de pouvoir réducteur, mais conduit à la formation d’un gradient de protons. « Nous avons mis en évidence que cette voie, dite alternative, est utilisée dans le mécanisme du CCM, ajoute le chercheur. Elle produit un flux cyclique d’électrons et sert à établir un gradient de protons à travers la membrane photosynthétique. »

Concrètement, étant donné que l’accumulation du CO2 ne peut se produire que s’il se trouve sous sa forme ionique et hydratée, il est d’abord transformé en bicarbonate (HCO3–) et transporté de manière active à travers les membranes biologiques. Pour qu’il soit ensuite fixé par la Rubisco, il doit être reconverti en CO2. C’est à ce niveau-là que le gradient de protons intervient pour fournir l’énergie à cette reconversion.

Transférer le mécanisme de concentration du CO2 chez les plantes cultivées

Ce travail de recherche a aussi permis de mettre en évidence la source d’énergie nécessaire aux transporteurs pour acheminer le bicarbonate jusqu’à la Rubisco. « Dans une cellule végétale, il y a différents organites(1), notamment les chloroplastes où a lieu la photosynthèse et les mitochondries où a lieu la respiration, précise Gilles Peltier. Nous avons démontré qu’une partie de l’énergie produite par les chloroplastes est transformée par les mitochondries pour fournir l’énergie dont ont besoin les transporteurs. »

Ces découvertes permettent de mieux comprendre les bases fondamentales de la capture efficace du CO2 par les algues. Elles ouvrent aussi la voie au transfert d’un CCM fonctionnel chez les plantes cultivées dans le but d’améliorer leur productivité. Plusieurs laboratoires à travers le monde tentent d’y parvenir, notamment au Royaume-Uni, aux États-Unis ou en Australie. « Pour l’instant, ils ont travaillé sur les aspects biochimiques liés aux transporteurs, mais pas du tout sur leurs besoins énergétiques, observe le chercheur. C’est très important de prendre en compte cette énergie, qui normalement sert à la photosynthèse et à la fixation du CO2, mais qui doit aussi être dirigée vers le CCM. Il faut qu’elle soit distribuée de manière optimale entre ces deux mécanismes. »

Ces travaux de recherche ont été réalisés en laboratoire en utilisant comme modèle d’étude l’algue verte Chlamydomonas. Ils doivent se poursuivre en milieu naturel, afin d’observer si ce même processus de fourniture d’énergie au CCM fonctionne, et plus largement dans le but de mieux comprendre l’impact de ce mécanisme sur la fixation du carbone par les océans.

 

(1) »Compartiment » d’une cellule

Sur l’écologie, Emmanuel Macron est-il crédible ?

Le candidat Macron a attendu l’entre-deux-tours pour parler d’écologie en évoquant le rapport du GIEC, paru depuis plusieurs semaines. Alors que sous son premier quinquennat, l’état a été condamné pour inaction climatique, et que la jeunesse est de plus en plus attentive à la problématique écologique, Emmanuel Macron a présenté durant sa campagne des propositions dans plusieurs secteurs d’activités, qui doivent permettre à l’hexagone d’accélérer sa transition écologique, sur tous les plans.

Un Premier ministre chargé de la planification écologique

La principale annonce concernant l’écologie est peut-être celle-ci : le Premier ministre qui sera nommé par le chef de l’Etat sera directement chargé de la planification écologique. Un terme qui était employé jusque-là plutôt par le leader de la France Insoumise, Jean-Luc Mélenchon. Une façon de montrer que l’écologie sera au centre de toutes les attentions dans les cinq années à venir. Dans le même temps, deux ministres seront nommés spécifiquement sur ces sujets. Le premier sera chargé de la « planification énergétique », le second de la « planification écologique territoriale ». Comme l’a précisé Emmanuel Macron, lors de son grand meeting de Marseille du 16 avril, le président « souhaite regarder aussi ce qui, venant d’autres propositions, permet de clarifier cette ligne avec une planification écologique ». Pour résumer, Emmanuel Macron se dit prêt à piocher de bonnes idées dans les programmes de ses adversaires. Un discours d’entre-deux-tours en somme, destiné à rassembler le plus largement possible, alors que l’action écologique du candidat est jugée par l’immense majorité des associations comme insuffisante, voire catastrophique.

Symboliquement, le futur président a également proposé de mettre en place une « fête de la nature », mais celle-ci existe déjà depuis plus de seize ans.

Plus concrètement, le programme du candidat Macron foisonne de propositions : plantation de 140 millions d’arbres, fermeture de plusieurs dizaines de décharges à ciel ouvert, accélération sur le véhicule électrique, taxe carbone, rénovation thermique… Il est pertinent de noter que certaines propositions citées sont dans la continuité des actions engagées lors du premier quinquennat, comme la rénovation de ce qu’on appelle les « passoires thermiques ».

Soutenir le développement des véhicules électriques

Parmi les propositions du candidat Macron, la volonté de soutenir financièrement les français désirant accéder à des véhicules électriques constitue un axe fort, spécifiquement destiné aux automobilistes à faibles revenus, qui sont aujourd’hui les plus impactés – financièrement parlant – par la hausse du prix des matières premières, et donc de l’essence. Ainsi, dès 2023, l’Etat entend mettre à disposition pour ces citoyens un parc de 100 000 voitures « décarbonées », accessibles pour un loyer inférieur à 100 euros par mois. Une mesure écologique, mais qui ne va pas sans soulever quelques interrogations.

Seconde proposition phare, mais qui n’est pas nouvelle par rapport aux engagements pris en 2017, la rénovation de quelques 700 000 logements par an. Un rythme compatible avec la stratégie nationale bas carbone, et une nécessité, alors que ce secteur produit environ 17 % des émissions annuelles de l’hexagone.

Ensuite, toujours durant l’entre-deux-tours, le candidat Macron s’est engagé à faire de la France le premier pays à sortir du pétrole, du gaz et du charbon. Il a également évoqué l’avion bas carbone, espéré d’ici à 2030, la décarbonation du secteur agricole grâce à la numérisation, et la réduction de 35 % des émissions dans l’industrie, d’ici à 2030.

De l’avis des experts, le programme écologique d’Emmanuel Macron se veut « optimiste ». Ainsi, le think tank « The shift project », qui travaille sur le développement d’une économie libérée de la contrainte carbone, a analysé les programmes écologiques de l’ensemble des candidats. Celui d’Emmanuel Macron, d’après le think tank, mais aussi d’après les exemples que nous venons de citer – avion carbone, numérisation de l’agriculture… – mise beaucoup sur les technologies et sur l’innovation pour décarboner les activités industrielles. Et c’est la critique principale venue du monde associatif : laisser à l’innovation le soin de décarboner les activités humaines est risqué, car le timing de mise en place de ces innovations est extrêmement incertain, voire inconnu. Ce qui ne participe pas à crédibiliser le projet porté par le nouveau président élu.

Par Pierre Thouverez

Faire le bon choix de compensation carbone volontaire

Plusieurs compagnies aériennes telles qu’Air France, Finnair ou British Airways proposent un système dit de « compensation carbone » afin de participer à la lutte contre le réchauffement climatique. Dans le cadre de leur stratégie climat, ces compagnies donnent ainsi la possibilité à leur client de payer un coût additionnel au billet afin de compenser les émissions de CO2 émises au cours de leur voyage et qui servira à financer des projets de stockage du carbone, par exemple via la préservation de forêts ou la création de projets solaires. Un moyen pour les voyageurs de prendre en compte leur impact sur le climat, et pour les compagnies de montrer leur engagement à aider le financement de projets de lutte contre le dérèglement climatique.

Ce système a été rendu possible par le protocole de Kyoto, élaboré en 1997 et réellement entré en vigueur en 2005. Ce texte international, complété par l’accord de Doha en 2012 et renouvelé fin 2020, engage les pays à réduire leurs émissions de gaz à effet de serre (GES). Il ouvre aussi la possibilité d’utiliser des mécanismes de marché pour que les plus vertueux échangent des crédits carbone avec les moins vertueux. À ces mécanismes obligatoires (mécanisme de développement propre, mise en œuvre conjointe, échange de quotas d’émissions) s’ajoute un marché de la compensation volontaire. « Il s’est vraiment développé depuis l’Accord de Paris en 2015 quand les entreprises ont été appelées à agir. Non encadrée légalement, la compensation carbone volontaire a créé ses propres référentiels de qualité, ses codes de bonnes pratiques, afin d’éviter le greenwashing », explique Mathilde Mignot, responsable des partenariats et du portefeuille de projets de compensation au pôle « Solutions fondées sur la nature » d’EcoAct, une société du groupe Atos. Chaque crédit carbone correspond à une tonne de CO2 captée ou évitée : il est noté dans un registre quand le projet est effectif, et il en est retiré quand une entreprise l’achète pour compenser son émission d’une tonne de CO2.

Pousser les projets ayant le plus d’impacts positifs

La qualité des projets (voir encadré) va être d’autant plus cruciale que la demande de crédits carbone est en train d’exploser. 2021 a été une année charnière dans le monde, selon les professionnels de la compensation carbone volontaire. Beaucoup d’entreprises anticipent des besoins en crédit carbone pour satisfaire leurs objectifs climatiques : la demande pour 2030 a ainsi été multipliée par 15. Le prix spot du crédit carbone, auparavant à moins d’un dollar, s’affiche désormais entre 3 et 6 $. On est certes loin du marché des quotas européens qui s’est envolé depuis le début de l’année entre 70 et 80 €/tCO2, mais c’est tout de même une importante accélération portée par une offre plus grande que la demande désormais.

Comment s’y prendre alors ? « Les entreprises doivent d’abord faire leur bilan carbone pour identifier leurs émissions directes (scopes 1 et 2) et indirectes (scope 3). Elles peuvent le compléter par des analyses de cycle de vie de leurs produits ou d’impacts environnementaux, notamment sur la biodiversité. Ensuite il faut définir une stratégie de réduction de ces émissions sur plusieurs années (économies d’énergie, approvisionnement en énergies renouvelables, moyens de transport décarbonés, etc.). Pour les émissions les plus difficiles à réduire, la stratégie peut intégrer la compensation carbone volontaire », détaille Mathilde Mignot.

Des sociétés accompagnent les entreprises dans ce type de démarche, comme EcoAct qui appuie le choix de ses propres projets sur des standards de qualité (Gold Standard, Verra) afin d’être sûr de leur pertinence en termes de réduction des émissions de gaz à effet de serre sur plusieurs années. « C’est particulièrement vrai des projets forestiers dont il faut vérifier, par des audits réguliers, qu’ils se développent comme prévu. Plus globalement, l’intérêt des solutions fondées sur la nature est de fournir de vrais puits de carbone, mais leur suivi est plus complexe que d’autres solutions de type technologique », ajoute l’experte.

La valeur des crédits carbone issus des solutions fondées sur la nature est d’autant plus grande que les projets génèrent d’autres bénéfices : création d’emplois (par exemple par la plantation de mangroves), plus grande égalité femme/homme, amélioration de la qualité de l’air en installant des foyers de cuisson plus efficaces, retour de la biodiversité, etc. « Les entreprises doivent donner du sens à leur stratégie de compensation volontaire, d’où l’intérêt de choisir des projets avec une forte plus-value sociale et environnementale. Chez EcoAct nous identifions de tels projets en travaillant avec les populations locales » signale Mathilde Mignot.

Quels projets pour la compensation carbone volontaire ?

Les projets ont d’abord été développés dans les pays en développement pour aider les populations ayant moins de ressources et souvent les premières victimes du changement climatique. Les solutions privilégiées sont par exemple le reboisement en forêt, la plantation de mangroves, le déploiement de moyens de cuissons efficaces, la production d’énergies renouvelables, l’accès à l’eau. Certains projets de captation du CO2 dans l’air commencent même à émerger.
Des approches domestiques, au niveau national, ont été également lancées via le Label Bas Carbone et ouvrent de nouvelles pistes comme des modes de gestion des exploitations agricoles captant plus de CO2.
Parmi les bonnes pratiques relevées par l’Ademe, le choix de projets labellisés est essentiel, ainsi que le recours à des solutions qui ont des impacts positifs sur les objectifs de développement durable.

Un programme énergétique qui mise sur le nucléaire, entre autres

L’urgence climatique, une énième fois rappelée dans le dernier rapport du GIEC, en février 2022, est bien sûr intimement liée à la question énergétique. Les problématiques de consommation et de production d’énergie dans l’hexagone font donc partie des prérogatives importantes du président, et sur ce point Emmanuel Macron a fait des propositions nombreuses, visant à développer conjointement plusieurs types de productions électriques : nucléaire, éolien offshore, hydrogène… une telle diversification peut laisser penser que le pari est risqué, et il l’est. D’un autre côté, miser sur plusieurs énergies permet aussi d’envisager un échec sur l’une d’entre elles plus sereinement. Si les autres voies aboutissent. 

Il est également important de rappeler qu’au vu de la situation actuelle avec la Russie, le développement d’une autonomie énergétique doit être accéléré au niveau européen. D’ailleurs, l’ensemble des candidats à l’élection présidentielle étaient d’accord sur ce point. Il s’agit aujourd’hui d’une priorité politique et donc stratégique.

Devenir le leader européen sur l’hydrogène

C’est le premier pari : Emmanuel Macron veut faire de l’hexagone le champion continental de la production d’hydrogène bas carbone. Un plan de sept milliards d’euros, sur dix ans, sera mis en place pour accompagner une filière émergente aujourd’hui, qui pourrait créer, selon le programme du candidat Macron, 100 000 emplois.

Les ambitions françaises sur l’hydrogène synthétisent bien le mot d’ordre : il faut décarboner. C’est pour cela que le nouveau président élu s’est engagé pendant la campagne présidentielle à faire construire de nouveaux réacteurs nucléaires, plus modernes et plus sûrs, selon le programme du candidat. 6 nouveaux EPR seront construits (le chiffre de 14 au total est évoqué), et les recherches sur les réacteurs modulaires de petites tailles se poursuivront, en cohérence avec les investissements du plan France 2030. Le programme d’Emmanuel Macron précise également, sans plus de détails, que des solutions pour améliorer la gestion des déchets seront étudiées. 

Faciliter le développement des énergies renouvelables

En simplifiant administrativement la mise en place de projets d’énergies renouvelables, notamment sur les délais de mise en œuvre, Emmanuel Macron cherche à booster des secteurs qui fonctionnent aujourd’hui en dessous de leur potentiel sur le sol français, que ce soit pour l’éolien et le solaire. Sous le dernier quinquennat, la capacité de production pour l’éolien et le solaire a progressé de 20 % (voir les chiffres de RTE). La simplification administrative vise donc à accentuer cette tendance, un effort particulier étant porté sur l’éolien en mer, avec quatre grands chantiers qui sont d’ores et déjà en construction. 50 seront implantésau total, d’après le programme du candidat.

Une fin du charbon en 2024 ?

C’est une des ambitions pour ce nouveau quinquennat : en finir avec le charbon, d’ici à 2024. Alors que trois centrales ont été fermées lors des cinq dernières années, l’arrêt des dernières centrales doit coïncider avec la mise en service du nouveau réacteur de Flamanville.

Au niveau des investissements, le nouveau président français s’est engagé à ce que l’Etat ne soutienne plus financièrement de projets d’énergies fossiles à l’étranger, dans la mesure où ils ne seraient pas compatibles avec les accords de Paris. 

Dernière mesure d’ampleur, l’obligation d’installer du photovoltaïque ou des toits végétalisés lors de la construction, l’extension ou la rénovation lourde de tous les bâtiments à usage commercial, industriel ou des bureaux de plus de 500 mètres carrés.

Ainsi, si la relance de la construction de centrales nucléaires est considérée comme la mesure phare de son programme – en accord avec un des scénarios envisagé par RTE – Emmanuel Macron, en misant sur la diversification du mix énergétique, tente un pari qui, s’il ne pourra probablement pas être totalement gagnant, limite le risque pour l’hexagone de se retrouver dans une situation de dépendance énergétique trop prononcée dans les années qui viennent.

Par Pierre Thouverez

Macron veut adapter les formations aux besoins

A la lecture du programme d’Emmanuel Macron, force est de constater que le nouveau président reste sur un constat déjà posé en 2017. Les écoliers français, en l’occurrence les collégiens, ne sont pas suffisamment mis en situation professionnelle lors de leur parcours scolaire.  Ainsi, le président souhaite que tous les enfants découvrent, à partir de la cinquième, les différents secteurs d’activités, en particulier ceux voués aux métiers techniques et manuels. Une volonté de sensibiliser les collégiens le plus tôt possible, pour pallier au désamour actuel des futurs étudiants pour certains secteurs industriels, qui manquent aujourd’hui cruellement de candidats. Ainsi, même si ce type de réforme ne concerne pas directement l’enseignement supérieur, elle doit contribuer à en changer le visage sur le moyen terme.

Des filières courtes et personnalisées

Former mieux, adapter les formations à la réalité du marché de l’emploi, donner les mêmes chances à tous… le programme du candidat Macron veut mettre en cohérence le marché de l’emploi avec celui de l’éducation supérieure et de la formation professionnelle. Avec la volonté d’ « ouvrir les places nécessaires dans les filières du supérieur qui correspondent aux besoins de la Nation, à commencer par les BTS, BUT, licences pro, et réguler les filières qui ne mènent pas assez à l’emploi. »

Derrière cette ambition, il y a des chiffres. La DARES (Direction de l’Animation de la Recherche, des Études et des Statistiques) a listé les métiers pour lesquels les offres d’emploi sont très supérieures à la demande. Les métiers de l’industrie et du bâtiment y sont surreprésentés. Techniciens, ingénieurs, cadres, manquent dans de nombreux secteurs : métallurgie, électricité, électronique, informatique, automobile, construction, travaux publics… Le déphasage entre les voies de formations professionnelles privilégiées par les étudiants et les besoins du marché de l’emploi n’est pas nouveau. Pour y remédier, Emmanuel Macron veut s’employer à réformer le lycée professionnel, en accroissant les stages en entreprises, pour familiariser plus tôt les futurs travailleurs avec le monde de l’entreprise. Mais la mesure phare sur ce plan consistera à moduler les places dans l’enseignement supérieur en fonction des besoins.

L’évolution des habitudes de travail fait évoluer les attentes des futurs salariés

Cependant, un phénomène de fond, déjà latent avant la pandémie de coronavirus, émerge aujourd’hui. Les conditions de chômage partiel avantageuses mises en place pendant la pandémie, et le recours massif au télétravail ont changé la vision de la société, et notamment des jeunes, par rapport au travail. Ainsi, de très nombreuses entreprises ont officialisé le télétravail pour leurs employés, trois jours par semaine. Ces facteurs ont vu les emplois avec des bas salaires boudés, mais la nouveauté est le nombre d’emplois accompagnés de hauts salaires qui ne trouvent pas preneurs. C’est ce qu’a récemment déclaré le patron de Safran, Ross McIness : « nos entreprises ont du mal à recruter dans des métiers qui sont plutôt bien payés ». Ce dernier fait également le lien entre le système scolaire français et les difficultés pour de nombreux secteurs à recruter.

L’évolution des habitudes de travail depuis deux ans va donc forcer les entreprises à s’adapter pour attirer les talents. Le télétravail, qui offre au salarié une autonomie nouvelle, a participé à faire grandement évoluer les consciences, et les attentes des employés quant à leurs conditions de travail. Cette problématique est particulièrement vraie dans l’industrie, ou le télétravail n’est pas adapté à tous les types de métiers.

Enfin, la volonté de plus en plus de jeunes de travailler à leur compte, en tant qu’entrepreneurs, est l’illustration de l’évolution de la valeur travail dans l’hexagone. En quête de sens, d’utilité publique, extrêmement sensibilisés à la cause écologique, ces derniers sont moins enclins à travailler coûte que coûte, ou plutôt à n’importe quels prix. La volonté d’Emmanuel Macron de conditionner le RSA à une activité a pour but de freiner cette dernière tendance, entre autres.

Au-delà de la volonté de l’Etat d’adapter au maximum les formations aux besoins du marché, les entreprises vont devoir s’adapter à cette nouvelle réalité du travail, pour proposer aux salariés une vie professionnelle à la hauteur de leurs nouvelles exigences.

Dans cette optique, la transition énergétique et écologique pourrait drainer des vocations, en cohérence avec cette volonté pour les futurs salariés de donner du sens à leur activité professionnelle.

Par Pierre Thouverez

ADDITIVE4RAIL : un consortium dédié au développement de la fabrication additive pour la maintenance des trains

Délais de fabrication d’outillage réduits, production de pièces à la demande pour réduire les coûts de stockage, allègement et personnalisation des composants sont autant d’atouts permettant d’opérer une complète mutation de la maintenance ferroviaire.

Ce projet est financé par les pouvoirs publics via la BPI et l’ADEME à hauteur de 10,7 millions d’euros sur 4 ans et il fait partie des 7 premiers lauréats de l’Appel à Manifestation d’Intérêt (AMI) du CORIFER¹.

La fabrication additive : un avenir prometteur pour le ferroviaire

La maintenance des trains implique près de 150 000 références de pièces et de nombreuses petites séries. La production de composants à la demande, afin de réduire les stocks de pièces de rechange, figure donc en tête des enjeux du projet ADDITIVE4RAIL, de même que la possibilité de relancer la fabrication de pièces dont la production n’est pas garantie sur l’ensemble de la durée d’exploitation des trains (qui peut atteindre 40 ans).

Par ailleurs, au-delà de l’intérêt de la refabrication de composants existants, la fabrication additive ouvre de nouvelles perspectives en termes d’innovation, puisqu’elle offre la possibilité de repenser totalement la conception des pièces. Le projet ADDITIVE4RAIL permettra ainsi d’obtenir des composants polymères ou métalliques, personnalisables à outrance, aux formes jusqu’ici impossibles, plus légers, plus fiables ou plus silencieux.

Des compétences multiples pour un projet ambitieux

Le programme ADDITIVE4RAIL associe quatre partenaires aux compétences complémentaires. La SNCF assure le pilotage du projet, Centrale Nantes apporte ses compétences scientifiques dans le domaine des matériaux et des procédés, VLM Robotics intervient en tant que fabricant de machines et de cellules agiles robotisées et la Deeptech 4Dpioneers est chargée de développer les matériaux et procédés industriels dédiés à la fabrication additive.

Toutes ces compétences, le consortium en aura besoin pour atteindre ses ambitions, car les verrous technologiques à lever sont importants : dimensions limitées des pièces en fabrication additive, manque de matériaux polymères ignifugés et certifiés ferroviaire, coût de production trop élevé, etc.

Une chaîne industrielle et des démonstrateurs ferroviaires

Les membres du consortium ont d’ores et déjà investi dans la création d’une chaîne industrielle de 150 m² à Saintes, en Charente-Maritime, sur l’un des sites du Technicentre Industriel SNCF de Charente-Périgord.

Deux procédés y sont en cours de test. Le dépôt de filament thermoplastique (FDM) d’une part et la fabrication additive métallique par arc-fil (WAAM), d’autre part. Ils permettront de fabriquer et de certifier des pièces mécaniques destinées à être installées sur des trains en exploitation.

Compte tenu des thèses qui seront engagées, des nouvelles compétences qui vont apparaître et des débouchés espérés en termes d’emploi, ADDITIVE4RAIL devrait ainsi contribuer à accélérer les usages de la fabrication additive ferroviaire en France, mais aussi en Europe, notamment grâce au contexte d’harmonisation européenne des normes de sécurité ferroviaire.


¹ Comité d’orientation de la recherche et de l’innovation de la filière ferroviaire

Avec sa Chrysalis, Earthwake transforme les déchets plastiques en carburants

Cofondée en 2015 par l’ex-directeur général d’Action contre la Faim François Danel et le comédien Samuel Le Bihan dans le but de lutter contre la pollution plastique, l’association Earthwake a donné naissance, cinq ans plus tard, à une seconde entité : Earthwake Entreprise. Destinée à industrialiser une solution mise au point par l’inventeur Christofer Costes, l’entreprise a abouti il y a peu à la création d’un équipement, la Chrysalis V300, permettant de transformer 300 kilos de déchets plastiques par jour en autant de litres de carburant. Autoalimenté par le gaz qu’il produit, le dispositif émet jusqu’à 75 % de gaz à effet de serre en moins par rapport à la production de carburants directement à partir de pétrole. Un atout complémentaire de la lutte contre la pollution plastique, fléau contre lequel Earthwake entend lutter en apportant cette solution conteneurisée au plus près des zones polluées, comme l’explique François Danel, directeur général d’Earthwake.

Techniques de l’Ingénieur : Earthwake est née sous une forme associative. Comment et pourquoi une seconde entité, Earthwake Entreprise, a-t-elle ensuite vu le jour ?

François Danel. ©Earthwake

François Danel : Earthwake a effectivement été fondée en 2015 sous la forme d’une association, par Samuel Le Bihan et moi-même. Notre objectif était alors de trouver des solutions concrètes pour lutter contre la pollution plastique. Nous avons découvert la pyrolyse en rencontrant Christofer Costes, qui avait inventé, de son côté, un prototype de pyrolyseur. Nous avons alors eu l’idée de le soutenir. Depuis 2015, plusieurs prototypes de pyrolyseurs ont ainsi été mis au point. Le premier a été présenté en 2018 à Antibes et permettait de valoriser un kilo de déchets plastiques à la fois, pour une production d’un litre de carburant. Ensuite, en 2020, un autre prototype fonctionnant en batch¹ s’est quant à lui révélé capable de valoriser 40 kilos de déchets plastiques par jour. C’est ce prototype qui alimente le projet-pilote que nous avons mis en place dans la ville de Puget-Théniers (Alpes-Maritimes), destiné à fournir le carburant des bennes de collecte des déchets de la communauté de communes. À partir de 2020, mais plus concrètement encore en 2021, nous avons décidé de créer Earthwake Entreprise, afin de véritablement accélérer le développement technologique et industriel de la solution. Depuis la création de cette seconde entité, les équipes techniques situées dans le Vaucluse travaillent sur un modèle, la « Chrysalis V300 », permettant de valoriser 300 kilos de déchets plastiques par jour, avec toujours le même rendement d’un litre de carburant environ pour un kilo de déchets plastiques en entrée.

À quoi ressemble ce modèle ?

Il s’agit d’une machine composée de quatre conteneurs, qui constituent véritablement une unité complète de valorisation de déchets plastiques. Elle comprend en effet à la fois les étapes de broyage des matières plastiques en amont, le réacteur de pyrolyse en tant que tel, mais aussi les dispositifs de stockage du gaz réutilisé pour alimenter la machine ainsi que des différents carburants. Les équipes travaillent toujours sur l’optimisation de cet équipement, dont les premiers exemplaires devraient sortir au second semestre 2022. Nous avons en effet déjà reçu, en 2021, trois précommandes. La deuxième partie de cette année va donc être consacrée à la fabrication de ces trois premières machines, avant de vraiment lancer la commercialisation et de pouvoir augmenter la capacité de production à partir de 2023.

Composée de quatre conteneurs, la Chrysalis V300 regroupe les étapes de broyage des déchets, de pyrolyse et de stockage du gaz produit et réutilisé lors de la réaction. ©Earthwake

Vous évoquez la réutilisation du gaz produit pour alimenter la machine, qui serait en quelque sorte « autosuffisante ». Comment cela est-il possible ?

Comme je l’évoquais, l’un des conteneurs – le troisième – est entièrement dédié au stockage du gaz produit par la réaction, que l’on réutilise pour alimenter le réacteur de pyrolyse. La machine est donc autonome en énergie de chauffe du réacteur. Il faut simplement utiliser un peu de gaz pour lancer le premier cycle. Le gaz est ensuite entièrement réutilisé, il n’y a pas besoin de rajout.

Quel est le bilan carbone de cette solution ?

Nous avons réalisé une analyse de cycle de vie (ACV), qui a démontré que, par rapport à la production de carburants par extraction fossile, la production via notre équipement émet jusqu’à 75 % de gaz à effet de serre en moins.

Quelles sont les matières plastiques pouvant servir à alimenter le process ?

L’un des grands avantages de la pyrolyse est qu’elle permet de valoriser différents types de plastiques, tant les matières rigides que les films souples. On peut ainsi traiter aussi bien du polypropylène que du polyéthylène haute densité (bouteilles de lait, flacons de produits ménagers… NDLR) ou basse densité (sacs poubelles, cabas… NDLR).

Comment, après pyrolyse des matières plastiques, du carburant peut-il être obtenu ?

Le réacteur de pyrolyse est, en fait, couplé à une colonne de distillation, dans laquelle est réalisée une séparation de différents produits, notamment du gazole et de l’essence. Dans le quatrième conteneur, on trouve ainsi les différentes cuves de stockage dédiées. On obtient en sortie environ 65 % de carburant pour moteur diesel et 15 % d’essence. Nous valorisons essentiellement la fraction diesel, qui est beaucoup plus facile à réutiliser. Nous avons réalisé des tests et ce carburant se révèle vraiment de bonne qualité. On peut l’utiliser par exemple à 100 % dans des groupes électrogènes ou d’autres équipements dotés de moteurs « rustiques ». Dans des moteurs récents, de type véhicules, on l’utilise en mélange avec du carburant standard. Pour l’essence, on ne peut pour l’instant pas l’utiliser dans des moteurs de voitures, mais c’est possible pour des groupes électrogènes.

Combien une machine telle que la « Chrysalis V300 » coûte-t-elle ?

La machine sera commercialisée 400 k€. Au-delà du coût de l’unité, nous avons également réalisé des estimations sur le nombre d’emplois qui seront créés : deux personnes seront nécessaires pour faire fonctionner la machine, à temps plein. Nous prévoyons aussi des prestations additionnelles, à la fois d’installation de la machine par les équipes d’Earthwake, de formation des futurs opérateurs et de maintenance des équipements après leur mise en route.

Envisagez-vous éventuellement de développer par la suite des unités aux capacités plus importantes ?

En parallèle de la production des trois premières V300, nous allons lancer cette année une phase de R&D sur une machine plus capacitaire, qui, elle, serait capable de valoriser 900 kilos de déchets plastiques par jour. Toujours en gardant l’idée d’unités relativement petites, facilement installables et déplaçables, nous cherchons effectivement à augmenter leurs capacités. C’est une demande de certains clients, notamment les collectivités, qui ont un gisement de déchets plastiques conséquent et pour qui 300 kg par jour ne serait pas suffisant pour absorber le flux.

Pour ce type de client que sont les collectivités, comment votre offre se positionne-t-elle face à d’autres solutions telles que le recyclage mécanique des plastiques ?

Notre machine se veut vraiment une solution complémentaire aux filières conventionnelles de recyclage par voie mécanique. Les collectivités sont confrontées à une augmentation des taxes qui fait grimper les coûts de l’enfouissement et de l’incinération. Elles essaient donc de diversifier leurs solutions de recyclage.

Sur quels marchés comptez-vous proposer votre solution de valorisation des plastiques ?

Notre première machine va partir au Guyana, un pays d’Amérique latine, la deuxième en Tunisie. Nous avons des sollicitations en France également, mais l’idée est aussi d’installer nos machines là où il y a une pollution plastique importante. Nous sommes également sollicités par des territoires insulaires ou isolés qui ont des difficultés d’accès à l’énergie. La solution peut aussi être intéressante dans ce cadre-là.

Qu’est-ce qui fait la spécificité de votre solution, face à d’autres projets de valorisation ou de recyclage des plastiques par pyrolyse ?

Par rapport à d’autres unités de pyrolyse à l’échelle industrielle, notre objectif est de proposer un équipement de taille plutôt réduite, intégrable dans des conteneurs répondant aux standards de transport maritime, afin que l’on puisse facilement les envoyer et les installer sur site. Par rapport à d’autres équipements, un des avantages de la technologie d’Earthwake est qu’elle permet d’obtenir en sortie un carburant de bonne qualité, qui ne nécessite pas d’être traité en raffinerie, ni d’être additivé. D’autres acteurs de la pyrolyse que nous avons identifiés obtiennent, eux, en sortie, un produit comparable à un fioul lourd, qui n’est pas directement exploitable.

___________________________________________________

¹ Traitement par lots

Intelligence artificielle : l’Europe ne fait pas le poids face aux Américains et Chinois

L’intelligence artificielle n’est donc plus un buzz word ! L’IA est une réalité pour les entreprises et ce sera encore plus le cas dans les prochaines années. Selon un rapport d’IDC publié en mars 2022, les recettes mondiales du marché de l’intelligence artificielle (IA), y compris les logiciels, le matériel et les services, devraient augmenter de 19,6 % (en glissement annuel) en 2022 pour atteindre 432,8 milliards de dollars.

Mais l’Europe et la France n’en récolteront-elles que des miettes ? C’est ce que laisse à penser une note du think tank SKEMA PUBLIKA et intitulée : « L’intelligence artificielle : un sujet politique ».

Publié à l’occasion du « World Artificial Intelligence Cannes Festival », qui s’est tenu à Cannes le 14 avril dernier, ce document s’appuie sur le rapport « L’intelligence artificielle : technologies et acteurs clés » (Édition 2022), rédigé par Ludovic Dibiaggio (SKEMA Business School), Mohamed Keita (data scientist) et Lionel Nesta (Observatoire français des conjonctures économiques à Sciences Po).

Aucune entreprise française dans le top 20 mondial

Principal constat, sur les 30 dernières années, le trio de tête des pays qui ont le plus déposé de brevets est composé des États-Unis (30 %), de la Chine (26 %) et du Japon (12 %). La France arrive loin derrière avec 2,4 %. L’Allemagne et le Royaume-Uni faisant mieux, respectivement 5 % et 2,5 %.

Concernant les entreprises propriétaires de brevets IA sur cette même période, IBM est le leader incontesté avec presque 16 000 brevets. En seconde position, on retrouve Intel avec plus de 14 000 brevets. Samsung, le géant coréen de l’électronique, est classé troisième avec 13 243 brevets, suivi de l’américain Microsoft et du japonais NEC.

Dans le top 20 des acteurs les plus importants de l’IA, on trouve cinq Américains (les trois précédemment cités ainsi que Google et Ford), deux Coréens (Samsung et LG Group), deux Chinois (State Grid Corporation of China et Huawei), un Allemand (Siemens) et un Néerlandais (Philips).

Aucune entreprise française ne figure dans ce classement mondial des acteurs privés. Thalès, qui est la première entreprise française en nombre de brevets, est classé en 37e position mondiale avec presque 3 000 brevets. C’est cependant le quatrième acteur privé européen, très loin des 7 576 brevets de Siemens et l’Allemand Bosch.

IA, brevets et inventions par les 20 acteurs privés européens principaux
Les 20 acteurs privés européens principaux. Sources : PATSTAT (édition octobre 2020, calculs des auteurs) et SKEMA PUBLIKA

Les neuf autres acteurs présents dans ce top 20 sont japonais. « Les entreprises asiatiques (en particulier celles du Japon) se positionnent comme des acteurs très importants de l’IA, allant même jusqu’à faire de l’ombre aux GAFAM. En effet, si Microsoft et Google sont présents dans ce top 20, il faut aller jusqu’à la 27e place pour retrouver Apple, tandis que Amazon et Facebook se trouvent respectivement à la 42e et 49e place », indiquent les auteurs de ce rapport.

« En termes de spécialisations IA et de part de marché, la France n’apparaît jamais en situation de consolidation de position dominante mondiale, sur aucun des secteurs de la chaîne de valeur liant les sciences aux applications IA. Elle semblait prometteuse sur les techniques liées aux réseaux de neurones, ou dans le domaine des transports, mais sans gain de part de marché depuis les années 2010 », lit-on dans cette note.

La France se concentre autour de l’innovation dans les techniques de systèmes experts, de modèles graphiques probabilistes et d’apprentissage des règles. « La France affiche des faiblesses importantes dans l’apprentissage profond, la logique floue, et dans l’apprentissage par renforcement. Elle est en perte de vitesse par rapport à ses concurrents sur le segment de l’apprentissage automatique », indique SKEMA PUBLIKA.

D’ici 2025, la France a prévu de consacrer 2,22 milliards d’euros à l’IA, dont 1,5 milliard d’euros de financements publics et 506 millions d’euros de cofinancements privés.

Interview DEMETA : un Poly-DCPD sans odeur pour l’industrie automobile

DEMETA est une société française de chimie verte créée en 2011. Cette spin-off de l’université de chimie de Rennes utilise son savoir-faire en catalyse pour la synthèse de produits de chimie fine et de polymères techniques comme le NexTene™.

Techniques de l’ingénieur : NexTene™ est présentée comme une résine haute-performance. Pouvez-vous nous en dire plus à son sujet ?

Ralph HEDEL est directeur commercial de DEMETA (crédit : DEMETA)

Ralph HEDEL : La résine NexTene™ que nous commercialisons est une nouvelle famille de polymères. Elle est composée de poly-DCPD, un matériau qui combine les avantages des thermoplastiques, des thermodurcissables et des fluoropolymères.

Son développement a pu être accéléré grâce au programme EIC Accelerator 2020 (du Fonds du Conseil européen de l’innovation) qui nous a permis de bénéficier d’un financement mixte de 4,8 millions d’euros. Nous sommes d’autant plus ravis d’avoir été choisis que ce programme est très sélectif : seulement 75 projets ont été retenus sur les 1 850 entreprises européennes postulantes.

Nous travaillons actuellement avec H+S Automotive pour développer des cadres de toit ouvrant pour voiture. Pour cette entreprise allemande du secteur automobile qui possède une expérience des procédés de mise en œuvre du p-DCPD, ce matériau était ainsi un choix logique.

Pourquoi le p-DCPD est-il un matériau intéressant pour les applications automobiles ?

Le p-DCPD possède une résistance élevée et supporte des sollicitations importantes, mais il a également l’avantage d’être extrêmement léger, avec une densité de 1,03, soit 15 % à 20 % plus léger que les matériaux conventionnels tels que époxy, polyesters ou polyuréthane. Compte tenu du malus au poids qui touche les véhicules lourds et du malus CO2, les constructeurs cherchent désormais à alléger les véhicules.

Ainsi, un cadre de toit ouvrant fabriqué avec NexTene™ ne pèse plus que 900 g, contre 1,8 kg auparavant pour un cadre d’acier, ce qui a un impact positif sur la consommation de carburant. Par ailleurs, ce gain de poids est d’autant plus important que la pièce est située sur le toit du véhicule, ce qui permet d’améliorer la stabilité dans les courbes à haute vitesse et d’améliorer le confort des passagers.

Quel était le point de départ de cette collaboration avec H+S Automotive ?

Si le p-DCPD est un matériau fantastique du point de vue de ses performances mécaniques et thermiques, il a l’inconvénient de dégager une odeur très particulière.

Cette odeur, bien qu’elle ne soit pas le signe d’une dangerosité quelconque, demeure perceptible par le cerveau humain à des niveaux de concentration très faible. C’est donc à cause de cette caractéristique que ce matériau a jusqu’ici été banni des intérieurs de véhicules.

Après avoir découvert les nombreux avantages du p-DCPD, l’un des clients de H+S Automotive nous a ainsi sollicités afin de mettre au point un système permettant de produire des pièces en p-DCPD sans odeur.

Avez-vous réussi à surmonter ce problème d’odeur ?

Au cours de ce projet, de nombreux essais ont été réalisés et caractérisés. Les différentes formulations ont été testées par un laboratoire accrédité, qui a suivi des protocoles de tests très stricts.

Le protocole VDA 270, permettant la détection des caractéristiques olfactives, consistait à faire sentir le produit par un panel de nez humains chargés de fournir une évaluation sur le niveau d’odeur. Après deux ans de travaux et de multiples échantillonnages, nous avons ainsi trouvé la formulation permettant de réduire les odeurs à un niveau acceptable.

Suite à ces essais concluants, nous sommes donc passés à l’étape suivante, c’est-à-dire la fabrication de pièces à échelle industrielle réelle. Ces pièces ont ensuite été soumises à nouveau au protocole VDA 270, ce qui a amorcé la commande de préséries.

Nous sommes actuellement à la quatrième étape de validation. Celle-ci consiste à tester le produit sur 200 véhicules qui ont commencé leurs essais de mise à la route pour 6 mois.

Travaillez-vous sur d’autres applications du p-DCPD ?

À la suite de ces travaux, nous allons maintenant proposer ce produit à certains de nos clients traditionnels. Le p-DCPD s’adresse principalement à des petites et moyennes séries de pièces de carrosserie. Ce nouveau grade sera un matériau très utile pour fabriquer des intérieurs de cabine et des pavillons de toit à destination de machines agricoles, de camions ou d’engins de chantier, de façon très économique.

Un pilote industriel pour recycler les aimants usagés à base de terres rares et en fabriquer de nouveaux

Les terres rares, en particulier le néodyme et le dysprosium, entrent dans la composition des aimants et sont répertoriées comme des matières premières critiques pour des raisons à la fois techniques et géopolitiques. Ces aimants sont présents dans de nombreux objets de notre vie quotidienne : moteurs, générateurs, pompes, équipements médicaux, électroniques… En Europe, ils sont presque totalement importés depuis la chine, ce qui pose d’importants problèmes d’autonomie. Face à cette situation, la start-up MagREEsource a développé une technologie pour recycler les aimants usagés et en fabriquer de nouveaux. Son ambition est de participer à la sécurisation de l’approvisionnement en métaux critiques en Europe et réindustrialiser la fabrication d’aimants sur le territoire français. Entretien avec Erick Petit, le cofondateur et CEO de cette entreprise implantée à Grenoble.

Techniques de l’Ingénieur : Pourquoi est-il important de relocaliser la fabrication des aimants ?

Erick Petit, cofondateur et CEO de MagREEsource. Crédit : MagREEsource

Erick Petit : L’Europe importe actuellement plus de 95 % de ses aimants, qui sont composés d’environ 70 % de fer et 30 % de terres rares (néodyme, dysprosium, praséodyme…). Aujourd’hui, il y a un monopole chinois non seulement dans l’extraction de terres rares, mais aussi dans la fabrication de ces aimants. Pour des raisons de souveraineté, il est crucial de relocaliser cette production.

En plus, on assiste à une explosion de la demande liée à la nécessité de décarboner l’économie et l’électrification d’un grand nombre d’équipements, qui contiennent tous des aimants. Par exemple, entre 2020 et 2030, les prévisions tablent sur une multiplication par 12 de la production de voitures électriques et par 4,5 des éoliennes. Les aimants sont aussi un enjeu dans certains secteurs sensibles comme la défense et la fabrication notamment de sous-marins nucléaires ou de Rafales. Face à cette demande en forte croissance, il y a un risque de pénurie puisque les capacités d’extraction minière sont aujourd’hui insuffisantes. Il serait possible d’ouvrir de nouvelles mines, mais cela prend plusieurs des années. En l’absence de production européenne de terres rares, la seule solution afin d’atteindre une souveraineté est de recycler les aimants usagés, qui eux sont une ressource abondante.

Quelles technologies utilisez-vous pour les recycler ?

Les alliages à base de terres rares ont des propriétés très spécifiques et ont la particularité de présenter des points de fragilités en présence de l’hydrogène. Nous utilisons un procédé appelé la décrépitation à l’hydrogène, qui consiste à injecter cette molécule au niveau des joints de grain afin de casser cet alliage et transformer cet élément solide en poudre. Son avantage est que chacune des particules de poudre conserve une composition et une microstructure identiques à celles d’origine. Le brevet de ce procédé est public et est même utilisé par les Chinois dans leurs processus industriels.

Afin d’optimiser les propriétés magnétiques de cette poudre, nous utilisons en plus une technologie développée pour l’Institut Néel, un laboratoire du CNRS, afin d’absorber l’hydrogène injecté. Ce procédé est breveté et nous en avons la licence exclusive, mais je préfère ne pas trop le dévoiler, car nous développons en ce moment des équipements dans le but de préindustrialiser cette technologie.

De la poudre d’aimant grossière. Crédit : MagREEsource

Quels types d’aimants fabriquez-vous ?

Grâce à un procédé de frittage, nous fabriquons des aimants massifs 100 % métalliques possédant des performances magnétiques importantes. Il nécessite l’emploi d’une presse et d’un four et est la technique la plus utilisée dans la conception des aimants.

Nous en fabriquons aussi par injection, en mélangeant la poudre d’aimant avec un polymère, que l’on injecte ensuite dans un moule. Ces aimants ont des performances magnétiques moins élevées, mais permettent de concevoir des formes complexes. Ils sont par exemple utilisés dans la fabrication de petits moteurs électriques, de capteurs…

Enfin, nous développons en interne un troisième procédé à l’aide d’une nouvelle technologie de fabrication additive dans le but d’obtenir des aimants 100 % métalliques aux propriétés magnétiques élevées, et permettant de créer des formes complexes. Il est encore à un stade de R&D.

Quelle est la principale différence entre votre procédé de fabrication et ceux traditionnellement utilisés ?

Nous fonctionnons en boucle courte, c’est-à-dire qu’à partir de la poudre recyclée, nous avons l’avantage de pouvoir directement la transformer en aimants. Lorsque ceux-ci sont fabriqués à partir de minerais extraits d’une mine, les étapes de fabrication sont nombreuses et longues. Il y a d’abord la voie chimique qui nécessite l’emploi d’importants volumes d’acides pour transformer le minerai en oxyde de terre rare. Ensuite, intervient la voie métallurgique avec une phase de réduction pour obtenir le métal, puis la fonderie pour concevoir un alliage, à partir duquel on obtient une poudre d’aimant.

À quel stade de développement se trouve votre projet ?

Aujourd’hui, nous disposons d’un pilote de laboratoire capable de recycler des aimants usagés et d’en fabriquer de nouveaux avec une capacité de production d’environ une tonne par an. En septembre, nous allons mettre en service un pilote industriel d’une capacité de 50 tonnes avec la commercialisation des aimants fabriqués. Nous finalisons en ce moment la partie réglementaire qui prend du temps, car en plus de l’hydrogène, la poudre d’aimant présente des propriétés pyrophoriques(1) . Cette mini-usine, qui emploiera 35 personnes, ne sera pas totalement automatisée et va nous permettre de poursuivre notre travail de R&D. En 2025, nous avons l’objectif de construire une plus grande usine d’une capacité de 500 tonnes.

___________________________________________________

(1) Qui s’enflamme spontanément à l’air ou donne des étincelles par léger frottement (source : Larousse)

Haffner Energy : « Notre solution va permettre d’accélérer très fortement le cours de l’Histoire »

Embryonnaire il y a une douzaine d’années, le procédé Hynoca développé par Haffner Energy est aujourd’hui mature, et a abouti au dépôt de près de 80 brevets. La possibilité de produire de l’hydrogène « carbone négatif » à partir de biomasse a dans un premier temps été testée à Vitry-le-François (Marne), dans le cadre du pilote VitrHydrogène, puis démontrée à l’échelle industrielle à Strasbourg (Bas-Rhin), dans le cadre du projet R-Hynoca, dont les premiers essais ont eu lieu mi-2021. Introduite en bourse le 15 février dernier, Haffner Energy ambitionne désormais de déployer largement sa solution, qu’elle considère comme une technologie de rupture. D’ores et déjà compétitive face à l’électrolyse, la technologie Hynoca pourrait se révéler un atout clé pour aider la France et l’Europe à conquérir leur indépendance énergétique, comme l’estime Philippe Haffner, cofondateur et PDG d’Haffner Energy.

Philippe et Marc Haffner, cofondateurs d’Haffner Energy. © Haffner Energy

Techniques de l’Ingénieur : Quel est l’historique d’Haffner Energy ? Pouvez-vous présenter l’entreprise en quelques chiffres ?

Philippe Haffner : Haffner Energy n’est pas du tout une entreprise récente. Elle est issue du bureau d’études Soten, une entreprise familiale dont les actionnaires étaient les mêmes que ceux que nous avons encore aujourd’hui, c’est-à-dire mon frère Marc et moi-même. Nous avons commencé en 1993. C’est cette ancienneté qui nous permet d’avoir aujourd’hui un positionnement unique. Nous avons commencé à travailler au développement de notre procédé il y a maintenant douze ans. Nous avons réalisé le dépôt de nos premiers brevets en 2015. Nous avons aujourd’hui quinze familles de brevets, qui correspondent à peu près à 80 brevets internationaux. Nous avons un carnet de commandes de plus de 30 millions d’euros et un portefeuille clients proche de 200 millions d’euros.

Quel est le principe de la technologie que vous avez mise au point ?

C’est une technologie entièrement propriétaire, protégée par ses brevets, et qui est unique au monde. Nous n’avons en tout cas jamais identifié de solution alternative à la nôtre qui fasse ce que nous faisons, c’est-à-dire de l’hydrogène à partir de biomasse, tout en assurant une capture de carbone. La proposition de valeur que nous avons s’incarne dans le module Hynoca(1). Ce module est constitué de trois conteneurs, des skids(2), en format 40 pieds, ce qui nous permet d’avoir un produit standardisé. Ce système peut tourner 8 000 heures par an, contrairement aux électrolyseurs qui ont un facteur de charge réduit, lié à l’intermittence des énergies renouvelables. Hynoca permet de produire soit de l’hydrogène, soit de l’hypergaz, un gaz précurseur de l’hydrogène qui remplace avantageusement le gaz naturel. Les process mis en œuvre sont autonomes, ne demandent pas de raccordement électrique puissant, et peuvent tourner sans présence humaine permanente. On peut aller de 360 kg/j, jusqu’à 30 t/j de production d’hydrogène, soit quasiment l’équivalent d’un électrolyseur de 200 MW.

Le principe de base de la technologie consiste à chauffer de la biomasse – végétaux, fumiers, ou d’autres déchets organiques – à une température de 500°C. Cela va nous permettre de dissocier un flux gazeux et un flux solide. Le flux gazeux est de nouveau chauffé, à une température supérieure à 1 000°C, ce qui permet de produire des molécules élémentaires qui sont quasiment les mêmes que celles produites à l’aide de procédés fonctionnant à partir d’énergies fossiles, qui sont les SMR(3). Notre procédé est quant à lui un SBR : steam biomass reforming (reformage de biomasse à la vapeur). Cela se ressemble beaucoup, mais ça n’est finalement pas étonnant : tous les précurseurs des énergies fossiles étaient de la biomasse ; une biomasse qui a été enfouie sous terre et remaniée au fil du temps pour donner du charbon, du pétrole ou du gaz naturel.

Nous avons donc un gaz composé de molécules élémentaires, qui va être purifié avec des équipements conventionnels sur étagère issus de la production d’hydrogène par les énergies fossiles, pour obtenir finalement de l’hydrogène, utilisable pour la mobilité ou l’industrie.

On peut aussi dériver le gaz avant la phase finale de purification pour l’utiliser en industrie ou faire de l’électricité à la demande. L’avantage de ce gaz est qu’il est moins cher que le gaz naturel, tout en étant complètement décarboné.

Outre les molécules gazeuses, le procédé produit également du biochar, un substrat solide composé essentiellement de carbone. Ce carbone a une propriété particulière : il est extrêmement poreux. Il possède en effet une surface spécifique(4) de l’ordre de 200 à 300 mètres carrés par gramme. Cela permet d’exploiter ce produit comme fertilisant pour les terres agricoles. En faisant cela, on constitue un puits de carbone quasiment définitif et surtout très puissant. On retire en effet de l’atmosphère 15 kg de CO2 pour chaque kilo d’hydrogène produit, ce qui est considérable.

Grâce au biochar qu’il permet de produire, le procédé Hynoca mis au point par Haffner se révèle particulièrement pertinent d’un point de vue climatique. © Haffner Energy

Quel est justement le bilan environnemental précis de votre solution ?

Le grand intérêt de produire de l’hydrogène à partir de biomasse est climatique. Les vertus climatiques de notre solution tiennent avant tout à la production de biochar que j’évoquais. Nous avons fait réaliser une analyse de cycle de vie (ACV) par un organisme externe, qui a démontré que nous étions « carbone négatif » à hauteur de 12 kg de CO2 capturés par kilo d’hydrogène produit. Je parlais de 15 kg tout à l’heure, il s’agit d’une valeur instantanée. Ces 12 kg sont calculés sur tout le cycle de production. On intègre non seulement le bilan instantané, mais également la fabrication des équipements, leur recyclage, le carburant utilisé par les camions de transport de la biomasse, etc. : tout est pris en compte. Pour l’électrolyse, le bilan carbone reste positif, il reste toujours des émissions de carbone, contrairement à notre procédé, même si elles sont évidemment bien inférieures à la production d’hydrogène par les énergies fossiles.

Où le coût de votre solution se situe-t-il par rapport à d’autres technologies de production d’hydrogène ?

Avec des coûts de l’énergie inférieurs à ceux d’aujourd’hui – les prix de l’électricité ayant très fortement augmenté à cause de la crise russo-ukrainienne – soit 55 € par MWh, nous avions évalué que notre procédé était déjà deux fois moins coûteux que l’électrolyse, quelles que soient les quantités d’hydrogène produites. Nous sommes d’ores et déjà compétitifs vis-à-vis des énergies fossiles, et cela alors que nous avions un gaz à 30 € le MWh, contre plus de 100 € aujourd’hui. Nous avons donc un avantage économique très important par rapport aux solutions alternatives, notamment l’électrolyse de l’eau. Un fait important est que le prix de la biomasse est très stable, malgré la volatilité du pétrole ou du gaz. De plus, le prix du biochar augmente quant à lui en fonction du prix des engrais, qui a explosé récemment. Or, plus le biochar est cher, plus notre coût de production d’hydrogène baisse. De façon assez paradoxale, contre-intuitive, plus le coût des autres énergies sera élevé, plus le coût de notre hydrogène sera bas.

Le gisement de biomasse disponible ne pourrait-il pas se révéler un facteur limitant à la production d’hydrogène via votre procédé ?

C’est une question que l’on nous pose souvent : aura-t-on assez de biomasse pour produire l’hydrogène dont on aura besoin ?… Eh bien, si l’on se base sur notre plan de développement très ambitieux, qui nous amène à un chiffre d’affaires en 2026 de plus de 250 M€, et que l’on poursuit cette même croissance jusqu’à 2030, nous n’utiliserions alors à cet horizon qu’environ 1 % de la biomasse collectable et non affectée par une concurrence d’usage en France. Cela signifie donc qu’aujourd’hui, la biomasse n’est absolument pas un enjeu pour le procédé Hynoca. Nous pouvons en effet utiliser toutes les biomasses possibles et imaginables : paille, rafles de maïs, résidus verts, fumiers ou lisiers séchés, pulpes de betteraves, anas(5) de lin, grignons(6) d’olives, sarments de vigne, ou encore souches et écorces. C’est une grosse différence par rapport à d’autres procédés tels que la méthanisation.

Quel est, aujourd’hui, le degré de maturité de votre technologie ?

Nous avons fait appel à un bureau de certification norvégien pour valider la maturité, mais aussi la sécurité et les performances de la technologie. Cet organisme a donné une note de 7/8 sur l’échelle TRL(7) concernant le degré de maturité de la technologie. Sa sécurité opérationnelle ainsi que son caractère performant et compétitif ont aussi été validés. Nous comptons bien faire partie des grands acteurs de la production de gaz renouvelable. Notre vocation est d’apporter la technologie aux clients. Si, demain, la France décide de remplacer le gaz naturel importé notamment de Russie, nous avons une solution qui peut apporter une réponse massive et rapide. Nous sommes donc prêts, et nous avons d’ailleurs déjà une installation qui tourne.

Débuté en 2019, le projet strasbourgeois R-Hynoca devrait aboutir d’ici quelques mois à la production de 720 kg d’hydrogène par jour. © Haffner Energy

Dites-nous en plus sur cette installation : où se situe-t-elle, de quelles infrastructures se compose-t-elle et quelles sont ses capacités ?

L’installation se situe à Strasbourg, en pleine ville. C’est un point important, car il n’est pas facile d’implanter en ville des installations industrielles conventionnelles, et il serait aussi très compliqué de trouver un point de raccordement au réseau électrique d’une capacité de 5 MW, soit la puissance nécessaire à un électrolyseur de même capacité que notre usine. Elle est en effet capable de produire 720 kg d’hydrogène par jour. Si l’on convertit cela en nombre de véhicules, cela permettrait d’alimenter 1 600 véhicules légers qui parcourraient 15 000 km par an, ou 70 bus, à raison de 40 000 km par an. L’installation de Strasbourg est une structure détenue par R-GDS, une société d’économie mixte elle-même détenue à 50 % par la ville de Strasbourg, 25 % par la Caisse des dépôts et consignations et 25 % par Engie. Nous avons constitué pour l’occasion une société de projet, R-Hynoca(8), dont nous détenons nous-mêmes 15 % du capital. C’est une installation conçue en deux phases. La phase 1 a déjà été réalisée et correspond à peu près à la moitié de la production. Nous n’avons en revanche pas encore obtenu l’autorisation d’exploiter la station d’hydrogène, nous espérons la recevoir dans les semaines à venir. Cette station de distribution sera livrée fin 2022 par McPhy : nous nous occupons uniquement de la production d’hydrogène, qui sort à 30 bars de notre process et qui sera comprimé aux alentours de 700/800 bars pour être distribué. Le début de la distribution de l’hydrogène est prévu dans le courant du premier semestre 2023. Nous produisons pour l’heure du gaz précurseur de l’hydrogène, ce qui nous a permis de tester et de valider la technologie.

Concrètement, l’installation est constituée de conteneurs, que nous avons pour l’heure placés au sol, plutôt que les uns par-dessus les autres comme nous le prévoyons pour nos installations futures. Un module composé de trois conteneurs implique ainsi une emprise au sol de l’ordre de 30 m², ce qui n’est pas énorme, même s’il faut ajouter à cela les dispositifs de purification et la zone de stockage de la biomasse, ainsi que les aires de manœuvre.

L’installation n’est certes pas plus compacte qu’un électrolyseur, mais, en plus de ses autres avantages, il est plus facile d’implanter un Hynoca du fait de l’absence de contrainte de raccordement électrique.

Relativement compacte, l’installation réalisée à Strasbourg est logée dans trois conteneurs, auxquels s’ajoutent un circuit de purification du gaz, une zone de stockage de la biomasse ainsi que des aires de manœuvre pour les engins. © Haffner Energy

Vous aviez également mis en service, en 2019, un pilote, VitrHydrogène. Cette installation est-elle toujours fonctionnelle ?

Ce pilote, implanté à côté de Vitry-le-François, est toujours opérationnel. Aujourd’hui, la majorité de notre équipe R&D étant installée à Strasbourg, il n’est pas exploité, mais on peut tout à fait le remettre en route et il le sera, notamment pour réaliser des essais sur de nouveaux intrants. Historiquement, c’est ce pilote qui nous a permis de valider les grandes briques technologiques que nous utilisons actuellement.

Vous avez réalisé, en début d’année, l’introduction en bourse d’Haffner Energy. Qu’implique cette étape pour votre entreprise ?

Cette introduction en bourse a en effet eu lieu le 15 février et s’est révélée un succès ! C’est une marque de confirmation très forte de la pertinence de notre technologie. Il s’agit d’une opération dont le montant s’élevait à 74 millions d’euros. La valorisation de l’entreprise est ainsi de l’ordre de 360 millions d’euros, ce qui nous positionne d’ores et déjà à des niveaux comparables à des sociétés comme McPhy, le fournisseur français de référence sur l’électrolyse de l’eau. Si nous avons pu être valorisés à ce niveau-là, c’est bien que la solution Hynoca que nous proposons est une alternative extrêmement crédible à l’électrolyse de l’eau, même si elle demeure assez peu connue et peu identifiée par les clients.

Lors de cette introduction en bourse, nous avons réussi à avoir trois partenaires stratégiques : la société HRS, qui fait des stations de distribution d’hydrogène, et qui va ainsi nous permettre de livrer des solutions complètes à nos clients ; Vicat, le plus grand cimentier indépendant français, qui est très intéressé par les solutions de décarbonation, la production de ciment étant très émettrice de CO2 ; et notre troisième partenaire, Eren Industries, une société spécialiste des centrales d’énergies renouvelables.

Notre vocation n’est pas le développement de projets, mais l’industrialisation et la commercialisation de notre technologie, qui constitue une rupture majeure. Elle va d’autant plus changer la donne que nous avons des moyens financiers que nous n’avions pas auparavant. Notre solution va permettre d’accélérer très fortement le cours de l’Histoire, d’autant plus que nous sommes confrontés aujourd’hui aux enjeux de l’indépendance énergétique. En plus de la décarbonation, nos sociétés ont la nécessité presque vitale de gagner leur indépendance énergétique. Il y a aussi un troisième critère important, qui est celui de l’économie circulaire. Le fait d’avoir recours à la biomasse y est très favorable.

Bien évidemment l’électrolyse de l’eau a un rôle massif à jouer, mais son développement sera beaucoup plus long. Il y a toute une infrastructure à mettre en place, dont nous n’avons pas besoin.

___________________________________________________

(1) HYdrogen NO Carbon

(2) Châssis mobile sur lequel peuvent être fixés divers éléments industriels.

(3) Steam Methane Reforming, reformage du méthane à la vapeur

(4) La surface spécifique d’un matériau désigne sa superficie réelle par opposition à sa surface apparente. Elle représente la surface totale par unité de masse et est exprimée en m²/g. (Source : FILAB’)

(5) Fragments de paille récupérés lors du teillage

(6) Sous-produit du processus d’extraction de l’huile d’olive composé des peaux, des résidus de la pulpe et des fragments des noyaux

(7) Technology readiness level

(8) Projet R-Hynoca lancé en 2019, premiers essais de production réalisés au printemps 2021.

Fabriquer des pulls en France grâce à une technologie 3D sans couture écoresponsable

En France, la filière textile s’est fortement délocalisée pour s’implanter en grande partie en Asie. Cette industrie est aujourd’hui considérée comme l’une des plus polluantes au monde. Pour remédier à cette situation, la start-up 3D-Tex a décidé de participer à la relance de la production de textile dans l’Hexagone en ouvrant une nouvelle usine en Bretagne. Son objectif est de renouer avec une fabrication plus vertueuse. L’entreprise mise sur une technologie 3D et sans couture pour être à la fois compétitive et d’un impact limité sur l’environnement. Huit mois après le lancement de sa chaîne de production, le pari est sur le point d’être réussi. Rencontre avec Basile Ricquier, l’un des trois cofondateurs de 3D-Tex.

Les trois cofondateurs de 3D-Tex, avec, de gauche à droite : Gwendal Michel, Marc Sabardeil et Basile Ricquier. Crédit 3D-Tex

Techniques de l’Ingénieur : Quel a été le point de départ de la création de votre entreprise ?

Basile Ricquier : Nous avons souhaité développer une industrie textile plus vertueuse, et pour atteindre cet objectif, nous avons dû répondre à plusieurs enjeux. Sur le plan économique, nous voulions relocaliser la production tout en restant compétitifs. Pour y parvenir, nous avons entièrement automatisé les étapes de la fabrication de nos pièces de prêt-à-porter, qui sont habituellement réalisées manuellement et sont très chronophages. Grâce à cette solution, nous avons réussi à faire des économies sur la main-d’œuvre. Ensuite, sur le plan environnemental, nous utilisons une technique de fabrication sans couture qui nous permet de réduire au maximum nos déchets. Les chutes générées par l’industrie textile représentent traditionnellement environ 20 % de la matière première utilisée. Nous sommes parvenus à diviser ce chiffre par 10, pour le ramener à 2 %. Enfin, sur le plan social, nous voulions redynamiser l’emploi sur notre territoire, à Saint-Malo, là où notre usine est installée.

Quelles technologies utilisez-vous pour concevoir vos produits ?

En amont de la fabrication, nous utilisons un logiciel 3D pour réaliser une modélisation virtuelle de toutes nos nouvelles pièces, avec des essayages sur des avatars, ainsi que la création de jumeaux virtuels, qui ont tous un équivalent physique. Ensuite, intervient une phase de programmation de nos machines à tricoter. Enfin, nous utilisons une technologie mécanique sans couture qui a été inventée il y a une cinquantaine d’années pour fabriquer des gants sans la présence de petites coutures au bout des doigts. Depuis, elle a beaucoup évolué, mais les bases sur lesquelles elle repose sont restées les mêmes. Les machines sont à présent entièrement automatisées, et la vitesse d’exécution s’est énormément améliorée, ce qui nous permet de répondre de manière rapide aux besoins. En France, nous sommes la seule entreprise du textile à avoir entièrement automatisé toute sa production et nous nous interdisons de faire de l’assemblage manuel dans notre usine.

Actuellement, votre usine assemble des pulls ; comment parvenez-vous à les fabriquer sans couture ?

Nous tricotons en même temps l’avant et l’arrière du produit, ainsi que le corps et les deux manches. Nos machines fonctionnent de manière rectiligne, avec un chariot qui se déplace de gauche à droite. Pour schématiser, quand il va dans un sens, il conçoit la rangée de devant, et lorsqu’il repart dans l’autre sens, celle de derrière. Le tricotage commence toujours par le bas du produit, et dans le cas de nos pulls, on commence à tricoter des rangées du bas et on monte progressivement pour former trois tubes : le corps et les deux manches. Dans une fabrication traditionnelle, ces trois panneaux sont assemblés manuellement grâce à des coutures. Chez nous, les trois tubes sont conçus en même temps, et toute la magie de notre technologie est de pouvoir les assembler de manière automatique sans couture. Pour prendre une image, on commence par trois fils, un pour chaque tube, et à la fin on finit par un seul.

L’usine entièrement automatisée de fabrication de pièces de prêt-à-porter abrite actuellement dix machines à tricoter. Crédit 3D-Tex

Quelles sont les perspectives de 3D-Tex ?

Nos perspectives de croissance sont fortes. Notre production a démarré à l’été dernier, et aujourd’hui notre carnet de commandes est déjà complet jusqu’en décembre. Cette année, nous allons fabriquer 50 000 pièces à l’aide de 10 machines à tricoter et notre ambition est de produire 250 000 à 300 000 pièces avec 30 machines d’ici à 2025. Pour cela, nous allons devoir déménager dans une nouvelle usine.

Notre technique de fabrication sans couture intéresse aussi d’autres secteurs que celui du prêt-à-porter, qui est pour nous une première porte d’entrée. Son avantage est qu’elle est capable de concevoir des produits sans point de faiblesse. Si je prends l’exemple des pulls, lorsqu’ils sont fabriqués de manière traditionnelle, ils ont tendance à casser toujours au même endroit, c’est-à-dire au niveau du point d’emmanchure situé sous les aisselles. Ce n’est pas la maille qui casse, mais la couture qui tient la maille. Ce défaut n’existe pas avec nos produits, et notre procédé pourrait servir par exemple à l’industrie automobile pour fabriquer des gaines servant à protéger des câbles électriques dans les voitures. Le secteur médical est aussi un débouché potentiel avec cette fois-ci la fabrication d’orthèses. Le fait que nos produits n’ont pas de couture apporte du confort à des tissus portés au plus près du corps. On pourrait aussi imaginer dans le futur, la fabrication d’artères, sous la forme par exemple d’ogives servant à la reconstruction mammaire, à l’aide de fils biosourcés.

Projet MMAtwo : la dépolymérisation du PMMA, bientôt à l’échelle industrielle

ECOLOGIC est un éco-organisme français en charge de la collecte, la dépollution et la valorisation des DEEE sur le territoire français.

Robin Ronceray est Ingénieur Études Techniques et R&D chez Ecologic (Crédit : Ecologic)

Depuis 2018, ECOLOGIC contribue au projet européen MMAtwo, dont l’objectif principal est la construction d’une nouvelle chaîne de valeur du PMMA et notamment la relocalisation du recyclage par dépolymérisation en Europe.

Ce projet vise en particulier à garantir l’approvisionnement d’unités de recyclage avec au moins 27 000 tonnes de rebuts de production en PMMA et de produits en fin de vie.

MMAtwo fait partie du programme H2020 (n°820687). Il est financé à hauteur de 6,6 M€ sur un montant total de 8,9 M€ et le consortium est composé de 16 partenaires issus de 7 pays européens.

Le consortium du projet MMAtwo (crédit : MMAtwo)

Techniques de l’Ingénieur : Quel est le rôle joué par ECOLOGIC dans le projet MMAtwo ?

Robin RONCERAY : MMAtwo est divisé en 7 groupes de travail. En tant qu’éco-organisme, Ecologic intervient dans le work package 1 (WP1) intitulé « Collecte des déchets et prétraitement ». Notre rôle est ainsi d’évaluer le gisement de PMMA disponible, aussi bien en qualité qu’en quantité. Nous avons notamment été amenés à chiffrer le potentiel de PMMA issu des DEEE en Europe.

Rôle de chaque partenaire du projet MMAtwo (Crédit : MMAtwo)
Les 7 work packages du projet MMAtwo (crédit : MMAtwo)

Quelles sont les principales sources de PMMA recyclable ?

Hormis les déchets de post-production qui représentent près de 80% du gisement de PMMA disponible, la principale source de PMMA post-consommation vient des DEEE, en particulier des écrans LCD. Le PMMA est ainsi utilisé pour ses propriétés optiques et mécaniques afin de réaliser les dalles des écrans, ce matériau représentant entre 5 et 8 % de la masse d’un écran LCD.

Quelles sont les problématiques associées au démantèlement des écrans ?

L’estimation des gisements, la collecte et le démantèlement des écrans LCD sont des tâches complexes.

Par exemple, le broyage mécanique, la méthode industrielle qui permet de traiter de forts volumes, a des inconvénients. En effet, la densité du PMMA est proche de celle des plastiques qui contiennent des retardateurs de flammes bromés, des additifs polluants qui nécessitent un tri puis une incinération en déchets dangereux. Cela obligerait à utiliser des technologies de détection avancées, comme le proche infrarouge, pour améliorer l’efficacité du tri.

La collecte des écrans en fin de vie est aussi complexe, car le taux de collecte actuel sur les écrans plats ne dépasse pas 30 %, contre 50 % pour la moyenne des DEEE. Nous savons par exemple qu’une partie des écrans échappe à la collecte et repart en Asie, ce qui pose des problèmes de traçabilité et fait chuter le taux de collecte. Par ailleurs, comme c’est le cas pour la plupart des équipements, nous constatons qu’il est difficile de chiffrer la durée de vie des écrans, ce qui est une source d’incertitude.

Quel est le potentiel du gisement de PMMA estimé en Europe pour la dépolymérisation ?

Avec les taux de collecte actuels, nous estimons le gisement européen provenant des écrans LCD à 10 000 tonnes de PMMA, dont 2 000 rien que pour la France. Comme le minimum de PMMA nécessaire au démarrage de l’usine de dépolymérisation est de 27 000 tonnes, le gisement actuel présente donc un potentiel majeur.

Mis à part les écrans LCD, d’autres gisements de PMMA existent, mais ils sont plus complexes à exploiter. Par ailleurs, l’absence d’une technologie capable de traiter les plastiques les plus pollués fait actuellement défaut. Des éléments comme les feux arrière de voiture doivent ainsi être prétraités et triés avant dépolymérisation, car ils contiennent des pigments divers et variés, dont certains peuvent poser problème à cause de leur toxicité.

Il existe aussi des gisements de PMMA hors DEEE, associés à d’autres problématiques. La collecte des panneaux d’affichage ou des barrières COVID dans les commerces par les éco-organismes en charge de la filière REP « ameublement professionnel » pose ainsi des questions logistiques, pour optimiser la massification. Ce sont des pistes étudiées par nos partenaires du work package 1 de MMAtwo.

Le déploiement à l’échelle industrielle est-il pour bientôt ?

En 2021, des campagnes d’essais pilotes ont permis d’obtenir des résultats significatifs concernant la dépolymérisation du PMMA. Plusieurs centaines de kilos de déchets de PMMA ont ainsi été dépolymérisés, avec un rendement jusqu’à 90 % en masse (de polymère à monomère). La pureté du rMMA¹ obtenu approche celle de la matière vierge, puisque chaque impureté identifiée est présente à moins de 0,1 % en masse, et que la pureté totale du MMA régénéré a atteint 99,8 % en masse.

Il a également été démontré que l’installation pilote était capable de fonctionner de manière stable sur de longues périodes.

Le projet se termine fin 2022 et nous sommes en bonne voie pour un déploiement industriel en 2023.

________________________________________________________

¹ Résine de PMMA régénérée après recyclage chimique

Le biocontrôle, « alternative prometteuse » aux pesticides de synthèse

L’Inrae et l’Ifremer viennent de dévoiler les résultats de leur expertise collective Impacts des produits phytopharmaceutiques sur la biodiversité et les services écosystémiques.

Pendant deux ans, 46 experts affiliés à 19 organismes de recherche ont étudié plus de 4 000 références scientifiques issues de la littérature mondiale. Leur première mission : dresser un état des lieux des connaissances sur la contamination des milieux par les produits phytopharmaceutiques – les pesticides qui protègent les plantes contre les « organismes nuisibles » ou luttent contre les mauvaises herbes – et leurs impacts sur la biodiversité. Leur seconde proposition : proposer des leviers d’action pour les atténuer.

Face à une contamination générale, plusieurs pistes d’action

Face à une contamination générale « des milieux terrestres, aquatiques et marins » par les produits phytopharmaceutiques, l’expertise reconnaît une large fragilisation de la biodiversité française. Elle confirme en plus que les produits phytopharmaceutiques jouent un rôle dans le déclin des populations d’invertébrés terrestres et aquatiques, d’oiseaux communs, d’amphibiens et des chauves-souris. L’expertise collective identifie des effets directs aigus ou chroniques, et indirects, sur les individus. Outre les effets directs aigus qui peuvent conduire à la mort rapide des individus, les effets sublétaux perturbent le fonctionnement des organismes. Des études ont aussi montré des impacts négatifs de certains pesticides sur la pollinisation et sur la régulation naturelle des ravageurs.

Pour atténuer les impacts négatifs des produits phytopharmaceutiques, l’Inrae et l’Ifremer se sont penchés sur plusieurs leviers d’action pour limiter partiellement la contamination et ses effets. En plus de voies d’amélioration de la réglementation, les deux instituts proposent des réflexions à l’échelle de la parcelle, du bassin versant ou des caractéristiques du paysage. « Aucun de ces leviers pris indépendamment ne permet de garantir un risque zéro de transfert des pesticides », prévient toutefois Sophie Leenhardt, cheffe de projet à l’Inrae. Il faudra donc tous les actionner.

Le biocontrôle : une voie prometteuse qui nécessite davantage de recherche

La bibliographie scientifique montre que le biocontrôle constitue « une alternative prometteuse », mais « cela dépendra du type de produits utilisés », souligne Sophie Leenhardt. « Le biocontrôle désigne des agents et des produits qui utilisent des mécanismes naturels dans le cadre de la lutte intégrée contre les ennemis des cultures », rappelle la cheffe de projet. Il comprend quatre catégories de produits : des macroorganismes (par exemple des coccinelles), des microorganismes (des virus ou des bactéries), des médiateurs chimiques (des phéromones), et des substances naturelles d’origine minérale, végétale, bactérienne ou animale.

Le biocontrôle se base ainsi sur l’action d’organismes vivants qui se multiplient et se déplacent, mais peuvent coloniser d’autres milieux. L’expertise a donc cherché à évaluer l’impact potentiel de ces produits sur la biodiversité. « Dans l’ensemble, les produits de biocontrôle tendent à être moins persistants dans l’environnement » et à avoir des « impacts plus faibles » que d’autres produits classiquement utilisés, observe Sophie Leenhardt. Mais l’expertise note tout de même la persistance dans l’environnement de certains microorganismes insecticides ou « une écotoxicité équivalente, voire supérieure à celle de certains produits de synthèse », note-t-elle.

Enfin, l’experte rappelle que le biocontrôle entre plutôt dans une optique de régulation des bio-agresseurs que dans leur élimination, comme c’est classiquement le cas avec des produits de synthèse. « On voit que l’on a besoin d’un grand besoin de recherche sur ces produits pour mieux caractériser leur persistance dans l’environnement et leur écotoxicité », conclut Sophie Leenhardt.

Techniques de l’Ingénieur participe une nouvelle fois au salon IoT World + MtoM Embedded 2022

Nous vous l’avions annoncé en février dernier, Techniques de l’Ingénieur s’associe de nouveau avec le salon IoT World 2022 pour sa troisième édition en présentiel, les 29 et 30 juin à Paris- Porte de Versailles.  Nous vous attendons sur le stand B10!

C’est une occasion en or de rencontrer les acteurs et décideurs engagés des marchés de l’IoT, du MtoM, de l’Embarqué, de la Data, du Cloud et de l’IA ! 

Au programme des conférences 

Des forums, avis d’experts et des tables rondes sont organisés tout au long de l’événement sur des sujets précis tels que les surdimensionnements de connectivités ou encore la cybersécurité et la RGPD. De plus, cette année, les conférences sont très orientées vers la 5G et ses enjeux :

  • les coûts de la 5G opérée ou privée, 
  • les impacts de la 5G sur le développement, 
  • la conception et la mise en œuvre des IoT 
  • les alternatives à la 5G. 

Vous trouverez également des conférences sur les aides régionales et nationales ainsi que le recrutement des compétences de l’IoT-MtoM pour encourager les professionnels à se développer davantage vers cette voie.

Enfin, des Master class et des témoignages-projets sont organisés dans le but de renseigner les participants sur les rapports financiers de l’IoT (ROI), sur des expérimentations ou encore des projets inédits dans l’univers de l’Internet des Objets, en France, en 2022, pour les encourager à passer le pas. 

D’autres temps forts 

Ce salon sera ponctué de nombreuses animations comme :

  • le célèbre IoT Awards récompensant des projets sur les thèmes de l’innovation, l’ambition, le high-tech et l’attendu “Prix du Jury”
  • le Highlight your Deeptech, 
  • l’IoT Financing Desk, 
  • l’IoT Legal Desk 
  • les Révélations IoT 360°.   

Retrouvez tout le descriptif du programme de l’événement sur notre précédent article juste ici.

N’hésitez pas également à demander votre badge gratuit sur le site officiel.

Burn-out : l’intelligence artificielle pourrait repérer plus facilement des premiers signes

Selon l’Institut de veille sanitaire, 480 000 personnes en France seraient en détresse psychologique au travail et le burn-out en concernerait 7 %, soit 30 000. Considérée par l’OMS comme un syndrome lié à un stress chronique au travail et non pas une maladie, cette détérioration de la santé psychique n’est pas sans répercussion.

Elle a en effet des impacts forts sur la santé physique. Les personnes en détresse psychologique ont deux fois plus de risque de déclarer un problème somatique. Ainsi, 40 % des personnes interrogées font part de troubles du sommeil (+5 % en un an), selon la 7e édition du baromètre Empreinte Humaine, spécialiste de la prévention des risques psychosociaux, réalisée du 30 avril au 10 mai 2021 auprès de 2 007 personnes.

Des résultats biaisés

L’un des éléments clés de la prévention du burn-out est la rapidité avec laquelle il est détecté et donc traité. Divers signes avant-coureurs, tant émotionnels (irritabilité, émotivité accrue…) que physiques (douleurs et troubles divers, malaises, manque de sommeil), mais aussi des difficultés de concentration et des pertes de mémoire doivent être repérés le plus vite possible pour alerter la personne et son entourage.

Actuellement, ces signaux d’alerte sont détectés via des tests psychologiques dans lesquels les patients remplissent un questionnaire à choix multiples. L’un des plus connus est le « Maslach Burnout Inventory », composé de 22 questions réparties en trois catégories : épuisement professionnel, dépersonnalisation/perte d’empathie et évaluation de la performance personnelle.

Exemple de question-réponse type : « Je me sens à bout à la fin de ma journée de travail : jamais / quelquefois / chaque jour ». Certaines personnes n’osent pas cocher les réponses « jamais » et « chaque jour » ou alors sont tentées de mentir pour influencer les résultats.

L’utilisation de méthodes de traitement du langage naturel (NLP) a le potentiel d’atténuer les limites de cette détection. Mascha Kurpicz-Briki, professeure en ingénierie des données à la Haute École Spécialisée Bernoise à Bienne en Suisse, et son équipe de scientifiques soutenus par le Fonds national suisse (FNS) ont mis au point une méthode basée sur l’analyse automatique de textes.

93% des cas de burn-out ont été détectés

Cette équipe a analysé de façon anonyme des textes issus de Reddit. Il s’agit d’un agrégateur d’actualités sociales, c’est-à-dire un mélange entre une plate-forme de discussion et un diffuseur de liens, qui est divisé en forums, les « subreddits ».

Bien qu’il existe un subreddit dédié au burn-out, le nombre d’entrées a été considéré par les Suisses comme étant trop faible pour fournir un ensemble de données suffisamment volumineux. L’équipe a donc ajouté des textes provenant de forums thématiques variés. Et le résultat a été impressionnant : leur méthode a identifié correctement 93 % des cas de burn-out.

Pour atteindre ce résultat, l’équipe a d’abord classé les extraits de texte récoltés. Ceux des fils de discussion sur le burn-out ont été classés manuellement, afin d’exclure ceux où le burn-out faisait référence à autre chose. Les textes provenant d’autres fils de discussion, non liés à la santé mentale, ont été étiquetés comme n’étant pas liés au burn-out.

Sur la base de ces exemples, elle a entraîné plusieurs modèles. Chacun utilisait différentes configurations pour déterminer si un texte (jamais vu par le modèle) contenait des indications sur le burn-out ou non. Ces modèles ont ensuite été mis en commun dans le cadre de la méthode de diagnostic qui s’est donc révélée très efficace.

L’équipe suisse précise cependant que la collaboration d’experts en IA et d’experts médicaux reste indispensable pour vérifier les conclusions de cette étude sur des cas réels de burn-out et sur un échantillon représentatif de la population.