Les candidatures sont ouvertes pour le concours Ingénieuses 2023

Techniques de l’ingénieur apporte son soutien à la huitième édition du concours Ingénieuses de la CDEFI organisée dans le cadre de l’opération Ingénieuses. Celle-ci sera diffusée en deux temps : 

Premièrement, le lancement d’une campagne de communication nationale qui prône le développement de la mixité des métiers d’ingénieur-e-s. Plusieurs actions sont mises en place, par exemple, le 20 janvier 2023, l’opération participe au séminaire de l’Association pour les femmes dirigeantes de l’enseignement supérieur afin de leur apporter plus de visibilité. Et pour leur donner la parole, sur les enjeux climatiques qui sont la thématique choisie pour cet événement.

Dans un second temps, le concours. Ce défi fait appel à deux catégories de participants, avec d’un côté les projets présentés pas les écoles, et de l’autre, les parcours les plus remarquables d’étudiantes et de femmes ingénieuresÀ l’issue de cette compétition, parmi ces parcours et ces projets, les plus exemplaires seront récompensés.

De plus, depuis 2021, il existe le label Cap Ingénieuses qui vise à mettre en avant les projets déployés par des écoles ingénieur-e-s pour sensibiliser les jeunes, en particulier les femmes, aux métiers scientifiques et technologiques.

L’opération Ingénieuses s’adresse :

Ø  Aux écoles d’ingénieur-e-s accréditées par la CTI (Commission des Titres d’Ingénieur).

Ø  Aux élèves-ingénieures de France et du Maghreb.

Ø  Aux femmes ingénieures en activité.

Les dates à retenir :

  • 08 mars 2023 : Clôture des candidatures.
  • Mars-avril 2023 : Réunion jury.
  • 11 mai 2023 : Cérémonie de remise des prix, en présentiel à Paris.

Plusieurs prix seront décernés lors de cette cérémonie. Le lieu sera communiqué ultérieurement.

Projets :

Le jury sélectionnera les projets les plus innovants, qui favorisent l’inclusion des filles dans les métiers scientifiques et ingénieurs. 

Quatre prix sont à destination des écoles d’ingénieur-e-s, 

  • le projet le plus original, 
  • l’école la plus engagée, 
  • le prix spécial du jury et 
  • le prix cap ingénieuses.

Portraits :

Après réception des portraits, le jury identifiera les portraits des femmes ingénieures pour décerner les prix de : 

  • la femme ingénieure, 
  • la femme ingénieure junior, 
  • l’élève ingénieure France, 
  • l’élève ingénieure Maghreb

Nouveauté 2023 : Il y aura un prix lycéen qui sera remis cette année par un panel de lycéen-ne-s de la région parisienne constitué en jury !

Pour découvrir les projets et les portraits lauréats des années précédentes, rendez-vous sur le site ingénieuses.fr, vous y trouverez toutes les informations sur l’opération Ingénieuses et du concours. 

Si vous souhaitez participer, télécharger le dossier de candidature. Les inscriptions sont ouvertes jusqu’au 8 mars 2023. 

Pour plus d’information, n’hésitez pas à aller sur le site ingénieuses.fr.

Phenix accompagnera la grande distribution vers le label national antigaspi

Le premier label national antigaspi sera opérationnel dès sa publication au journal officiel par décret d’application fin janvier 2023. Prévu par la loi anti-gaspillage pour une économie circulaire (Agec), il récompensera les points de vente les plus performants dans la réduction du gaspillage alimentaire, sur la base d’un audit réalisé par un organisme certificateur agréé, avec un système de notation d’une à trois étoiles.

La start-up Phenix accompagne aujourd’hui 17 000 points de vente, dont 1 500 magasins de grande distribution, dans la lutte contre le gaspillage alimentaire et les met en lien avec des associations caritatives et des structures pour l’alimentation animale. Elle a ainsi sauvé de la poubelle 62 millions de repas en 2022, soit près de 75 tonnes par jour.

La start-up lance un nouveau service d’accompagnement pour les distributeurs afin de les aider à obtenir le label national antigaspi. Son fondateur Jean Moreau nous en dit plus sur ce nouveau label et la manière dont la lutte antigaspi commence à s’imposer dans la grande distribution.

Techniques de l’ingénieur : Qu’est-ce que ce nouveau label et pourquoi était-il nécessaire ?

Jean Moreau, Phenix
Jean Moreau, fondateur de Phenix. Copyright Phenix

Jean Moreau : Le label national antigaspi est un label d’État qui découle de la loi anti-gaspillage pour une économie circulaire, la loi Agec, adoptée en 2020. L’idée était de concrétiser l’engagement des différents acteurs de la grande distribution pour avoir un label de référence certifié par un tiers de confiance qui fasse autorité. Et ce pour identifier et valoriser les magasins impliqués dans une démarche anti-gaspillage concrète avec des résultats tangibles.

Ce label vient compléter la loi Garot qui a mis en place la lutte contre le gaspillage alimentaire dans tous les supermarchés de 400 m² et plus depuis 2016. [Cette loi a rendu obligatoire la conclusion d’une convention de don à des associations pour la reprise de leurs invendus alimentaires encore consommables et l’interdiction pour les distributeurs de rendre impropres à la consommation des invendus encore consommables, NDLR]. Si cette loi a été utile, il y avait encore des attentes sur son application concrète. En particulier, si elle prévoyait 10 000 euros d’amende par infraction constatée, les amendes ne sont pas appliquées.

Au total, le label repose sur 17 critères. Quels sont les plus importants ?

Les critères sont répartis en quatre grandes catégories. Il y a des critères transversaux qui évaluent la performance globale du point de vente en matière de lutte contre le gaspillage, des critères qui portent sur l’approvisionnement, l’achat et la fabrication des denrées alimentaires. Ils s’intéressent notamment à la gestion des stocks, des commandes. Ils vérifient par exemple si le réassort est automatique ou s’il s’adapte à la saisonnalité, à l’historique des ventes, aux vacances scolaires…

Il y a un ensemble de critères qui portent sur la commercialisation des denrées alimentaires et la pédagogie dans les rayons sur les dates de péremption. Enfin, lorsqu’un produit reste invendu, des critères portent sur les pratiques de gestion et de dons aux associations caritatives, ainsi qu’aux structures d’alimentation animale comme des fermes, zoos, centres équestres ou parcs animaliers.

Deux critères sont incontournables à l’obtention du label. Le décret définira un taux de casse maximum à ne pas dépasser pour le point de vente. C’est la part de produits mis en rayon non vendus et non valorisés, maximum à ne pas dépasser. Ce taux est en cours de définition, mais devrait se situer aux alentours de 2,5 %. La qualité et la traçabilité du don aux associations seront aussi scrutées : le don aux associations devra se situer au même niveau d’exigence que les autres pratiques de la grande distribution.

Le label servira donc à mettre en valeur les bons élèves ?

Aujourd’hui, environ 70 % des acteurs de la grande distribution ont initié des actions anti-gaspillage. On peut toutefois faire beaucoup mieux. À défaut de pointer du doigt les mauvais élèves, on récompensera donc ceux qui sont vertueux et on mobilisera les autres par une logique d’exemplarité. Il y a aussi un enjeu purement économique. Réduire le gaspillage, c’est économiser jusqu’à 2 % du chiffre d’affaires.

Le label doit aussi pouvoir générer de la préférence de marque pour faire venir davantage de clients en magasin. Entre deux magasins qui se ressemblent, probablement le consommateur préférera aller dans une démarche engagée dans le zéro déchet. En effet, selon une étude YouGov pour Phenix, réalisée en janvier 2021, 84 % des Français privilégieraient une enseigne récompensée d’un label anti-gaspillage plutôt qu’une autre.

Pour Phenix, qu’est-ce que ce nouveau label va changer ?

Un magasin qui s’ouvre prend un système de caisse, d’éclairage, de chambre froide… Désormais, la gestion des invendus va aussi devenir incontournable. Chez Phenix, nous sommes 250 employés avec 80 personnes sur le terrain qui aident à réduire le gaspillage alimentaire à tous les niveaux. Nous accompagnerons les magasins dans l’atteinte du meilleur niveau possible. Notre objectif est d’amener plus de 300 points de vente vers la certification nationale avant la fin de l’année 2023.

« Matériaux » et « Chimie et Biotech » : deux thématiques qui se distinguent désormais !

Jusqu’à présent regroupés dans une thématique unique, les articles de « Matériaux, Biotech & Chimie » seront, dès cette semaine séparés en deux thématiques distinctes. Ce choix se justifie par l’abondance et la diversité des contenus publiés sur le Magazine d’Actualité.

Qu’ils soient actifs, intelligents, fonctionnels, magnétiques, biosourcés, métalliques ou plastiques, ou qu’ils présentent des propriétés caractéristiques ou remarquables, le choix des matériaux dans un projet, un produit, ou un process est fondamental et stratégique.

En effet, les ingénieurs tous secteurs confondus sont confrontés à des questions de choix et d’optimisation de matériaux pour des usages de plus en plus ciblés et des secteurs d’application de plus en plus exigeants.

Et l’on constate que la réussite technique et commerciale de nouveaux produits repose en grande partie sur le choix des matériaux, classiques ou innovants, dont les caractéristiques et les performances correspondront à l’objectif visé, en tenant compte d’une démarche de développement durable.

Ainsi, tout comme ce secteur des matériaux qui est en pleine expansion, le nombre d’articles publiés sur les matériaux est en constante augmentation.

Nous avons décidé qu’ils méritaient bien leur thématique à part entière.

En parallèle, la chimie et les biotechnologies, qui suscitent un intérêt également grandissant, seront aussi représentées par une thématique complète.

Vous retrouverez donc désormais, dans le Magazine d’Actualité les thématiques suivantes :

Vous pourrez continuer à recevoir les newsletters thématiques correspondantes. Nous vous invitons pour cela à vous rendre dans votre espace « Mon compte », dans la partie « Mon profil », pour vérifier vos abonnements aux newsletters thématiques.

Bonne navigation sur le Magazine d’Actualité de Techniques de l’Ingénieur !

ChatGPT : l’IA franchit une étape majeure

Depuis le début de l’année, le monde du numérique ne parle que de ChatGPT. Développé par la start-up californienne OpenAI, ce logiciel d’IA affole les compteurs et entraîne de nombreux effets d’annonces et d’applications disruptives.

Microsoft annonce souhaiter investir jusqu’à 9,34 milliards d’euros dans cette solution pour améliorer notamment Office. Après avoir noué en 2019 un premier partenariat avec cette petite entreprise, son investissement valoriserait OpenAI à 29 milliards de dollars.

Pour le géant de l’informatique, ChatGPT pourrait doper les capacités et performances de sa suite bureautique en étant capable de générer des documents sans intervention humaine. Pour la start-up, le cloud et les datacenters de Microsoft lui permettraient d’optimiser l’usage de son logiciel qui est très gourmand en ressources informatiques.

Tous les secteurs concernés

Mais pourquoi une telle effervescence autour de ChatGPT ? Ce logiciel démontre comment l’IA deviendrait incontournable en passant d’une IA « analytique » à l’IA « générative ».

Dans le premier cas, des ordinateurs peuvent analyser un ensemble de données et y trouver des modèles pour une multitude de cas d’utilisation, qu’il s’agisse de la détection de fraudes ou de spams, de la prévision de l’heure d’arrivée de votre livraison ou de la prédiction de la prochaine vidéo TikTok à vous montrer.

Dans le second cas, l’IA « générative », des ordinateurs génèrent quelque chose de nouveau plutôt que d’analyser quelque chose qui existe déjà. Cette idée n’est pas nouvelle, mais l’IA « générative » est en passe de devenir non seulement plus rapide et moins chère, mais aussi meilleure dans certains cas ce que les êtres humains.

Tous les secteurs exigeant des êtres humains pour créer des œuvres originales (jeux vidéo, publicité, architecture, codage informatique…) pourraient être fortement impactés par cette évolution majeure. Certaines fonctions pourraient être complètement remplacées par l’IA générative, tandis que d’autres sont plus susceptibles de prospérer grâce au binôme être humain/machine.

Des pirates profitent de ChatGPT

Différents domaines sont donc concernés. Le texte est le plus avancé, mais le langage naturel reste encore difficile à maîtriser. Aujourd’hui, les modèles sont assez performants pour la rédaction de textes peu compliqués. La création d’images est plus récente, mais elle commence à être de plus en plus employée sur les réseaux sociaux.

La synthèse vocale existe depuis plusieurs années, notamment sur les smartphones et les enceintes connectées. Cela reste encore des applications grand public. La génération de voix pour des films et des podcasts n’est pas encore maîtrisée pour obtenir une parole de qualité humaine qui ne soit pas mécanique. Enfin, des travaux sont menés dans la biologie et la chimie.

Cette première vague d’applications d’IA générative ressemble à celle que nous avons connue lorsque les premières applications sont apparues sur les premiers smartphones. Il reste encore de nombreux problèmes à régler concernant notamment l’aspect commercial, la protection des droits d’auteurs et de la vie privée.

Mais l’une des principales craintes est l’augmentation des cyberattaques. « Avec des technologies d’IA telles que ChatGPT facilement accessibles au public, il est possible pour les pirates de générer des codes et des e-mails malveillants à un rythme plus rapide et plus automatisé », prévient l’entreprise de cybersécurité Check Point Research.

L’ammoniac : un vecteur énergétique potentiel pour la transition de demain

Même si l’hydrogène suscite un vif intérêt, son stockage représente un réel défi pour son utilisation à grande échelle. La méthode actuelle consiste à le stocker à haute pression (350 ou 700 bar), ce qui n’est pas sans poser des risques au moment de sa manipulation. Il est aussi possible de le stocker à l’état liquide, mais encore faut-il disposer de réservoirs cryogéniques pour le conserver à -253 degrés, là aussi avec des risques associés. Et si l’une des alternatives venait de l’ammoniac, dérivé azoté de l’hydrogène ? Avec trois atomes d’hydrogène pour un atome d’azote, ce composé chimique (NH3) est naturellement dense en hydrogène. De nouvelles expérimentations sont actuellement à l’étude pour l’utiliser comme vecteur énergétique d’hydrogène.

« Avec le méthanol, l’ammoniac est considéré depuis longtemps comme un vecteur candidat pour la production d’électricité, explique Gaël Guégan, Ingénieur veille stratégique au Cetim, et auteur d’une note sur ce sujet. Sous sa forme liquide, obtenue dès lors que sa température descend en dessous des -33 degrés, il affiche une densité énergétique particulièrement intéressante, jusqu’à cinq fois supérieure à celle des cellules de batteries lithium-ion. Comparé à l’hydrogène, il est plus facile à transporter. La production, le stockage et la livraison d’hydrogène sous forme de NH3 sont beaucoup plus efficaces sur le plan énergétique et beaucoup moins coûteux que sous forme d’hydrogène comprimé et/ou cryogénique. L’infrastructure pour l’ammoniac existe déjà tandis que pour l’hydrogène, de nouvelles stations de ravitaillement doivent être construites, ce qui représente de gros investissements ».

L’une des applications envisagées est d’utiliser l’ammoniac pour alimenter des piles à combustible. Cette utilisation peut-être indirecte, en deux étapes, pour permettre d’utiliser les piles PEMFC (Proton exchange membrane fuel cells), déjà présentes sur le marché. L’idée est de produire dans une première étape de l’hydrogène in situ par cracking de l’ammoniac pour obtenir d’un côté de l’hydrogène et de l’autre de l’azote, qui peut être rejeté sans danger dans l’atmosphère. L’hydrogène produit est alors introduit dans une deuxième étape dans les PEMFC pour la production d’électricité.

Des piles à combustible en cours de développement

L’ammoniac, en tant que produit chimique fabriqué en masse et à faible coût, est un vecteur énergétique idéal qui peut aussi être utilisé directement avec des piles à combustible à membrane alcaline (AMFC : Alkaline Membrane Fuel Cell), qui fonctionnent notamment par le transfert d’ions hydroxyde à travers l’électrolyte, ou avec des piles à combustible à oxyde solide (SOFC : Solid oxide fuel cells). Les développements de ces piles ont permis de surmonter les obstacles liés à l’utilisation généralisée de ces systèmes. Cependant, elles n’en sont pas encore au stade de la commercialisation, et des recherches supplémentaires sont nécessaires.

L’avantage de l’ammoniac est qu’il ne libère pas de CO2. Son introduction dans tout système de combustion entraîne donc une décarbonisation partielle de ce procédé, voire totale si l’ammoniac est mélangé à l’hydrogène ou utilisé seul. Les piles à combustible à ammoniac basées sur des électrolytes à membrane alcaline semblent intéressantes, mais pas sans inconvénients, notamment face à l’oxydation de l’ammoniac diffusé à la cathode qui peut générer des oxydes d’azote (NOx), qu’il convient alors de traiter, ainsi que du protoxyde d’azote (N2O), gaz à effet de serre à éviter, lié à son pouvoir réchauffant 25 fois plus important que le méthane, et 300 fois plus important que le CO2. « Des technologies existent déjà pour piéger les NOx. Les véhicules thermiques en émettent et ils sont de ce fait équipés de pots catalytiques, de filtres à particules additivés ou de pièges à NOx, observe Gaël Guégan. Actuellement, l’émission de NOx n’est pas encore prise en compte dans la pile à combustible à oxyde solide (SOFC) et la pile à combustible directe à l’ammoniac DAFC (Direct Alcohol Fuel Cell). »

Un tracteur alimenté à l’ammoniac a fonctionné durant 6 heures

Fondée en 2020 par des chercheurs du MIT (Massachusetts Institute of Technology), la start-up américaine Amogy a annoncé l’été dernier avoir réussi à faire fonctionner un tracteur alimenté à l’ammoniac. Il s’agit d’une première mondiale, réalisée en collaboration avec l’université de Stony Brook à New York. Les scientifiques ont remplacé le moteur diesel d’un modèle traditionnel de la marque John Deere par un réservoir à ammoniac liquide de 225 litres. Ils ont également équipé le tracteur d’une pile à combustible hybride de 100 kW capable de convertir le carburant en hydrogène. Résultat : au cours de plusieurs essais, l’engin a pu effectuer ses tâches habituelles pendant six heures avant de devoir passer par la case recharge, une étape réalisée en seulement cinq minutes. La start-up souhaite désormais appliquer ce procédé aux camions et aux navires, qui constituent le débouché final du développement de cette technologie.

Reste à trouver une source d’ammoniac «verte», qui ne libère pas de CO2, car il faut actuellement du pétrole pour le fabriquer. Des solutions valorisant de l’électricité intermittente, issue du solaire ou de l’éolien, semblent se dessiner. L’une d’elles consiste à produire de l’hydrogène par électrolyse de l’eau, et en parallèle à capter l’azote atmosphérique dans le but de fabriquer de l’ammoniac. « Cette manière de produire de l’ammoniac fait appel au procédé Haber-Bosch qui est aujourd’hui bien maîtrisé et actuellement utilisé pour fabriquer de l’ammoniac pour la synthèse d’engrais et de réfrigérants, ajoute Gaël Guégan. Et rappelons que l’ammoniac est l’un des composés chimiques les plus synthétisés au monde. »

Ainsi, l’ammoniac offre une source d’énergie décarbonée et fiable, sans les nombreux problèmes associés à l’économie traditionnelle de l’hydrogène. Cependant, la production d’ammoniac renouvelable doit être augmentée pour que les piles à combustible à l’ammoniac soient une source d’énergie réellement durable.

« Une nouvelle économie de l’énergie » selon l’AIE

Tous les deux ou trois ans, l’agence internationale de l’énergie (AIE) publie l’état de l’art des technologies dans le secteur de l’énergie. L’Energy Technology Perspectives, sorte de bible des solutions techniques, de leurs dynamiques de marché et de leur pertinence au regard de la transition énergétique, fait référence dans le monde.

Encore en convalescence de la crise sanitaire et sous tension à cause de la guerre en Ukraine, beaucoup de pays peuvent trouver une opportunité de croissance et de création d’emplois avec les nouvelles industries de la transition énergétique. Selon l’AIE, ce marché représente 650 milliards de dollars par an à l’horizon 2030, soit trois fois plus qu’aujourd’hui. Les emplois concernés pourraient passer de 6 à 14 millions d’ici 2030, dont la moitié dans les technologies les plus massifiées : solaire photovoltaïque, éolien, véhicules électriques et pompes à chaleur.

Mieux diversifier les approvisionnements

Le monde fait déjà face à des tensions sur les chaînes d’approvisionnement, source d’augmentations de prix de matières premières qui se répercutent sur les prix des produits finis. Les énergies fossiles subissent ces contraintes, mais les nouveaux marchés également. Ainsi, lithium, nickel et cobalt ont fait augmenter le prix des batteries électriques de 10 % en 2022, tout comme d’autres matériaux (acier, cuivre ont vu leur prix doubler entre mi-2020 et mi-2022) l’ont fait pour l’éolien. Les marchés en croissance risquent d’exacerber ce phénomène, en augmentant la dépendance à des productions concentrées dans certains pays. C’est le cas dans l’éolien, les batteries, les électrolyseurs, les panneaux solaires et les pompes à chaleur où 70 % des capacités productives sont déjà accaparées par les trois pays les plus producteurs de chacune de ces technologies, souvent en Chine.

Chaque pays a donc intérêt à diversifier ces chaînes d’approvisionnement et à élaborer des politiques de production sur son territoire. Europe, États-Unis, Inde, Japon, Chine, tout le monde est sur les rangs pour essayer de tirer un avantage compétitif de « cette nouvelle économie de l’énergie » selon les mots du directeur général de l’AIE, Fatih Birol. Des plans massifs d’investissements ont été annoncés. S’ils sont réalisés, ils pourraient satisfaire les deux tiers des besoins pour atteindre la neutralité carbone du scénario NZE (net zero emission) de l’AIE. Dans certains domaines comme le photovoltaïque, c’est même la totalité (voir graphe).

AIE, ETP2023
Source : Agence internationale de l’énergie

Mais les investissements sont pour l’instant à des degrés d’avancement différents selon les technologies. Par rapport aux annonces faites dans le monde, 25 % seulement des projets d’usines photovoltaïques sont en cours de construction, 35 % pour les batteries de véhicules électriques et 10 % pour les électrolyseurs. Là encore, la Chine est en avance sur les autres régions du monde et agrège les plus grands projets. Elle domine de fait le commerce international de ces technologies, par exemple dans l’éolien en comptant pour la moitié des exportations mondiales. Au-delà des questions de compétitivité, les pays doivent d’autant plus s’organiser que la somme des projets annoncés va conduire à des surcapacités mondiales de production dans le photovoltaïque, les batteries et les électrolyseurs et des sous-capacités pour les composants éoliens, les pompes à chaleur et les piles à combustible. Afin d’éviter de trop grands déséquilibres, Fatih Birol en appelle à la création de partenariats stratégiques pour utiliser les complémentarités entre pays et répondre à l’urgence climatique.

Anticiper sur le long terme

Pour l’AIE, chaque pays va être tributaire de ses avantages relatifs (accès à des ressources minérales, à des gisements d’énergie renouvelable, à une énergie bon marché, etc.) dans cette course aux technologies. L’investissement dans des infrastructures de cette nouvelle économie de l’énergie sera néanmoins incontournable pour le transport, la distribution ou le stockage d’électricité, d’hydrogène et de CO2. Les longs délais de construction de ces infrastructures obligent à les anticiper.

Un des autres enjeux majeurs pointés par l’AIE est celui des minerais critiques. Dans ce domaine également il est nécessaire de prévoir de nouvelles capacités minières sur le long terme, ainsi que les chaînes de traitement/fabrication des produits issus de ces minéraux. La Chine a déjà la main mise et pourrait la garder vu qu’elle annonce à elle seule 80 % des nouvelles capacités de production pour le cuivre d’ici 2030, 95 % pour le cobalt et 60 % pour le lithium et le nickel.

On notera toutefois que dans son scénario NZE, l’Agence internationale de l’énergie n’envisage pas de baisse réelle des consommations de matériaux (ciment, acier) ou même prévoit des hausses (aluminium). De même, les taux de recyclage des matériaux augmentent, mais de manière peu ambitieuse. Il est certain qu’avec une dimension de sobriété plus forte, les besoins seraient moins élevés, ce qui éviterait d’ouvrir trop de mines dont les coûts environnementaux et sociaux restent importants.

Les enjeux géopolitiques et économiques de l’Open source

Peur sur le web ! En décembre 2021, la faille « Log4Shell » impacte le composant de logiciel de journalisation Log4J (qui enregistre les activités d’une application), utilisé dans de nombreuses applications et sites web utilisant le langage Java.

Au moment des faits, Log4Shell a été considéré comme « l’un des risques de cybersécurité les plus graves et les plus étendus jamais vus ». Les développeurs du projet ont corrigé l’erreur de code dans les deux semaines suivant l’identification de la faille. Encore faut-il que toutes les entreprises exploitant cette solution l’aient mise à jour…

Il s’agit d’une mesure indispensable, car cette vulnérabilité permet à un attaquant de prendre le contrôle d’une application, voire d’un système d’information. Plusieurs groupes d’attaquants, aussi bien étatiques ou proches d’États, opérant en Russie, en Chine, en Iran et en Corée du Nord, ainsi que des cybercriminels en ont profité.

Intitulé Enjeux économiques et géopolitiques des logiciels open source, le rapport de 62 pages de l’IFRI, rédigé par Alice Pannier (chercheuse et responsable du programme Géopolitique des technologies), montre à quel point l’open source occupe une place majeure dans le monde du numérique. La moindre faille peut faire trembler la planète.

Logiciels propriétaires et insécurité

Entre 80 % et 96 %, des codes qui composent les logiciels aujourd’hui sur le marché – y compris les logiciels propriétaires – sont en effet d’origine open source selon le 2022 Open Source Security and Risk Analysis Report. On peut citer les langages de programmation Python et Perl, le système d’exploitation Linux, le navigateur web Mozilla Firefox, le système de gestion de bases de données MySQL, le serveur HTTP Apache…

Parallèlement, l’opinion en faveur des logiciels propriétaires s’est dégradée ces dernières années pour différentes raisons : coûts de plus en plus élevés, abonnement à des formules Software as a service (comme Microsoft 365) qui s’avèrent de moins en moins attractives avec des augmentations de tarifs, ou un support client pas toujours optimisé…

Mais, surtout, les éditeurs de logiciels sont de plus en plus critiqués pour leur mauvaise gestion de la sécurité. Citons deux exemples très concrets et aux impacts majeurs. Le logiciel Orion, développé par SolarWinds (une société américaine développant des logiciels professionnels permettant la gestion centralisée des réseaux, des systèmes et de l’infrastructure) est utilisé par des milliers d’organisations aux États-Unis, dont l’administration américaine elle-même.

Or, Orion a été l’objet d’un code malveillant, révélé en décembre 2020, qui a permis aux attaquants d’accéder pendant de nombreux mois aux données, réseaux et systèmes concernés.

Le second exemple est encore plus inquiétant, car il porte sur l’IoT et l’aviation. Les accidents impliquant l’avion Boeing 737 MAX, en 2018 et 2019, ont ainsi été causés en partie par des erreurs dans les logiciels de l’appareil, après que le développement de ceux-ci a eu été sous-traité et non supervisé. « Ce type de problématiques de cybersécurité est amené à se multiplier avec les objets connectés, notamment dans l’automobile », prévient l’auteure du rapport.

L’Open source et l’influence internationale

L’open source est aujourd’hui intrinsèquement lié au cloud et joue un rôle déterminant dans les technologies émergentes (IA, edge, IoT). Résultat, il soulève des enjeux à la fois de cybersécurité et des enjeux économiques et d’innovation.

Les entreprises privées investissent financièrement et humainement dans le développement et le maintien de l’écosystème. Ce soutien est utile pour pallier les risques liés au manque de maintenance de certains composants. Ainsi Google a lancé un programme de bug bounty et propose 30 000 dollars à tout hacker découvrant une faille dans l’un de ses logiciels utilisant des briques open source.

Mais « cette implication n’est pas sans danger pour l’écosystème open source, qui est de plus en plus modelé par les intérêts privés des Big Tech. Parallèlement, les gouvernements sont de plus en plus préoccupés par les risques de l’open source en matière de cybersécurité, non seulement du fait de vulnérabilités accidentelles, mais aussi de la manipulation des codes par des criminels et des agents étrangers », insiste Alice Pannier.

« L’analyse des cas américain, chinois et européen montre que l’implication des gouvernements dans l’open source n’est pas seulement pragmatique ; elle est de plus en plus politisée et sert à soutenir les ambitions des gouvernements en matière de sécurité nationale, d’influence internationale ou de souveraineté numérique », insiste l’auteure.

En janvier 2022 s’est tenue à la Maison-Blanche une réunion de l’Administration américaine (ministères du Commerce, de la Défense, de l’Énergie, de la Sécurité intérieure) avec de grandes entreprises de la tech américaine (dont Amazon, Apple, Google, IBM, Meta, Microsoft) et des acteurs de l’open source (GitHub, Linux Foundation, OpenSSF), pour évoquer la sécurité de l’open source et son financement…

Un générateur capable de produire des positons sans source radioactive

Un positon est une particule élémentaire de même masse qu’un électron, mais de charge opposée. En 2005, Jean-Michel Rey est nommé chef de projet au sein du CEA Saclay et a pour mission de construire un appareil capable de produire un faisceau intense de positon de basse énergie. Son travail s’inscrit dans le cadre de la préparation d’une expérience de physique fondamentale, maintenant installée au CERN (Conseil européen pour la recherche nucléaire) et appelée l’expérience GBAR (Gravitational Behaviour of Antihydrogen at Rest). Sa finalité est la mesure de la constante gravitationnelle (l’accélération en chute libre) de l’antimatière sous l’effet de la gravité. Après avoir réussi à faire la preuve de concept d’un appareil, il identifie qu’il peut se substituer à ceux utilisés dans des laboratoires de recherche pour réaliser des analyses de défauts dans des matériaux, à la différence qu’il n’emploie aucune source radioactive pour produire des positons. En 2015, il crée une start-up afin de développer cette technologie. Aujourd’hui, il est sur le point de la mettre sur le marché. Rencontre avec le fondateur de Posithôt.

Techniques de l’Ingénieur : Quel est le principe technologique de votre procédé ?

Jean-Michel Rey, fondateur de Posithôt
Jean-Michel Rey, fondateur de Posithôt. Crédit : Posithôt

Jean-Michel Rey : Il consiste à envoyer un faisceau de positons dans la matière, à l’image d’un microscope électronique, sauf que l’on remplace les électrons par des positons. Ces particules d’antimatière induisent des phénomènes physiques différents de ceux que l’on obtient avec la matière. Ainsi, chaque positon est repoussé par l’ensemble de la matière et va donc se piéger dans les défauts qui proviennent de l’absence locale d’un noyau d’atome. Et au bout d’un moment, ils vont tous interagir avec les électrons, et disparaître par le phénomène d’annihilation, qui correspond à la disparition de l’énergie de masse et sa transformation en énergie lumineuse ou photonique. Lors de la production de ces photons, nous analysons leur spectre énergétique et l’on en déduit des informations sur la taille des défauts et leur densité dans la matière. Cette technique s’appelle la spectrométrie d’annihilation de positons, souvent abrégée par l’acronyme PAS pour Positron Annihilation Spectroscopy. Il s’agit d’une forme de métrologie, très mature sur le plan de la science fondamentale, car les travaux sur la caractérisation par PAS existent depuis une vingtaine d’années.

Quels sont les avantages de votre technologie ?

Elle est très précise, car grâce à l’analyse des absences de matière à l’intérieur de la matière, nous obtenons une résolution ultime correspondant à la taille de l’atome. Il existe d’autres techniques capables de descendre à ce niveau de résolution, mais elles sont destructives. C’est le cas de la microscopie électronique en transmission ou de la sonde atomique tomographique.

Notre technologie est non destructive pour la matière à condition que les profondeurs d’analyse ne dépassent pas 700 à 1 000 nanomètres. Nous sommes donc relativement proches de la surface, mais cette épaisseur est suffisante pour identifier des fissurations naissantes en mécanique, celles qui progressent le plus vite, et dont la dangerosité est maximale.

Aujourd’hui, la technique d’analyse la plus utilisée pour observer des endommagements conduisant aux fissures de surface s’appelle le ressuage, mais nécessite la présence d’un opérateur qualifié possédant un niveau de certification pour la mettre en œuvre. Notre technologie génère un pic d’annihilation facile à identifier dont l’analyse est entièrement réalisée par traitement numérique, et ne demande aucun opérateur, cela évite toute erreur d’interprétation liée à l’humain.

Il existe actuellement dans le monde six laboratoires de recherche qui pratiquent la spectrométrie d’annihilation de positon à partir de réacteurs nucléaires de recherche, et une cinquantaine utilisant des sources radioactives à base de sodium 22. Posithôt est la seule société à savoir produire des positons à partir d’un générateur non radioactif de sa conception, et donc à être capable d’utiliser ce procédé pour l’industrie.

Quelles sont les applications potentielles ?

Notre vocation est de rendre accessible cette technologie au plus grand nombre, c’est-à-dire aux laboratoires de recherche et aux industriels, qui ont un besoin fort en développement de matériaux.

Le champ d’application est extrêmement vaste et concerne presque tous les matériaux innovants ou à fonctionnalité innovante. Plus concrètement, notre technologie est applicable aux matériaux soumis à des sollicitations dans les domaines électriques, thermiques, mécaniques, voire photoniques. Nous répondons aux besoins de calibration de ces matériaux, soit à priori soit à postériori. Nous sommes capables de caractériser leurs densités de défaut, ainsi que les fonctionnalités qui leur sont attachées, leur durabilité et leur capacité de tenir ou non les intensités auxquelles ils sont soumis. Tout cela, avec une précision qui se situe au niveau atomique, et donc avec une marge d’erreur excessivement limitée.

À quel stade se trouve votre projet ?

Depuis 2015, date de création de notre société, notre principal travail a consisté à construire un équipement industriel, et notamment à réduire son encombrement. À l’origine, son poids dépassait plusieurs centaines de tonnes, et à présent il se limite à environ 40 tonnes, et est transportable par containers. Il répond aux directives de sécurité de l’ASN (Autorité de sûreté nucléaire), qui est en train de valider le dossier de sécurité.

En parallèle, nous avons signé des contrats de codéveloppement pour exploiter notre procédé dans le secteur industriel, essentiellement avec l’armée française et l’aéronautique militaire, mais nous ne sommes pas autorisés à en parler. Nous avons aussi travaillé avec le CNES, qui nous a demandé de tester des matériaux utilisés pour le lanceur spatial Ariane 5. Nos interlocuteurs soupçonnaient des défauts, mais la technique du ressuage n’avait rien donné. Grâce à notre procédé, nous avons réussi à démontrer des débuts d’endommagements liés à des niveaux de sollicitation en fatigue, et identifié des amorces de fissuration qui commençaient à rentrer en profondeur.

En février, nous allons mettre en service un générateur sur le site de Paris Saclay. Il a été financé par la région Île-de-France, dans le cadre de l’appel à projet Innov’up Leader du PIA4 (Programme d’investissements d’avenir n° 4). Nous allons réaliser des prestations de service avec cet équipement et le dupliquer pour le vendre à des centres de recherche et à des industriels.

2022 : une « année d’extrêmes climatiques », selon Copernicus

L’été 2022 a été marqué par les incendies particulièrement ravageurs en France à cause de conditions extrêmement sèches. Les émissions totales de feux de forêt entre juin et août ont été les plus élevées pour l’UE et le Royaume-Uni au cours des 15 dernières années, souligne le service Copernicus[1] de l’Union européenne sur le changement climatique dans son bilan climatique 2022. « La France, l’Espagne, l’Allemagne et la Slovénie ont connu leurs plus fortes émissions de feux de forêt en été depuis au moins 20 ans », partage le service Copernicus.

L’été le plus chaud en Europe

En parallèle, l’été 2022 a été le plus chaud jamais enregistré en Europe. Et si 2022 a été la cinquième année la plus chaude au niveau mondial (après 2016, 2020, 2019 et 2017), elle se classe comme la deuxième année la plus chaude pour l’Europe après 2020. En Europe, « 2022 a été plus froide que 2020 de 0,3°C, et légèrement plus chaude – d’environ 0,1°C, que 2019, 2015 et 2014 », précise le service Copernicus.

Au niveau mondial, les huit dernières années ont été les huit plus chaudes jamais enregistrées, toutes à plus de 1°C au-dessus du niveau préindustriel. Le réchauffement sur l’année 2022 atteint +1,2°C par rapport à la période 1850-1900.

« 2022 a été une nouvelle année d’extrêmes climatiques en Europe et dans le monde, réagit Samantha Burgess, directrice adjointe du service Copernicus. Ces événements montrent que nous subissons déjà les conséquences dévastatrices du réchauffement de notre monde. » Elle estime ainsi que « pour éviter les pires conséquences, la société devra à la fois réduire de toute urgence les émissions de carbone et s’adapter rapidement au changement climatique. »

Des records dans plusieurs régions

Plusieurs records de températures ont été battus en Europe et dans le monde. En particulier, des vagues de chaleur prolongées et intenses ont touché l’ouest et le nord de l’Europe. Des vagues de chaleur prolongées ont affecté le Pakistan et le nord de l’Inde au printemps, ainsi que le centre et l’est de la Chine pendant l’été. « Les régions qui ont connu l’année la plus chaude jamais enregistrée comprennent de grandes parties de l’Europe occidentale, du Moyen-Orient, de l’Asie centrale et de la Chine, de la Corée du Sud, de la Nouvelle-Zélande, du Nord-ouest de l’Afrique et de la Corne de l’Afrique », énumère le service Copernicus.

D’autres événements extrêmes ont touché de vastes régions. Les faibles niveaux persistants de précipitations, et des températures élevées combinées à d’autres facteurs, ont entraîné des conditions de sécheresse généralisées en Europe. Le Pakistan a connu des inondations généralisées en août à la suite de précipitations extrêmes.

En parallèle, Copernicus a enregistré la plus petite étendue de la banquise antarctique pour un mois de février depuis le début des relevés par satellites en 1974. La banquise antarctique atteignait 1,9 million de kilomètres carrés à son minimum durant l’été austral, le 25 février dernier, selon un article publié dans la revue Advances in Atmospheric Sciences. Son étendue était alors réduite de 30 % par rapport à la moyenne enregistrée sur trois décennies entre 1981 et 2010.

Enfin, Copernicus note que la tendance à la hausse des concentrations atmosphériques de dioxyde de carbone et de méthane se poursuit. La hausse est « similaire aux récentes années » pour le CO2 , à +2,1 ppm. La hausse est « supérieure à la moyenne » pour le méthane, à + 12 ppb. Elle reste toutefois inférieure aux records observés ces deux dernières années. Cela a abouti à une moyenne annuelle pour 2022 d’environ 417 ppm pour le CO2 et 1 894 ppb pour le méthane. Soit une hausse 50 % par rapport à l’ère préindustrielle pour le CO2 , de 162 % pour le méthane.

[1] Le programme d’observation de la Terre de l’Union européenne

CES : l’industrie ambitionne d’améliorer la sécurité

Bien que tape-à-l’œil, avec ses stands aux couleurs vives et ses démonstrations bluffantes, le rendez-vous américain reste incontournable pour découvrir des innovations majeures ou des annonces fortes.

La première annonce forte est d’ailleurs venue des organisateurs du salon eux-mêmes. Pour la première fois, le CES a un thème officiel, la sécurité humaine pour tous (« Human Security for All » ou HS4A), fondé sur un partenariat avec le Fonds des Nations unies pour la sécurité humaine. Le thème officiel est lié à l’idée de « tech for good », qui inclut également la durabilité, la santé et la sécurité.

« La technologie permet un changement positif qui peut toucher toute l’humanité. Introduit par les Nations unies en 1994, le concept de sécurité humaine reconnaît l’importance du bien-être personnel et identifie les piliers de la sécurité liés à l’expérience de vie d’un individu. Afin de promouvoir ces principes de sécurité humaine, le salon mettra en avant les dernières innovations technologiques et les leaders d’opinion qui se consacrent à la résolution des menaces les plus graves auxquelles l’humanité est confrontée », indiquent les organisateurs du salon.

Comprendre les mouvements

En matière de sécurité humaine, l’informatique et l’intelligence artificielle apparaissent de plus en plus comme des éléments clés. Selon Valeo, l’électronique, les logiciels et l’intelligence artificielle représenteront 30 % de la valeur d’un véhicule en 2030, contre 10 % aujourd’hui.

L’équipementier a profité de ce salon pour dévoiler une nouvelle technologie qui pourrait aider les véhicules à mieux anticiper les actions des piétons, cyclistes et autres usagers vulnérables sur les routes.

Baptisée Pantomime, cette solution utilise un algorithme pour aider les véhicules à « comprendre les mouvements » des autres usagers de la route et à anticiper leurs actions potentielles. Selon l’équipementier, sa solution peut également suivre les instructions des agents de police ou d’autres autorités sur les routes.

De façon plus surprenante, Valeo a également déclaré qu’il prévoyait de rechercher et de mettre sur le marché une « nouvelle méthode de refroidissement des datacenters ». Selon cette entreprise, cette méthode sera essentielle pour l’industrie, car les véhicules connectés collecteront davantage de données dans les années à venir.

Avion électrique

Toujours dans le domaine automobile, une autre annonce a fait grand bruit. À l’occasion du CES 2023, Qualcomm a présenté sa famille de produits Snapdragon Ride Flex SoC (System-on-Chip) de nouvelle génération.

Disponible dès à présent pour les tests et devant être prêt pour les véhicules de série d’ici 2024, le nouveau SoC Flex « offre aux équipementiers des avantages en termes de performances et de réduction des coûts », selon Qualcomm.

Cette gamme se rapproche de plus en plus d’une architecture électronique unifiée et centralisée pour les véhicules en combinant sur une seule puce les capacités de traitement du cockpit numérique et du système d’assistance au conducteur.

Outre une meilleure expérience audio et vidéo pour les passagers, cette puce facilitera notamment l’intégration des systèmes ADAS (Advanced Driver Assistance Systems), ces systèmes de sécurité passifs et actifs conçus pour éliminer la part d’erreur humaine dans la conduite de véhicules de tous types.

Autre annonce remarquée : la construction d’un avion électrique par Stellantis et Archer. Le groupe français travaillera avec cette entreprise californienne (qui développe des aéronefs électriques à décollage et atterrissage verticaux) pour mettre en place l’usine de fabrication en Géorgie. Dès l’année prochaine, les premiers exemplaires du Midnight pourraient être construits.

Avion électrique de Stellantis/Archer
Copyright : Stellantis/Archer

Avec sa charge utile prévue d’environ 500 kilos, ce taxi volant pourrait transporter quatre passagers et un pilote. Avec une autonomie de 160 kilomètres, le Midnight serait optimisé pour des trajets courts et successifs d’environ 30 km, avec un temps de charge d’environ 10 minutes entre les deux.

Grâce à l’hydrogène, EODev met les générateurs diesel au rancart

Éviter l’émission de 30 millions de tonnes de CO₂ au cours de la prochaine décennie : cette ambition est celle d’EODev, jeune entreprise née en 2019 à Saint-Malo. Elle a pour cela développé une gamme complète de générateurs électriques zéro émission alimentés à l’hydrogène. Voués à remplacer les traditionnelles génératrices diesel, ils se destinent à un fonctionnement sur la terre ferme, certes, mais aussi en mer… Ces groupes électro-hydrogènes tirent en effet une partie de leurs origines de la mise à flot, en 2017, du désormais célèbre bateau-laboratoire Energy Observer.

Une start-up née du projet Energy Observer

« EODev est, au départ, une start-up dérivée du projet Energy Observer, le fameux bateau ambassadeur des objectifs de développement durable des Nations Unies, qui poursuit actuellement son tour du monde en autonomie énergétique », explique le responsable du développement commercial d’EODev Laurent Pérignon.

Afin de parvenir à démontrer la pertinence de l’hydrogène et de la technologie pile à combustible pour assurer la propulsion et la vie à bord du navire, EODev s’est lancée en 2019 dans un partenariat étroit avec le constructeur automobile japonais Toyota, fort de deux décennies d’expérience dans le domaine de l’hydrogène. La brique technologique qui sert de base à la jeune entreprise malouine n’est autre, en effet, que la pile à combustible développée par Toyota pour sa Mirai, première berline hydrogène de grande série au monde.

C’est ainsi le centre technique de Toyota Europe qui s’est attelé au développement du système de pile à combustible destiné au catamaran, en intégrant les composants issus de la Mirai dans un module compact adapté aux applications marines : le REXH2.

« Au départ partenaire industriel, Toyota est aussi devenu, en avril 2021, actionnaire d’EODev, ce qui nous permet de bénéficier de leurs nouvelles technologies », souligne Laurent Pérignon.

Après avoir démontré la pertinence de la technologie hydrogène de Toyota à bord d’Energy Observer, EODev a ainsi lancé une deuxième version du REXH2, bénéficiant de la dernière génération de PAC équipant la berline zéro émission de Toyota. « Plusieurs aspects ont été améliorés, ce qui fait que le REXH2 de deuxième génération est environ 30 % plus compact. En plus, cette nouvelle version intègre dans un même bloc l’ensemble des composants », décrit Laurent Pérignon. Une avancée qui a conduit EODev sur la voie de l’industrialisation.

Des générateurs électro-hydrogènes désormais produits à l’échelle industrielle

EODev, générateurs électro-hydrogènes
EODev a annoncé en décembre 2022 le lancement d’une gamme élargie de générateurs électro-hydrogènes, dont la puissance culmine à 1750 kVA. © EODev

« Nous avons obtenu mi-2022 une approbation de principe sur la génération 2 du REXH2, ce qui nous a permis de lancer l’industrialisation, avant l’obtention d’une certification de type, qui devrait intervenir très prochainement » retrace Laurent Pérignon. Une phase industrielle dans laquelle est entrée le générateur REXH2 en compagnie de son homologue terrestre, le GEH2.

« Le GEH2 est un complément indéniable au développement de la mobilité électrique : réseau défaillant ou inexistant, électrification des engins de chantier ou des flottes de livraison du dernier kilomètre », fait valoir Stéphane Jardin, directeur commercial d’EODev.

Initialement proposé sous la forme d’un module de 110 kVA, le GEH2 est désormais décliné – comme l’a annoncé EODev début décembre – en trois modèles complémentaires de 350, 1 050 et 1 750 kVA, « qui peuvent se combiner pour ajuster l’offre aux besoins », précise EODev dans un communiqué publié pour l’occasion. Une gamme complétée par un module de 280 kW spécialement destiné à la recharge des véhicules électriques, ainsi que par une version « mini » du GEH2, d’une puissance de 10 kVA, elle aussi modulaire. Idéale notamment pour pallier d’éventuelles coupures d’alimentation électrique dans le secteur résidentiel…

Côté maritime, le REXH2 devrait être proposé en différentes déclinaisons, notamment trois modules de forte puissance – de 280 à 1 400 kW – pouvant eux aussi fonctionner en parallèle. « Ces trois nouveaux REXH2 pourront répondre aux besoins d’unités de grande taille et fortement gourmandes en énergie, en particulier des navires de charge comme le futur Energy Observer 2 », dévoile EODev, qui prévoit également le lancement d’une version destinée aux bateaux de plaisance, d’une puissance de 8 kW.

Comme le précise l’entreprise, les premiers modèles de cette nouvelle gamme entreront en production en série en 2024, et seront disponibles à la commande dès le premier semestre 2023.

Une explosion de la demande

« Cette nouvelle gamme est l’expression de ce savoir-faire en recherche et développement et le fruit des nombreux retours d’expérience terrain obtenus grâce à nos clients aux quatre coins du monde », se félicite Jérémie Lagarrigue, directeur général d’EODev qui, toutefois, concède : « Ce que nous n’avions pas anticipé en revanche, c’est l’accélération de la demande et la nécessité d’avancer plus vite que prévu, en particulier au-delà de l’Europe ».

Après avoir levé pas moins de 40 millions d’euros au cours des dernières années, EODev dispose en tout cas des armes pour faire face à cette croissance de la demande qu’elle qualifie « d’exponentielle » : sa chaîne de montage basée à Montlhéry (91) dispose d’une capacité de production de 600 unités par an.

Une étude révèle les causes de l’augmentation du méthane atmosphérique en 2020

Le méthane est un puissant gaz à effet de serre. Durant l’anthropocène, sa concentration dans l’atmosphère a été multipliée par trois. Alors qu’en 2020, la pandémie liée au Covid-19 a provoqué un ralentissement des activités humaines et une réduction des émissions de méthane dans le secteur des combustibles fossiles, leur concentration dans l’atmosphère a, contre toute attente, augmenté de 15,1 ppb (parties par milliard). Il s’agit de la plus importante hausse observée depuis le début des mesures atmosphériques, dans les années 1980. Une équipe internationale de chercheurs, regroupant en France des scientifiques du LSCE (Laboratoire des sciences du climat et de l’environnement), vient de révéler l’origine de cette augmentation spectaculaire. Leur étude a été publiée dans la revue Nature.

La première raison est liée à la baisse des radicaux hydroxyles (OH) dans l’atmosphère. Ceux-ci sont les principaux agents de destruction du méthane, car ils éliminent environ 85 % des émissions mondiales chaque année. Mais ces radicaux, extraordinairement réactifs, sont présents en quantités infimes dans l’atmosphère et ont une durée de vie, très brève, inférieure à une seconde. Si bien qu’il est impossible de mesurer leur concentration directement.

Pour tout de même les quantifier, le LSCE a simulé les changements des OH dans l’atmosphère à l’aide d’un modèle numérique 3D de chimie-transport appelé INCA (INteraction avec la Chimie et les Aérosols). Et pour le faire fonctionner, le laboratoire s’est basé sur les émissions anthropiques, sur l’année 2020, de monoxyde de carbone, d’hydrocarbures et d’oxyde d’azote (NOx). Ceux-ci sont en effet responsables de la présence des radicaux hydroxyles (OH) dans l’atmosphère. Résultat : le modèle numérique a calculé que les émissions de NOx provenant de combustions anthropiques ont chuté de 6 % en 2020. Les réductions les plus importantes se sont déroulées au cours du premier semestre de l’année, lorsque des mesures de confinement ont été imposées dans de nombreux pays de l’hémisphère nord. En outre, les émissions de NOx des avions dans la haute atmosphère ont pratiquement cessé pendant le pic de la pandémie.

La diminution des NOx modifie la durée de vie du méthane atmosphérique

À partir de ce chiffrage, les chercheurs sont parvenus à en déduire une diminution de 1,6 % des OH troposphériques en 2020, principalement due à la réduction de la pollution par les NOx. Bien que l’ampleur de la diminution, estimée par cette approche et confirmée par une seconde, semble faible à première vue, elle se traduit en fait par une hausse anormale de la concentration de méthane d’environ 7,5 téragrammes en 2020. Cette progression représente environ la moitié du taux de croissance du méthane observé dans l’atmosphère cette année-là.

De nombreux pays dans le monde mettent en place des politiques publiques visant à améliorer la qualité de l’air, grâce notamment à une réduction des émissions de NOx. Parallèlement, en novembre 2021, 150 pays se sont engagés à réduire collectivement les émissions de méthane d’ici à 2030 d’au moins 30 % par rapport aux niveaux de 2020. Pour atteindre cet objectif et compte tenu des résultats de cette étude, il faudra donc également prendre en compte les tendances des émissions anthropiques de NOx et d’autres polluants qui modifient la durée de vie du méthane atmosphérique.

Le deuxième facteur expliquant l’augmentation de la concentration de méthane atmosphérique en 2020 est à mettre sur le compte de la hausse des émissions naturelles provenant des zones humides. En cause : un climat plus chaud et plus humide cette année-là sur ces territoires. Les simulations de deux modèles d’écosystèmes utilisant différents jeux de données climatiques ont calculé une augmentation des émissions de ces zones humides d’environ 6 téragrammes en 2020. Ces augmentations se situent principalement dans la région boréale de l’Amérique du Nord, en Sibérie occidentale et orientale, ainsi que dans les tropiques du nord. Ces émissions plus importantes des zones humides expliquent environ 42 % de l’augmentation anormale de la concentration du méthane dans l’atmosphère en 2020, par rapport à 2019.

Cette étude a par ailleurs démontré une grande sensibilité des zones humides à la variabilité du climat. Cela signifie que l’augmentation des émissions de méthane dans les régions contenant des zones humides tropicales et septentrionales où les précipitations devraient augmenter à l’avenir pourrait amplifier le réchauffement climatique.

Siquance, la start-up française qui développe l’ordinateur quantique

C’est un nouvel acteur dans le monde de l’ordinateur quantique. Lancée le 29 novembre lors d’un événement presse au CEA de Grenoble, la start-up française Siquance souhaite développer et commercialiser un ordinateur quantique à base de semi-conducteurs en silicium. « Nous sommes partis d’un transistor FD-SOI, l’unité de base du calcul classique, pour fabriquer un bit quantique, l’unité de base du calcul quantique, explique Maud Vinet, cofondatrice et directrice de Siquance, issue du CEA. Ensuite, on utilise la technologie de la microélectrique, c’est-à-dire qu’on fabrique un circuit intégré qu’on encapsule et qu’on vient poser dans une carte mère d’une dizaine de centimètres carrés. »

Cryostat, Siquance, ordinateur quantique
Les conditions extrêmes du cryostat permettent de révéler les propriétés quantiques des transistors. Copyright : Séverine Fontaine

Ensuite, direction le cryostat pour mettre les transistors en conditions extrêmes de froid afin de révéler leurs propriétés quantiques. « Cela fait plus de 20 ans que nous refroidissons des dispositifs et que l’on mesure à basse température, ajoute Maud Vinet. Nous avons une connaissance solide de ce qu’il se passe à basse température quand nous refroidissons ces objets. » La nouvelle start-up s’insère dans le marché du calcul intensif et va, in fine, fournir des utilisateurs finaux comme les grands industriels, pour augmenter leur performance. Le temps de calcul sera fourni par trois types de fournisseurs que Siquance va servir : des centres de calcul partagé, des fournisseurs d’accès au cloud et des systémiers.

Vers des bits quantiques parfaits

Lancer une start-up en 2022 est le résultat de nombreuses étapes précédentes, dont deux majeures. La première date de 2016 : le CEA a réussi à transformer un transistor FD-SOI en bit quantique et a, l’année suivante, déposé un brevet. La seconde date de 2019 : le premier circuit intégré quantique. Grâce à ces deux innovations, « nous avons obtenu une bourse de recherche à l’ERC[1] de 14 millions d’euros afin de lever les verrous technologiques de l’ordinateur quantique à base de silicium, explique Maud Vinet. Nous avons donc décidé d’accélérer afin d’augmenter la maturité de la technologie en mettant en place des outils et des méthodologies, comme la caractérisation statistique, la conception d’échantillons et l’utilisation de la simulation, pour préparer son industrialisation. » L’équipe va également travailler sur les logiciels proches du circuit intégré qui permettront de le piloter et de corriger les erreurs quantiques.

L’enjeu est d’obtenir des bits quantiques qui ont une fidélité parfaite, c’est-à-dire 1. Aujourd’hui Siquance utilise des bits qui ont une fidélité à 0,996 voire un peu plus. « Ils ne sont pas particulièrement bruyants, mais nous utilisons un code correcteur d’erreur, c’est-à-dire un certain nombre de qubits physiques pour en faire un logique avec une fidélité de 1, détaille Maud Vinet. Nous avons démontré que les codes correcteurs fonctionnent. Tout notre pari est de l’implémenter afin que nos qubits, qui sont très bons, deviennent parfaits. » Le nombre de qubits nécessaires autour d’un qubit pour le corriger va dépendre de sa qualité. Pour avoir un ordre d’idée : pour 100 000 qubits physiques, il est possible d’obtenir un millier de qubits logiques.

Un prototype dans deux ans

Un ordinateur devrait voir le jour d’ici quelques années. « Notre objectif est d’être capables de fabriquer un ordinateur quantique dans 10 ans » affirme Stéphane Siebert, directeur de la recherche technologique au CEA. Mais d’ici deux à trois ans, la start-up compte bien proposer un prototype fonctionnel accessible depuis le cloud. « Nous ne savons pas encore combien il aura de qubit, mais nous y travaillons, explique Maud Vinet. Nous avons des circuits à 16 qubits, et nous allons monter. » Et il ne faut pas imaginer des centres gigantesques de machines de calcul, son empreinte au sol ne sera que de 2 m². L’avantage de la technologie : « Quand on monte en puissance, on change la carte mère, explique Maud Vinet. Sur un millimètre carré de circuit, on met quelques centaines de milliers de qubits. Pour 200 000 qubits, soit 2 millimètres carrés, ça rentre toujours dans le cryostat. Une fois qu’on a une infrastructure, on ne va pas la changer. »

Un écosystème robuste

Pour la start-up, utiliser la technologie FD-SOI qui est née au CEA est un élément différenciant pour aller plus vite vers l’ordinateur quantique. « L’industrie du semi-conducteur permet de fabriquer des milliards de transistors, sait les piloter et y implémenter des algorithmes, ajoute Maud Vinet. Et l’avantage, c’est que nous serons fabless : nous n’allons pas créer des lignes qui n’existent pas dans l’industrie pour fabriquer notre ordinateur quantique, mais l’existant pour créer de la plus-value. » La start-up va d’ailleurs travailler avec des partenaires industriels tels que OVH (cloud quantique), Atos, ou encore Air Liquide (cryostat).

« Dans la course à l’ordinateur quantique, en fonction du choix des technologies, il y a des phases plus rapides et d’autres plus lentes, souligne Stéphane Siebert. Nous, c’est le départ qui est lent, car nous mettons beaucoup de temps à faire des qubits et les architectures, mais ensuite nous irons beaucoup plus vite à produire. »


[1] European Research Council ou Conseil Européen de la Recherche

JCB : de l’hydrogène dans le moteur

Le projet est né d’un chalenge. Celui lancé à ses ingénieurs par le président du troisième constructeur mondial[1] d’engins de BTP, le groupe britannique JCB.

Il y a un peu plus de deux ans, en pleine montée de la pandémie de COVID-19, Anthony Paul Bamford – dit Lord Bamford, fils du fondateur qui a légué ses initiales au groupe, Joseph Cyril Bamford – a mis au défi son équipe R&D composée d’une centaine d’ingénieurs de concevoir rien de moins qu’un tout nouveau type de moteur : un moteur à combustion interne alimenté non pas par du gazole, mais par de l’hydrogène. Une voie alors encore quasi inexplorée dans le secteur des engins de chantier.

Aiguillonnés, c’est en l’espace de seulement quelques semaines que les ingénieurs sont parvenus à jeter les bases de cette innovation. Des mois de travail leur ont toutefois été nécessaires pour affiner ensuite la mise au point, puis l’intégration de ce moteur novateur dans un engin de chantier.

Un fonctionnement entièrement revu

JCB, moteur à combusion interne à hydrogène
Le moteur à combustion interne à hydrogène conçu par JCB a été dévoilé à la presse française en décembre dernier. © Benoît Crépin

« Il ne s’agit pas d’une conversion à l’hydrogène, mais bien d’une toute nouvelle technologie de combustion », assure Ryan Ballard, directeur de l’ingénierie des groupes motopropulseurs chez JCB. « Nous avons dû passer au crible la plupart des éléments du moteur et nous les avons entièrement repensés pour l’hydrogène », poursuit le responsable.

Partant de la base d’un moteur diesel conventionnel, les ingénieurs n’en ont conservé que les bases, « l’ADN du moteur », tel que les décrit Ryan Ballard. Ils ont en revanche complètement revu de nombreux éléments clés, à commencer par le système d’injection, qu’ils sont en outre venus compléter par un dispositif d’allumage commandé. Contrairement au gazole, l’hydrogène utilisé comme carburant n’est en effet présent dans la chambre de combustion qu’à des pression et température relativement basses. Une étincelle est donc nécessaire pour initier sa combustion. Partant de ce principe, les ingénieurs de JCB se sont ainsi également attelés au développement d’un système électronique de pointe destiné à assurer un contrôle précis de l’allumage. Et outre cet aspect, l’équipe de développement s’est concentrée sur trois autres points clés.

Le premier d’entre eux est le turbo. Les ingénieurs britanniques ont en effet développé un modèle de turbocompresseur spécifiquement pensé pour les besoins du moteur à hydrogène : capable de comprimer un important volume d’air, il offre aussi un temps de réponse extrêmement court.

Afin d’en optimiser les caractéristiques, le comportement du mélange air/hydrogène introduit dans les cylindres du moteur a également été scruté à la loupe par les ingénieurs JCB, à grand renfort d’outils de modélisation numérique.

Enfin, l’équipe s’est penchée sur un ultime problème, qui aurait pu réduire à néant le reste de leurs efforts : celui de la gestion des gaz d’échappement. Contrairement au diesel, les gaz rejetés par le moteur à hydrogène sont en effet relativement froids et, surtout, composés uniquement de vapeur d’eau. Un gaz qui a tendance à se transformer en liquide, formant ainsi des gouttelettes d’eau susceptibles d’enrayer le fonctionnement du moteur. Pour remédier à ce phénomène, les ingénieurs ont ainsi eu l’idée de lubrifier le moteur à l’aide d’une huile hydrophobe renforcée d’additifs empêchant la formation d’une émulsion au contact de l’eau.

Allumage, mélange air/hydrogène, suralimentation, et gestion de la vapeur d’eau… En parvenant à maîtriser l’ensemble de ces points clés, l’équipe a ainsi donné naissance à un moteur à hydrogène de 55 kW aux performances en tous points comparables à celle de son équivalent diesel. « Les propriétés de combustion uniques de l’hydrogène permettent au moteur de fournir la même puissance, le même couple et le même rendement que ceux dont bénéficient les machines JCB actuelles, mais sans émission de CO₂ » s’est ainsi félicité dans un communiqué le président du groupe, Lord Bamford.

JCB, moteur zéro émission
JCB a déjà équipé certaines de ses machines avec son nouveau moteur zéro émission. Ici un chargeur télescopique. © Benoît Crépin

En route vers la production à grande échelle

Alors que le constructeur britannique annonçait début décembre la sortie de chaîne de production du cinquantième exemplaire de ce moteur zéro émission – toujours pour des besoins de développement –, JCB en a déjà équipé plusieurs de ses machines : chargeuses-pelleteuses et chargeurs télescopiques. Des machines qui, si elles ne sont pas encore produites en série, sont en tout cas parfaitement fonctionnelles. La production à grande échelle devrait quant à elle démarrer fin 2023 et ouvrira ainsi la voie à un élargissement de la gamme d’engins animés par le moteur hydrogène à combustion interne imaginé par JCB dans le cadre de sa stratégie « Road to zero ». « Ces équipements disposeront des mêmes caractéristiques de vitesse, de chargement et d’excavation que ceux alimentés par du carburant d’origine fossile », souligne Tim Burnhope, directeur de l’innovation.

Des engins qui devraient en outre bénéficier peu ou prou de la même autonomie, grâce à un réservoir d’hydrogène installé en lieu et place du réservoir de gazole, et dont le coût ne devrait se révéler qu’à peine plus élevé que celui de leurs homologues diesel.

Si des concurrents tels que le constructeur français Manitou ont eux aussi révélé s’atteler au développement de moteurs à combustion interne alimenté à l’hydrogène, JCB semble en tout cas pouvoir se targuer d’être le premier à avoir pleinement relevé le défi. Un pari à 100 millions de livres sterling lancé – l’histoire le retiendra sans doute – en pleine crise sanitaire mondiale.


[1] Troisième constructeur mondial en volume, numéro un sur le segment des chargeurs télescopiques et des chargeuses-pelleteuses.

La France au CES 2023 : Vivoka

Vivoka est une start-up qui propose une solution tout-en-un permettant à toute entreprise de créer sa propre IA vocale hors-ligne en un temps record.
William Simonin, le PDG de Vivoka, a répondu aux questions de Techniques de l’Ingénieur.

Techniques de l’Ingénieur : Quelle est l’histoire de la genèse de Vivoka  ?

William Simonin : Vivoka est une société leader des technologies vocales basées sur l’IA fondée en 2015. À la fin de ses études, son PDG William Simonin, avec son associé Vincent Leroy, a eu l’idée de créer Vivoka après avoir vu le film Iron Man. Jarvis, l’intelligence artificielle (IA) révolutionnaire présentée dans le film, les a tellement inspirés qu’ils ont voulu la rendre réelle. En matière d’interface homme-machine, rien n’est plus intuitif et logique que la voix. Ils ont réalisé qu’il n’existait pas d’assistant vocal intelligent. À cette époque, les assistants vocaux tels que Amazon Echo ou Google Home n’existaient pas encore. Ils ont donc entrepris de développer leur propre système de reconnaissance vocale.
Grâce à son VDK (Voice Development Kit), Vivoka propose une solution tout-en-un de reconnaissance vocale permettant à toute entreprise de créer son propre assistant vocal embarqué/offline, performant et sécurisé en un temps record. Vivoka a remporté plusieurs prix d’innovation et a établi des partenariats de premier plan avec des acteurs majeurs du marché de la voix. Vivoka possède un portefeuille de plus de 100 clients issus de tous secteurs d’activité et poursuit son objectif de rapprocher les hommes de la technologie grâce à la voix.

Dans quel secteur d’activité évolue votre entreprise ?

Vivoka invente, produit et distribue des solutions expertes dans le domaine des technologies vocales embarquées qui répondent aux besoins et aux réalités des entreprises, dans tous les secteurs : logistique, robotique, retail, healthcare, smartglasses, défense…

Quels sont les produits que vous développez ?

Le produit phare de la marque est le VDK : Voice Development Kit, un kit de développement logiciel spécialisé dans le vocal. Il permet à toute entreprise de développer simplement et rapidement une solution vocale embarquée, en différentes langues et compatibilités.

Ce produit répond à une problématique du marché : adopter le vocal est actuellement un réel challenge. Le Voice Development Kit adresse cette problématique en réduisant le time-to-market des solutions vocales et le besoin de ressources humaines et financières pour démarrer ces projets, tout en réunissant les meilleures technologies, propriétaires et partenaires, disponibles aujourd’hui.

Pour quels clients ?

Nos clients sont des grands comptes et des PME, dans des secteurs tels que la logistique, la robotique, l’IOT, la défense, l’industrie ou la santé. Nous ciblons potentiellement toutes les entreprises qui souhaitent ajouter une interface vocale à un appareil afin de faciliter et simplifier l’interaction homme-machine.

Les 42 langues compatibles avec notre technologie nous permettent aujourd’hui de cibler ces entreprises dans le monde entier.

Quels sont aujourd’hui les enjeux principaux autour de l’IoT, en termes de connectivité, d’énergie, et de service ?

Concevoir une solution rapide, compatible avec tous les systèmes du marché et dans toutes les langues, et surtout offline donc non dépendant d’internet est un défi que de nombreuses entreprises ont tenté de relever.

Le Voice Development Kit adresse cette problématique en réduisant le time-to-market des solutions vocales et le besoin de ressources humaines et financières pour démarrer ces projets, tout en réunissant les meilleures technologies, propriétaires et partenaires, disponibles aujourd’hui.

Quelles sont les innovations propres aux produits que vous développez ?

Nous avons conçu le premier kit de développement logiciel qui rassemble toutes les technologies vocales nécessaires pour créer une solution vocale embarquées et offline. Un SDK kit de développement logiciel multifonctionnel associé à une interface utilisateur graphique intuitive.

Il permet à toute entreprise et à tout développeur de configurer eux-mêmes une interface vocale hors ligne (non dépendante d’internet) composée d’une ou plusieurs technologies vocales (transcription, synthèse vocale, biométrie vocale…) et multilingue en un temps record.

Tout d’abord grâce à une interface graphique simple et intuitive : de nombreux plugins sont à utiliser en parallèle pour créer des fonctionnalités vocales. Avec VDK, tout est sur le même logiciel et la même interface en une seule vue.

VDK propose également toute une gamme complète de widgets pour développer : Grammar Editor, COPFile Editor, Voice Studio… Tous ces outils sont à disposition pour les différentes étapes de la création de fonctionnalités vocales hors ligne : création de vocabulaires reconnus, personnalisation de voix synthétiques, gestion de fichiers dynamiques…

Ensuite, VDK est accompagné d’une documentation claire pour guider l’utilisateur. Il est souvent compliqué de s’y retrouver dans les premières étapes de la création d’une interface vocale. Pour réduire cette complexité, des tutoriels (création d’un ASR, d’un TTS…) sont disponibles pour vous accompagner pas à pas dans le développement de votre solution vocale hors ligne.

Les cas d’usages les plus courants sont associés à des exemples de codes pour faciliter la compréhension des technologies. Pour les cas plus complexes, une documentation complète et nos services sont disponibles sur la plateforme Voice Development Kit.

Qu’attendez vous de votre participation au CES 2023 ?

Il s’agit de notre cinquième participation. L’année 2023 est stratégique pour Vivoka car nous souhaitons accélérer l’internationalisation de la société pour asseoir notre rythme effréné de croissance. C’est pour cette raison que le CES est un événement incontournable pour rencontrer de nouveaux partenaires ou clients et surtout évangéliser autour de l’usage de la reconnaissance vocale dans l’industrie.
Aussi, le CES est important pour nous en termes de notoriété, et pour développer l’aspect relationnel avec certains partenaires technologiques présents au CES, ainsi que nos clients. Enfin, le CES est aussi important pour nous pour rester à jour technologiquement.

Une combinaison de solutions innovantes pour valoriser les sédiments marins

Chaque année, dans l’Union européenne, plus de 200 millions de m3 de sédiments marins sont dragués dans les ports et les voies navigables pour faciliter la circulation des bateaux. Ces volumes, très importants, représentent 80 millions de tonnes de poids sec. 99 % d’entre eux sont déversés en mer ou alors gérés comme des déchets, et seulement 1% font l’objet d’une valorisation. Depuis 2017, un projet transfrontalier baptisé Suricates[1] a débuté dans le Nord-ouest de l’Europe afin d’accroître la réutilisation des sédiments grâce au développement de plusieurs solutions innovantes. Ces sédiments serviront, entre autres, de matières premières secondaires pour construire des systèmes de protection résilients contre les inondations et l’érosion du milieu littoral.

La plupart des réglementations européennes obligent à réaliser des analyses des sédiments, avant même qu’ils soient dragués, pour caractériser leur qualité. Deux solutions se présentent : s’ils contiennent des polluants, ils sont ensuite stockés dans des sites de stockage de déchets ; dans le cas contraire, ils sont rejetés en mer, au large, après autorisation. Pour la première fois, un outil portable appelé pXRF, jusqu’ici principalement utilisé pour caractériser les minéraux, et a été utilisé pour analyser les sédiments dans l’eau. « Il s’agit d’un analyseur de fluorescence des rayons X qui nous a permis de faire des pré-caractérisations sur site des sédiments avant que des études plus complètes en laboratoire soient menées, explique Éric Masson, géographe spécialisé en géomatique et en environnement à l’Université de Lille. Nous avons ainsi pu identifier les minéraux présents dans ces sédiments, des minéraux à risque sur le plan environnemental. »

Un nouvel équipement de déshydratation des sédiments a par ailleurs été conçu par le bureau d’études et d’ingénierie Ixsane, basé à Villeneuve-d’Ascq, et partenaire de ce projet. Il permet de retirer une grande partie de l’eau des sédiments, son volume passant de 70 % à 30%. Des procédés de déshydratation existent déjà, notamment par hydrocyclonage. Celui inventé a la particularité de fonctionner grâce à des traitements mécaniques par pression et filtration de l’eau pour séparer les sédiments de l’eau, dans un premier temps. Puis pour séparer les sables des sédiments fins. Ces derniers composés, constitués d’argiles et de limons, peuvent notamment servir de substituts dans la fabrication des ciments. L’un des aspects innovants de ce nouvel équipement est sa portabilité. Il peut ainsi être déplacé sur chaque site, même si trois containers sont alors nécessaires. « Nous avons démontré que ce prototype pouvait débiter des volumes allant jusqu’à 60 m3 par heure, complète Éric Masson. Dans le futur, il sera possible de concevoir des équipements industriels capables de débiter de plus grands volumes. »

Aménager des pistes cyclables avec des sédiments dragués

En Écosse, ce nouvel équipement a permis à Scottish Canals, un organisme chargé de la gestion des voies navigables et partenaire de ce projet, de valoriser pour la première fois ses sédiments dragués. Après avoir séparé les sables des éléments fins, ces composés ont été réutilisés pour faire du béton, afin de construire des blocs et protéger une zone littorale située à l’ouest de Glasgow. Une autre partie des sédiments dragués a également servi à aménager des sols dans le but de stabiliser des pistes cyclables sur le site de Bowling [2].

Une autre technique innovante a cette fois-ci été employée dans le port de Rotterdam[3]. Depuis plusieurs années, une zone naturelle humide a été aménagée sur l’une de ses rives afin de favoriser la biodiversité dans le port. Plutôt que d’utiliser des engins lourds pour transporter des sédiments vers ce site naturel, les scientifiques du projet Suricates se sont servis du fonctionnement hydraulique naturel du port, c’est-à-dire des courants d’eau, pour permettre la recharge en matériaux fins de cette zone humide.

« Nous avons déposé un câble optique de plusieurs centaines de mètres de long dans le fond du port pour surveiller la turbidité de l’eau pendant toute la phase de remise en suspension des sédiments, précise Éric Masson. Ce type de dispositif est rarement utilisé, surtout sur une période aussi longue, c’est-à-dire plus d’une année. Grâce à lui, nous avons pu estimer la quantité de sédiments qui a permis de recharger la zone humide. Au final, l’équivalent de 220 000 tonnes de sédiments de poids à sec a pu être déplacé. »

Le projet Suricates va se poursuivre jusqu’à la fin de l’année 2023. Il s’est vu confier une nouvelle mission dans le bassin de la Rance, au nord de la Bretagne. Depuis 1966, une usine marémotrice amplifie l’accumulation estuarienne naturelle de sédiments en amont du barrage, long de 390 mètres. « Nous allons contribuer à la définition du plan de gestion des sédiments de la Rance, confie Éric Masson. Ici, notre objectif est d’accompagner les acteurs locaux dans la gestion des impacts à long terme d’une infrastructure d’énergies renouvelables en mer. »


[1] Le projet Suricates (2017-2023) est financé sur fonds européens FEDER dans le cadre du programme Interreg-ENO

[2] Un quartier de Glasgow 

[3] Aux Pays-Bas

La France au CES 2023 : Hekatech

Cette application pourrait ainsi permettre d’augmenter le nombre de personnes sauvées après avoir été victimes d’une crise cardiaque.

Frédéric Leybold, fondateur et CEO d’Hekatech, a répondu aux questions de Techniques de l’Ingénieur.

Techniques de l’ingénieur : Quelle est l’histoire de la genèse Hekatech ?

Frédéric Leybold : Je suis infirmier en réanimation et infirmier pompiers. En 2016, j’ai créé l’Association française de Premiers Répondants afin d’alerter des secouristes de proximité lors d’un arrêt cardiaque.
Ces secouristes sont déclenchés via une application smartphone reliée aux services secours, en fonction de leur géolocalisation, afin d’intervenir dans les premières minutes jusqu’à l’arrivée des secours.
Grâce à cette application, nous augmentons le nombre de secouristes qui interviennent, mais pas véritablement le nombre de défibrillateurs utilisés. Un jour, alors que j’étais dans les locaux d’une radio mosellane, j’ai vu un défibrillateur dans leur salle de rédaction, je me suis dit qu’il fallait que je trouve un moyen de les alerter en cas d’arrêt cardiaque afin qu’ils puissent apporter le défibrillateur.

L’augmentation du nombre de défibrillateurs apportés sur les lieux d’un arrêt cardiaque est un facteur clé. En effet, moins de 10% des arrêts cardiaques bénéficient d’un défibrillateur avant l’arrivée des secours, alors qu’il y en plus de 400 000 en France.

Afin de prévenir les personnes à proximité, j’ai eu l’idée d’un panneau connecté qui s’installe au-dessus des défibrillateurs afin d’alerter qu’un arrêt cardiaque a lieu à proximité : géocoeur était né.

Afin de développeur géocoeur le format associatif était compliqué voire impossible j’ai donc décidé de créer Hekatech.

En quoi géocoeur est innovant par rapport aux solutions existantes ?

C’est la première fois qu’est développé un panneau connecté, relié aux services de secours, qui va alerter les secours et permettre aux passants, grâce à un QR code, de connaître l’adresse afin d’apporter le défibrillateur où il est utile.

Quels sont vos clients ?

Le secteur privé et les collectivités possédant un défibrillateur constituent notre cœur de marché.

Quels sont aujourd’hui les enjeux principaux autour de l’IoT, en termes de connectivité, d’énergie, et de service ?

L’objectif est de déployer un système peu gourmand en énergie, peu gourmand en data, compatible avec wifi ou 4G/ 5G, et avec une réactivité inférieure à 30 secondes.

Qu’attendez-vous de votre participation au CES 2023 ?

Il s’agit de notre toute première participation. Tout d’abord, l’objectif est de gagner en notoriété, en étant dans la délégation de la région Grand Est.
Ensuite, nous voulons rencontrer de potentiels clients pour acheter des géocoeurs, mais aussi de potentiels fournisseurs.

Enfin, le CES est aussi l’occasion de découvrir le marché américain.

Déforestation importée : un accord salué, et des défis à venir

La déforestation repart à la hausse ces dernières années, notamment en Amazonie brésilienne. Pour ne plus participer à ce désastre, l’Union européenne planche depuis plus d’un an sur un projet de règlement visant à interdire l’importation de produits issus de la déforestation sur son sol. Après des négociations ardues et des compromis, un trilogue entre le Parlement, la Commission et le Conseil s’est tenu les 5 et 6 décembre 2022. Il a abouti sur un accord, faisant de l’Europe la première économie du monde à se doter d’une réglementation contre la déforestation importée.

Le Parlement et le Conseil devront approuver formellement l’accord dans les prochaines semaines. Il entrera ensuite en vigueur 20 jours plus tard. Dès lors, les entreprises auront 18 mois pour déployer un système de traçabilité garantissant, pour les produits encadrés, qu’ils ne proviennent pas de territoires ayant été déboisés après fin 2020. Et ce, où que ce soit dans le monde.

Le WWF salue un « accord historique ». Les ONG Greenpeace et Canopée – Forêts Vivantes tempèrent toutefois cet enthousiasme. Greenpeace mentionne « une réglementation ambitieuse, mais imparfaite ». Canopée – Forêts Vivantes dénonce pour sa part le champ restreint d’application du texte. En particulier, l’association regrette qu’il ne prenne en compte que les forêts et exclut à ce stade les autres terres boisées.

De nombreux produits concernés

Au fur et à mesure des négociations, le nombre de produits agricoles et dérivés entrant dans le champ d’application du règlement a été étendu. Ce dernier imposera finalement des obligations aux entreprises qui importent ou exportent du bétail, du bois, du soja, de l’huile de palme, du cacao, du café et du caoutchouc. Il concernera aussi certains produits dérivés comme la viande de bœuf, le cuir, le chocolat, le charbon de bois, le papier imprimé, la laine, les pneus et les meubles.

Tous « les opérateurs et commerçants qui ne sont pas des PME » devront se doter d’un système de vigilance pour exclure les produits issus de la déforestation de leur chaîne d’approvisionnement, prévoit le règlement. Ils devront ainsi publier une déclaration de « diligence raisonnable ». Celle-ci s’appuiera sur un processus en trois étapes pour analyser et corriger les risques d’illégalité qui peuvent intervenir tout au long d’une chaîne d’approvisionnement de produits visés.

Des images satellites qui font foi et des contrôles

En particulier, les opérateurs devront enregistrer les coordonnées GPS des parcelles de terre d’où proviennent les produits concernés. Dès lors, ils devront prouver qu’aucune forêt n’y a été récemment déboisée, sous peine d’amende. « Récemment » signifie depuis le 31 décembre 2020, selon le règlement. La comparaison des images satellites à l’instant T avec celles datant de cette référence permettront d’organiser des contrôles.

Le règlement prévoit trois classes de pays : les pays à risque élevé, standard ou faible. Cette liste des pays est en cours de définition. L’accord prévoit notamment l’organisation de contrôles sur 9 % des transactions à destination de l’Europe pour les pays les plus à risque, de 3 % pour le risque standard. Pour les pays considérés comme les plus fiables, les contrôles ne concerneront que 1 % des transactions. Les contrevenants s’exposent à une amende pouvant atteindre jusqu’à 4 % de leur chiffre d’affaires en Europe.

Des manques sur les terres boisées et les peuples autochtones

Au-delà des seules forêts, le Parlement proposait d’intégrer d’« autres terres boisées » dans le champ d’application du règlement. Finalement, les négociateurs ont décidé de ne pas les inclure à ce stade. Ils prévoient néanmoins la réalisation d’une étude d’impact par la Commission sur la possibilité d’inclure d’autres écosystèmes – comme les savanes, les tourbières et les zones humides –, ainsi qu’une clause de révision dans un délai d’un an à partir de son entrée en vigueur.

Deux ans au plus tard après son entrée en vigueur, il sera aussi temps d’étudier la potentielle inclusion d’autres produits comme le maïs et les agrocarburants. La Commission évaluera en plus la possibilité d’étendre la diligence raisonnable aux institutions financières et à leurs services financiers.

Enfin, les ONG regrettent que le texte présente des manques concernant la protection des peuples autochtones. En effet, il limite le respect des droits humains aux lois nationales. Ainsi, si un pays discrimine certaines populations, leurs droits ne seront pas davantage pris en compte dans le cadre de cette nouvelle réglementation. Pour l’instant, aucune révision n’est prévue sur ce point.

La France au CES 2023 : GreenWaves Technologies

La start-up conçoit des processeurs d’intelligence artificielle ultra-basse consommation pour les dispositifs IoT alimentés par batterie. Elle est présente au CES de Las Vegas pour l’édition 2023.

Martin Croome, Vice Président du marketing chez GreenWaves Technologies, a répondu aux questions de Techniques de l’Ingénieur.

Techniques de l’ingénieur : Quelle est la genèse de GreenWaves Technologies ?

Martin Croome : GreenWaves est une start-up de semiconducteurs fabless[1] fondée en 2014 et basée à Grenoble. Nous concevons et commercialisons des processeurs applicatifs à très faible consommation pour des objets alimentés sur pile : oreillettes, casques audios, caméras intelligentes, objets connectés et dispositifs de suivi médical.

La forte capacité de calcul de nos processeurs, tant en IA qu’en DSP[2], permet à nos clients de développer des applications à haute valeur ajoutée qui offrent des cas d’usage innovants à leurs produits avec un budget énergétique sans équivalent.

Notre chaîne d’outils de développement logiciel donne une productivité unique pour porter rapidement des applications complexes sur GAP, en assurant toute la performance de nos processeurs.

La puissance de calcul embarquée dans le processeur GAP9 de GreenWaves permet d’intégrer aux oreillettes et casques audios de nouvelle génération des fonctions avancées telles que la réduction de bruit ou l’annulation de bruit adaptative à base de réseaux de neurones, la spatialisation multicanal du son et les techniques d’amélioration de l’écoute, et ce avec une efficacité énergétique inégalée sur le marché.

GAP9 a été classé premier dans le premier benchmark d’IA pour processeurs embarqués (MLPerfTiny), surpassant le 2ème (Syntiant NDP120) d’un facteur 2 à 3 selon les algorithmes, tant en consommation énergétique qu’en puissance de calcul, tous les autres processeurs étant loin derrière.

Quelles sont les innovations développées autour des produits GreenWaves ?

Dans le marché très concurrentiel des écouteurs « hearable », l’introduction de fonctionnalités disruptives améliorant le confort et la sécurité de l’utilisateur est une condition du succès commercial pour ses acteurs.

La prochaine génération d’écouteurs devra offrir un niveau de qualité audio supérieur, en s’adaptant automatiquement à son utilisateur et à l’environnement de celui-ci. Les processeurs d’application audio intégrés doivent supporter une combinaison de traitements DSP et d’IA, exécutés avec des niveaux de consommation et de latence très faibles tout en préservant la flexibilité et la facilité de programmation. GreenWaves a créé un nouveau type de processeurs à très haute performance énergétique qui satisfait ces besoins de façon unique. GAP9 est un nouveau type de processeur à très faible consommation, facile à programmer qui est capable de combiner les traitements DSP classiques et de réseaux de neurones pour une expérience audio supérieure dans les dispositifs d’écouteurs « hearable » commandés par IA.

Quelles sont les raisons de votre participation au CES ?

C’est un événement technologique mondial très important et pour GreenWaves, c’est l’occasion de présenter nos technologies révolutionnaires, et de rencontrer des partenaires et des clients.

Avez-vous des attentes particulières par rapport à cette édition 2023 ?

Cette année, nous aimerions rencontrer nos partenaires et clients potentiels pour leur proposer des démonstrations, en direct, d’applications alimentées par GAP9, notre processeur ultra basse consommation :

  • ANC adaptatif – suppression du bruit environnant qui s’adapte parfaitement au porteur et à son environnement ;
  • Audio spatial immersif – restauration de la capacité humaine naturelle à organiser le son dans l’espace ;
  • Réduction du bruit basée sur l’IA – suppression de votre bruit de fond pendant les appels (un chien qui aboie, un tramway qui passe, ou encore la voix de la personne à proximité) ;
  • Caméra de surveillance intelligente – détection d’événements basée sur un réseau neuronal à l’aide d’une analyse multi-capteurs.

[1] Sans usine

[2] Processeurs de traitement numérique du signal

Cyberattaques : les menaces se complexifient

Baptisé « Threat Landscape », ce long document décrit un champ de bataille avec des forteresses prises d’assaut sous différents angles, de redoutables attaquants améliorant sans cesse leurs techniques, des mercenaires avides de rançons et des commandos chevronnés dirigés par une poignée de pays.

Très complète, s’appuyant sur de nombreuses études et des avis d’experts, cette édition 2022 ne pouvait faire l’impasse sur la guerre russo-ukrainienne qui a défini une nouvelle ère pour la cyberguerre et le hacktivisme, son rôle et son impact sur les conflits.

« Il est fort probable que les États et les autres cyber-opérations s’adapteront à ce nouvel état de fait et tireront parti des avantages qu’il offre. En raison de la volatilité de la situation internationale, nous nous attendons à observer davantage de cyberopérations motivées par la géopolitique dans un avenir proche ou à moyen terme », lit-on dès les premières pages.

L’agence constate également que les acteurs de la menace augmentent leurs capacités en utilisant en particulier des failles 0-day pour atteindre leurs objectifs opérationnels et stratégiques. Une vulnérabilité est dite « 0-day » lorsqu’elle est découverte et exploitée par un pirate avant qu’un correctif ne soit disponible et largement déployé par l’éditeur du logiciel ou le matériel (automate, smartphone, routeur…) en question.

Des failles vendues plus de 3 millions d’euros !

L’exploitation de ces failles n’est pas nouvelle, mais certaines d’entre elles s’arrachent au prix d’or (2 ou 3 millions de dollars pièce, voire plus pour certaines…). Des cyberattaquants parrainés par un État (seule une poignée de pays – USA, UK, Chine, Russie et Israël – peuvent s’acheter des 0-day) ont exploité de nombreuses vulnérabilités critiques, dont certaines concernaient des solutions de Microsoft, des routeurs ou des logiciels de sécurité comme les VPN.

L’ENISA s’inquiète aussi du recours de plus en plus massif aux campagnes de désinformation. Cette technique de guerre de l’information n’est pas récente, car elle remonte à la guerre froide. Elle a connu un renouveau aux États-Unis après l’élection de 2016, lorsque la Russie a été accusée d’avoir interféré avec le processus électoral américain.

Le rôle central de la désinformation dans la cyberguerre a été clarifié dans la guerre entre la Russie et l’Ukraine. « La désinformation a été utilisée avant même le début de la guerre “physique” comme activité préparatoire à l’invasion de l’Ukraine par la Russie. Des campagnes de désinformation de masse ont en effet visé l’Ukraine avant l’invasion et ont continué à s’intensifier pendant celle-ci », lit-on dans ce rapport.

Chevaux de Troie bancaires

Mais le succès grandissant des réseaux sociaux a fourni aux acteurs étatiques et non étatiques des canaux et des outils puissants pour fabriquer et distribuer des informations malveillantes. « Ces campagnes sont généralement la première étape avant le lancement d’autres attaques, telles que le phishing, l’ingénierie sociale ou l’infection par des logiciels malveillants », prévient l’agence.

En 2021, les familles de logiciels malveillants les plus courantes comprenaient les chevaux de Troie d’accès à distance, les chevaux de Troie bancaires, les voleurs d’informations (stealers) et les ransomwares.

« La plupart des souches de ces virus sont actives depuis plus de cinq ans, ce qui confirme que le développement des logiciels malveillants est un effort continu et que le développement actif porte ses fruits », constate l’ENISA.

La France au CES 2023 : Perfect Memory

La start-up Perfect Memory, installée à Chamalières dans le Puy-de-Dôme, est spécialisée dans la gestion de données numériques. Elle compte aujourd’hui parmi ses clients France Télévisions et le Paris Saint-Germain, entre autres.

Nicolas Levant, le directeur marketing de Perfect Memory, a répondu aux questions des Techniques de l’Ingénieur, à quelques jours du début de l’édition 2023 du CES de Las Vegas.

Techniques de l’ingénieur : Quelle est l’histoire de la genèse de Perfect Memory ?

Perfect Memory est née du constat que l’homme arrivait à un moment de son histoire où il devait créer un outil nouveau pour gérer les savoirs  foisonnants qu’il produisait (la mémoire accessible et intelligible) de plus en plus rapidement pour être en mesure de les exploiter beaucoup plus efficacement. En particulier, la mise en œuvre la plus rapide et immédiate est de constater que toute organisation est devenu un média (de l’entreprise à la famille en passant par les institutions publiques). Et en tant que tel doit gérer ses savoirs comme le ferait n’importe quel media car ces savoirs, cette mémoire accessible et intelligible, est faite de données mais aussi de textes, d’images, de vidéos, de sons et de tout autre document multimédia. Notre devoir est de leur permettre de préserver et de diffuser ces savoirs.

Dans quel secteur d’activité évolue votre entreprise ?

Dans l’édition logicielle. Nous éditons une plateforme logicielle d’ingénierie des connaissances particulières. Une Cognitive Asset Management Platform qui garantit à toutes les parties prenantes des organisations un accès complet, rapide et continu à l’ensemble des actifs numériques de l’entreprises pour leur utilisation et valorisation optimales.

Quels sont les produits que vous développez ? Pour quel type de clientèle ?

Nous développons et commercialisons :

  • Perfect Memory CAM (cognitive asset management), la solution de référencement, exploration, enrichissement et de maximisation de la valeur des actifs numériques de l’entreprise.
  • Perfect Memory Piloté, la solution de conception de solution métier d’accès aux actifs numériques de l’entreprise.
  • Perfect Memory Exposé, la solution de valorisation et monétisation des actifs numériques de l’entreprise.

Nous destinons nos solution PM CAM et PM Exposé aux acteurs des médias (TV, Radio, Marque-Media) pour les cas d’usage de maximisation de la valeur des actifs numériques de l’entreprise.

Nous destinons notre solution PM Piloté à nos partenaires VAR et Techniques pour la mise en œuvre de manière autonome de nouvelles solutions métiers de maximisation de la valeur des contenus, de la valeur client (CF Bouygues) et de la valeur des transactions que réalise l’entreprise (M&A par exemple).

A noter qu’au CES nous présenterons également notre solution en Perfect Memory Family adaptée aux enjeux de préservation et transmission des contenus de la famille, qui est encore au stade de développement.

Quels sont aujourd’hui les enjeux principaux autour de la gestion des données numériques ?

Il s’agit aujourd’hui d’exploiter les volumes énormes, qui doublent tous les 2 ans, de données et contenus produits, qui sont accumulés dans les entreprises pour maximiser la valeur de ces contenus (content value), celle des clients et celle des transactions.

Quelles sont les innovations propres aux produits que vous développez ?

Nous apportons au marché des innovations uniques telles que la représentation contextuelle métier des données. L’utilisateur final n’a plus besoin d’aucune expertise pour accéder, modifier, enrichir et exploiter par lui-même toute information ou contenu référencé par PM Trouvé (et idem dans PM Family). Nous apportons également la valorisation des investissements faits dans les outils d’IA pour les rendre exploitables directement par les métiers.

Cela permet aux médias clients de disposer :

  • d’un outil de recherche qui marche quelle que soit la donnée, le contenu, son origine ou son utilisateur, donc une capacité de recherche fine (jusqu’au niveau de l’image) directement accessible à l’utilisateur final.
  • d’un référentiel accessible par tous grâce à la réconciliation de toutes sources de données, de tous types de ressources numériques issues de tout acteur de la chaîne métier dans un référentiel unique exploitable par tous. Un langage unique.
  • d’un système de gestion qui évolue avec les métiers avec la mise à jour continue du modèle de données et du modèle de traitement des flux d’information pour qu’il adhère continuellement aux besoins réels des opérationnels quels que soient leur niveau ou position dans la chaîne de traitement.

Est-ce votre première participation au CES ?

Non. Cela fait quelques années que nous présentons nos innovations de rupture.

Qu’attendez vous de votre participation au CES 2023 ?

L’objectif est d’augmenter notre visibilité et acculturer le marché sur ces nouveaux possibles que nous apportons dans la transformation numérique des organisations. Et rencontrer des partenaires et des prescripteurs.

L’électronique de puissance au cœur des enjeux du véhicule électrique

Dans un véhicule électrique, l’électronique de puissance joue un rôle majeur. Elle pilote le moteur, gère l’énergie du véhicule et sa vitesse de recharge. Le silicium est le matériau utilisé historiquement pour la conversion d’énergie électrique. Et c’est justement sur le développement d’une technologie de composants d’électronique de puissance, le carbure de silicium (SiC), que le CEA et Valeo ont annoncé leur coopération en septembre dernier. Pour mieux comprendre le rôle de l’électronique de puissance et ses enjeux, ainsi que l’apport du SiC pour le marché automobile, nous avons échangé avec Philippe Despesse, adjoint aux programmes de la division Système au CEA-Leti.

Techniques de l’ingénieur : Quel est l’objet de votre collaboration avec Valeo ?

Philippe Despesse : Nous travaillons sur la chaîne de traction en y intégrant des composants de puissance en carbure de silicium (SiC) afin de tenir des tensions de batterie élevées. Le composant de puissance en SiC est ce qu’on appelle un composant « grand gap ». Ce composant a la faculté d’avoir un petit RDSON, c’est-à-dire une résistance à l’état passant très faible. Plus cette résistance est faible, moins il va chauffer. C’est comme un interrupteur électrique : lorsque vous l’allumez, sa résistance est proche de 0, il n’a ni chute de tension, ni échauffement. Et c’est ce que nous recherchons en électronique de puissance. Un composant « grand gap » a également la capacité de monter en fréquence, c’est-à-dire qu’il peut switcher de l’état passant à l’état coupant à des fréquences très élevées du fait de faibles pertes « de commutation ». À titre d’exemple, les transistors silicium montent à 20 kHz, les transistors « grand gap » peuvent aller jusqu’au MHz. Cela permet de réduire la taille des passifs sur la carte électronique : transformateur, inductance, condensateur, etc.

Quel est l’objectif de réduire le nombre de composants ?

L’objectif est de réduire à la fois le poids, l’encombrement et le coût de l’électronique de puissance. Cela représente environ 30 % de réduction. Et dans le véhicule électrique, il y a trois points majeurs de conversion. Depuis la borne de recharge qui peut être en AC ou DC vers le pack batterie du véhicule qui s’oriente de plus en plus vers une tension de 800 V DC. Depuis le pack batterie vers le moteur électrique en AC et sa chaîne de traction. Et depuis le pack batterie vers la batterie auxiliaire en DC 12 V pour alimenter les périphériques et le tableau de bord : phares, radio, calculateurs.

Les composants en SiC sont-ils déjà dans les véhicules électriques ?

Aujourd’hui, il y a beaucoup de composants de puissance en silicium ayant une capacité à supporter des hautes tensions. Ils coûtent moins cher, car les fondeurs ont poursuivi la bataille pour les maintenir à l’état de l’art et ils y sont relativement bien parvenus. C’est une vieille technologie éprouvée qui bénéficie de tous ses outils de production avec un coût amorti. Le silicium est donc très compétitif en volume. Quant au SiC, même si cela fait des années que l’on en produit (comme ST Microelectronics et d’autres fondeurs), il coûte plus cher et les volumes restaient jusqu’alors très limités. D’ailleurs, il arrive parfois que des constructeurs alternent composants silicium et SiC pour pallier la crise d’approvisionnement des composants. Des constructeurs automobiles haut de gamme intègrent déjà un boîtier de conversion standard avec une puce en SiC à l’intérieur. Mais le problème, c’est que le reste des composants (switchs, transformateurs, etc.) sont reliés de manière éclatée autour du boîtier et il perd en efficacité. Car plus les connexions sont longues, plus on a des pertes résistives et des points de fonctionnement dégradés, ce qui entraîne globalement une perte de rendement. À l’inverse, plus le boîtier est compact, dans un milieu optimisé, plus on aura un bon niveau de rendement accompagné potentiellement d’une montée en fréquence avec un routage optimisé. Donc l’idée est d’intégrer l’ensemble de ces composants à l’intérieur du boîtier, ou au maximum, pour gagner à la fois en place et en efficacité.

Et en puissance ?

L’augmentation de la vitesse de rotation des moteurs des voitures électriques permet d’augmenter leur densité de puissance. On peut monter jusqu’à des vitesses de rotation moteur de 20 000 tours/minute qui nécessite de facto d’augmenter la fréquence de sortie de l’onduleur. Ce moteur doit être par conséquent suivi d’un réducteur de vitesse afin que les roues du véhicule tournent à la bonne vitesse. Et il faut trouver le bon compromis entre le moteur, son convertisseur amont et le réducteur. Les composants SiC permettent de supporter des forts courants et des tensions supérieures à 1 000 V, ce qui leur permet d’être connectés en direct avec un pack batterie 800 V. Si un véhicule a une puissance de 250 kW, chaque phase de l’onduleur devra alors supporter des courants pic au-delà de 100 A, ce qui nécessite de paralléliser les transistors. Un des enjeux est également de réussir cette parallélisation et la synchronisation de ces switchs entre eux. Car si l’un d’eux est désynchronisé, il va alors devoir supporter tout le courant et casser.

Et c’est ce sur quoi vous travaillez…

Oui, nous travaillons sur cette mise en parallèle, sur l’augmentation des rendements, sur les technologies (matériaux et procédés de fabrication adéquats) et la prise en compte d’une intégration véhicule. Le rendement reste un élément majeur. Par exemple, si un convertisseur lambda a un rendement de 90 %, pour un moteur de 100 kW, ce sont 10 kW qui sont perdus dans la conversion de puissance. Ce qui nécessite de dissiper thermiquement ces 10 % avec un refroidissement liquide, compliqué à faire, qui augmente donc le coût, ajoute du poids dans le véhicule et diminue d’autant l’autonomie de ce dernier. L’idée d’utiliser du SiC, c’est de passer à 98 %. Et ainsi passer de 10 à 2 kW de perte, ce qui change tout. Quand on parle d’efficacité énergétique, c’est ça, l’impact est énorme. De plus, il ne faut pas oublier que ce qui est valable pour les onduleurs niveau moteur l’est aussi sur les deux autres convertisseurs du véhicule (chargeur et alimentation de la batterie de bord). Avec le cumul des trois, on récupère beaucoup d’énergie.

Il y a une autre technologie sur laquelle vous travaillez avec Valeo : les jumeaux numériques. De quoi s’agit-il ?

En effet, le jumeau numérique est précieux pour avoir une bonne appréhension du dimensionnement des composants et de l’efficacité globale du convertisseur. On peut ainsi changer l’architecture, les composants, leur positionnement, le PCB ou encore le packaging. On est capable de modéliser depuis le pack batterie jusqu’au moteur. L’avantage est à la fois d’être beaucoup plus rapide et efficace pour la conception en évitant des itérations inutiles et d’identifier très rapidement l’origine d’un problème constaté sur la maquette d’évaluation. La précision des modèles et le savoir-faire du CEA en électronique de puissance : les composants, le packaging, le test, la connaissance système sont des atouts majeurs pour accompagner les industriels sur leurs prochaines générations.

Le marché des robots mobiles est en pleine expansion

18 milliards de dollars cumulés : c’est le chiffre d’affaires prévu pour le marché des robots mobiles à l’horizon 2027 selon la 5e édition du rapport d’Interact Analysis, un cabinet qui fait autorité en matière d’analyse de marché pour l’automatisation de la chaîne d’approvisionnement mondiale.

Marché de la robotique mobile
Prévisions de croissance pour le marché des robots mobiles, selon les régions économiques (Source et crédit : Interact Analysis)

Des applications variées pour les robots mobiles

AGV, AMR, AIV : ces acronymes sont couramment utilisés pour décrire deux catégories de robots autonomes. Quelles sont leurs différences ?

  • AGV : ce terme désigne les véhicules à guidage automatique, des robots utilisés en environnement statique et dont les déplacements sont guidés par des câbles magnétiques, des lasers ou des bandes peintes au sol. Ils sont très utilisés en manutention, dans les entrepôts logistiques, mais aussi de plus en plus dans l’industrie, dans les aéroports, etc.
  • AMR/AIV : il s’agit des véritables Robots Mobiles Autonomes, capables de se déplacer de manière totalement autonome, sans guidage. Associés à de l’intelligence artificielle et contrôlés en temps réel par un logiciel permettant d’optimiser les flux logistiques, ces équipements améliorent considérablement les opérations de picking, de tri et d’inventaire.

Polyvalents et rapides à mettre en place, les AMR, autrefois perçus comme futuristes, remplacent désormais les AGV dans les entrepôts. Dans un communiqué de presse, Interact Analysis annonce ainsi que « Les AMR et les AGV connaîtront tous deux une forte demande au cours des cinq prochaines années, mais la croissance de l’adoption des AMR éclipsera celle des AGV en raison de l’éventail plus large d’applications possibles. »

L’industrie manufacturière, nouvel eldorado pour les AMR après la logistique ?

Selon Interact Analysis, « La logistique restera le principal marché des robots mobiles, mais une croissance significative est également prévue dans l’industrie manufacturière, car de nouvelles applications se présentent à mesure que le marché se développe. »

Dans un rapport d’août 2021, intitulé A Mobile Revolution : How mobility is reshaping robotics, l’IFR[1] prévoyait, elle aussi, une forte croissance des ventes de robots mobiles pour le secteur logistique, notamment à l’horizon 2023. Et comme Interact Analysis, elle annonçait également que l’industrie manufacturière suivrait cette même tendance pour les prochaines années.

Il faut dire que pour ce qui est de l’industrie, les applications potentielles sont nombreuses. Elles concernent entre autres :

  • le transport de matières premières depuis les lieux de réception jusqu’aux chaînes de production ;
  • la manipulation des produits finis ;
  • la manutention des conteneurs et palettes ;
  • le chargement des remorques ;
  • la surveillance des usines.

Enfin, le développement des AMR dans l’industrie va de pair avec le développement de nouveaux modèles de production, plus modulaires, plus flexibles, tout l’intérêt étant de relier ces robots à un système de planification des ressources ERP[2] ou de gestion MES[3].


[1] International Federation of Robotics

[2] Enterprise resource planning

[3] Manufacturing Execution System

Le polyuréthane du futur sera-t-il vert ?

En 2021, le marché mondial du polyuréthane s’élevait à 24,7 millions de tonnes et devrait atteindre 29 millions de tonnes d’ici 2029. Ce polymère sert dans de nombreuses applications : mousses isolantes, matelas, colles, peintures, éoliennes, chaussures… Il est synthétisé à partir de polyols et d’isocyanates, très toxiques, issus de la pétrochimie. Du fait de sa structure réticulée, il ne se dégrade pas en présence de chaleur. Chaque année, ce sont environ 220 000 tonnes de mousses polyuréthanes (PU) qui sont jetées en décharge. Pour rendre ce matériau indispensable plus durable, les chercheurs se penchent sur deux aspects : la recherche de matières premières plus « vertes » et le recyclage.

Des matières premières plus durables

En novembre 2022, une équipe de chercheurs de l’Université de Liège en Belgique a mis au point un nouveau procédé qui synthétise du polyuréthane recyclable et sans isocyanates. Les isocyanates ont été remplacés par des carbonates cycliques. La technologie utilise de l’eau et un catalyseur pour convertir une partie des carbonates en dioxyde de carbone (CO2) afin de gonfler la matrice. Un ajout d’amine, qui réagit avec le reste du CO2, durcit la mousse. Cette synthèse, encore au stade du laboratoire, nécessite des matières peu coûteuses, accessibles et moins toxiques que l’isocyanate.

Un autre projet, porté par plusieurs industriels dans le cadre du programme européen de recherche Horizon 2020, Carbon4Pur, s’est attelé à réduire l’empreinte carbone des intermédiaires de polyuréthane et de diminuer la consommation d’énergie du procédé. Carbon4Pur utilise le monoxyde de carbone (CO) et le CO2 contenus dans des effluents gazeux industriels pour les transformer en polyols grâce au procédé de conversion catalytique du chimiste Covestro. Ce procédé en est toutefois encore au stade du laboratoire. À la fin du projet, l’empreinte carbone des intermédiaires de polyuréthane a été réduite de 10 %.

Pour aller plus loin dans la durabilité, des chercheurs de l’Université de Cordoue ont réussi à utiliser des déchets de blé, qui, une fois liquéfiés, produisent des polyols. Jusqu’à présent, l’huile de ricin a été l’un des principaux candidats dans la course à l’obtention d’une mousse de polyuréthane sans pétrole. Cependant, cette huile ne permet pas de retrouver toutes les propriétés nécessaires à la formation de mousse. Les chercheurs ont donc remplacé la moitié de cette huile dans le procédé par de la paille de blé, avec des résultats qui offrent des caractéristiques très similaires à celles générées par les processus de fabrication traditionnels.

Recycler le polyuréthane

Le polyuréthane ne se dégrade pas en présence de chaleur, il est donc impossible de le recycler en le faisant fondre, comme c’est le cas pour d’autres plastiques tel que le PET contenu dans les bouteilles. Auparavant, l’une des seules possibilités de fin de vie était de broyer la mousse pour l’incorporer dans des murs ou du bitume. Mais depuis quelques années, de nouvelles méthodes se sont développées.

Le polyuréthane peut être recyclé par des voies chimiques comme l’acidolyse, la glycolyse ou l’aminolyse. L’acidolyse consiste à placer le polyuréthane broyé dans une cuve en présence d’acide carboxylique et de polyols. Le processus permet de récupérer des polyols qui peuvent ensuite être réutilisés pour la production d’autres polymères. La glycolyse présente le même principe que l’acidolyse, mais l’acide est remplacé par du diéthylène glycol, tout comme l’aminolyse qui utilise de l’ammoniac, des amines ou des alcanolamines. Dans l’ensemble de ces procédés, la chaîne de polymères est cassée pour revenir au monomère de base.

Mais d’autres chercheurs se sont lancés dans le développement de procédés innovants comme la dégradation enzymatique contrôlée. Cette technique s’appuie sur des enzymes, appelées estérases, qui hydrolysent, c’est-à-dire cassent les fonctions esters, et qui laissent intacte la fonction uréthane. À partir des produits obtenus, il est donc possible de faire de nouveaux polyuréthanes sans ajouter d’isocyanates, ou même d’autres polymères. Les enzymes sont très sélectives et permettent de cibler des groupements particuliers.

BeFC : Une pile à biocarburants à base de papiers pour le marché de l’IoT

Créée en 2020, la start-up BeFC (Bioenzymatic Fuel Cells) est une spin-off du CNRS. Elle développe une technologie dont les travaux de recherche académique ont débuté il y a une quarantaine d’années. À l’origine, les scientifiques souhaitaient concevoir une pile à biocarburants capable de transformer le sang et l’oxygène présents dans le corps humain en énergie pour alimenter des pacemakers. Aujourd’hui, l’entreprise fabrique des biopiles ou biocellules enzymatiques à destination du marché de l’IoT (Internet of Things). Elles se révèlent légères et flexibles, et surtout sont totalement biodégradables, et ne contiennent pas de produits chimiques dangereux pour l’environnement. Entretien avec le Dr. Marie Berthuel, la manager produit de l’entreprise.

Techniques de l’Ingénieur : Présentez-nous la technologie développée par BeFC ?

Dr. Marie Berthuel, manager produit chez BeFC
Dr. Marie Berthuel, manager produit chez BeFC. Crédit : BeFC

Marie Berthuel : Nos biopiles sont constituées d’un assemblage de couches de papiers, plus précisément de papiers cellulose et carbone. Deux électrodes – la bioanode et la biocathode – sont supportées par ces papiers en carbone, sur lesquels sont également immobilisées des enzymes. Leur rôle est de transformer des substrats tels que le sucre et l’oxygène en électricité. Le glucose est un composé que l’on ajoute sur le papier, tandis que l’oxygène provient de l’air. Concrètement, à la bioanode, les enzymes vont oxyder le glucose en gluconolactone et cette oxydation va créer des électrons. De l’autre côté du circuit, à la biocathode, les enzymes vont réclamer ces électrons afin de réduire l’oxygène en eau. Ce mouvement d’électrons a pour effet de créer un courant électrique.

Quels types d’enzymes utilisez-vous, et quelle puissance est délivrée par vos biopiles ainsi que leur durée de vie ?

Je ne peux pas vous décrire précisément nos enzymes, car elles sont au cœur de notre secret industriel. Il existe déjà, depuis plusieurs décennies, des enzymes capables d’oxyder du glucose d’un côté et de réduire de l’oxygène de l’autre. Tout notre savoir-faire est d’avoir développé des enzymes particulières et des méthodes spécifiques pour les faire fonctionner dans notre dispositif. Nous ne produisons pas ces enzymes, mais nous nous adressons à des producteurs qui possèdent l’expertise pour en produire.

Quant à la puissance, elle est de l’ordre du milliwatt par cm², cela signifie que plus on augmente la surface, plus l’énergie délivrée est importante. Nos biopiles sont activées grâce à des fluides environnementaux ou biologiques et leur durée de vie est comprise entre plusieurs heures à plusieurs semaines. Cela dépend de l’application et à quel point elle est énergivore. Nous travaillons pour augmenter leur durée de vie, et espérons atteindre une durée de plusieurs mois à l’avenir.

Quelles sont les applications de votre technologie ?

Elle s’adresse au marché de l’IoT, au smart packaging et à l’ensemble des dispositifs électroniques jetables, de faible puissance, en remplacement des piles boutons. Notre principal débouché se situe dans le secteur de la logistique, afin de suivre des colis. En plus de fabriquer des biopiles, nous concevons également des cartes électroniques capables de suivre plusieurs paramètres comme la température, l’humidité, la pression, les chocs, le pH… Ces cartes sont équipées d’un microcontrôleur, d’une mémoire pour stocker les données et d’un module de communication pour les transférer. Nous les développons dans une démarche écoresponsable, en imprimant la plupart des composants électroniques, afin de réduire leur impact sur l’environnement.

Carte électronique BeFC et pile à biocarburants BeFC
En haut, une carte électronique développée par BeFC, et en bas, une pile à biocarburants. Crédit : BeFC

À quel stade se trouve votre projet ?

Notre entreprise fabrique 1 000 unités par jour à l’aide d’un bras robotisé qui assemble les biopiles couche après couche. Nous sommes entrés dans une phase d’industrialisation et nous optimisons actuellement nos lignes de production. En 2024, notre objectif est de produire un million d’unités par jour. En attendant, des contrats de codéveloppement ont été signés avec nos clients pour tester notre procédé. Ces clients veulent digitaliser leurs produits, mais ne souhaitent plus utiliser des batteries traditionnelles miniatures à base de lithium ou alcalines. Ils sont présents dans le secteur de la logistique, du traitement des déchets, du packaging de luxe, de la santé et de l’industrie 4.0. Nous avons un client dans le domaine médical qui a besoin de notre technologie pour réaliser le suivi de tests urologiques. Ce client est coté Nasdaq, et lorsque nous aurons démarré notre production de masse, ses besoins seront supérieurs à 100 millions d’unités par an.

Nous sommes pionniers dans le monde des biocellules enzymatiques, et ce même du côté de la recherche académique.

Second rapport annuel d’évaluation concernant la collecte des bouteilles plastiques de boisson

Sylvain Pasquier, ingénieur Ademe
Sylvain PASQUIER est ingénieur ADEME (Crédit : ADEME)

 Sylvain PASQUIER est ingénieur ADEME et Coordonnateur de pôle emballages.

La France s’est donné pour objectif d’atteindre un taux de collecte des bouteilles plastiques de boissons de 77% en 2025 et 90% en 2029, comme le prévoit l’article 66 de la loi AGEC.

L’évaluation annuelle du taux de collecte est ainsi confiée à l’ADEME, dont le 2e rapport, publié en octobre 2022 est disponible sur son site.

Techniques de l’ingénieur : Pourquoi la Commission européenne a-t-elle imposé de nouvelles modalités de calcul concernant la collecte ?

Sylvain PASQUIER : L’objectif de collecte des bouteilles correspond à une disposition qui retranscrit en droit français une exigence de la directive SUP sur les plastiques à usage unique[1]. Cette directive prévoyait aussi des textes complémentaires pour préciser les modalités de calcul. Comme ces précisions ont été publiées très tardivement, elles n’ont pas pu être prises en compte lors de la parution du premier rapport de l’ADEME.

Quels sont les changements apportés ?

Lors de l’élaboration du premier rapport, nous avons calculé le taux de collecte en entrée de centre de tri. Or, la commission demande de calculer ce taux en sortie. La différence porte donc sur les bouteilles perdues lors du tri qui ne sont plus prises en compte dans le calcul du taux.

À l’ADEME, nous constatons que la Commission européenne produit beaucoup d’éléments qui vont dans le sens d’une harmonisation des modes de calculs entre les pays. Ce renforcement de l’encadrement est positif, car des écarts importants de méthodes existaient, rendant plus difficiles les comparaisons entre pays. Cette harmonisation contribuera aussi à limiter les distorsions de mise en œuvre entre pays.

Quel est l’impact de ces nouvelles modalités sur les taux calculés par l’ADEME concernant la France ?

Comme le taux de captage en centre de tri retenu était de 94 %, le taux de collecte actualisé correspond à 94 % de la valeur précédemment calculée, ce qui fait baisser le taux de quelques points.

En ce qui concerne les calculs de l’ADEME pour la France, c’est le principal ajustement qui a dû être fait suite à la publication des modalités de calcul.

Concernant les chiffres, au-delà de la baisse du résultat suite à la modification du calcul, ce qui compte c’est l’évolution du taux de collecte dans le temps, qui progresse d’environ 4 points par an depuis 2019, ce qui est assez significatif.

Ademe, collecte des bouteilles plastiques
Comparaison des taux de collecte régionalisés pour les années 2019, 2020 et 2021 selon les modalités de calcul utilisées (source : rapport ADEME Collecte des bouteilles plastiques de boisson, octobre 2022)

La loi AGEC impose des objectifs concernant les taux de collecte. Sont-ils atteignables ?

L’atteinte de ces objectifs nécessite d’amplifier les moyens actuels, soit en consolidant les dispositifs de collecte existants, soit en mettant en place un dispositif complémentaire incluant une consigne pour recyclage.

L’article 66 de la loi AGEC prévoit qu’en milieu d’année 2023, des décisions seront prises concernant la mise en place éventuelle d’une consigne pour recyclage et réemploi.

L’ADEME conduit actuellement plusieurs travaux concernant ces éléments, de façon à disposer des enseignements pour la prise de décision, mi-2023.

Pourquoi les chiffres actuels ne sont-ils pas plus élevés ? Où sont les « trous dans la raquette » ?

En France, on constate de fortes disparités territoriales sur la performance de la collecte, et certaines régions sont en dessous de la moyenne nationale (cf. tableau ci-dessus). D’une manière générale, on constate que les résultats sont moins bons en habitat collectif, en milieu touristique et dans le cadre de la consommation nomade. En effet, le réflexe du tri semble moins ancré en dehors du domicile et les dispositifs de tri sont trop peu nombreux dans les lieux collectifs. Ces constats avaient déjà été mis en exergue dans le rapport précédent.

À noter que la dernière campagne nationale de caractérisation des déchets ménagers et assimilés a aussi mis en avant le fait que la collecte à domicile peut encore être améliorée, avec une part encore importante de bouteilles en plastique dans les ordures ménagères résiduelles.


[1] Directive UE 2019/904 sur la réduction de l’incidence de certains produits en plastique sur l’environnement

Lithium : comment l’extraire en France ?

Que ce soit pour nos smartphones ou pour la mobilité électrique, les batteries s’avèrent incontournables dans la construction du monde de demain. La technologie des batteries Lithium-ion a pris le dessus ces dernières années, et pour l’instant rien ne semble arrêter sa forte croissance. D’autant moins que la plupart des scénarios de transition énergétique anticipent un fort développement des usages de l’électricité dans le transport.

Pour ne pas être prisonnier d’importations de lithium et de batteries à l’avenir, l’Union européenne s’interroge sur une stratégie de souveraineté, surtout après avoir raté le coche des panneaux solaires photovoltaïques. En France également, on voit poindre un souhait de prendre la main sur la ressource en lithium. En particulier depuis que des industriels ont annoncé leur volonté d’extraire le précieux métal, dont le prix sur le marché mondial a quasiment triplé depuis l’automne 2021 pour atteindre environ 75-80 euros/kg de lithium (sous forme carbonate ou hydroxyde) en cette fin 2022.

Extractions dans les roches et la saumure

Le groupe Imerys a ainsi fait la Une en annonçant fin octobre un projet dans sa mine de kaolin à Echassières dans l’Allier. Le site de Beauvoir dispose en effet de concentrations et de quantités suffisantes de lithium dans son sous-sol pour le rendre économiquement intéressant. L’ordre de grandeur est de plusieurs millions de tonnes avec une concentration de 0,9 à 1 % d’oxyde de lithium (soit bien moins que les 3,5 % des mines australiennes). L’extraction du mica lithinifère pourrait se faire dès 2028, et sa transformation en hydroxyde de lithium permettrait une production de 34 000 tonnes par an, pendant au moins 25 ans. Imerys veut profiter de ce site déjà exploité pour faciliter l’acceptation du projet, en respectant des normes exigeantes au niveau mondial (IRMA). Concertation avec les parties prenantes, minimisation des impacts sur les habitats naturels par une exploitation souterraine, moindres émissions de CO2 (deux fois moins que des projets similaires) font partie de la panoplie officielle du projet. S’y ajoute un potentiel de mille emplois directs et indirects, ce qui serait une aubaine pour le département. Mais des interrogations restent sur la réalité des impacts environnementaux, en particulier l’eau nécessaire pour isoler et concentrer le mica. Dans cette zone granitique, l’extraction des roches permettrait aussi de valoriser d’autres produits comme le tantale et l’étain. Vu l’important investissement nécessaire pour adapter le site à cette nouvelle activité (Imerys évoque un milliard d’euros), l’évaluation préliminaire du coût de production est entre 7 et 9 euros/kg de lithium. Le gisement du site de Beauvoir est le plus important de France selon le BRGM, loin devant celui de Tréguennec (Finistère) qui se situe dans une zone protégée.

Le groupe Vulcan a également annoncé vouloir installer en France une technologie qu’il déploie déjà en Allemagne dans la vallée du Rhin. Il s’agit de forer à 2 500-3 000 mètres de profondeur pour extraire une saumure ayant une concentration en lithium atteignant jusqu’à 214 mg par litre. L’intérêt de cette profondeur est de récupérer une saumure chaude, à environ 165°C. Une partie des calories est d’abord récupérée pour alimenter un réseau de chaleur (s’il y a des débouchés industriels ou urbains proches) ou un cycle organique de Rankine pour produire de l’électricité. La saumure, qui est ensuite encore à 65-85°C, est nettoyée de certaines impuretés (silice, CO2) et passe dans des filtres de résine pour en extraire du chlorure de lithium. Il n’y a donc pas besoin de la chauffer pour faire ce traitement par séparation physique, ni d’utiliser des produits chimiques comme dans les grands sites de production en Asie et en Amérique du Sud. « Pour l’instant c’est un des rares endroits au monde où on peut trouver une saumure géothermale cochant toutes les bonnes cases : assez chaude et avec peu d’impuretés, suffisamment concentrée en lithium, et avec un débit suffisant. Grâce à cela, nous pourrons mener à bien notre projet Zero Carbon Lithium de production d’énergies renouvelables et de lithium décarboné, à un coût de production estimé pour l’instant à moins de 3 euros/kg, un des plus bas au monde », déclare Vincent Ledoux-Pedailles, directeur commercial de Vulcan Energy Ltd. Une demande d’octroi de permis a été déposée près de la ville d’Haguenau en Alsace, alors que onze sont déjà accordées du côté allemand du fossé rhénan supérieur. Le volume attendu de la production allemande pour quatre permis avoisine les 40 000 tonnes de lithium par an. En France, un premier projet pourrait se concrétiser à partir de 2027, au plus tôt, si toutes les bonnes étoiles, notamment administratives, s’alignent bien.

Empreinte cumulée en 2050

Vu la demande galopante de lithium, Imerys, Vulcan et d’autres n’auront pas de mal à écouler le minerai, même si la valeur de marché retombait à un niveau plus raisonnable, estimée à 30 euros/kg par les professionnels. D’ailleurs, Vulcan a déjà sécurisé la vente de sa future production de lithium auprès de Stellantis et Renault. Si l’extraction de cette ressource se fait dans de bonnes conditions environnementales, sociales et économiques, une autre question restera : les quantités produites suffiront-elles à fournir assez de batteries pour les besoins nationaux ? Supposons prudemment que, pour les deux projets cités en France, la production atteigne 40 000 tonnes d’hydroxyde de lithium par an, à partir de 2030 et pendant 20 ans. Ce seront alors environ 232 000 tonnes de lithium pur (métal) qui seront disponibles d’ici 2050. L’Association négaWatt a chiffré que pour électrifier totalement le parc actuel de véhicules (nombre, taille et usages identiques), l’empreinte cumulée en lithium pur d’ici 2050 approcherait 330 000 tonnes. Les ressources des projets d’Imerys et Vulcan ne seraient donc pas suffisantes. Un parc de véhicules plus diversifiés (bioGNV, hydrogène, hybride électricité-bioGNV) et plus petits permettrait d’être entre 180 et 200 000 tonnes sur plus long terme (2070). Seul l’ajout d’une sobriété d’usage dans la mobilité conduirait à ne pas dépasser la valeur de 180 000 tonnes, limite que l’Association négaWatt a fixée comme la part allouée de manière équitable à la France au regard de sa population et des réserves prouvées mondiales de lithium. En dessous de ce niveau, les ressources françaises seraient donc suffisantes et pourraient ouvrir la voie à de l’exportation vers les pays dépourvus.

L’extraction du lithium va être stratégique, mais sa logique a tout intérêt à se coupler avec celle d’une modération des besoins, si on veut assurer la soutenabilité à long terme des batteries.

Injectpower : des microbatteries pour révolutionner les dispositifs médicaux

Le marché des dispositifs médicaux se développe fortement, mais se heurte à une problématique de taille : le stockage de l’énergie. « 80 % du volume d’un dispositif médical implanté est aujourd’hui porté par la dimension énergétique, que ce soit des piles ou des batteries, explique Philippe Andreucci, cofondateur et directeur général d’Injectpower. On se prive ainsi d’un très grand nombre de solutions thérapeutiques du seul fait de cette problématique d’apport en énergie. »

C’est là que la technologie d’Injectpower intervient. Les ingénieurs de l’entreprise ont mis toute leur expertise pour développer des microbatteries visant à révolutionner le monde du dispositif médical. « On a développé une nouvelle génération de microbatteries rechargeables, ultra-miniaturisées, à haute densité d’énergie, assure Philippe Andreucci. Comparativement aux autres dispositifs du marché, on est à peu près 5 à 10 fois supérieurs en matière de densité d’énergie et le tout sur une très fine épaisseur, pas plus de deux cheveux, soit une centaine de micromètres d’épaisseur. » La solution qui s’est vu décerner un « Innovation Award » dans la catégorie « santé connectée » sera présente au CES Las Vegas du 5 au 8 janvier 2023.

Un premier dispositif autonome

Grâce à cette nouvelle génération de microbatteries à base de lithium et d’oxyde de lithium sous forme solide, s’ouvre un large domaine d’applications. « Cette diminution massive de la taille des dispositifs médicaux que l’on peut offrir grâce à notre solution microbatterie va permettre l’émergence d’une nouvelle classe de dispositifs très peu invasifs », explique Philippe Andreucci. Il annonce : « Nous avons développé une toute petite batterie de la taille d’un quart de grain de riz et de l’épaisseur d’un cheveu qui vient se coupler à un capteur de pression ultra-compact qui va permettre de mesurer la pression intracorporelle dans au moins trois endroits : l’œil, le cerveau et le cœur. Notre batterie permettra de faire des mesures tous les quarts d’heure, rechargée toutes les semaines sans fil, par induction, en quelques minutes. » L’entreprise développe tous ces composants « avec l’objectif de leur permettre de fonctionner au moins 10 à 20 ans », prévient le dirigeant.

Les dispositifs médicaux autonomes, placés dans le corps humain, assurent un véritable suivi en temps réel. « Ce monitoring permet ainsi d’engager une action thérapeutique au moment opportun », prévient Philippe Andreucci. L’entreprise souhaite ainsi améliorer l’efficacité thérapeutique sur trois types de maladies incurables. D’abord, le glaucome, maladie due à une augmentation de la pression dans l’œil. Cette maladie induit la destruction du nerf optique et rend irrémédiablement aveugle. La technologie pourra aussi s’appliquer aux traumatismes crâniens et aux accidents vasculaires cérébraux (AVC). Elle servira en plus à mieux suivre l’hydrocéphalie, symptôme mécanique d’autres pathologies qui entraîne la destruction de neurones. Ce symptôme se produit notamment lors d’une surpression à l’intérieur de la boîte crânienne. Enfin, elle pourra suivre les maladies cardiovasculaires où une surpression détruit le muscle cardiaque.

Une arrivée sur le marché en 2026

Le centre de R&D de l’entreprise est situé à Grenoble, et l’entreprise cherche à installer dans la région un premier site de production, en partenariat avec le groupe Doliam d’ici 2026. Les premiers produits pour la neurochirurgie et l’ophtalmologie devraient arriver sur le marché en 2026.

Injectpower imagine déjà la suite et rêve d’autres applications « avec une seule batterie, un peu plus grosse, mais toujours de l’épaisseur d’un ou deux cheveux ». Philippe Andreucci cite notamment deux marchés prometteurs pour la technologie : celui du pacemaker et de la neurostimulation. « L’objectif final est toujours de diminuer la taille des dispositifs et de les implanter en mode ambulatoire, c’est-à-dire que le patient entre le matin et ressort le soir, avec une chirurgie minimaliste », précise-t-il.

Inocel, le « game changer » des piles à combustible de forte puissance

Les yeux se braquent de plus en plus sur l’hydrogène en tant que vecteur énergétique comme solution au stockage de l’énergie. Dans ce nouvel écosystème en plein développement, l’entreprise Inocel veut jouer le rôle de « game changer dans différents domaines, très rapidement », assure Jules Billiet, son directeur général adjoint. « Sa mission est d’accélérer l’industrialisation de systèmes hydrogène efficients et compétitifs sur le marché mondial », assure l’aventurier sud-africain Mike Horn dans la vidéo de présentation de l’entreprise. Car oui, Mike Horn a cofondé cette entreprise avec Mauro Ricci, fondateur et ancien dirigeant d’AKKA Technologies.

Inocel mise sur l’hydrogène comme maillon indispensable de la chaîne des énergies décarbonées du futur. L’entreprise présentera son premier produit commercial au CES de Las Vegas du 5 au 8 janvier 2023 : la pile à combustible INOCEL Z300. La solution, valorisant 25 ans de recherche sur le sujet de la part du CEA, a été développée grâce au travail de 30 ingénieurs-chercheurs pendant plus de 2 ans. D’une puissance de 300 kilowatts (kW) avec un rendement de 60 %, le module comprend 700 cellules et pèse 100 kg pour un volume de 110 L. Cette pile à combustible a une densité de puissance supérieure à 5,5 kW/L. « C’est un niveau de puissance pour un poids et un volume donné trois fois supérieur au standard du marché », assure Jules Billiet.

Une pile à combustible pour trois marchés cibles

Cette nouvelle pile à combustible veut offrir une vraie alternative aux énergies fossiles « à court terme » et « à grand volume » sur trois marchés cibles. Le premier : le marché de la production d’énergie stationnaire ou délocalisée pour remplacer notamment les groupes électrogènes. L’entreprise vise aussi la mobilité lourde où l’électrique peine à s’imposer à cause du poids de ses batteries. Cette pile à combustible pourrait ainsi servir dans les bus, les camions, les engins de chantier et aéroportuaires. Enfin, la solution veut s’imposer dans le maritime. L’entreprise a notamment présenté son premier démonstrateur de bateau intégrant une chaîne complète de propulsion à hydrogène lors du salon nautique à Paris début décembre. La réactivité de cette pile, capable de monter à son maximum de puissance en moins d’1,5 seconde, constitue de fait un atout pour de telles applications.

La pile permet une forte modularité. « Elle peut être intégrée dans des systèmes qui vont de 300 kW jusqu’à 3 mégawatts, prévient Jules Billiet. Le système de 3 mégawatts est packagé dans un container de taille standard : on peut ensuite multiplier le nombre de conteneurs et encore augmenter la puissance. » La première pile devrait se trouver sur le marché dès 2023 en présérie et dès 2024 en version industrielle commerciale. Basée à Grenoble, l’entreprise a dimensionné son site pour produire ses piles directement sur place.

 La technologie vise une durée de vie des cellules de 20 000 heures. « On a une pile qui a un niveau d’efficience et de durabilité au meilleur niveau du marché pour avoir un coût d’utilisation sur la totalité de vie du produit qui soit compétitif face aux énergies thermiques comme le diesel », conclut Jules Billiet.

Surveiller le comportement des vaches grâce à des caméras et de l’IA

Quentin Garnier est vétérinaire, spécialisé en médecine de troupeau, et a exercé durant plusieurs années son métier dans des élevages. Passionné d’innovations et de high-tech, il s’aperçoit que des technologies émergentes, reposant sur le traitement de l’image, pourraient aider les éleveurs dans la conduite de leur troupeau, notamment pour suivre la santé des vaches. En 2018, en partenariat avec le CEA-List, il commence à développer un outil de monitoring à destination des élevages laitiers, basé sur de la vidéo et de l’intelligence artificielle, puis crée sa start-up en 2020. Cette année, il vient de débuter la commercialisation de sa nouvelle technologie. Entretien avec le fondateur de aiHerd.

Techniques de l’Ingénieur : Décrivez-nous le fonctionnement de votre technologie ?

Quentin Garnier, fondateur de aiHerd
Quentin Garnier, fondateur de aiHerd. Crédit aiHerd

Quentin Garnier : Dans un premier temps, des caméras sont installées au plafond de l’étable, espacées tous les 15 mètres, afin d’avoir une vision complète de l’endroit où logent les vaches. Nous procédons ensuite à une contextualisation de cet espace et de ses différentes zones : couchage, alimentation, traite, abreuvement, aire d’attente…

La deuxième étape fait intervenir des algorithmes d’intelligence artificielle qui détectent tous les animaux dans l’image, à une fréquence de cinq fois par seconde. Plusieurs points sur leur corps sont identifiés afin de recréer un squelette virtuel des animaux. Chacun d’entre eux est projeté dans un environnement 3D, il s’agit d’une sorte de jumeaux numériques de la ferme.

Les vaches sont identifiées grâce aux différentes taches présentes sur leur pelage. Cette identité numérique est reliée à l’identité réelle de l’animal grâce à une puce RFID (Radio Frequency Identification) que chaque vache porte à l’oreille et qui est reconnue grâce à des lecteurs présents sur des portiques. Presque tous les élevages possèdent déjà ce type d’équipement, notamment ceux qui possèdent un robot de traite. Régulièrement, les animaux sont réidentifiés en les comparant à une galerie d’images de chaque animal.

La dernière étape consiste à l’analyse comportementale. Nous réalisons des statistiques générales et nous utilisons notamment des séries temporelles de chaque animal, comprenant notamment des courbes qui traduisent le temps passé à manger, à boire, à être allongé, à se déplacer, à être en interaction avec d’autres vaches. Nous parvenons ainsi à interpréter l’activité de ces animaux aux comportements stéréotypés, et ainsi à envoyer des alertes aux éleveurs.

L'algorithme identifie les vaches grâce aux taches présentes sur leur pelage
L’algorithme identifie les vaches grâce aux taches présentes sur leur pelage. Crédit : aiHerd

Que parvenez-vous à détecter à partir de ce traitement de l’image ?

Nous nous concentrons sur les événements zoologiques et les pathologies qui ont le plus d’impact sur les résultats technico-économiques de l’élevage. Notre technologie identifie les chaleurs à partir de trois signaux. Tout d’abord, en observant l’augmentation de l’activité de l’animal, qui se mesure notamment par sa distance parcourue, qui progresse de l’ordre de 30 à 50 %. Ensuite, les hormones sécrétées par la vache vont attirer les autres animaux du troupeau, mais elle aussi davantage attirée par eux. L’algorithme mesure donc cette attractivité. Enfin, des comportements spécifiques sont scrutés comme les chevauchements, les interactions… En combinant toutes ces informations, nous sommes en mesure d’identifier à quel moment une vache est en chaleur.

La plupart des pathologies ont un impact comportemental. Notre système est capable d’identifier les boiteries, qui font souffrir les animaux et provoquent des baisses de production. Il observe que ces vaches passent plus de temps couchées et se lèvent moins que d’habitude. Il analyse aussi le comportement sur le plan cinématique avec des vaches qui se déplacent moins vite, ont plus de difficultés pour se retourner, ou pour accélérer. Nous développons aussi notre algorithme pour mesurer la dimension morpho-cinétique pour observer des animaux qui vont se dandiner, afin de compenser une de leurs pattes qui les fait souffrir.

Nous identifions aussi les vaches ayant des mammites. Étant donné qu’elles ont un inconfort au niveau de la mamelle, elles ont tendance à changer plus fréquemment de position lorsqu’elles sont couchées. D’autres signaux faibles sont aussi analysés, mais je ne peux pas vous les dévoiler pour des raisons de secret industriel.

Quels sont les avantages de votre technologie ?

Aujourd’hui, les vaches sont les animaux les plus connectés de la planète, devant les humains. La plupart d’entre elles sont équipées de colliers avec des détecteurs. Ce sont généralement des accéléromètres, mais cette technologie a ses limites. Grâce à nos caméras et notre traitement de l’image, nous sommes capables d’observer beaucoup plus de choses et nos analyses sont plus spécifiques. Autre avantage : les animaux ne sont équipés d’aucun dispositif, puisque tout le système est déporté au plafond de l’étable. Notre technologie fonctionne tout de même lorsque les vaches sortent pâturer, à condition qu’elles soient présentes au moins la moitié du temps dans le bâtiment.

À quel stade se trouve votre projet ?

Nous avons levé tous les verrous technologiques pour faire fonctionner notre système et nous avons commencé à le commercialiser. En parallèle, nous poursuivons notre R&D afin d’améliorer notre algorithme. Le nombre de données collectées est très important et pour l’instant seule une toute petite partie est analysée. Nous développons notre technologie pour qu’elle soit en mesure de détecter les vêlages, nous améliorons l’algorithme pour encore mieux détecter les mammites, et nous souhaitons dans le futur analyser de manière plus globale le bien-être des animaux, par exemple en identifiant les marqueurs du stress chez l’animal.