Rencontrez les experts du traitement et de l’analyse des données au salon du Big Data

Le salon Big Data est un événement consacré aux technologies, aux applications et aux opportunités liées au traitement des données massives, communément appelées « big data ». 

Cette exposition est conçue pour rassembler les acteurs clés du secteur, à savoir : les entreprises, les chercheurs, les experts en données, les professionnels de l’informatique et les fournisseurs de solutions dans le domaine du big data, pour partager des connaissances, discuter des meilleures pratiques et explorer les tendances émergentes.

Voici les principales thématiques qui seront abordées lors du salon Big Data :

  1. Technologies du Big Data : Présentation des dernières avancées technologiques en matière de stockage, de traitement, d’analyse et de gestion des données massives.
  2. Analytique et Intelligence Artificielle : L’application de techniques d’analyse avancées, de l’intelligence artificielle et de l’apprentissage automatique pour extraire des connaissances utiles à partir des données.
  3. IoT et Big Data : La convergence entre l’Internet des objets (IoT) et le big data pour exploiter les données générées par les objets connectés et les appareils intelligents.
  4. Sécurité des données : Les enjeux liés à la confidentialité, à la sécurité et à la protection des données dans un environnement de plus en plus axé sur les données.
  5. Applications industrielles : L’utilisation du big data dans divers secteurs tels que la santé, la finance, le marketing, la logistique, l’énergie, etc.
  6. Réglementation et éthique : Les questions juridiques et éthiques entourant la collecte, le stockage et l’utilisation des données personnelles et sensibles.

Durant ces 2 jours d’immersion ciblée dans le meilleur du big data et de l’IA en France, il y aura :

Pour en savoir plus, cliquez ici pour accéder au programme.

Participez au salon en créant votre badge et faites la rencontre de nombreux experts du big data et de l’IA.

Pour plus d’informations sur le salon Big Data 2023 rendez-vous sur le site bigdataparis.com

Un nouveau procédé de synthèse de silicones sans résidus toxiques

Les silicones sont utilisés dans de nombreux domaines, du cosmétique à l’aérospatial. Néanmoins, lors de leur synthèse industrielle à partir d’octaméthylcyclotétrasiloxane (D4), il se forme de 10 à 15 % d’oligosiloxanes cycliques. Ces petites molécules sont potentiellement toxiques pour l’environnement et suspectées d’être des perturbateurs endocriniens. La directive REACH impose aux industriels de les éliminer pour limiter la contamination des produits finis à 0,1 %.

Pour éviter la formation de ces oligosiloxanes cycliques, une équipe de scientifiques du laboratoire hétérochimie fondamentale et appliquée (CNRS/Université de Toulouse Paul Sabatier) ainsi que l’entreprise Elkem Silicones viennent de mettre au point un nouveau procédé. Ils publient leurs résultats dans Science ce 1er septembre.

Éviter la formation d’oligosiloxanes cycliques

Lors de la fabrication des chaînes polysiloxanes, deux réactions sont en compétition : la propagation de la chaîne polymère par polymérisation par ouverture de cycle de monomères cycliques et la rétropolymérisation aux extrémités de la chaîne polymère. « Lors de la polymérisation, le bout de chaîne est actif : le polymère grandit en greffant les monomères, mais il peut aussi revenir sur lui-même et casser la chaîne, ce qui aboutit à la production des petits oligosiloxanes cycliques », explique Antoine Baceiredo, directeur de recherche au CNRS et co-auteur de l’étude.

Dans le cadre de cette étude, les chercheurs ont mis au point un nouveau système catalytique basique (alcoolate de phosphonium), pour la synthèse de silicones par ouverture de cycles. En ajoutant dans le milieu un alcool, ils évitent la rétropolymérisation, conduisant à une polymérisation contrôlée du D4 sans produire d’oligosiloxanes cycliques indésirables. « On dépasse 99,9 % de rendement, il n’y a pas de formation d’oligosiloxanes cycliques, il reste simplement un peu de monomère n’ayant pas réagi, assure Antoine Baceiredo. L’alcool sert d’initiateur et est consommé au fur et à mesure de la polymérisation. La chaîne ne peut que croître, et lorsqu’il n’y a plus d’alcool, le catalyseur s’autodétruit. »

Le projet a montré l’efficacité de la synthèse au laboratoire, d’autres tests sont en cours. Si les retombées industrielles pourraient être importantes, la route reste longue avant de voir le procédé appliqué dans les usines. « Pour une réaction industrielle, il faut rendre le catalyseur plus robuste, qu’il soit assez résistant, manipulable par l’ouvrier et rentable pour l’industriel », prévient Antoine Baceiredo.

Une méthode de recyclage chimique du PET basée sur l’électro-organocatalyse

Depuis les années 1990, le PET s’est imposé comme matériau d’emballage incontournable, notamment pour les boissons. Jusqu’à présent, seul le recyclage mécanique du PET était réalisé au niveau industriel. Or, de par leur structure, certains produits, comme les pots et barquettes en PET sont difficiles à recycler par ces méthodes conventionnelles. Le développement de techniques de recyclage mêlant des méthodes mécaniques, chimiques et enzymatiques semble donc être l’avenir du recyclage, en particulier en France et en Europe.

L’approche dont il est question ici n’est qu’un exemple parmi les nombreuses voies explorées actuellement par le monde scientifique.

Une désintégration totale du PET

L’étude publiée dans le journal Chem Catalysis par l’équipe de chimistes du CU Boulder (Université du Colorado) présente une méthode de désintégration rapide du PET utilisant des agents de réduction générés éléctrochimiquement.

Des bouteilles en PET ont tout d’abord été broyées puis mises en solution. Un sel de [N-DMBI]+ a ensuite été ajouté. Pourquoi avoir choisi cette molécule ? Parce qu’en présence d’électricité, celle-ci agit comme donneur d’électron. En donnant son électron supplémentaire au PET, elle joue ainsi le rôle de médiateur réactif, ce qui provoque la dégradation des particules de plastique.

Bien que les mécanismes mis en jeu soient encore mal compris, le fait est que cela fonctionne, le groupe ayant réussi à décomposer du PET en ses éléments de base.

Néanmoins, ne disposant que d’équipements de laboratoire de petite capacité, les quantités mises en jeu sont pour le moment faibles : à peine 40mg de PET introduit dans le réacteur, pour une décomposition de plusieurs heures.

Décomposer plusieurs types de plastiques à la fois serait-il envisageable ?

De l’aveu de l’auteur principal, Phuc Pham, si c’est un bon début, il reste encore beaucoup de travail à faire « pour optimiser le processus et le mettre à l’échelle afin qu’il puisse éventuellement être industrialisé ».

Oana Luca, co-autrice de l’étude et professeure assistant au département chimie du laboratoire, est néanmoins très enthousiaste quant aux possibilités offertes par ce type de méthode électrochimique et évoque la possibilité de décomposer plusieurs types de plastiques à la fois.

Selon elle, ce serait même un moyen d’exploiter les immenses gisements que constituent les zones d’accumulation des plastiques dans les océans : « On pourrait, par exemple, se rendre dans les immenses étendues de déchets plastiques de l’océan, introduire tous ces déchets dans un réacteur et en retirer un grand nombre de molécules utiles. »

Si le sujet vous intéresse, dans le communiqué de presse associé à l’étude, l’équipe propose une illustration en vidéo sur laquelle on voit la solution contenant du PET broyé devenir rose lorsque le plastique commence à se dissoudre. Sous l’action de l’oxygène, la solution jaunit ensuite, puis redevient transparente une fois que la décomposition est complète. Une méthode de contrôle visuel qui a le mérite d’être simple à mettre en œuvre !

Images créées par l’IA : le casse-tête du droit d’auteur

De plus en plus de salariés utilisent des plateformes d’intelligence artificielle générative (GenAI) pour créer divers contenus tels que des documents marketing, des photos, des logiciels, etc.

Le recours à l’IA n’est pas nouveau, mais il s’est accéléré ces derniers mois depuis le lancement de ChatGPT. Son utilisation croissante s’accompagne d’une inquiétude grandissante quant au rôle des systèmes d’IA vis-à-vis des droits de propriété intellectuelle.

Depuis toujours, les écrivains se sont inspirés d’autres auteurs, de leurs rencontres… « Créer, c’est se souvenir », indiquait Victor Hugo. Mais la tentation est grande de plagier des pages d’un autre auteur. Est-ce le cas avec l’IA générative qui analyse des milliards de points de données pour produire ensuite de nouvelles images à partir du texte demandé par une personne ?

Pas de copyright

Des plaintes ont été déposées par des auteurs à l’encontre de Midjourney et Stability AI, des générateurs d’images basés sur l’IA, pour utilisation de leurs images. En février dernier, l’Office américain du droit d’auteur a partiellement révoqué la protection qu’il avait accordée à Kristina Kashtanova pour une BD. Elle comprenait des images créées à partir de textes envoyés à Midjourney. Le même mois, Getty Images avait déposé une plainte aux États-Unis contre Stability AI qui utilisait du contenu sans autorisation.

Parallèlement, quelques juges américains commencent à prendre position contre les images produites par l’IA : une œuvre générée par une GenAI ne peut être copyrightée. Et les créateurs de ces logiciels ne peuvent pas prétendre à des droits d’auteurs sur les textes, photos, images, vidéos qui en sont issus. C’est l’avis d’une juge fédérale du District de Columbia aux États-Unis, dans un arrêt rendu le 18 août.

« L’acte de création humain – et la meilleure manière d’encourager les individus à investir du temps dans cet acte, faisant ainsi progresser la science et les arts – sont au cœur de la doctrine du copyright américain depuis sa naissance. Les entités non humaines n’ont pas besoin de cette incitation que représentent les droits exclusifs sur une création, et le copyright n’a pas été pensé pour elles », a expliqué le juge dans le magazine Rolling Stone.

L’affaire concerne l’informaticien Stephen Thaler qui souhaitait déposer un droit d’auteur pour une œuvre d’art générée par son système d’IA. Mais l’Office américain des brevets et des marques avait rejeté sa demande.

En Europe, la Commission européenne a commencé à rédiger la loi sur l’IA il y a près de deux ans afin de réglementer cette technologie. En avril dernier, le Parlement européen a décidé que les entreprises qui déploient des outils d’IA générative devront divulguer tout matériel protégé par le droit d’auteur utilisé pour développer leurs systèmes.

Gouach : des batteries au lithium réparables grâce à un nouveau design

À l’origine, en 2019, Alexandre Vallette souhaitait fabriquer un vélo en matériaux recyclés. Il s’intéresse aux batteries au lithium usagées et en récupère plusieurs milliers avant qu’elles ne soient broyées, pour en extraire certains éléments comme le cobalt et le nickel. Il découvre rapidement que seules quelques piles à l’intérieur sont abîmées, mais que la plupart sont en bon état. Il s’aperçoit également qu’elles sont toutes soudées et collées entre elles, ce qui oblige à jeter l’intégralité de la batterie dès que quelques piles deviennent défectueuses. Il invente alors un nouveau design de batterie afin de remplacer facilement les cellules à l’intérieur. Depuis 2021, il commercialise des batteries 100 % réparables. Entretien avec le fondateur et CEO de Gouach.

Techniques de l’Ingénieur : Décrivez-nous la manière dont sont conçues vos batteries ?

Alexandre Vallette, fondateur et CEO de Gouach. Crédit : Alexandre Vallette
Alexandre Vallette, fondateur et CEO de Gouach. Crédit : Alexandre Vallette

Alexandre Vallette : Au lieu de souder et coller les cellules entre elles, nous utilisons un PCB (Printed circuit board), un circuit imprimé un peu spécifique, que l’on place le long des deux phases de la batterie. Sur ce PCB, sont placées des languettes qui assurent le contact avec chaque cellule. Elles sont conçues à l’aide d’un alliage un peu particulier dont je ne peux pas dévoiler la composition, et qui possède des propriétés d’élasticité et se comporte un peu comme un ressort. Cela permet de ne pas avoir de déconnexions, même en cas de vibrations et de chocs de la batterie. L’énergie des cellules traverse donc les languettes puis les pistes de cuivre du PCB. L’avantage du PCB est que l’on peut intégrer d’autres fonctionnalités sur ce support, c’est-à-dire intégrer des composants en CMS (surface mounted device), ce qui simplifie énormément l’assemblage et le désassemblage de la batterie. Grâce à ce nouveau design sans fil, nous avons réduit la complexité apparente de la batterie. Nos batteries ont fait l’objet de plusieurs certifications de la part de laboratoires indépendants, comme le LCIE (Laboratoire central des industries électriques) et le bureau Veritas.

Quels sont les avantages de vos batteries ?

L'entreprise utilise un circuit imprimé spécifique pour concevoir ses batteries. Crédit : Gouach
L’entreprise utilise un circuit imprimé spécifique pour concevoir ses batteries. Crédit : Gouach

Elles sont 100 % réparables, il suffit simplement de remplacer les cellules défectueuses à l’intérieur. Nous avons développé notre propre BMS (Battery management system), il s’agit d’une carte électronique présente dans toutes les batteries et qui contrôle en temps réel le fonctionnement de chaque cellule. Les fabricants de batteries standards ont tendance à installer des BMS low cost, car leurs batteries ont une durée de vie limitée, et parfois près d’un tiers des pannes viennent de cet élément. Notre BMS est plus durable et permet de mesurer plus précisément l’usure des cellules.

Sur l’ensemble de son cycle de vie, nous parvenons quasiment à diviser par deux l’impact écologique de nos batteries par rapport à des batteries classiques. Elles coûtent un peu plus cher à l’achat, mais grâce à la possibilité de les réparer au lieu de les jeter, le prix est quasiment le même sur le cycle de vie.

Généralement, les batteries destinées à la mobilité ne sont utilisées qu’à 20 % de leurs capacités, puis sont jetées, car elles sont considérées comme n’ayant pas suffisamment d’autonomie. Pour éviter ce gâchis, nous retirons toutes les cellules qui n’ont plus que 80 % d’autonomie, et nous les remplaçons par des cellules neuves. Nous obtenons ainsi une batterie entièrement neuve, sans avoir jeté le boîtier et tous les composants électroniques à l’intérieur, c’est ce qu’on appelle le reconditionnement. Quant aux cellules retirées qui ont encore au moins 80 % de leur autonomie, nous les installons dans des batteries destinées à d’autres applications, comme le stockage de l’électricité, dont le besoin en densité énergétique est moins important. Cela nous permet d’exploiter toutes les cellules au maximum de leurs capacités.

Un dernier avantage concerne la facilité de recyclage. Contrairement aux batteries classiques, il n’est plus nécessaire de broyer l’ensemble de la batterie, y compris le plastique et l’aluminium, pour en extraire certains éléments (nickel, cobalt…), mais de recycler uniquement les cellules nues à l’intérieur.

À quel usage vos batteries sont-elles destinées ?

En 2021, nous avons commencé par concevoir des batteries pour la mobilité, c’est-à-dire les vélos et les trottinettes. À présent, nous en fabriquons également pour le stockage d’électricité ainsi que pour l’industrie, qui en a besoin pour rendre autonomes des chariots élévateurs et des petits véhicules. Nous travaillons actuellement au développement de batteries de plus grande dimension pour l’automobile. Le principe technologique est exactement le même, sauf que l’on s’adresse à d’autres marchés. Nous sommes en contact avec des grands fabricants de voitures qui procèdent en ce moment à des essais de nos batteries.

Quel est votre modèle économique de votre entreprise ?

Nous concevons et designons nos batteries, la fabrication est ensuite confiée à des industriels et la commercialisation est réalisée sous notre propre marque. Pour la maintenance, nous développons un réseau qui sera habilité à effectuer les réparations. Pour l’instant, nous effectuons nous-même les réparations pour finaliser un protocole de maintenance spécifique. Nous avons plusieurs milliers de batteries en fonctionnement, car nous équipons notamment la flotte de vélos en libre-service Pony. Tous les mois, nous récupérons des batteries défectueuses pour les réparer.

Les espèces exotiques envahissantes : un fléau qui s’accélère

En 2019, le rapport d’évaluation mondiale de la Plateforme intergouvernementale scientifique et politique sur la biodiversité et les services écosystémiques (IPBES) identifiait les espèces exotiques envahissantes comme l’un des cinq principaux facteurs de perte de biodiversité, derrière les changements dans l’utilisation des terres et des mers, de l’exploitation directe des espèces, du changement climatique et de la pollution. Pour approfondir les connaissances scientifiques sur ce sujet délaissé, elle a alors lancé une évaluation internationale des espèces exotiques envahissantes et de leur contrôle. Élaboré par 86 experts de 49 pays, le rapport final s’appuie sur plus de 13 000 références. Le résumé pour décideurs a été approuvé le 2 septembre 2023 à Bonn, en Allemagne par les représentants des 143 États membres de l’IPBES.

« Les espèces exotiques envahissantes constituent une menace mondiale majeure pour la nature, les économies, la sécurité alimentaire et la santé humaine », mettent en garde les experts de l’IPBES. En particulier, les coûts annuels des dégradations causées par les espèces exotiques envahissantes ont dépassé les 423 milliards de dollars par an en 2019, contre moins d’un milliard dans les années 70. « Ces coûts ont au moins quadruplé chaque décennie depuis 1970 », calcule l’IPBES. 92 % de ces coûts concernent les dommages aux contributions de la nature à l’homme et à une bonne qualité de vie. Ils concernent notamment les dommages causés aux ressources alimentaires, à l’incidence négative sur la qualité de vie des populations et l’atteinte aux moyens de subsistance. Les 8 % restants concernant la gestion des invasions biologiques.

De plus en plus d’espèces invasives

Le rapport identifie plus de 37 000 espèces exotiques établies partout dans le monde. Chaque année, 200 nouvelles espèces exotiques viennent renforcer ces rangs. Il s’agit d’espèces introduites dans de nouvelles régions par les activités humaines. Sur ce total, les experts en considèrent plus de 3 500 comme « envahissantes ». Ces espèces exotiques « sont connues pour s’être établies et propagées, avec des impacts négatifs sur la biodiversité, les écosystèmes locaux et les espèces », définit l’IPBES. Ces espèces ont aussi souvent des impacts sur les personnes et la qualité de vie. Elles ravagent les cultures et les forêts, transmettent des maladies, s’attaquent aux services écosystémiques, ou encore menacent la sécurité en eau et la sécurité alimentaire.

Ce nouveau rapport considère que les espèces exotiques envahissantes jouent un rôle majeur dans 60 % des extinctions de plantes et d’animaux dans le monde. Elles constituent même le seul facteur dans 16 % des extinctions mondiales enregistrées par l’IPBES. « Au moins 218 espèces exotiques envahissantes ont été responsables de plus de 1 200 extinctions locales », ajoute Anibal Pauchard, co-président de l’évaluation via communiqué.

Helen Roy, co-présidente de l’évaluation met en garde, via communiqué : « L’accélération de l’économie mondiale, l’intensification et l’élargissement des changements dans l’utilisation des terres et des mers, ainsi que les changements démographiques sont susceptibles d’entraîner une augmentation des espèces exotiques envahissantes dans le monde entier. Même sans l’introduction de nouvelles espèces exotiques, les espèces exotiques déjà établies continueront à étendre leur aire de répartition et à se répandre dans de nouveaux pays et de nouvelles régions. Le changement climatique aggravera encore la situation ».

Développer des politiques cohérentes ambitieuses

En décembre 2022, lors de la COP15 biodiversité, les États se sont mis d’accord sur le principe d’un « cadre mondial pour la diversité ». Il vise à réduire l’introduction et l’établissement d’espèces exotiques envahissantes prioritaires d’au moins 50 % d’ici à 2030. Pour autant, les mesures de lutte actuellement déployées contre les espèces invasives restent largement « insuffisantes », souligne l’IPBES. Si la plupart des pays (80 %) ont adopté des cibles liées à la gestion des espèces exotiques envahissantes dans leurs plans nationaux pour la biodiversité, une faible minorité (17 %) a des lois ou réglementations nationales spécifiques sur le sujet. « 45 % des pays n’investissent pas dans la gestion des invasions biologiques », constate le rapport.

Bonne nouvelle, le rapport appuie sur les solutions à déployer pour faire face à la menace. Les mesures de prévention, comme la biosécurité aux frontières et les contrôles à l’importation, ainsi que les systèmes de détection précoce et de réaction rapides, ou leur éradication pure et simple apparaissent, selon les réalités locales, comme des outils efficaces, pointe le rapport. Les programmes d’éradication menés sur 998 îles ont notamment montré un taux de réussite de 88 %.

Pour réaliser des progrès, il faudra déployer « une approche intégrée spécifique au contexte, à travers et au sein des pays et des différents secteurs concernés par la biosécurité, y compris le commerce et le transport, la santé humaine et végétale, le développement économique », explique Peter Stoett, également co-auteur de l’évaluation, via communiqué. Entre autres, le rapport souligne l’importance de développer des politiques cohérentes, d’adopter des codes de conduite dans tous les secteurs et défend une gouvernance inclusive et équitable.

Comment la « Due intelligence » permet de repérer des arnaques aux NFTs

Les peluches cachaient un escroc ! Le financement de la production de ce long métrage reposait sur la vente de 50 000 nounours sous la forme de NFTs (non fungible token, pour « jetons non fongibles »), un certificat numérique d’authenticité vendu 1 250 euros l’unité. Mais derrière ce projet se trouvait Illuminart, une mystérieuse entreprise installée à Dubaï et dirigée par un homme d’affaires fan de cryptomonnaies et de poker.

Cette arnaque dite du rug pull (« tirer le tapis » en anglais), consistant à promouvoir une collection de NFTs comme une super affaire, n’est pas unique.

Début 2023, Aurélien Michel a été arrêté aux États-Unis. Ce français de 24 ans serait le principal administrateur du projet « Mutant Ape Planet ». Une arnaque à 2,7 millions d’euros. Cette série d’images virtuelles de singes est un plagiat des « Mutant Ape Yacht Club », l’une des collections de NFTs les plus cotées. Dans une autre affaire, un escroc s’est fait passer pour Banksy et a obtenu plus d’un million de dollars en Ether (une cryptomonnaie) dans des ventes de NFTs.

Toutes ces affaires qui ont fait la Une des médias ont eu des impacts négatifs sur l’écosystème des NFTs et de façon plus globale sur les cryptomonnaies et les blockchains.

Des failles dans les smart contracts

« Beaucoup de médias associent les cryptomonnaies et la blockchain a des activités malveillantes sur le darkweb (trafic d’armes, drogues, etc.) alors que cela ne représente même pas 1 % des transactions toutes blockchains confondues. La réalité est plus sérieuse. Les banques et de grosses entreprises françaises utilisent la technologie blockchain depuis très longtemps pour la traçabilité de supply chain notamment[1] », précise Patrick Ventuzelo, directeur de Fuzzing Labs, une start-up française spécialisée dans la recherche en source ouverte sur la blockchain.

L’équipe de ce chercheur en sécurité, qui a travaillé pour le ministère des Armées et Airbus Defense & Space Cybersecurity, se concentre principalement sur la recherche de vulnérabilités sur diverses plateformes et notamment les nœuds des blockchains.

Dans des cas extrêmes d’attaques, il serait possible de manipuler des données censées être sécurisées par une blockchain ou de faire « tomber » pendant quelque temps le réseau de la blockchain. Cependant, le réseau redeviendrait opérationnel rapidement dès que sa communauté déciderait de faire une restauration à une date précédente pour repartir sur une base plus « saine », c’est-à-dire moins vulnérable.

Mais, la plupart des attaques se concentrent sur les applications et les smart contracts. Ce ne sont pas des contrats à proprement parler, mais des scripts qui sont hébergés sur un réseau de blockchain. Écrits dans un langage qui s’applique à une blockchain particulière, comme Solidity sur Ethereum, ils s’occupent de la négociation ou l’exécution d’un contrat.

« C’est la raison pour laquelle nous développons de nombreux outils open source pour analyser et trouver des bugs dans ces smart contracts. Cela permet à nos clients de connaître leur exposition en ligne ou même parfois de découvrir qu’elles sont victimes d’un rug pull. En analysant les informations des transactions sur une blockchain (on-chain) avec des informations trouvées sur internet (off-chain), comme sur des services de nom de domaine sur Ethereum ou sur le réseau social décentralisé adossé à la blockchain Lens, on peut identifier plus facilement l’identité de certains utilisateurs », explique Patrick Ventuzelo.

Les analyses de Fuzzing Labs permettent aussi de vérifier le sérieux d’un projet NFT avant que des entreprises ou des particuliers investissent des fonds. C’est ce qu’on appelle la Due Intelligence. Cette vérification des antécédents est une évaluation commerciale très précise d’une personne, d’un investissement ou d’une entreprise.

Adaptée aux NFTs et aux blockchains, « c’est un processus complexe et technique qui consiste à rechercher dans le code les failles de sécurité et les vulnérabilités potentielles », insiste Patrick Ventuzelo.


(1) Par exemple, Carrefour a recours à la blockchain pour stocker les informations relatives au produit : sa provenance, son lieu d’élevage ou son mode de production. Elle garantit aux consommateurs une transparence complète sur le circuit suivi par les produits.

Un navire-énergie propulsé par le vent qui produit de l’électricité

Aujourd’hui, de plus en plus de voiliers de compétition, mais aussi de plaisance, sont équipés d’un hydrogénérateur pour produire de l’énergie. La rotation d’une hélice sous l’eau permet alors d’alimenter un alternateur et de produire l’électricité nécessaire aux besoins du bateau. En 2016, l’École Centrale de Nantes a commencé à s’intéresser à la conception d’un navire-énergie, dont l’unique fonction serait de produire de l’énergie en grande quantité, de la stocker à bord, pour ensuite la valoriser à terre. De ces travaux de recherche, est née en 2020 la start-up Farwind Energy qui poursuit le développement de ce concept. Antoine Caillaud, le directeur technique navire de Farwind Energy, nous parle de ce projet.

Techniques de l’Ingénieur : Décrivez-nous le concept développé par Farwind Energy ?

Antoine Caillaud, directeur technique navire de Farwind Energy. Crédit : Farwind Energy
Antoine Caillaud, directeur technique navire de Farwind Energy. Crédit : Farwind Energy

Antoine Caillaud : Il s’agit d’un voilier, c’est-à-dire d’un navire propulsé par le vent, à l’aide de rotors Flettner, qui se présentent sous la forme de cylindres verticaux en rotation autour de leur axe. Nous les avons choisis, car ils sont notamment mieux adaptés que les autres voiles au vent de travers. Sous la coque du bateau, sont placés des hydrogénérateurs dont le rôle est de produire de l’électricité au moyen d’une hélice qui tourne grâce au déplacement du bateau. Selon les besoins du marché, l’énergie produite est stockée de trois manières différentes : dans des batteries au lithium, sous la forme d’hydrogène, et enfin dans un futur plus éloigné, sous la forme d’e-fuel comme du méthanol, en embarquant du CO2 à bord.

Quelle est la quantité d’électricité produite sur le bateau ?

Une illustration du concept de navire-énergie. Crédit : Farwind Energy
Une illustration du concept de navire-énergie. Crédit : Farwind Energy

Le navire a une puissance utile comprise entre 2 et 2,5 MW et qui correspond à l’énergie restante pouvant être stockée puis valorisée. Pour l’atteindre, il faut produire par hydrogénération environ 3,5 MW, car environ 1 MW est consommé sur le bateau par les servitudes à bord, la conduite, ainsi que les rotors flettner. Ces rotors font partie de la catégorie des voiles actives et sont équipés de moteurs, qui consomment de l’énergie électrique, mais fournissent une puissance propulsive très largement supérieure à leur consommation. Tout l’enjeu de notre concept est d’optimiser la production d’électricité, c’est-à-dire de faire avancer le bateau à l’aide de ces rotors, puis de le freiner de manière optimale à l’aide des hélices des hydrogénérateurs. Si l’on freine trop, le bateau n’avance pas assez et l’énergie produite devient très faible ; inversement, si l’on ne freine pas du tout, elle devient égale à zéro. Entre ces deux extrêmes, il y a un optimal à trouver.

Quelles sont les innovations apportées pour concevoir ce navire-énergie ?

Nous développons des rotors Flettner plus grands que ceux actuellement disponibles sur le marché et qui mesurent 5 mètres de diamètre par 35 mètres de haut. Pour atteindre une puissance utile de plus de 2 MW, ils doivent mesurer 7 mètres de diamètre et 50 mètres de haut. Nous travaillons notamment sur de nouveaux roulements qui sont capables de supporter les efforts associés à ces rotors, qui tournent à plus de 100 tours/minute et dont le poids dépasse 100 tonnes.

Nous développons aussi de nouveaux profils de pales pour les hydrogénérateurs. Leur forme ne ressemble ni à des hélices de propulsion, ni aux hélices présentes sur des hydrogénérateurs déjà fixés dans le fond de l’océan et qui fonctionnent grâce aux courants marins. Nous cherchons à optimiser leur forme pour freiner tout en ayant un rendement optimal de production d’électricité.

La partie stockage de l’énergie comporte aussi de l’innovation, notamment lorsqu’elle est transformée en hydrogène. Des solutions de production par électrolyse de l’eau puis de stockage sous la forme comprimée ou liquéfiée existent déjà, mais la marinisation de ces systèmes nous oblige à lever plusieurs verrous technologiques. Il en est de même pour le déchargement, c’est-à-dire la manière dont on transfère cet hydrogène une fois stocké.

Enfin, un travail d’ingénierie est réalisé vis-à-vis de la conception globale de ce navire-énergie. La structure du bateau doit être suffisamment rigide et stable, tout en étant peu coûteuse, et être suffisamment efficiente d’un point de vue hydrodynamique, pour minimiser la traînée du navire et donc perdre le moins d’énergie.

Quels sont les avantages de votre concept ?

Lorsque l’on regarde les cartes du potentiel éolien en mer, on s’aperçoit que les vents les plus forts sont situés au large. L’intérêt du bateau est qu’il peut se déplacer dans des zones inaccessibles par l’éolien posé ou flottant. Étant donné que le bateau est loin des côtes, il y a peu de conflits d’usage, que ce soit avec les riverains, sur le plan visuel, ou alors avec les pêcheurs, qui veulent sauvegarder leurs zones de pêche. Le bateau étant mobile, sa trajectoire est potentiellement différente à chaque campagne de production d’énergie, en fonction des prévisions de vent. Par exemple, s’il part de Saint-Nazaire, il peut se diriger vers la mer du Nord, du côté de l’Irlande ou se diriger vers le golfe de Gascogne, si des vents plus forts sont annoncés dans cette zone. Notre concept est aussi une solution déployable rapidement, qui ne nécessite par d’étude de sol par exemple, ni de concevoir un navire spécialisé pour sa mise en place. Enfin, l’énergie est livrée au port, elle est donc proche des utilisateurs et on s’affranchit ainsi d’installations de raccordement à terre ou de distribution.

Quelle est la durée d’une campagne en mer pour faire un « plein d’énergie » ?

Une illustration du bateau en mer. Crédit : Farwind Energy
Une illustration du bateau en mer. Crédit : Farwind Energy

Pour un stockage par batterie, ce temps est court, car il est d’environ une journée. Il serait possible d’augmenter ce temps, mais plus on installe de la capacité à bord et plus le bateau devient lourd, et moins il devient efficient sur le plan de la production d’énergie. À l’inverse, s’il est moins lourd, on passe notre temps à faire des allers- retours. Nous avons travaillé sur plusieurs cas-types, notamment en Guadeloupe et avec les responsables qui élaborent la PPE (programmation pluriannuelle de l’énergie), un document qui définit la stratégie énergétique des territoires français, en métropole et dans les territoires d’outre-mer. D’ici à 2035, plusieurs navires-énergies pourraient être déployés dans les Caraïbes. L’une des possibilités serait de faire partir un navire-énergie de Basse-Terre afin qu’il réalise deux à trois allers-retours par charge dans le sud des îles, là où les alizés sont les plus forts, avant de revenir à quai pour décharger.

Pour l’hydrogène comprimé, une campagne de production prendrait environ une semaine, tandis que pour l’hydrogène liquéfié et le e-fuel, elle serait d’environ deux à trois semaines.

Quand verra-t-on le premier navire-énergie sur la mer ?

Nous sommes encore au stade des études. L’an dernier, nos efforts se sont concentrés sur la conception de navires embarquant un stockage par batterie. Cette année, dans le cadre d’un projet Interreg appelé Maghic et financé par des fonds européens, nous travaillons beaucoup sur la version hydrogène. A priori, elle représente le meilleur mode de stockage pour commencer la fabrication du premier bateau à l’horizon 2027.

Les innovations sont mises à l’honneur à l’occasion du salon Equip’Auto 2023

Le salon EQUIP’AUTO est une plateforme incontournable pour les professionnels de l’industrie automobile qui souhaitent rester informés des dernières tendances et des innovations, établir des contacts d’affaires et développer leur réseau professionnel. 

C’est aussi le moment de présenter les dernières innovations, les nouvelles technologies, les équipements de diagnostic, les pièces de rechange, les accessoires et les services liés à l’industrie automobile. 

Près de 30 000 professionnels sont attendus. Parmi eux, figurent des fabricants, des distributeurs, des fournisseurs, des garagistes, des concessionnaires, des équipementiers et d’autres acteurs de l’industrie automobile. 

C’est une opportunité pour réseauter, établir des partenariats commerciaux, échanger des connaissances et découvrir les tendances émergentes dans le secteur.

Pour cette année, plusieurs nouveautés sont attendues : 

– Un espace dédié au secteur lavage auto pour préserver l’eau et répondre aux enjeux de la transition écologique.

5 villages à découvrir :

  1. Le Village du Pneu & de l’innovation – Nouveauté
  2. Le Village Univers VO
  3. Le Village du Réemploi : Remanufacturing, Réparabilité, Réutilisabilité, Réutilisation
  4. Le Village Carrosserie et Peinture
  5. Le Village Startup

– 12 conférences sur plusieurs thèmes comme

  • Le développement durable et l’écologie 
  • Les nouvelles technologies 
  • L’innovation produits et services 
  • Les ressources humaines 

Les Trophées Internationaux de l’Innovation Automobile qui sélectionnent et récompensent les concepts, produits, et services les plus innovants des exposants d’EQUIP’AUTO et de valoriser les technologies émergentes de l’après-vente automobile.

Enfin, EQUIP’AUTO vous invite à une soirée conviviale, sportive et animée autour du match de rugby opposant deux pays : l’Italie et la Nouvelle-Zélande !

Venez rencontrer les experts présents en demandant votre badge d’accès

Pour plus d’informations sur le salon EQUIP’AUTO 2023, rendez-vous sur le site lyon.equipauto.com

L’été 2023, quatrième été le plus chaud selon Météo-France

L’été 2023 a pu paraître très chaud pour certains Français, morose pour d’autres. Il a aussi pu paraître orageux, pluvieux ou au contraire très sec. En fait, tout dépend de la région où ils se trouvaient en juin, juillet et août. Météo-France dévoile le bilan climatique de l’été 2023, l’été météorologique portant sur les mois de juin, juillet et août. Les Français peuvent ainsi avoir une sensation « mitigée », car « les mois ont été très différents », souligne Christine Berne, climatologue à Météo-France. Pour autant, l’été 2023 se place au quatrième rang des étés les plus chauds depuis 1900. Il est devancé par 2003, 2022 et 2018, mais est plus chaud que 2019.

Ce classement repose notamment sur des températures particulièrement chaudes en juin. Sur ce mois, les températures moyennes ont dépassé de 2,6 °C les normales de saison, ce qui le classe au deuxième rang des mois de juin les plus chauds. Les températures ont été relativement moins chaudes en juillet et août, se situant respectivement à +0,8°C et +0,9°C au-dessus de la normale.

Une vague de chaleur particulièrement tardive

Du 17 au 24 août, la France a connu sa 47e vague de chaleur à l’échelle nationale. Et elle n’a pas été anodine. « C’est la vague de chaleur la plus longue et la plus intense pour une fin août jamais recensée en France depuis le début des mesures en 1947 », avance Christine Berne. Elle s’est néanmoins caractérisée par de très grandes disparités régionales.

Si la vague de chaleur a duré 8 jours au niveau national, elle s’est étendue sur 14 jours en Provence-Alpes-Côte d’Azur et jusqu’à 15 jours en Auvergne-Rhône-Alpes et Occitanie. « Sur l’ensemble de l’été, le sud-est du pays a connu plus de 30 jours en vague de chaleur, soit un jour sur trois le long des départements méditerranéens, notamment sur les Alpes-Maritimes, le Var, les départements corses et les Pyrénées-Orientales », ajoute Matthieu Sorel, également climatologue chez Météo-France.

De nouveaux records absolus battus

Durant l’été, de nombreux records de températures maximales ont été battus dans les 19 départements qui avaient été placés en vigilance rouge canicule par Météo-France, aussi bien en ville qu’à la montagne. « 49 % des stations ont battu un record absolu de température maximale, comme Carcassonne (11) avec 43,2°C, Lyon-Bron (69) avec 41,4°C, Toulouse-Blagnac  (31) avec 42,4°C, Orange (84) avec 42,7°C et le Mont-Aigoual (30 – altitude 1 567 m) avec 30,4°C », partage Météo-France dans son bilan climatique de l’été 2023. Par ailleurs, 14 % de la superficie du territoire a été concernée par des températures supérieures à 40°C. C’est beaucoup plus que la moyenne 1991–2020 (3 %), mais moins qu’en 2022 (19 %) et que 2003 (33 %).

Aux côtés de ces records de températures, cet été a aussi été marqué par une parenthèse de fraîcheur relative du 30 juillet au 8 août 2023. Une dépression s’est installée sur le nord de l’Europe et les précipitations ont fait leur retour sur la plupart des régions. « Sur un large quart nord-ouest, on peut résumer cette période au fait que les précipitations ont été vraiment surabondantes et les températures anormalement fraîches, ce qui a donné une impression de période automnale », résume Christine Berne.

Des précipitations moyennes

Matthieu Sore explique que les précipitations sont « globalement conformes aux normales à l’échelle nationale et à l’échelle de la saison, mais cachent des disparités ». Les précipitations ont en effet été fréquentes en juin sur la moitié sud du pays, puis en juillet et en août sur le nord de l’Hexagone. Pour autant, on dénombre 19 vigilances orange pour orages et une rouge sur 5 départements de Franche-Comté (25, 39, 70, 90) et le Haut-Rhin (68), le 11 juillet. Cette vigilance rouge sur autant de départements est « un épisode inédit », marque Christine Berne.

Trois solutions alternatives pour remplacer le procédé de chromage dur

Le chromage dur est un procédé électrolytique très utilisé, qui permet notamment d’augmenter la résistance à l’usure des pièces fabriquées principalement en acier. Par contre, il nécessite l’emploi du chrome hexavalent, un composé toxique et nocif pour l’environnement. Depuis 2017, l’Europe a interdit son utilisation pour des applications décoratives, mais a accordé des dérogations pour des applications mécaniques à haute résistance. Ces dérogations sont malgré tout temporaires et pourraient prendre fin l’année prochaine.

À ce jour, les traitements de surface alternatifs existants ne satisfont pas les industriels. Ils ne répondent en effet pas totalement à leurs cahiers des charges ou nécessitent des ajustements majeurs de leurs installations de production ; certains coûtent également cher. Dans la zone transfrontalière Franco-belge, les industriels des secteurs du transport et de la transformation utilisent encore du chrome hexavalent dans leurs process et sont dans l’incertitude quant à la réglementation exacte dans les mois à venir. Un programme de recherche Interreg nommé Alt Ctrl Trans a développé des solutions alternatives, de seconde génération, basées sur des technologies classiques et compatibles avec les équipements actuels.

« On s’aperçoit aujourd’hui que dès qu’une pièce est soumise à des sollicitations en usure un peu conséquentes, le chromage dur est un traitement qui est utilisé quasi systématiquement, analyse Véronique Vitry, coordinatrice de ce projet et enseignante-chercheuse à l’Université de Mons. Nous conseillons dans un premier temps aux industriels de s’interroger sur les propriétés dont ils ont réellement besoin pour leurs pièces. Pour les aider, nous avons rédigé un livre blanc, qui se présente sous la forme d’une page web accessible gratuitement, et qui recense toutes les technologies qui existent actuellement et qui permettent de remplacer en partie le chrome hexavalent. »

Deux alternatives reposent sur l’utilisation d’un dépôt par voie humide

Dans le cadre de ce projet, les industriels de la région Franco-belge ont fait l’objet d’un sondage pour évaluer leurs réels besoins. Il apparaît qu’ils recherchent prioritairement des propriétés de résistance à l’usure, de dureté, ainsi qu’un faible coefficient de friction. « Face à ce résultat, on s’est dit que si nous parvenions à développer des traitements qui répondent à ces trois caractéristiques, mais sans avoir toutes les propriétés du chrome hexavalent, nous pourrions satisfaire à un grand nombre de demandes, ajoute Véronique Vitry. Nous avons donc développé trois solutions qui répondent à ces critères. »

La première alternative repose sur l’utilisation d’un dépôt par voie humide, avec du nickel-bore chimique en remplacement du chrome hexavalent. Ce type de revêtement chimique existe déjà depuis de nombreuses années, mais les bains utilisés contenaient tous des métaux lourds toxiques, comme le plomb et le thallium. Ils ont donc été supprimés et remplacés par des adjuvants organiques et inorganiques. Comparée au chromage dur, cette technologie permet d’obtenir une résistance à l’usure quasi-identique, la dureté se trouve quant à elle améliorée, tandis que le coefficient de friction est légèrement supérieur, mais avec une meilleure résistance à la corrosion.

L’avantage de ce premier procédé est qu’il est électroless, c’est-à-dire sans application de courant électrique, ce qui permet de traiter des pièces complexes de manière beaucoup plus simple. « Le chromage dur est une méthode électrolytique et le courant va toujours chercher le chemin le plus court, ce qui provoque des surépaisseurs à certains endroits, complète Véronique Vitry. Il y a donc tout un travail à réaliser au niveau de l’anode pour obtenir un résultat homogène. Grâce à notre procédé, il n’y a pas ce problème et le revêtement de surface s’applique de manière homogène. »

Une technologie par projection thermique a été développée

Étant donné que cette solution électroless nécessite un certain savoir-faire en chimie et que tous les industriels n’y sont pas familiers, un procédé alternatif a été développé pour ceux habitués à travailler avec des dépôts électrochimiques. Cette technologie est basée sur les mêmes principes fondamentaux, sauf que le bain à base de nickel est traversé par un courant électrique. Le durcissement final du revêtement est obtenu grâce à l’ajout de tungstène. La dureté est un peu inférieure à celle d’un chromage dur, mais après un traitement thermique, elle devient égale.

La troisième alternative diffère des deux précédentes, car elle fait appel à une technologie par projection thermique, plus précisément par plasma à l’arc transféré (ou PTA pour Plasma Transferred Arc). Cette méthode est déjà pratiquée, mais emploie du chrome hexavalent. Ici, l’idée retenue est de le remplacer par du chrome pur. « Cette dernière technologie est beaucoup moins mature que les deux premières, car la projection de chrome pur par PTA n’a jamais été réalisée jusqu’ici, révèle Véronique Vitry. Les essais ne sont pas complètement finalisés et les duretés obtenues ne sont pas encore optimales, mais les premiers résultats vont dans le bon sens et nous encouragent à poursuivre. L’un des intérêts de cette méthode est qu’il est possible d’obtenir des couches épaisses de deux à trois millimètres. »

Le projet Alt Ctrl Trans étant terminé, un autre projet Interreg est en cours de rédaction afin de poursuivre la maturation technologie de cette méthode par PTA. Quant aux deux premières à base de nickel, les travaux se poursuivent également, mais cette fois-ci dans le but de les industrialiser.

L’IFPEN crée la société GreenWITS pour valoriser ses travaux dans l’éolien

Le marché de l’éolien en Europe est en très forte croissance, notamment offshore. Alors que la capacité installée de l’éolien en mer est estimée à près de 15 GW en 2020 selon le GWEC (Global Wind Energy Council), la Commission européenne considère qu’il est possible d’atteindre 300 GW en 2050. Depuis une douzaine d’années, l’IFP Energies nouvelles (IFPEN) mène des travaux de recherche dans le domaine éolien, qui ont conduit au développement de technologies innovantes, de logiciels, et de propriété industrielle. Cet institut vient d’annoncer la création de la société GreenWITS dans le but de valoriser ces actifs auprès des développeurs et des exploitants de projets éoliens.

Cette nouvelle entreprise, spécialisée dans les solutions numériques pour l’éolien, a développé une offre autour de quatre axes. Le premier concerne la conception de parcs éoliens et repose sur des algorithmes d’optimisation numérique qui permettent, entre autres, de définir le positionnement des éoliennes les unes par rapport aux autres afin de maximiser la production d’électricité tout en respectant un certain nombre de contraintes. L’une de ces contraintes consiste à limiter les pertes d’énergie par sillage, qui sont liées aux interactions aérodynamiques des éoliennes entre elles.

Le deuxième axe s’articule autour de la sécurisation du design des éoliennes offshore, qu’elles soient posées ou flottantes, grâce à des calculs avancés. Concrètement, l’équipe de GreenWITS est capable de calculer les chargements mécaniques de tous les composants des éoliennes ainsi que prédire leur production d’énergie. « Avec cette offre, nous pouvons par exemple aider certains de nos clients à répondre à des appels d’offres et qui veulent installer des turbines de 20 MW, alors qu’elles n’existent pas encore sur le marché, car elles s’arrêtent à une puissance de 14 MW, explique Timothée Perdrizet, directeur des opérations de GreenWITS. Nous sommes en mesure de leur fournir des modèles d’éoliennes génériques de grande taille, afin qu’ils puissent notamment réfléchir aux types de fondations à mettre en place ou clarifier le modèle économique de leur futur parc. »

Le monitoring digital constitue le troisième axe de l’offre de service proposée par l’entreprise, filiale d’IFPEN. Il consiste à exploiter toutes les données en provenance des turbines ainsi que des modèles numériques, dans le but, notamment, de surveiller l’état de santé des différents composants des éoliennes et estimer leur durée de vie. L’objectif final étant de réduire les interventions de maintenance.

Réduire l’impact du sillage grâce au désalignement des turbines

Le dernier axe vise à augmenter la production des parcs en les pilotant de façon optimale afin de réduire l’impact des sillages. Toutes les éoliennes en fonctionnement créent en effet un sillage derrière elles qui provoque un déficit de la vitesse du vent pour les éoliennes situées en aval. Ce sillage rend également les vents plus turbulents, ce qui sollicite davantage mécaniquement les éoliennes situées à l’arrière. « Il y a un vrai enjeu autour du désalignement des turbines par rapport à la direction du vent, ajoute Timothée Perdrizet. Grâce à notre solution numérique, nous sommes capables de dévier le sillage afin d’éviter qu’il ne vienne perturber les éoliennes situées derrière. Nous obtenons un double gain avec une augmentation de la production d’électricité comprise entre 1 et 4 %, en fonction des caractéristiques de la ferme, sa densité par exemple, et du type de parc (offshore ou terrestre). Nous parvenons aussi à diminuer la fatigue des différents composants des éoliennes liée aux vibrations, et donc à réduire les opérations de maintenance. »

D’autres entreprises, concurrentes à GreenWITS, proposent déjà de procéder à de la redirection de sillage dans leur offre, de même que certains turbiniers, à l’image de Siemens Gamesa, qui a intégré cette solution à son catalogue lors de la vente de ses propres turbines. « Toutes les solutions qui existent sur le marché font du contrôle en boucle ouverte, c’est-à-dire qu’en fonction de la direction et de la vitesse du vent, elles donnent des consignes de désalignement tabulées pour toutes les turbines du parc, précise Timothée Perdrizet. Nous nous différencions en réalisant du contrôle en boucle fermée ; cela signifie que nos modèles numériques sont mis à jour en continu en fonction de ce qui se passe réellement dans le parc, ce qui permet d’être prédictif sur l’impact production et mécanique des consignes envoyées aux éoliennes. Cela nous permet d’ambitionner des gains encore meilleurs que ceux obtenus grâce à la boucle ouverte. » Cette nouvelle technologie est encore au stade de la preuve de concept et doit être testée cette année sur un parc offshore en Allemagne.

Des batteries qui se rechargent au contact des larmes pour alimenter des lentilles de contact connectées

Après les montres, bracelets, écouteurs, lunettes et les multiples travaux concernant les vêtements connectés, les lentilles de contact intelligentes seront bientôt une réalité ! Selon une étude de Global Market Vision, les géants du numérique comme Samsung, Google et Apple seraient prêts à commercialiser les premiers modèles d’ici à 2030.

Et ils ne sont pas les seuls à s’intéresser au sujet. En 2022, la start-up américaine Mojo Vision dévoilait un prototype complet (si vous êtes sceptique, la vidéo suivante saura vous convaincre).

Malheureusement, avec la conjoncture économique difficile et après sept ans de développement sans commercialisation, l’entreprise a récemment jeté l’éponge afin de se recentrer sur la commercialisation de son composant phare : un écran MicroLED révolutionnaire qui surpasse les écrans OLED et LCD actuels.

La miniaturisation des batteries demeure un vrai défi !

Si les progrès réalisés ces dernières années sont indéniables, notamment en matière de miniaturisation, le fait est qu’il reste encore beaucoup de travail à accomplir, notamment en ce qui concerne les batteries.

D’une part, pour être utilisable sans risque, une telle batterie doit être composée de matériaux biocompatibles et non toxiques, ce qui est loin d’être le cas des batteries classiques de type lithium-ion.

D’autre part, la recharge des microbatteries est aussi un défi, car il est difficile de transférer de l’énergie électrique par le biais d’une connexion filaire miniaturisée ou d’une unité de transmission sans fil. Or, ces solutions font toutes intervenir des métaux non utilisables au contact de l’œil.

Heureusement, le monde de la recherche ne manque pas d’idées ! Plutôt que d’utiliser de l’énergie électrique pour la recharge, pourquoi ne pas exploiter directement l’énergie contenue dans les fluides de l’environnement en contact, autrement dit les larmes ?

Une batterie biorechargable par réaction enzymatique

Si la solution proposée par l’équipe du NTU Singapour peut sembler farfelue, elle est au contraire très innovante. Les chercheurs ont développé un nouveau type de batterie biocompatible composé d’un revêtement contenant du glucose capable de réagir avec les ions chlorure (Cl-) et sodium (Na+), autrement dit le sel de nos larmes.

Ici, pas de connexions filaires métalliques : c’est l’eau contenue dans ces batteries biorechargeables qui fait office de conducteur.

La méthode de fabrication de cette batterie est décrite de manière détaillée dans le papier publié dans le journal Nano Energy.

  • L’anode est fabriquée à partir de polypyrrole (PPy), un polymère organique conducteur d’électricité qui possède une capacité d’autoréduction.
  • La cathode est composée d’hexacyanoferrate de cuivre (CuHCFe) combiné avec l’enzyme glucose-oxydase (GOx).
  • Les électrodes sont intégrées dans une lentille de contact.
  • Lorsque la lentille est plongée dans une solution de larmes artificielles, elle se décharge.
  • Une fois plongée dans une solution contenant du glucose, elle se recharge par bioréaction.

Quels résultats ?

Pour démontrer la pertinence de leur invention, les chercheurs ont mis au point un œil artificiel permettant de simuler le fonctionnement du dispositif.

D’après leurs résultats, la batterie de 0,5 mm d’épaisseur est capable de produire un courant de 45 µA.cm-2, pour une puissance maximale de 201 µW.cm-2. Cela peut paraître peu, mais c’est suffisant pour alimenter de nombreux dispositifs portables.

Tout cela n’est encore qu’expérimental, mais ce type d’invention permet d’imaginer de nouvelles façons de concevoir les microbatteries.

Dans un communiqué de presse, le Professeur Associé Murukeshan Vadakke Matham, spécialisé en optique biomédicale et nanométrique, et qui n’a pas participé à l’étude, souligne l’importance de ces travaux : « Comme cette batterie est basée sur le glucose-oxydase, qui existe naturellement chez l’homme, et qu’elle est alimentée par les ions chlorure et sodium présents dans nos larmes, elle devrait être compatible et adaptée au corps humain.

Par ailleurs, l’industrie des lentilles de contact intelligentes recherche une batterie fine, biocompatible et sans métaux lourds. Cette invention pourrait donc contribuer à son développement et répondre à certains besoins non satisfaits. »

Dynamilis : le numérique au service de l’écriture manuscrite des enfants

Outre son directeur général Thibault Asselborn, l’équipe de direction de School Rebound est composée, de gauche à droite, de Laurent Boatto, directeur technique, d’Anthony Peguet, directeur des opérations et de Pierre Dillenbourg, président
Outre son directeur général Thibault Asselborn, l’équipe de direction de School Rebound est composée, de gauche à droite, de Laurent Boatto, directeur technique, d’Anthony Peguet, directeur des opérations et de Pierre Dillenbourg, président. ©Dynamilis

Sous ses apparences ludiques et enfantines, Dynamilis cache de puissants algorithmes de machine learning, fruits de plus de cinq années de recherche. Associée à un stylet, l’application pour tablette numérique se révèle en effet capable d’analyser très finement et dynamiquement l’écriture manuscrite d’un enfant, et ce en l’espace d’une minute. Une analyse qui permet de proposer un programme d’activités ludiques d’apprentissage du geste graphomoteur aux quelque 34 % d’enfants confrontés à des difficultés d’écriture, comme l’a montré une étude publiée au début des années 2000. Des enfants dont certains sont même confrontés à des troubles sévères. On parle alors de « dysgraphie », un ensemble de troubles qui touche quant à lui une part d’environ 10 % des élèves au niveau mondial (6 % en l’occurrence dans l’étude précitée), et qui requiert alors un suivi thérapeutique.

Directeur général de School Rebound et co-créateur de Dynamilis, Thibault Asselborn nous retrace la genèse de cet outil numérique et nous dévoile les fonctionnalités et les intérêts de cette application novatrice lancée sur le magasin[1] d’applications en ligne d’Apple en mars 2022.

Techniques de l’Ingénieur : Quelles ont été les grandes étapes de développement de l’application Dynamilis ?

Thibault Asselborn est directeur général de School Rebound, la start-up à l’origine de Dynamilis
Ex-doctorant au sein du laboratoire d’ergonomie éducative (Chili Lab) de l’École polytechnique fédérale de Lausanne (EPFL), en Suisse, Thibault Asselborn est aujourd’hui directeur général de School Rebound, la start-up à l’origine de Dynamilis. ©Dynamilis

Thibault Asselborn : Tout a démarré avec un prototype, qui s’appelait à l’époque de sa création – en 2018 – Tegami. Ce prototype reposait alors sur des travaux de recherche qui étaient en cours de réalisation. De 2018 à 2020, nous avons poursuivi activement ces étapes de recherche fondamentale. Nous avons ainsi, petit à petit, pu perfectionner nos algorithmes, accumuler des données… Avant d’aboutir, en 2021, à la création d’une start-up. Cela nous a permis de lancer la première version commerciale de l’application, mise en ligne sur l’AppStore d’Apple en mars 2022. Depuis lors, nous avons continué à améliorer cette application, qui en est aujourd’hui à sa trente-cinquième version.

Notre constat de l’époque était le suivant : pour analyser l’écriture et détecter les éventuelles difficultés, tout se faisait sur papier. Or, le papier n’offre qu’une « photographie » figée de l’écriture. Écrire implique pourtant un mouvement profondément dynamique. À l’inverse du papier, les tablettes, associées à un stylet, permettent quant à elles justement d’enregistrer un grand nombre de données primordiales sur la dynamique de l’écriture. Des données qui permettent ainsi d’analyser beaucoup plus facilement et efficacement l’écriture.

Nous avons publié notre premier article scientifique en 2018, sur la base d’un jeu de quelques centaines de données. Depuis, nous avons très largement élargi notre base, qui compte aujourd’hui plus de 15 000 données.

Nous avons par ailleurs découvert que les anomalies enregistrées grâce à la tablette – telles que les micro-tremblements du mouvement de la main lors de l’accélération – étaient conservées par l’enfant lorsqu’il passe d’une langue à une autre. Nous avons alors facilement pu transposer nos algorithmes dans d’autres langues. Outre le français, l’application est ainsi désormais disponible en italien, en allemand et en anglais.

Nous avons aussi montré la possibilité de transférer nos algorithmes de l’alphabet latin à l’alphabet cyrillique. Nous avons même de premiers éléments qui semblent indiquer un transfert possible entre l’anglais et le chinois, qui utilisent pourtant des alphabets complètement différents.

Nous avons aussi fait évoluer nos algorithmes vers une version dite « non supervisée », qui permet en quelque sorte à l’algorithme de trouver par lui-même les caractéristiques les plus pertinentes pour déceler les difficultés d’écriture.

La technologie nous permet en effet de mesurer de nombreux paramètres : les coordonnées en x et en y du stylet par rapport à l’écran de la tablette, la pression entre le stylet et la tablette, ainsi que son inclinaison, et tout cela 240 fois par seconde, ce qui nous permet d’engranger énormément de données.

Nous avons d’autre part travaillé avec des thérapeutes et des enseignants pour définir des caractéristiques clés de l’écriture : les micro-tremblements que j’évoquais, mais aussi plusieurs paramètres liés aux changements de pression – par exemple la fluidité de ces changements de pression – ou encore d’autres facteurs associés quant à eux aux changements d’inclinaison. Nous avons donc déterminé cet ensemble de facteurs, que nous avons ensuite laissé le soin à l’algorithme de définir les plus importants et les plus intéressants pour analyser l’écriture.

Il y a un an, une psychométricienne a par ailleurs intégré l’équipe de Dynamilis. Cette thérapeute de l’écriture nous a permis d’améliorer encore un peu plus l’application.

Sur la base de ces travaux de recherche et ces développements progressifs, à quelles fonctionnalités avez-vous abouti, très concrètement, pour l’application Dynamilis ?

La première étape d’utilisation de l’application consiste en une phase d’analyse de l’écriture, réalisée en l’espace d’une minute seulement, contre une vingtaine sur papier, et ce, en outre, sans possibilité d’analyse dynamique
La première étape d’utilisation de l’application consiste en une phase d’analyse de l’écriture, réalisée en l’espace d’une minute seulement, contre une vingtaine sur papier, et ce, en outre, sans possibilité d’analyse dynamique. ©Dynamilis

La plus grosse différence par rapport à notre prototype de 2018 repose sur l’ajout d’une partie consacrée à l’apprentissage et à l’amélioration de l’écriture. Elle vient ainsi compléter les fonctionnalités d’analyse intégrées depuis les débuts de l’application. Pour cette partie, l’enfant est d’abord invité à dessiner un chat, puis à écrire un petit texte. Nos algorithmes se chargent ensuite d’analyser les mouvements effectués et fournissent des résultats en une minute environ, contre une vingtaine pour les tests sur papier… L’application génère ainsi toute une série de scores qui décrivent le profil d’écriture de l’enfant, à commencer par un score global, entre 0 et 100, qui permet de situer l’enfant par rapport à la norme. Il peut n’y avoir aucun problème, ou de petites difficultés qui peuvent être réglées par un enseignant ou par l’application, ou éventuellement de grosses difficultés d’écriture. Dans ce cas, cela nécessite un suivi thérapeutique et l’application l’indique alors clairement. À ce score global s’ajoutent des scores sur la vitesse, la pression, l’inclinaison, les aspects statiques… qui permettent de dresser le profil d’écriture de l’enfant, et nous indiquent où se situent ses forces et ses faiblesses, et donc ses besoins d’entraînement.

Une fois l’étape d’analyse réalisée, les scores obtenus permettent à l’application de proposer à l’enfant un programme personnalisé d’activités ludiques ciblant ses besoins spécifiques
Une fois l’étape d’analyse réalisée, les scores obtenus permettent à l’application de proposer à l’enfant un programme personnalisé d’activités ludiques ciblant ses besoins spécifiques. ©Dynamilis

Cela nous amène à la deuxième partie. Pour celle-ci, nous avons co-créé avec des enseignants et thérapeutes douze jeux. Chacun d’entre eux est recommandé en fonction de l’analyse réalisée au préalable et cible un aspect spécifique de l’écriture : contrôle de la pression, de l’accélération, de la précision, de la dextérité digitale, de l’inclinaison, etc.

Quel est le temps d’utilisation nécessaire pour obtenir des améliorations de l’écriture ?

Cela est bien sûr très variable, mais ce que nous constatons, de concert avec les enseignants et les thérapeutes, est qu’une utilisation régulière de quinze minutes par jour permet déjà d’obtenir des résultats concrets. Nous continuons toutefois nos travaux de recherche dans le but d’évaluer précisément l’efficacité de l’application sur le long terme. Nous savons en tout cas d’ores et déjà que l’application permet, en complément du travail des enseignants et thérapeutes, une amélioration de l’écriture plus rapide que lorsqu’elle n’est pas utilisée.

Notre objectif reste que ces progrès aboutissent finalement à un transfert sur papier, et permettent ainsi à l’enfant de se sentir plus à l’aise dans toutes les tâches qui impliquent l’écriture.

Qui sont les utilisateurs de l’application, et combien sont-ils pour l’heure ?

Nous avons essentiellement trois marchés : les parents, les thérapeutes et les enseignants. Parents et thérapeutes ont déjà à eux seuls réalisé 20 000 téléchargements de l’application sur l’AppStore, depuis son lancement. En ce qui concerne les enseignants, et donc les écoles, cela est plus difficile à quantifier. Nous sommes en tout cas impliqués dans des projets pilotes dans plusieurs cantons suisses et écoles allemandes, mais aussi dans plusieurs départements français, notamment le département du Doubs, dans lequel nous sommes par exemple en train de réaliser une étude visant à mesurer l’efficacité de l’application. Certains cantons suisses – du Jura, de Berne et de Soleure – ont quant à eux officiellement prévu de faire entrer l’application dans leurs écoles dès la rentrée prochaine.

Quelles sont les perspectives en matière d’évolutions de l’application ? Avez-vous également d’autres projets par ailleurs ?

Dynamilis concerne l’écriture, mais nous avons, à terme, l’objectif de créer un portfolio d’applications – ou une application regroupant un ensemble d’outils – permettant de faire travailler l’écriture, certes, mais aussi la lecture, voire les maths… Bref, un outil d’éducation à « 360° ». Mais cela reste une perspective à moyen ou long terme. Notre but pour l’instant reste avant tout de faire connaître Dynamilis, après son déploiement à l’international.

Au départ cantonnée à la France, la Suisse et l’Italie, l’application est en effet, depuis quatre mois, distribuée dans le monde entier, à l’exception de la Russie et de la Chine. Notre objectif pour les mois à venir va donc consister à étendre la palette des langues couvertes par l’application : espagnol, arabe, japonais… Nous avons par ailleurs observé la plus grosse croissance de nos téléchargements aux États-Unis.

L’écriture cursive semble justement en déclin outre-Atlantique…

Aux États-Unis, le système scolaire accorde peu d’importance à la façon dont les enfants écrivent, et il existe donc très peu de thérapeutes de l’écriture. Énormément d’enfants – plus qu’en Europe – ont pourtant des problèmes d’écriture, qui vont in fine engendrer des problèmes dans leur scolarité. Je pense donc que nous avons une carte à jouer là-bas.

Certains États abandonnent en effet l’écriture attachée, au profit du script, mais aussi de l’utilisation des claviers, qui est grandissante. Un retour en arrière est toutefois observé dans plusieurs autres pays… De nombreux travaux de recherche montrent en effet l’importance de l’écriture manuscrite, notamment pour la mémorisation.

Dynamilis permet d’effectuer très facilement et très rapidement – en l’espace d’une heure – un dépistage des difficultés d’écriture à l’échelle d’une école entière
Dynamilis permet d’effectuer très facilement et très rapidement – en l’espace d’une heure – un dépistage des difficultés d’écriture à l’échelle d’une école entière. ©Dynamilis

Que dit justement la littérature scientifique des liens entre difficultés d’écriture et difficultés scolaires ?

Des travaux de recherche ont montré un lien très étroit entre ces deux aspects. L’écriture est un élément central dans les programmes scolaires à travers le monde : l’enfant écrit pour raconter ses vacances… mais aussi pour faire de l’Histoire, ou des maths. Si l’enfant n’a pas automatisé son écriture, quand on va lui demander, par exemple, de raconter ses vacances, il va se concentrer uniquement sur la façon de former les lettres et va donc devoir effectuer une double tâche. Cela va l’empêcher de développer d’autres fonctions cognitives. Il existe ainsi une forte corrélation entre difficultés d’écriture et niveau scolaire. Il est donc très important de détecter précocement les problèmes d’écriture, afin d’y remédier le plus tôt possible. Cela permet en effet de libérer l’enfant de la tâche d’écriture, en la rendant automatique.

Il s’agit d’ailleurs de l’un des avantages offerts par Dynamilis : l’application permet d’effectuer très facilement et très rapidement – en l’espace d’une heure – un dépistage à l’échelle d’une école entière. Cela permet d’identifier les enfants qui sont en difficulté face à l’écriture, ou ceux qui potentiellement le seront. Ce diagnostic précoce permet ainsi d’agir à la source avant que ces problèmes aient des conséquences négatives sur la scolarité de l’enfant.


[1] Dynamilis est proposée aux parents sous la forme d’un abonnement (10 € par mois, ou 60 € par an). Pour les écoles, le prix de base est de 150 € par an pour un enseignant et toute sa classe, mais un tarif dégressif est proposé dans le cas où plusieurs classes, toute l’école, voire des groupements scolaires ou des départements tout entiers souhaitent utiliser l’application. Pour les thérapeutes, le tarif varie en fonction du nombre d’enfants suivis.

Consigne du verre : l’heure des choix pour changer d’échelle

Plus personne n’y croyait, mais la consigne du verre va faire son grand retour en France. Le 22 juin, la secrétaire d’État à l’écologie, Bérangère Couillard, a en effet confirmé, la mise en place d’une consigne sur les emballages en verre pour produits alimentaires (bouteilles, pots à yaourt et bocaux) « d’ici à deux ans ».

Ce choix répond aux objectifs de loi anti-gaspillage pour une économie circulaire, dite « loi Agec ». Elle prévoit notamment de réemployer 5 % des emballages mis sur le marché en 2023, 10 % en 2027. Elle vise en plus une réduction de 50 % des bouteilles en plastique mises sur le marché en 2030 par rapport à 2020.

Plusieurs distributeurs ont lancé de premières expérimentations sur la consigne, à l’instar de Carrefour et Biocoop. Bérangère Couillard a annoncé le lancement d’autres expérimentations volontaires en 2024. Ensuite, les distributeurs auront pour « obligation » de reprendre les emballages consignés, prévient-elle, évoquant l’ouverture de « discussions sur le cadre juridique » avant la fin de l’année.

Des choix importants au niveau européen

Alors que les choses évoluent enfin au niveau français, la proposition de règlement relatif aux emballages et aux déchets d’emballages (PPWR) doit faire avancer la question au niveau européen. Elle pourrait définir des objectifs d’emballages réutilisables : 20 % en 2030 et 80 % en 2040 pour les boissons à emporter, 10 et 40 % pour les plats à emporter. La Commission de l’environnement, de la santé publique et de la sécurité alimentaire (ENVI) votera pour l’adoption du projet de rapport le 20 septembre prochain. Le vote indicatif en plénière au Parlement européen est prévu pour le 2 octobre 2023. Les négociations avec le Conseil, puis en trilogue, devraient aboutir avant les élections du Parlement européen en juin 2024.

À l’occasion d’une table ronde consacrée au réemploi lors des universités d’été de l’économie de demain à Paris le 30 août, Charles Christory, cofondateur du Fourgon, a prévenu : « Il y a des lobbyistes très dangereux au niveau européen qui essaient de faire considérer le recyclage au même niveau que le réemploi ». Cette start-up spécialisée dans la livraison de boissons consignées à la maison réussit son pari : elle livre 37 000 clients dans plusieurs villes en France.

Si Roland Lescure, ministre délégué chargé de l’industrie, ne veut pas opposer recyclage et réemploi, il assure comprendre les craintes. « L’objectif de la France est de faire en sorte qu’il [le règlement européen, ndlr] soit au moins aussi ambitieux que la loi Agec » avec des échéances qui vont au-delà : 2030 et 2040.

Continuer à structurer la filière française du réemploi

Le Conseil National de l’Industrie a donné naissance à 19 comités stratégiques de filière. Ces derniers font dialoguer l’État, les entreprises et les représentants des salariés, filière par filière. Le contrat de filière 2019-2022 du comité « Transformation et valorisation des déchets », piloté par la directrice générale de Veolia, Estelle Brachlianoff, s’intéresse au tri, à la collecte et au recyclage, mais pas du tout au réemploi. « Je m’engage à leur demander dans le cadre du plan de filière qui est en rediscussion d’y intégrer un enjeu de réemploi », a annoncé Roland Lescure lors de la table ronde. Il promet également qu’il veillera à la présence de représentants de la filière réemploi dans le comité.

Pour se développer, la filière a aussi besoin d’investir. Les aides potentielles pour les porteurs de projet réemploi sont notamment diverses auprès de France 2030, de l’Ademe et de la BPI. Pour sa part, l’éco-organisme Citéo alloue un budget annuel de 50 millions d’euros au développement de solutions de réemploi. « Le problème est que le financement de tous ces dispositifs est très difficile à lire, notamment pour une startup industrielle », reconnaît Roland Lescure qui propose aux porteurs de projets de contacter son ministère pour être orientés vers les dispositifs existants.

Mais ne faudrait-il pas complètement réorienter les aides et appels d’offres ? Le Code de l’environnement donne la priorité à la prévention et à la réduction des déchets. La priorité est ensuite donnée dans l’ordre aux modes de traitement : réemploi, recyclage, valorisation énergétique et élimination. Pour être en cohérence avec cette hiérarchie, il s’agirait donc au moins de rééquilibrer les montants alloués au réemploi au même niveau que le recyclage. Mais les industriels du recyclage et les collectivités qui gèrent les centres de tri freinent des quatre fers. Pour changer d’échelle, la filière du réemploi devra donc compter sur un réel soutien public et politique.

Détecter les grands tremblements de terre quelques heures avant leur déclenchement

Près d’un million de personnes. C’est l’estimation du nombre de morts engendrés par les tremblements de terre et les tsunamis qu’ils génèrent, au cours des trente dernières années. Pour limiter le coût humain et matériel de ces catastrophes, des systèmes d’alerte existent dans certains pays, mais n’offrent, au mieux, que quelques secondes d’anticipation, puisqu’ils ne se déclenchent qu’une fois le séisme initié. Contrairement à certaines éruptions volcaniques, on ne sait donc pas prédire l’occurrence imminente d’un grand tremblement de terre.

L’existence d’une phase de glissement des failles qui précède les grands séismes est débattue depuis plusieurs décennies au sein de la communauté scientifique. Sauf que les observations réalisées jusqu’ici n’ont pas été probantes. Certains glissements observés ne précédent pas directement les tremblements de terre, ou ne sont pas identifiés avant la plupart des événements. Et parfois même, ils sont observés sans être suivis d’un séisme. Dans une étude publiée dans la revue Science, des chercheurs de l’IRD (Institut de recherche pour le développement) ont mis en évidence que les failles commencent à glisser quelques heures avant le déclenchement des grands séismes.

Pour identifier ces glissements, les scientifiques de l’IRD ont utilisé un catalogue de données GPS du Nevada Geodetic Laboratory, un laboratoire américain spécialisé dans la géodésie spatiale. Concrètement, ils ont identifié 90 tremblements de terre, dont la magnitude est supérieure ou égale à 7, et ont sélectionné les données GPS enregistrées dans un rayon de 500 km des épicentres depuis 2003. Au total, ils ont additionné les mouvements mesurés par 3 026 séries temporelles GPS à haute précision, projetées sur toutes les directions attendues du glissement, et cela, pendant les 48 heures précédant le début du séisme.

Des signaux annonciateurs observés 2 heures avant les grands séismes

Résultat, aucun mouvement anormal n’a été détecté durant les 48 à 2 heures qui précèdent les tremblements de terre. Cependant, dans les 2 heures précédant ces événements, un signal positif a été mis en évidence, soutenant l’hypothèse d’un glissement des failles dans la zone de l’épicentre. « Notre approche révèle une accélération exponentielle du glissement dans les deux heures précédant les ruptures, suggérant que les grands tremblements de terre commencent par une phase précurseur de glissement, que des améliorations de la précision et de la densité des mesures pourraient détecter et éventuellement surveiller plus efficacement », notent les auteurs de cette étude. Cette période de deux heures avant les grandes ruptures sismiques est une moyenne. Les chercheurs suggèrent que cette accélération du glissement de faille a lieu sur une échelle de temps plus large et que les observations des séries chronologiques GPS pourraient n’être que la toute fin d’un processus beaucoup plus long de glissements précurseurs.

L’identification de ce signal afin d’anticiper l’imminence d’un futur grand séisme survenant de manière isolée n’est malgré tout pas pour demain. Elle nécessiterait des progrès technologiques considérables, puisqu’il faudrait être capable de mesurer des signaux au moins dix fois plus petits que ceux actuellement détectés ou bien développer des mesures très près des failles. Cette étude fine des glissements sur les failles reste tout de même la meilleure piste pour espérer, à terme, obtenir des modèles à caractère prédictif. Ce résultat encourage le développement d’instruments plus précis et une instrumentation plus dense autour des failles pour anticiper les grands séismes. Cela constitue un enjeu majeur pour les pays du Sud, fortement exposés aux risques sismiques et aux tsunamis.

Qu’est-ce que le Power-to-Gas ?

Un extrait de Le Power-to-Gas – Technologies, enjeux et perspectives, par Florent BRISSAUD

En Europe, 143 sites de Power-to-Gas en opération ont été recensés en août 2022, pour une capacité totale de 162 MWe, soit presque le double (en capacité) qu’en 2019. Dans son scénario « Net Zero Emissions », l’Agence internationale de l’énergie mise sur une capacité mondiale de Power-to-Gas de 720 GWe pour 2050 (soit plus de 10 fois le parc nucléaire français actuel). La Programmation pluriannuelle de l’énergie (PPE) de la France a fixé en 2017 l’objectif d’installer 10 à 100 démonstrateurs de Power-to-Gas d’une capacité minimale de 1 Mwe, et vise aussi 10 % de gaz renouvelable dans le mix gazier d’ici à 2028. Dans le plan d’investissement « France 2030 », la France s’est donné comme objectif de « devenir le leader de l’hydrogène vert et des énergies renouvelables en 2030 ». 2,3 milliards d’euros ont été alloués à cet objectif, notamment pour se donner « l’ambition de pouvoir compter sur son sol au moins deux “giga-factories” d’électrolyseurs et l’ensemble des technologies nécessaires à l’utilisation de l’hydrogène ». Entre 2020 et 2022, les différentes décisions gouvernementales ont fait monter à 9 milliards le montant total des projets d’investissement pour la filière hydrogène en France.

Électrolyse, et méthanation si affinités

Le Power-to-Gas repose en premier lieu sur l’électrolyse, produisant de l’hydrogène (Power-to-H2) à partir d’électricité et d’eau. L’électrolyseur alcalin est la technologie la plus ancienne et la plus mature (industrialisée dès les années 1920). L’électrolyse se produit en milieu basique. Un électrolyseur alcalin utilise un électrolyte (substance conductrice de courant) liquide, qui est une solution aqueuse d’hydroxyde de potassium ou d’hydroxyde de sodium. Cet électrolyte va circuler le long d’une ou plusieurs membranes, généralement en Zirfon® (à base de zircone, de la société Agfa) perméable aux ions (OH–) mais pas aux gaz. Chaque membrane est entourée d’électrodes (anode et cathode) en alliage de nickel poreux, recouvertes de catalyseurs à base de composés, de nickel et/ou de fer. L’électrolyseur à membrane polymère échangeuse de protons (PEM pour Proton Exchange Membrane) est une technologie plus récente (commercialisée à partir des années 1980). Ici, l’électrolyse opère en milieu acide et c’est la membrane qui joue le rôle d’électrolyte (solide dans ce cas). La membrane d’un électrolyseur PEM est généralement en Nafion® (de la société Dupont de Nemours) ou Aquivion® (de la société Solvay) perméable aux protons (H+) mais pas aux gaz. Celle-ci est en contact direct avec les catalyseurs à base de métaux nobles, puis les électrodes. L’électrolyseur à haute température est une technologie encore plus récente et moins mature. Dans ce type d’électrolyseur, une partie de l’énergie requise pour l’électrolyse est apportée par la chaleur de l’eau alimentant l’électrolyseur. L’architecture d’un électrolyseur à haute température est semblable à celle d’un électrolyseur PEM, avec une membrane jouant le rôle d’électrolyte (solide), en contact avec les électrodes. Mais les matériaux sont cette fois à base de céramique comme le cermet (composite céramique-métal).

L’électrolyse est parfois complétée par une étape de méthanation, permettant de faire réagir l’hydrogène avec du dioxyde de carbone pour produire du méthane (Power-to-CH4). La méthanation peut être opérée dans un réacteur équipé d’un lit catalytique, conçu pour maximiser la surface d’échange entre les gaz et le catalyseur (solide). Le contrôle de la chaleur se fait en aval du réacteur, en refroidissant le gaz produit, ou à l’intérieur du réacteur. Ce dernier peut par exemple être de type « tube-calandre » : les gaz y circulent dans des tubes dont l’intérieur est recouvert de catalyseur et le liquide de refroidissement (huiles thermiques ou, parfois, sels fondus ou eau) circule autour de ces tubes. Quel que soit le type de réacteur, une partie de la chaleur produite sert pour le procédé lui-même. Mais environ la moitié peut être valorisée pour un autre usage, par exemple en chauffant l’eau d’alimentation d’un électrolyseur à haute température. La méthanation biologique, quant à elle, est opérée en milieu aqueux et anaérobique (sans oxygène) par des micro-organismes, à des températures d’environ 60 °C et des pressions allant jusqu’à 10 bar. Il s’agit d’une réaction de méthanogenèse (produisant du méthane par voies métaboliques) par des micro-organismes hydrogénotrophes (métabolisant l’hydrogène par la réduction du dioxyde de carbone). Les réacteurs utilisés comprennent des dispositifs d’agitation, de chauffage pour la phase de démarrage et de refroidissement pour la phase opérationnelle. Bien que le procédé soit exothermique, les températures restent assez faibles et la chaleur dégagée est donc peu valorisable.

Plan d’investissement France 2030 : la nouvelle loi pour une Industrie verte !

Fin juillet, le projet de loi Industrie Verte a été voté en première lecture par le Parlement. Autour de 15 mesures, il a pour ambition de décarboner l’industrie existante et d’accélérer la production des nouvelles technologies vertes qui permettront la décarbonation de l’industrie française et de toute notre économie. 

Dans les objectifs de cette loi, il est question de conditionner les aides publiques aux entreprises qui adoptent une trajectoire vertueuse, de soutenir les technologies vertes et donc d’accompagner les projets industriels innovants.

Voici notre sélection d’articles pour amorcer des processus d’innovation verte et de décarbonation :

Combustible hydrogène : quelles utilisations ?

Nous en parlons et il faut comprendre : inflammable et explosif, l’hydrogène est un combustible utilisable pour fournir de la chaleur et de l’énergie mécanique, sans autre résidu que de l’eau. Par réaction électrochimique, il peut également se combiner à l’oxygène pour produire de l’électricité, de la chaleur et de l’eau.

> Lire l’article

Chat GPT pour la recherche d’informations et la veille

L’innovation est de mise et elle peut être aidée. Les intelligences génératives, dont chat GPT est l’exemple le plus connu, suscitent de vives interrogations et bouleversent les méthodes de recherche d’informations et de veille : comment les exploiter ?

> Lire l’article

Obsolescence technologique des composants et équipements électroniques : enjeux et défis

La complexité croissante des équipements technologiques introduit des composants multiples présentant entre eux des incompatibilités de périodes de vie utile. La problématique de l’obsolescence des composants électriques et électroniques doit prendre en compte des critères technologiques, économiques, sociaux et environnementaux.

> Lire l’article

Repérer les pesticides à l’aide du deep learning

L’excès de pesticides dans les aliments est un sérieux danger pour la santé publique. Une détection rapide et en amont d’éventuels résidus est donc cruciale. D’autant plus quand il s’agit d’aliments de la grande distribution comme les légumes, à la durée de conservation limitée. Yuanhao Zhou, de l’université Sun Yat-sen de Shenzen (Chine), et ses collègues chinois ont donc travaillé sur une nouvelle méthode de dépistage des pesticides à la surface des plantes. Pour cela, ils ont utilisé un spectromètre de masse miniature, capable de détecter et d’identifier les molécules d’intérêt par la simple mesure de leur masse. Ils l’ont ensuite couplé à un algorithme de deep learning qu’ils ont développé dans le but de trier les résultats efficacement et de manière autonome. L’ensemble du procédé est présenté en détail dans le numéro de Food and Chemical Toxicology en date du 28 août 2023.

Des pesticides repérés à « tous » les coups

Avant d’être analysé par le spectromètre de masse, le légume à dépister doit d’abord être prétraité. Il s’agit en réalité de faire ressortir les pesticides qu’il contient pour les rendre détectables par la machine. Les scientifiques chinois ont procédé à divers tests mettant en jeu cinq résidus de pesticides différents – carbendazime (biocide), diméthomorphe et azoxystrobine (fongicides), tébufénozide et cyromazine (insecticides) – répandus sur quatre types de végétaux (niébé, poireau, céleri et poivre). Selon eux, la méthode optimale de prétraitement consisterait à placer le légume dans un sac hermétique flexible. Le meilleur matériau pour ce dernier serait du polyamide mêlé à du polypropylène coulé, car ces composants interfèrent peu avec les composés ciblés. Le sac est également empli d’une solution composée de méthanol et d’eau en ratio 1:1 (son volume en mL devant égaler la masse de la plante en g). Le rôle de la solution, ou éluant, va être d’extraire les résidus du végétal. Après avoir agité le tout pendant une minute, le liquide est filtré à travers une membrane en nylon (maille de 0,22 μm) avant de passer à la spectrométrie.

Auparavant, d’autres modes de détection avaient été employés : résonance magnétique nucléaire, spectroscopie Raman, méthode immuno-enzymatique… Mais la spectrométrie est celle qui a montré les résultats les plus prometteurs en laboratoire : haute spécificité et sensibilité, et précision aussi bien en qualité qu’en quantité. Problème : les spectromètres de masse sont encombrants et compliqués à opérer. C’est pourquoi des versions miniatures ont été inventées et sont actuellement employées en protection environnementale, en sécurité publique et même lors d’examens médicaux. Toutefois, la miniaturisation s’accompagne d’une baisse notable de performance… Heureusement pour Yuanhao Zhou et son équipe, le développement de l’intelligence artificielle a mené au développement d’algorithmes de machine learning appliqués aux spectromètres de masse de taille réduite. Certains ont par exemple servi à la reconnaissance de fruits ou au diagnostic de parasitoses chez la volaille. Les chercheurs chinois, eux, ont conçu leur algorithme dans l’optique d’améliorer les capacités de détection sur site du spectromètre. Un pari réussi puisque ce dernier a pu repérer des quantités de pesticides aussi infimes que 10 μg/kg de légume, avec une précision de 99,62 % !

Explorez les Frontières de l’Innovation au Salon SIDO : Le Rendez-vous Incontournable de la Convergence Technologique

Le SIDO (Salon de l’Intelligence Des Objets) est un événement majeur en France à ne pas manquer.

 Ce salon professionnel rassemble chaque année des milliers de visiteurs, des entreprises, des start-ups, des chercheurs et des experts du domaine pour échanger sur les dernières avancées technologiques, les tendances et les innovations dans le domaine de la connectivité intelligente et des objets connectés.

Cette année, il met en lumière un large éventail de thématiques, notamment :

  1. IoT Industriel : L’impact de l’Internet des objets dans le secteur industriel, la fabrication intelligente, l’automatisation, la maintenance prédictive, etc.
  2. Smart Cities : Les solutions intelligentes pour les villes connectées, la gestion des infrastructures urbaines, la mobilité, l’énergie durable, etc.
  3. Santé Connectée : Les dispositifs médicaux intelligents, les technologies de suivi de la santé, l’intégration de l’IA dans les soins de santé, etc.
  4. Retail Connecté : L’expérience client améliorée grâce à l’Internet des objets et à l’IA, les paiements sans contact, les solutions de suivi des stocks, etc.
  5. Intelligence Artificielle et Robotique : Les dernières avancées en matière d’IA, d’apprentissage automatique, de robotique, de vision par ordinateur, etc.

Un programme et un contenu de qualité sont attendus lors de ces deux salons : des conférences, des ateliers, des démonstrations de produits, des tables rondes experts enjeux/stratégie & des Workshops solutions et partage de réussites visant à garantir des opportunités de networking pour les professionnels de l’industrie.

Aux mêmes dates que SIDO Paris, découvrez le rendez-vous BtoB incontournable dédié à tout l’écosystème Open Source, qui est l’occasion de rencontrer de nouveaux partenaires technologiques.

L’Open Source Experience est une manifestation dédiée aux professionnels de la filière du logiciel libre et qui a pour but de répondre aux enjeux de la transformation numérique à travers des conférences et des ateliers réunissant toutes les entreprises de ce secteur, en France et à l’étranger. 

Vous pouvez vous inscrire au salon en créant votre badge en ligne.

Pour plus d’informations, rendez-vous sur le site opensource-experience.com ; sido-paris.com et sido-lyon.com 

 

Les thèses du mois : « Santé : les ambitions françaises pour 2030 »

Pour notre dossier du mois d’août, « Santé : les ambitions françaises pour 2030 », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.

Développement de tests rapides pour la détection des béta-lactamases
Christian Moguet
Thèse de doctorat en Microbiologie, soutenue le 02-02-2023
Médicaments et technologies pour la santé (Laboratoire)

 

Développement d’un dispositif médical innovant pour la prévention de l’Escarre
Abdullah Muchati
Thèse de doctorat en Pharmacotechnie et biopharmacie, soutenue le 17-01-2023
Matériaux et santé (Laboratoire)

 

Development of new strategies for the liver ex vivo preservation during transplantation
Njikem Asong Fontem
Thèse de doctorat en Physiologie et physiopathologie, soutenue le 09-12-2022
Chronothérapie, cancers et transplantation (Laboratoire)

 

Structural prediction of protein assemblies with deep learning
Hélène Bret
Thèse de doctorat en Biologie structurale, soutenue le 27-03-2023
Institut de biologie intégrative de la cellule (Laboratoire)

 

Conception et synthèse rationnelle de petites molécules cytotoxiques pour une thérapie antitumorale
Shannon Pecnard
Thèse de doctorat en Chimie thérapeutique, soutenue le 27-01-2022
Biomolécules : conception, isolement, synthèse (Laboratoire)

 

The combination of Gadolinium-based nanoparticles, radiotherapy and immune checkpoint inhibitors: a novel therapeutic opportunity for cancer treatment
Désirée Tannous
Thèse de doctorat en Aspects moléculaires et cellulaires de la biologie, soutenue le 12-12-2022
Radiothérapie moléculaire et innovation thérapeutique (Laboratoire)

 

Découverte de nouvelles cibles thérapeutiques dans les gliomes infiltrants du tronc cérébral pédiatriques présentant une mutation H3K27M : de l’inhibition de VRK3 à l’identification de leurs vulnérabilités épigénétiques
Virginie Menez
Thèse de doctorat en Aspects moléculaires et cellulaires de la biologie, soutenue le 08-12-2022
Prédicteurs moléculaires et nouvelles cibles en oncologie (Laboratoire)

 

Occupational exposures and cancers in women
Lisa Leung
Thèse de doctorat en Epidémiologie, soutenue le 05-07-2023
Centre de recherche en épidémiologie et santé des populations (Laboratoire)

 

Nouvelle approche thérapeutique dans un modèle cellulaire humain du Syndrome de Brugada
Marie Gizon
Thèse de doctorat en Biologie moléculaire et cellulaire, soutenue le 20-03-2023
Unité de recherche sur les maladies cardiovasculaires, du métabolisme et de la nutrition

 

Identification de nouvelles cibles potentielles impliquées dans l’immunomodulation tumorale
Nicolas Aubert
Thèse de doctorat en Biologie moléculaire et cellulaire, soutenue le 16-11-2022
Centre d’immunologie et des maladies infectieuses (Laboratoire)

 

Le futur de la pharmacologie médicamenteuse

Un extrait de Sources actuelles et futures des médicaments par Pascal COUDERT

La découverte de molécules pharmacologiquement actives utilisables en médecine a été le plus souvent par le passé, soit le fruit d’observations fortuites, soit la conséquence du screening laborieux d’un grand nombre de composés. Avec la mise en évidence de la structure tridimensionnelle des divers ligands, récepteurs et enzymes impliqués dans le développement de certaines maladies, sans oublier l’identification des troubles métaboliques générateurs d’affections, il est devenu possible d’initier des voies de recherche plus rationnelles et mieux ciblées. Bien qu’aucune « recette miracle » n’existe, quatre stratégies de recherche principales conduisant à l’émergence de nouvelles molécules à visée thérapeutique peuvent être identifiées en fonction de l’évolution de nos connaissances.

Les différentes stratégies à l’œuvre

Première stratégie : le tri systématique

Préconisés par rapport aux évaluations in vivo, les tests in vitro font appel aux techniques de binding (détermination de la capacité de fixation d’un ligand pour son récepteur), à la mesure de l’inhibition d’activités enzymatiques et à la recherche d’effets sur des organes isolés ou des cultures cellulaires. En pratique, deux situations peuvent être rencontrées. Soit une molécule particulièrement originale est découverte. Dans ce cas, une recherche exhaustive et approfondie de ses propriétés pharmacologiques potentielles est effectuée avec une batterie de tests in vitro dans un premier temps. Soit une activité bien définie correspondant à une indication thérapeutique précise est recherchée. Un screening est alors effectué au hasard en testant des centaines, voire des milliers, de molécules candidates sur un nombre limité de modèles expérimentaux.

Deuxième stratégie : l’amélioration de drogues actives

Dans l’industrie pharmaceutique, ce type d’approche constitue une voie de recherche très répandue. L’industriel est en effet certain d’obtenir un produit actif dans le domaine désiré. Si l’on peut espérer une amélioration pour le confort du patient avec la mise au point de copies de drogues existantes, il n’en demeure pas moins qu’une telle stratégie ne présente aucun caractère innovant sauf exception. Il se peut en effet que l’étude pharmacologique d’analogues structuraux révèle des propriétés jusqu’alors inconnues.

Troisième stratégie : l’exploitation d’observations biologiques et chimiques

Il existe de nombreux cas où la découverte de nouveaux principes actifs est venue de l’exploitation de données biologiques et cliniques, en particulier consécutivement à l’observation de l’effet de diverses substances sur l’animal ou sur l’homme. Quelle que soit son origine, l’exploitation des informations biologiques représente une source majeure dans la découverte de nouveaux médicaments. Même si la mise en évidence des propriétés thérapeutiques de la molécule initiale relève du pur hasard, l’amélioration de ses caractéristiques pharmacocinétiques, de sa puissance d’action, de sa sélectivité en vue de sa commercialisation, reste basée sur l’établissement de relations structure-activité et sur une rationalisation de données disponibles.

Quatrième stratégie : l’identification des mécanismes à l’origine des pathologies

La connaissance moléculaire des cibles incriminées (enzymes, récepteurs, canaux ioniques, protéines de transport, ADN…) permet grâce, entre autres, à la modélisation sur écran graphique, une recherche plus rationnelle de principes actifs. Concrètement, la découverte de ces derniers est effectuée selon un programme bien défini :

  • détermination de la pathologie à traiter ;
  • connaissance du mécanisme de la pathologie ;
  • détermination de la cible visée ;
  • étude en 3D de la cible (modélisation in silico) ;
  • conception virtuelle de molécules originales ;
  • synthèse des molécules sélectionnées ;
  • évaluation de l’activité sur la cible.

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 14 septembre 2023 !

Sources actuelles et futures des médicaments, par Pascal COUDERT

Innovation Santé 2030 : quelles mesures pour lutter contre le cancer ?

En France comme dans l’ensemble des pays développés, les cancers sont la principale cause de mortalité. Selon l’Institut Pasteur, ce sont près de 1 000 personnes[1] en France qui, chaque jour, apprennent qu’elles ont un cancer. Au niveau mondial, ce sont plus de 18 millions de nouveaux cas de cancer qui sont détectés chaque année.

Les facteurs de risques sont connus : ainsi, les facteurs externes, comme une alimentation déséquilibrée, la consommation de tabac et d’alcool, les traitements hormonaux, entre autres, sont documentés depuis de nombreuses années. Les facteurs internes, comme l’âge et l’hérédité, jouent également un rôle dans la possibilité de développer un cancer.

Aujourd’hui, les cancers développés par les femmes sont majoritairement les cancers du sein, les cancers des poumons, et colorectaux. 

Chez l’homme, les cancers du poumons et colorectaux sont également prépondérants, ainsi que le cancer de la prostate.

Depuis plusieurs décennies, les gouvernements successifs ont mis en place des stratégies nationales pour lutter contre les facteurs externes, notamment via des campagnes de communication pour mieux manger, limiter sa consommation d’alcool, ou encore lutter contre le tabagisme, en augmentant régulièrement le prix des cigarettes par exemple. On estime aujourd’hui que les quatre facteurs de risques principaux – alimentation, surpoids, tabac, alcool – sont à l’origine d’au moins 40 % des cancers diagnostiqués chaque année en France[2].

A travers la volonté de moderniser son système de santé, le plan Innovation Santé 2030 veut ramener une dose de souveraineté à l’industrie française de la santé, tout en la modernisant et en en améliorant la compétitivité. 

Cette transition vers un système de santé plus performant passe évidemment par la mise en place de moyens de lutte contre les cancers plus efficaces. Cela passe par la création d’un biocluster, le Paris Saclay Cancer Cluster (PSCC), qui servira en quelque sorte d’incubateur pour améliorer la lutte contre les cancers.

Le PSCC, à l’instar des autres bioclusters, est soutenu par l’Etat, et doit permettre la mise en place d’un pôle d’excellence qui regroupe les entreprises, le soin, la recherche et l’innovation de rupture. Aussi, l’ambition affichée, via la création de ce biocluster, est d’attirer les talents sur notre territoire, et de conserver les compétences en les regroupant dans un même lieu d’excellence. A ce titre, cinq acteurs du secteur de la santé collaborent pour faire du PSCC un leader européen et mondial dans la lutte contre le cancer : Gustave Roussy, l’Institut polytechnique de Paris, l’Inserm, Sanofi et l’Université Paris Saclay. Cette centralisation des compétences est un outil efficace pour favoriser le développement d’un véritable écosystème d’innovation à grande échelle rassemblant les acteurs clés de l’innovation oncologique au sein d’un site unique situé à Villejuif, avec des objectifs clairs. 

D’abord, la volonté d’accompagner plus d’un demi-million de personnes par an dans la prévention, les diagnostics, les traitements et le suivi des cancers. Dans la même veine, la relocalisation des capacités d’innovation et de développement de nouvelles thérapies contre le cancer doit permettre de lutter plus efficacement contre cette maladie, et de développer un écosystème industriel autour de l’oncologie plus performant et innovant.

Issu d’un partenariat public privé, le PSCC abrite, au sein d’un site unique situé à Villejuif, les acteurs clés de l’innovation oncologique : aujourd’hui, ce sont 48 équipes de recherche et plus de 31 start-up qui sont réunies à Villejuif. L’Etat soutient le PSCC à hauteur de 100 millions d’euros sur 10 ans, en fonction de la réalisation des objectifs fixés par le plan Innovation Santé.

La structuration de la lutte contre le cancer, à travers la création du PSCC, illustre bien la stratégie du plan France 2030 : créer, en relocalisant sur un même lieu les compétences et les talents, des clusters compétitifs au niveau mondial sur les différents secteurs de la santé, comme l’oncologie par exemple.


[1] et [2] Source Institut Pasteur

Complexité de la récolte des données de santé : l’exemple des registres du cancer

A partir de ces bases de données établies au niveau départemental/régional, des méthodes d’estimation des cas de cancer au niveau national permettent de disposer de données et de suivre leur évolution au cours du temps. Ces chiffres sont indispensables pour progresser dans la compréhension et le traitement des différents types de cancers.

Aujourd’hui, les registres du cancer font face à de grosses difficultés, juridiques notamment, pour réaliser leurs missions.

Florence Molinié, directrice du registre du cancer Loire-Atlantique Vendée, a expliqué aux Techniques de l’Ingénieur le fonctionnement du registre dont elle a la charge, ainsi que les contraintes actuelles qui compliquent la collecte continue et exhaustive des données, indispensable pour fournir des indicateurs de qualité.

Techniques de l’Ingénieur : A quels enjeux répondent les registres de cancers ?

Florence Molinié : Le système de santé actuel, malgré la multiplication des bases de données, ne permet pas, aujourd’hui, de compter précisément le nombre de nouveaux diagnostics qui sont posés tous les ans, que ce soit pour des maladies comme le cancer, les malformations congénitales, les maladies cardio-vasculaires… Ce constat n’est pas récent, et dans le cas des cancers, l’OMS (Organisation Mondiale de la Santé) a recommandé la mise en place de registres du cancer : ce sont des structures très particulières qui sont en capacité de dénombrer le nombre de nouveaux diagnostics tous les ans en suivant des règles d’enregistrement internationales. Les registres du cancer existent depuis plus de quarante ans, aujourd’hui sur le territoire français. Il en existe 30, qui couvrent 22% de la population adulte métropolitaine et les DROM, ainsi que deux registres spécialisés sur les cancers pédiatriques  au niveau national. 

Quel est le mode de fonctionnement des registres départementaux du cancer ?

Nous nous appuyons sur toutes les sources de données médicales disponibles pour obtenir l’exhaustivité du nombre de nouveaux diagnostics dans une population donnée. Cela est fait au niveau des départements (le plus souvent) par chaque registre, et il s’agit là de notre mission première. L’aspect exhaustif de cette mission nécessite de solliciter tous les établissements de santé, tous les laboratoires d’analyse, les médecins intervenant dans la prise en charge des cancers, l’assurance maladie, les centres de dépistage, … pour obtenir les données sur les diagnostics de cancers posés chaque jour par les professionnels de santé. 

Nos sources médicales ne se situent pas forcément dans la zone géographique couverte par notre registre. En effet, le but étant de quantifier les nouveaux diagnostics de cancers des populations résidant dans le département, il nous faut récupérer les données de patients qui peuvent être traités pour leur cancer dans les départements voisins, voire plus loin comme à Paris. Par exemple, nous nous déplaçons régulièrement dans les grands centres parisiens pour compléter nos données. C’est un véritable travail de fourmi.

L’ensemble de ces données et la consultation des dossiers médicaux nous permettent pour chaque patient diagnostiqué de confirmer les critères d’inclusion, de compléter les informations et de les coder selon les critères internationaux, afin d’avoir des informations standardisées et donc comparables dans le temps et dans l’espace.

Comment ces données sont-elles mises en commun au niveau national ?

Chaque registre dispose de sa base de données identifiantes sur les cancers, et va envoyer une base de données non identifiantes, qui, compilée avec toutes celles des autres registres, constitue une base de données commune. Celle-ci permettra, notamment, de réaliser des études sur l’incidence des cancers en France. Le réseau Francim des registres français du cancer publie en partenariat avec Santé Publique France, l’Institut National du Cancer et les hospices civils de Lyon, des rapport ou articles (dont le dernier en date bulletin épidémiologique hebdomadaire national) contenant des informations sur l’incidence des cancers en France, l’estimation de la survie après cancer, la prévalence… et d’autres indicateurs de veille épidémiologique.  

Parallèlement, nous menons des études sur les pratiques de prise en charge, sur l’évaluation de l’efficacité du dépistage, sur les facteurs de risque… Ces études spécifiques sont réalisées à partir de nos données enregistrées, avec parfois des données complémentaires dans le cadre de protocoles spécifiques.

Comment s’effectue la collecte des données ?

Nos sources médicales ne se situent pas forcément dans la zone géographique couverte par notre registre. En effet, le but étant de quantifier les nouveaux diagnostics de cancers des populations résidant dans le département, il nous faut chercher les données de patients qui peuvent être traités pour leur cancer dans les départements voisins, voire à Paris. Nous allons donc par exemple visiter régulièrement les grands centres parisiens pour compléter nos données. C’est un véritable travail de fourmi.

En termes de chiffres, combien de dossiers êtes-vous en mesure de traiter chaque année au niveau du registre Loire-Atlantique Vendée ?

Au niveau du registre Loire Atlantique Vendée, nous avons plus de 100 000 déclarations par an. Après croisement et traitement des données, cela il reste entre 35 000 et 40 000 cas de cancers potentiels à vérifier. Au final, nous en validons aux alentours de 17 000. Ce travail est réalisé par 10 personnes en ce qui concerne notre registre. Si on prend en compte les 30 registres français, cela fait à peu près 200 personnes, sur l’ensemble du territoire, ce qui est très peu quant à l’étendue du travail de collecte à réaliser. Le métier d’enquêteur, qui consiste à consulter ces données médicales pour confirmer et coder de façon standardisée les diagnostics de nouveaux cancers, est mal reconnu en France et peu valorisé, ce qui constitue selon moi une des principales raisons de nos difficultés actuelles. D’ailleurs devant ces difficultés de plus en plus d’enquêteurs nous quittent, ce qui complexifie d’autant plus notre tâche. En effet, il faut environ deux ans de pratique pour que l’enquêteur soit réellement opérationnel. 

Quelles sont les difficultés que vous rencontrez pour collecter cette quantité de données en continu ?

Nos difficultés se situent à deux niveaux. D’abord, nous sommes, au registre du cancer Loire-Atlantique Vendée, 14 salariés. C’est peu, au vu de la quantité de données à récolter et de la multitude des sources médicales à consulter pour atteindre nos objectifs. Les registres font également face à des problèmes juridiques importants. Le règlement RGPD rend plus compliquée la collecte des données, puisque de nombreux établissements médicaux hésitent désormais à transmettre leurs données. Cela est aussi dû à l’abrogation, par des lois successives, des rares textes juridiques concernant le fonctionnement des registres. Cela complique notre mission et même nous empêche de la mener à bien (retard pour l’enregistrement des données, non atteinte de l’exhaustivité, perte d’efficience).

Nous avons alerté les autorités et nous agissons pour obtenir plus de moyens, notamment financiers, et surtout une réglementation adaptée et cohérente pour réaliser nos missions, ce qui n’est pas le cas aujourd’hui. 

Que pensez-vous de la volonté du gouvernement de mettre en place un registre national des cancers ?

L’organisation actuelle répond à la plupart des objectifs de surveillance du cancer sur le territoire. Une amélioration des conditions de travail et notamment du cadre réglementaire permettrait d’améliorer encore le service rendu à la population en terme de santé publique. 

Avant d’envisager la mise en place d’un registre national des cancers, il est indispensable de définir le cadre réglementaire pour  le fonctionnement des registres existants. Nous pourrions gagner en efficacité de plusieurs manières. Par exemple, en rendant obligatoire l’accès aux données pour les registres afin de clarifier les droits des sources médicales à transmettre des informations très sensibles aux registres, ou encore en ayant la possibilité d’utiliser les données issues du SNDS pour compléter certaines informations de manière plus efficiente. Par exemple, les données de mortalité, auxquelles nous avions accès avant qu’elles ne soient versées dans le SNDS, nous permettraient de mettre à jour le statut vital des patients dans notre base de données de manière beaucoup plus rapide. Actuellement la Loi ne le permet pas. Par ailleurs, nous ne disposons pas d’identifiant national, ce qui nous oblige en permanence à rechercher les doublons d’identité pour compléter nos informations. Avec un système plus performant, grâce à l’intelligence artificielle et des interactions régulières pour suivre l’évolution des règles d’enregistrement (qui évoluent avec les connaissances médicales), les registres pourraient « apprendre » au SNDS (système national des données de santé) à « faire » de l’incidence du cancer sur l’ensemble du territoire à une échelle géographique relativement fine avec une grande réactivité. L’évolution des conditions d’emploi et du cadre législatif rendrait ainsi le système de surveillance plus efficient et avec un service rendu supérieur pour la santé publique au service des citoyens. 

Propos recueillis par Pierre Thouverez

Nous vous attendons sur le stand C20 au salon FCTM-ESOPE 2023 !

FCTM-ESOPE est le salon qui offre un panorama complet aux acteurs et décideurs du secteur sur les équipements industriels (ESP, Chaudronnerie, Tuyauterie, Tôlerie, Maintenance) et leurs environnements via deux rassemblements en un même lieu.

Depuis sa création, le salon FCTM est consacré aux technologies de la maintenance, et il regroupe des professionnels et des spécialistes de l’industrie pour discuter des dernières innovations et des meilleures pratiques dans le domaine de la maintenance industrielle.

L’ESOPE, quant à lui, est un symposium européen sur l’ingénierie de précision et la nanotechnologie. Ce congrès réunit des experts et des chercheurs travaillant dans les domaines de la mécanique de précision, de la fabrication avancée et de la nanotechnologie.

À l’occasion de la troisième édition du salon FCTM-ESOPE, plus de 2 000 visiteurs sont attendus, pour rencontrer les industriels français de la chaudronnerie et de la tuyauterie, venus exposer. Ainsi, l’ensemble des acteurs : fabricants, intégrateurs, distributeurs, détenteurs et donneurs d’ordres se mobiliseront pour assister à cette manifestation industrielle.

Durant deux jours, venez découvrir les différents projets et technologies visant à résoudre les problèmes liés aux enjeux techniques des équipements chaudronnés, ESP et tuyauterie industrielle. 

Au programme sont prévus : 

Venez rencontrer les experts présents en obtenant votre badge en ligne

Pour plus d’informations sur le salon, rendez-vous sur le site FCTM-ESOPE.com

Florent Brissaud : première installation Power-to-Gas en France, Jupiter 1000 atteint le mégawatt

Techniques de l’Ingénieur : Pouvez-vous nous expliquer en quoi consiste le projet Jupiter 1000 et quel est son objectif principal ?

Florent Brissaud : Jupiter 1000 est un démonstrateur industriel de Power-to-Gas, situé à Fos-sur-Mer, mis en service en 2019 et opéré par GRTgaz. C’est un projet multipartenaire soutenu par la Commission européenne, l’ADEME, le Programme d’investissement d’avenir de l’État et la région Provence-Alpes-Côte d’Azur. Avec Jupiter 1000, c’est la première fois qu’une installation de Power-to-Gas a atteint l’échelle du mégawatt en France. Ce projet est aussi unique par la diversité des technologies exploitées. En effet, nous faisons du Power-to-Hydrogen grâce à deux technologies d’électrolyse (alcalin et PEM). Une partie de l’hydrogène est ensuite combinée avec du dioxyde de carbone (capté depuis des fumées industrielles) pour faire du Power-to-Methane, avec une technologie innovante de méthanation catalytique. Enfin, l’hydrogène « vert » et le méthane de synthèse sont injectés directement dans le réseau de transport de gaz (alimentant trois clients industriels).

Le principal objectif de Jupiter 1000 est de montrer la faisabilité de développer le Power-to-Gas à une échelle industrielle, dans sa version Power-to-Hydrogen, mais aussi Power-to-Methane. Ce projet nous permet aussi d’accroître nos connaissances sur les technologies impliquées, d’évaluer et d’améliorer les systèmes et les pratiques d’exploitation et de maintenance autour de l’hydrogène, du dioxyde de carbone et du méthane de synthèse.

Quels sont les avantages de la technologie Power-to-Gas et comment Jupiter 1000 exploite-t-il cette technologie ?

Le premier intérêt du Power-to-Gas est de produire de l’hydrogène « vert ». Aujourd’hui, la majorité de l’hydrogène destiné aux usages industriels est obtenu par vaporeformage du méthane, très émetteur de dioxyde de carbone. La décarbonation de cet hydrogène est donc une priorité nationale et la solution actuellement la plus mature pour cela est le Power-to-Hydrogen.

Le gaz ayant l’avantage d’être facilement stockable en grande quantité et sur du long terme, le Power-to-Gas est aussi intéressant pour électrifier la mobilité (les véhicules à hydrogène utilisent des piles à combustible pour convertir l’hydrogène en électricité). C’est aussi un moyen supplémentaire pour produire du gaz (méthane ou hydrogène) renouvelable (en complément des autres procédés comme la méthanisation, la pyrogazéification ou la gazéification hydrothermale). Enfin, le Power-to-Gas permet de remédier à l’intermittence de l’électricité renouvelable, en offrant un moyen de stockage de cette énergie tout en augmentant les synergies entre les réseaux électriques et gaziers, ce qui constitue alors un nouveau levier de flexibilité et d’équilibre des systèmes énergétiques.

Le Power-to-Gas repose en premier lieu sur l’électrolyse, produisant de l’hydrogène (Power-to-Hydrogen) à partir d’électricité et d’eau. Pour que l’hydrogène soit « vert », il faut bien sûr que l’électricité utilisée soit décarbonée, ce qui est le cas à Jupiter 1000 où l’électricité provient d’un champ d’éoliennes opéré par la CNR. Actuellement, les deux principales technologies sont les électrolyseurs alcalins et ceux à membrane échangeuse de protons (PEM). Toutes deux ont été installées sur Jupiter 1000 par McPhy Energy, ce qui en fait un site unique d’expérimentation où nous testons avec l’aide du CEA chacune d’elles dans des conditions opérationnelles identiques.

L’électrolyse peut être complétée par une étape de méthanation, permettant de faire réagir l’hydrogène avec du dioxyde de carbone pour produire du méthane (Power-to-Methane). Sur Jupiter 1000, nous exploitons un méthaneur catalytique de type millistructuré, développé par Khimod et le CEA. Le dioxyde de carbone utilisé est issu de fumées industrielles du voisin Ascometal, capturé par un procédé Leroux & Lotz et acheminé par un « carboduc » de plus d’un kilomètre.

Quels sont les défis techniques auxquels vous avez été confrontés et comment ont-ils été surmontés ?

En tant que démonstrateur, Jupiter 1000 a été construit et mis en opération alors que les acteurs français de la filière hydrogène étaient encore en phase de maturation. Les technologies utilisées, que ce soient les deux électrolyseurs ou le méthaneur, ont toutes été perfectionnées durant la période d’exploitation et nous opérons aujourd’hui avec de nouvelles versions par rapport à celles mises en service initialement. De plus, lorsque certaines défaillances sont apparues, nous avons dû faire face à des manques de disponibilité des fournisseurs, ceux-ci déjà peu nombreux opérant dans un secteur en forte croissance. Bien évidemment, la période COVID a aggravé les choses… Bien que tout cela ait impliqué un report de l’échéance du projet, le retour d’expérience a été d’une richesse exceptionnelle.

Enfin, la conception et l’exploitation d’installations en hydrogène et en dioxyde de carbone étaient relativement nouvelles pour GRTgaz, expert depuis longtemps du méthane. Il a donc fallu mettre en place des formations spécifiques, notamment pour répondre aux enjeux de sécurité. La conception, la mise en service et l’exploitation de Jupiter 1000 nous ont permis de capitaliser des connaissances opérationnelles sur la maîtrise de la fiabilité, la maintenance et la sécurité de ce type d’installation.

Quels sont les résultats et les réalisations obtenus jusqu’à présent ?

À ce jour, la plupart des essais sur les électrolyseurs (alcalin et PEM) ont été réalisés. Cela a permis de valider globalement les performances d’un électrolyseur alcalin, en termes de rendement énergétique, de flexibilité et de dynamique de démarrage. Les performances de notre électrolyseur PEM ont été un peu en deçà de ce que nous envisagions, mais cela s’explique par certaines caractéristiques propres à notre système. Un des principaux résultats est que nous sommes capables de produire 1 kg d’hydrogène « vert » sous pression avec moins de 60 kWh d’électricité, soit un rendement énergétique « chaîne complète » de 66 %. À noter que plus des deux tiers de cette consommation énergétique sont dus à l’électrolyseur. Les technologies ayant évolué depuis (nos électrolyseurs datent de 2017), il est vraisemblable que le seuil des 70 % soit déjà dépassé pour les systèmes actuels.

 Les performances du méthaneur ne sont pas encore connues, car les essais sont prévus en fin d’année 2023.

 Des études économiques et environnementales sur le Power-to-Gas ont aussi été réalisées par le CEA pour le projet Jupiter 1000. À l’horizon 2035, un hydrogène « vert » à moins de 2 € le kilogramme est possible, avec un contenu carbone proche de celui du biométhane (obtenu par méthanisation). Concernant le méthane de synthèse, son coût au mégawattheure et son contenu carbone seraient en l’état d’environ deux fois supérieurs.

À noter que tous ces résultats sont détaillés dans l’article « Le Power-to-Gas – Technologies, enjeux et perspectives », publié aux Techniques de l’Ingénieur en mai 2023.

Quels sont les principaux résultats attendus à long terme du projet Jupiter 1000 en termes de production d’hydrogène et de gaz renouvelable ?

 La fin du projet Jupiter 1000 est prévue en 2024. Nous aurons alors terminé les essais sur les chaînes Power-to-Hydrogen et Power-to-Methane, ainsi qu’un pilotage « intelligent » des installations où les démarrages et arrêts seront commandés « en temps réel » par les productions, consommations et prix de marché de l’électricité et du gaz.

 Ces derniers résultats permettront aussi d’actualiser les études économiques et environnementales sur le Power-to-Gas.

Quelles sont les perspectives d’avenir pour son déploiement à plus grande échelle ? Le projet Jupiter 1000 pourrait-il être reproduit ou adapté dans d’autres régions ou pays ?

La France ambitionne d’atteindre une capacité de Power-to-Gas de 6,5 gigawatts à l’horizon 2030, objectif jugé atteignable par France Hydrogène au vu de la trajectoire actuelle des nouveaux projets. Si Jupiter 1000 a apporté le premier mégawatt de cet objectif, ses principaux apports seront sans doute son retour d’expérience que nous partageons autant que possible avec la filière pour atteindre les ambitions françaises en termes d’énergie renouvelable.

Deux voies distinctes sont explorées à Jupiter 1000 : la production d’hydrogène et la production de méthane de synthèse. Nous ignorons encore la part respective de ces deux filières dans l’avenir des énergies renouvelables. En parallèle du projet, la France a déployé une vision nouvelle de création de réseaux de transport d’hydrogène, assurant ainsi un débouché nouveau pour les unités de production à venir.

Les contributions de Florent Brissaud aux Techniques de l’Ingénieur

Florent Brissaud contribue en tant qu’auteur avec les Techniques de l’Ingénieur.

Webinar :

Voir le replay du webinar Le Power-to-Gas : Technologies, enjeux et perspectives du mardi 19 Septembre 2023.

En complément :

– L’article fondamental Qu’est-ce que le Power-to-Gas ?

– L’article de ressource documentaire Le Power-to-Gas – Technologies, enjeux et perspectives.

Basée sur la blockchain, une application empêche les usurpations d’identité

Ils avaient décroché le gros lot : 38 millions d’euros ! En décembre 2021, des escrocs avaient réussi à arnaquer le promoteur immobilier parisien Sefri-Cime. Huit hommes, soupçonnés d’être impliqués dans cette arnaque dite « au président », ont été interpellés entre juin 2022 et janvier dernier.

Mais pour l’instant, seuls 3,9 millions d’avoirs criminels, dont 700 000 euros en cryptomonnaies, ont été saisis. Leur technique était parfaitement rodée et minutieuse. Fin 2021, le comptable de ce promoteur immobilier avait reçu l’appel d’un escroc se faisant passer pour un avocat qui prétextait une opération confidentielle de rachat de sociétés avec l’accord du président de la société.

Le comptable avait ensuite reçu un email usurpant l’identité du PDG qui lui confirmait que l’opération avait été réalisée à sa demande.

Deepfake

Au total, plus de 40 virements aveint été effectués en quelques semaines pour un montant total de 38 millions d’euros. Le précédent record était « détenu » par Pathé qui avait été victime en mars 2018 de cette même arnaque pour environ 19 millions d’euros.

Appelées aussi « escroquerie aux faux ordres de virement » ou encore « faux ordre de virement international ou FOVI », ces actions malveillantes se multiplient ces dernières années et deviennent de plus en plus sophistiquées en s’appuyant notamment sur l’intelligence artificielle pour imiter la voix du chef d’entreprise ou modifier son apparence.

L’État mène des campagnes de prévention afin de sensibiliser les chefs d’entreprise aux bonnes pratiques. Mais les méthodes traditionnelles ne permettent pas de limiter fortement les risques d’être escroqué.

Partant de ce constat, la start-up française Inkan.link propose d’élaborer « un faisceau de preuves » comprenant des données prévalidées en associant toutes les parties prenantes (chef d’entreprise, comptable, directeur financier…).

Dans un premier temps, chaque personne prend des photos avec l’application développée par Inkan.link (Sealfie) et ajoute un petit message personnel. En complément de ces données personnelles, la start-up recueille des informations techniques sur le réseau informatique et les appareils connectés de l’entreprise.

Certifier des transactions

Toutes ces informations sont chiffrées de « bout en bout » et sécurisées en privé par défaut. Puis les condensats* sont notariés et reliés sur une blockchain publique. « Notre objectif est de protéger le comptable qui peut faire des virements sereinement et sans déranger les personnes concernées. Celles-ci reçoivent juste une notification sur leur téléphone et doivent faire un selfie avec notre application pour valider l’ordre interne », précise Nicolas Thomas, un spécialiste en cybersécurité et télécoms qui a créé Inkan.link en 2021.

Par contre, si le chef d’entreprise ou le directeur financier n’utilise pas le smartphone qui a été préenregistré ou si la reconnaissance biométrique n’est pas reconnue, leur validation sera bloquée.

Facturée 100 euros par mois et par utilisateur, cette solution mémorise aussi des traces infalsifiables afin de pouvoir confirmer que le donneur d’ordre était bien la bonne personne et qu’il était au courant.

En utilisant Sealfie, les entreprises pourront certifier toutes sortes de transactions (virements, authentification de photos de locations saisonnières, suivi de formations par des salariés…), qu’elles soient physiques ou numériques, et prévenir la falsification (par exemple, le carnet de suivi d’une montre de luxe et le vol d’identité).

Cet été, cette start-up a reçu, avec le Laboratoire Informatique, Image et Interaction (L3i) de l’Université de La Rochelle, experts de la fraude documentaire, une bourse Deeptech Emergence de Bpifrance, un organisme officiel qui finance et accompagne les entreprises en crédit, en garantie, en aide à l’innovation et en fonds propres.

Cette bourse de 90 000 euros va leur permettre de lever les verrous de l’attractivité des blockchains ouvertes pour les entreprises, en augmentant la confiance et l’efficacité dans les interactions numériques.

« L’implication des entreprises permet de créer un écosystème vertueux, il est en effet nécessaire de protéger les données personnelles et les certificats établis par les entreprises. La confiance vient du nombre de certificats indépendants », précise Nicolas Thomas.


* Condensat ou « hash », terme anglophone qui désigne le hachage. Ce sont des algorithmes mathématiques qui permettent d’établir, au moyen d’algorithme comme le SHA ou le MD5, des correspondances dans un ensemble de données pour les identifier précisément.

L’articulation de la lutte contre le cancer au niveau régional

Le volet santé du plan d’investissements France 2030, baptisé Innovation Santé 2030, prévoit le lancement d’un cluster dédié à la lutte contre le cancer, le Paris Saclay cancer cluster. Ce cluster, piloté par l’AIS – Agence de l’Innovation en Santé, lancée en 2022 – a pour objectif de catalyser le développement d’un véritable écosystème d’innovation à grande échelle en rassemblant les acteurs clés de l’innovation oncologique au sein d’un site unique situé à Villejuif.

En parallèle, la stratégie décennale de lutte contre le cancer, lancée en 2021, est mise en application au niveau régional par les ARS – Agences Régionales de Santé – autour de quatre axes forts : l’innovation, la prévention, la qualité de vie et les cancers à mauvais pronostic.

La mise en œuvre par les ARS de cette stratégie sur le terrain doit permettre de mettre en place des actions contextualisées pour améliorer les différents paramètres de la lutte contre le cancer : dépistage, traitement, suivi… pour, in fine, disposer d’un système de santé plus performant dans la lutte contre le cancer.

Juliette Daniel est médecin de santé publique, conseillère médicale, et travaille également à la Direction de l’appui à la transformation et à l’accompagnement (DATA) au sein de l’agence régionale de santé Pays de Loire. Elle a expliqué aux Techniques de l’Ingénieur les spécificités de la stratégie décennale de lutte contre le cancer dans la région Pays de Loire, ainsi que l’articulation de cette stratégie entre les différents acteurs locaux de la santé. Dans le but, bien sûr, d’améliorer les différents aspects que recouvre la lutte contre le cancer.

Techniques de l’Ingénieur : Quels sont les axes forts de la stratégie décennale de lutte contre le cancer ?

Juliette Daniel : En tout premier lieu, ce qui la caractérise, c’est sa durée, dix ans. Cela permet de se projeter et de mener des actions sur un temps plus long. Au-delà, cette stratégie a été pensée par tout un groupe d’experts, de médecins de santé publique, de chercheurs, de cancérologues (…). Elle a été présentée en 2021, quelques mois après le début de la crise du Covid.

Cette stratégie est établie autour de quatre axes forts, dont le principal, en termes de champ d’action, est la prévention, de manière globale. Cela se traduit par des actions aussi bien au niveau de la prévention primaire, secondaire, l’analyse des facteurs de risques – principalement alcool, tabac et environnement -, le dépistage organisé pour les cancers du côlon, du sein, et bientôt du poumon.

Le second axe de cette stratégie émane d’une volonté forte des usagers des ligues, des associations de patients, d’améliorer la qualité de vie face au cancer. Cela couvre par exemple le champ de la prise en charge des séquelles des patients malades.

Les deux derniers axes sont le meilleur traitement des cancers à très mauvais pronostic, et l’innovation au sens large face au cancer.

Comment s’articule cette politique au niveau de la région Pays de Loire ?

Au niveau régional, chaque ARS développe, dans la cadre fixé par l’Institut National du Cancer, l’INCA, une stratégie autour des quatres axes que nous venons d’évoquer, en fonction des paramètres spécifiques de la région : les facteurs de risque par exemple, varient beaucoup d’une région à l’autre et font l’objet d’une attention particulière. Ces facteurs de risque sont mis en évidence à travers les données fournies par l’Observatoire Régional de Santé et Santé publique France. Dans la région Pays de Loire, il y a par exemple un facteur de risque lié à l’alcool important. De même qu’on observe plus de mélanomes en Vendée que sur d’autres départements. Nous adaptons donc nos actions au contexte régional, et nous adaptons aussi le poids que nous voulons donner à chaque axe. Ces constatations nous conduisent par exemple à mettre en place des équipes pour proposer des services d’addictologie dans la région. Pour les cancers de la peau résultant des mélanomes, nous espérons pouvoir rapidement mieux les dépister pour les traiter le plus tôt possible, ce qui améliore considérablement les chances de guérison complète.

Comment les actions sont-elles coordonnées au niveau régional ?

Au sein de la région, il y a un comité de pilotage, qui comprend les grands services de cancérologie et le registre du cancer, le réseau de cancérologie, les structures de dépistage, l’observatoire régional de la santé… Il faut coordonner tout le monde pour impulser, collectivement, les actions de notre feuille de route. Au-delà de la région, une coordination nationale est en place et se réunit trois à quatre fois par an, sous la houlette de Thierry Breton, le directeur de l’INCA.

Ce qui caractérise aussi ce plan décennal de lutte contre le cancer est que les acteurs concernés sont habitués à coopérer, ils se connaissent bien. C’est le quatrième plan de ce type et les acteurs sont stables, cela permet de mener des actions en profondeur. C’est d’ailleurs une caractéristique des équipes qui évoluent dans le domaine de la cancérologie d’être plus soudées et plus pérennes dans le temps. C’est une observation qui ressort souvent, et qui permet aux acteurs d’être plus performants dans la conduite de ce type de projet, qui fait appel à de nombreuses entités sur le territoire de la région. Aussi, la cancérologie est un domaine d’activité très réglementé, donc le nombre d’acteurs est limité, cela aussi permet de mettre en place un fonctionnement plus limpide et plus clair entre les différentes entités.

La population est-elle réceptive à ces stratégies, par exemple en ce qui concerne le dépistage ?

Une caractéristique qui ressort, notamment en Bretagne et dans les Pays de la Loire, et qui a pu être observée pendant la crise sanitaire, est que les populations habitants ces territoires adhèrent plus facilement aux politiques publiques de santé que sur d’autres territoires. Par exemple, la campagne de vaccination contre le Covid dans la région Pays de Loire s’est très bien passée. Cela se traduit, pour ce qui est de la lutte contre le cancer, par un taux de dépistage plus élevé que la moyenne nationale en région Pays de Loire. C’est un élément important pour améliorer les résultats de lutte contre le cancer, sachant que le dépistage précoce est vital pour améliorer les pronostics de guérison.

Quelles autres actions d’envergures ont été entreprises en région Pays de Loire ?

Nous avons mis l’accent sur ce qu’on appelle le parcours post-cancer. Toutes les régions mettent en place des actions autour de la qualité de vie après le cancer, mais c’est un aspect du parcours santé lié au cancer qui nous paraît fondamental : soutien psychologique, esthétique, soutien également par une activité physique adaptée… nous avons mis en place des appels à projets dans ce sens pour inciter les patients à prendre soin d’eux dans cette phase du parcours santé.

Sur un autre plan, une autre illustration des spécificités régionales au niveau de la lutte contre le cancer est liée à l’histoire propre des régions. En Pays de Loire, certains épisodes, comme celui des cancers à Sainte-Pazanne ou à la CARENE de Saint-Nazaire ont mis l’accent sur certains facteurs de risque et des situations où certaines populations sont en situation d’exposition à certains types de cancers. Dans le cas de la CARENE de Saint-Nazaire, on a une surexposition aux cancers des voies aérodigestives supérieures (gorge, œsophage…) : il s’agit donc de mettre en place des actions pour dépister le plus tôt possible ces cancers, qui sont plus fréquents sur certains territoires.

On constate aujourd’hui l’importance de la collecte de données au niveau local pour établir des stratégies adaptées. Comment se passe cette collecte en ce qui concerne la lutte contre le cancer ?

Dans notre région, nous avons un registre des cancers. Il concerne la Loire Atlantique et la Vendée et regroupe une dizaine de personnes, qui collectent toutes les données sur toutes les personnes atteintes d’un cancer. Il y a treize centres de ce type en France, et les données qu’ils traitent nous permettent d’obtenir les informations relatives à l’évolution d’un certain type de cancer sur la région, ou sur tout le territoire. Ces informations sont cruciales dans le cas de surmortalité sur un territoire, comme pour l’exemple Saint-Nazaire que nous évoquions. Dans ce cas, nous avons pu établir que la moitié des malades avaient été au chômage assez tôt, et qu’ils n’avaient donc pas été suivis par la médecine du travail sur le long terme. Ils avaient donc moins de possibilité d’être dépisté de manière précoce.

Enfin, pouvez-vous nous présenter le dernier axe de la stratégie de lutte contre le cancer, et qui est centré sur l’innovation ?

L’axe innovation veut impulser des actions concrètes notamment pour tout ce qui concerne les cancers de l’enfant, qui sont en général des cancers à mauvais pronostic pour la plupart. Il faut faire des dépistages et des prises en charge plus précoces, des essais cliniques. Nous voulons également être en mesure de suivre les enfants ayant été atteints de cancer quand ils étaient jeunes à l’âge adulte, pour établir le risque pour eux de développer de nouveaux cancers, ou d’autres pathologies associées.

Aussi, sur l’aspect innovation, le développement de la lecture de scanners à distance par exemple, doit permettre de rééquilibrer les inégalités existantes sur notre territoire en termes d’accès aux centres de radiologie.

Propos recueillis par Pierre Thouverez

Véhicules autonomes : une intelligence très limitée

Le comportement des automobilistes est parfois très surprenant pour nous autres humains. Il l’est encore plus pour les véhicules autonomes intégrant de l’IA. En juin 2022, à San Francisco, l’un des robotaxis de la société Cruise n’a pas réussi à anticiper correctement le comportement d’un conducteur inattentif.

Se trouvant sur une voie destinée à tourner à droite, cet automobiliste s’est finalement dirigé tout droit, trop tard pour que le taxi puisse réagir à temps. Cet accident n’a pas entraîné de blessés graves. Même si le véhicule de Cruise n’est pas en tort, cet accident confirme que les véhicules intégrant l’IA ont encore du mal à anticiper le contexte.

Les systèmes avancés d’aide à la conduite (ADAS – Advanced Driver Assistance Systems) sont basés sur les mêmes principes que le ChatGPT et d’autres grands modèles de langage (LLM- Large Language Models). Ces réseaux neuronaux utilisant d’énormes volumes de données pour comprendre le langage humain contrôlent la position latérale et longitudinale d’une voiture – pour changer de voie, freiner et accélérer – sans attendre les ordres de la personne assise au volant.

Ces deux types d’IA utilisent le raisonnement statistique pour deviner le prochain mot, la prochaine phrase ou la prochaine action de pilotage, en pondérant fortement le calcul avec les mots ou les actions récemment utilisés.

Une étude du National Highway Traffic Safety Administration (NHTSA) des États-Unis a permis de constater comment les applications réelles de l’IA dans les transports fonctionnent ou ne fonctionnent pas. De cette analyse, il ressort trois constats majeurs.

Les erreurs humaines de fonctionnement sont remplacées par des erreurs humaines de codage

Les partisans des véhicules autonomes affirment régulièrement que plus tôt nous nous débarrasserons des conducteurs, plus nous serons en sécurité sur les routes. Ils citent la statistique de la NHTSA selon laquelle 94 % des accidents sont causés par des conducteurs humains. Mais l’erreur du conducteur est « le dernier événement de la chaîne de causalité de l’accident… Elle ne doit pas être interprétée comme la cause de l’accident ». De nombreuses autres causes sont possibles, telles qu’un mauvais éclairage et une mauvaise conception de la route.

Par ailleurs, le code logiciel est incroyablement sujet aux erreurs et le problème ne fait que s’aggraver à mesure que les systèmes deviennent plus complexes. Les tests, à la fois en simulation, mais surtout dans le monde réel, sont essentiels pour réduire le risque d’erreurs, en particulier dans les systèmes critiques pour la sécurité.

Les modes de défaillance de l’IA sont difficiles à prévoir

Un module de conduite autonome interprète la scène et décide comment contourner les obstacles en faisant des suppositions, sur la base d’une base de données d’images étiquetées. Mais toutes les possibilités ne peuvent être modélisées, et les innombrables modes de défaillance sont donc extrêmement difficiles à prévoir.

C’est le cas notamment du freinage fantôme. C’est un mode de défaillance qui n’avait pas été anticipé auparavant. Sans raison évidente, une voiture autopilotée freine brusquement, ce qui peut provoquer une collision avec le véhicule qui la suit et d’autres véhicules plus éloignés. Le freinage fantôme a été observé dans les voitures autonomes de nombreux constructeurs et dans les voitures équipées d’ADAS.

En mai dernier, la publication allemande Handelsblatt a fait état de 1 500 plaintes concernant des problèmes de freinage sur des véhicules Tesla, ainsi que de 2 400 plaintes concernant des accélérations soudaines. Il apparaît aujourd’hui que les voitures autopilotées subissent environ deux fois plus de collisions par l’arrière que les voitures conduites par des personnes.

La maintenance de l’IA est tout aussi importante que sa création

Les réseaux neuronaux ne pouvant être efficaces que s’ils sont formés sur des quantités importantes de données pertinentes, la qualité des données est primordiale. Mais dans des environnements dynamiques comme la conduite, les modèles doivent être constamment mis à jour pour refléter les nouveaux types de voitures, de vélos et de scooters, les zones de construction, les schémas de circulation, etc.

Lors d’un accident en mars dernier, au cours duquel une voiture Cruise a percuté l’arrière d’un bus articulé, les experts ont été surpris. Ils pensaient que de tels accidents étaient pratiquement impossibles pour un système doté d’un lidar, d’un radar et d’un système de vision par ordinateur. Cruise a attribué l’accident à un modèle défectueux qui avait deviné où se trouverait l’arrière du bus en se basant sur les dimensions d’un bus normal, mais pas articulé !

Cet exemple souligne l’importance de la mise à jour des modèles d’intelligence artificielle. Cela signifie notamment que les LLM ne peuvent pas apprendre un nouveau phénomène tant qu’il n’apparaît pas assez souvent pour être incorporé dans l’ensemble de données.

De cette étude, il ressort que l’IA a encore un long chemin à parcourir dans les voitures et les camions. L’utilisation de l’IA présente des avantages évidents et il est irresponsable de demander une interdiction, ou même une pause, de l’IA. Mais une surveillance accrue de la part des pouvoirs publics et une réglementation plus précise (notamment sur les responsabilités en cas d’accidents) semblent indispensables.