L’intelligence artificielle permettrait de prédire l’emballement thermique des batteries

900 tonnes de batteries au lithium parties en fumée à la suite d’un violent incendie dans un entrepôt de batteries au lithium dans l’Aveyron en février dernier. Quelques mois plus tôt, en novembre 2023, un incendie au Port Ouest de La Réunion avait détruit 200 batteries.

Des marques de véhicules électriques rappellent certains modèles à cause de risque d’incendie. Explosion de la batterie d’une trottinette causant un incendie dans un appartement…

L’idée fait son chemin que ces batteries sont dangereuses. En réalité, « les statistiques dont on dispose stipulent qu’il y a dix fois moins de risque d’avoir un feu sur un véhicule électrique que sur un véhicule thermique », rapporte Michel Gentilleau, représentant français au sein de l’Association internationale des services d’incendie et de secours (CTIF).

En février 2023, cette association avait publié un article expliquant que « les véhicules électriques ne sont pas nécessairement plus exposés aux incendies que les véhicules à essence ». Mais comme pour toute technologie, le risque zéro n’existe pas.

Réputées pour leur forte densité énergétique, leur durée de vie prolongée et leur légèreté, les batteries lithium-ion sont largement utilisées comme solution de stockage de l’énergie.

Cependant, des problèmes de sécurité persistent, en particulier le risque d’emballement thermique (ET), c’est-à-dire une augmentation incontrôlée de la température. Elle peut être due à différents facteurs, tels que la surcharge, la décharge excessive, l’exposition à des températures élevées, les défauts de fabrication et les courts-circuits internes.

Empêcher la surchauffe d’une batterie

Une batterie de véhicule électrique est composée de « cellules » de batterie étroitement connectées. Ces voitures peuvent avoir plus de 1 000 cellules dans chaque bloc-batterie. Mais il suffit d’un emballement thermique dans une cellule pour que les autres se mettent à chauffer, créant un effet domino.

Depuis quelques années, le machine learning (ML) est employé dans la recherche sur les batteries, mais pas encore assez sur la prévision des emballements thermiques.

Une nouvelle recherche menée par un doctorant de l’université de l’Arizona (et le soutien financier du ministère de la Défense à hauteur de 600 000 euros) propose justement un moyen de prévoir et de prévenir les pics de température dans les batteries lithium-ion.

Il a développé un nouveau modèle combinant des techniques avancées de ML et la modélisation multiphysique (avec des sous-modèles thermiques, électrochimiques et de dégradation) qui s’appuie sur le logiciel COMSOL.

Son modèle s’appuie sur des capteurs thermiques – enroulés autour des cellules de la batterie – qui introduisent les données historiques de température dans un algorithme d’apprentissage automatique pour prédire les températures futures.

Pour simplifier, lors des simulations, les batteries subissent des cycles de charge/décharge à courant constant, suivis d’un cycle de conduite pendant la décharge pour imiter le fonctionnement d’un véhicule électrique.

Les résultats ont démontré la grande précision du modèle ML. À l’avenir, ce modèle pourrait être intégré au système de gestion de la batterie d’un véhicule électrique afin d’empêcher la surchauffe d’une batterie et de protéger ainsi les conducteurs et les passagers, a déclaré le doctorant, M. Goswami.

Science-fiction ou réalité : Elon Musk promet d’envoyer des hommes sur Mars d’ici 4 ans

Elon Musk est un homme coutumier des effets d’annonces sensationnels. Il n’en est ainsi pas à son coup d’essai lorsque, le 8 septembre dernier, il a dévoilé sur la plateforme X, un calendrier pour le moins ambitieux pour atteindre la planète rouge. Son intention est d’envoyer des premiers vaisseaux spatiaux non habités vers Mars dès 2026 puis, si ces premiers essais s’avèrent concluants, avec des hommes à bord, dans quatre ans. Il renouvelle ainsi son intention d’être le premier à envoyer des vols habités vers la planète Mars.

Un calendrier très ambitieux

La date n’a pas été choisie au hasard puisque Elon Musk précise qu’elle coïncide avec l’ouverture de la prochaine fenêtre de transfert Terre-Mars. Cela fait référence à la variation du positionnement des deux planètes. Cette fenêtre de tir s’ouvre environ tous les 26 mois, et ce n’est qu’en 2026 que la planète rouge sera au plus proche de notre planète.

La promesse sera-t-elle tenue ? Rappelons que la NASA[1] espère au mieux atteindre Mars en 2040. Dans le passé, les délais annoncés n’ont pas toujours été respectés. Citons le vol inaugural du Falcon Heavy annoncé pour 2013 et qui n’a été effectué qu’en 2018 avec cinq ans de retard. Il faut reconnaître que même avec beaucoup de retard, SpaceX a toujours tenu ses promesses, la date d’envol inaugural étant souvent dépassée dans les programmes spatiaux.

Une prouesse technique et financière

De nombreux verrous technologiques doivent être levés avant de réussir un atterrissage sur Mars. Pour y parvenir, Elon Musk dispose d’un outil clé : le Starship qui est conçu pour les voyages interplanétaires. Ce vaisseau spatial, construit en acier inoxydable par SpaceX, est capable de transporter jusqu’à 100 personnes. Il est le plus grand et le plus puissant lanceur spatial de l’histoire avec une poussée maximale de 7 590 tonnes au décollage.

SpaceX a déjà effectué quatre vols d’essai du Starship ces deux dernières années avec des résultats de plus en plus prometteurs à chaque tentative. En juin dernier, pour la première fois, l’essai ne s’est pas soldé par une explosion.

Autre obstacle : le coût financier colossal. Elon Musk a estimé qu’il faudrait environ un milliard de dollars par tonne de charge utile pour atteindre la surface de Mars. Notons, néanmoins, un atout remarquable pour réduire les coûts : le Starship est conçu pour être entièrement réutilisable après chaque vol.

Une autre priorité en 2026 : Artémis III

Autre obstacle sur la route du fondateur de Tesla : la Lune. La Nasa compte, en effet, sur SpaceX pour lui fournir un atterrisseur lunaire pour le retour des astronautes dans le cadre de sa mission lunaire Artémis III fixée à l’horizon 2026. Elon Musk devra d’abord se concentrer sur ces vols qui représentent un défi technologique titanesque.

Une ville autonome d’ici 20 ans

L’ambition de Musk ne s’arrête pas à l’exploration de Mars. Depuis la fondation de SpaceX, il n’a jamais caché son intention de conquérir la planète et d’y créer une colonie humaine. Il souhaite augmenter le nombre de vols de manière exponentielle, avec pour objectif de bâtir une ville autonome d’ici une vingtaine d’années.

Pour Elon Musk, devenir une espèce multi-planétaire est plus qu’une lubie, c’est une nécessité afin de garantir la survie à plus long terme de l’humanité. En ne dépendant plus d’une seule planète, les risques d’extinction liés à des catastrophes naturelles sont réduits. La création d’une ville martienne serait révolutionnaire et soulèverait des questions éthiques et philosophiques complexes.

Son don de transformation d’idées avant-gardistes en applications concrètes rend Elon Musk confiant. « C’est extrêmement difficile, mais pas impossible », affirme-t-il.


[1] National Aeronautics and Space Administration

 

Vers des quotas d’acier vert dans l’industrie automobile européenne ?

Réélue à la tête de la Commission européenne, Ursula von der Leyen a déclaré devant les eurodéputés vouloir proposer « un nouveau Pacte pour une industrie propre au cours des premiers 100 jours » de son nouveau mandat. Celui-ci doit permettre d’orienter « les investissements vers les infrastructures et l’industrie, en particulier les secteurs à forte intensité énergétique. » Dans son discours, elle annonce sa volonté de créer des marchés pilotes dans tous les domaines, et notamment dans celui de l’acier propre dans le but d’accélérer la planification, les appels d’offres et les autorisations.

Il n’en fallait pas moins à l’industrie sidérurgique, à travers l’association européenne de l’acier Eurofer, pour proposer la mise en place de quotas minimums d’acier vert dans la production automobile grâce à l’instauration d’une nouvelle réglementation européenne. Avec une part représentant 17 % de la consommation d’acier en Europe, le secteur automobile pourrait en effet créer une demande en acier bas carbone. Cette proposition a suscité la contestation de l’Association des constructeurs européens d’automobiles (ACEA) ; quant à l’industrie automobile allemande, elle estime que le problème ne provient pas d’un manque de demande en acier vert, mais au contraire d’un déficit de l’offre.

L’ONG militante belge T&E (Transport & Environment) n’est pas de cet avis. En se basant sur une étude réalisée à sa demande par la société de conseils britannique Ricardo, elle considère que « l’Europe sera en mesure de produire jusqu’à 172 millions de tonnes d’acier bas-carbone par an d’ici 2030. Cette quantité sera plus que suffisante pour répondre à la demande totale d’acier du secteur automobile, qui a consommé 36 millions de tonnes en 2022. L’étude montre également que la diminution du poids des véhicules réduira l’utilisation de l’acier dans le secteur de l’automobile au cours de la prochaine décennie. »

Un surcoût de seulement 57 euros par voiture en 2030

D’après les simulations réalisées par la société Ricardo, l’incorporation de 40 % d’acier produit avec de l’hydrogène vert, des fours à arc électrique ou de la ferraille recyclée ne coûterait que 57 euros de plus par voiture en 2030, par rapport à l’acier conventionnel. Et atteindre 100 % d’ici à 2040 entraînerait un surcoût de seulement 8 euros, en raison de la tarification du CO2 et de la baisse des coûts de production de l’acier vert. Mais pour atteindre ces objectifs, des milliards d’euros d’investissements vont devoir être mobilisés pour soutenir la production d’acier bas carbone et les producteurs devront avoir l’assurance de leurs débouchés. T&E appelle donc « les législateurs à contribuer à la création d’un marché pilote pour l’acier vert en Europe, en fixant des objectifs d’incorporation pour les constructeurs automobiles à partir de 2030. »

Plusieurs constructeurs se sont d’ores et déjà fixés des objectifs d’incorporer plus d’acier vert dans la fabrication de leurs véhicules. Par exemple, Volvo s’est engagé à utiliser 25 % d’acier recyclé d’ici à 2025, tandis que BMW prévoit d’en employer 50 % d’ici à 2030. De leurs côtés, Mercedes-Benz et BMW ont signé des accords avec la start-up suédoise H2 Green Steel (H2GS) pour s’approvisionner en acier faiblement carboné produit à partir d’hydrogène vert et d’électricité provenant de sources d’énergie 100 % renouvelables.

La production d’acier est une opération à forte intensité énergétique, car elle implique la séparation du fer et de l’oxygène, qui sont étroitement liés dans les minéraux à l’état naturel. Historiquement, son processus de fabrication par la voie des hauts-fourneaux à oxygène (BF-BOF) repose sur l’énergie provenant de la combustion du charbon, une méthode qui libère du CO2 et représente encore un peu plus de la moitié de la production européenne d’acier. Bien que l’industrie sidérurgique ne représente que 6 % des émissions de l’UE, elle est le plus gros émetteur du secteur industriel, responsable de près d’un quart des émissions industrielles européennes.

TotalEnergies veut réduire de 80% ses émissions de méthane tout en augmentant sa production d’hydrocarbures

TotalEnergies a pour ambition d’atteindre la neutralité carbone à l’horizon 2050 et de réduire fortement ses émissions de méthane. Néanmoins, certains acteurs environnementaux accusent TotalEnergies d’être lié à « une vingtaine de projets pétroliers ou gaziers susceptibles d’émettre plus d’un milliard de tonnes d’équivalent CO2 sur l’ensemble de leur cycle de vie. »

Sur l’initiative du groupe Écologiste – Solidarité et Territoires (GEST) du Sénat, une commission d’enquête a ainsi été lancée. Celle-ci concerne les moyens mobilisés et mobilisables par l’État pour assurer le respect par TotalEnergies des obligations climatiques et des orientations de la politique étrangère de la France.

Le rapport complet, les auditions détaillées, ainsi que les 33 recommandations qui ont été formulées par la commission sont disponibles sur le site du sénat.

TotalEnergies multiplie les projets de réduction des émissions de méthane

Les émissions de méthane sont un problème qui a longtemps été sous-estimé. On sait désormais qu’elles ont généré 30 % du réchauffement mondial depuis la Révolution industrielle. Or, le secteur de l’énergie est responsable d’environ 40 % des émissions de l’activité humaine, en raison de fuites accidentelles ou de mauvaises pratiques lors de l’extraction.

À l’issue de la COP26, dont le sujet principal était la réduction des émissions de méthane, une centaine de pays se sont ainsi engagés à réduire de 30 % leurs émissions d’ici 2030. Et de son côté, le groupe TotalEnergies s’est lui aussi fixé un objectif ambitieux : réduire les émissions de méthane sur ses sites exploités de 50 % d’ici 2025 et 80 % d’ici 2030 par rapport à 2020.

Pour y arriver, le groupe a donc commencé par mener une campagne mondiale de détection par drone sur ses 150 sites de production. Preuve de sa bonne foi et de son engagement, le groupe a même mis à disposition de compagnies nationales sa technologie de détection AUSEA.

Mais en dehors de ce qui est communiqué par TotalEnergies, le rapport de la commission d’enquête du Sénat souligne néanmoins que « la problématique des fuites de méthane lors de la production, du transport et du stockage du GNL est largement sous-estimée par l’énergéticien et doit mieux être prise en compte. »

TotalEnergies investit encore trop dans les énergies fossiles

Outre la question du méthane, la stratégie de décarbonation de TotalEnergies ne convainc pas forcément tout le monde. Lors de la 2e audition de cette commission d’enquête du Sénat, le politiste et membre du Giec François Gemenne a rappelé que si les investissements des multinationales du secteur se tournent de plus en plus vers les énergies renouvelables, « les investissements dans les énergies fossiles continuent d’être en hausse ». Il va même plus loin en affirmant que « TotalEnergies a raté l’opportunité de réinvestir massivement ses profits vers le déploiement des énergies renouvelables. »

Pour Valérie Masson-Delmotte, paléoclimatologue et ancienne coprésidente du Giec, il y a aussi un décalage entre l’image que le groupe semble vouloir se donner auprès du grand public et la réalité. Et ce constat dépasse d’ailleurs l’échelle européenne, puisque le régulateur de la publicité en Afrique du Sud a récemment dénoncé une campagne publicitaire trompeuse qui laisserait croire que le « développement durable est pratiqué dans toutes les activités de l’entreprise. »

Réduire la consommation d’hydrocarbures doit être la priorité pour le climat

Les faits sont là : 84 % du mix énergétique mondial repose actuellement sur les énergies fossiles. Comme l’affirme Valérie Masson-Delmotte  : « nous émettons à peu près 40 milliards de tonnes – de gaz à effet de serre – chaque année. Il nous faudrait donc entre six et sept ans, au rythme actuel d’émissions, pour atteindre cet objectif (de limiter le réchauffement à 1,5° degré). Autrement dit, si nous n’engageons pas une forte baisse du niveau actuel d’émissions polluantes, le réchauffement dépassera inéluctablement 1,5 degré ».

Du point de vue de la physique et du climat, le problème est donc simple : nous devons réduire fortement nos émissions de méthane et de CO2 pour limiter le réchauffement. De manière logique, la priorité absolue devrait donc être de mettre fin le plus rapidement possible à notre dépendance aux énergies fossiles. Cela suppose ainsi de progressivement réduire nos prélèvements dans les réserves d’énergie fossile disponibles. Et sur ce point, une étude parue dans la revue Nature en 2021 fournit des chiffres clairs : « 60 % du pétrole et du méthane et 90 % du charbon ne devraient pas être extraits. »

Malheureusement, ni les groupes pétroliers ni les états ne semblent prêts à renoncer à l’exploitation des immenses réserves de combustibles fossiles. Pour s’en convaincre, il suffit de voir les faits. Selon l’AFP, plus de 400 projets pétroliers et gaziers impliquant 200 entreprises privées et publiques ont ainsi été approuvés en 2022 et 2023, dans 58 pays.

Et il y a plus alarmant encore. Selon les médias britanniques Newsweek et The Daily Telegraph, des chercheurs russes auraient mis au jour, en 2020, l’équivalent de 511 milliards de barils de pétrole en Antarctique. À titre de comparaison, cela représente le double des réserves connues de l’Arabie Saoudite, principal exportateur mondial de pétrole. Bien que toute exploitation minière soit strictement interdite en Antarctique depuis le protocole de Madrid en 1998, les intentions russes ont de quoi interroger, compte tenu de sa tendance à outrepasser les règles internationales. À l’avenir, un tel « trésor » ne risque-t-il pas également de susciter d’autres convoitises ? Il faut espérer que non.

Aérien : pour une taxe grands voyageurs ?

Le trafic aérien ne connaît plus la crise. Comme nous l’évoquions en juin dernier, sur la base des études disponibles, le réseau Rester sur Terre et l’Union française contre les nuisances des aéronefs (UFCNA) se mobilisent pour demander le plafonnement du trafic aérien au-dessous du niveau de 2019. Le Réseau Action Climat, fédération de 27 associations écologistes, explore d’autres pistes pour réduire le trafic dans son nouveau rapport « Comment réduire le trafic aérien de manière juste et efficace ? ».

Taxer pour investir dans le ferroviaire

Alors que l’aérien pesait pour 7 % des émissions françaises de CO2 en 2019, le rapport évalue la pertinence de neuf propositions qui ont émergé dans le débat public ces dernières années pour encadrer le secteur. Pour cela, les auteurs ont retenu trois critères : « l’impact sur le climat, les recettes fiscales générées et la répartition de l’effort au sein des différentes parties prenantes et de la population ». Côté climat, l’instauration d’un quota d’un aller-retour par an par personne permettrait par exemple de baisser de près de 16 % les émissions de CO2 du secteur.

Au cœur de ces propositions, « une mesure spécifique satisfait tous les critères », estime le Réseau Action Climat. C’est la création d’une « taxe grands voyageurs ». Cette taxe fonctionnerait « à l’inverse des systèmes de fidélité type miles” », explique le collectif d’ONG. Le principe est simple : plus un passager prend l’avion, plus le prix de chaque billet augmente. « Selon notre modélisation, cette mesure permettrait de baisser les émissions du secteur aérien de 13,1 %, tout en faisant peser l’essentiel de l’effort sur les passagers les plus réguliers et en générant 2,5 milliards d’euros de recettes », calcule le Réseau Action Climat.

Une autre mesure répond aux trois critères : le relèvement de la « Taxe Chirac », soit la taxe de solidarité sur les billets d’avion (TSBA), avec un barème élevé pour les jets privés en location, comme le proposait la Convention citoyenne pour le climat. Cette mesure réduirait les émissions du secteur aérien de 8 % selon les modélisations du rapport, en ciblant en priorité les plus aisés. Les 4 milliards d’euros supplémentaires de recettes permettraient de développer l’offre ferroviaire, propose le Réseau Action Climat.

L’avion, un mode de transport inégalitaire

« L’avion est un mode de transport inégalitaire », rappelle le Réseau Action Climat. En effet, les Français les plus aisés, diplômés et urbains sont sur-représentés dans les personnes ayant recours à ce mode de transport. « Sur 100 passagers aériens, on dénombre 37 cadres supérieurs (contre 14 dans la population générale), et seulement 8 ouvriers (contre 21 dans la population générale) », partage l’étude.

Par ailleurs, l’avion reste majoritairement un transport de loisir en France. « Les vols de loisir représentent 75 % des émissions de CO2 des Français qui prennent l’avion – le quart restant se répartissant équitablement entre vols professionnels et familiaux », rappelle le rapport. En ce sens, taxer l’aviation d’affaires n’aurait qu’un effet marginal sur les émissions de CO2 du secteur et n’entraînerait que 0,1 milliard de recettes supplémentaires.

Daltonisme, dyslexie, myopie : Facil’iti adapte les sites web aux besoins des internautes

Avez-vous déjà repéré la pop-in d’un bateau en papier encerclé de rouge dans le coin d’un de vos sites préférés ? Carrefour, Rock-en-Seine, Bouygues Telecom, Maaf… de nombreux sites s’équipent aujourd’hui de la solution Facil’iti, qui permet d’adapter l’affichage d’un site web en fonction des besoins de l’utilisateur. Lorsqu’on clique sur la pop-in, plusieurs options s’ouvrent : dyslexie, fatigue visuelle, cataracte, épilepsie, maladie de Parkinson… Chacune permet de modifier la page et de cumuler les filtres selon ses préférences. Aujourd’hui en France, 12 millions de personnes sont en situation de handicap et peuvent rencontrer des difficultés dans la navigation web. Facil’iti se présente alors comme une béquille pour améliorer l’inclusivité numérique. Nicolas Gouti, Product et Innovation Manager, et Julien Fredon, Chief Technology Officer, nous présentent leur solution.

Techniques de l’ingénieur : Comment est née Facil’iti ?

Julien Fredon et Nicolas Gouti - Facil'iti
Julien Fredon et Nicolas Gouti / Crédit : Facil’iti

Nicolas Gouti : A l’époque, Frédéric Sudraud, qui est aujourd’hui le CEO de Facil’iti, était responsable d’une agence de communication. Les équipes ont eu l’idée d’adapter les sites web en fonction des particularités des utilisateurs, en modifiant les couleurs par exemple. Au fur et à mesure, le projet s’est transformé pour se tourner vers l’adaptation de sites aux personnes en situation de handicap ou avec des gênes temporaires : dyslexie, daltonisme, épilepsie etc. Facil’iti est alors née en 2018, dans l’idée de créer une solution gratuite pour les utilisateurs, car ils n’ont pas à payer pour la gêne qu’ils peuvent avoir. Ce sont donc les sites qui souscrivent à un abonnement et à qui on installe une pop-in.

Aviez-vous déjà des connaissances sur le sujet d’inclusion ?

Julien Fredon : En tant qu’agence de communication, la création des sites faisait partie de notre travail donc nous connaissions les normes RGA. Mais la question de l’accessibilité ne concerne pas que le code, elle entre dans toutes les chaînes de la création de l’information. Si un éditeur ajoute une image, c’est à lui ensuite d’intégrer la description de l’image par exemple. Les développeurs agissent sur la technique, mais ce n’est qu’une partie des problématiques de l’accessibilité. Cette partie, nous la connaissions mais nous voulions aller plus loin, proposer des choses qui automatisent certains traitements pour rendre l’information plus accessible pour tout le monde.

N.G. : C’est pour cela que nous sommes partis plutôt sur un outil. Notre solution permet ainsi de compléter et d’améliorer les normes d’accessibilité qui existent déjà, mais qui ne prennent pas en compte un tas de pathologies. Nous parlons alors d’une solution d’inclusion numérique, et non d’accessibilité numérique.

Comment avez-vous conçu les différents filtres qui permettent d’adapter les sites web ?

N.G. : L’idée était d’aller chercher les besoins exprimés par les personnes elles-mêmes. Et en fonction de ces besoins, nous réfléchissions en interne à ce que nous pourrions faire pour y répondre. Nous avons donc travaillé en collaboration avec des associations pour recueillir leurs témoignages. Par exemple, une personne atteinte de la maladie de Parkinson a des difficultés à cliquer sur le bon élément à cause de ses tremblements et des menus trop étroits. En conséquence, nous avons décidé de restructurer les pages en écartant les zones de clic et en réunissant les colonnes des menus sur une seule colonne afin de faciliter le clic malgré les tremblements. Au fur et à mesure, nous avons essayé de construire un ensemble d’adaptations et de combinaisons qui permettent à tous de naviguer sur les sites.

J.F. : On a réalisé beaucoup de tests utilisateurs à chaque fois qu’on développait une interface ou une fonctionnalité. Les premiers tests ont été réalisés dans des EHPAD auprès des personnes âgées pour vérifier si nos filtres leur donnaient un véritable avantage dans la navigation des sites. Nous nous sommes aussi beaucoup documentés via la littérature scientifique, et tous nos choix -couleurs, polices, taux de transparence- ont été rigoureusement pensés en fonction de nos lectures.

Filtres Facil'iti
Capture écran des filtres Facil’iti

Sur quels facteurs pouvez-vous agir concrètement ?

N.G. : Nous agissons sur trois types de facteurs : les gênes visuelles, moteur et cognitives. Nous parlons de “gênes” plutôt que de “pathologies” car bien souvent, les personnes arrivent à naviguer mais sont gênées dans leur utilisation d’internet.
Commençons par la gêne visuelle : le daltonisme est souvent oublié par la norme, ce qui engendre des problèmes de compréhension pour des graphiques par exemple. Avec Facil’iti, nous proposons des filtres avec des couleurs adaptées pour faciliter la navigation. Pour d’autres gênes visuelles, nous proposons le grossissement des caractères ou l’assombrissement de la page pour les personnes atteintes de la cataracte par exemple.

Ensuite, la partie cognitive peut concerner la dyslexie. En travaillant avec des associations, nous avons compris que chaque personne a ses propres difficultés : certaines vont avoir besoin de plus d’écartement entre les mots ou entre les lignes, d’autres vont confondre des lettres, des mots ou des sons. Toutes ces confusions font que nous proposons des filtres par défaut mais aussi la possibilité de les paramétrer pour s’assurer que cela réponde aux besoins propres de chaque personne. L’internaute peut par exemple choisir de mettre en exergue les p d’une couleur et les q d’une autre pour ne plus confondre les lettres. Pour les personnes atteintes de troubles de la concentration, des filtres permettent de désactiver toutes les animations et de limiter les couleurs trop vives.

Enfin, les facteurs moteur peuvent concerner les tremblements donc on restructure les pages pour faciliter les zones de clic. Il est d’ailleurs possible de cumuler différents filtres en même temps.

Comparaison de l'affichage sans filtre et avec le filtre "Malvoyance"
Comparaison de l’affichage sans filtre et avec le filtre « Malvoyance » / Capture écran du site Facil’iti

Comment votre solution s’intègre-t-elle techniquement aux sites web de vos clients ?

J.F. : Notre solution est totalement indépendante et va se rajouter au site du client, sans entrer dans le code. Elle a aussi pour particularité de ne pas être entièrement automatisée. Certaines fonctionnalités le sont comme des traitements pour ajuster les couleurs, mais une partie de notre travail consiste à réaliser manuellement des changements spécifiques au site. En effet, certains paramètres vont augmenter la taille des caractères par exemple, or si certains textes finissent par sortir de l’écran, on perd tout l’intérêt de l’accessibilité.

N.G. : Il faut compter en moyenne 12 jours pour l’installation, sachant que cela dépend selon la complexité du site. Ensuite, nous fonctionnons sous la forme d’un abonnement annuel. Il peut aussi y avoir un peu de maintenance si le client fait évoluer son site en changeant la structure des pages.

Quels retours recevez-vous sur votre solution ?

N.G. : De manière générale, les internautes sont satisfaits et trouvent dommage de ne pas la retrouver sur tous les sites. D’autant plus qu’une fois les paramétrages définis pour un site, ils sont conservés sur tous les autres sites qui utilisent Facil’iti. Cela étant, la solution ne nécessite pas de comptes utilisateur, tout se trouve sur le site web, ce qui signifie que nous n’avons aucune information sur les utilisateurs. Cet anonymat est capital car il évite que certaines personnes se sentent stigmatisées.
Du côté des clients, le taux de renouvellement est bon mais nous devons faire attention à la concurrence.

Quels sont vos projets pour la suite ?

N.G. : Nous souhaitons nous diversifier d’un point de vue produit et sortir un peu d’Internet pour apporter de l’aide concrète dans le monde qui nous entoure. Depuis 2 ans, nous avons lancé l’appli mobile MYdys destinée aux personnes dyslexiques. Si l’utilisateur est face à un texte, une notice, un écriteau dans un musée, il le prend en photo et l’application adapte automatiquement le texte aux paramètres définis. Vous pouvez activer la lecture audio, différencier les lettres par des couleurs etc. Nous souhaitons poursuivre le développement de ce type d’outils. Par ailleurs, nous avons des filiales au Japon et aux Etats-Unis que nous souhaitons développer, ainsi que nous lancer sur le marché européen.
Enfin, nous souhaitons aussi nous focaliser sur le contenu. Adapter un site c’est bien, mais parfois, l’utilisation de mots compliqués peut entraîner des difficultés de lecture, de compréhension. Nous réfléchissons à comment orienter la compréhension, donner des mots-clés, reformuler différemment, pourquoi pas en passant par l’IA. Et ainsi travailler sur le sens même de l’information.

Propos recueillis par Alexandra Vépierre


Photo de Une : Capture écran des filtres Facil’iti

Salon de l’auto : l’ambition 2030 se joue maintenant

Le verdissement des véhicules serait-il en bonne voie ? Selon les chiffres du rapport Secten, référence sur les émissions de gaz à effet de serre (GES), élaboré par le Citepa, le transport routier reste le premier émetteur en France avec 119 millions de tonnes d’équivalent-CO2 (MtCO2e) en 2023. Cela représente près d’un tiers des émissions du pays. Entre 2022 et 2023, l’organisme estime la baisse à 3,4 %, dans une tendance à la baisse depuis 2015 (hors rebond post-covid 2021 et 2022).

Pour expliquer ces bons résultats, l’organisme avance : « Il y a des effets de court terme tels que les augmentations des prix des carburants à la pompe qui limitent les déplacements non contraints au moment des hausses. Il y a aussi des effets de moyen et long terme comme le renouvellement du parc par des véhicules moins énergivores (véhicules électriques par exemple) ou comme le report modal (covoiturage, modes doux). »

Des objectifs et un scénario ambitieux pour 2030

Pour l’instant, le secteur des transports semble être en accord avec les objectifs de la stratégie nationale bas carbone (SNBC-2). Le scénario de référence prévoit des émissions pour le secteur du transport de 116 MtCO2e en 2025, 99 MtCO2e en 2030, en vue d’atteindre 51 MtCO2e en 2040 et 4 MtCO2e en 2050.

Il faut donc fortement accélérer la décarbonation des transports dès aujourd’hui pour atteindre des objectifs de plus en plus ambitieux. Pour y arriver, le scénario de la SNBC-2 mobilise cinq leviers : la décarbonation de l’énergie consommée par les véhicules, une meilleure performance énergétique des véhicules, la maîtrise de la croissance de la demande, le développement du report modal, et l’optimisation de l’utilisation des véhicules pour le transport de voyageurs comme de marchandises.

La SNBC mise sur le développement des motorisations électriques, au biocarburant et au biogaz selon les modes de transport. En 2030, le scénario atteint notamment une part de 35 % de voitures particulières électriques et de 10 % de voitures particulières hybrides rechargeables dans les ventes de véhicules neufs. Le scénario vise une consommation de 4L/100 km en consommation réelle pour les véhicules neufs vendus en 2030.

Des objectifs bientôt mis à mal ?

Mais des signes avant-coureurs laissent présager que les choses pourraient ne pas se passer aussi bien. Ainsi, selon le baromètre d’août 2024 de l’Avere, 20 577 véhicules électriques et hybrides rechargeables ont été immatriculés en France, en baisse de -32,5 % par rapport à août 2023. C’est le « 4e mois consécutif de baisse des immatriculations neuves, le mois d’août 2024 s’affiche comme le plus mauvais des dix dernières années pour le marché des véhicules particuliers », avance Clément Molizon délégué général de l’Avere-France dans un communiqué.

Par ailleurs, l’amélioration des performances des véhicules neufs est moindre que prévu. Et l‘association des constructeurs automobiles européens demande même le report du durcissement des normes européennes sur les émissions de CO2. Plus de CO2, cela signifie inexorablement moins de véhicules électriques sur les routes et donc plus de pétrole brûlé dans des véhicules thermiques.

Il convient en plus d’ajouter que les véhicules sont de plus en plus lourds. D’après le palmarès de l’«autobésité » que l’association Agir pour l’Environnement dévoilera à l’occasion du Mondial de l’automobile de Paris, du 14 au 20 octobre prochains, les véhicules sont loin de devenir plus économes en ressources. En vingt ans, le poids moyen des 25 voitures les plus vendues a augmenté de 325 kg. Et la course au SUV – thermique ou électrique – ne semble pas faiblir.

Mais la course à l’ambition est-elle perdue pour autant ? Non. Des constructeurs volontaires montrent la voie, des ONG montent au créneau pour le respect des budgets carbone de la SNBC-2. De son côté, le secrétariat à la planification écologique a publié fin juillet un rapport, très détaillé, explorant les politiques budgétaires et fiscales pour accélérer la transition des véhicules. Il propose notamment d’augmenter les malus poids et CO2 sur les véhicules neufs pour freiner l’achat des véhicules les plus polluants. Il recommande encore de limiter l’avantage fiscal des indemnités kilométriques qui limite le report modal. Le barème actuel serait près de deux fois supérieur aux coûts réels de possession constatés pour les distances inférieures à 5 000 km/an, calcule le secrétariat. En plus, le rapport propose de réformer le régime fiscal actuel de l’Avantage en Nature qui sous-estime l’usage personnel de ces véhicules. Il s’agit là d’une autre niche fiscale qui n’incite pas au report modal. Finalement, il ne reste plus qu’au nouveau gouvernement de s’emparer de ce défi.

Les plantes ont-elles des yeux ?

De là à imaginer des yeux aux plantes, il a fallu gravir plusieurs échelons de compréhension de la sphère botanique. Tout a débuté avec l’observation par les scientifiques de plantes croissant en suivant la direction du Soleil – on parle aujourd’hui de phototropisme. Puis, des recherches ont mis en avant la présence de photorécepteurs chez les plantes avec les phytochromes, les cryptochromes ou encore les phototropines. A suivi un rapport faisant état d’une espèce de vigne chilienne dont les feuilles seraient capables d’imiter celles de différentes espèces de plantes. Une possibilité étonnante, qui pourrait s’expliquer par une première capacité visuelle mise en évidence dans le domaine de la botanique. Et voilà la quête des yeux chez les plantes enfin lancée…

Des yeux composés des insectes à l’œil composé des plantes

Chez les insectes, les yeux composés ont des allures de masque d’escrime. Ils se composent de multiples unités fonctionnelles, appelées des ommatidies – des récepteurs visuels indépendants. Or, même les plus jeunes pousses de branches d’un arbre sont riches de nombreux photorécepteurs. Les plantes seraient potentiellement couvertes de petits yeux ! Chacun d’entre eux étant capable de discriminer l’ultraviolet, le bleu, le vert, le rouge, le jaune et la polarisation du rayonnement solaire. C’est du moins l’idée avancée par Yi Lin, chercheur à la School of Earth and Space Sciences de l’université de Pékin (Chine). Ce dernier propose ainsi de modéliser la vision chez les plantes comme provenant d’un œil composé, à la manière des insectes. Pour une validation préliminaire de son modèle, le scientifique a testé les points clés de sa faisabilité en termes de support structurel, de chemin emprunté par l’information visuelle et de performance fonctionnelle. Les résultats de son travail ont donné lieu à une publication dans le journal Advanced Science le 24 octobre 2023.

Le premier résultat prenait comme exemple clé le cas des plantes ligneuses. En effet, les cimes des arbres montrent des profils autosimilaires, c’est-à-dire qu’elles conservent leur forme, quelle que soit l’échelle d’observation choisie. Cette particularité a l’avantage de rendre leurs surfaces omnidirectionnelles. Un bon support structurel pour le modèle de Yi Lin. Le second résultat mettait en avant la ramification des plantes. Chez plusieurs espèces, elle se conforme au front de Pareto – une notion due à l’économiste italien Vilfredo Pareto (1848-1923). La ramification suit ainsi l’ensemble des optima de Pareto, c’est-à-dire que chaque branche est positionnée de sorte à capter un maximum de ressources solaires sans réduire celle reçue par les autres branches. Ceci assure un cheminement de l’information visuelle optimal. Le troisième résultat du chercheur pointait vers les canopées. On y observe un phénomène qualifié de manière anthropocentriste par des chercheurs australiens dans les années 1960 de crown shyness (« timidité des cimes »). Des arbres maintiennent ainsi entre eux, voire entre leurs propres branches, une certaine distance qui s’accorde avec la vision panoramique fonctionnelle du modèle.

Finalement, Yi Lin a passé cette première validation et ouvert la voie à de futures analyses basées sur son modèle d’œil composé chez les plantes.

Mobilité hydrogène : La France, un marché qui démarre

Le marché du véhicule hydrogène se développe doucement. Le 1er baromètre du déploiement de la mobilité hydrogène, lancé par le Pôle Véhicule du Futur, s’intéresse aux tendances et dynamiques des marchés en France, en Europe et à l’échelle mondiale, de nombreux véhicules : les voitures particulières, les utilitaires, les camions et autobus, mais aussi les engins de manutention et les rames hydrogène du ferroviaire.

Selon ce pôle de compétitivité qui anime la filière hydrogène sur les régions Bourgogne-Franche-Comté et Grand Est, le parc mondial de véhicules hydrogène s’élève à près de 89 000 véhicules : 76 % de véhicules particuliers, 11 % de camions, 9 % d’autobus et 5 % de véhicules utilitaires légers[1]. Il devrait dépasser les 100 000 véhicules d’ici la fin de l’année 2024.

En 2023, 17 500 nouveaux véhicules hydrogène ont été immatriculés, en baisse de 8 % par rapport à 2022. La Corée du Sud se hisse en tête des ventes, avec 4 254 immatriculations, en baisse de 58 % sur un an. Suivent les États-Unis (2 978 immatriculations, +10 %), l’Europe (856 véhicules, -37 %) et le Japon (424 immatriculations, -50 %).

La France, premier marché européen pour les voitures en 2023

Le parc mondial des véhicules particuliers comprend près de 67 000 véhicules fin 2023, dont 8 829 véhicules immatriculés en 2023 (-41 % par rapport à 2022). Fin 2023, le parc automobile particulier européen compte 5 596 véhicules, dont 2 359 en Allemagne et 964 en France. Avec 306 voitures hydrogènes immatriculées en 2023, en hausse de 158 % sur un an, la France est devenue le premier marché européen, devant l’Allemagne (263) et les Pays-Bas (106).

L’exemple phare de la filière pour témoigner de ce dynamisme sont les taxis hydrogène de la capitale. Depuis les premiers taxis hydrogène « Hype », lancés à Paris en 2015, la flotte s’est bien développée. Fin août, près de 1 000 taxis hydrogène circulaient à Paris, soit 5 % du parc de taxis. En plus, 58 bus hydrogène étaient en circulation fin 2023, notamment à Rouen et Belfort, 83 seront livrés entre 2024 et 2026. « La part reste modeste (1,7 %) sur les 1 992 bus urbains immatriculés en 2023, mais en fonction des profils de lignes (longueur et dénivelé en particulier) la propulsion hydrogène est une vraie solution en complément des véhicules 100 % batterie », prévient le Pôle Véhicule du Futur, dans un communiqué.

Le nombre de stations de distribution H2 au niveau mondial a pour sa part dépassé les 900 fin 2023. « Le développement est en lien avec le nombre de véhicules par pays », souligne le baromètre, mais « pour certains pays tels la Chine et les États-Unis, la répartition géographique n’est pas du tout égale sur le territoire ». L’Europe compte 264 stations, dont 51 se situent en France, et « les stations [y] sont mieux réparties ».

« Après la recherche puis l’industrialisation et les premiers écosystèmes, nous entrons progressivement dans l’ère du déploiement des solutions dans la mobilité lourde. La filière industrielle a besoin de projets de déploiement massifs et structurants pour passer à l’échelle », commente Thierry Tournier, président du Pôle Véhicule du Futur.


[1] véhicules particuliers : 75,9%, véhicules utilitaires légers : 4,7%, camions : 10,9% , autobus : 8,6%

La revue du Magazine d’Actualité #5 : du 30 septembre au 4 octobre

De la découverte en laboratoire à l’innovation industrielle… On scrute pour vous chaque semaine les tendances de l’industrie.

Des solutions basées sur les micro-ondes pour la production d’hydrogène décarboné

Les micro-ondes pourraient jouer un rôle clé dans la production d’hydrogène décarboné. Pour la production de celui-ci, des chercheurs et entreprises explorent deux technologies innovantes : une via des réactions d’oxydo-réduction avec de l’eau, et l’autre en « craquant » du méthane pour obtenir du carbone solide. Ces approches promettent de relever les défis actuels de la production d’hydrogène tout en réduisant les émissions de CO2.
Lisez l’article complet pour approfondir le sujet.

Quel avenir pour le respect de la confidentialité de nos données ?

Face à l’évolution rapide des technologies émergentes, les entreprises doivent choisir judicieusement leurs investissements. L’intelligence artificielle autonome, les solutions de protection de la vie privée, ou encore le machine learning fédéré transforment progressivement la manière de sécuriser les données et d’améliorer la performance des systèmes. Ces technologies redessinent un avenir plus autonome et respectueux des utilisateurs.
Découvrez les prochaines étapes pour la protection de vos données.

Les priorités du Rapport Draghi pour renforcer la compétitivité européenne

Dans son rapport remis à la Commission européenne, Mario Draghi identifie trois axes majeurs pour relancer la croissance de l’UE. L’accent est mis sur la réduction de l’écart d’innovation avec les États-Unis et la Chine, la mise en place d’un plan cohérent pour la décarbonation tout en maintenant la compétitivité, ainsi que la sécurisation des ressources critiques. Ces leviers sont essentiels pour redonner à l’industrie européenne un rôle de leader mondial.
Explorez les leviers de compétitivité européenne.

La fabrication additive ouvre des perspectives sur la maçonnerie du verre

L’impression 3D pourrait transformer la construction en introduisant des briques de verre emboîtables, sans adhésif. Elle rend possible le développement d’éléments de maçonnerie plus résistants, flexibles, et faciles à assembler. Cette approche entraînerait aussi des économies de production, et ouvrirait la voie à des bâtiments entièrement en verre, démontables et réutilisables à l’infini.
En savoir plus sur cette solution d’impression 3D d’éléments en verre.

Le calcul intensif : futur incontournable de nombreux secteurs industriels ?

Le calcul intensif, ou HPC, apporte une aide précieuse aux secteurs industriels qui l’utilisent. Cette technologie réduit considérablement le temps nécessaire aux simulations et analyses complexes. Des quantités massives de données peuvent être traitées en parallèle, ce qui optimise les processus et accélère l’innovation. Malgré son coût et les défis liés à la protection des données, le HPC devient un allié de la compétitivité des entreprises.
Apprenez-en plus sur l’impact du calcul intensif dans l’industrie.

 

La croissance économique chinoise à la recherche d’un second souffle

Qu’il paraît loin le temps où l’économie chinoise enregistrait une croissance à deux chiffres. Au deuxième trimestre, le PIB a progressé de 4,7 %, selon les chiffres publiés par le Bureau national des statistiques (BNS). Un rythme insuffisant face à l’objectif de Pékin d’atteindre 5 % sur l’année 2024. Même si le déclin a lentement démarré au début des années 2010, le décrochage s’est produit en 2020, au moment de la crise sanitaire, mais contrairement à la plupart des pays du monde, le géant asiatique n’a pas retrouvé son niveau précédant la pandémie. Certes, un net rebond a été observé en 2021, mais depuis la deuxième économie mondiale peine à redresser la barre et la situation semble structurelle.

Le pays a été pénalisé par sa stratégie « zéro Covid » et ce n’est qu’en 2023, lorsque les contraintes sanitaires ont été levées, que l’économie a pu reprendre et aurait dû se redresser en conséquence. Sauf que la Chine est engluée dans une crise immobilière déclenchée par un endettement excessif des promoteurs, conduisant certains à la faillite et dissuadant les Chinois d’investir dans la pierre. Véritable pilier de l’économie chinoise qui pèse près d’un quart du PIB, le secteur immobilier fait face à un effondrement des ventes de logements, des baisses des prix ainsi que des investissements.

Sur le plan des exportations, autre moteur essentiel de l’économie, la Chine subit aussi les barrières commerciales mises en place par les États-Unis, mais aussi l’Union européenne (UE), pour protéger leurs marchés de produits chinois et de leur concurrence jugée déloyale. Au printemps, Washington a annoncé l’introduction de droits de douane additionnels sur certains produits tels que l’automobile, le solaire ou les puces. De son côté, Bruxelles vient de confirmer sa volonté de surtaxer jusqu’à 36 % les importations de voitures électriques Chinoises, alors que jusqu’à présent, elles étaient ponctionnées à hauteur de 10 %.

Les cicatrices profondes laissées par les restrictions anti-Covid

La Chine se retrouve également confrontée à un défi démographique. L’an dernier, la population a diminué de 2,75 millions de personnes, un déclin plus rapide qu’en 2022. Le vieillissement de la population, qui est le résultat d’une politique de contrôle des naissances, conduit à une baisse du nombre des personnes en âge de travailler. À cela, s’ajoute une consommation en berne des ménages et des entreprises. Les restrictions anti-Covid semblent avoir laissé des cicatrices profondes au sein de la population, confrontée par ailleurs à la faible progression de ses revenus. Un chômage élevé est aussi observé, notamment chez les jeunes puisqu’il a atteint 17,1 % en juillet.

Pourtant, depuis 2017, la Chine tente d’effectuer un rééquilibrage de son économie vers un modèle de croissance plus qualitative et reposant davantage sur sa consommation domestique. Le dernier Plan Quinquennal (2021-2025) adopté a pour objectif de construire un « pays socialiste globalement moderne » à l’horizon 2035. Une politique structurelle doit être mise en œuvre, basée notamment sur le renforcement de la recherche et de l’innovation ainsi que sur l’éducation dans le but de consolider la classe moyenne. Mais ce nouveau modèle peine à se concrétiser et la consommation des ménages est pénalisée par un taux d’épargne élevé lié à la défiance de la population et l’absence de réformes de la protection sociale.

Au milieu de l’été, un sursaut de la deuxième économie mondiale était attendu à l’occasion du troisième plénum du comité central du Parti communiste chinois. Sauf qu’à l’issue de ce rendez-vous traditionnellement consacré aux sujets économiques, aucun changement radical pour relancer l’économie n’a été annoncé. Un concept de « Nouvelles forces productives de qualité » a été dévoilé. Il promeut la création de champions nationaux dont l’ambition est de dépasser leurs concurrents étrangers grâce notamment à leurs avances technologiques. Mais cette nouvelle stratégie n’explique pas la manière dont la Chine va stimuler sa demande intérieure ni même résoudre la crise immobilière, qui participe grandement aux difficultés économiques du pays.

Fête de la Science : découvrez notre offre dédiée à la robotique !

Explorez gratuitement ces articles et découvrez les dernières avancées de la robotique ! 

Cette offre “Robotique” se compose de 4 rubriques avec 59 articles présentant les innovations et recherches les plus marquantes du secteur. En plus de l’accès complet à cette sélection d’articles, consultez aussi gratuitement des extraits des autres articles inclus dans l’offre.

Ces articles couvrent un large éventail de sujets : de la technologie des robots humanoïdes aux drones aériens en passant par les voitures connectées, les robots marins ou encore la robotique médicale, chirurgicale et agricole.

La rubrique en libre-accès, aborde également des thèmes variés dans plusieurs secteurs, tels que l’industrie automobile, et traite de la législation en explorant les défis de l’intégration des robots dans notre quotidien.

Que vous soyez un expert du domaine ou simplement curieux d’en savoir plus, cette offre est une opportunité unique de plonger dans l’univers riche et complet de la robotique. 

Accédez dès maintenant à notre rubrique « applications en robotique » à lire gratuitement.

Pourquoi le calcul intensif révolutionne-t-il de nombreux secteurs industriels ?

Dans un premier temps, les simulations numériques étaient réservées aux industriels de l’automobile, de l’aéronautique et de l’énergie. Ils souhaitaient notamment disposer de capacités de calcul qui sont utilisées pratiquement en permanence pour simuler et optimiser la conception de produits, de processus et de matériaux. Leur objectif est d’améliorer leurs performances et de réduire le temps de développement.

Depuis quelques années, les laboratoires pharmaceutiques et des entreprises de la cosmétique ont intégré le calcul intensif à la demande.

Le calcul intensif est également essentiel pour analyser de grands ensembles de données, tels que ceux générés par des études d’observation, des simulations ou des expériences. Il permet aux chercheurs d’identifier des modèles et des corrélations dans les données qui seraient difficiles à détecter avec des ressources informatiques traditionnelles.

Grappe de calcul

Pourquoi le HPC est-il devenu incontournable ? La réponse se trouve dans les différences entre le fonctionnement du calcul intensif et celui d’un système informatique standard. Celui-ci résout les problèmes principalement en divisant la charge de travail en tâches, puis en les exécutant en séquence sur un processeur (calcul en série).

Les systèmes HPC se caractérisent par leur puissance de traitement à grande vitesse, leurs réseaux à haute performance et leur grande capacité de mémoire, ce qui leur permet d’effectuer des quantités massives de traitements parallèles. Un supercalculateur est un type d’ordinateur HPC très avancé qui fournit une immense puissance de calcul et une grande vitesse, ce qui en fait un élément clé des systèmes de calcul à haute performance.

L’infrastructure d’un système HPC contient plusieurs sous-systèmes (ordinateurs, logiciels et outils spécialisés pour la gestion des ressources) étroitement interconnectés qui travaillent en parallèle comme un système unique pour effectuer des tâches de calcul à grande échelle. C’est ce qu’on appelle une grappe de calcul à haute performance.

Au cours des vingt dernières années, la plupart des algorithmes ont été parallélisés, ce qui signifie que le problème global est divisé en plusieurs parties, chacune étant exécutée sur un ordinateur ou un cœur distinct.

Le stockage HPC est un élément clé de toute grappe de calcul à haute performance fonctionnant de manière fluide et efficace. Des volumes très importants de données (qui peuvent atteindre plusieurs pétaoctets) sont nécessaires pour démarrer une simulation de longue durée ou la maintenir en fonctionnement. En fonction de l’algorithme, l’application peut également nécessiter davantage de données au fur et à mesure de son exécution.

Des obstacles à son adoption

Par exemple, lors de la simulation de l’interaction de différentes molécules médicamenteuses, des milliers de descriptions moléculaires devront être ingérées en même temps. Au fur et à mesure de l’exécution de l’application, un plus grand nombre de ces descriptions peuvent mériter d’être étudiées, ce qui nécessite une infrastructure de stockage à faible latence et à large bande passante.

Cependant, malgré des progrès récents impressionnants dans ce domaine, certains obstacles empêchent une adoption généralisée. Le premier est le coût. Même si le cloud a « démocratisé » l’usage du HPC, il s’agit toujours d’un investissement – en termes d’argent et de temps.

Le second frein concerne la conformité. La maintenance des systèmes HPC et des systèmes de données doit tenir compte de l’évolution des réglementations, en particulier celles concernant la protection des données personnelles de santé.

Il y a enfin, et c’est en partie lié au second obstacle, la protection et la confidentialité des informations. Différentes mesures de cybersécurité doivent s’appliquer à tous les aspects de l’environnement HPC, du réseau au stockage et au calcul en lui-même.

Des micro-ondes pour produire de l’hydrogène ?

La petite molécule d’hydrogène n’en finit pas de faire tourner les têtes. Promue comme brique essentielle à la transition énergétique, elle suscite de multiples intérêts et les solutions progressent comme l’a rappelé encore récemment France Hydrogène en publiant un panorama des technologies sur toute la chaîne de valeur. La filière doit pourtant encore franchir des étapes pour assurer une production décarbonée en très grande quantité. Car, malgré les centaines de millions d’argent public injecté depuis quatre ans, on n’a pas encore atteint une industrialisation à grande échelle.

Avancées dans la recherche

Si l’électrolyse de l’eau reste le mode de production privilégié pour la transition, des alternatives sont explorées par les chercheurs et les entreprises, notamment du côté des micro-ondes. Ainsi, en juillet dernier, des chercheurs espagnols de l’ITACA et de l’ITQ à Valence ont publié un article dans Advanced Energy Materials faisant état de progrès sur la capacité de certains matériaux à réagir avec l’eau sous l’effet de micro-ondes pour produire de l’hydrogène.

Le principe est le suivant : soumis au rayonnement électromagnétique (2,45 Ghz), l’oxyde métallique à base de Cérium et de Gadolinium « expulse » une partie de ses atomes d’oxygène. Après cette première étape de réduction, la baisse ou l’arrêt des micro-ondes conduit à ce que les espaces laissés vacants dans la structure atomique sont remplacés par l’oxygène des molécules d’eau. Il en résulte une réoxydation du métal et une production d’hydrogène. Le cycle d’oxydo-réduction peut être répété, générant alternativement de l’oxygène et de l’hydrogène.

Le travail des chercheurs a consisté à mieux caractériser les niveaux de puissance des micro-ondes et de température du matériau qui permet la réaction, et leur impact sur la conductivité de l’oxyde métallique. Ils ont testé plusieurs matériaux alternatifs en remplaçant le Gadolinium (Gd) par du Lanthane (La), de l’Yttrium (Y), de l’Ytterbium (Yb), de l’Erbium (Er) ou du Néodyme (Nd). La formule avec le Lanthane s’est avérée être la plus productive d’hydrogène, à un niveau moyen de 1,41 mL/g sur une vingtaine de cycles, pour une puissance de micro-ondes oscillant entre environ 20 et 45 W/g et une température entre 100 et 400°C.

hydrogène, micro-ondes
Schéma de production d’hydrogène à partir d’eau et de matériaux à base de Cérium soumis à micro-ondes (Source : A. Domingo-Saldaña & al. Advanced Energy Materials, 2024)

Potentiellement, ce mode de production d’hydrogène apporterait plusieurs avantages. Par rapport à d’autres procédés thermochimiques, le niveau de température est deux à trois fois moindre et la production d’oxygène lors de la réaction de réduction est beaucoup plus rapide (moins d’une minute contre une vingtaine de minutes). Par rapport à l’électrolyse de l’eau, ce process passe par une électrification sans contact et évite d’avoir à opérer une séparation de l’oxygène et de l’hydrogène.

Une technologie micro-ondes déjà accessible

Néanmoins, ces travaux de recherche sont encore loin d’aboutir à un stade commercial. Une entreprise comme Sairem a au contraire déjà développé un système de production, accessible pour des industriels qui ont un besoin local d’hydrogène. Le principe est d’effectuer une pyrolyse de méthane à très haute température via les micro-ondes (915 Mhz et 2,45 Ghz). On parle dans ce cas d’hydrogène « turquoise ». Les machines proposées par Sairem ont une puissance de minimum 100 kW et peuvent être agencées afin de délivrer plusieurs mégawatts. La possibilité d’ajuster la puissance et donc l’enthalpie apportée permet le contrôle de la réaction.

Trois atouts sont liés à cette technologie. Premièrement, elle préserve la ressource en eau, contrairement à l’électrolyse dont la consommation est d’environ 10 litres d’eau par kg d’H2. Elle est aussi moins consommatrice d’énergie que cette dernière, jusqu’à 7 fois moins. Deuxièmement, elle ne produit pas de CO2, contrairement au reformage conventionnel du méthane, car le carbone est récupéré sous forme de composé CnHn (acétylène, éthylène voire nanotubes de carbone) ou solide (noir de carbone, graphène, etc.) qui sont autant de matières très demandées dans l’industrie. En cas d’utilisation de biométhane, le procédé revient à capter du carbone. Troisièmement, Sairem estime que sa technologie est compétitive, car il faut seulement 10 à 50 kWh pour produire 1 kg d’H2 et que les coproduits en carbone sont valorisables économiquement.

Alors que les micro-ondes sont déjà bien utilisées industriellement pour d’autres applications de séchage, chauffage (par exemple de céramiques), décongélation, etc., elle pourrait donc apporter un complément intéressant à la technologie de l’électrolyse de l’eau. Et enfin massifier l’apport d’hydrogène décarboné pour concrétiser cet aspect de la transition énergétique.

Accessibilité numérique, technologies adaptées : penser l’inclusion dès la formation

Créé il y a 24 ans, le Master Technologie et Handicap de Paris 8 Vincennes-Saint-Denis mêle nouvelles technologies et santé pour permettre aux étudiants de mettre en place des solutions facilitant l’intégration des personnes en situation de handicap.  

Anis Rojbi

Enseignant-chercheur dans ce Master depuis 2007, Anis Rojbi s’est d’abord spécialisé en microélectronique avant de se demander ce qu’il pouvait “apporter” aux autres par ses connaissances. Ses travaux durant sa thèse l’ont mené vers le traitement d’images et la reconnaissance de formes, des connaissances très compatibles au développement d’applications à destination des personnes non-voyantes. Il a ainsi orienté ses travaux de recherches pour aider les personnes en situation de handicap. Devenu enseignant-chercheur, il a finalement été nommé directeur de la filière Technologie et Handicap de Paris 8 en 2019.

Techniques de l’ingénieur : Quelles sont les particularités du Master Technologie et Handicap proposé par Paris 8 ?

Anis Rojbi : S’il existe beaucoup de formations liées au handicap ou à l’inclusion en France, notre Master est le seul à proposer une approche qui mêle nouvelles technologies et handicap. Notre formation est centrée sur le besoin utilisateur. Nous sommes donc une équipe pédagogique composée d’informaticiens, d’un ergonome, mais aussi de chargés de cours issus du milieu du handicap, d’experts en accessibilité numérique ou dans la compensation du handicap. Nous nous entourons aussi de beaucoup d’associations comme l’IFRATH, l’Institut national des jeunes sourds, APF France Handicap, Autisme France… Cela nous permet de réaliser des projets et de développer des outils réellement utiles aux utilisateurs. En parallèle, nous modifions notre Master tous les 2-3 ans pour l’adapter aux nouvelles technologies.

Quels profils d’étudiants peuvent accéder à ce Master ?

La spécificité de notre Master est d’accueillir des étudiants aux profils très variés. Certains étudiants viennent du secteur de la santé : psychologues, ergothérapeutes, kinés… tandis que d’autres viennent de licences d’informatique, d’électronique, de robotique. Tous vont suivre les mêmes cours donc cela demande un engagement très fort de nos professeurs pour adapter leurs cours à tous. Mais cette diversité est aussi une grande richesse.

En quoi consiste la formation ?

De part leurs profils variés, certains de nos étudiants ne maîtrisent pas forcément l’électronique ou l’informatique or ce sont des matières importantes pour pouvoir développer des applis par exemple. Nous donnons donc des cours d’informatique consacrés aux apprentissages de base puis aux notions d’interfaces tangibles et nomades : IHM, initiation aux applications mobiles, électronique connectée… Pour ceux qui ont déjà ce bagage technique, l’idée est d’apprendre comment développer quelque chose d’utile, comment développer des interfaces accessibles à tous les handicaps. Des cours sur les handicaps et sur les moyens de compensations sont aussi dispensés, afin de mieux comprendre quelle compensation est nécessaire pour quel handicap, quelles sont les contraintes etc.

En parallèle, nos étudiants travaillent sur différents projets concrets. En 2023, des étudiants ont par exemple créé une application qui permet de trouver les lieux de culture qui sont accessibles en France et ont ainsi gagné le premier prix du concours OpenSource Experience. D’autres étudiants ont développé un jeu vidéo auditif conçu pour les personnes malvoyantes. Tous les ans, nos étudiants travaillent aussi avec des associations afin de rendre leur site web accessible. Ces collaborations nous permettent également de renforcer notre réseau avec les associations. 

Quels sont les débouchés après cette formation ?

Beaucoup de débouchés existent. Les étudiants qui veulent revenir dans le milieu de la santé peuvent exercer leur métier initial mais en tant que spécialistes sur les handicaps et les traitements adaptés. Pour les profils qui souhaitent rester dans l’informatique, ils vont pouvoir devenir experts en accessibilité numérique, en développement de logiciels adaptés, en accessibilité des contenus électroniques. Ils pourront aussi travailler dans les ressources humaines, ou comme chargés de mission dans les collectivités locales ou même créer leur propre entreprise.

Comment la demande de ces métiers a évolué depuis la création du Master ?

La demande a grandi car la loi a changé. Aujourd’hui, il y a l’obligation de rendre les sites web accessibles ; la politique sur le handicap a évolué et est devenue plus sérieuse. Ainsi, la demande est forte pour ces métiers. Nous le constatons avec notre taux d’insertion qui était de 100% à 30 mois en 2021.

Que pensez-vous de l’accessibilité numérique en France ?

Aujourd’hui des lois permettent d’encadrer l’accessibilité, mais elles ne sont pas suffisantes. Il y a deux étapes dans l’accessibilité : l’accessibilité normative et l’accessibilité effective. Certaines entreprises vont respecter les normes d’accessibilité légales mais malheureusement, quand les personnes en situation de handicap se connectent, elles rencontrent des difficultés. Pour qu’un site soit réellement accessible, il faut un test utilisateur. Passer par des associations permet de faire tester son site à des personnes en situation de handicap. Ainsi, les développeurs peuvent réaliser des adaptations pour que l’interface devienne pleinement accessible aux personnes sourdes, aveugles ou en situation de handicap moteur. Dans notre formation, nous enseignons bien que tout développement doit être orienté vers l’utilisateur, et qu’il ne doit pas apparaître à la fin. Les personnes en situation de handicap ne devraient pas avoir de problèmes pour consulter des sites web. L’information doit être égale à tous.

Comment faire pour que les sites web soient pleinement accessibles à tous ?

A chaque fois qu’on propose un contenu, il faut penser à une alternative. Par exemple, si on crée un document avec une image, il faut faire en sorte d’avoir une alternative texte pour décrire l’image. Il s’agit ainsi de toujours prendre en compte les différents types de handicap. La question peut se poser en cas de personnes polyhandicapées mais il existe aujourd’hui de nombreux outils d’assistance qui permettent de résoudre les problèmes, même pour les handicaps sévères.

Quelle est la plus value pour notre société à avoir de jeunes professionnels formés à l’inclusivité ?

Proposer des outils inclusifs est très important. Il faut garder en tête que le handicap touche tout le monde. Rien qu’avec le vieillissement de la population, les personnes entendent moins bien, voient moins bien donc il est capital de développer des outils numériques accessibles à tous. Par ailleurs, la plupart du temps, créer des outils inclusifs ne demande pas beaucoup plus d’investissement, il faut juste savoir comment le faire. C’est là que nos étudiants vont être utiles. Il y a beaucoup de gâchis à développer des outils qui ne vont servir qu’à quelques personnes alors que si on les ouvre pleinement à tous, c’est un vrai avantage économique. 

Propos recueillis par Alexandra Vépierre


Photo de Une : Photo des élèves du Master pour 2024-2025 / Crédit photo : Arnaud & Corinne, Studio Arnography

Les Rendez-vous Carnot 2024, retrouvez Techniques de l’Ingénieur !

Les rendez-vous incontournables de la recherche et développement pour les entreprises. Ce salon unique en Europe offre aux entreprises de toutes tailles, l’opportunité d’accélérer et de concrétiser leurs projets d’innovation en rencontrant des acteurs majeurs de la R&D et du soutien financier à l’innovation. 

Organisé par le réseau des Carnot, qui fédère 39 structures de recherche publique labellisées, l’événement permet aux entreprises de bénéficier d’un accès privilégié à une grande offre R&D couvrant de nombreuses thématiques. 

Que vous soyez une start-up, un grand groupe, un représentant de l’open innovation ou un financeur, ce salon est l’endroit idéal pour faire la rencontre des bons interlocuteurs et monter ensemble des projets d’innovation

Deux particularités marquent cette édition : l’événement se tiendra à Massy et proposera des tables rondes. 

Le programme des tables rondes vise à répondre aux grands défis des secteurs économiques (produits biosourcés, décarbonation des mobilités, Industrie du futur, performance sportive, intelligence artificielle embarquée) en présentant des réponses R&D.

L’année dernière, ce sont plus de 2 000 participants qui ont bénéficié de 8 000 rendez-vous d’affaires, principalement programmés à l’avance et 93,8% des entreprises participantes ont identifié de nouveaux partenaires R&D, d’après l’enquête de satisfaction de 2023. 

L’édition 2024 sera clôturée par la présidente de la région Île-de-France, Valérie Pécresse, et s’annonce comme un moment privilégié dans un cadre convivial. 

Plus d’informations sur le site officiel

Inscrivez-vous ici.

Rapport Draghi : trois leviers d’action pour relancer la croissance européenne

Un document très attendu, qui fait suite à celui d’Enrico Letta sur l’avenir du marché unique. Mario Draghi a remis son rapport sur l’avenir de la compétitivité de l’UE à la Commission européenne. L’ancien directeur de la BCE (Banque centrale européenne) dresse un constat alarmant du décrochage économique de l’UE, principalement en raison du ralentissement de la productivité en Europe. Un chiffre illustre à lui seul la situation : sur les deux dernières décennies, le PIB (Produit intérieur brut) a reculé de plus de 15 % par rapport à celui des États-Unis. L’UE dispose tout de même de plusieurs atouts pour inverser la tendance. Trois principaux domaines d’action sont identifiés pour transformer ces points forts en une industrie européenne productive et compétitive sur la scène mondiale.

Premier axe, et c’est le plus important : l’Europe doit combler l’écart d’innovation avec les États-Unis et la Chine, en particulier dans les technologies avancées. Car pour l’instant, les entreprises restent principalement spécialisées dans des technologies matures, notamment automobiles, où le potentiel de percée est limité. Même si elles ont raté le virage de la révolution numérique menée par Internet, une nouvelle fenêtre d’opportunité s’ouvre à présent grâce à l’IA (Intelligence artificielle). Elle pourrait permettre à l’UE de corriger ses lacunes en matière d’innovation et de productivité, et de restaurer son potentiel manufacturier.

Pour y parvenir, le rapport recommande de créer une Union de la recherche et de l’innovation pour mener une stratégie et une politique communes dans ce domaine entre les États membres. En parallèle, il est essentiel de consolider les institutions universitaires européennes à la pointe de la recherche mondiale. Des mesures doivent aussi être prises pour soutenir la difficile transition entre l’invention et la commercialisation, notamment en levant les obstacles bureaucratiques dans la gestion des droits de propriété intellectuelle.

Le deuxième levier sur lequel agir concerne la mise en œuvre d’un plan d’action commun pour la décarbonation et la compétitivité de l’économie. Certes, l’Europe a des objectifs climatiques ambitieux, mais ceux-ci doivent s’accompagner d’un plan cohérent pour que la décarbonation soit une véritable opportunité pour l’UE, sinon elle risque d’aller à l’encontre de sa compétitivité et de sa croissance. Le rapport prône par exemple la création d’une véritable Union de l’énergie afin que les décisions et les fonctions de ce marché transfrontalier soient prises de manière centralisée.

Un plan d’action industriel pour le secteur automobile

L’Europe devrait également recentrer son soutien à la fabrication de technologies propres, en se concentrant sur celles pour lesquelles elle dispose d’un avantage et d’un fort potentiel de croissance, notamment dans le domaine des batteries. Même si l’UE est un leader mondial dans plusieurs technologies propres telles que les éoliennes, les électrolyseurs et les carburants à faible teneur en carbone, Mario Draghi pointe du doigt qu’il n’est pas certain qu’elle conserve cette longueur d’avance face à la concurrence chinoise. À court terme, il préconise de mener un plan d’action industriel pour le secteur automobile dans le but d’éviter une délocalisation radicale de la production hors du territoire européen.

La sécurisation et la réduction des dépendances face aux ressources critiques est le troisième domaine d’action à mettre en œuvre. Elles sont une condition préalable à une croissance durable, face à la montée des risques géopolitiques qui peuvent soudainement interrompre les échanges commerciaux. Pour limiter ses vulnérabilités, l’UE doit développer une véritable politique économique étrangère et à court terme mettre en œuvre rapidement la loi sur les matières premières critiques (CRMA pour Critical Raw Materials Act, CRMA). Le rapport recommande de compléter cette loi par une stratégie globale couvrant toutes les étapes de la chaîne d’approvisionnement en minéraux critiques, de l’extraction au recyclage en passant par la transformation.

L’UE doit également exploiter son potentiel de ressources nationales par l’exploitation minière, le recyclage et l’innovation dans les matériaux alternatifs. Contrairement aux combustibles fossiles, elle dispose de gisements de certaines matières premières critiques, comme le lithium au Portugal. Les dépendances stratégiques s’étendent également aux technologies critiques et notamment au secteur des semi-conducteurs. Si la construction de grandes fonderies paraît irréaliste en raison des niveaux d’investissement requis, l’Europe devrait maximiser ses efforts conjoints pour renforcer l’innovation et sa présence dans les segments des puces les plus avancés.

Pour atteindre tous les objectifs de ce rapport et ses 170 propositions, un investissement supplémentaire annuel minimum de près de 800 milliards d’euros est nécessaire, soit entre 4,4 et 4,7 % du PIB de l’UE. Pour le financer, Mario Draghi prône la création d’une Union des capitaux, afin que l’épargne privée puisse être canalisée dans toute l’Europe.

CELONIS et EMPORIX associent orchestration des processus et process mining pour transformer les entreprises en profondeur

Nous avons demandé à Arnaud LARTIGUE, directeur du Value Engineering chez CELONIS de nous en dire plus au sujet du process mining et du moteur d’orchestration EMPORIX.

Arnaud-Lartigue-Celonis
Arnaud LARTIGUE, Value Engineering Director chez CELONIS (Crédit : CELONIS)

 CELONIS est le leader mondial du Process Mining et du Process Intelligence. Grâce à sa plateforme d’intelligence des process basée sur l’IA, CELONIS permet aux entreprises de créer un jumeau numérique en temps réel de l’ensemble de leurs processus.

EMPORIX est le leader du commerce d’entreprise composable. Sa plateforme d’orchestration consciente du contexte des processus permet aux entreprises d’établir des opérations agiles et pilotées par les données.

Techniques de l’ingénieur : Comment avez-vous connu le process mining et rejoint CELONIS ?

Arnaud LARTIGUE : J’ai commencé dans l’analyse de process il y a 25 ans. À l’époque j’étais dans le conseil et je faisais de l’analyse de process papier. Mais un jour, j’ai découvert le process mining lors de mes travaux de veille technologique et je suis tombé amoureux du concept. Si la solution avait existé lorsque j’ai débuté, ma carrière aurait été bien différente !

Avant de rejoindre CELONIS il y a trois ans, j’en ai d’abord été client, puis partenaire. Comme je connaissais bien le produit, CELONIS m’a alors embauché lorsque la filiale française a commencé à se développer.

Je suis dorénavant directeur du Value Engineering. Dans notre domaine, les ingénieurs de la valeur sont les personnes qui construisent la promesse en avant-vente et qui la délivrent.

Comment CELONIS exploite-t-elle l’IA pour le process mining ?

Je ne suis pas un spécialiste de l’IA, mais j’ai participé au montage du laboratoire commun entre Atos et Google en 2019. Les technologies basées sur l’IA sont désormais matures depuis au moins cinq ans et des solutions existent sur étagère. Les IA génératives ne sont donc que la partie émergée de l’iceberg. Je constate que les entreprises se sont emparées du sujet, notamment pour réinventer les chatbots qui ne sont plus basés sur des arbres de décision et arrivent enfin à proposer des réponses pertinentes.

Chez CELONIS, nous n’avons pas attendu pour intégrer l’IA, mais comme tous, nous avons redonné un coup d’accélérateur en sortant notre propre copilote, capable de répondre à n’importe quelle question de nos utilisateurs sur leurs processus. Celui-ci est actuellement en train d’être testé par une vingtaine de clients dans le monde.

L’outil est performant, car à la différence des IA génératives grand public, il a accès aux informations transactionnelles des processus internes de l’entreprise, donc à une véritable mine d’or.

La vraie force de l’outil c’est qu’il est capable de « lire les processus », d’en tirer les indicateurs et de les rendre compréhensibles à n’importe quel utilisateur, de l’opérateur au PDG.

Mais pour être opérationnel chez le client, le copilote doit d’abord être affiné. Ce qui est impressionnant, c’est que cela prend à peine une dizaine de jours !

Concrètement, quels sont les cas d’usage ?

Il y en a énormément ! Prenons l’exemple de la comptabilité fournisseur. L’utilisateur peut poser une question simple : quels sont mes délais de paiement avec tel fournisseur ? Plutôt que d’aller chercher la réponse dans l’ERP¹, ce qui peut être long, la réponse est obtenue immédiatement.

Voici un autre exemple, qui impacte directement les opérateurs de terrain. Nous travaillons avec deux acteurs des télécoms en France au sujet de l’installation de la fibre, une tâche qui implique une multitude d’opérations de terrain répétitives. Il faut savoir que chaque changement de box nécessite une intervention humaine. Or, une fois sur deux, il y a un problème : local pas accessible sans nacelle, clé de la porte perdue, etc., et il faut repasser.

Nous aidons les opérateurs à identifier en amont les problèmes afin d’anticiper le passage du technicien, car chaque passage coûte extrêmement cher en temps passé et en équipement mobilisé. Du point de vue financier, les bénéfices sont immédiats. Ces opérations étant sous-traitées à des entreprises payées à l’acte, chaque acte évité est une économie. Enfin, c’est aussi la garantie d’une meilleure satisfaction client, ce qui est d’ailleurs le plus important.

Concrètement, nous permettons aux opérateurs d’identifier tous les cas de figure possibles, en prenant en compte les multiples informations déjà récoltées lors d’événements passés : type de bâtiment, profil du client, zone géographique, etc. Toutes ces informations permettent ainsi à l’IA de faire des prévisions, ce qui est finalement le but de toute bonne IA : anticiper les problèmes avant qu’ils arrivent.

Pouvez-vous nous parler de votre solution d’orchestration des processus développée avec EMPORIX ?

Il y a de nombreux domaines où l’automatisation des processus qui sont lus en parallèle a besoin d’être orchestrée, à l’aide de moteurs d’orchestration. Or, celui d’EMPORIX est spécifiquement conçu pour traiter les gros volumes de transactions.

Prenons l’exemple du e-commerce : que se passe-t-il lorsqu’on commande sur une grosse plateforme en ligne et qu’un produit n’est plus en stock ? Un robot informe l’entrepôt que le produit manque, prévient le client, donne une autre date de livraison et effectue une multitude d’actions en parallèle, en temps réel. La gestion de ces processus est alors confiée à des plateformes d’orchestration.

Il se trouve que ce concept qui vient du e-commerce s’applique également au commerce traditionnel, mais aussi à l’industrie, notamment à la supply chain. Et on sait combien les industriels rencontrent actuellement des problèmes liés à leur chaîne d’approvisionnement. Or, en lisant ces processus, nous sommes capables de trouver l’origine des problèmes et définir les bons modèles d’orchestration.

Une gestion plus intelligente des processus devient alors essentielle. En exploitant la puissance de la plateforme d’intelligence des processus de CELONIS, le moteur d’orchestration d’EMPORIX permet alors aux entreprises de repenser la manière dont les process fonctionnent. L’orchestration devient vraiment intelligente, notamment grâce à l’IA, qui est l’un des outils permettant réellement d’approcher l’excellence opérationnelle, d’améliorer l’expérience client et de faire en sorte que les entreprises puissent fonctionner même lorsque la supply chain est perturbée.


¹ Enterprise resource planning, ou Progiciel de gestion intégré

Si vous souhaitez découvrir les dernières innovations dans ce domaine ainsi que d’autres cas client, vous pouvez également rencontrer CELONIS à Munich, lors de la Celosphere 2024.

Et pour en savoir plus au sujet du process mining, nous vous invitons aussi à revoir la vidéo de notre webinaire du 24 avril 2024 dans lequel Arnaud Lartigue a présenté un aperçu général du process mining.

Investissements en faveur du climat : un défi pour le financement public

Pour rappel, la France a pour objectif d’atteindre, d’ici 2030, une réduction de 55 % de ses émissions de CO2 par rapport à 1990. Pour y arriver, elle devra accentuer son niveau d’investissement, jusqu’à 206 milliards d’euros annuels en 2030, contre 94 milliards en 2022.

Néanmoins, pour les pouvoirs publics, le financement des investissements climat devient de plus en plus difficile à assumer. Car, si la majorité des investissements est réalisée par les ménages et les entreprises, les pouvoirs publics financent tout de même un tiers des investissements climat.

L’étude de l’I4CE met ainsi en avant que « face au déficit d’investissement climat et sans action de maîtrise des dépenses, les besoins de dépenses publiques supplémentaires atteindraient 71 milliards d’euros en 2030. »

L’I4CE propose cependant des solutions pour ramener ce chiffre à 39 milliards d’euros, en reportant une part importante des efforts sur les ménages et les entreprises.

Comment mobiliser les investissements privés ?

Malheureusement, la mobilisation d’investissements privés en faveur du climat n’est pas quelque chose qui se décrète. Et sur ce point, le rapport de l’I4CE est très clair : si les investissements privés demeurent insuffisants pour atteindre les objectifs, il est bien de la responsabilité des pouvoirs publics de prendre en charge le déficit d’investissement. L’État n’a donc pas d’autre choix que de mettre en place des mesures adaptées pour réduire la note, et il faut dire que le problème est particulièrement complexe.

L’étude donne ainsi des pistes de financement, secteur par secteur. Sans entrer dans les détails, on notera :

  • un recentrage des aides sur les plus modestes ;
  • une élimination des avantages fiscaux en faveur des énergies fossiles ;
  • une augmentation des obligations d’économies d’énergie dans le cadre des CEE[1] ;
  • une hausse des tarifs des services rendus aux usagers ;
  • un renforcement de la réglementation.

Un défi pour la France, mais aussi pour toute l’Europe !

Mais la France n’est pas le seul pays à souffrir d’un déficit d’investissement climatique. En mars dernier l’I4CE pointait déjà du doigt ce problème à l’échelle de l’UE, à l’occasion des 5 ans du Pacte vert (Green Deal). Selon l’I4CE, il manquerait actuellement plus de 400 milliards par an pour atteindre l’objectif de réduction de 55 % des émissions nettes de GES, soit la moitié des 800 milliards annuels nécessaires !

Ce doublement annoncé va ainsi demander une intensification des efforts de la part des États membres de l’UE et pas seulement en matière d’investissements publics (bâtiment, transport, réseaux, etc.). En effet, d’après l’I4CE, les banques européennes auront un rôle central à jouer, en se penchant réellement sur le financement des mesures de transition de leurs clients, notamment industriels. Pour ce faire, les États devront donc mettre en œuvre les réglementations nécessaires afin d’inciter le secteur financier à aller dans ce sens.

Les leviers fiscaux et financiers : le nerf de la guerre

D’une manière plus générale, la question du financement climatique fait aussi écho au financement, à l’échelle mondiale, des actions en faveur de l’économie circulaire, un sujet que nous avions d’ailleurs abordé l’an dernier.

Pour rappel, dans son rapport State of Finance for Nature de 2022, l’ONU estimait qu’il faudrait, d’ici 2030, tripler le montant des investissements à l’échelle mondiale en faveur de la transition verte, si nous voulons limiter l’impact du changement climatique à +1,5°C.


[1] Certificats d’économies d’énergie

Les nouvelles technologies seront plus autonomes et respectueuses de la vie privée

Intelligence artificielle, machine learning fédéré, informatique quantique… De nouvelles technologies sont lancées régulièrement et font la Une des médias. La publicité précoce autour de ces percées technologiques – souvent présentées comme « révolutionnaires » – produit un certain nombre d’histoires de réussite. Mais l’intérêt s’essouffle dès que des expériences et des mises en œuvre échouent. Les principales causes sont des problèmes de performance et un faible retour sur investissement.

Après ce creux des désillusions, de plus en plus d’exemples montrent comment des entreprises peuvent tirer profit d’une nouvelle technologie qui est mieux comprise. Enfin, un « plateau de productivité » témoigne de l’adoption progressive par le grand public.

Cette suite d’étapes constitue les cinq phases clés du cycle de vie d’une technologie, les fameux « Hype Cycles » du cabinet Gartner.

Publié récemment, son « Hype Cycle for Emerging Technologies » présente un ensemble de technologies émergentes « à connaître absolument ». « Ces technologies sont susceptibles d’apporter des avantages transformationnels au cours des deux à dix prochaines années », expliquent les analystes de ce cabinet américain.

Les technologies émergentes se répartissent en quatre thèmes.

  • L’intelligence artificielle autonome : l’évolution rapide de l’IA produit des systèmes capables de fonctionner avec un minimum de supervision, de s’améliorer et de prendre des décisions efficaces dans des environnements complexes.
  • La productivité des développeurs : la technologie augmente la productivité des développeurs, ce qui leur permet de fournir plus rapidement des produits de meilleure qualité.
  • L’expérience globale : l’imbrication de l’expérience client, de l’expérience employé et de l’expérience utilisateur permet de fidéliser les clients et les employés.
  • La sécurité et la protection de la vie privée : les organisations deviendront plus résilientes en utilisant des techniques de sécurité et de protection de la vie privée qui créent une culture de confiance mutuelle et de sensibilisation.

Où en sont les technologies les plus prometteuses comme l’IA – et en particulier l’IA générative que tout le monde ou presque a découverte après le lancement de ChatGPT en novembre 2023 ?

L’IA autonome

Selon Gartner, l’IA générative (ou GenAI en anglais) a « dépassé le pic des attentes exagérées », car les entreprises continuent de passer de l’enthousiasme pour les modèles de base à des cas d’utilisation qui génèrent un retour sur investissement. Cela accélère l’IA autonome.

Alors que la génération actuelle de modèles d’IA manque d’autonomie, les laboratoires de recherche en IA mettent rapidement sur le marché des agents capables d’interagir dynamiquement avec leur environnement pour atteindre leurs objectifs, bien que ce développement soit un processus progressif.

Selon Gartner, les technologies multi-agents pourraient arriver à maturité d’ici 5 à 10 ans. D’autres systèmes d’IA autonomes, tels que les robots humanoïdes en milieu professionnel, pourraient se généraliser, mais dans un avenir plus éloigné.

Gartner cite notamment le cas de l’intelligence artificielle quantique qui est encore un domaine de recherche embryonnaire. Cette technologie vise à exploiter les propriétés uniques de la mécanique quantique pour développer de nouveaux algorithmes d’IA plus puissants qui offrent des performances supérieures aux performances classiques.

À propos de la confidentialité des données, Gartner note que les entreprises deviendront plus résilientes en utilisant des techniques de sécurité et de protection de la vie privée qui créent une culture de confiance mutuelle et de prise de conscience des risques partagés entre les équipes.

Les technologies émergentes censées améliorer la sécurité et la protection des données personnelles comprennent notamment :

  • l’AI TriSM (« Artificial Intelligence Trust, Risk, and Security Management » ou « gestion de la confiance, du risque et de la sécurité de l’intelligence artificielle » ;
  • le machine learning fédéré permettant d’entraîner un algorithme centralisé de manière distribuée, sans que les utilisateurs aient à dévoiler leurs données ;
  • Le chiffrement homomorphique : proche du sommet du « Hype Cycle », cette technique de cryptographie permettant de réaliser des opérations sur des données chiffrées sans que celles-ci aient à être déchiffrées.

L’impression 3D pour aller vers une maçonnerie du verre

Dans le monde en 2018, 39 % des émissions de gaz à effet de serre en équivalent carbone provenaient de l’industrie de la construction. C’est pourquoi la recherche dans ce domaine se tourne désormais vers des éléments de construction circulaires. Le verre a été identifié comme un bon matériau candidat de par sa bonne récupération et recyclabilité, ainsi que par sa résistance élevée à la contrainte. Pour en tirer des éléments de maçonnerie, la fabrication additive semble plus prometteuse que la traditionnelle coulée du verre. Cette technique de fabrication avancée promet une meilleure flexibilité de conception et une réduction des coûts en outillage pour la production de formes géométriques très variables. Cet ensemble de points a donné l’idée à des ingénieurs du MIT (Massachusetts Institute of Technology) à Cambridge (États-Unis) d’évaluer l’utilisation de la fabrication additive du verre en vue d’obtenir des éléments emboîtables à la manière de LEGO…

Des briques de verre entièrement imprimées en 3D

L’équipe du MIT était menée dans ce travail par l’ingénieur Daniel Massimino, premier auteur de l’étude parue le 16 septembre 2024 dans le journal Glass Structures & Engineering. Avec ses collègues, Daniel Massimino a pu compter sur une machinerie high-tech pour tester leur idée. Les ingénieurs ont ainsi eu accès à un modèle de G3DP3 (Glass 3D Printer 3), la troisième version d’imprimeur de verre fondu d’Evenline Inc. Le G3DP3 fonctionne en association avec un four qui lui fournit sa matière première à partir de bris de bouteilles de verre, et qu’il imprime ensuite avec des volumes maximaux de 32,5*32,5*38 cm. Pour pouvoir assembler et désassembler leurs blocs de verre aussi aisément que des LEGO, les ingénieurs ont cherché à réaliser des briques emboîtables (évitant par là même l’usage d’adhésif) qui ont finalement pris la forme de 8. Ne leur restait plus alors qu’à vérifier la simplicité et la performance structurelle de leur fabrication. Pour cela, ils ont testé trois méthodes d’impression de briques différentes : Fully Hollow (entièrement creuse), Print-Cast (imprimée par moulage) et Fully Printed (entièrement imprimée).

verre, construction, 3D
Chaque méthode de fabrication est montrée ici de gauche à droite : FH (Fully Hollow), PC (Print-Cast) et FP (Fully Printed). Crédits : Ethan Townsend/Massachusetts Institute of Technology.

Les comparaisons de précision, de répétabilité et de capacité structurelle entre chaque élément de maçonnerie ont été conduites à l’aide d’analyses géométriques, de résistance de surface et de tests mécaniques (dans une presse hydraulique). Les résultats finaux variaient selon les méthodes de fabrication, mais la résistance moyenne allait de 3,64-42,3 MPa pour la fracture initiale à 64,0-118 MPa pour la fracture terminale. Des valeurs comparables à celles des actuelles briques en béton. Au cas par cas, le Print-Cast a montré une résistance médiocre, un temps de production excessivement long et une précision géométrique insuffisante. Tout l’inverse du Fully Hollow, avec la meilleure résistance à la charge, le temps de production le plus court et le processus de fabrication le plus précis et répétable. Selon les ingénieurs du MIT, le Fully Hollow serait même applicable à l’industrie de la construction dès aujourd’hui ! Mais le plus prometteur de tous reste le Fully Printed. En dépit de sa faible résistance à la première fracture, il a excellé en temps de production ainsi qu’en précision. À l’avenir, il aurait le potentiel pour servir à la construction de bâtiments uniquement en verre transparent pouvant être désassemblé et réutilisé à l’infini.

Mégafeux : des émissions record de CO2 enregistrées en 2023-2024

Nul doute que la publication de ce rapport chaque année va se révéler précieuse pour suivre l’évolution de ce phénomène qui ne cesse de s’amplifier. L’université d’East Anglia, en collaboration avec d’autres institutions basées en Grande-Bretagne, vient de publier dans la revue Earth System Science Data, sa première analyse complète des feux de forêts extrêmes qui se sont produits partout dans le monde. Cette étude, qui porte sur la saison 2023-2024 et a vocation à être mise à jour tous les ans, fournit des informations cruciales sur ces incendies, leurs causes, leur prévisibilité ainsi que le rôle des facteurs anthropiques dans leur apparition.

Le bilan est lourd puisque entre mars 2023 et février 2024, 3,9 millions de km² de forêts ont été brûlés sur la planète. Certes, cette surface a légèrement diminué comparé à la moyenne des années précédentes, mais les émissions de carbone liées à ces incendies ont quant à elles été supérieures de 16 %, totalisant 8,6 milliards de tonnes de CO2. Cet écart s’explique en grande partie par les émissions record des forêts boréales canadiennes qui ont contribué à près d’un quart des émissions mondiales, ainsi que par une saison des incendies relativement calme dans les savanes africaines. Au total, ces rejets de CO2 dans l’atmosphère représentent l’équivalent d’environ 15 % des émissions de gaz à effet de serre des humains dans le monde.

L’an dernier, le Canada a enregistré des feux de forêt les plus importants jamais enregistrés dans son histoire avec 150 000 km² ravagés par les flammes, entraînant l’évacuation de plus de 232 000 personnes. Un nombre inhabituellement élevé d’incendies a également été observé dans le nord de l’Amérique du Sud, en particulier dans l’État d’Amazonas au Brésil et dans les régions voisines de Bolivie, du Pérou et du Venezuela. La perte de carbone dans ces forêts a des conséquences durables sur le climat, car elles mettent des décennies, voire des siècles, à se remettre de ces incendies. Les mégafeux qu’a connu la planète sur la saison 2023-2024 vont donc entraîner un déficit durable de stockage du carbone pendant de nombreuses années à venir.

Des populations exposées à des niveaux élevés de particules fines

En plus des émissions de CO2, l’étude mentionne aussi la présence de niveaux de PM2,5 (particules d’un diamètre inférieur à 2,5 microns) supérieurs aux limites recommandées lors des pics d’incendies en Amérique du Nord, dans de nombreuses régions du Canada et des États-Unis. Selon le rapport, les personnes vivant dans plus de la moitié des États américains ont été exposées pendant deux semaines à des PM2,5 égales ou supérieures au seuil réglementaire de 35 µg/m³. Les plus grandes répercussions sur la qualité de l’air ont été observées à proximité des incendies, en particulier dans l’ouest et le nord-ouest du Canada et au Québec, dans l’est du pays.

Pour le Dr Chantelle Burton, climatologue et l’une des autrices de la publication : « Il est pratiquement certain que les incendies étaient plus importants lors des feux de forêt de 2023 au Canada et en Amazonie en raison du changement climatique. » Les experts de cette étude ont calculé qu’au Canada, l’influence humaine a multiplié par trois la probabilité de connaître des conditions météorologiques propices aux incendies et a provoqué des incendies qui ont brûlé jusqu’à 40 % de terres en plus. Pire encore, dans l’ouest de l’Amazonie, cette probabilité a été multipliée par plus de 20 et jusqu’à 50 % de terres en plus ont été ravagées par les flammes.

Le rapport contient aussi des projections pour prédire quelle pourrait être l’importance des feux de forêt dans les prochaines décennies. Résultat, seul le respect d’un scénario à faibles émissions devrait permettre de limiter la probabilité d’incendies extrêmes dans le futur. Par contre, si un scénario d’émissions de gaz à effet de serre moyens à élevés se produit, les incendies de forêt d’une ampleur similaire à ceux de la saison 2023-2024 deviendront six fois plus fréquents au Canada et presque trois fois plus fréquents en Amazonie occidentale d’ici à 2100. Le Dr Douglas Kelley, l’un des auteurs de cette publication, résume la situation ainsi : « Tant que les émissions de gaz à effet de serre continueront d’augmenter, le risque d’incendies de forêt extrêmes augmentera ».

La revue du Magazine d’Actualité #4 : du 23 au 27 septembre

De la découverte en laboratoire à l’innovation industrielle… On scrute pour vous chaque semaine les tendances de l’industrie.

Quand le sport carbure aux énergies fossiles : le sponsoring en pleine polémique

Le sponsoring des événements sportifs par les grandes entreprises d’énergies fossiles s’élève à 5,6 milliards de dollars, d’après l’étude du New Weather Institute. Les géants comme Aramco, Ineos, Shell et TotalEnergies dominent ce marché, normalisant leurs activités auprès de milliards de fans. Pourtant, ces partenariats vont à l’encontre du développement durable, les énergies fossiles menaçant l’avenir du sport. Le rapport appelle à stopper ce sponsoring et à renforcer la transparence des émissions.
Lisez l’article complet pour en savoir plus sur ces enjeux.

Mégabassines : solution ou impasse pour l’agriculture face au climat ?

Les mégabassines, retenues d’eau agricoles, sont au cœur d’un débat houleux en France. Les promoteurs les considèrent comme une solution pour aider les agriculteurs à faire face à la sécheresse, tandis que les opposants craignent une pression accrue sur les ressources en eau et les nappes phréatiques. Des études divergent sur leur impact environnemental, et des pertes d’eau par évaporation sont estimées entre 20 et 60 %. La question reste complexe, comme le montrent les exemples en Espagne.
Lisez l’article complet pour approfondir ce sujet.

Microplastiques industriels : un projet collaboratif pour tracer les sources de pollution

IPC, RECORD et AM VALOR appellent les industriels à participer à une collecte d’informations pour mieux identifier l’origine des rejets de microplastiques. La loi AGEC en France impose des mesures pour limiter ces rejets, en particulier concernant les granulés plastiques. L’UE vise à réduire de 30 % la pollution par microplastiques d’ici 2030. Une étude méthodologique est lancée pour évaluer ces émissions, et la participation des entreprises est essentielle.
Découvrez en détail les enjeux et comment contribuer à cette initiative.

Hydroélectricité : une puissance freinée, des projets en suspens

La filière hydroélectrique française progresse lentement, avec des projets tels que Rhônergia abandonnés pour des raisons environnementales. L’augmentation du parc reste un défi, malgré un potentiel identifié d’environ 3 GW supplémentaires d’ici 2030. Les efforts se concentrent sur l’amélioration des sites existants et des projets STEP. Toutefois, le contentieux sur les concessions freine les investissements nécessaires.
Lisez l’article pour comprendre les enjeux de l’avenir de l’hydroélectricité en France.

Les ingénieurs pour une réindustrialisation éthique et durable en France

En terme d’emploi, les ingénieurs se tournent en priorité vers des entreprises concernées par leur impact environnemental et soucieuses de leur responsabilité sociétale. Cette tendance grandissante doit s’harmoniser avec la volonté de réindustrialisation de la France.
Consultez notre dossier complet.

Décarboner l’UE nécessiterait 2,2% des terres, selon une étude

La question revient souvent : y a-t-il assez de terres disponibles pour décarboner l’Europe avec des panneaux solaires et des éoliennes ? Une nouvelle étude du Bureau européen de l’environnement l’affirme : « seule la moitié des terres jugées propices à l’énergie renouvelable, en excluant les réserves naturelles et les zones agricoles de grande valeur, sont nécessaires pour décarboner l’UE d’ici à 2040 ».

Dans l’Union européenne, les terres agricoles représentent 47,9 % des terres totales, les aires protégées 18,6 % et les zones urbanisées 5,5 %. En prenant en compte les contraintes agricoles, environnementales et de protection de la biodiversité, ainsi que des facteurs techniques, le rapport estime que les terres propices au développement des énergies renouvelables représentent 5,2 % des terres totales de l’Union européenne.

Vers une Europe 100% renouvelable ?

L’étude lancée par cette fédération de 180 organisations environnementales européennes estime qu’il faudrait mobiliser seulement 2,2 % des terres totales de l’UE pour les projets solaires et éoliens – actuels et futurs. Cela permettrait d’éliminer progressivement les combustibles fossiles, mais aussi l’énergie nucléaire, en Europe.

Ces projections se basent sur l’atteinte des objectifs du scénario pour les infrastructures énergétiques (PAC) compatible avec l’Accord de Paris. Ce scénario, élaboré par un large consortium de réseaux d’ONG, dont le Bureau européen de l’environnement, vise à limiter le réchauffement climatique à 1,5°C d’ici la fin du siècle. Pour cela, il projette un triplement de la génération d’électricité, l’électrification des procédés industriels, du chauffage et des transports. 50 % de l’énergie serait obtenue par des sources renouvelables en 2030, puis 100 % en 2040. Ce scénario repose sur une baisse de la demande énergétique d’environ 50%, un rôle limité pour les gaz et carburants non fossiles, basés uniquement sur l’hydrogène renouvelable et l’atteinte de la neutralité carbone d’ici 2040.

Des énergies renouvelables, majoritairement à la campagne

Un premier enseignement important est que les villes et leurs toits ne peuvent accueillir que peu d’énergies renouvelables. Les villes, villages et zones industrielles ne représentent que 19 % des terres propices aux énergies renouvelables, estime l’étude. La majorité des terrains appropriés pour un déploiement durable d’énergie renouvelable se trouvent ainsi dans les zones rurales, avec 78 % pour l’énergie solaire au sol et 83 % pour l’énergie éolienne terrestre.

Au-delà des terres dégradées, le rapport invite à faire coexister les énergies renouvelables avec l’agriculture et la protection de la nature. « Les énergies renouvelables peuvent prospérer sans nuire aux réserves alimentaires ni aux habitats naturels, résume Cosimo Tansini, chargé de mission énergies renouvelables au Bureau européen de l’environnement, via communiqué. Les données montrent que l’Europe dispose de suffisamment de terres pour une expansion durable des énergies renouvelables, et ce en excluant les zones riches en biodiversité et les terres agricoles productives, en particulier dans les régions rurales. »

Tous les pays n’ont pas le même potentiel. Par exemple, l’Allemagne et l’Italie ne disposent pas de terres suffisamment adaptées aux énergies renouvelables si l’on exclut les réserves naturelles et les zones agricoles productives. Au contraire, l’Espagne et la Roumanie en présentent en abondance, bien au-delà de leurs besoins énergétiques. En ce sens, l’ONG souligne l’importance de la solidarité et des interconnexions énergétiques. Elle défend l’idée d’un « super-réseau » européen pour connecter les ressources, équilibrer la distribution de l’énergie et parvenir à une décarbonation à l’échelle de l’UE.

Mégabassines : une solution controversée pour la gestion de l’eau en agriculture

Parmi les sujets qui font la une de l’actualité ces derniers mois, difficile d’échapper aux mégabassines, ces ouvrages agricoles à l’origine de violentes manifestations en France. Même s’il n’existe aucun décompte officiel, le nombre de ces réservoirs d’eau ne cesse de se multiplier en France. Apparus dans les années 1990, entre 1 000 et 2 000 seraient déjà construits ou en projet, selon un décompte de Christian Amblard, directeur honoraire de recherche au CNRS et spécialiste des écosystèmes aquatiques. Alors qu’ils sont principalement implantés en Nouvelle-Aquitaine et dans les Pays de la Loire, les promoteurs et les opposants de ces réserves de substitution -leur nom officiel- affûtent leurs arguments pour les défendre ou au contraire les contester.

Pour les premiers, ces installations sont une solution pour aider les agriculteurs à s’adapter aux nouvelles réalités climatiques, caractérisées notamment par des sécheresses plus longues et sévères. Contrairement aux retenues classiques dont le remplissage est réalisé en captant l’écoulement naturel de l’eau, ici elle est directement pompée dans les nappes phréatiques ou plus rarement dans des rivières. Cette eau est ensuite stockée dans ces retenues qui ont la particularité d’être imperméabilisées et plastifiées.

Les partisans de ces ouvrages affirment que l’eau est puisée dans des nappes en surface en hiver, lorsqu’elle s’y trouve en excès, et non pas dans des nappes profondes. Ces réservoirs permettent ainsi de remplacer les prélèvements directs dans le milieu en été, et donc de réduire la pression sur les nappes phréatiques lorsque celles-ci sont en tension. Ils s’appuient pour cela sur une étude du BRGM réalisée à la demande d’une Coopérative de l’eau des Deux-Sèvres, qui a pour projet de construire seize retenues dans le Marais poitevin. L’étude conclut à un impact négligeable sur les nappes phréatiques et les cours d’eau des prélèvements hivernaux réalisés pour remplir ces réservoirs.

Pour les agriculteurs, ces installations leur apportent une sécurité, puisqu’elles leur assurent un approvisionnement en eau constant pour l’irrigation en été, même en pleine période de sécheresse, et limitent le stress hydrique des cultures agricoles. En garantissant un accès à l’eau durant les périodes critiques, les mégabassines peuvent améliorer les rendements agricoles, ce qui est crucial pour la productivité et la rentabilité des exploitations agricoles.

Des pertes d’eau par évaporation estimées entre 20 et 60 %

Pour les opposants, ces mégabassines ne font qu’accentuer la pression sur les ressources en eau, alors que les nappes phréatiques peinent à se reconstituer, même en hiver. Face au gigantisme de ces ouvrages, dont la superficie dépasse plusieurs hectares, ils pointent également du doigt les pertes par évaporation des volumes captés, qui sont estimées entre 20 % et 60 %. En plus d’impacter le milieu naturel et la biodiversité, ces infrastructures posent également des problèmes du conflit d’usage de l’eau qui bénéficie principalement aux grandes exploitations agricoles intensives, au détriment des petits agriculteurs et des autres usagers de l’eau.

Dans son sixième rapport, le GIEC aborde brièvement la question des retenues d’eau dans le chapitre consacré aux enjeux climatiques en Europe. Les experts écrivent que : « les réservoirs sont coûteux, ont des impacts environnementaux négatifs et ne seront pas suffisants partout au-delà de certains niveaux de réchauffement climatique. »

Pour Vincent Bretagnolle, écologue et directeur de recherche CNRS, les réserves de substitution ne sont pas une réponse adéquate à la raréfaction de l’eau, car si le raisonnement paraît infaillible, le constat de départ est erroné. « La solution des mégabassines ne règle pas les causes profondes du problème auquel nous sommes confrontés, une accélération continue du cycle de l’eau depuis des décennies, et ne peut donc prétendre au rôle de solution unique, ni même prioritaire. »

Même constat pour l’hydroclimatologue et directrice de recherche au CNRS Florence Habets qui parle du cercle vicieux de la dépendance à l’eau dans le média The conversation. Elle explique qu’un déficit en eau, c’est-à-dire dans le cas où l’usage de l’eau devient supérieur à la ressource, conduit à la création de nouveaux stocks d’eau, mais que ces gains de réserves sont en fait compensés par une augmentation des usages, avec par exemple une augmentation des surfaces irriguées. Ces évolutions, combinées au changement climatique qui provoque de nouveaux déficits en eau, conduisent à un cycle sans fin.

Considéré comme le pays des bassines, l’Espagne dispose d’un historique suffisamment important pour mesurer l’impact de ces installations. Les premières ont en effet été construites dès les années 1950 et ont contribué au développement d’une agriculture intensive et surtout à l’irrigation de masse des cultures. Mais aujourd’hui, ce modèle agricole arrive à bout de souffle, car la surexploitation des sols et des nappes phréatiques, combinée au changement climatique, conduit à des difficultés à remplir ces réservoirs. Quelques-uns commencent même à être détruits.

Les thèses du mois : « La transition énergétique redéfinit les missions des ingénieurs »

Pour notre dossier de septembre, « La transition énergétique redéfinit les missions des ingénieurs », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.

Accompagner l’intégration des enjeux socio-écologiques dans la formation en école d’ingénieurs. Une recherche-intervention sur les pratiques de problématisation et de transposition didactique des enseignants
Hugo Paris
Thèse en Sciences de l’éducation, soutenue le 4-07-2024
Apprentissages, Didactiques, Évaluation, Formation

Le travail des hydrologues de proximité : pour une analyse sociale des pratiques et des savoirs des ingénieurs et des techniciens de l’action publique. Le cas de la gestion quantitative à l’épreuve du changement climatique.
Charles Antoine
Projet de thèse en Géographie depuis le 24-10-2023
Laboratoire de Gestion territoriale de l’eau et de l’environnement

Les processus de professionnalisation dans le secteur de la bio économie la relation formation- emploi – territoire en question
Micky-Love Mocombe
Projet de thèse en Sociologie depuis le 01-11-2022
Centre d’étude et de recherche sur les emplois et les professionnalisations

Modéliser et organiser le patrimoine de création d’une ingénierie pour une innovation responsable et durable : le cas de SNCF Réseau
Nafissa Jibet
Projet de thèse en Science de gestion, depuis le 28-02-2022
Centre de Gestion Scientifique

La transformation numérique des entreprises industrielles. Quelles modalités d’accompagnement et quels effets sur les métiers et les identités ?
Pierre Quesson
Projet de thèse en Sciences de gestion, depuis le 01-10-2019
Centre de Gestion scientifique

 Adoption digitale en ingénierie : application aux outils de gestion du cycle de vie des produits
Valentin Jousseaume
Projet de thèse en Génie industriel depuis le 15-10-2022
Laboratoire Conception de Produits et Innovation

Intelligence Artificielle et robotique dans les situations de travail : quelles conséquences sur l’activité humaine et l’organisation du travail ?
Tamari Gamkrelidze
Doctorat en Ergonome, soutenue le 28-11-2022
Centre de recherche sur le travail et le développement

De la formation des agents publics à la transformation de l’action publique : le cas de la transition écologique
Léa Falco
Projet de thèse en sociologie, depuis le 02-11-2023
Centre international de recherche sur l’environnement et le développement

La professionnalité émergente des ingénieurs généralistes en France au prisme de l’apprentissage de la gestion de projet : le cas de la formation des élèves à l’École Centrale de Marseille
Émilien Jacob
Doctorat en Sciences de l’éducation, soutenue le 17-11-2022
Laboratoire : Apprentissage, didactique, évaluation, formation

Vers des processus métier corrects basés sur la Blockchain
Ikram Garfatta
Doctorat en informatique, soutenue le 13-12-2022
Laboratoire informatique de Paris-Nord

S’adapter à la notion de développement durable : une transition indispensable à la pérennité de l’entreprise en mutation

Un extrait de « Entreprise du futur et transitions numérique, énergétique et écologique », par Jean-Pierre DAL PONT et Catherine AZZARO-PANTEL.

La concurrence née de la globalisation, de la montée en puissance de la Chine, des déséquilibres qu’entraîne la disparité des coûts de main-d’œuvre, de la disponibilité de certaines matières premières stratégiques, de l’apparition des gaz et pétrole de schiste, a rebattu les cartes des économies mondiales. Par ricochet, les entreprises sont tenues de s’adapter aux changements – sociétaux, économiques, scientifiques… – qui l’impactent directement, voire d’anticiper les évolutions à venir, pour rester compétitives dans un monde de plus en plus incertain.

Pourquoi et comment une nouvelle stratégie de R&D

La recherche et l’innovation sont ainsi des secteurs en plein développement afin d’imaginer les solutions de demain susceptibles de conforter sa solidité, financière et autre, dans un contexte de responsabilité sociétale dont elle ne peut plus faire l’impasse. Comment concilier capitalisme, décarbonation, traçabilité, et attentes du consommateur ?

L’innovation est le maître mot de ce changement de paradigme. Des nouvelles idées qui surgiront naîtra le progrès, tout autant que l’activité commerciale.

Pour autant, cette innovation ne pourra se faire sans le personnel, du simple employé au chercheur en passant par l’ingénieur. Elle passera également par la disponibilité grandissante d’outils numériques permettant la réduction des coûts, la fluidité de l’interface avec le client ainsi que l’amélioration du management.

L’ingénierie industrielle

Les activités destinées à transformer des ressources financières en un ouvrage constituent l’ingénierie industrielle. Celle-ci s’appuie sur des résultats de recherche, des études et des concepts, mais également sur des compétences et des métiers très divers.

Un projet peut être lui-même de nature diversifiée, tant par la taille que les coûts, par les objectifs et les technologies mises en jeu, la durée… Il nécessite donc une organisation spécifique que devra mettre en place le chef de projet, parfois avec la collaboration de sociétés d’ingénierie ou de bureaux d’études.

Cette ingénierie industrielle peut elle-même se découper en différents types d’ingénierie, tels que l’ingénierie :

  • conceptuelle pour imaginer le projet ;
  • de base pour tout ce qui a trait au financement ;
  • de procédé, afin de déterminer les systèmes permettant la réalisation.

L’adaptation de l’ingénieur aux nouvelles exigences

Les transitions numérique, écologique et énergétique modifient l’ensemble du monde industriel et des affaires, d’autant que le client attend d’un produit qu’il soit disponible rapidement et utilisable immédiatement. L’ingénierie industrielle doit dès lors se plier à ces nouvelles contraintes.

L’apport du numérique est indéniable, quels que soient les secteurs, puisqu’il permet notamment une modélisation des processus tout en diminuant le coût d’essais autrefois physiques. Grâce au numérique, il est ainsi possible de visualiser un projet dès sa phrase conceptuelle.

Cependant, si les cursus d’ingénieurs intègrent davantage de modules tournés vers les notions environnementales, la composante sociale reste difficile à évaluer, d’autant qu’il est parfois compliqué de déterminer le caractère durable d’un produit.

L’ingénieur peut donc ainsi se retrouver face au paradoxe d’une vue indispensable et globale d’un projet innovant en dépit d’évolutions ou de problématiques de conception.

Le métier pour quels secteurs

Les entreprises du futur ont besoin de compétences très pointues dont disposent notamment (mais pas uniquement) les ingénieurs.

Quel que soit leur secteur d’activité – du nucléaire à la pharmaceutique, de l’agroalimentaire à la mobilité en passant par l’énergie et l’environnement ou encore le bâtiment –, l’innovation et ses découvertes touchent l’ensemble des industries et sociétés conscientes des multiples enjeux qui s’imposent à elles aujourd’hui.

Le besoin d’ingénieurs en mesure de concrétiser des concepts éprouvés et tenant compte de nombreux impératifs se fait donc toujours plus prégnant.

Un projet pour mieux identifier les rejets industriels de microplastiques

Le volume de microplastiques rejetés involontairement dans l’environnement est colossal. Si cette pollution est une certitude, on en sait néanmoins très peu sur ces microplastiques, dont les sources d’émission sont multiples.

Il est donc urgent de prendre en main ce sujet et les industriels ont un rôle important à jouer dans l’évaluation de cette pollution invisible !

Microplastiques : que dit la loi française ?

Les premières restrictions concernant les microplastiques sont apparues avec la loi AGEC, avec deux logiques. Il y a d’une part l’article 82, qui interdit l’ajout intentionnel de microplastiques dans certaines catégories de produits, notamment cosmétiques.

D’autre part, l’article 83 est consacré aux mesures permettant de limiter les pertes de granulés plastiques. En France, les plus gros sites[1] de production, de manipulation et de transport de granulés plastiques doivent donc désormais mettre en place des équipements et procédures permettant de prévenir les pertes et fuites de granulés. Ils sont également tenus de faire réaliser des audits par un tiers indépendant et de mettre en ligne sur leur site la synthèse du rapport d’audit.

Pourquoi la loi parle-t-elle de granulés ? Parce que selon la Commission européenne, les granulés plastiques perdus par l’industrie représenteraient la troisième source de pollution microplastique non intentionnelle de l’UE[2].

Et cette distinction entre microplastiques et granulés est très importante. Car si pour l’UE, les microplastiques sont des « Particules de polymères synthétiques de moins de 5 mm, organiques, insolubles et résistantes à la dégradation », la loi française définit les granulés plastiques comme des « Matières plastiques commercialisées sous différentes formes, dont les dimensions externes sont supérieures à 0,01 mm et inférieures à 1 cm. »

La distinction est donc importante : si les granulés sont bien des microplastiques, il existe aussi d’autres microplastiques de taille inférieure, notamment des nanoplastiques.

Une « législation européenne microplastiques » en cours d’évolution

Dans le pacte vert pour l’Europe, la Commission européenne affirme être déterminée à lutter contre la pollution par les microplastiques. Elle a d’ailleurs inscrit un objectif clair, dans son plan d’action « zéro pollution » : réduire de 30 % la pollution par les microplastiques d’ici à 2030.

Mais pour que ce vœu soit suivi d’effets, il lui faut disposer d’un arsenal législatif solide. Or, sur ce point, la France et l’UE sont alignées. En 2023, les microplastiques ont ainsi intégré l’annexe XVII du règlement REACH (entrée n° 78). La vente de produits pour lesquels des microplastiques ont été ajoutés intentionnellement est également interdite, avec des dérogations similaires à celles de la législation française.

Enfin, pour ce qui est des granulés plastiques, la France est en avance, puisqu’une proposition de règlement incitant les opérateurs économiques à prévenir les pertes a été déposée, dans la même logique que la législation française.

Néanmoins, ce cadre législatif est amené à évoluer, car la question des microplastiques n’est prise au sérieux que depuis quelques années par les pouvoirs publics. Pourquoi cette prise de conscience si tardive ? Peut-être que nous manquons tout simplement de connaissances sur le sujet !

Une approche méthodologique pour mieux évaluer les rejets industriels de microplastiques

L’Europe et la France ont conscience de l’ampleur du problème et ont la volonté de lutter contre les pertes industrielles de microplastiques. Mais si de nombreuses sources de contamination ont été identifiées, nous savons encore peu de choses concernant la contribution de chaque process industriel.

Parce qu’il est urgent de combler ces lacunes, AMVALOR, l’association RECORD et IPC ont amorcé un chantier ambitieux. En effet, le but de l’étude qui vient de démarrer n’est pas de quantifier les émissions industrielles de microplastiques (N-MPs), mais de poser les bases méthodologiques qui permettront de le faire à l’avenir.

Car c’est un fait, avant de mesurer, il faut pouvoir évaluer les sources d’émission ! Cela peut sembler frustrant, mais cette étape est capitale pour avancer en utilisant une méthode scientifiquement solide.

Le projet a besoin de l’aide des industriels

L’objectif de l’étude financée par RECORD est d’identifier la typologie des sites industriels qui rejettent potentiellement des N-MPs dans l’environnement. La méthode d’évaluation multicritère qui sera utilisée a été développée par AMVALOR et IPC. Elle permettra ainsi d’évaluer les risques de formation, de transfert et de rejets de N-MPs à trois niveaux.

Crédit : Sophie Omont, AMVALOR

Et c’est un travail colossal, puisque la démarche implique de récolter un maximum de données, scientifiques, mais aussi de terrain. La réussite du projet dépend donc de l’exhaustivité des informations collectées. L’aide d’un maximum d’industriels de la plasturgie est dès lors nécessaire pour atteindre les objectifs visés !

Comment participer à l’étude ?

Le projet est ouvert à toutes les entreprises de production et de mise en œuvre des matières plastiques du territoire français, sans limites de taille et tout secteur d’activités confondus. Les professionnels du recyclage sont donc également les bienvenus, et même les organismes de formation.

Concrètement, la contribution des industriels se fera via un questionnaire en visio. Au niveau confidentialité, il n’y a donc aucun risque, car les données collectées seront anonymisées et agrégées.

Les aspects abordés dépendront de l’activité et les questions seront liées au savoir-faire, à la pratique de l’entreprise.

Pour les industriels qui désirent participer, la démarche est très simple :

  • envoi de votre candidature ;
  • formalisation des relations entre votre entreprise et l’équipe projet ;
  • planification d’un créneau de une à deux heures d’entretien en visio.

Vous désirez participer au projet ? Vous pouvez d’ores et déjà contacter IPC via le formulaire de contact  ou par mail.


[1] Sites dont le seuil minimal de granulés manipulés est fixé à 5 tonnes

[2] 184 290 tonnes de granulés sont perdues chaque année en Europe selon ce rapport

Quel rôle pour les ingénieurs au niveau des territoires ?

Les collectivités territoriales font travailler de nombreux ingénieurs. Ces derniers œuvrent donc au service des communes, des départements, des régions, en tant que fonctionnaire ou contractuel. Ils appliquent dans les services techniques locaux leurs compétences scientifiques au service de l’ingénierie, dans des domaines tels que la gestion des risques, l’urbanisme, la gestion des réseaux, des transports, la qualité de l’eau, entre autres. Ils sont donc les garants de l’application à l’échelle des territoires des politiques mises en place au niveau national.

Les compétences nécessaires pour mener à bien ce type de missions sont très larges : Au-delà des compétences techniques inhérentes aux métiers de l’ingénierie, l’ingénieur territorial doit être performant dans les domaines de la gestion de projet, mais également de la communication, afin de coordonner au mieux le travail des équipes impliquées, directement ou indirectement, dans les missions locales qui lui sont attribuées.

Une fois passé le concours pour être éligible aux métiers de l’ingénierie territoriale, les ingénieurs entrent dans la fonction publique, avec des salaires bien en deçà de ce à quoi ils peuvent prétendre en exerçant dans le secteur privé. Aussi, ils doivent développer des compétences spécifiques à ce qui prévaut dans les missions de service public. En tout premier lieu, la capacité à conduire des projets avec des moyens financiers souvent limités, et avec des équipes aux compétences parfois peu en adéquation avec les missions spécifiques à mener. Tout cela explique pourquoi aujourd’hui, certains postes d’ingénieurs territoriaux ne sont pas pourvus.

C’est encore plus vrai en ce qui concerne les postes liés à la transition énergétique, qui exigent une vision très transversale des problématiques énergétiques, et donc des compétences élargies, aussi bien en termes techniques qu’au niveau du management et de la gestion de projet.

Pour autant, le rôle des ingénieurs territoriaux dans les transitions actuelles est fondamental. En effet, l’aspect multidimensionnel des leviers à mettre en œuvre pour rationaliser la consommation énergétique des services, et limiter les émissions de GES au niveau local requiert des compétences très transversales et une hauteur de vue sur l’ensemble les problématiques à l’œuvre. L’ingénierie territoriale permet de mutualiser les moyens au niveau local et de mettre en place une véritable « culture de la transition énergétique », synonymes de nombreuses économies, aussi bien au niveau financier qu’énergétique. 

Aussi, la mise en place de solutions innovantes et communes au sein des territoires nécessite aujourd’hui souvent le développement de nouvelles compétences pour les ingénieurs responsables de leur mise en place. D’où l’importance du rôle de ces derniers, aussi bien pour être en mesure de chapeauter la mise en œuvre de ces solutions, que la capacité des équipes à intégrer leur fonctionnement, sur le long terme. S’ajoute la responsabilité, pour les ingénieurs, de trouver le juste équilibre, pour une solution technique innovante, entre son efficacité et les contraintes liées à sa mise en place au niveau du territoire.

Enfin, les ingénieurs en charge des territoires doivent également jouer le rôle d’interface entre les entreprises qui développent des solutions à destination des territoires, et les territoires eux-mêmes. En sachant que la transition énergétique accouche au niveau des territoires de contraintes communes, mais que les réponses à ces contraintes ne seront pas les mêmes, d’un territoire à un autre.