Écoutez notre podcast Cogitons Sciences : Intégrer l’IA dans votre entreprise, pour un usage utile et raisonné [L’IA s’invite dans nos métiers #2]

Gain de temps, précision de prévision, un usage réfléchi de l’intelligence artificielle rend différents services et satisfait des besoins métiers. Certaines conditions garantissent un usage raisonné, comme l’éthique, l’humilité, la protection des données, tout cela dans le respect d’une certaine frugalité. Outre ces axes réflexions, Pierre Monget et Paul Hérent livrent leurs conseils en matière de développement de solution d’IA.

Écoutez l’épisode ici !

C’est quoi, une IA utile et raisonnée ? [01:17 – 03:57]

L’utilité est “avant tout de satisfaire un besoin qui rend service à une population d’utilisateurs et de manière plus large à la société” définit Pierre Monget. L’usage réfléchi, c’est se poser des questions tout au long du cycle de vie d’un outil d’IA, en partant des besoins métiers à la réalisation, “en visant un usage non absurde”, ajoute-t-il. “Est-ce vraiment nécessaire d’avoir une solution d’IA pour telle finalité ? Cette finalité est-t-elle vraiment utile ? N’est-elle pas absurde ? Les moyens mis en œuvre pour l’atteindre sont-ils raisonnés ?

L’exemple d’un outil médical [04:12 – 12:29]

Raidium développe à la fois un modèle de fondation (IA générative) et une interface utilisateur (un viewer), permettant au radiologue d’améliorer son travail. Le modèle a appris le corps humain de la tête aux pieds ainsi que les connaissances médicales associées : anatomie normale et pathologique. Cet outil qui pourrait permettre à la fois de réduire les erreurs médicales et de démocratiser l’expertise radiologique, sans remplacer le radiologue, évidemment !

Prendre en compte tout le cycle de vie [12:39 – 16:02]

Que ce soit dans le développement ou l’utilisation finale de l’outil d’intelligence artificielle, chacun a sa responsabilité. Au-delà de questionner son utilité, il est important de prendre en compte l’impact environnemental tout au long de son cycle de vie : de son entraînement à sa mise œuvre. De plus, il est important que le modèle d’IA respectent les principes éthiques, la réglementation, et la bonne utilisation des données. “Sur quelles données va-t-on entraîner les modèles d’IA ? Sont-elles sensibles ? Personnelles ? A-t-on vraiment le droit d’y accéder ?” énumère Pierre Monget.

Des compromis nécessaires [16:15 – 27:37]

Développer un outil d’intelligence artificielle utile et raisonné, c’est aussi faire des compromis. Par exemple, utiliser un modèle plus léger et donc moins impactant pour l’environnement au prix d’une précision moindre lorsque cette dernière n’est pas nécessaire. Remettre en question, côté utilisateur, son utilisation de ChatGPT pour créer de simples images, par exemple. Ou encore, suis-je autorisé à copier du code source de mon entreprise dans des outils d’IA générative pour le debugger ? Certains ingénieurs ont essayé, ils ont eu des problèmes…

Pour écouter l’épisode, c’est ici.

Références citées :

Raidium
– Viewer, outil de radiologie
Speech to text
– Geoffrey Hinton – Deep Learning
– Centre d’imagerie du nord, Saint-Denis 93
– Coroscanner (Tomodensitométrie)
– Open AI ChatGPT 3, 4
Large language model
Stable diffusion et MidJourney
AI Act

Ressources pour aller plus loin :

MOOC de Stanford sur le deep learning

AI Revolution in Medicine : GPT-4 and beyond de Peter Lee, Carey Goldberg, Isaac Kohane

L’Innovation Jugaad – Redevenons Ingénieux ! de Navi Radjou, Jaideep Prabhu et Simone Ahuja

 

Cogitons Sciences est un podcast produit par Techniques de l’Ingénieur. Cet épisode a été réalisé par Séverine Fontaine, en collaboration avec Marie-Caroline Loriquet.

David Berard : « Seules quelques marques de voiture acceptent d’être confrontées aux hackers »

Fondée en 2012 par deux experts en cybersécurité, Synacktiv est considérée comme l’une des meilleures entreprises au monde en matière de cybersécurité offensive. Elle participe à des projets sensibles de renommée mondiale. Elle développe de nombreux outils de sécurité offensifs dans le cadre de ses activités. David Berard est expert sécurité spécialisé dans la rétro-ingénierie de systèmes embarqués et mobiles.

Technique de l’ingénieur : Pourquoi ce concours est-il très important ?

David Berard, expert sécurité
David Berard, expert sécurité, spécialisé dans la rétro-ingénierie de systèmes embarqués et mobiles (DR)

David Berard : Nous participons à Pwn2Own avant tout pour le défi technique qu’il nous offre. Cela nous donne aussi l’opportunité de nous mesurer à d’autres professionnels du domaine. Les phases de préparation du concours, souvent longues, sont des moments enrichissants de travail en équipe.

Les détails techniques complets des attaques sont généralement partagés par la suite lors de conférences internationales renommées.

Les véhicules modernes ne sont-ils pas du pain béni pour les pirates ?

Les véhicules modernes, qu’ils soient électriques ou thermiques, sont du fait de leur complexité des cibles de choix. Ils sont connectés à divers protocoles. Sur la Tesla, il y a notamment le Bluetooth, le wifi, le réseau GSM en permanence et la radio numérique. Ce sont autant de points d’accès qui peuvent être attaqués à distance. Nous travaillons principalement sur la Tesla sur laquelle il y a plusieurs niveaux sécuritaires. Cette année, nous avons réussi à traverser un premier niveau qui offre un accès à différentes fonctions comme l’ouverture des portes ou du coffre, le changement de l’affichage sur l’écran… Mais pour agir sur les freins par exemple, il est nécessaire de franchir un second barrage. Cette année, nous n’avons pas pu le franchir comme nous l’avions fait en 2023 et avoir ainsi un accès complet à tous les équipements de la voiture. Lors de l’édition de Vancouver il y a un an, notre équipe avait réussi à compromettre la Tesla Model 3. Depuis, cette faille a été corrigée par le constructeur.

Est-ce que certaines marques de constructeurs sont plus vulnérables que d’autres ?

Pour nous, la Tesla est l’un des véhicules les moins vulnérables, car la marque investit beaucoup dans la sécurité. C’est la raison pour laquelle elle participe à ce genre de concours. Elle attend que des chercheurs découvrent des vulnérabilités pour ensuite les corriger rapidement. D’autres constructeurs ne souhaitent pas y participer pour ne pas soumettre leurs modèles électriques ou thermiques, qui sont aussi très connectés, à de réelles attaques. Seule une poignée de marques acceptent de participer à ce type de concours publiquement. D’autres constructeurs participent également à des programmes privés de bug bounty, c’est-à-dire que seuls les hackers invités peuvent y participer.

Si, dans quelques années, il n’y a plus qu’un seul système d’exploitation pour les voitures, ce sera encore plus facile pour les pirates qui ne devront pas tester leurs techniques sur différents environnements ?

Nous pensons au contraire que la diversité favoriserait les attaques ; peu de chercheurs pourraient en effet consacrer beaucoup de temps à rechercher des vulnérabilités sur différents environnements. C’est ce que nous voyons avec les iPhone qui sont réputés très sécurisés, car Apple se concentre sur un seul OS (Operating system) commun à tous ses modèles. Cette option permet de mettre à jour de façon régulière tous les appareils, même un peu anciens. C’est la même méthode appliquée par Tesla. En fait, le système de Tesla commence à devenir le standard en étant très avancé et très complexe à attaquer. Et même lorsqu’on réussit une action malveillante, il est très difficile de l’exploiter, car il y a de multiples barrières à franchir.

Lors de ce concours, vous avez présenté des démonstrations de hacking inédites visant les chargeurs de véhicules électriques, les autoradios intelligents… Vous donnez des idées à des maris jaloux ?

Lors du concours, les attaques ne prennent que quelques secondes à être exécutées, mais elles exigent un gros travail de préparation en amont de plusieurs mois. Un mari jaloux qui voudrait saboter ou modifier la voiture de sa femme ne pourrait pas le faire sauf s’il a de solides compétences et qu’il a du temps libre.

Quelles sont selon vous les principales menaces dans les prochaines années ?

Je pense qu’il s’agit de tout ce qui concerne l’administration à distance (voir encadré ci-dessous), que ce soit sur les machines, mais aussi les véhicules. À l’autre bout de la planète, nous pouvons contrôler certaines fonctionnalités ! Concernant les serveurs, nous ne connaissons pas les niveaux de sécurité de Tesla, car elle communique très peu sur ce point. Selon nous, des attaques pourraient réussir via les serveurs. Nous pouvons imaginer de contrôler une flotte de voitures à travers les serveurs de cette marque ou d’un autre constructeur.

Anydesk, un éditeur très connu et très utilisé par 170 000 entreprises, a été victime d’une attaque informatique le 2 février. Si de nombreux cas de piratage sont révélés tous les jours, celui-ci est d’autant plus inquiétant, car ses logiciels permettent de prendre le contrôle à distance d’un ordinateur. Cette solution est notamment utilisée par des prestataires informatiques pour réaliser des mises à jour ou de la maintenance de parc d’ordinateurs dans les entreprises.

La contamination des thons au mercure reste stable depuis 1971

Le mercure est un contaminant répandu qui peut se convertir naturellement en méthylmercure dans les écosystèmes marins. Il est associé à des déficits neurocognitifs chez les fœtus et les enfants, ainsi qu’à des effets cardiovasculaires chez les adultes. L’exposition des humains au méthylmercure se fait principalement par la consommation de produits de la mer. Au banc des accusés : les thons, poissons marins les plus consommés au monde. Ils peuvent accumuler des niveaux élevés de méthylmercure en se nourrissant de proies contaminées, telles que de plus petits poissons ou des crustacés. Les impacts mondiaux de l’exposition au méthylmercure sont estimés à 117 milliards de dollars par an.

Malgré les efforts déployés pour réduire les émissions de mercure dans l’environnement, notamment via la Convention de Minamata signée en 2013 et entrée en vigueur en 2017, des chercheurs français, en collaboration avec une équipe internationale, signalent dans Environmental Science & Technology Letters que les niveaux de mercure dans le thon semblent inchangés depuis 1971. Ils s’établissent sur la période autour d’un microgramme par gramme de muscle. Les chercheurs avancent donc la nécessité de fixer des objectifs de réduction des émissions de mercure plus drastiques afin de faire baisser ces niveaux dans le thon.

Des thons contaminés au mercure

Les chercheurs ont compilé des données précédemment publiées et leurs propres données sur les niveaux de mercure dans le muscle de thon dans près de 3 000 échantillons capturés dans les océans Pacifique, Atlantique et Indien entre 1971 et 2022. « Comme ils ne subissent pas de migrations transocéaniques, toute contamination trouvée dans les muscles des animaux reflète probablement les eaux dans lesquelles ils nagent et se nourrissent », souligne l’étude.

Les chercheurs ont ciblé les thons tropicaux, à savoir le thon albacore, le thon obèse et le listao. Ces thons sont des prédateurs de haut niveau, largement distribués et fortement exploités, constituant 94 % des prises mondiales de thon.

Après avoir standardisé les concentrations de mercure dans les thons en fonction de leur taille, l’étude relève des concentrations de mercure globalement stables à l’échelle mondiale, à l’exception du nord-ouest du Pacifique. Là, les concentrations de mercure dans les thons ont augmenté de manière significative à la fin des années 1990. Près de l’Asie, les concentrations de mercure dans le thon listao ont atteint des concentrations jusqu’à quatre fois plus élevées que celles observées ailleurs dans l’océan mondial. Cela suggère une contamination accrue le long des côtes asiatiques, proches de points chauds d’émissions de mercure.

À l’exception du nord-ouest du Pacifique, l’étude montre des concentrations de mercure stables à long terme dans les thons, mais une variabilité annuelle. Cette dernière reflète probablement des processus biogéochimiques et/ou écologiques naturels.

Un mercure « hérité » qui remonte des profondeurs

Si la contamination des thons reste stable dans la plupart des parties du monde, le mercure atmosphérique a diminué dans le monde entier au cours de la même période. Les chercheurs émettent donc l’hypothèse que cette stabilité du niveau de mercure dans le thon pourrait être causée par du mercure « hérité », remontant des eaux plus profondes (50 – 1 500 mètres). Ce mercure hérité aurait été émis des décennies auparavant, et ne reflète donc pas encore les effets de la diminution des émissions dans l’air. Il continue à alimenter les réseaux alimentaires océaniques en profondeur et en surface.

Ainsi, les résultats suggèrent que la baisse de la contamination dans les thons peut prendre des décennies suite aux mesures de réduction des émissions. « En raison du mélange ascendant de ce mercure hérité, le réservoir océanique de surface (0 à 50 mètres) met des années, voire des décennies, à réagir aux changements dans les émissions primaires », proposent les chercheurs.

Et pour demain ?

Les chercheurs ont également voulu simuler l’impact de trois politiques environnementales de plus en plus restrictives sur les niveaux de mercure océanique et de thon à l’avenir. Leurs modèles mathématiques suggèrent que même la politique d’émission la plus restrictive prendrait de 10 à 25 ans pour influencer les concentrations de mercure océanique. Puis, les baisses dans le thon suivraient des décennies plus tard.

Leurs résultats indiquent la nécessité d’un effort mondial pour réduire plus agressivement les émissions de mercure et un engagement envers une surveillance continue et à long terme du mercure dans la vie océanique pour évaluer l’efficacité des décisions politiques et des efforts de réduction par rapport à la santé humaine.

Quelle place pour le nucléaire dans la transition énergétique ?

Un extrait de « Analyse et perspectives énergétiques » par Christian NGÔ

L’intérêt de l’énergie nucléaire est de produire de l’électricité à bas niveau carbone, en continu et à un coût compétitif. Cependant, cette énergie demande de gros investissements (analogue d’ailleurs, par kilowatt installé, à d’autres énergies renouvelables) et des délais assez longs de mise en œuvre. La maîtrise du nucléaire requiert aussi un niveau technologique élevé, et nécessite la gestion des déchets associés. Elle se heurte dans un certain nombre de pays, et notamment en Europe, à l’opposition d’une partie des populations concernées en raison des risques qui lui sont prêtés. L’accident de Fukushima en 2011 a aggravé ces craintes et contribué à renforcer les dispositifs de sécurité, augmentant ainsi les coûts. De son côté, la fusion thermonucléaire fait l’objet d’intenses recherches avec une forte coopération au niveau international depuis des décennies. Le nouveau réacteur international ITER, en construction à Cadarache près d’Aix-en-Provence, permettra de faire avancer les connaissances sur le plasma de fusion. Mais on est encore loin d’une application industrielle…

Les compromis inhérents à la transition énergétique

La transition énergétique vise à réduire la consommation de combustibles fossiles et à émettre moins de CO2 dans l’atmosphère. Mais les moyens mis en œuvre pour atteindre ces objectifs vont parfois à l’encontre de ceux-ci. Ainsi, l’éolien et le solaire, qui sont des énergies intermittentes, demandent des moyens complémentaires émetteurs de CO2 pour fournir de l’électricité lorsqu’il n’y a pas de vent ou de soleil. Rien ne sert de remplacer une centrale nucléaire, qui n’émet pas de CO2 en fonctionnement, par des éoliennes car ces dernières ont besoin de centrales thermiques complémentaires en l’absence de vent. Par contre, si l’on dispose d’une centrale au charbon, il est intéressant dans une première étape de la remplacer par une centrale au gaz naturel. Ainsi, on divise les émissions de CO2 par deux. Puis, on peut y ajouter des éoliennes ou des panneaux solaires afin de limiter l’emploi de la centrale à gaz.

Il va également falloir plus d’électricité pour recharger les batteries des véhicules hybrides rechargeables ou électriques. Ces batteries serviront à lisser la consommation et donc à réduire les moyens de production. Il faut toujours avoir une approche globale des problèmes, notamment en ce qui concerne l’environnement. Ainsi, un véhicule électrique n’émet pas de CO2 localement. Tout dépend de la manière dont on fabrique l’électricité. En France, où seulement 10 % est produite avec des combustibles fossiles, la quantité de CO2 émise est d’environ 15 g/km (et sans doute moins si la batterie est rechargée pendant les heures creuses). Dans un pays produisant entièrement son électricité avec des centrales au charbon, les émissions seraient en revanche supérieures à 150 g de CO2 par km, c’est-à-dire plus que certains véhicules thermiques d’aujourd’hui.

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 14 mars 2024 !

Analyse et perspectives énergétiques, par Christian NGÔ

Les thèses du mois : « La France dans la course aux réacteurs nucléaires innovants »

Pour notre dossier du mois de février, « La France dans la course aux réacteurs nucléaires innovants », voici les thèses sélectionnées par le REDOC SPI. Retrouvez le résumé de ces thèses ainsi que les thèses des mois précédents sur le site de notre partenaire.

Méthodologie d’étude de l’intégration de Small Modular Reactors dans des réseaux électriques dans le cadre de la transition énergétique
Charly Boudot
Thèse de doctorat en Génie électrique. Soutenue le 18-10-2023.
Laboratoire de génie électrique

Optimisation du cycle de Rankine pour le fonctionnement flexible d’un petit réacteur modulaire : apport de l’admission partielle par secteurs dans les corps de turbines au suivi de charge et à la cogénération.
Guilherme Vescovi
Thèse de doctorat en Génie des Procédés et de l’Environnement. Soutenue le 14-12-2023.
Laboratoire de génie chimique

Développement d’un schéma de calcul neutronique pour la modélisation du pilotage des SMR (Small Modular Reactors) sans bore soluble
Pierre Devaux
Thèse de doctorat en Mécanique des fluides, procédés, énergétique. Soutenue le 14-01-2022
Laboratoire de simulation des combustibles (CEA Cadarache)

Nuclear in decarbonized power systems with renewable energy : Flexibility assessment, modeling framework, and role in the French and Western European electric transition
Arthur Lynch
Thèse de doctorat en Ingénierie économique. Soutenue le 13-12-2022.
Laboratoire Génie Industriel

Normaliser l’apocalypse : organisations et recompositions du secteur nucléaire face aux accidents
Valerie Arnhold
Thèse de doctorat en Sociologie. Soutenue le 31-01-2022.
Centre de sociologie des organisations

Nuclear safety, nuclear liability, and the role of the State: lessons from the Fukushima accident
Ryoko Kusumi
Thèse de doctorat en Droit public. Soutenue le 13-01-2023.
Centre d’études et de recherches internationales et communautaires

Contribution à la démonstration de sûreté nucléaire dans un contexte d’ingénierie basée sur des modèles : Proposition méthodologique
Emir Roumili
Thèse de doctorat en Systèmes Automatiques et Micro-électroniques. Soutenue le 07-12-2022.
Laboratoire des Sciences des Risques

Du salut énergétique au sauvetage de la filière nucléaire française : enquête sur l’évolution des visions du futur au cœur d’un système sociotechnique
Martin Denoun
Thèse de doctorat en Sociologie. Soutenue le 22-11-2022.
École des hautes études en sciences sociales

L’adaptation du droit (interne et international) aux petits réacteurs nucléaires innovants
Valentina Akopian
Projet de thèse en Droit, depuis le 01-09-2023.
Université Paris-Panthéon-Assas

Pilotage Cloud-Edge du control optimal des réseaux électriques
Yara Abdul samad el skaff
Projet de thèse en Génie électrique, depuis le 19-12-2022.
CEA-Liten

Synthèse de chlorures/oxychlorures de lanthanides et d’actinides pour les réacteurs nucléaires à sels fondus
Hugo Cuvilliers
Projet de thèse en Chimie des matériaux, depuis le 01-10-2022.
Unité de Catalyse et Chimie du Solide

Global Industrie : n’attendez plus, sécurisez dès maintenant votre entrée !

À la recherche d’échange d’idées, des nouvelles tendances ou de partenariats ? Réunissant des milliers de professionnels, entreprises, start-ups et experts, les opportunités de rencontre sont innombrables. Le salon met en lumière les défis majeurs et les opportunités de transformation vers une industrie plus durable, innovante et compétitive. 

Global Industrie stimule l’innovation et vous guidera vers de nouvelles voies de croissance et de développement en présentant des thématiques telles que la digitalisation, l’écologie industrielle, l’innovation technologique et la formation des compétences. 

Le salon en quelques chiffres

  • 100 000 m² d’exposition
  • 2300 exposants couvrant la totalité de l’industrie regroupés dans 15 univers d’implantation
  • 1500 machines en fonctionnement
  • 40 000 visiteurs attendus en 2024

Global Industrie permet aux étudiants, professionnels et entreprises de se plonger dans une expérience immersive grâce à de nombreux espaces de démonstration et d’expérimentation permettant de réaliser une veille des tendances et signaux émergents afin d’anticiper au mieux les transformations de l’industrie.

Besoin de solutions innovantes ?

Les zones de prises de paroles y sont dédiées : 

  • Les Golden Tech : valoriser l’excellence industrielle
  • GI Avenir : sensibiliser la jeune génération aux métiers de l’industrie
  • Le village Start-up : répondre à la nécessité de rencontres avec les groupes bancaires, fournisseurs et conseillers
  • Les GI Awards : rester à la pointe de l’innovation
  • La Grande Scène : s’informer sur les thématiques phares de l’industrie
  • Des Tables rondes : assister à des discussions entre leaders industriels. 

Vous désirez plus d’informations ? Cliquez ici !

« Avoir une approche durable en fermant le cycle du combustible »

Lauréate de l’appel à projets « Réacteurs nucléaires innovants », Newcleo veut, à travers le développement d’un réacteur à neutrons rapides innovant, mettre en oeuvre une technologie permettant de fermer le cycle du combustible nucléaire, et d’optimiser l’utilisation des ressources.

Ludovic Vandendriesche, directeur général de Newcleo SA, a répondu aux questions des Techniques de l’Ingénieur.

Techniques de l’Ingénieur : Pouvez-vous revenir sur la genèse de Newcleo ?

réacteur newcleo TL-30

Ludovic Vandendriesche : Newcleo a été cofondé en septembre 2021 par notre PDG Stefano Buono – précédemment fondateur d’Advanced Accelerator Application, une biotech cotée au Nasdaq et vendue à Novartis – Elisabeth Rizzotti, physicienne de formation et Directrice des opérations, et notre Chief Scientific Officer Luciano Cinotti, un expert mondialement reconnu de la technologie des réacteurs à neutrons rapides, il est ainsi l’auteur de la plupart des brevets liés aux réacteurs à neutrons rapides au plomb (Lead Fast Reactor – LFR) dans le monde.

Depuis notre fondation, nous avons levé 400 M€ de capitaux privés et avons une levée de fonds de 1 milliard d’euros en cours. En mai 2023, Newcleo a annoncé un investissement de 3 Mds € dans l’Hexagone à l’horizon 2030, pour réaliser un réacteur de démonstration et une unité pilote de fabrication du combustible. Notre concept de réacteur est lauréat de l’appel à projets « Réacteurs nucléaires innovants » du plan d’investissements France 2030. Newcleo est aujourd’hui une société européenne comptant plus de 600 collaborateurs, présente en Italie, France et Angleterre. Avec des centres de recherche et développement en Italie, au Royaume-Uni et en France, ainsi qu’un centre expérimental à l’ENEA-Brasimone, la collaboration internationale fait partie de notre ADN.

Comment fonctionnent les réacteurs rapides refroidis au plomb que vous développez et qui utilisent un combustible recyclé ?

Nous nous sommes donnés pour mission d’apporter au monde une énergie sûre, économique et durable, en associant de manière radicalement innovante les technologies existantes. Nos réacteurs refroidis au plomb fonctionnent à pression atmosphérique. Les propriétés du plomb (capacités thermiques, point d’ébullition, propriétés chimiques et de blindage), associées aux systèmes de sûreté passive de Newcleo, garantissent un niveau de sûreté très élevé. Nos réacteurs rapides sont capables de « brûler » (ou fissionner) efficacement du plutonium, des actinides mineurs et de l’uranium appauvri. Alimentés par un combustible issu du retraitement des matières nucléaires valorisables, ils permettent non seulement d’avoir une approche durable en fermant le cycle du combustible, mais contribuent également à renforcer l’indépendance énergétique française et européenne. L’offre Newcleo s’appuie sur une expérience industrielle démontrée et unique en France : le retraitement à grande échelle des matières nucléaires, et le développement des réacteurs rapides de quatrième génération type Phénix et Superphénix.

Quels sont les freins technologiques et industriels que vous devez lever ?

Newcleo vise la réalisation en France d’un démonstrateur LFR (Lead Fast Reactor) de 30 MWe en 2030, en y associant l’installation pilote de fabrication du combustible. Pour tenir les engagements, il est urgent que l’Etat prenne une décision sur l’attribution de sites pour les nouveaux réacteurs innovants. Il est nécessaire que ces décisions soient prises au plus tard au second trimestre 2024, avec des indications prévisionnelles espérées dès le Conseil de politique nucléaire de février afin de ne pas bloquer les études de conception en cours.

D’ici la fin de l’année, nous visons également la finalisation du basic design de notre LFR et de notre unité de production de MOX RNR, et nous agissons parallèlement pour sécuriser notre chaîne d’approvisionnement avec des fournisseurs clés. Nos partenariats stratégiques avec des acteurs éminents tels que le CEA, Framatome, Assystem, Ingérop, ou Onet Technologies, renforcent nos compétences techniques et témoignent de notre engagement envers l’excellence dans l’ingénierie nucléaire française. En début d’année 2024, nous avons annoncé avec enthousiasme notre partenariat stratégique et industriel avec NAAREA, marquant une étape cruciale. Cette collaboration vise à mutualiser nos efforts en tant que lauréats de l’appel à projets « Réacteurs Nucléaires Innovants » de France 2030, accélérant ainsi l’innovation dans le domaine du nucléaire de quatrième génération. Ensemble, nous aspirons à gagner en efficacité et à renforcer notre impact, en particulier vis-à-vis des pouvoirs publics au niveau européen. Nous sommes impatients de voir les fruits de ces collaborations se concrétiser dans la prochaine phase de notre développement.

Quels sont vos concurrents sur cette technologie (réacteur rapide refroidi au plomb), en France et à l’international ?

Plusieurs projets de réacteurs de petite taille (SMR – Small Modular Reactor) et de réacteurs de 4ème génération (AMR – Advanced Modular Reactor) sont en cours à travers le monde, notamment en France et ailleurs en Europe, aux Etats-Unis et en Chine. Les SMR/AMR apportent tous quelque chose de différent qui leur permettra de jouer un rôle important dans la satisfaction de nos besoins énergétiques. Il y a beaucoup d’espace sur le marché, nous ne sommes pas en concurrence les uns avec les autres. Cela s’explique en partie par le fait que ces technologies ouvrent une variété d’opportunités au-delà de l’alimentation du réseau. Ensemble, ces technologies ont le potentiel pour décarboner le chauffage, alimenter les parcs énergétiques, fournir une production intégrée avec des micro-réacteurs… Notre mission est de travailler aux côtés d’autres pour contribuer à la décarbonation mondiale, ce n’est pas quelque chose qui peut être fait seul.

Quelle est la typologie des clients industriels pour les AMR que vous développez ?

La demande d’électricité va doubler, voire tripler en Europe d’ici à 2050. Les SMR proposent une électricité décarbonée, fiable, pilotable, avec une flexibilité que n’ont pas les grosses centrales : ils peuvent se construire vite et s’assemblent en groupe selon la puissance désirée. Les nôtres peuvent servir à produire de l’hydrogène et autres carburants durables, pour la cogénération ou pour remplacer les centrales à charbon ou à gaz, polluantes.

Propos recueillis par Pierre Thouverez

« Le refroidissement à l’air nous assure une totale autonomie et une plus grande sûreté »

Lauréat du dispositif “Réacteurs Nucléaires Innovants” mis en place via le plan d’investissements France 2030, Blue Capsule, fondé fin 2022, développe un réacteur nucléaire à haute température de 150 MWth, basé sur un caloporteur en sodium. Le projet couple deux technologies matures, afin d’associer pour la première fois le combustible intrinsèquement sûr des réacteurs nucléaires à haute température, constitué de microparticules Triso, au sodium liquide à haute température (supérieure à 700 °C) comme caloporteur.

Edouard Hourcade, Président et co-fondateur de Blue capsule, et Domnin Erard, architecte de Blue Capsule, ont expliqué aux Techniques de l’Ingénieur ce qui fait la spécificité du projet de réacteur par la start-up, ainsi que les applications industrielles envisagées.

Techniques de l’Ingénieur : pouvez-vous revenir sur la genèse de Blue Capsule ?

Edouard Hourcade : Blue Capsule est un « enfant » d’Astrid, qui était le prototype GEN 4 réacteur à neutrons rapides refroidi au sodium du CEA, programme sur lequel j’ai travaillé durant 5 ans en tant que responsable sûreté notamment. Quand le projet Astrid s’est terminé, j’ai été sollicité pour réfléchir aux moyens de valoriser la chaleur produite directement, et non pas l’électricité comme cela était prévu initialement. La chaleur produite par Astrid était à 550 degrés : développer des réacteurs à haute température, entre 650 et 1000 degrés, me paraissait donc plus adapté aux besoins des industriels.

Cela correspondait aussi à une période de renouveau du nucléaire dans le monde, et de nombreux nouveaux concepts sont apparus, j’ai donc étudié tout cela pour proposer le concept de Blue Capsule, qui est un mélange entre deux technologies mâtures qui existent déjà : les HTR et les réacteurs à neutrons rapides refroidis au sodium (RNR-NA).

Comment fonctionne ce réacteur ?

Domnin Erard : L’idée derrière Blue Capsule est de tirer la quintessence de technologies qui existent déjà, à savoir les RNR-NA et les HTR, avec l’objectif de garder la haute température.

La modération se fait par des blocs de graphite hexagonaux, assemblés de manière géométrique. Nous n’utilisons pas le sodium comme un réfrigérant direct du combustible. Nous le faisons circuler autour des enveloppes protectrices du graphite, et par sa très bonne capacité de réfrigération, il nous permet de concevoir un réacteur plus petit, plus ramassé. Cela nous permet à la fois d’obtenir des hautes températures, adaptées aux besoins des clients industriels, tout en ayant un cœur de taille raisonnable.

L’autre ingrédient essentiel au niveau du cœur est le combustible. Dans la matrice graphite nous utilisons le combustible Triso, déjà produit en grandes quantités et qualifié de manière assez large. Ce sont de toutes petites billes d’environ un millimètre de diamètre, constituées de trois couches qui leur confèrent une grande robustesse, et assemblées dans de petites pastilles que l’on vient empiler les unes sur les autres pour les glisser dans la matrice de graphite.

Le combustible est refroidi via le sodium, même si ce dernier n’est pas directement en contact avec le graphite. Le sodium vient ensuite, grâce à un échangeur sodium-air, réchauffer l’air jusqu’à 700 degrés.

Quel est l’avantage d’utiliser l’air comme source froide en boucle ouverte ?

Domnin Erard : La boucle en air est ouverte pour des raisons de simplicité, de sûreté, et car cela confère des avantages au niveau industriel. Nous prélevons de l’air ambiant dans l’environnement, qui est réchauffé, et c’est cet air chaud qui est valorisé directement en tant que tel, soit en tant que capacité de génération d’électricité, si le client a besoin d’un mix chaleur-électricité. Cet air chaud peut également permettre la production de vapeur.

Le produit que nous vendons est donc un mix entre air chaud, vapeur à différentes conditions de pression et de température, et électricité, selon les demandes des clients industriels.

Même si l’électricité n’est pas le cœur du produit, il est important de pouvoir la produire, pour être indépendant énergétiquement et que le cœur, d’un point de vue électrique, n’ait pas besoin d’un raccordement au réseau. De même, le refroidissement à l’air nous assure une totale autonomie et une plus grande sûreté – l’air est disponible partout -, par rapport aux réacteurs refroidis à l’eau, qui sont la norme aujourd’hui, sachant que l’accès à l’eau pour les clients industriels n’est pas toujours aisé.

Quels sont les challenges technologiques inhérents au développement de Blue Capsule ?

Edouard Hourcade : La plupart des composants qui constituent notre réacteur sont matures technologiquement, par contre leur niveau d’intégration est plutôt bas, puisque c’est la première fois qu’un réacteur Triso refroidi au sodium est développé.

C’est à ce niveau que se situe notre plus gros challenge, notamment lié à notre choix de séparer le sodium du combustible et d’utiliser une convection naturelle.

Domnin Erard : Dans les démonstrations de sûreté, ce ne sont pas tant les composants qui peuvent poser problème mais plutôt les systèmes. Ces derniers sont très complexes, interconnectés, et il n’est pas toujours facile de faire la démonstration de leur parfaite robustesse.

Pour remédier à cela, nous avons fait le choix de mettre au point des systèmes les plus simples possibles. Par exemple, le choix de la convection naturelle, s’il assure une grande robustesse par rapport aux risques de pannes et en termes de variabilité de la défaillance, doit faire l’objet d’une démonstration qui prouve cela sur l’ensemble des conditions de fonctionnement.

Quelle est votre stratégie pour réaliser cette démonstration ?

Domnin Erard : Nous mettons actuellement en place une installation expérimentale à court terme, qui doit démontrer notre compréhension sur une gamme relativement large de fonctionnement de la convection naturelle du circuit primaire sodium. Il nous faut prouver que nous sommes capables de modéliser cette convection, de la calculer de manière réaliste et de la mesurer.

Avec l’objectif de montrer que le circuit primaire, qui n’a ni pompe ni système de réglage, se comporte naturellement correctement, et de manière robuste. Cela inclut le fait que si l’on change une donnée d’entrée, il y a un rééquilibrage automatique propre à la convection naturelle.

A la suite de cette expérience, qui va s’étendre sur près d’un an, nous passerons à la seconde étape qui consiste à mettre au point un prototype non nucléaire, proche de l’échelle un du réacteur. Il ne sera pas à l’échelle un en termes de puissance, puisque nous visons environ 10% (de la puissance) du réacteur que nous vendons, qui sera de 150 MWth. Ce prototype doit nous permettre de montrer que nous sommes en capacité de créer des systèmes simples, suffisamment peu dépendants les uns des autres pour éviter des effets complexes d’interactions entre ces derniers.

Toute la partie nucléaire sera simulée, afin que les futurs opérateurs soient en capacité de se former et que l’exploitant puisse avoir une vision quasi complète de l’installation.

Quels sont les clients industriels pour Blue Capsule ?

Edouard Hourcade : Nous visons des clients ayant besoin de puissances de l’ordre de la centaine de MW ainsi que de hautes températures.

Cela peut donc concerner des marchés de type plug in, où notre installation vient remplacer un produit déjà utilisé sur site afin de décarboner le procédé. Par exemple sur des sites où l’on produit de la soude, ce qui nécessite des quantités très importantes de vapeur. Un autre exemple caractéristique est le vaporeformage du méthane, qui est aujourd’hui le moyen le plus utilisé pour produire de l’hydrogène, et qui nécessite beaucoup de chaleur également.

Cela concerne plus généralement des clients industriels qui ont besoin de vapeur et d’électricité décarbonée.

Nous avons ensuite des marchés plus prospectifs, comme les déserts énergétiques où les sources froides sont inexistantes, ou les activités de dessalement de l’eau. Il s’agit là de marchés à horizon 20/30 ans.

Propos recueillis par Pierre Thouverez

L’industrie européenne du solaire en difficulté

La crise touche de nouveau la filière européenne du photovoltaïque en construction. Alors que l’Europe réfléchit à ouvrir une enquête sur les subventions de la Chine à ses panneaux solaires, le Conseil européen de l’industrie solaire (ESMC) demande à la Commission européenne des mesures d’urgence.

Cette organisation professionnelle, qui représente les fabricants européens de panneaux solaires, met en garde contre les risques de délocalisation à l’étranger et de faillite de ses membres dans les deux prochains mois. « Nous avons besoin d’un soutien politique et financier actif dès maintenant », avertit Johan Lindahl, secrétaire général de l’ESMC. « Sans mesures d’urgence, nous sommes sur le point de perdre plus de 50 % des capacités modernes de production de modules solaires photovoltaïques de l’UE au cours des deux prochains mois », alerte Žygimantas Vaičiūnas, directeur politique à l’ESMC.

Des surplus de panneaux solaires à écouler

La Chine détient actuellement près de 80 % de la production mondiale d’énergie solaire. L’ESMC estime qu’il y a un stock de modules photovoltaïques importés de Chine, dans les ports et entrepôts européens, qui attend d’inonder le marché européen à bas prix. Compris entre 140 et 170 millions de modules, ce stock représenterait une capacité de 70 à 85 gigawatts (GW).

À titre de comparaison, l’UE a installé environ 56 GW de nouvelles capacités solaires, en 2023. Selon l’ESMC, la capacité de production des modules photovoltaïques au niveau européen s’élève à 11 GW sur le papier. Mais « on estime que seulement la moitié environ de cette capacité est opérationnelle » et « environ 2 GW seulement de modules ont été produits par les fabricants européens de modules photovoltaïques en 2023 en raison de la faiblesse des prix des modules », calcule l’ESMC.

L’offre excédentaire a en effet conduit à un effondrement de ces prix. « Les coûts des panneaux solaires bas de gamme sur le marché de gros sont autour de 9 centimes par watt-crête fin janvier 2024, en baisse de 52,6 % par rapport à fin janvier 2023 », partage David Gréau, secrétaire général d’Enerplan, syndicat français des professionnels de l’énergie solaire. Cela a entraîné une baisse similaire de 53,3 % sur les panneaux « mainstream » et de 42,5 % sur les panneaux « haute efficacité », partage-t-il, évoquant les chiffres de pvXchange. Cet effondrement laisse les fabricants européens avec d’importants stocks d’invendus. Selon Žygimantas Vaičiūnas, ce stock représenterait environ 0,8 GW de capacités solaires.

Défendre la production européenne

La Commission européenne projette pourtant de produire 40 % des panneaux solaires installés en Europe en 2030. Et ce, alors que l’Europe entend tripler sa capacité solaire à cet horizon, la faisant passer de 260 GW à 750 GW. Mais la situation actuelle compromet grandement cette vision et les annonces de fermetures de sites de production s’enchaînent. L’Europe pourrait ainsi devenir complètement dépendante des importations de modules solaires photovoltaïques.

Dans les faits, l’ESMC appelle à établir un mécanisme de rachat de leurs stocks accumulés dans l’UE et à financer les projets utilisant des modules solaires photovoltaïques produits par l’UE. Le Conseil européen de l’industrie solaire demande aussi de créer un cadre temporaire pour les deux à trois ans à venir, avant l’entrée en vigueur des mesures prévues dans le cadre du règlement pour une industrie « zéro net » et du Règlement sur l’interdiction sur le marché de l’Union des produits issus du travail forcé. Ce cadre vise notamment à réserver 30 % des appels d’offres d’énergies renouvelables européens (ou 6 GW) aux produits fabriqués en Europe. Il doit être validé par le Parlement en avril prochain et sera effectif 18 mois après l’entrée en vigueur du règlement.

Mais il serait aussi dangereux de fermer complètement les frontières aux panneaux photovoltaïques chinois, car illusoire actuellement de penser atteindre les objectifs européens sans ces premiers. « Étant donné que nous dépendons actuellement de façon très importante des importations pour atteindre les objectifs de déploiement de l’énergie solaire de l’UE, toute mesure potentielle doit être mise en perspective avec les objectifs que nous nous sommes fixés en matière de transition énergétique », a déclaré Mairead McGuinness, commissaire européenne chargée des services financiers, lors de la session plénière du Parlement européen le 5 février.

« Nous nous inscrivons dans un écosystème existant »

Cet appel à projets vise à promouvoir l’émergence de nouveaux acteurs tricolores capables de concevoir des réacteurs nucléaires de quatrième génération, permettant, entre autres, d’améliorer la gestion du cycle de vie des substances radioactives.

La spécificité d’HEXANA, qui veut industrialiser des réacteurs modulaires avancés (AMR) à cogénération, s’illustre par le parcours des trois ingénieurs à la base du projet.

Sylvain Nizou, CEO d’HEXANA, est un ingénieur qui a longtemps évolué dans le domaine de l’énergie. Il est spécialiste des questions énergétiques et en particulier des questions de captage et de valorisation du CO2, mais aussi de la décarbonation de l’industrie en général. Partant du constat que l’innovation allait permettre, à terme, de développer des technologies de valorisation du CO2 efficaces, de production d’hydrogène ou de nouveaux carburants pour le secteur aérien par exemple, la problématique pour ces dernières consiste à bénéficier d’un accès à des quantités considérables d’énergie décarbonée, sous la bonne forme et en continu.

Paul Gauthé, CTO d’HEXANA, est aussi ingénieur, expert de la filière nucléaire à neutrons rapides, et a travaillé sur l’exploitation de Phénix et sur le projet ASTRID (prototype de réacteur de quatrième génération rapide refroidi au sodium). Enfin, Jean-Baptiste Droin, CIO d’HEXANA, est également un ingénieur expert en sûreté, conception et fonctionnement des réacteurs nucléaires avancés et de leurs couplages à de nouveaux usages au service des besoins industriels.

C’est de la rencontre entre la compréhension des besoins énergétiques nécessaires à la décarbonation de l’industrie et les technologies du nucléaire de quatrième génération en capacité de répondre à ces besoins qu’a émergé HEXANA.

Sylvain Nizou nous explique en quoi consiste le projet de réacteur nucléaire avancé porté par HEXANA, et comment ce dernier peut répondre spécifiquement aux enjeux de décarbonation de l’industrie tout en offrant un modèle de développement durable de l’énergie nucléaire.

Techniques de l’Ingénieur : Quels sont les concepts à la base de la solution technologique développée par HEXANA ?

Sylvain Nizou : HEXANA travaille sur la conception d’un système de réacteur à neutrons rapides à caloporteur sodium, dit RNR-Na, associé à un dispositif de stockage d’énergie, qui permet de fournir à la demande de la chaleur jusqu’à 500 degrés et de l’électricité pour l’industrie.

La technologie des RNR-Na (réacteurs à neutrons rapides refroidis au sodium) est connue depuis plus de soixante-dix ans dans les grands pays leaders de l’énergie nucléaire. La France a exploité pendant 35 ans le réacteur expérimental Phénix, puis développé, construit et exploité le plus gros RNR-Na au monde – (Superphénix), démontrant ainsi qu’il était possible de développer la technologie RNR à l’échelle industrielle et en grande puissance.

Ensuite, le projet ASTRID visant à développer un démonstrateur de réacteur de quatrième génération a permis de relancer cette filière RNR-Na, de renouveler les compétences, les moyens de calculs, et de se remettre à niveau en vue d’un déploiement industriel.

Si le projet ASTRID ne s’est pas poursuivi en 2019, tout ne s’est pas arrêté là : des analyses, des stratégies internationales, et des designs de nouveaux réacteurs ont été développés à partir des connaissances accumulées sur le projet ASTRID, et poursuivis depuis 2019.

Nous avons donc travaillé, pendant trois années au sein du CEA, sur un nouveau concept, pour aboutir à la création d’HEXANA. Il y a donc une forme de continuité sans la volonté de refaire ASTRID, puisque HEXANA bénéficie de tout le travail réalisé en amont par la filière nucléaire sur les RNR-Na depuis des décennies.

Notre volonté est de développer un objet innovant, un SMR avancé (AMR), avec toutes les promesses que cela véhicule en termes de temps de construction, de maîtrise des coûts, de compétitivité, d’utilisation beaucoup plus large par rapport aux réacteurs traditionnels destinés à produire de l’électricité pour un réseau national. Et en particulier cette capacité à produire directement et en même temps de la chaleur à haute température et de l’électricité de manière flexible, selon les besoins : le monde industriel a besoin d’électricité mais aussi de chaleur. Et à l’heure actuelle cette chaleur est massivement générée à base de combustibles fossiles. Il est donc très pertinent d’extraire cette chaleur des RNR-Na, avec une valorisation qui est comprise entre 95 et 98%.

Comment la chaleur produite est-elle stockée ?

La chaleur est stockée au sein de sels fondus, c’est une technologie très spécifique empruntée au monde de l’énergie solaire à concentration, que nous sommes les seuls à développer en France et à intégrer à un AMR. Ce stockage de chaleur qui offre une flexibilité sur la puissance délivrée va alimenter soit une turbine pour produire de l’électricité, soit directement l’industriel qui a besoin de cette chaleur.

Quel combustible est utilisé ?

Le réacteur utilise du combustible nucléaire MOX pour son fonctionnement. Il s’agit d’un mélange entre du plutonium et de l’uranium appauvri. Il est fabriqué à partir de matières issues du retraitement des combustibles usés d’EDF et de coproduits de la filière d’enrichissement. Cette démarche permet d’engager la fermeture du cycle du combustible nucléaire et de réduire la dépendance de la filière nucléaire aux ressources minérales importées.

Quels sont les défis en termes d’innovation ?

Nous faisons le choix de valoriser les acquis du passé et d’innover là où cela est nécessaire. Il y a un immense défi sur le passage à l’industrialisation d’un réacteur RNR-Na modulaire standardisé : il y a des composants nouveaux, un design également totalement nouveau et une organisation industrielle dont la filière nucléaire n’a pas encore l’expérience.

Mais nous faisons le pari de ne pas innover sur les aspects du projet qui fonctionnent et qui ont déjà été validés par les autorités de sûreté : un réacteur de conception intégrée comme Phénix et Superphénix, un combustible MOX qualifié, des aciers aussi qualifiés pour tous les composants. Nous reprenons ainsi certaines briques technologiques mâtures, que l’on intègre dans notre réacteur, qui produit une puissance de 400 MW thermiques. Il est possible de convertir cette puissance thermique en électricité, avec un rendement de 42%, soit environ 300 MW électriques pour une paire de réacteurs fournissant un total de 800 MW thermiques.

Nous avons décidé d’associer ces réacteurs par deux (ou par quatre selon les besoins du client) pour être en mesure d’assurer une continuité de service. Quand l’un des réacteurs doit être rechargé en combustible ou mis en maintenance, l’autre assure au moins la moitié du besoin énergétique. Cela permet au client de bénéficier d’un approvisionnement continu en énergie, et nous offre la possibilité de mutualiser certains systèmes pour faire des économies sur les coûts de construction. Nous n’innovons que là où cela est nécessaire pour aller vite. D’abord parce que cela nous permet de concentrer nos efforts d’ingénierie sur le défi de l’industrialisation d’un objet modulaire que l’on peut produire en série, mais aussi car nous ne disposons pas d’outils de R&D pour faire des irradiations de nouveaux matériaux, de nouveaux systèmes. Nous ne pouvons donc pas nous engager sur la qualification de nouveaux objets, ce qui nécessite beaucoup de temps. Pour autant, une fois les premiers réacteurs démarrés, nous serons les premiers à disposer de capacité de R&D pour améliorer notre technologie et accroitre notre compétitivité avec notre tête de série.

Vous vous appuyez également sur des acteurs historiques de la filière nucléaire.

En effet. Nous nous inscrivons dans un écosystème existant, avec une supply chain qui, même si elle a besoin d’être renforcée et renouvelée, existe déjà : nous travaillons avec EDF, avec le CEA, avec Framatome, ORANO, BOUYGUES CONSTRUCTION et EGIS, entre autres, pour valoriser ce savoir-faire prisé et la propriété intellectuelle historique.

En capitalisant sur les acquis du passé, quand bien même nous avons d’énormes défis sur des nouveaux composants comme des échangeurs, des pompes, des designs, des procédés de fabrication et d’industrialisation, nous sommes en mesure d’avancer vite. Notre première tête de série industrielle est prévue pour 2035, et nous n’avons pas besoin de passer par un prototype et un démonstrateur nucléaire. Nous passons directement à une tête de série industrielle, ce qui va nous faire gagner du temps par rapport à d’autres acteurs de la filière qui doivent faire approuver tous les nouveaux éléments nucléaires de leur système et passer avant tout par des prototypes nucléaires voire non-nucléaires.

De nombreux acteurs internationaux du nucléaire s’intéressent aujourd’hui aux RNR-Na…

En effet. Aujourd’hui, tous les grands pays qui font du nucléaire sont dans la course au RNR-Na. Les Etats-Unis ont lancé il y a dix ans TerraPower, qui développe le projet Natrium, dont le système de stockage de la chaleur sous forme de sels fondus est assez similaire. Il ne s’agit pas là d’un SMR, mais d’un réacteur de 350 à 500 MW électriques pas particulièrement destiné à fonctionner en cogénération, nous ne sommes donc pas en concurrence avec eux.

La Chine dispose d’un réacteur expérimental et construit actuellement 2 réacteurs de 600 MW thermiques. L’Inde est également en train de développer des RNR-Na tout comme le Japon.

Enfin, la Russie reste leader sur ce créneau : elle exploite aujourd’hui un réacteur expérimental, et deux réacteurs industriels de 600 et 800 MW électriques, appuyés par une filière MOX et continue de développer d’autres RNR de puissance.

Nous ne sommes donc pas les seuls sur ce créneau, mais nous disposons aujourd’hui en France de compétences et de connaissances sur ces RNR-Na que le monde entier nous envie.

Comment travaillez-vous avec les industriels qui pourraient être amenés à utiliser la solution que vous développez ?

Notre système particulier du stockage de chaleur, et de conversion d’énergie en aval, est conçu pour être spécifiquement adapté et flexible par rapport aux différents usages identifiés. C’est un travail que nous menons en très grande proximité avec le monde industriel. Nous engageons des études de cas d’usages avec les acteurs des secteurs de la chimie, de l’aérien, du maritime, de l’acier, du ciment, de l’hydrogène et des carburants de synthèse. Nous travaillons avec eux pour identifier comment HEXANA peut répondre à leurs besoins. Quel est leur rythme de consommation, la part de chaleur et d’électricité dont ils ont besoin ? A quelle température utilisent-ils la chaleur ? Est-ce que leur consommation électrique est continue ? Y a-t-il des variations fortes de consommation ? Un tel système peut-il offrir d’autres solutions comme la capture de CO2 ou le dessalement d’eau de mer ?

Nous nous adressons aussi, en termes de clients, au réseau électrique de manière globale : dans les projets que nous imaginons, le fait de pouvoir revendre de l’électricité au réseau au moment où il en a le plus besoin représente une vraie valeur, a fortiori dans un contexte où les énergies renouvelables intermittentes vont prendre une place de plus en plus importante dans les mix énergétiques appelant des capacités de flexibilité comme celles offertes par le système HEXANA.

A ce niveau, notre système de stockage d’énergie est un service rendu au réseau, très complémentaire, en faveur de l’intégration forte des énergies renouvelables et à la réduction de l’utilisation des combustibles fossiles.

Propos recueillis par Pierre Thouverez

Spore.bio accélère les tests bactériologiques

En janvier 2023, Maxime Mistretta, ingénieur à l’Institut Pasteur, et Amine Raji créent la start-up Spore.bio. « Je travaillais auparavant pour de grands groupes agroalimentaires comme Nestlé. J’étais très frustré des outils utilisés pour contrôler l’absence de contaminants dans les produits. Les tests pour quantifier les bactéries ou les moisissures nécessitent plusieurs jours, le temps de les cultiver dans des boîtes de pétri. Dans certains cas, quand les entreprises font appel à des prestataires extérieurs, les vérifications peuvent prendre 20 jours », remarque Amine Raji, CEO de Spore.bio. Forts de ce constat, les partenaires développent donc une technologie de microbiologie industrielle capable de réduire considérablement la durée d’analyse et ainsi éviter les 420 000 décès annuels attribués à des intoxications alimentaires dans le monde. Un troisième cofondateur, l’ingénieur Mohamed Tazi, expérimenté dans la gestion de start-up, s’est ajouté à l’équipe en tant que COO. Quelques mois après sa création, Spore.bio lève 8 millions d’euros pour le renforcement de son équipe. Aujourd’hui, elle regroupe 15 personnes dans deux laboratoires parisiens.

Associer microbiologie et IA

La technologie proposée par Spore.bio est à la croisée entre l’optique et l’intelligence artificielle. « On parle beaucoup d’IA à travers les chatbots par exemple, mais il existe des applications bien plus concrètes, qui mènent à la résolution de problèmes industriels », assure le CEO.

La start-up récupère des échantillons de différents industriels de l’agroalimentaire, de la cosmétique ou de la pharmacie. Certains sont contaminés, d’autres le sont artificiellement par les équipes de Spore.bio. L’échantillon passe ensuite dans l’instrument qui détecte le signal spectral des bactéries. En parallèle, il est cultivé dans une boîte de pétri pour obtenir des données de référence. Les résultats recueillis permettent d’entraîner un modèle d’intelligence artificielle basé sur le machine learning. « Notre technologie détecte des microorganismes en quelques secondes avec des niveaux de performances semblables, voire meilleurs que ceux des boîtes de Pétri », se réjouit Amine Raji. La start-up a déjà converti cette preuve de concept en un prototype industriel qui est en cours d’installation chez trois entreprises en Europe.

L’outil est compact et simple d’utilisation. « On peut le poser sur une paillasse et il ne nécessite qu’un raccord à l’électricité et une connexion internet pour être relié à notre base de données. L’industriel nous loue la machine et il peut réaliser autant de tests qu’il le désire », précise le CEO. Avec le déploiement de ces machines, l’entreprise va se qualifier sur le terrain, valider ses performances et enrichir sa base de données. Une première étape vers la commercialisation de leur instrument, qui permettra aux industriels de s’assurer de la qualité de leur produit de manière rapide.

Dans le domaine, les concurrents les plus proches de Spore.bio se basent sur des solutions biologiques comme la PCR qui recherchent l’ADN ou l’ARN des bactéries dans l’échantillon. Mais ces méthodes nécessitent au moins 48 h, avec d’importantes contraintes matérielles et techniques. « Nous sommes vraiment la première start-up à développer ce type de technologie pour ce genre d’application », se félicite Amine Raji. Il poursuit : « Nous cherchons à recruter quinze personnes pour faire avancer l’industrialisation et le suivi opérationnel de nos clients. Ceux qui ont un background technique sont les bienvenus ! »

Pierre Jaeger, IBM quantum EMEA : « Le principal défi avec le quantique est d’identifier les vrais cas d’usage »

Diplômé Polytech Sorbonne en 2005, spécialité Mathématique et Informatique Numérique, Pierre Jaeger compte plus de 17 ans d’expérience et a débuté sa carrière au CEA dans l’informatique scientifique et les codes parallèles, puis chez CSSI sur les plateformes scientifiques du CEA. Il a ensuite rejoint en 2006 IBM Technology Services pour y occuper un rôle d’IT Specialist, puis d’IT Architect.

Après 30 ans passés chez Accenture en tant que responsable France et Benelux de l’activité « Products », Alex Bauer a été nommé en octobre 2021 directeur général d’IBM Consulting (anciennement IBM Global Services) et d’IBM Interactive en France.

Techniques de l’Ingénieur : IBM Quantum est le leader mondial de la construction de matériel quantique. Votre feuille de route est un plan clair et détaillé. Quelles sont les dernières avancées ?

Pierre Jaeger - IBM
Pierre Jaeger Quantum Strategic Partnership Executive chez IBM quantum EMEA – Copyright: IBM France

Pierre Jaeger : L’informatique quantique continue de progresser chez IBM grâce notamment à des partenariats avec différentes universités, dont celles de Tokyo et de Chicago. En juin 2023, nous avons ainsi annoncé des partenariats visant à créer un « superordinateur quantique ». Disponible d’ici 2030, ce dispositif d’une puissance de calcul de 100 000 qubits permettrait d’élargir toutes les applications rendues possibles par le quantique. Nous n’allons cependant pas remplacer les calculateurs « High Performance Computing » (calcul haute performance – HPC), mais nous allons faire du calcul HPC hybride. Et cela reste un projet de R&D à long terme. Notre objectif est de disposer de ce super calculateur quantique à horizon 2030. Pour relever les différents défis, nous avons besoin de partenaires (matériels, logiciels) et d’industriels comme EDF pour développer les différents cas d’usage identifiés. S’il n’y a pas de cas d’usage, le quantique ne servira pas à grand-chose.

La seconde annonce majeure autour de ces partenariats a eu lieu en décembre dernier : le Japon, les États-Unis et la Corée du Sud se sont associés pour créer un consortium visant à former 40 000 étudiants. Il est important de développer un écosystème global et des compétences.

La R&D reste-t-elle une priorité pour IBM ?

Pierre Jaeger : Même si nous avons une approche industrielle du quantique, la R&D fait en effet partie de notre ADN et nous avons la chance d’avoir en interne des experts qui ont une grande expérience des technologies de qubits. Nous considérons que pour répondre aux besoins et tenir notre roadmap, la technologie supraconducteur que nous avons retenue est la meilleure. Cela ne signifie pas pour autant qu’IBM se refuse de travailler en écosystème ouvert. Nous avons toujours eu cette philosophie d’open science. D’ailleurs, nous avons publié notre « Software Development Kit », Qiskit, sous une licence Apache, sûrement la plus permissive. Qiskit accompagne ainsi le développement de plein de projets, y compris des startups travaillant sur des solutions concurrentes. Il faut favoriser un écosystème vivant.

Est-ce que IBM a identifié d’autres cas d’usage que ceux présentés par EDF ?

Alex_Bauer-IBM
Alex Bauer, directeur général IBM Consulting France. Copyright: IBM France

Alex Bauer : Nous constatons qu’il y a les mêmes que ceux évoqués par Stéphane Tanguy d’EDF. Le quantique présente aussi un intérêt pour le développement de nouveaux médicaments. Nous avons d’ailleurs un partenariat avec Moderna pour marier la puissance du quantique avec tout ce que permet l’IA et la GenAI. De façon générale, le quantique permettrait aussi d’améliorer les modèles de l’IA et donc de créer de nouveaux usages. C’est par exemple le cas dans le secteur bancaire pour identifier les fraudes. Autre cas d’usage : l’optimisation des parcours des cargos marchands ou de gaz liquéfié. Notre priorité est de bien intégrer le quantique dans une architecture informatique centrée autour des datas et du sourcing de ces données. Il faut travailler cette maturité pour passer d’une valeur de R&D à une valeur business.

Les défis technologiques sont multiples. Il y en a au niveau des logiciels, des algorithmes, de la cryogénie, de la consommation d’énergie et bien évidemment, de la physique des qubits. Quels sont les plus importants ?

Pierre Jaeger : le premier défi n’est pas technologique, mais algorithmique. Il faut identifier les bons cas d’usage qui produisent de la valeur et ensuite nous devrons « l’écrire » en informatique quantique. Et ce n’est pas si simple du tout, car il faut de l’ingénierie ! Après, d’un point de vue constructeur informatique, chez IBM, nous avons tout ce qu’il faut pour continuer la roadmap de développement de manière assez sereine. Nous ne voyons pas de blocage majeur. Il y a néanmoins des points essentiels comme la cryogénie. Ce n’est pas la capacité à faire du froid qui est compliquée, c’est de passer le froid à l’échelle qui demande des technologies différentes. C’est facile de produire 10 à 50 qubits dans un coin et de ne jamais se poser la question du passage à l’échelle. Notre première machine quantique dans le cloud en 2016 n’était ainsi pas très stable d’un point de vue système, malgré de bons qubits. Nous avons depuis grandement amélioré la stabilité des systèmes (au niveau de l’électronique et du logiciel) pour répondre à cet enjeu majeur des industriels.

Avec l’arrivée de l’informatique quantique, certains prédisent la fin de la confidentialité des données échangées en permanence entre les entreprises notamment. Qu’en pensez-vous ?

Pierre Jaeger : je vais paraphraser une personne travaillant pour une agence de sécurité que je ne peux pas citer : « Quand je pense à l’informatique quantique pour l’usage, je suis conscient que c’est de la R&D. Quand je pense au quantique comme une menace, j’y vois une réalité ». Nos clients affichent une très forte demande sur la partie cryptographie post-quantique, car il faut du temps pour appliquer à l’échelle ces changements et processus. Ce sont des méthodologies complexes.

Alex Bauer : nous travaillons beaucoup sur la crypto agilité de manière à pouvoir anticiper les risques. Cette agilité représente un prérequis au même titre que le travail sur les datas, des données exploitables étant un prérequis pour le succès des projets d’IA, ou de quantique.

Un virus qui provoque des mutations chez les insectes pour faciliter sa dissémination

Cette découverte est importante, car elle permet de mieux comprendre la coévolution des virus de plantes avec leurs insectes vecteurs, un élément essentiel pour réduire les impacts des épidémies provoquées par ces virus sur les productions agricoles.

Un virus qui cible uniquement les mâles

Le fait que le dimorphisme des ailes des insectes vecteurs soit un facteur déterminant pour la dispersion des virus sur de longues distances et de grandes surfaces est un phénomène connu.

En revanche, si les effets de ces virus sur la plasticité des ailes le sont aussi, les mécanismes moléculaires qui sont à l’œuvre demeurent mal compris.

Dans une étude publiée récemment dans la revue PNAS, une équipe de chercheurs chinois[1] explique le mécanisme par lequel le virus de la rayure du riz (aussi appelé striure du riz, ou encore RSV), très répandu en Asie, modifie directement la taille des ailes de Laodelphax striatellus, un insecte de la famille des Delphacidae.

Ils ont notamment découvert une particularité : le RSV induit exclusivement des modifications sur les ailes des individus mâles. Quelle en est la cause ? Un gène régulateur du développement des ailes, nommé « Encounter » qui agit, au stade larvaire, sur la transduction de l’insuline et qui est fortement exprimé chez les mâles infectés.

Les virus, pas toujours ennemis et parfois vecteurs d’évolution

Outre les applications directes en phytopathologie et en agriculture, cette étude nous rappelle à quel point ces concentrés de matériel génétique et de protéines que sont les virus sont trop souvent mal compris. Selon une autre étude, au moins 1,7 million de virus encore inconnus seraient d’ailleurs présents dans la nature !

Il faut aussi savoir que si les virus sont des parasites intracellulaires qui utilisent le matériel génétique d’une cellule pour se répliquer, leurs effets ne sont pas forcément néfastes. On peut même affirmer qu’ils jouent un rôle majeur dans le processus d’évolution.

En effet, on sait qu’après avoir infecté une cellule, certains virus sont capables de se mettre en sommeil ou même d’intégrer leur génome à celui de la cellule. Dans le génome humain, il y aurait environ 500 000 génomes rétroviraux, acquis il y a plus de 150 000 ans. Si la plupart de ces gènes d’origine virale ne s’expriment plus aujourd’hui, certaines séquences jouent encore un rôle majeur dans nos vies. C’est notamment le cas d’une protéine d’enveloppe virale présente dans un tissu du placenta et qui rend possibles les échanges entre le sang de la mère et celui du fœtus, rien que ça !

Pour en revenir aux végétaux, il a aussi été prouvé que certains virus de plantes qualifiés de persistants étaient bénéfiques pour la plante. Par exemple, la présence d’un partitivirus persistant chez le poivron limite la propagation d’un virus pathogène appelé mosaïque du concombre. Et parfois, par accident, cette présence de virus persistants conduit même à une intégration dans le génome végétal.

Il nous reste énormément à apprendre de l’étude des virus et de leurs interactions avec le vivant. Il est certain que les années à venir seront riches en enseignements !


[1] University of Chinese Academy of Sciences et Institute of Zoology (Chinese Academy of Sciences)

Petits réacteurs nucléaires : quelles technologies pour quels usages ?

Il convient tout d’abord de définir ce qu’est un réacteur modulaire. Deux types de solutions technologiques sont aujourd’hui développées, à travers la centaine de projets actuellement en cours à travers le monde : les SMR (Small Modular Reactor) et les AMR (Advanced Modular Reactor).

Les AMR, comme les SMR, sont de petits réacteurs nucléaires modulaires. Par modulaire, il faut comprendre que ces réacteurs peuvent être industrialisés pour être produits à grande échelle. C’est là la première révolution par rapport au nucléaire historique : Les petits réacteurs modulaires sont destinés à être utilisés dans des contextes très spécifiques, pour répondre à des besoins en énergie – chaleur, vapeur, électricité – très locaux. Cela peut concerner les besoins d’un site industriel gourmand en énergie, œuvrant dans des secteurs tels que la sidérurgie, la chimie ou l’aciérie par exemple. Cela peut aussi concerner un groupement d’industriels, de bâtiments publics, regroupés sur une zone géographique et ayant des besoins énergétiques pouvant être comblés par un (ou plusieurs) réacteur de petite taille. On l’aura compris, les AMR et SMR fournissent moins de puissance qu’un réacteur nucléaire classique, et sont destinés à être produits en série pour être utilisés massivement, afin de décarboner des usages industriels aujourd’hui fortement émetteurs de CO2. Ils pourraient à cet effet être très utiles pour alimenter des procédés de production d’hydrogène par exemple, ou de carburants verts.

En termes de fonctionnement, les AMR utilisent des technologies développées dans les années 1960 regroupées sous le terme de nucléaire de quatrième génération. Parmi ces technologies, trois font l’objet actuellement de travaux pour le développement des futurs AMR

  • Les réacteurs à neutrons rapides à caloporteurs sodium ou plomb, dont la particularité est leur capacité à consommer pour leur fonctionnement des matières nucléaires issues du retraitement des combustibles.
  • Les réacteurs à haute ou très haute température, capables de fournir à l’industrie de la chaleur jusqu’à 900 degrés.
  • Les réacteurs à sels fondus, qui regroupent de nombreux concepts, dont la possibilité d’utiliser des matières issues du retraitement de combustibles usés.

Les SMR, à la différence des AMR, sont refroidis à l’eau. La stratégie liée au déploiement de ces petits réacteurs est basée sur trois piliers : D’abord la volonté d’utiliser les combustibles et plus généralement les matières nucléaires avec plus d’efficacité, pour faciliter leur retraitement et produire moins de déchets. Ensuite, les petits réacteurs en développement doivent permettre de produire des unités ayant un haut degré de sûreté, mais aussi une compétitivité économique accrue.

En France, le programme d’investissement France 2030, et plus particulièrement son volet « réacteurs nucléaires innovants », ont permis à plusieurs start-up françaises d’être soutenues pour développer des SMR et des AMR, alors que la compétition mondiale sur ces outils industriels innovants est extrêmement forte.

Ainsi, parmi les projets français, portés par des jeunes pousses comme NAAREA, NEWCLEO, JIMMY ENERGY, RENAISSANCE FUSION, CALOGENA, HEXANA, OTRERA NUCLEAR ENERGY ou encore BLUE CAPSULE, toutes lauréates de l’appel à projet porté par France 2030, travaillent d’arrache pied pour développer et faire valider leurs concepts, sur des échelles de temps assez courtes, étant donné les impératifs européens et mondiaux en matière de réduction des émissions carbone.

La tête de gondole européenne sur ce secteur industriel restant NUWARD, qui doit produire, via deux réacteurs, 340 MWe de puissance. 

Avec toutes les compétences accumulées au travers de décennies de recherche et d’exploitation des technologies nucléaires, notamment Superphénix et Astrid, la France a un avantage certain dans la course internationale actuelle au développement et au déploiement des petits réacteurs modulaires nucléaires.

Stéphane Tanguy : « L’informatique quantique va être une vraie rupture algorithmique »

Passionné par la transformation des produits et services par les technologies numériques, Stéphane Tanguy affiche un solide CV avec 25 ans d’expérience dans l’industrie des hautes technologies au sein de grandes entreprises internationales tels que Dell, Nortel, Schlumberger. En tant que Directeur des Systèmes d’Information et des Technologies Numériques d’EDF Lab Paris-Saclay, il dirige actuellement un programme de recherche dédiée aux technologies de l’information dans des domaines clés tels que l’intelligence artificielle, l’IOT, la cybersécurité, l’informatique quantique et la simulation numérique. Il dirige également la stratégie et l’exploitation des supercalculateurs d’EDF (Top 100 WW supercomputers) et l’incubation des technologies de l’information de rupture pour le groupe EDF (Blockchain, calcul quantique…).

Techniques de l’Ingénieur : pour un industriel comme EDF, l’informatique quantique est-elle une évolution logique ou représente-t-elle un enjeu majeur ?

Stéphane Tanguy-EDF
Stéphane Tanguy, Directeur des Systèmes d’Information et des Technologies Numériques d’EDF Lab Paris-Saclay. Copyright: EDF

Stéphane Tanguy : Pour nous, c’est clairement une révolution. C’est une vraie rupture, car nous nous apprêtons à passer du modèle informatique qui prévaut depuis environ 70 ans – avec des processeurs et du silicium – vers différentes technologies de qubits. Pour EDF, il est important de faire de la veille sur les progrès réalisés au niveau des capacités des qubits, mais surtout sur la technologie de rupture algorithmique.

Pouvez-vous expliquer en quoi consiste cette rupture algorithmique ?

Il y a en effet une rupture dans la façon dont nous allons programmer les ordinateurs : ce qui est fait dans une logique déterministe avec les machines classiques actuelles va être remplacé par une approche probabiliste. Il s’agit donc d’un paradigme complètement différent. EDF a investi énormément dans ses capacités de simulation avec des ordinateurs classiques et des algorithmes que nous avons développés nous-mêmes. Ce patrimoine de code, sur lequel nous avons investi depuis plus de 30 ans, nous sert quotidiennement pour garantir la performance et la sûreté de l’ensemble de nos usines et de nos moyens de production d’électricité. Notre groupe ne pouvait donc pas passer à côté d’une rupture potentielle comme celle du quantique. Cette informatique pourrait changer considérablement la façon dont on répond aux grands problèmes des systèmes d’information.

Quels pourraient être les principaux usages disruptifs ?

La promesse du quantique est de pouvoir traiter des problèmes dits « intratactables » c’est-à-dire des problèmes sur lesquels les calculs classiques apportent des réponses « approchées ». Mais nous souhaitons aller plus loin sur un certain nombre de cas d’usage où l’informatique quantique aurait du sens.

Le premier porte sur les matériaux et la compréhension de leurs fonctionnements physico-chimiques. C’est intéressant, appliqué au vieillissement des matériaux, pour aborder la durée de vie de nos actifs industriels, mais aussi au vieillissement des batteries, qui seront de plus en plus utilisées pour le stockage.

Il y a ensuite les problèmes d’optimisation qui sont très nombreux dans le système électrique qui, à tout moment, doit équilibrer production et consommation. Dans ce domaine, on va s’intéresser aux problématiques de smart charging (recharge de véhicule électrique) en faisant appel, à terme, à la ressource décentralisée constituée par les millions de véhicules électriques, quand ils ne roulent pas, et aux gigawattheures de stockage qu’ils représentent…

Les équations de dérivées partielles, qui sont au cœur des outils de simulation, permettraient de mieux comprendre certains phénomènes macro comme les fissures dans le béton et leurs évolutions. Cela permet d’anticiper les problèmes, de limiter les matériaux, et d’être plus précis dans les réparations à effectuer.

De nombreuses technologies* sont actuellement testées. Cette diversité ne complique-t-elle pas la réflexion d’un groupe comme EDF ?

Étant un peu techno-agnostique, EDF va essayer toutes les grandes catégories de technologies. Chacune présente des avantages et des inconvénients. Mais l’apport indéniable d’IBM avec les qubits supraconducteurs est à saluer. En tant que R&D, nous apprécions que leur démarche se soit appuyée sur leur propre R&D. De façon globale, nous pensons qu’il est nécessaire de s’appuyer sur un large écosystème. Et au sujet du quantique, l’écosystème français et international travaille assez bien. L’information circule, et nous-mêmes nous publions sur nos travaux et recherches.

L’informatique quantique inquiète également, car un tel ordinateur pourrait déchiffrer des protocoles cryptographiques de type RSA. Même si cette machine n’est pas prête à sortir si l’on se réfère à la roadmap d’IBM, c’est une menace qu’il faut intégrer dès maintenant ?

Il faut prendre en compte le temps de latence. Dans un SI (système d’information), du chiffrement RSA il y en a à tous les étages ! Établir un inventaire précis nous prendra des années ! Cela signifie que dès aujourd’hui, quand nous installons un nouveau logiciel dans notre réseau informatique, nous devons nous poser la question suivante : s’il y a du chiffrement à l’intérieur de ce logiciel, ce chiffrement est-il crypto rigide ? L’éditeur nous garantit-il que son chiffrement soit crypto résistant en proposant une implémentation d’algorithmes qui sont candidats au NIST ? Or, certains ont déjà été cassés. Nous devons donc être crypto agiles. Dans notre R&D, nous commençons déjà à tester ces algorithmes sur des cas concrets, par exemple sur notre VPN qui est un maillon essentiel, car nous avons des milliers de personnes qui peuvent se connecter à notre SI.

N’oublions pas non plus la notion de régulation. En France, elle n’est pas encore très avancée et nous attendons les directives de l’ANSSI (un avis sur la migration postquantique a été publié le 15 janvier dernier, NDLR). D’autres pays l’ont déjà fait comme l’agence américaine qui a imposé aux agences fédérales de passer en algorithme postquantique. Les Allemands ont aussi imposé les mêmes mesures. Nous devons anticiper ces risques.


* Qubits supraconducteurs, photons, atomes neutres, ions piégés, silicium…

La renaissance de la consigne des bouteilles en verre

Retourner les bouteilles en verre après usage contre une petite somme d’argent : c’est ce que proposent les distributeurs Système U et E. Leclerc depuis le mercredi 7 février dernier. Ils ont accepté de s’associer pour former un consortium avec des grandes marques de l’industrie des boissons comme Coca-Cola®, Nestlé Waters[1], LorinaTM, Eckes GraniniTM ou la bière MétéorTM. Concrètement, la consigne du verre sera proposée dans une sélection de 14 points de vente situés en Île-de-France au sein de neuf magasins Système U et cinq E. Leclerc.

Cette expérimentation, portée par Hugues Pelletier, le PDG de Petrel[2], s’inscrit dans la continuité des annonces faites par le gouvernement en juin dernier visant à mettre en place une consigne sur les emballages en verre d’ici à deux ans.

En décembre dernier déjà, le groupe Carrefour a introduit un système similaire dans 150 magasins Carrefour City à Paris avec les marques Coca-Cola® ou Heineken®.

Une pratique tombée en désuétude et remise au goût du jour

La consigne des bouteilles ravive des souvenirs pour les moins jeunes d’entre nous qui effectuaient ce geste quotidiennement avant que ces habitudes ne soient délaissées, à partir des années 1970, avec l’avènement des emballages à usage unique. Des pratiques conservées en Alsace et qui ont été perpétuées dans d’autres pays à l’instar de l’Allemagne ou de la Belgique.

En pratique, une fois le produit consommé, les clients pourront à nouveau rapporter les bouteilles en magasin et les insérer dans des grandes machines de déconsignation de la marque Lemon tri. Ces collecteurs récupéreront les contenants et rembourseront la consigne sous forme de bons d’achat. Le montant de la consigne dépend de la taille de la bouteille : 10 centimes pour une petite bouteille de 33 cl ou 20 centimes pour celles de 75 cl ou de 1 L.

Précisons qu’il s’agit de réemploi et non de recyclage. En effet, les bouteilles récupérées ne seront pas fondues à 1 500°C pendant 24 heures pour donner naissance à une nouvelle bouteille, mais elles seront lavées et réutilisées par les industriels. Cette mesure permet de réemployer jusqu’à 50 fois la même bouteille tout en réduisant l’énergie utilisée puisque la fabrication du verre consomme 15 fois plus d’énergie que le lavage d’une bouteille.

Du greenwashing ?

Alors que la loi AGEC[3] prévoit d’atteindre 10 % d’emballages réemployés à l’horizon 2027, ce taux reste aujourd’hui très inférieur à 1 % en France. Dans ce contexte, la décision de faire reposer la participation sur la base du volontariat provoque le mécontentement des associations qui pointent le manque d’ambition du gouvernement pour mettre en œuvre une logistique à l’échelle nationale.

Le succès du projet pourrait également être freiné par le coût plus élevé de la bouteille et l’obligation d’utiliser le bon d’achat de la consigne dans le même magasin. Cette contrainte pourrait cacher une manœuvre de la part de ces enseignes pour fidéliser le client. Un soupçon de cynisme plane également sur certaines marques qui pourraient profiter de cette opportunité pour redorer leur blason et retrouver un prestige perdu. Citons le groupe Nestlé Waters qui récidive en étant de nouveau au cœur d’un scandale pour le traitement interdit de son eau ou Coca-Cola® qui a gagné pour la sixième année le prix du premier pollueur plastique mondial


[1] Propriétaire des marques Perrier® et Vittel®

[2] Entreprise spécialisée dans la création de boucles de réemploi d’emballages

[3] Loi anti-gaspillage pour une économie circulaire adoptée en 2020

Le chalutage profond rejette d’importantes quantités de CO2 dans l’atmosphère

Le chalutage en eaux profondes est une technique de pêche controversée, car elle entraîne des prises non désirées, y compris des espèces menacées d’extinction et affecte celles qualifiées de fragiles. Depuis 2017, l’Union européenne interdit partiellement cette pratique au-delà de 800 mètres de profondeur. Une équipe internationale d’experts du climat et des océans, parmi lesquels ceux de l’Université de l’Utah et de l’Institut Goddard d’études spatiales de la NASA, a publié une étude dans la revue Frontiers in Marine Science dans laquelle elle révèle que ce chalutage profond provoque d’importants rejets de CO2 dans l’atmosphère.

Ces émissions sont liées aux filets qui s’enfoncent dans les fonds marins et ont pour effet de soulever le carbone ayant mis des millénaires à s’enfouir dans les sédiments du plancher océanique. Cette pollution avait déjà identifié dans le passé, mais n’avait jamais pu être quantifiée, notamment parce que le devenir du carbone dans l’eau restait inconnu. Pour mener à bien ces travaux, les chercheurs se sont appuyés sur une base de données de suivi des navires constituée par Global Fishing Watch ainsi que sur des données relatives au carbone des fonds marins. Ils ont ensuite utilisé trois modèles différents de cycles du carbone dans l’océan, utilisés notamment par le GIEC, pour calculer la quantité de carbone libérée dans l’eau puis s’échappant dans l’atmosphère.

Résultat : au cours de la période d’étude qui s’étale de 1996 à 2020, la quantité de rejets de CO2 dans l’atmosphère liée au chalutage de fond est estimée entre 8,5 et 9,2 milliards de tonnes. Pour parvenir à cette estimation, les scientifiques ont calculé qu’entre 55 à 60 % du CO2 libéré dans l’eau se retrouve progressivement dans l’atmosphère sur une période de neuf ans après le passage des chalutiers. Chaque année, les rejets de CO2 atmosphérique sont estimés à 370 millions de tonnes. Les auteurs de cette publication décrivent ce chalutage comme une « déforestation marine » et ont calculé que ces rejets correspondent à environ 9 à 11 % des émissions mondiales liées au changement d’affectation des terres en 2020. Cette pollution représente également plus de deux fois l’empreinte carbone estimée de l’industrie mondiale de la pêche.

Un risque d’acidification localisée des océans

Cette technique de pêche a le plus grand impact sur le climat dans certaines régions du monde à fortes activités de chalutage, comme c’est le cas dans la mer de Chine orientale, la mer Baltique, la mer du Nord et la mer du Groenland. L’Asie du Sud-Est, le golfe du Bengale, la mer d’Oman, certaines parties de l’Europe et le golfe du Mexique sont également probablement des sources majeures d’émissions de carbone dues au chalutage de fond, mais les scientifiques ont manqué de données suffisantes sur l’étendue et l’intensité de cette technique de pêche dans ces régions. Étant donné que le carbone est remis en suspension dans l’eau puis transporté par les courants océaniques, il n’est pas possible de garantir que toutes les émissions atmosphériques dans les eaux juridictionnelles d’un pays proviennent des activités de chalutage dans cette zone.

Ces travaux de recherche ont également permis d’évaluer ce qu’il advient du carbone qui reste piégé dans les eaux océaniques après le chalutage profond. Bilan : entre 40 et 45 % du carbone total délogé du fond océanique reste dans l’eau sous forme de CO2, ce qui pourrait conduire à une plus grande acidification localisée des océans, un processus qui peut endommager les plantes et les animaux locaux. À l’échelle mondiale, la réduction du pH est comprise entre 0,0003 et 0,0005 sur la période 1996 à 2020, un chiffre qui n’est pas significatif comparé à l’effet des émissions anthropiques dues aux combustibles fossiles, cependant, les auteurs estiment «  qu’un chalutage intensif pourrait conduire à une acidification localisée accrue dans la mer de Chine orientale et méridionale. »

Face à la nécessité de réduire rapidement les émissions de gaz à effet de serre, les scientifiques alertent sur le fait que « les pays ne tiennent actuellement pas compte des émissions de carbone importantes du chalutage de fond dans leurs plans d’action climatique et que la réduction des émissions de carbone du chalutage de fond pourrait potentiellement apporter des avantages significatifs en matière de réduction des émissions de carbone à court terme. »

La Belgique prolonge le nucléaire pour faire face à l’électrification du pays

Le mix énergétique belge est dominé par les combustibles fossiles importés. En 2022, selon les derniers chiffres de l’AIE (Agence internationale de l’énergie), le pétrole représentait 36 % de l’approvisionnement total en énergie du pays, suivi du gaz naturel (25 %) et du charbon (5 %). La majeure partie de la demande en combustibles fossiles provient de l’industrie et des transports, mais les bâtiments représentent également une part notable en gaz ainsi qu’en pétrole. « En raison de la part élevée des combustibles fossiles dans son approvisionnement énergétique, la Belgique n’a vu que des réductions limitées des émissions de gaz à effet de serre ces dernières années », analyse l’AIE.

Le nucléaire représente plus de 22 % de l’approvisionnement du pays. En 2003, le gouvernement fédéral s’était engagé à éliminer progressivement la majeure partie de la production d’électricité nucléaire d’ici à 2025. Sauf que suite à la guerre en Ukraine et face aux objectifs de réduction de la dépendance aux combustibles fossiles, un accord a été conclu en fin d’année dernière pour prolonger de dix ans la capacité nucléaire de deux réacteurs.

La Belgique dispose d’un large éventail d’objectifs énergétiques et climatiques pour 2030. Pour cette échéance, le pays vise une baisse de 47 % des gaz à effet de serre (hors SEQE : système d’échange de quotas d’émission) par rapport à 2005. Le pays soutient la neutralité carbone de l’Union européenne d’ici à 2050 et a adopté sa propre stratégie à long terme pour l’énergie et le climat. Les principales mesures sont axées sur la réduction de la demande énergétique et l’augmentation du déploiement des énergies renouvelables, notamment pour la production d’électricité et les transports.

Selon Elia, le gestionnaire du réseau de transport d’électricité belge, l’année 2023 est historique pour les énergies renouvelables puisque les productions photovoltaïque et éolienne ont atteint un record historique de 21,5 TWh (terawatt-heure), en hausse de 23 % par rapport à 2022. Ces énergies renouvelables constituent à présent 28,2 % du mix électrique, contre 19,8 % l’année précédente. « Les capacités installées de production éolienne terrestre (+10 %) et photovoltaïque (+31 %) ont encore augmenté, mais aucune augmentation de la capacité de production des parcs éoliens en mer n’est prévue avant 2028 », déclare Elia.

Après avoir installé un parc éolien offshore d’une capacité totale de 2,26 gigawatts dans une zone de la mer du Nord, le gouvernement fédéral a décidé de développer la capacité de l’éolien en mer dans une deuxième zone. L’objectif est de réaliser une production supplémentaire allant jusqu’à 3,5 GW, ce qui devrait permettre d’atteindre au plus tard en 2030, une capacité comprise entre 5,4 et 5,8 GW d’énergie éolienne en mer.

La consommation électrique doit augmenter de 50 % d’ici à 2032

L’électrification représente un aspect central des efforts de la Belgique en faveur de la transition énergétique. Dans le secteur du bâtiment et du résidentiel, ce sont les gouvernements régionaux qui ont la responsabilité de réduire les émissions de gaz à effet de serre de ces secteurs en développant les modes de chauffage utilisant les énergies renouvelables. Une grande variété de mesures est mise en place, notamment des soutiens financiers directs, et l’accent est mis sur l’abandon du chauffage au fioul au profit des pompes à chaleur. De nouvelles normes d’efficacité énergétique des appareils électroménagers sont également établies.

Dans le secteur industriel, des accords volontaires entre les gouvernements régionaux et l’industrie sont signés. « Ils varient selon les régions, mais se concentrent en général sur des audits visant à identifier des mesures d’efficacité énergétique rentables ; les entreprises bénéficiant d’allégements fiscaux ou d’autres incitations si ces mesures sont mises en œuvre, observe l’AIE. Les accords volontaires se concentrent sur les installations industrielles à forte intensité énergétique, mais des efforts croissants sont déployés pour inclure les petites et moyennes entreprises (PME). »

Malgré cette électrification à marche forcée, la consommation électrique en 2023 s’est établie à 78,9 TWh, un chiffre historiquement faible. Selon Elia, cela s’expliquerait par des prix de l’électricité particulièrement élevés en raison du contexte international. « Cette tendance à la baisse est un phénomène temporaire et nous prévoyons une forte augmentation de la consommation électrique dans les années à venir, déclare le gestionnaire du réseau belge. Cette hausse future est due à l’électrification rapide des processus industriels ainsi qu’à la croissance marquée du nombre de voitures électriques et de pompes à chaleur. Elia projette une augmentation de la consommation de 50 % d’ici à 2032. »

En matière de transport, l’énergie renouvelable est également promue par l’obligation faite à toutes les entreprises vendant des carburants pour le transport routier, d’atteindre une certaine part de biocarburants, en termes de contenu énergétique, dans leurs ventes annuelles de carburants. Cette part s’élève actuellement à environ 10 % et l’objectif est de la faire grimper à près de 14 % d’ici à 2030.

La fusion nucléaire franchit un cap avec l’inauguration du tokamak japonais JT-60SA

Le « tokamak[1] », JT-60SA[2], haut de 15,5 mètres a été présenté en décembre dernier, sur le site du QST[3] à Naka, à une centaine de kilomètres au nord-est de Tokyo. Issu du projet expérimental nippo-européen de fusion nucléaire baptisé « l’énergie des étoiles », il est complémentaire du programme ITER[4] en cours de construction à Cadarache, en France.

Malgré le retard accumulé sur le projet[5], cette inauguration signe la réussite d’une collaboration de plus de 500 scientifiques et ingénieurs et de 70 entreprises en Europe et au Japon.

La réaction physique qui fait briller les étoiles

La fusion nucléaire génère de la lumière et de la chaleur grâce à la gigantesque énergie dégagée au cœur du soleil lorsque des noyaux légers (hydrogène) se percutent à très grande vitesse dans le plasma[6] et à très haute température (15 millions de degrés Celsius) pour fusionner en un noyau lourd d’hélium. Elle se distingue de la fission nucléaire, utilisée actuellement dans les centrales nucléaires, consistant à casser un noyau d’uranium pour libérer de l’énergie. La fusion n’a pas les inconvénients des réacteurs à fission puisqu’elle rejette peu de déchets radioactifs, ceux-ci ayant en outre une courte durée de vie.

Fusion nucléaire avec des méga-aimants

Afin de recréer artificiellement dans le tokamak la réaction physique se déroulant au centre du soleil et provoquer la fusion de l’hydrogène et du deutérium (un isotope stable de l’hydrogène), il faut chauffer et maintenir du plasma à des températures extrêmement élevées (plus d’une centaine de millions de degrés Celsius). Pour éviter que cette matière ne refroidisse, un champ magnétique extrêmement puissant doit être produit en confinant le plasma à l’aide de méga-aimants supraconducteurs dont la moitié a été produite à Belfort par GE Power. Le 23 octobre dernier, ce tokamak a réussi à créer pour la première fois du plasma pendant plusieurs secondes avec un volume record de 160 mètres cubes. Cette technologie n’est avantageuse qu’à condition que la réaction produise plus d’énergie qu’elle n’en consomme.

JT-60SA, petit frère d’ITER

Le tokamak JT-60SA est une sorte de laboratoire servant à affiner le dispositif de fusion avant l’achèvement d’ITER qui s’inscrit dans le cadre d’un programme de coopération internationale regroupant trente-cinq pays. Celui-ci sera environ deux fois plus grand et disposera d’une capacité de volume de plasma près de cinq fois supérieur au tokamak JT-60SA. Prévue à l’origine pour 2025, la première production de plasma d’ITER est sans cesse retardée pour des problèmes de livraison ou de qualité insuffisante des pièces essentielles. D’après Pietro Barabaschi, directeur général du projet, le chantier gigantesque d’ITER « se trouve dans une situation très difficile ». Ces complications engendrent des surcoûts puisque le budget de construction estimé initialement à 5 milliards d’euros dépassera finalement les 20 milliards d’euros.


[1] Acronyme russe désignant les réacteurs expérimentaux dédiés à la fusion nucléaire

[2] SA pour Super Advanced

[3] National Institutes for Quantum Science and Technology

[4] International Thermonuclear Experimental Reactor

[5] Notamment du fait de sa proximité du grand séisme de 2011 sur la côte nord-est du Japon

[6] État de la matière constitué de particules chargées (ions) obtenu à très haute température.

Participez au salon des Systèmes et Objets Connectés !

Le salon incontournable de l’IoT, du MtoM, de la Data, du Cloud, de l’IA, la cybersécurité, et de l’intelligence embarquée ! 

Au programme : 

  • Un cycle de 12 conférences “Conduire un projet IoT”

Le projet IoT est souvent délicat à gérer en raison de sa grande diversité, ce qui peut entraîner des problèmes et même l’abandon du projet. Toutefois, de nombreux projets réussissent de mieux en mieux grâce aux expériences accumulée et à des méthodes de gestion de projet améliorées. Ces 12 conférences examinent les moments clés du projet, étape par étape, fournissant des réponses aux questions importantes que l’on peut se poser.

  • 5ᵉ colloque “Asset Tracking Systems – ATS™

L’Asset tracking va bien au-delà de la simple géolocalisation. En gérant une variété d’utilisations, il démontre sa grande capacité fonctionnelle. Que ce soit en intérieur, en profondeur, en extérieur ou en plein air, les systèmes de suivi d’actifs suivent, caractérisent, alertent, préviennent, protègent et fournissent en temps réel des informations sur ce que vivent ou subissent les biens qui leur sont confiés. De plus, leurs données abondantes, de mieux en mieux traitées notamment par l’intelligence artificielle, prennent de la valeur à grands pas.

  • Le 1ᵉʳ printemps de la 5G d’entreprise

La technologie 5G est désormais disponible pour nos industries, nos entreprises de services, ainsi que pour les hôpitaux, les administrations et les collectivités. Elle est déployée dans toutes ses dimensions technologiques, offrant des solutions adaptées aux cas d’utilisation les plus exigeants, avec des performances, des services et une sécurité inégalés. Que ce soit en version privée, hybride ou publique, la 5G entre maintenant dans une nouvelle phase de développement.

  • Le Forum “Innovative City”

La modernisation essentielle des villes pour relever les défis économiques, réglementaires, climatiques et démographiques nécessite l’utilisation de technologies qui améliorent la compréhension des situations, le pilotage des activités et la prédiction des flux et des mouvements. Les objets et systèmes connectés, ainsi que les technologies de traitement et d’analyse intelligente des données en temps réel, sont souvent les solutions les plus adaptées à mettre en œuvre. Ce forum « Innovative City » est organisé en deux volets : le premier aborde la modernisation énergétique, tandis que le second explore la contribution de l’intelligence artificielle aux villes innovantes.

 

En parallèle, le Forum Cloud+Security met en avant l’importance de la sécurité dans le Cloud et l’IoT, soulignant la nécessité de protéger les données et les objets connectés face aux cybermenaces. Le salon souligne l’émergence du cloud souverain en Europe, les initiatives visant à garantir la sécurité et la souveraineté des données, tout en posant la question de l’extension de ces projets à l’échelle européenne pour assurer un contrôle total des solutions cloud.

Pour plus d’informations, veuillez consulter le site.

L’Europe parie sur la gestion industrielle du carbone

En décembre 2023, la COP28 a ouvert la voie aux technologies de captage et de stockage de carbone pour atteindre les objectifs de l’Accord de Paris. Afin d’arriver à la COP30 au Brésil en 2025 avec un engagement climatique renforcé, l’Europe compte adopter un nouvel objectif de réduction des émissions de gaz à effet de serre pour 2040. Les 27 pays de l’UE visent déjà une réduction de leurs émissions de gaz à effet de serre de 55 % d’ici 2030 par rapport à 1990, en vue d’atteindre la neutralité carbone en 2050.

Mardi 6 février 2024, la Commission a recommandé un nouvel objectif intermédiaire pour 2040, visant une réduction de 90 % des émissions à cet horizon par rapport à 1990. Il reviendra à la prochaine Commission, constituée à l’automne après les élections européennes, de soumettre une proposition législative formelle aux États et eurodéputés. Le même jour, le Parlement européen et le Conseil sont parvenus à un accord politique sur le règlement pour une industrie « zéro net ». Et la Commission a adopté une stratégie de gestion industrielle du carbone pour capter, stocker et utiliser le CO2.

Capter, stocker et utiliser le CO2

L’UE veut développer le captage et le stockage géologique du CO2, l’absorption directe du CO2 atmosphérique, ainsi que le captage et l’utilisation du CO2 dans la fabrication de produits de construction, de produits chimiques ou de combustibles synthétiques. Le règlement pour une industrie « zéro net » vise le développement d’une capacité de stockage de CO2 d’au moins 50 millions de tonnes par an d’ici 2030. C’est l’équivalent des émissions annuelles de la Suède en 2022.

Si l’objectif de réduction de 90 % des émissions de gaz à effet de serre est retenu pour 2040, la Commission européenne estime qu’il faudra capter environ 280 millions de tonnes de CO2 par an d’ici 2040 et environ 450 millions de tonnes par an d’ici 2050. 450 millions de tonnes de CO2, c’est l’équivalent des émissions annuelles de la France en 2015. Il faudra en plus absorber du CO2 de l’atmosphère.

La stratégie de gestion industrielle du carbone vise à fixer un cadre réglementaire et d’investissement pour accélérer leur déploiement et créer un marché unique du CO2 en Europe. « Cette stratégie devrait catalyser des actions et financements coordonnés », afin de « surmonter les obstacles techniques, réglementaires et économiques » pour construire un réseau européen de transport de CO2, analyse Toby Lockwood, du think-tank Clean Air Task Force.

Construire une infrastructure du CO2

Pour développer ces technologies, une infrastructure de transport de CO2 sera en effet indispensable. Car le CO2 capté n’est pas toujours utilisé ou stocké directement sur le lieu de captage. « Le transport du CO2 peut s’effectuer par gazoduc, bateau, train ou camion », rappelle la Commission, qui va entamer des travaux préparatoires sur un éventuel futur paquet de mesures réglementaires sur le sujet.

Dans cette perspective, le Centre commun de recherche (JRC) de la Commission européenne a réalisé une modélisation sur les besoins et le coût de cette infrastructure de transport de CO2. Le réseau pourrait ainsi atteindre 7 300 km en 2030, 19 000 km en 2050. Son déploiement pourrait coûter jusqu’à 19,5 milliards d’euros d’ici à 2030, 23,1 milliards d’euros en 2050.

Quand la recherche fait appel à l’IA pour élaborer de nouveaux matériaux

Loin des polémiques liées à l’utilisation des IA génératives comme ChatGPT, l’IA est déjà utilisée par le monde de la recherche, notamment pour exploiter les immenses volumes de données déjà présentes dans les travaux précédents. L’éditeur Elsevier vient même de lancer Scopus AI, un nouvel outil qui assiste les scientifiques dans leur recherche documentaire et leur permet d’obtenir une vue d’ensemble sur un sujet.

L’IA : un accélérateur de recherche et d’innovation

Les nouveaux outils basés sur l’IA semblent être de véritables boosters de recherche et d’innovation et la liste des domaines d’application semble infinie, car il s’agit avant tout de développer de nouvelles méthodes de travail !

Cette thématique a d’ailleurs déjà été abordée à plusieurs reprises dans le Magazine d’Actualité, pour des usages multiples.

Dans la suite de cet article, nous explorerons quelques applications de l’IA en science des matériaux.

Azure Quantum Elements : l’IA de Microsoft utilisée pour élaborer un nouvel électrolyte solide pour batterie

Les chercheurs du Pacific Northwest National Laboratory (PNNL) de Richland, aux États-Unis, se sont tournés vers la solution Azure Quantum Elements de Microsoft pour accélérer la recherche de l’électrolyte solide idéal.

Ce nouvel outil de Microsoft, lancé en juin 2023, met l’intelligence artificielle et le cloud computing au service de la recherche, dans le but d’obtenir des résultats rapides, en quelques semaines, au lieu de plusieurs années.

Comme nous vous l’expliquions dans cet autre article, grâce à cet outil révolutionnaire, les chercheurs du PNNL ont pu sélectionner 18 candidats prometteurs parmi 32 millions de possibilités, un tri qui a nécessité à peine 80 heures, grâce au calcul quantique.

Par ailleurs, les outils de Microsoft étant formés à la chimie d’une manière générale, ils sont utilisables pour accélérer n’importe quel type de recherche sur les matériaux.

Un modèle de machine learning pour élaborer des aimants permanents sans éléments critiques

Toujours aux USA, une équipe de chercheurs du Ames National Laboratory a utilisé un algorithme d’apprentissage automatique pour prédire la structure cristalline et les propriétés magnétiques de millions de composés hypothétiques, en se basant sur leur formule chimique et des règles empiriques.

L’idée était d’entraîner l’IA à partir de données expérimentales et théoriques, dans le but de trouver des composés ayant une température de Curie élevée, une première étape dans la découverte de matériaux capables de conserver des propriétés magnétiques à des températures élevées.

Pour tester le modèle, l’équipe a utilisé des composés à base de cérium, de zirconium et de fer, c’est-à-dire des éléments terrestres abondants, dans le but d’axer la recherche sur des matériaux magnétiques à la fois performants et économiquement viables.

Une méthode de travail guidée par l’IA pour accélérer la découverte de matériaux thermoélectriques plus performants

De leur côté, des chercheurs du Laboratoire NOMAD à l’Institut Fritz Haber de la Société Max Planck, en Allemagne, viennent de proposer un processus de travail guidé par l’IA. Ils ont utilisé cette approche pour identifier plus de 50 isolants thermiques prometteurs, des matériaux essentiels pour la fabrication d’éléments thermoélectriques performants.

Une méthode plus précise pour accélérer la conception d’alliages résistants à la corrosion avec l’apprentissage automatique

Des chercheurs d’un autre institut de la Société Max Planck utilisent les modèles d’IA dans le but de prévoir le comportement en corrosion et suggérer des formules d’alliages optimales. Ils viennent de mettre au point un modèle d’apprentissage automatique qui améliore de 15 % la précision prédictive.

Le modèle se distingue par la fusion de données numériques et textuelles. Par ailleurs, il est polyvalent et peut être étendu à toutes les propriétés des alliages.

Comprendre les dislocations des matériaux polycristallins grâce à l’IA

Enfin, au Japon, des chercheurs de l’Université de Nagoya utilisent l’IA pour étudier les petits défauts des matériaux polycristallins, largement utilisés en électronique et dans les cellules solaires.

Ces petits défauts, appelés dislocations, sont problématiques, car leur présence perturbe la disposition régulière des atomes dans le réseau, ce qui affecte la conduction électrique et les performances globales.

Ils ont donc utilisé l’IA pour créer un modèle 3D virtuel, ce qui les a aidés à identifier les zones où les groupes de dislocations affectaient les performances du matériau. À terme, cette méthode pourrait donc aider à améliorer les propriétés des matériaux polycristallins avec un impact potentiel dans de nombreux domaines.

Ces quelques travaux ne sont que des exemples, mais ils ont un point commun : ils ont tous été publiés en 2023. Compte tenu des enjeux et des possibilités offertes par l’IA, il est certain que les études de ce type vont se multiplier. Dotée de tels outils, il est probable que la recherche sur les matériaux s’accélère fortement dans les années à venir !

L’adaptation des stations de ski, un grand défi

Le début de saison est très compliqué pour de nombreuses stations de ski, notamment dans les Pyrénées. Voici le début d’une nouvelle ère à prendre en compte pour les stations de montagne, celle de l’adaptation au changement climatique. « Dans la stratégie d’adaptation du pays […] à une France qui va vers les +4°C […], on sait que les stations qui sont à basse altitude ne doivent pas miser sur l’avenir de remontées mécaniques, mais doivent s’interroger sur des modèles 4 saisons », a assuré Christophe Béchu, lors d’une interview sur France Info ce mardi 13 février.

Car le défaut de neige menace les montagnes européennes à large échelle. Dans une étude parue fin août 2023 dans la revue scientifique Nature Climate Change, des chercheurs ont simulé l’évolution de l’enneigement dans 2 234 stations de ski de 28 pays européens. Résultat : 53 % seraient exposées à « un risque très élevé » d’approvisionnement en neige en cas de réchauffement climatique de 2 °C à la fin du siècle. Ce chiffre monterait à 98 % pour un réchauffement de 4 °C.

Selon l’étude, « la neige de culture a peu d’effet dans les domaines à faible altitude ou situés trop au sud, les températures trop élevées ne permettant pas de fabriquer de la neige de manière efficace ». Et pour cause, la production de neige de culture n’est possible que lorsque les températures sont en dessous de -2°C.

L’insuffisance des politiques d’adaptation

Ce 6 février, la Cour des comptes a publié son rapport thématique concernant « Les stations de montagne face au changement climatique ». L’organisation a ainsi évalué sur le terrain les mesures d’adaptation de 42 stations des Alpes, des Pyrénées, du Massif central et du Jura et a constitué une base de données comprenant des informations concernant 200 stations supplémentaires. Le rapport dresse donc six recommandations.

« Si l’enquête dresse le constat d’un déclin du modèle économique du ski français, elle souligne également que les politiques publiques d’adaptation ne sont pas à la hauteur des enjeux », partage la Cour des comptes. Pour inverser la donne, le rapport préconise notamment l’élaboration de « plans d’adaptation » pour chaque station de montagne et le conditionnement des financements publics à l’existence et au respect de ces plans.

La Cour des comptes veut aussi éviter que la production de neige artificielle ait un impact trop important sur les ressources locales en eau. Pour cela, elle appelle à lier les autorisations de prélèvements en eau destinés à la production de neige aux prospectives climatiques.

La Cour des comptes pointe également la difficulté pour les stations les plus impactées par le changement climatique de financer à la fois le démantèlement des installations de remontées mécaniques obsolètes et leur diversification. En ce sens, elle appelle à la création « d’un fonds d’adaptation au changement climatique », alimenté par la taxe communale sur les remontées mécaniques.

Énergies : les réponses aux grands enjeux sont dans Techniques de l’ingénieur

Les experts de Techniques de l’Ingénieur ont développé de nouvelles rubriques autour de la transition énergétique, allant des notions fondamentales sur l’Utilisation Rationnelle de l’Énergie, avec les aspects réglementaires, normatifs et économiques, à des fiches pratiques pour une mise en œuvre d’actions ou solutions concrètes. Les articles proposés ci-dessous vous donneront un avant-goût de ces sujets.

Nouveau : des articles en format vidéo

L’offre Hydrogène est enrichie de vidéos « Paroles d’experts ». Ces vidéos offrent une analyse approfondie des défis sectoriels, mettent en lumière des innovations technologiques et présentent des exemples concrets d’application, dans un format court et dynamique pour une compréhension rapide du secteur.

Consultez les articles, c’est gratuit !

Pour mieux découvrir tous ces sujets, nous vous invitons à découvrir les articles ouverts suivants.

Hydrogène

L’hydrogène est l’élément le plus abondant de l’Univers. L’industrie ne pourrait s’en passer, sa consommation mondiale dans l’industrie chimique et la pétrochimie en témoigne. Encore faut-il, avant de l’utiliser, le capter, le purifier, le transporter, le stocker et le distribuer. L’objectif de cet article est de décrire l’ensemble de la chaîne hydrogène, à lire ici ! 

Combustible hydrogène – Utilisation

Inflammable et explosif, l’hydrogène reste pourtant un combustible de choix utilisable pour fournir de la chaleur et de l’énergie mécanique, sans autre résidu que de l’eau. Par réaction électrochimique, il peut également se combiner à l’oxygène pour produire de l’électricité, de la chaleur et de l’eau. À découvrir ici !

Économies d’énergie et performance énergétique, notions de base, enjeux, méthodes

Il est urgent de trouver le juste équilibre entre les besoins énergétiques et les solutions pour assouvir ces besoins, en préservant le plus possible les ressources de matières premières. Quels sont les outils pour atteindre une meilleure performance énergétique ? Les réponses sont ici.

Chaleur fatale industrielle : valorisation par le stockage thermocline

La chaleur fatale industrielle est la chaleur générée non utilisée et donc rejetée dans l’atmosphère. Le stockage thermocline, système constitué d’une enveloppe isolante remplie d’un matériau de stockage thermique, apparaît comme une solution de valorisation de ces fumées chaudes. Cet article vous permettra de tout comprendre.

 

Vous souhaitez vous abonner ? Profitez d’une réduction de 10% sur nos offres du domaine énergies. 

Cette promotion est valable jusqu’au 22 mars 2024. 

Biais algorithmiques : la sensibilisation commence dès la formation

Un algorithme est biaisé lorsque ses résultats ne sont pas neutres, voire sont discriminants. Pour lutter contre ces biais, une des solutions passerait par davantage d’inclusivité dans le monde de la tech. En multipliant les profils et les points de vue des personnes qui les créent, les algorithmes pourraient être plus représentatifs de notre monde actuel, et donc moins biaisés.

Quel rôle peuvent jouer les écoles pour permettre un numérique plus inclusif et éthique ? Depuis 10 ans, l’école Simplon.co[1] propose des formations au numérique du niveau Bac à Bac+5 dans 75 villes en France métropolitaine et à l’international, via des partenariats avec des écoles. Un de leurs mots d’ordre est l’inclusivité. Mathieu Giannecchini travaille depuis 5 ans à l’école Simplon.co et en est le directeur adjoint depuis avril 2022. Il est chargé des sujets technologiques, innovation pédagogique et qualité. Pour Techniques de l’ingénieur, il revient sur les moyens mis en œuvre par Simplon pour favoriser l’inclusivité pour un numérique plus éthique.

Techniques de l’Ingénieur : Pouvez-vous nous présenter l’école Simplon et ses objectifs ?

Mathieu Giannecchini, directeur général adjoint de l’ESS Simplon.co
Mathieu Giannecchini, directeur général adjoint de l’ESS Simplon.co / Crédit : Simplon.co


Mathieu Giannecchini : Simplon est un organisme de formation tech et inclusif créé en 2013. L’idée est d’utiliser les métiers en tension de la tech, donc ceux en pénurie de talents, pour en faire un levier d’inclusion et ainsi favoriser le retour à l’emploi. Nos formations vont d’un niveau à la sortie de Bac à Bac+5, sur des filières développement logiciel, intelligence artificielle, infrastructures, cloud et cybersécurité. Elles durent de 6 semaines pour les plus courtes à presque 2 ans pour celles en alternance. 

Depuis ses débuts, Simplon souhaite bousculer les codes. L’école est agréée Entreprise sociale et solidaire, et nous sommes animés par notre objectif d’impact social. Un de nos principes est de prendre des étudiants aux bagages très variés, sans demander de prérequis de diplômes à l’entrée. C’est un des éléments clés pour favoriser la diversité. D’autre part, nos formations pour les demandeurs d’emploi sont 100% prises en charge. Ainsi, en 10 ans, nous avons formé dans le monde environ 30 000 personnes dont près de 30% de femmes et 10% de personnes en situation de handicap. Nous surveillons en permanence ces indicateurs, qui sont des axes de développement forts pour nous. 

Pourquoi prônez-vous la diversité ?

Les logiciels et les algorithmes ressemblent à ceux qui les créent. Si nous n’arrivons pas à mettre de la diversité dans ces secteurs-là, les personnes qui vont développer les logiciels, les algorithmes et les infrastructures vont créer des biais et ces technologies ne seront pas adaptées à toute la population. Une des manières de lutter contre les biais est de favoriser la diversité et l’inclusion dans le secteur. 

Comment attirer des profils divers vers le numérique alors que les modèles que l’on voit dans les médias sont principalement blancs et masculins ?

C’est un sujet qui nous anime depuis le début de Simplon. Nous menons plusieurs actions, comme des ateliers de sensibilisation nommés “Dégenrons la tech” auprès de salariés d’entreprise, ou durant des réunions d’informations collectives. Ces ateliers permettent de déconstruire les stéréotypes de genre dans le numérique. Nous rappelons ainsi que de grandes innovations à l’origine de certains langages de programmation et de grands mouvements dans la tech ont été impulsés par des femmes. Il est nécessaire d’entretenir cette culture de la mixité dans le numérique. 

Nous nous appuyons aussi sur des associations comme Women & Girls in Tech, qui est très active avec la fondation Simplon. Nous nouons également des partenariats plus spécifiques sur des thématiques ciblées. En ce moment, nous nous attaquons au gaming et nous nous appuyons sur des associations comme Afrogameuses pour relayer ces messages-là.

Enfin, nous mettons en place des dispositifs très concrets comme des formations très courtes, et qui pour certaines sont 100% destinées aux femmes. L’idée de ces formations est de découvrir des métiers et d’avoir une première montée en compétences, avec l’objectif que ces femmes rejoignent ensuite une formation diplômante mixte. Cela nous permet d’attirer et de féminiser nos filières.

Concrètement, arrivez-vous à remplir votre objectif d’attirer de nouveaux publics dans le numérique ?

C’est une lutte quotidienne. Concernant la parité hommes-femmes, nous rêverions d’atteindre les 50%, mais c’est très difficile. Nous avons encore du mal à susciter des vocations dans certains domaines comme l’infrastructure ou l’administration cloud. C’est pourquoi nous essayons de vulgariser davantage ces métiers et de répliquer nos dispositifs 100% femmes pour les métiers infrastructure. 

Concernant la diversité au niveau des diplômes, ne pas mettre de prérequis crée naturellement un mix intéressant. Nous menons aussi des projets régionaux pour attirer les personnes des quartiers prioritaires des villes, et nous travaillons beaucoup avec Pôle Emploi[2] et les missions locales. D’après nos chiffres, à l’entrée, 44% de nos apprenants ont un niveau bac ou moins, 5% sont des réfugiés primo-arrivants et entre 15 et 20% viennent des quartiers prioritaires de villes.

Enfin, nous travaillons avec des entreprises spécialisées pour adapter nos locaux aux personnes en situation de handicap. Nos équipes sont accompagnées de référents handicap qui aident les chefs de projet à adapter la formation et le poste pour une meilleure accessibilité. En cumulé, nous arrivons à avoir une assez bonne diversité.

Durant vos formations, comment sensibilisez-vous vos apprenants à l’éthique dans le numérique et aux risques que les algorithmes reproduisent les inégalités ?

Il y a plusieurs actions. Déjà, nous avons un dispositif générique au début de nos formations durant lequel nous abordons les enjeux des impacts du numérique au sens large, donc social, environnemental, et les enjeux liés au biais. Nous avons aussi des actions plus spécifiques sur l’IA par exemple, avec notre partenaire Microsoft, qui nous permet de sensibiliser aux enjeux d’éthique autour de l’IA et de l’ingénierie logiciel. Nous proposons aussi sur certains parcours des formations de développeur web et d’accessibilité numérique où on va adjoindre au diplôme classique des certifications spécialisées sur l’accessibilité numérique. 

Plusieurs cas de harcèlement, d’agressions sexistes et sexuelles ont été dénoncés dans certaines écoles du numérique, comme à CentraleSupélec[3] ou à l’école 42[4]. Quelle attention portez-vous à ces questions ?

Nous y faisons très attention. Toute une charte est transmise à nos apprenants et nos axes de féminisation des promotions sont clairement affichés. Nous avons un processus qualité au plus proche du terrain avec des équipes pédagogiques sensibilisées au sujet. Nous avons déjà reçu des alertes mais elles restent relativement minoritaires. Je pense que c’est grâce à la force de la diversité : nous avons beaucoup d’apprenantes mais aussi de formatrices. 

Est-ce que les écoles peuvent avoir un véritable impact sur les inégalités dans le numérique ?

Le rôle des écoles est central, et dans tous les domaines du numérique. Simplon porte un plaidoyer en particulier mais je pense que de plus en plus d’écoles du numérique porte ce message d’enjeu de diversité et mixité. L’embauche de nos étudiants est un des indicateurs qu’on surveille particulièrement. Nous avons 90% de réussite à nos certifications, et 74% de sortie positive, à savoir soit un emploi direct, soit une poursuite de parcours. Nous n’avons pas observé de décrochage particulier sur les femmes, ni de discriminations particulières à l’embauche, mais nous ne suivons pas précisément le sujet.

Propos recueillis par Alexandra Vépierre

Crédit photo de Une : Welcome to the Jungle


[1] Simplon.co

[2] France Travail depuis ce 1er janvier

[3] CentraleSupélec

[4] L’école 42

La 11ᵉ édition de Paris Space Week : à vos agendas

Avec un bilan éprouvé de plus de 9 000 réunions d’affaires en seulement deux jours, la Paris Space Week s’impose comme l’événement de l’industrie axé principalement sur le réseautage.

Reconnaissant le rôle crucial de l’innovation dans la survie et la croissance de l’industrie spatiale, la Paris Space Week organise des Défis de l’Innovation mettant en avant les dernières technologies qui façonnent l’avenir. Les participants peuvent ainsi acquérir des perspectives précieuses sur les tendances émergentes, les technologies et les opportunités qui propulsent l’industrie vers l’avant. Ces défis sont organisés autour de trois thématiques

  • Application spatiale
  • Durabilité
  • Défi des solutions spatiales de l’ESA. 

L’événement propose plus de 50 conférences et ateliers, offrant une plateforme complète pour rester informé des derniers développements et acquérir un avantage concurrentiel dans le paysage dynamique de l’industrie spatiale.

En participant en tant qu’exposant à la Paris Space Week, les entreprises peuvent s’impliquer dans un événement mondial BtoB qui attire annuellement 1 500 professionnels du monde entier, représentant 40 pays. Avec 500 stands et tables, les exposants peuvent tirer parti de cette plateforme physique pour une collaboration internationale.

Déjà suscitant un intérêt significatif, des entreprises de divers secteurs ont rejoint avec enthousiasme la Paris Space Week 2024, en faisant un événement incontournable pour ceux qui souhaitent façonner l’avenir de l’industrie spatiale.

Prenez rendez-vous avec les principaux acteurs de ce marché en plein essor en cliquant ici.

Plus d’informations sur PSW.

Quand les innovations technologiques trébuchent sur la réalité

L’édition 2024 du CES a fermé ses portes il y a peu. Comme chaque année, ce salon présente les tendances majeures dans des domaines de plus en plus variés. Mais comme dans d’autres secteurs d’activité, de nombreux projets ou avancées technologiques sont retardés, voire mis au fond d’un tiroir. Cet article fait le point sur des innovations qui ont fait le buzz fin 2022 ou en 2023 et, qui finalement, n’ont pas été aussi révolutionnaires qu’annoncé.

Les véhicules autonomes

C’est l’une des avancées les plus médiatisées de ces dernières années. Cependant, malgré les promesses de routes plus sûres et d’une efficacité accrue, la réalité n’a pas été à la hauteur des attentes. Les limites techniques, les défis réglementaires et le scepticisme du public ont entravé les progrès.

Équipés de différents capteurs permettant de détecter leur environnement et intégrant de l’intelligence artificielle, ces véhicules ont fait la une des médias suite à différents accidents.

La réalité virtuelle

La réalité virtuelle (RV) est depuis longtemps considérée comme l’avenir du divertissement et de l’industrie. En 2022 et 2023, plusieurs entreprises avaient promis des expériences immersives révolutionnaires. Cependant, le coût élevé des équipements de RV, la disponibilité limitée des contenus et l’inconfort causé par une utilisation prolongée ont entravé leur adoption à grande échelle.

En conséquence, la RV est restée un marché de niche et n’a pas réussi à pénétrer le grand public comme prévu. En 2023, le marché des casques VR a baissé de 12 % dans le monde. Cela pourrait être dû à un manque d’intérêt du grand public pour la RV. Cependant, il faut relativiser cet échec, car la RV continue à progresser dans l’industrie (pour former des salariés) et la santé.

Déjà employée par les médecins, pour les aider à se former et simuler des opérations, la réalité virtuelle est en passe de devenir un outil incontournable dans la prise en charge des patients : gestion du stress ou des phobies…

Les métavers

Le métavers n’a pas vraiment tenu toutes ses promesses. Malgré les investissements colossaux de plusieurs géants, les mondes numériques accessibles en réalité augmentée ou virtuelle n’ont pas encore percé. Par exemple, Horizon Worlds de Meta n’a pas atteint les 500 000 utilisateurs escomptés fin 2022. Présentée en 2021, l’application n’en compte qu’environ 280 000. Disponible uniquement sur les dispositifs VR Quest, cette application devrait être accessible sur les smartphones.

Ces exemples mettent en évidence les difficultés rencontrées par les innovateurs pour concrétiser leurs idées. Malgré le battage médiatique et les promesses initiales, ces innovations de haute technologie n’ont souvent pas été à la hauteur de leur potentiel. Toutefois, il est important de se rappeler que l’innovation est un processus continu et que les échecs ouvrent souvent la voie à de futures percées.

Certains ont déployé d’énormes moyens pour finalement jeter… l’éponge. Le Windows Phone a réussi à « survivre » quelques années avant d’être retiré du marché en 2017. Si la plateforme mobile de Windows reste une bonne idée et que quelques aspects de Lumia fonctionnaient correctement, l’entreprise n’a pas réussi à attirer les utilisateurs iOS et Android.

Il est toujours facile de dresser la liste des projets qui n’ont pas vraiment abouti ou qui étaient trop en avance sur leur temps. Personne n’y croyait. Le 29 juin 2007, Apple commercialisait le premier iPhone sur le marché américain. On connaît la suite…

Peut-on concevoir des algorithmes réellement éthiques ?

L’intelligence artificielle étant un outil, c’est l’utilisation qui en est faite par les humains qui détermine les impacts -positifs ou négatifs- sur notre monde. Pourtant, la course effrénée à l’innovation dans le domaine de l’IA ne permet pas une réflexion profonde sur l’usage de ces technologies.

Giada Pistilli est chercheuse en philosophie et écrit une thèse sur l’éthique dans les IA conversationnelles. Depuis mai 2022, elle est aussi responsable de l’éthique à Hugging Face, une plateforme open source d’outils d’intelligence artificielle. Pour Techniques de l’Ingénieur, elle propose des pistes de réflexions et invite à une utilisation plus responsable de l’IA

Techniques de l’Ingénieur : En quoi consiste votre métier de responsable de l’éthique chez Hugging Face ?

Giada Pistilli, chercheuse en philosophie et responsable de l’éthique à Hugging Face
Giada Pistilli, chercheuse en philosophie et responsable de l’éthique à Hugging Face / Crédit : Maelia Germain

Giada Pistilli : Hugging Face est une plateforme open source d’outils d’intelligence artificielle, c’est-à-dire que nous mettons à disposition de manière collaborative des modèles d’IA, des datasets et des applications complètes. Nous sommes en quelque sorte le GitHub du machine learning

De mon côté, je travaille dans l’équipe de recherche qui est un peu un satellite dans l’entreprise. Je fais donc de la recherche, il m’arrive d’accompagner des clients qui souhaitent rendre leurs outils open source et veulent le faire de manière responsable, et je participe aussi à la rédaction de chartes éthiques. Par exemple, je travaille avec une université au Danemark qui souhaite développer en open source des outils pour le diagnostic de pattern sociolinguistiques chez les personnes touchées par un trouble du spectre de l’autisme. Ils sont venus nous voir en tant que conseillers en éthique pour comprendre comment déployer ce modèle et quels types de mesures de sécurité mettre en place. Enfin, je suis aussi en charge de la modération de contenus sur notre plateforme.

L’open source et la collaboration sont-elles des réponses aux questionnements éthiques soulevés par l’IA ?

Totalement. Aujourd’hui, le machine learning manque cruellement de partage d’information. Pour prendre l’exemple de ChatGPT, nous ne savons pas comment les algorithmes ont été entraînés, quel type de données ont été utilisées etc. Les choses se font dans des laboratoires et ensuite, nous devons leur faire confiance aveuglément. En réaction, des organismes comme Hugging Face militent pour plus d’ouverture, de transparence, de partage et de décentralisation. C’est aussi intéressant scientifiquement car il est ainsi plus facile de reproduire des résultats, et de trouver des solutions en cas de problèmes car la communauté a accès à tout. 

Est-ce que les algorithmes peuvent être véritablement éthiques ?

Selon moi, l’éthique n’est pas un adjectif mais une démarche. “Ethique” signifie qu’il y a des raisonnements autour de l’action humaine. Il est important de ramener le discours aux responsables humains derrière les technologies. Nous avons beau parler de modèles autonomes, ils sont conçus par des humains et nous avons une responsabilité collective, depuis les développeurs jusqu’aux utilisateurs. Dire qu’un algorithme est complètement éthique signifierait que nous avons résolu mathématiquement ce qu’est l’éthique, et que nous pouvons l’appliquer statistiquement. Plus qu’éthique, il faudrait une utilisation responsable de l’IA.

Quelles questions doit-on se poser pour créer des algorithmes responsables ?

Concernant les IA conversationnelles, nous pouvons appliquer des raisonnement éthiques à 2 moments clés. D’abord, lors du développement de l’algorithme. C’est là qu’on retrouve les questionnements liés aux données, à la recherche d’une architecture, aux biais etc. Ensuite, il y a la question moins abordée du déploiement, donc de la rencontre avec les utilisateurs. Je trouve que le machine learning manque énormément d’experts dans ce sujet. Les personnes qui créent les algorithmes sont totalement détachées des cas d’utilisation et vont mettre en production des outils sans savoir comment les utilisateurs vont s’en servir, ni quels impacts peuvent avoir ces technologies dans notre quotidien. Il y a quelques mois, un homme s’est suicidé après une conversation avec un chatbot. Avec les robots conversationnels, il y a ce risque qu’on connaît très bien de l’anthropomorphisation, c’est-à-dire qu’on oublie très facilement qu’on parle à une machine. Il est donc nécessaire de réfléchir à comment on se sert d’une technologie et quelles sont les bonnes pratiques. Les humains sont tellement imprévisibles qu’il est parfois difficile de poser des limites à tous les cas d’utilisation. D’ailleurs, ChatGPT en est un exemple : vous donnez un outil un peu magique à un utilisateur et la première chose qu’il va faire c’est d’essayer d’en tester les limites.

Si les humains sont imprévisibles, comment réfléchir en amont à toutes les expériences utilisateur possibles ?

Ma grande hypothèse, c’est qu’aujourd’hui nous sommes en train d’explorer tout ce que nous pouvons faire avec des modèles généralistes mais que dans le futur proche, nous allons de plus en plus nous spécialiser. Néanmoins, nous pouvons dès maintenant agir. D’après mes recherches, encadrer le plus possible la conversation sans laisser la main libre à l’utilisateur est ce qui fonctionne le mieux. Par exemple, si nous concevons un chatbot pour faire de la conversion de fichiers Excel, nous devons uniquement permettre à l’utilisateur de réaliser cette action, sans lui laisser l’opportunité de discuter du sens de la vie avec le bot.

Que mettre en place pour éviter les biais algorithmiques ?

Je pense que c’est une question à contrôler plutôt qu’à résoudre. La société en soi est biaisée et inégalitaire donc si nous ne voulons pas reproduire ces biais, nous devons nous demander quelle société reproduire. Un modèle d’IA va dans tous les cas être entraîné sur un jeu de données, qui est comme une photographie d’un moment précis de l’histoire, alors que les valeurs, la société, le langage sont en évolution continue. Il est capital d’inclure le maximum de points de vue différents mais nous avons encore de gros progrès à faire.

Entre 2021 et 2022, j’ai réalisé une recherche sur le modèle de langage GPT-3 et nous avons constaté avec mes coauteurs que le modèle de langage reproduisait énormément de visions du monde centrées sur celle des Etats-Unis. En utilisant des données, nous allons forcément reproduire une vision du monde plutôt qu’une autre, d’où l’importance de diversifier les données. Mais l’IA reste un modèle statistique donc il va faire un choix et nous ne pouvons pas nous attendre à ce qu’il montre la nuance de diversité qui existe. Le fait d’avoir des modèles de plus en plus spécialisés va aussi aider pour cette problématique. 

Comment utiliser des données diversifiées alors qu’elles viennent globalement des mêmes endroits ?

Il y a quelques années, j’ai collaboré à BLOOM, le plus grand modèle open source multilingue qui propose 46 langues. Lors de la collecte de données, nous sommes partis du principe que les modèles de langages représentaient trop l’anglais. Quand on sait que sur Internet, plus de 80% du contenu est écrit en anglais et que les données viennent surtout d’Internet, cela fait sens… Logiquement, BLOOM a été majoritairement entraîné en anglais mais nous nous sommes aussi penchés sur des langues moins représentées comme le Gallois, des dialectes d’Afrique subsaharienne etc. Nous avons travaillé avec des ONG et des scientifiques qui agissent pour la préservation de ces langues et proposent des datasets. Mais est-il plus facile d’utiliser des jeux de données déjà prêts, où l’anglais domine ? Bien sûr ! Nos efforts nous ont pris plus de 6 mois mais ils participent à une vision plus réaliste et moins biaisée de notre monde.

C’est un peu ma lutte quotidienne d’agir contre l’omniprésence de l’anglais. Nous ne pouvons pas régler la problématique des biais si nous utilisons toujours la même langue, car elle véhicule une même représentation du monde. Par exemple, nous avons déjà remarqué que pour pour la requête “maison chinoise”, un modèle d’IA américain représenterait davantage le stéréotype des maisons traditionnelles rouges, tandis qu’un modèle chinois proposerait des bâtiments beaucoup plus proches de la réalité. 

Quelles bonnes pratiques pourraient mettre en place les entreprises qui souhaitent implanter l’IA de manière responsable ?

La pratique des audits externes avec des experts extérieurs est vraiment très importante. D’autre part, je préconise une documentation la plus détaillée possible pour une transparence totale. Il faut écrire précisément quelle architecture et quels paramètres ont été choisis, quels jeux de données ont été utilisés etc. Margaret Mitchell, qui a travaillé chez Google et maintenant chez Hugging Face, a développé les “model cards” qui regroupent des informations très précises. C’est une pratique qu’on peut mettre en place en entreprise. Enfin, il me semble nécessaire d’avoir davantage d’experts en sciences sociales. La vision des ingénieurs des problématiques sociales est assez mathématique alors que les experts en sciences sociales vont voir des choses auxquelles les ingénieurs n’auront pas pensé. 

Y a-t-il assez de lois pour encadrer l’IA ?

Pas vraiment. Nous revenons toujours au bras de fer entre l’industrie qui veut rester libre de tester car elle est en pleine phase créative, et de l’autre côté, la nécessité de s’assurer que ces technologies ne perturbent pas le quotidien des individus. Nous ne pouvons pas faire confiance aux industries pour s’auto-réguler. C’est ce que l’on avait fait dans les années 2000 avec les réseaux sociaux, pensant qu’ils savaient ce qu’ils faisaient, qu’ils allaient nous mettre en contact et créer de l’intelligence collective alors que nous n’avons jamais été aussi isolés que maintenant. D’où l’importance d’intégrer des experts en sciences sociales car certains ingénieurs sont trop détachés de l’impact sur la société. Et celle de mettre en place beaucoup plus de process avant la mise sur le marché d’un nouvel outil. Si je suis assez optimiste concernant l’outil, il est de notre responsabilité de faire attention aux impacts.

Que pensez-vous de l’AI Safety Summit qui a eu lieu en novembre dernier, premier sommet mondial pour réfléchir aux dangers de l’IA ?

Je trouve ça très bien que les institutions s’intéressent au sujet. Cependant, il y a une vision très long-termiste qui m’inquiète un peu, car elle nous fait perdre le cap sur des risques qui existent aujourd’hui. J’aimerais bien que ces experts s’ouvrent à ces risques concrets. Concernant les propositions de régulation, je pense qu’il ne faudrait pas trop rentrer dans les détails techniques car l’IA est un milieu qui change extrêmement vite. Enfin, j’aimerais bien qu’on inclut dans la concertation la voix de la société civile et qu’on se demande ensemble ce qu’on va faire avec tous ces modèles d’IA. Il faut que les citoyens puissent s’y opposer s’ils n’en ont pas envie. Il est important de s’approprier ces questions. Parfois le sujet est complexe et peut faire peur, mais il faut s’éduquer le plus possible pour le démystifier.

Propos recueillis par Alexandra Vépierre

L’industrie face au doublement de sa facture énergétique

Face à la hausse des prix de l’électricité et du gaz, les entreprises adaptent leur fonctionnement pour moins consommer. Alors que le temps de l’énergie peu chère est révolu, diminuer les coûts de production sur le long terme, investir dans des appareils plus économes et rester compétitifs face à la concurrence est une question de survie. Pour voir l’ampleur du défi, l’étude annuelle de l’Insee « Les entreprises en France », parue en décembre 2023, est riche d’enseignements.

Si les établissements de 20 salariés ou plus de l’industrie ont réussi à diminuer leur consommation énergétique de 5 % en 2022 (- 9 % pour le gaz et – 3 % pour l’électricité), leur facture énergétique a augmenté de 54 % entre 2021 et 2022, indique l’Insee. Cette envolée survient suite à une hausse de 40 % en 2021. Si la sobriété n’a pas pénalisé la production dans son ensemble – en hausse de 1 % au niveau national –, elle a eu des effets importants sur les industriels les plus énergivores.

Les grands consommateurs d’énergie les plus touchés

Davantage affectées par la hausse des prix, les industries les plus énergivores sont celles qui ont dû faire le plus d’efforts pour réduire leur consommation (- 7 %). Cette situation s’explique notamment en raison du type de contrats d’énergie de ces entreprises, partage l’Insee. Si les plus petits établissements ont souvent des contrats à prix fixes entre un et trois ans, les établissements les plus consommateurs ont plus fréquemment un contrat indexé sur le prix de marché. C’est le cas de 37 % des établissements gros consommateurs pour l’électricité, contre 8 % pour les petits consommateurs, et 51 % pour le gaz, contre 13 % des petits consommateurs.

Entre 2019 et 2022, le prix moyen du gaz acheté par les entreprises a ainsi doublé, mais il a quadruplé pour les entreprises les plus consommatrices, celles consommant plus de 278 gigawattheures (GWh) par an. « Alors que ce n’était pas le cas auparavant [jusqu’en 2020, NDLR], les entreprises consommant beaucoup de gaz le paient désormais plus cher à l’unité que les entreprises peu consommatrices », souligne l’Insee.

Entre 2019 et 2022, le prix de l’électricité a progressé de 38 %. « Le prix de l’électricité reste en revanche plus élevé pour les petits consommateurs, mais l’écart entre petits et grands consommateurs se réduit fortement », précise l’Insee. En effet, si le prix payé par les entreprises les plus consommatrices (90,2 €/MWh) reste nettement plus faible que celui payé par les moins consommatrices (161,8 €/MWh), le rapport n’est plus que de 1,8, contre 2,8 en 2019.

Une production en baisse pour les plus énergivores

Pour arriver à de telles baisses de consommation, les industries les plus énergivores ont dû diminuer leur production. Au second semestre 2022 par rapport au second semestre 2021, la production a chuté de 17 % dans la fabrication de produits chimiques de base et de 16 % dans la sidérurgie. La consommation a également reculé de 11 % pour la fabrication de pâte à papier, de papier et de carton et de 8 % pour les autres métaux non ferreux.

Cette baisse s’est poursuivie au premier semestre 2023, souligne l’Insee. En particulier, la production a baissé de 28 % pour la sidérurgie, de 24 % pour la fabrication de pâte à papier, de papier et de carton. La fabrication de verre et d’articles en verre, qui n’avait jusqu’alors pas été touchée par la baisse de production, a enregistré sur le premier semestre 2023 une baisse de près de 7 % de sa production.

Des stratégies complémentaires

Face à ces hausses des prix de l’énergie, 52 % des établissements industriels ont augmenté leurs prix. En parallèle, 45 % ont comprimé leurs marges et 30 % ont prélevé sur leur trésorerie. En outre, 29 % ont investi pour réduire et optimiser leur consommation énergétique à moyen terme.

Cette tendance a pour effet bénéfique de toucher les entreprises les moins engagées dans leur transition énergétique. « Au cours du second semestre 2022, les entreprises qui ont le plus amélioré leur efficience énergétique seraient souvent celles qui avaient fait le moins preuve de sobriété entre 2018 et 2021 », souligne l’Insee.

L’institut relève d’autres stratégies d’adaptation. En particulier, certains établissements substituent partiellement le gaz par du fioul, dont le prix augmente moins. Pour d’autres, la stratégie a été « la fermeture pour quelques semaines, voire quelques mois ». Mais pas sûr que ces solutions d’urgence puissent avoir de l’avenir à long terme.