A l’origine de près de la moitié de l’oxygène mondiale, absorbant le CO2 et formant la base de la chaîne alimentaire marine, les microbes océaniques sont difficiles à observer. Les communautés de plancton, sortes d’algues microscopiques, se déplacent notamment au cœur des tourbillons cycloniques. Là, ils peuvent s’enfoncer à plus de 100 mètres de profondeur. Dans de telles conditions, seule une surveillance in situ peut ramener des données exploitables par les scientifiques. Ainsi, des chercheurs du Monterey Bay Aquarium Research Institute (MBARI) ont travaillé des années sur une flotte de robots autonomes. Leur largage dans l’Océan Pacifique Nord a été présenté le 13 janvier 2021 dans Science Robotics.
Le premier robot sous-marin, appelé Aku, localise le plancton et dérive avec lui selon les courants tout en effectuant des collectes d’échantillons d’eau. Le second robot, Opah, tourne verticalement autour d’Aku, et étudie la composition de son environnement immédiat. A eux deux, ils relèvent des données telles que la température, la salinité ou encore la profondeur. Enfin, le véhicule autonome de surface, Mola, suit la progression d’Aku par traçage acoustique et sert de relais de communication avec les opérateurs humains. A l’avenir, ce système fonctionnant en trinôme pourrait permettre la surveillance d’éventuelles apparitions d’algues nocives ou même de fuites de pétrole.
Échantillonnage intensif sur la côte californienne
Maladies respiratoires, affections gastro-intestinales, infections aussi bien de la peau que des yeux ou des oreilles… Les plages aux eaux contaminées mettent en danger la santé des vacanciers. Pour contrôler la qualité des eaux et en informer les responsables sanitaires, le fecal indicator bacteria (FIB) – soit la présence de matière fécale – est mesuré et entré dans des modèles prédictifs. Problème : des années de données environnementales sont souvent nécessaires. Des chercheurs de Stanford ont proposé le 20 janvier 2021 dans Environmental Science & Technology une méthode bien plus rapide.
Les scientifiques ont effectué six campagnes d’échantillonnage à haute fréquence sur trois plages de Californie. Le temps entre deux relevés ne dépassant pas une heure, les chercheurs sont parvenus à récolter 244 échantillons en à peine 48 h. Ils y ont également ajouté des valeurs de marée, de rayonnement solaire, de température de l’eau, de hauteur des vagues et de vitesse du vent, essentielles pour les modèles prédictifs. Résultat : les modèles fonctionnent bien, et ce malgré la durée extrêmement limitée des relevés. Une bonne nouvelle, d’autant plus que cette méthode pourrait se développer par la suite pour la mesure des algues nocives et des métaux.
Petit mais puissant
Briser la structure des grains jusqu’à former un morceau de métal. Voilà comment fonctionnait la métallurgie… avant ! Des chercheurs de la Brown University ont trouvé une nouvelle méthode pour profiter au mieux des propriétés des matériaux. Décrite le 22 janvier 2021 dans Chem, leur technique suit une approche ascendante allant de l’échelle nanométrique à centimétrique. Partant d’une collection de huit nanoparticules de métaux différents, ils leur ont d’abord appliqué un traitement chimique de surface. Au revoir les molécules organiques, causes de gênes pour les liaisons entre particules métalliques. Ne reste plus qu’à réaliser un frittage – chauffer sans atteindre la fusion, de manière à souder les grains entre eux – et presser le tout. Résultat : des « pièces nanocristallines » à l’échelle du centimètre. D’apparence métallique, ces pièces possèdent aussi les caractéristiques propres aux composants nanocristallins. La loi de Hall-Petch explique ainsi que plus les grains d’un matériau sont petits, plus sa dureté mécanique sera améliorée. Dans le cas présent, la dureté obtenue peut être jusqu’à quatre fois supérieure à celle des matériaux habituels. Par la suite, cette méthode devrait permettre le développement de nouveaux matériaux super-durs, de revêtements et de générateurs thermoélectriques.
Rachetée par Facebook en février 2014, WhatsApp fait fuir ses utilisateurs. En cause, ses conditions de service et sa politique de confidentialité un peu trop curieuses en matière de données personnelles. Elles devaient entrer en vigueur le 8 février, mais WhatsApp a finalement décidé de les reporter sans donner de nouvelle date.
Mais cette décision suffira-t-elle à limiter la fuite d’utilisateurs et l’amende de 50 millions d’euros que s’apprêterait à lui infliger l’Irlande pour non-respect du RGPD ? Il est encore trop tôt pour le savoir. Par le passé, Facebook n’a pas perdu énormément d’utilisateurs malgré ses méthodes peu orthodoxes en matière de respect de la vie privée.
Cette polémique à propos des conditions de services de WhatsApp a au moins eu le mérite de rappeler qu’il existe de nombreuses autres messageries tout aussi efficaces, mais qui, en plus, récupèrent très peu de données personnelles sur leurs utilisateurs.
Des États très curieux
Autre argument en leur faveur : elles déploient différentes techniques afin de limiter les risques de fuites de données ou d’interception par des États. Beaucoup de pays souhaitent en effet « écouter » les communications des messageries et interdisent donc le chiffrement de bout en bout. Ce procédé brouille les messages sur l’appareil de l’expéditeur et ne les déchiffre pas avant qu’ils arrivent sur l’appareil du destinataire. En Chine, WhatsApp est surveillé et le pays privilégie WeChat, sa messagerie nationale.
D’autres États imposent aussi aux éditeurs d’intégrer des backdoors (schématiquement, un accès à l’application). Les raisons avancées sont multiples : nécessité de surveiller des réseaux de pirates ou des escrocs.
Fin 2020, le fournisseur de services de messagerie allemand Tutanota (considéré comme l’une des solutions les plus sécurisées au monde) a été contraint par décision de justice d’intégrer une backdoor dans ses serveurs, afin que la police judiciaire puisse espionner la boîte de réception d’un maître chanteur présumé.
L’affaire WhatsApp a donc propulsé sur le devant de la scène quelques messageries, qui sans être confidentielles, n’étaient pas vraiment connues du grand public. Elles proposent pourtant les mêmes fonctionnalités : envoyer des messages, lancer des appels vidéo ou vocaux gratuits et participer à une conversation avec une personne ou un groupe.
Des projets open source plus respectueux
C’est le cas de Signal. Recommandée par Edward Snowden, cette application pour smartphone (mais il existe aussi une version desktop) a connu une forte augmentation du nombre d’utilisateurs au cours des dernières années, en raison de ses fonctions de protection de la vie privée : elle ne relie aucune donnée à votre identité et adresse IP, chiffre les flux de messages (y compris les métadonnées) de bout en bout, crypte les données sur l’appareil (iOS et Android uniquement) et celles qui sont sauvegardées dans le cloud (sauf s’il s’agit de iCloud d’Apple et de Google Drive).
Les utilisateurs peuvent opter pour la suppression automatique de leurs messages au bout d’un certain temps. Cette option garantit le respect de la vie privée, même si quelqu’un d’autre a accès au téléphone.
Enfin, Signal est une association indépendante à but non lucratif dont le développement est soutenu uniquement par les dons des utilisateurs et de fondations (la Freedom of the Press Foundation, la Knight Foundation, la Shuttleworth Foundation et l’Open Technology Fund).
« J’ai une préférence assez nette pour Signal, car c’est un projet Open source qui n’est pas trop jeune (juillet 2014) donc pas trop fragile en termes de pérennité. Côté sécurité, il utilise des algorithmes d’OWS prouvés formellement. Son interface est très proche de celle de WhatsApp (facilité pour l’adoption) et la découverte des contacts est automatique (il n’y a pas à les ajouter un par un) », nous explique Renaud Lifchitz, Chief Scientific Officer chez Holiseum, une société française spécialisée dans la sécurité informatique.
Tout est crypté
Il existe deux autres alternatives à WhatsApp. La première est Wire qui dépend de la juridiction suisse et qui est financée par Janus Friis, Iconical et Zeta Holdings Luxembourg. Outre les appels vocaux/vidéo, cette application (iOS, Android, Windows, Mac et Linux) permet des conversations privées ou de groupe, les transferts de fichiers jusqu’à 25 Mo et le partage de fichiers multimédia.
Côté sécurité, elle utilise un nouveau cryptage de bout en bout (baptisé « Proteus » et inspiré de celui de Signal) pour chaque message, réduisant ainsi l’impact d’une seule clé compromise. De plus, l’application est open source, ce qui permet aux utilisateurs de la modifier, de l’inspecter et de l’améliorer.
La seconde messagerie recommandée est également suisse. Open source, Threema est financée par ses utilisateurs et Afinum Management AG. Elle offre presque toutes les fonctionnalités que l’on peut attendre d’une messagerie instantanée sans compromettre la sécurité. Pour commencer, l’application ne nécessite pas de numéro de téléphone (vous pouvez créer à la place un identifiant à 8 chiffres) ou d’autres informations personnelles pour l’enregistrement.
Vos listes de contacts et vos informations de groupe sont stockées uniquement sur votre téléphone, et non dans l’application. L’application supprime les messages de ses serveurs dès qu’ils sont remis au destinataire et elle assure un chiffrement de bout en bout pour tous les types de messages, y compris les textes, les appels vocaux, les fichiers partagés et les discussions de groupe.
Mais ces trois applications que l’on peut recommander ne sont pas les seules à profiter du scandale WhatsApp. Des internautes ont remis au goût du jour ICQ, un service de messagerie apparu au milieu des années 1990. Il a été modernisé au fil des ans et il est même proposé aujourd’hui sous forme d’une application pour smartphones.
Autre piste à suivre, le projet open source Matrix. « Elle s’appuie sur un standard ouvert pour une communication chiffrée de bout en bout et décentralisée. Cette solution supporte les appels et les visio mais elle est davantage orientée vers les groupes de discussion », signale Renaud Lifchitz.
Smartphones, ordinateurs portables, trottinettes, vélos électriques… de nombreux équipements mobiles ont besoin d’un chargeur externe pour recharger leurs batteries. Née il y a tout juste un an, la start-up Wise-Integration fabrique des composants électroniques ainsi que des architectures systèmes afin de concevoir des convertisseurs de puissance plus petits, plus légers, mais surtout qui ne s’échauffent pas. Ils offrent ainsi une efficacité énergétique plus élevée que les chargeurs traditionnels. La société s’appuie sur la technologie GaN (nitrure de gallium) développée au CEA-Leti. Rencontre avec Thierry Bouchet, le co-fondateur et CEO de Wise-Integration.
Techniques de l’Ingénieur : Quelle est l’origine de la création de votre start-up ?
Thierry Bouchet, co-fondateur et CEO de Wise-Integration – Crédits photos : Wise-Integration
Thierry Bouchet : Depuis une dizaine d’années, sont apparus des nouveaux matériaux appelés III-V – en référence à la place des éléments utilisés dans le tableau périodique – comme le nitrure de gallium.
Celui-ci permet de concevoir des semi-conducteurs aux propriétés bien meilleures que le silicium, le matériau actuellement le plus utilisé pour en fabriquer. Pour une même taille de composant, le nitrure de gallium présente une efficacité énergétique beaucoup plus élevée que le silicium. Aujourd’hui, l’enjeu principal est d’introduire ce nouveau matériau dans la filière des semi-conducteurs.
Son avantage est qu’il se dépose sur du silicium ; il est donc compatible avec l’ensemble de l’environnement des semi-conducteurs traditionnels. Depuis une dizaine d’années, le CEA-Leti travaille sur la technologie GaN et a conçu des démonstrateurs de convertisseurs de puissance. Notre start-up est issue d’un essaimage de cet institut de recherche.
Que commercialise Wise-Integration ?
Nous détenons un portefeuille de brevets issus du CEA-Leti avec des architectures à base de nitrure de gallium. À chaque fois que l’on introduit cette technologie dans un système électronique comme un chargeur, il faut également revoir toute la construction du système. S’il est conçu de la même manière qu’avec des composants siliciums, le bénéfice final est faible. Nous fabriquons des composants électroniques à base de nitrure de gallium et nous les vendons accompagnés de l’architecture du système permettant de fabriquer de nouveaux types de chargeurs. Ils possèdent une efficacité énergétique de 98 %. Pour un chargeur de 100 watts, la perte énergétique est de 2 watts alors qu’avec les systèmes traditionnels, elle est comprise entre 6 et 8 watts. Cela permet de répondre aux enjeux de la transition énergétique en participant à la réduction des gaz à effet de serre. Cette meilleure efficacité s’explique parce qu’ils chauffent moins. La technologie GaN permet de faire fonctionner le système à plus haute fréquence et de réduire tous les éléments à l’intérieur, voire de les supprimer à l’image des radiateurs. Ainsi, nos chargeurs sont aussi plus compacts et plus légers.
La prise murale de type USB-C ne s’échauffe pas et peut donc s’intégrer dans un mur – Crédits photos : Wise-Integration
Où sont fabriqués vos composants GaN ?
Ils sont conçus par TSMC (Taiwan Semiconductor Manufacturing Company) en Asie, le leader mondial des fondeurs qui a mis au point cette technologie et qui l’a industrialisée. Cette entreprise conçoit des wafers en nitrure de gallium sur silicium. Ce sont des matériaux semi-conducteurs qui servent de supports à la fabrication de nos composants.
Quels types de chargeurs proposez-vous ?
Nous avons commencé par concevoir une prise murale de type USB-C. Certains lieux comme des aéroports ou des hôtels ont intégré des prises murales USB pour permettre au public de recharger leurs appareils mobiles sans avoir besoin de leur chargeur externe. Par contre, avec l’augmentation du besoin de puissance de ces équipements, la puissance de ces prises est devenue trop limitée et un nouveau standard est sorti : l’USB-C. Il peut atteindre jusqu’à 100 watts mais s’échauffe et il n’était pas possible jusque-là de l’intégrer dans un mur. Grâce à notre architecte système, nous avons pu surmonter cette difficulté.
Nous venons de présenter, au CES de Las Vegas, le Power Cube, un chargeur pour vélo électrique trois fois plus petit, trois fois plus léger et trois fois plus efficace que les chargeurs standards. Sa puissance est de 100W ; pour un chargeur de 200 W il faut mettre deux Power Cube. Il ne pèse que 130 grammes et est si compact qu’il peut s’intégrer dans le cadre du vélo. Du coup, partout où il y a une prise électrique, il est possible de recharger la batterie.
Quelles sont vos perspectives de développement ?
La technologie GaN a pénétré le marché grâce aux chargeurs rapides externes pour smartphones en début d’année 2020, mais est encore peu développée. Dans ce marché compétitif, notre start-up se différencie grâce à son architecture système innovante. À terme, nos produits seront moins chers que les solutions traditionnelles et notre solution sera pertinente pour toutes les alimentations de puissance comprises entre 45 watts et 3 KW. Au début de cette année 2021, nous allons réaliser une levée de fonds afin de qualifier notre premier portefeuille de composants et commencer à les produire pour les vendre auprès de nos premiers clients comme Hager pour les prises murales. Nous les vendons aussi à des sociétés en Asie que l’on appelle des intégrateurs et qui fabriquent des alimentations de puissance pour des grands comptes comme HP, Apple, Schneider… Nous allons d’ailleurs ouvrir un bureau à Taïwan afin de nous rapprocher de nos clients intégrateurs. Notre ambition est de devenir le leader mondial de la miniaturisation des alimentations de puissance d’ici 4 ans et d’atteindre un chiffre d’affaires de 30 millions de dollars en 2025.
SpaceX a pris l’habitude de battre des records. Le 24 janvier dernier, c’est celui du nombre de satellites lancés simultanément qui a été pulvérisé, avec 143 satellites embarqués dans la fusée Falcon 9 et mis en orbite. Le précédent record était de 104 satellites mis en orbite, par l’agence spatiale indienne.
143, un nombre à peine croyable… Les esprits taquins noteront que la majorité des satellites embarqués lors de cette mission – baptisée Transporter-1 – étaient des cubesats et des petits satellites. Cela dit, SpaceX, une fois n’est pas coutume, a à travers cette mission confirmé sa capacité à casser les coûts de mise en orbite, 1 million de dollars par satellite pour ce lancement… Alors que la fusée géante Starship, que l’on devrait voir à l’oeuvre dans les mois à venir, pourra embarquer pas moins de 400 satellites ! Voila qui devrait relancer le débat sur l’encombrement spatial, qui s’est invité sur le devant de la scène depuis que la firme spatiale d’Elon Musk travaille à la mise en place de la constellation Starlink, que nous avons déjà évoquée à de nombreuses reprises dans Un mois dans l’espace.
Sur les 143 satellites mis en orbite lors de cette mission, seulement 10 étaient estampillés Starlink : ce sont les premiers de la constellation à être déployés sur une orbite polaire.
En ce qui concerne le volet réutilisation, le booster du premier étage, le B1058, qui effectuait son cinquième vol, s’est posé après la mission sur une barge, au large des côtes bahaméennes.
Revivez l’intégralité de la mission en vidéo :
Virgin Orbit lance sa première fusée depuis un Boeing 747 en vol
La deuxième tentative de VirginOrbit aura été la bonne. Après un premier échec en mai 2020, la firme américaine a retenté de lancer sa fusée, le Launcher One, le 17 janvier dernier à partir d’un avion (voir la vidéo ci-dessous), cette fois avec succès. La réussite est même totale, puisque VirginOrbit en a même profité pour placer en orbite des satellites pour ses clients.
Produire de l’oxygène à partir de poussière lunaire ?
Une étude récente menée par l’ESA affirme que le régolithe lunaire pourrait permettre à l’homme de produire l’oxygène nécessaire. Le régolithe est la partie du sol reposant sur la roche mère. Sur la Lune, il est essentiellement composé de poussière de Lune.
Les centrales dites « pilotables » sont celles qui répondent (par une baisse de leur production ou une hausse) aux demande des gestionnaires de réseaux de transport d’électricité chargés de maintenir l’équilibre entre offre et demande électrique ainsi que la tension à chaque instant sur l’ensemble des lignes en Europe… Notamment lors des épisodes de « pointe » (capacité maximale nécessaire) en hiver (pour le chauffage lors d’une vague de froid inférieure aux moyennes) et en été (pour la climatisation, lors d’une vague de chaleur extrême). Par opposition, les énergies renouvelables électriques produisent de manière variable (en fonction de la météo notamment) un courant qui est, dans la majorité des cas, injecté sur le réseau sans aucune restriction.
France Stratégie rappelle d’abord que les possibles défaillances du système électrique viennent d’être remises en avant quand, à l’automne dernier, le gestionnaire du réseau français, RTE, a mis en garde sur de potentielles difficultés d’approvisionnement en cas de grand froid cet hiver, alors que ce sujet avait « quasiment disparu des préoccupations du grand public » et a été d’une manière générale très peu intégré dans le débat public sur l’énergie.
L’organisme public signale que « des objectifs très ambitieux de développement d’énergies renouvelables ont été décidés, mais les solutions en termes de pilotage et de maîtrise de la demande, de capacités de stockage et, plus généralement, de flexibilité et d’intégration au réseau restent à l’heure actuelle insuffisamment développées. La capacité à assurer la sécurité d’approvisionnement telle qu’elle est définie aujourd’hui est donc incertaine dans les périodes de tension et nécessitera un développement approprié des solutions de flexibilité et de stockage. »
Retrait du pilotable, montée des ENR
France Stratégie indique que « dans les prochaines années, la plupart des gouvernements européens envisagent de déclasser d’importantes capacités de production pilotable ». D’ici à 2030-2035, Elia, le GRT belge, évalue dans l’édition de 2019 de son étude biannuelle que ce seront plus de 110 GW de puissance pilotable qui seront retirés du réseau européen, dont 23 GW de nucléaire (environ 13 GW en France, selon la PPE, et 10 GW en Allemagne), 70 GW de charbon/lignite (dont environ 40 GW en Allemagne) et 10 GW de gaz ou fioul. En outre, le Royaume-Uni devrait encore enlever 4 GW de charbon, dans le cadre de sa stratégie progressive (horizon 2025) de sortir de cette énergie fossile. De même, en Italie, ce sont 6 GW au charbon qui devraient être mis hors réseau d’ici à 2025, et en Espagne 9 GW à ce même horizon.
En outre, parallèlement à ces retraits de capacité, « dans le cadre de leurs différentes transitions énergétiques, les pays européens se sont fixé des objectifs très ambitieux de développement de l’éolien (terrestre et maritime) et de solaire photovoltaïque (PV). Ainsi en 2030, près de 200 GW d’ENRi [énergies renouvelables intermittentes, selon l’appellation de France Stratégie, NDLR] devraient être installés en Allemagne d’après la dernière loi EEG 21, et 75 GW en France, 20 GW en Belgique, 100 GW en Espagne, 70 GW en Italie, etc. » indique France Stratégie.
Bilan, selon l’organisme ministériel : « dès 2030 et vraisemblablement à une date plus rapprochée, si les tendances actuelles se maintiennent, les seuls moyens pilotables ne seront pas en mesure de satisfaire toutes les demandes de pointe moyennes ».
Pour l’Allemagne et la Belgique, le risque pourrait même se présenter bien avant… Et pour parer à ce déficit de moyens pilotables, les deux pays envisagent en outre de remplacer une partie de leurs capacités par des centrales à gaz, en contradiction avec les objectifs européens en matière d’émissions de gaz à effet de serre, récemment revus à la hausse.
Des recommandations
Rappelant que l’intégration des renouvelables intermittentes dans le système électrique ne pose pas de problème tant qu’elles n’en représentent qu’une part, cette situation change quand elles vont représenter une part équivalente, voire supérieure à celle des centrales pilotables.
« Les solutions en termes de pilotage et de maîtrise de la demande, de capacité de stockage et, plus généralement, de flexibilité et d’intégration au réseau restent actuellement insuffisamment développées », insiste la note de l’organisme.
Au-delà du constat, France Stratégie fait ainsi une série de recommandations. Notamment, pour les ENR, il est recommandé, « au risque de rendre non pilotable le système électrique », de faire en sorte que, « le plus rapidement possible », elles soient « en mesure de contribuer à son équilibre technique (participation à la réserve, au traitement des congestions réseaux…) ».
Par ailleurs, ce nouveau « paradigme » implique une plus grande coordination entre les structures d’approvisionnement des différents pays, estime le document. « Cela doit être possible sans remettre en cause le principe de subsidiarité via des travaux de mise en cohérence des différents scénarios nationaux. Des coopérations existent, mais elles devraient être renforcées et institutionnalisées à une échéance la plus rapprochée possible, par exemple au travers de groupes de travail communs aux différentes administrations », insiste France Stratégie. Et si le nouveau paquet législatif européen constitue un « progrès » en ce sens, la note d’analyse juge que cela sera « insuffisant pour fournir les signaux économiques adéquats ».
Sans oublier, insiste la note, qu’il faut éviter la contradiction entre indépendance énergétique et objectifs climatiques. Ainsi, « la politique communautaire doit mettre au premier plan l’objectif de réduction des émissions de gaz à effet de serre, afin d’inscrire les investissements dans une trajectoire cohérente avec nos objectifs à horizon 2050 ». Et il s’agit notamment, indique France Stratégie, d’achever la réforme du marché européen du carbone, « toujours en attente des réformes structurelles permettant de fournir un signal-prix clair pour les investissements de long terme », plus particulièrement en étudiant « de près » un prix plancher et un prix plafond.
La modélisation moléculaire provient des physiciens théoriciens qui l’utilisaient pour confirmer leurs modèles théoriques. La simulation moléculaire utilise ces modèles pour tenter de représenter au mieux la réalité. Elle devient alors un outil de laboratoire à part entière. L’introduction d’interfaces graphiques, rendant l’utilisation des codes de calcul plus conviviale, ne peut à elle seule expliquer son fabuleux essor de ces dernières années. Des ordinateurs de plus en plus puissants et des modèles de plus en plus raffinés contribuent également à un tel développement.
Bien qu’employés souvent l’un pour l’autre, les concepts de modélisation moléculaire et de simulation moléculaire sont à différencier. Pour ce faire, nous considérons les définitions que donne Le Petit Robert des mots modélisation et simulation. La modélisation est une « mise en équations d’un phénomène complexe permettant d’en prévoir les équations. Spécialement : Établissement d’un modèle mathématique compréhensible par l’ordinateur pour la description et la restitution d’un objet naturel ». Quant au terme simulation, nous prendrons la définition datant du milieu du XXesiècle: « représentation du comportement de systèmes physiques (par des calculateurs numériques, etc.) en simulant par des signaux appropriés les grandeurs réelles ». Il faut donc bâtir les modèles qui vont représenter au mieux, c’est-à-dire simuler, les systèmes. Le concept de modèle implique des degrés d’approximation tant au niveau calculatoire que moléculaire. De ce fait, il est important de rendre compte du niveau de détails avec lesquels une simulation est générée. Cette approche dite multi-échelles a d’ailleurs été récompensée par le comité du prix Nobel de chimie de 2013.
La modélisation : le chaînon manquant
La perception du public scientifique concernant la simulation moléculaire est en pleine évolution. Le rôle d’expérimentateur numérique à part entière prend de plus en plus forme. Celui qui génère des simulations n’est plus forcément le théoricien en train de prouver son modèle en travaillant sur des algorithmes, puis de les faire tourner sur de puissants ordinateurs. C’est en ce sens que la modélisation se transforme en simulation. Elle est en quelque sorte le chaînon manquant entre l’expérience et la simulation. Les trois voies d’appréhender la science, soient simulation, expérience et théorie, forment donc un triumvirat scientifique; un «triummatter» serait certainement plus approprié. L’exégèse de sa situation croissante dans les mondes scientifique et industriel se situe à plusieurs niveaux:
niveau computationnel : accroissement de la puissance des ordinateurs;
niveau utilisateur averti : performance des codes de calcul;
niveau consommateur : qualité des logiciels de visualisation;
niveau scientifique : qualité, et conformité des résultats, ainsi qu’explication de phénomènes;
niveau industriel : réduction des expériences coûteuses.
L’expérimentateur numérique est indubitablement une profession qui tend à prendre de plus en plus d’ampleur. Pour conclure, une citation de Max Planck datant de 1950 est fort à propos. En voici une traduction libre de ma part: « une innovation scientifique majeure ralliera rarement ses adversaires en les convertissant : il arrive rarement que Saul devienne Paul. Ce qui se passe, c’est que ses adversaires s’éteignent les uns après les autres, et que la nouvelle génération se sera familiarisée avec ces idées depuis le début : un autre exemple du fait que l’avenir appartient aux jeunes ». (« An important scientific innovation rarely makes its way by gradually winning over and converting its opponents : it rarely happens that Saul becomes Paul. What does happen is that its opponents gradually die out, and that the growing generation is familiarized with the ideas from the beginning : another instance of the fact that the future lies with the youth »).
Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 10 février 2021 !
Les paramètres physiques, chimiques et biologiques que les logiciels de modélisation prennent en compte sont extrêmement nombreux. C’est la qualité et la puissance des algorithmes développés qui va permettre une modélisation la plus fine possible des interactions moléculaires, pour prédire par exemple l’affinité d’un candidat médicament avec une molécule cible, comme avec la molécule du coronavirus dans le cadre de la lutte contre la pandémie actuelle.
La course contre la montre des laboratoires pharmaceutiques pour développer des médicaments contre le SARS-CoV-2 depuis près d’un an illustre parfaitement l’apport des technologies de simulation et de modélisation numériques dans le développement de nouvelles molécules à forte valeur ajoutée.
Au sein des laboratoires de recherche pharmaceutique, il se révèle crucial de pouvoir développer des modélisations et des simulations les plus précises possibles, et le plus rapidement possible.
La modélisation et la simulation permettent aujourd’hui de traiter la problématique sanitaire mondiale sous différents angles : la modélisation de l’épidémie, la modélisation du virus, des candidats médicaments, l’analyse statistique de l’efficacité des mesures mises en place… Revenons sur quelques applications très concrètes de technologies de modélisation et de simulation.
Modélisation de l’épidémie de Covid-19
Le travail des laboratoires pharmaceutiques, s’il est sur le devant de la scène depuis quelques mois, n’est pourtant pas la première illustration de ce que permet aujourd’hui la modélisation et la simulation. Depuis le début de l’épidémie, les données accumulées au jour le jour par une multitude d’organismes comme le CNRS ont permis, dès le début de la crise, de modéliser l’évolution des nouveaux cas de Covid-19, d’en anticiper les pics, les plateaux, les baisses… avec une certaine fiabilité, mais aussi beaucoup d’incertitudes liées à notre connaissance encore très partielle du virus SARS-CoV-2.
Qui dit modélisation et simulation dit besoin de données. Cette crise sanitaire nous montre tous les jours que les données circulent, partout, tous les jours. Même si on constate en France une certaine réticence à ces évolutions, en témoigne le faible nombre de Français ayant téléchargé l’application TousAntiCovid : seulement 12,3 millions de téléchargements à la mi janvier.
Propagation des gouttelettes de salive
Une équipe de chercheurs de l’université de Rouen a montré que le coronavirus se propage plus vite dans un milieu dense, à l’aide d’un logiciel de simulation développé par Ansys : « La simulation est une solution efficace pour visualiser le flux d’air et la propagation des minuscules gouttelettes expectorées par une personne contaminée qui tousse ou respire fort. La technologie permet d’identifier les endroits où les particules peuvent se déposer afin de minimiser les risques de contamination », explique à France Bleu Thierry Marchal, Directeur Santé d’Ansys chez Ansys.
Recherche de médicaments
Plusieurs acteurs travaillent à modéliser les interactions entre les candidats médicaments et le SARS-CoV-2. Le travail est considérable, et la multiplicité des données à prendre en compte gigantesque.
La start-up Aqemia, dont vous pouvez lire l’interview du cofondateur Maximilien Levesque, a de son côté signé un contrat avec Sanofi pour mettre son savoir-faire en termes de modélisation et de simulation pour contribuer à la recherche de médicaments contre le coronavirus.
Anticipation de la seconde vague
Le projet Hidalgo, financé par l’Union Européenne, permet à une équipe de chercheurs de mettre au point une simulation permettant d’évaluer les effets des décisions prises lors des confinements successifs : fermeture de certains magasins, mise en quarantaine de personnes ou de groupes de personnes, couvre-feu… La simulation a réussi à prédire la seconde vague épidémique qui allait se produire quelques semaines plus tard dans la ville de Londres, et permet aux experts d’orienter plus finement leurs préconisations quant aux mesures à adopter pour limiter la propagation du virus.
Au final, l’épidémie de coronavirus illustre bien les enjeux qui occupent le secteur de la simulation et de la modélisation pour la santé : la rapidité et la précision des outils numériques, qui font tourner les algorithmes développés par les chercheurs.
Si ces deux facteurs permettent aux entreprises développant des logiciels de simulation et de modélisation de se différencier sur les marchés, ils sont également aujourd’hui sur le devant de la scène, pour des questions de santé publique.
Nous vous annoncions en juillet dernier que les énergies renouvelables – éolien, solaire, hydroélectricité et bioénergies – avaient surclassé les combustibles fossiles dans la génération d’électricité au premier semestre 2020. Un nouveau rapport du think tank Ember et d’Agora Energiewende dévoile que les énergies renouvelables détrônent les énergies fossiles aussi au deuxième semestre. Ainsi, en 2020, les énergies renouvelables sont devenues la première source d’électricité en Europe pour la première fois. Elles ont généré 38% de l’électricité produite dans les 27 États membres de l’Union européenne sur l’année 2020, contre 37% pour les énergies fossiles et 25% pour le nucléaire. L’intensité carbone atteint 226 grammes de CO2 par kilowattheure, contre 317 grammes en 2015.
Malgré la crise sanitaire, le développement des énergies renouvelables a poursuivi sa croissance au détriment des énergies fossiles. Sur l’année, l’éolien et le solaire ont généré 19 % de l’électricité européenne, l’hydroélectricité et les bioénergies 19 %. Cette croissance globale provient des déploiements éolien et solaire ; les capacités installées liées aux bioénergies et à l’hydroélectricité restent stables depuis 2018. La production d’électricité éolienne a ainsi augmenté de 9%, celle du solaire de 15%, alors que le charbon a diminué de 20%, le gaz de 4%. La demande d’électricité au niveau européen a pour sa part diminué de 4%, en lien avec la crise sanitaire.
Un point de bascule en vue d’une accélération
« La croissance rapide de l’énergie éolienne et solaire a entraîné le déclin du charbon, mais ce n’est que le début, prévient Dave Jones, analyste chargé du dossier électricité à Ember. L’Europe compte sur l’énergie éolienne et solaire pour garantir non seulement l’élimination progressive du charbon d’ici 2030, mais également pour remplacer la production de gaz, remplacer les centrales nucléaires en fermeture et pour répondre à la demande croissante d’électricité liée aux voitures électriques et aux pompes à chaleur. »
La production électrique d’origine éolienne et solaire a ainsi augmenté de 51 térawattheures (TWh) sur l’année. C’est plus que la moyenne de la décennie, à 38 TWh. Mais cela reste bien en-dessous des 100 TWh par an nécessaires pour atteindre l’objectif européen de réduction de 55% des émissions gaz à effet de serre, selon Ember. « Actuellement, les plans nationaux intégrés en matière d’énergie et de climat ajouteront jusqu’à 72 TWh par an, donc les pays doivent augmenter considérablement leurs objectifs 2030 », met en garde le think tank.
Sur l’année, les pays ayant connu une hausse de leurs capacités éoliennes et solaires les plus importantes sont les Pays-Bas (40%), la Suède (36%) et la Belgique (28%). À l’opposé, l’Autriche, le Portugal et la République tchèque ont enregistré une croissance négative, avec presque aucune nouvelle installation de capacité et une baisse de production des capacités existantes, probablement à cause des conditions climatiques. La croissance est également restée proche de zéro en Slovaquie, en Italie et en Roumanie. La France a connu pour sa part une hausse de 14%, mais reste en bas de tableau en termes de part de solaire et d’éolien dans le mix électrique, à 10%, contre 19% en moyenne en Europe. Le pays se classe ainsi 23e sur 27.
Mi-janvier, les premiers utilisateurs anglais de Starlink (service d’Internet par satellite de SpaceX et Elon Musk) ont reçu leur kit composé d’une petite antenne parabolique et d’un routeur WiFi. Les tarifs sont identiques à ceux proposés outre-Atlantique, soit 500 euros environ pour l’antenne et 56 euros le routeur.
L’abonnement est de 100 euros par mois pour bénéficier de débit situés entre 100 et 150 Mb/s. Des tarifs très élevés si on les compare à ceux pratiqués par les fournisseur d’accès à Internet français. Mais Starlink ne s’adresse qu’à ceux qui ne peuvent tout simplement pas accéder au haut débit.
Une idée qui refait régulièrement surface. En 2004, le groupe Luxembourgeois SES GLOBAL (connu pour ses satellites Astra) proposait un service de haut débit par satellite baptisé « Netbysky » et destiné à couvrir l’ensemble du territoire français, y compris dans les zones non desservies par ADSL.
Elon Musk relèvera peut-être ce pari. Après les États-Unis, le Canada et donc le Royaume-Uni, Starlink souhaite proposer ses services en bande Ka (26,5 à 40 gigahertz) dans plus d’une douzaine de pays parmi lesquels la Grèce, la France, la Nouvelle-Zélande, l’Afrique du Sud, l’Inde, le Japon… Début 2021, l’Allemagne lui a délivré une licence, mais le service n’est pas encore opérationnel.
Depuis la faillite de OneWeb en mars dernier, Starlink met les bouchées doubles. À l’heure actuelle, l’opérateur de satellites a déjà environ 960 satellites LEO (Low Earth Orbit) en orbite et ambitionne d’en déployer au total 4 425 d’ici 2024 (10 000 autres pourraient être déployés fin 2026).
Mais le service d’Elon Musk devrait faire face à un autre puissant concurrent : Kuiper Systems d’Amazon (qui investira plus de 10 milliards de dollars). Ce projet impliquerait le lancement de 3 236 satellites en LEO. L’occasion pour les deux milliardaires de s’affronter au travers de batailles judiciaires. Principal sujet de discorde : l’altitude de ces engins. Aux États-Unis, Kuiper Systems s’est en effet plaint auprès de la Federal Communications Commission car leurs flottes seraient trop proches.
SpaceX a proposé de réduire l’altitude d’exploitation des futurs satellites Starlink de 1 110-1 325 km à 540-570 km. Mais l’orbite la plus basse de Kuiper est de 590 km, avec une tolérance de 9 km au-dessus ou en dessous…
Deux projets identiques ? À première vue, oui. Mais Amazon ne devrait pas se contenter de services à haut débit pour des zones reculées. Le géant du e-commerce est aussi l’un des leaders en matière de cloud.
Amazon Web Services (AWS), sa branche dédiée au cloud a généré près de 12 milliards de dollars de chiffre d’affaires et 3,54 milliards de dollars de bénéfices au dernier trimestre 2020 ! AWS pourrait donc s’appuyer sur le réseau Kuiper pour fournir des services aux entreprises qui ne bénéficient pas de haut débit.
Face à ces deux projets américains, l’Europe tente de ne pas être distancée. Bruxelles a commandé une étude de faisabilité à de grands noms européens comme Airbus, Thalès, Orange ou Eutelsat pour concevoir un service d’Internet satellitaire européen destiné à stimuler l’économie digitale et réduire la fracture numérique.
L’Europe considère qu’un tel projet est en mesure de tirer parti, voire de renforcer le rôle des satellites dans un écosystème 5G, voire 6G. « Reposant sur le programme européen GOVSATCOM, dédié à la mutualisation et au partage des services satellites, il garantira un haut niveau de fiabilité, de résilience et de sécurité », indique Orange.
Maximilien Levesque est le cofondateur et actuel CEO d’Aqemia. Titulaire d’un PHD en physique quantique théorique du CEA Saclay, il est passé par Oxford et Cambridge pour faire de la mécanique statistique, puis a ensuite été embauché en 2013 en tant que chercheur au CNRS à l’ENS. Il y a monté un groupe de recherche avec deux domaines d’expertise : la mécanique statistique des liquides et l’intelligence artificielle appliquée à la chimie.
Il a accepté de répondre aux questions de Techniques de l’Ingénieur sur les technologies de modélisation et de prédiction développées au sein d’Aqemia, et notamment sur le partenariat avec Sanofi, qui confirme au niveau industriel la technologie développée et validée jusque-là au niveau académique, avec un premier contrat à la clé pour la spinoff.
Techniques de l’Ingénieur : Pouvez-vous revenir sur la genèse d’Aqemia, que vous avez cofondé en 2019 avec Emmanuelle Martiano ?
Maximilien Levesque : Avec le groupe de recherche au sein duquel je travaillais au CNRS, nous avons développé une technologie utile pour la recherche pharmaceutique. Ce que nous avons découvert a été transféré vers Aqemia lors de sa création.
J’ai cofondé Aqemia dans le courant de l’année 2019 avec Emmanuelle Martiano, qui est aujourd’hui COO d’Aqemia, et qui avait auparavant passé neuf ans en conseil et stratégie au BCG (Boston Consulting Group). Nous avons donc deux profils très complémentaires.
Tout de suite après la fondation d’Aqemia, nous avons levé des fonds – 1,6 million d’euros -, via un fonds d’investissement, Elaia, Bpifrance et des business angels, afin de développer notre technologie et construire une équipe et un produit capables d’apporter de la valeur dans des projets de collaboration avec des laboratoires pharmaceutiques.
Ensuite est arrivée la crise sanitaire que nous traversons encore aujourd’hui. Etant donné que nous travaillons sur la conception de médicaments, nous nous sommes bien sûr interrogés sur les moyens que nous pouvions mettre en place pour être utiles.
Nous avons commencé à faire des recherches pour trouver des médicaments contre le Covid-19 à partir du mois de mars 2020, tout en continuant à développer notre équipe. Nous sommes aujourd’hui une douzaine de personnes.
Où en êtes-vous concernant vos recherches sur le SARS-CoV-2 ?
Nous avons signé notre premier contrat commercial avec Sanofi, qui prend la forme d’un partenariat pour trouver des médicaments contre le Covid-19. Cela constitue pour nous un jalon très important, puisque Sanofi est un leader mondial de la recherche pharmaceutique, ce qui accrédite le fait que la technologie développée par Aqemia est unique et différenciée. Aussi il s’agit de notre premier gros contrat, ce qui est très important pour nous, car cela valide la forte valeur ajoutée de notre technologie dans un contexte industriel.
Revenons sur la genèse d’Aqemia. Qu’est-ce qui vous a décidé à passer de la recherche académique à une spinoff ?
Il y a eu deux étapes très importantes. La première a eu lieu quand j’étais encore au CNRS. Je suis un jour tombé sur un communiqué de presse de Sanofi, relatant la contractualisation pour 120 millions d’euros entre un laboratoire pharmaceutique et une société américaine, sur une problématique de calcul d’énergie libre. Je me suis rendu compte que nous pouvions faire ce genre de calculs aussi bien que nos concurrents, mais dans un temps beaucoup plus court. 10 000 fois plus court.
La deuxième étape est ma rencontre avec Emmanuelle Martiano, COO d’Aqemia, avec qui nous sommes très complémentaires.
La technologie semblait prête, les fondateurs aussi. Nous avons donc décidé de tenter l’aventure : c’était l’objectif de cette première levée de fonds, avec l’ambition de faire valider industriellement l’intérêt de notre technologie et une traction commerciale. Cela a fonctionné et a été validé par notre premier gros contrat, avec Sanofi. C’est quelque chose de très important pour nous.
Quelles sont les perspectives aujourd’hui ?
Nous sommes en train de mettre en place une deuxième levée de fonds, qui aura lieu au premier semestre 2021, avec pour objectif d’accélérer notre développement, multiplier les collaborations comme celle avec Sanofi et développer nos propres programmes de recherche interne.
Passons au volet technologique. Qu’est-ce qui différencie Aqemia de ses concurrents ?
Dans Aqemia, il y a deux technologies qui se parlent. La première technologie, qui a été développée à l’ENS, permet de prédire sur des bases physiques, si une petite molécule – un candidat médicament – est efficace. Pour être efficace, il faut que cette molécule ait une bonne affinité avec sa cible thérapeutique.
La cible thérapeutique, qui est une grosse molécule, peut être vue comme un verrou, qui est responsable d’une maladie, et plus précisément d’un mécanisme de cette maladie. Il s’agit donc pour nous de trouver la bonne clé – parmi une quasi infinité de solutions – qui va entrer dans le verrou et l’empêcher de jouer son rôle dans la maladie. Ce que mon équipe et moi avons inventé à l’ENS et qui a été transféré par la suite chez Aqemia, c’est une technologie qui permet de prédire cette affinité de la clé pour son verrou. Scientifiquement parlant, il s’agit de prédire l’énergie libre de liaison entre le candidat médicament et la cible thérapeutique.
Notre technologie peut prédire, grâce à des algorithmes très rapides et très précis, si les deux molécules s’emboîtent bien l’une dans l’autre.
Comment expliquer les performances des algorithmes que vous évoquez ?
Notre façon de prédire l’interaction et l’affinité est unique au monde. Il s’agit d’une toute nouvelle théorie, qui est une réécriture d’une théorie quantique. Concrètement, nous avons reformulé une théorie quantique, la DFT (density functional theory) de Walter Kohn, pour l’adapter à la mécanique statistique : la molecular density functional theory.
C’est grâce à cela que nous pouvons être plus précis et plus rapides dans la prédiction de l’affinité moléculaire.
Qu’en est-il de cette seconde technologie que vous évoquiez et qui « répond à la première » ?
La seconde technologie développée est une intelligence artificielle, qui invente de nouvelles molécules. Ainsi, ces deux technologies sont complémentaires, puisqu’une technologie va permettre d’inventer des molécules, et une seconde va valider, ou pas, l’affinité entre cette nouvelle molécule et la cible thérapeutique. Si la molécule imaginée ne correspond pas, l’intelligence artificielle va prendre en compte les points de blocage pour inventer une autre molécule. Et ainsi de suite, le système informatique fonctionne par boucles d’améliorations, et après une grande quantité (de l’ordre de 10^6) de tests et de générations, nous obtenons une molécule qui correspond à la cible thérapeutique.
L’enjeu est donc double : il faut parvenir à obtenir des itérations de plus en plus pertinentes, mais il faut également que le temps alloué à la création d’une itération soit très court, car on parle de millions d’itérations, pour parvenir au résultat souhaité.
Aujourd’hui, nous sommes les seuls à être aussi rapides et précis dans la prédiction de l’affinité, ce qui permet de la coupler à de l’IA générative. C’est ça qui fait l’unicité d’Aqemia.
C’est donc cette méthodologie que vous avez mise en place pour développer des médicaments contre le Covid-19 ?
Pour développer un médicament contre le SARS-CoV-2, nous sommes partis de molécules dont nous savions qu’elles avaient une bonne affinité pour la protéase du VIH (et également la protéase de SARS-CoV-1), qui a beaucoup de similitudes avec celle SARS-CoV-2. Nous avons pris ces molécules et nous les avons testé sur la protéase de SARS-CoV-2 : notre algorithme d’intelligence artificielle la modifie, petit à petit, par itérations, pour in fine aboutir à une molécule ayant une affinité optimale avec la cible thérapeutique du SARS-CoV-2. En un mot, Aqemia cherche une clé pour le verrou « protéase » de SARS-CoV-2.
Qubit Pharmaceuticals est une spin-off issue de quatre universités : deux en France (Sorbonne Université et le Cnam) et deux aux Etats-unis (Washington University in Saint Louis et University of Texas in Austin). La mission de Qubit Pharmaceuticals est de résoudre les problématiques que rencontrent les laboratoires pharmaceutiques en termes de recherche de nouveaux médicaments, et d’accélération des premières étapes du développement de candidats médicaments. En partie grâce aux avancées scientifiques et aux ruptures technologiques qu’ont développées les fondateurs scientifiques de Qubit Pharmaceuticals, dont Jean-Philip Piquemal est le directeur scientifique aujourd’hui. Il est également directeur du laboratoire de chimie théorique CNRS-Sorbonne université. Avec Robert Marino, le PDG de la start-up, ils sont revenus pour Techniques de l’Ingénieur sur la genèse de Qubit Pharmaceuticals, ainsi que les technologies développées par la startup pour chercher et trouver des candidats médicaments, avec une précision et une vitesse toujours plus importante.
Techniques de l’Ingénieur : Expliquez-nous les caractéristiques du logiciel Tinker-HP, qui permet à Qubit Pharmaceuticals de proposer des simulations moléculaires précises et rapides ?
Robert Marino : Cela fait une trentaine d’années qu’a été développé un logiciel, Tinker, qui permet de faire de la modélisation moléculaire.
Robert Marino, PDG de Qubit Pharmaceuticals
Autour de ce logiciel se sont réunis plusieurs talents, pour aboutir au développement du logiciel Tinker-HP, version massivement parallélisée, et qui a deux particularités : la première, c’est que Tinker-HP est à ce jour le logiciel de simulation le plus précis, puisqu’il profite de champs de forces qui permettent de calculer l’ensemble des paramètres des molécules et obtenir leurs conformations les plus probables. La seconde, c’est que c’est également le logiciel le plus rapide de sa catégorie.
Une des problématiques de la simulation moléculaire est le manque de précision. À cela s’ajoute la capacité des logiciels à donner des résultats rapidement : il faut parfois plusieurs semaines de calculs pour obtenir un résultat, lorsque l’on travaille sur des structures très complexes. Cela pose évidemment problème, quand on est à la recherche d’un médicament et qu’il faut optimiser un nombre important de molécules différentes.
Toute la force de Tinker-HP et d’AMOEBA, qui est le champ de forces utilisé, est d’être extrêmement précis, ce qui nous permet de ne pas transiger sur la qualité et la précision des calculs, tout en étant extrêmement rapides.
C’est ce qui vous a décidé tous les deux à tenter l’aventure Qubit Pharmaceuticals ?
Robert Marino : Ce qui m’a plu et m’a donné envie de rejoindre Qubit, c’est ce pari fou fait il y a trente ans, de ne pas développer des logiciels pour les ordinateurs d’aujourd’hui, mais plutôt pour les ordinateurs de demain, qui auront la puissance de calcul nécessaire pour les faire tourner. C’est un pari osé, puisqu’il va à rebours de tout ce qui se fait dans l’industrie, où la norme est plutôt de développer des logiciels adaptés aux puissances de calcul disponibles, mais limitées : on retrouve logiquement ces limitations dans les logiciels qui en découlent. La deuxième chose, c’est ce que Jean-Philip Piquemal m’avait dit lorsqu’il faisait son post-doctorat sur Tinker : il avait alors travaillé sur la modélisation d’une molécule pendant 18 mois avant d’obtenir ses premiers résultats. C’est à partir de là que Jean-Philip a décidé de développer la version Tinker-HP, pour réduire les temps de calcul.
Jean-Philip Piquemal : Développer un logiciel plus rapide, en prévision des progrès de l’informatique, a toujours été l’objectif. Une première version du logiciel était utilisée en interne dans les laboratoires académiques et a permis de mettre en place toutes les équations physiques : ces équations existent depuis les années 2000. Ce qui manquait à l’époque était la possibilité de réduire le temps de traitement des données, pour intéresser les acteurs de l’industrie pharmaceutique.
Jean-Philip Piquemal, directeur scientifique de Qubit Pharmaceuticals
C’est une problématique dont nous avions déjà conscience au début des années 2000. C’est à ce moment-là devenu mon activité principale, avec l’objectif d’accélérer toutes ces méthodes. J’ai obtenu un poste en France pour travailler sur ce sujet, et l’un des étudiants qui travaillait pour moi sur ce sujet à l’époque est aussi devenu un des cofondateur de Qubit Pharmaceuticals : il s’agit de Louis Lagardère. Avec lui, nous avons passé près de neuf ans à faire du calcul intensif (HPC, high performance computing), et beaucoup de mathématiques, pour essayer au maximum de reformuler les équations et de les adapter aux énormes puissances de calcul que l’on a aujourd’hui.
Ce qui s’est passé entre-temps est la formidable avancée au niveau informatique à laquelle nous avons assisté : cartes graphiques, cloud, nouveaux processeurs… nous sommes aujourd’hui capables de mobiliser une puissance de calcul extrêmement grande. Les équations qui nous paraissaient très difficiles à résoudre il y a 15 ans ne le sont plus du tout, et les gains de temps de calcul qui en découlent changent beaucoup de choses, notamment par rapport à l’intérêt du domaine pharmaceutique pour ces solutions.
Au-delà de la précision et de la rapidité, sur quels aspects de la modélisation avez-vous porté vos efforts ?
Robert Marino : Dès le début, l’équipe fondatrice s’est concentrée sur la précision et la rapidité des calculs, mais également tout particulièrement sur la compréhension des résultats rendus. Nous réalisons ceci via un logiciel qui s’appelle VTX (développé au sein de l’équipe de Matthieu Montès au CNAM), et qui permet de faire de la visualisation de résultats à grande échelle, pour rendre leur interprétabilité optimale.
Proposer un produit qui permet d’obtenir des résultats rapidement, avec précision et interprétables : c’est d’ailleurs la convergence de ces trois éléments qui a amené à la création de Qubit Pharmaceuticals.
Jean-Philip Piquemal : Notre objectif est de modéliser totalement les molécules. Notre logiciel permet de modéliser très finement la cible que l’on va viser à travers le design d’un médicament.
Prenons un exemple d’actualité, à savoir celui du virus SARS-CoV-2. Sur les six premiers mois de 2020, la quasi-totalité des très nombreux groupes de recherches travaillant sur le sujet au niveau théorique n’ont pas proposé de piste de médicaments contre le coronavirus, parce que les molécules qu’ils ont modélisées n’étaient pas réalistes. Il faut bien comprendre que l’évolution dans le temps d’une molécule s’accompagne de changements de forme, et c’est quelque chose qu’il faut prendre en compte si l’on veut pouvoir proposer une description moléculaire la plus optimale possible.
Nos méthodes prennent en compte cette dimension temporelle, via la dynamique moléculaire.
Une fois que l’on a défini un modèle de la cible, nous avons alors la possibilité de décrire, de façon extrêmement précise, le candidat médicament, que nous allons faire interagir avec la cible. Une de nos spécificités est la capacité que nous avons de simuler l’interaction entre la cible et le médicament, encore une fois avec une grande précision.
Quelle est la marge d’erreur pour ces simulations ?
Jean-Philip Piquemal : La marge d’erreur dépend de la quantité de calculs que l’on fait et du type de physique que l’on utilise. Nous utilisons des classes de physique très proches de la mécanique quantique. Nous n’utilisons pas l’équation de Schrödinger dans son intégralité, mais plutôt une de ses caractéristiques, à savoir les effets à N corps.
Cela nous permet dans nos simulations de prendre en compte beaucoup de phénomènes physiques qui sont en général laissés de côté à ce niveau atomique. C’est de cette façon que nous obtenons des marges d’erreurs très faibles.
Typiquement, les laboratoires pharmaceutiques exigent des barres d’erreurs inférieures à 1 kcal/mol pour une interaction d’un médicament avec une cible. A ma connaissance, nous sommes les seuls à pouvoir fournir ces prestations au niveau industriel à l’heure actuelle.
Est-ce entre autres parce que vous créez toutes les data vous-mêmes ?
Robert Marino : En effet. C’est ce qui rend la plateforme de simulation très performante. Il y a beaucoup d’annonces depuis quelques temps, de sociétés annonçant avoir trouvé des résultats d’une précision extrême sur telle ou telle molécule… Ce qui n’est pas dit, c’est qu’il s’agit d’un travail énorme d’accumulation de données, dans un set-up très particulier. On en revient à la notion de temps de retour pour obtenir des résultats. Si on demande à ces sociétés de travailler sur de nouvelles molécules, il va leur falloir reparamétrer tous leurs outils et il leur faudra des mois pour obtenir des résultats.
Jean-Philip Piquemal : Nous n’avons pas ces contraintes car nous reconstruisons tout avec de la physique : cela nous demande plus de puissance de calcul mais nous permet de ne pas être limité en termes de temps de traitement. Il faut bien avoir à l’esprit que la configuration des molécules évolue dans le temps.
Ainsi le nombre de configurations à tester avant d’arriver à un résultat le plus précis possible est donc gigantesque : c’est pour cela que la question du temps de calcul devient aujourd’hui fondamentale. Revenons sur l’exemple du coronavirus. C’est un virus qui mute, il faut donc pour les fabricants de vaccins être prêts et capables de réagir vite à ces mutations, pour recombiner les vaccins et les adapter aux nouvelles formes du virus. Pfizer a annoncé être en capacité de recombiner son vaccin en six semaines au niveau expérimental. Il est donc important pour les calculs théoriques d’être précis et beaucoup plus rapides que les expériences s’ils veulent être utiles d’où l’importance de rester à la pointe dans le domaine du calcul scientifique haute performance.
D’où l’importance d’avoir des data de bonne qualité ?
Robert Marino : C’est un schisme majeur. On voit aujourd’hui de plus en plus de sociétés se lançant sur l’IA et manipulant des quantités de données astronomiques… Nous avons de notre côté pris le parti d’avoir des données propres, et de travailler avec tout le monde : ceux qui font de l’IA, l’industrie pharmaceutique… Cette problématique des données propres est très importante, et peu d’entreprises au niveau mondial sont capables de les fournir.
D’ailleurs, la qualité des données me paraît être un facteur fondamental de succès pour les années à venir, dans le domaine dans lequel nous évoluons.
Jean-Philip Piquemal : Nous avons décidé de nous concentrer sur nos domaines de compétences et de ne pas nous éparpiller. Notre spécialité, c’est l’affinité d’un médicament pour sa cible : les candidats qui passent avec succès la phase préclinique avec nos méthodes ont beaucoup plus de chance d’aller au bout. Cela permet aux sociétés pharmaceutiques de réduire leurs coûts de manière substantielle.
Pour ce qui concerne les données, en générer n’a rien de compliqué. Par contre, générer de la donnée intelligente est beaucoup plus complexe. Il faut aussi avoir les talents en interne et les compétences en termes de biologie, de chimie, pour être en capacité de générer ces données intelligentes. C’est un facteur capital d’optimisation.
Comment appréhendez-vous l’avènement à venir de l’informatique quantique ?
Robert Marino : On se dirige effectivement, pas à pas, vers l’informatique quantique. Pour Qubit Pharmaceuticals, le fait d’avoir une plateforme change beaucoup les choses, car cela nous permet de faire les transitions conceptuelles des différents types de hardware qui arrivent.
Notre plateforme est construite pour être agnostique envers les processeurs que l’on utilise. Ainsi, le jour où les processeurs quantiques seront au point, nous pourrons directement basculer nos calculs dessus.
C’est d’ailleurs un gros pan de travail pour nous, car il nous faut dès aujourd’hui préparer la transition quantique, pour être en capacité de répondre aux besoins de nos clients, le moment venu. Nous poussons les technologies classiques, jusqu’à ce qu’elles soient battues par les technologies quantiques. L’important pour Qubit est d’avoir un avantage concurrentiel : peu importe au final si cet avantage est classique ou quantique. Nous voulons proposer les solutions les plus rapides et les plus précises à nos clients, que ce soit avec du quantique ou pas.
Rachel Schurhammer est directrice de la faculté de chimie de Strasbourg. Elle est également enseignant-chercheur, spécialiste en modélisation moléculaire de solutions complexes.
Avec son équipe du laboratoire de modélisation et simulations moléculaires (UMR 7140) de l’université de Strasbourg, Rachel Schurhammer, qui a commencé à travailler sur la modélisation moléculaire au début des années 2000, utilise modèles et méthodes de simulations moléculaires pour étudier au niveau nano-scopique la structure et les propriétés de liquides moléculaires.
Pour les Techniques de l’ingénieur, elle a accepté de revenir sur les avancées technologiques en termes de modélisation, et plus particulièrement sur l’importance, aujourd’hui, d’adapter les méthodes aux objectifs recherchés.
Techniques de l’Ingénieur : Quelles sont les modélisations qui mobilisent le plus la recherche à l’heure actuelle ?
Rachel Schurhammer : Il y a beaucoup de modélisations de phénomènes chimiques bien sûr, mais aussi des modélisations touchant au domaine de la biologie, des polymères, ou bien encore des matériaux.
Rachel Schurhammer, directrice de la faculté de chimie de Strasbourg. Elle est également enseignant-chercheur, spécialiste en modélisation moléculaire de solutions complexes.
Ces dernières sont de plus en plus répandues dans le domaine pharmaceutique pour modéliser le docking des molécules, les interactions substrat/protéine, la conformation des protéines…
Ces activités de modélisation sont extrêmement liées à la performance des machines, bien évidemment.
La modélisation pour l’industrie chimique s’est beaucoup développée également, même si moins de spécialistes travaillent dessus, pour étudier par exemple pour le développement ou l’optimisation de nouveaux matériaux (matériaux pour le stockage de l’énergie, catalyseurs, isolants), de procédés (extraction, séparation, conversion de la biomasse) ou de nouveaux produits chimiques (solvants, additifs, remplacement de solvants dangereux pour une chimie verte).
Qu’en est-il au sein de votre laboratoire ?
Dans notre laboratoire, nous sommes spécialisés dans l’étude de solutions chimiques complexes à base de solvants « néotériques ».
Ces nouveaux liquides, tels que les liquides ioniques ou les solvants eutectiques profonds, sont souvent plus écologiques, plus faciles à retraiter, peu chers… et sont très attendus par les industriels pour faire évoluer leurs pratiques.
Quelques exemples de modélisations réalisées par Rachel Schurhammer et son équipe. Cliquer sur l’image pour l’agrandir.
Microscopiquement, nous ne savons pas grand-chose de ces solutions. Il y a encore aujourd’hui un gros pan de recherche fondamentale à effectuer, pour expliquer leurs structures, propriétés de solvatation et dynamiques, leurs interfaces avec l’eau et comprendre leur apport à la chimie actuelle…
D’un point de vue chimique, ces solutions et leurs systèmes biphasiques avec lesquelles nous travaillons vont être étudiées et testées par les expérimentateurs, dans notre cas, principalement dans le cadre d’applications dans le domaine de l’extraction liquide/liquide ou des processus de catalyse par transfert de phase..
Quelles sont les applications potentielles de ces recherches ?
Les champs d’applications de ces nouveaux liquides sont nombreux et visent soit à l’optimisation de procédés connus soit au développement de nouvelles applications. On peut citer par exemple l’utilisation des liquides ioniques pour l’extraction ou retraitement des métaux ou des matériaux nucléaire (tels que le lithium ou les terres rares de nos composés électroniques). La nécessité de trouver des procédés industriels de retraitement pour ces matériaux, qu’on utilise massivement depuis quelques années, devient en effet de plus en plus pressante.
Notre laboratoire travaille également sur l’extraction des polyphénols pour l’industrie cosmétique : savoir comment on va pouvoir extraire des matériaux organiques à base de déchets végétaux par exemple, dans des conditions plus « vertes », pour satisfaire des clients de plus en plus regardants quant à l’aspect écologique des produits cosmétiques.
Vous travaillez sur de la modélisation dite classique. Quels en sont les particularités ?
La modélisation moléculaire est un ensemble de techniques permettant de modéliser ou de simuler le comportement de molécules. La modélisation moléculaire dite « classique » correspond à l’utilisation de la mécanique newtonienne pour modéliser des systèmes moléculaires. Typiquement, les modèles consistent en des atomes sphériques reliés par des ressorts qui représentent les liaisons. Les forces internes considérées dans la structure modélisée sont décrites en utilisant des fonctions mathématiques simples.
Ce modèle a montré sa puissance dans la prédiction et la compréhension de phénomènes à l’échelle micro ou nanoscopique depuis le début des années 1980. A l’époque, il a été développé pour traiter des systèmes plus gros que ce que l’on pouvait obtenir à l’aide de la chimie quantique, comme des systèmes en solution. Ces modèles fonctionnent très bien, tant qu’on ne leur demande pas des choses qu’ils ne sont pas capables de faire…
Ces deux modèles, classique et quantique, sont-ils d’une certaine façon en concurrence pour faire de la modélisation ?
Il faut avoir à l’esprit que le modèle classique et la chimie quantique sont complémentaires. Les deux ont leurs avantages. Ceux qui travaillent sur les modélisations tentent de faire converger ces deux modèles le plus possible, bien que l’on soit encore loin à l’heure actuelle d’une réelle unification.
La chimie quantique traite du calcul de la structure électronique des atomes et molécules. Il s’agit de résoudre l’équation de Schrödinger indépendante du temps pour le mouvement des électrons dans les systèmes poly-électroniques. Elle permet la description du comportement électronique des atomes et des molécules pour expliquer leurs réactivités. Il est alors possible de prédire des spectres électroniques, la faisabilité d’une réaction, les chemins réactionnels, et de nombreux paramètres physico-chimiques qui dépendent de la structure électronique du système étudié.
Le problème de la chimie quantique est qu’elle est très gourmande en termes de temps de calcul, au point d’être très limitée dans l’étude des grands systèmes. Il faut donc travailler sur des petits systèmes moléculaires – généralement d’une centaine atomes – pour lesquelles il sera compliqué d’obtenir des informations sur les effets de l’environnement composant le système.
On reste également souvent sur des modèles statiques, pour lesquels on va obtenir des vues statiques, qui correspondent à des états où la structure étudiée est dans une configuration d’énergie minimale, ou celle d’un état excité par exemple.
Qu’en est-il pour le modèle classique ?
Dans le domaine de la modélisation dite classique, étant donné que nous travaillons avec un modèle simple, nous avons la possibilité de simuler sur des systèmes beaucoup plus gros, de l’ordre du million d’atomes de manière dynamique. Cela va par exemple permettre de décrire une protéine dans un solvant, des systèmes biphasiques, ou encore un virus, pour prendre un exemple d’actualité.
Mais dans ce modèle il est impossible d’avoir une modification de la structure électronique au cours du temps, on ne verra pas de rupture et de création de liaisons, car le modèle est basé sur des interactions non covalentes.
Peut-on imaginer aboutir à une approche “unifiée” ?
Nous en sommes encore loin. A l’heure actuelle, le travail des chercheurs en termes de modélisation est en effet d’essayer de faire converger ces deux approches : il existe ainsi aujourd’hui une multitude de méthodes mêlant les approches classiques et quantiques pour décrire un système chimique.
Un des désavantages de la dynamique moléculaire classique est qu’il faut des paramètres pour décrire les atomes : il faut donc développer des modèles pour décrire les systèmes chimiques. Ces modèles, s’ils sont de plus en plus précis, doivent également être transférables, pour avoir un champ d’application moins limité que ce pour quoi ils ont été développés.
De nombreuses méthodes sont développées à l’heure actuelle, et un des enjeux de la recherche est d’arriver à adapter les méthodes aux modèles avec lesquels nous travaillons : c’est un point très important, sur lequel nous insistons beaucoup, notamment avec les étudiants que nous formons. Il existe aujourd’hui quantité de logiciels, dont beaucoup sont en accès libre : il est assez facile aujourd’hui de lancer des calculs et d’obtenir des résultats… mais selon la méthode choisie, le système, les paramètres, les résultats obtenus varient du tout au tout et peuvent n’avoir aucun sens. D’où l’importance de savoir quels types de méthodes appliquer pour une problématique donnée. Cela permet de savoir ce que l’on peut attendre de chaque méthode en termes de résultats, en fonction des objectifs recherchés.
342 000 sites aux sols contaminés sont recensés en Europe, dont environ 30 % par des hydrocarbures. Un nombre probablement sous-estimé et qui pourrait en réalité atteindre jusqu’à deux millions et demi. À l’origine de ces pollutions, la présence d’entreprises de pétrochimie sur ces terrains ou des stations-service dont les réservoirs ont fui. Actuellement, la méthode pour analyser ces sols consiste à envoyer un échantillon de terre dans un laboratoire agréé. Elle nécessite par contre l’utilisation d’appareils lourds et coûteux comme un chromatographe en phase gazeuse couplé à un spectromètre de masse. Cette méthode demande également l’emploi de solvants pour extraire les polluants du sol avant analyse. Des scientifiques du Laboratoire de chimie de l’environnement et de l’Institut de chimie radicalaire, associés à la société Environnement Investigations, ont développé une nouvelle approche applicable directement sur le terrain, moins coûteuse et plus verte. Ce travail de recherche vient d’être publié dans la revue Analytical Chemistry.
La méthode ne nécessite aucun solvant
La technique repose sur l’utilisation d’un appareil à infrarouge de petite taille, transportable et dont le prix s’élève à environ 15 000 euros. Il doit être équipé d’un module ATR (Attenuated Total Reflectance) ; il s’agit d’un diamant de forme carrée mesurant un demi-centimètre de côté et sur lequel est placé l’échantillon à analyser. Dans le passé, des méthodes infrarouges ont déjà été utilisées, mais ont dû être abandonnées car elles employaient des solvants, comme le tétrachlorure de carbone et le trichlorotrifluoroéthane, très nocifs pour la couche d’ozone et très toxiques. Leur utilisation a donc été interdite par les laboratoires pour extraire des polluants. « Notre méthode ne nécessite aucun solvant. Les polluants présents dans le sol sont extraits en chauffant l’échantillon à 300 degrés pendant 40 minutes », explique Sébastien Maria, enseignant-chercheur, à l’Institut de chimie radicalaire.
Les scientifiques ont mis au point une pastille métallique d’un centimètre de diamètre sur laquelle ils ont déposé un film de silicone grâce à des méthodes de spin coating, un procédé d’enduction centrifuge permettant la pose rapide de ce film. Ce support métallique est ensuite fixé au-dessus du tube contenant l’échantillon de terre à chauffer grâce à la présence de deux aimants. En s’évaporant, les hydrocarbures sont alors absorbés par le silicone. La pastille métallique avec cette couche de silicone est ensuite posée sur le module ATR du spectroscope infrarouge afin de réaliser l’analyse dont le temps n’excède pas deux minutes.
Pour ce travail de recherche, des sols ont été volontairement dopés avec des quantités déterminées d’hydrocarbures afin de construire des courbes pour calibrer les résultats obtenus. Le spectroscope infrarouge est à présent capable de détecter des hydrocarbures à partir d’un seuil d’environ 300 mg de polluants par kg d’échantillons de sol. « Nous obtenons un résultat qui est en dessous de la valeur recommandée de 500 mg par kg de sol, complète le chercheur. Notre méthode répond donc aux exigences réglementaires. Elle est aussi beaucoup plus rapide puisqu’elle peut se réaliser sur le terrain (compter environ 50 minutes entre le chauffage de l’échantillon et l’analyse). L’appareillage étant peu coûteux, n’importe quelle entreprise pourra s’équiper. Enfin, notre procédé est écologique puisqu’il n’utilise aucun solvant. »
L’appareil à infrarouge se transporte sur le terrain afin de réaliser les analyses sur place – Crédit photo : Institut de chimie radicalaire
Des difficultés à extraire les hydrocarbures dans des sols argileux
Seul bémol, cette méthode donne de moins bons résultats en présence de sols argileux. Les hydrocarbures se retrouvent en effet coincés entre les feuillets d’argile. Et chauffer l’échantillon à 300 degrés n’est pas suffisant pour parvenir à les extraire. En augmentant cette température, il serait possible d’y parvenir, mais cela risquerait de chauffer fortement le tube contenant l’échantillon et au final d’endommager le silicone présent sur la pastille métallique. « On pourrait imaginer un système permettant de refroidir le haut du tube et ainsi préserver le silicone afin de réussir à extraire les hydrocarbures dans un sol argileux, analyse Sébastien Maria. Nous allons demander un autre financement pour poursuivre ce travail de recherche. »
Dans une publication à paraître prochainement, les scientifiques ont également développé une autre méthode à nouveau basée sur l’infrarouge, mais utilisant cette fois-ci un solvant beaucoup moins nocif pour l’environnement que ceux employés dans le passé : le pentane. Ils ont réussi à démontrer qu’il permet d’extraire les hydrocarbures dans le sol, quelle que soit leur nature, même ceux argileux. En s’évaporant, le pentane laisse apparaître un film d’hydrocarbure qui est ensuite analysé grâce à un spectroscope infrarouge. « Nous obtenons également de très bons résultats avec une limite de détection inférieure à ce que nous obtenons avec la première méthode développée, ajoute le chercheur. Mais l’inconvénient est que cette fois, nous utilisons un solvant. »
La proposition de loi a été adoptée par le Sénat en première lecture le 13 janvier, par quasiment l’ensemble des groupes politiques. Elle a maintenant été transmise à l’Assemblée Nationale. Avec 26 articles répartis en 5 chapitres, ce projet de loi, déposé par Patrick Chaize, sénateur Les Républicains de l’Ain, et plusieurs de ses collègues, complète le projet de loi climat et la loi anti-gaspillage et économie circulaire récemment votée.
« C’est le premier projet de loi à l’échelle mondiale qui vise à réduire l’empreinte environnementale du numérique, prévient Frédéric Bordage, expert indépendant du numérique responsable et créateur de la communauté GreenIT.fr consacrée à l’informatique durable. Il faut saluer les sénateurs à l’origine du projet sur cet aspect novateur ». L’association Halte à l’Obsolescence Programmée (HOP) salue également le texte.
Dans l’hémicycle, le secrétaire d’État chargé de la transition numérique, Cédric O, a pour sa part estimé que « la volonté qui irrigue la proposition de loi rejoint celle du gouvernement dans le cadre de sa feuille de route interministérielle pour faire converger numérique et écologie ». Elle doit être présentée « début février ». Il a toutefois exprimé des « réserves » sur certains points.
Augmenter la durée de vie des terminaux
Le texte propose plusieurs mesures pour limiter le renouvellement des terminaux. « C’est capital, car en France, la fabrication des équipements, notamment des terminaux, est responsable de 80 % de nos impacts numériques si on considère le cycle de vie complet », rappelle Frédéric Bordage.
Ainsi, le projet de loi entend simplifier la définition du délit d’obsolescence programmée pour le rendre plus aisé à démontrer et inciter les fabricants à plus d’éco-conception. Le projet de loi veut aussi s’attaquer à l’obsolescence logicielle. Il propose ainsi de dissocier les mises à jour nécessaires à la conformité des terminaux des mises à jour évolutives ou de confort. Cela reviendrait à donner à l’utilisateur le choix d’éviter d’installer des mises à jour pouvant entraîner un ralentissement voire un dysfonctionnement de son terminal. En cas d’adoption définitive, la réversibilité des mises à jour non essentielles serait aussi permise. Le projet de loi propose en plus d’étendre la durée de garantie légale des équipements numériques à cinq ans, contre deux ans aujourd’hui.
Développer les usages du numérique écologiquement vertueux
Les sénateurs ont prévu de mieux encadrer les usages du numérique. Ils souhaitent par exemple interdire, à titre préventif, les forfaits mobiles avec un accès illimité aux données. Le projet de loi prévoit en plus d’obliger les services de vidéo à la demande d’adapter la qualité de la vidéo téléchargée à la résolution maximale du terminal et d’interdire le lancement automatique des vidéos. Il prévoit également d’interdire la pratique du défilement infini des services de communication au public en ligne.
« Il est disproportionné de focaliser l’attention sur trois défauts de conception alors que nous en croisons quotidiennement des centaines, réagit Frédéric Bordage. La loi doit rendre obligatoire l’éco-conception en pointant vers un référentiel reconnu par la profession. Ce n’est pas au législateur de définir si les vidéos doivent se déclencher automatiquement ou pas ». Dans la version actuelle, l’éco-conception s’appliquerait uniquement aux GAFAM. « L’article 16 doit être plus contraignant, c’est à dire obligatoire, et s’appliquer aux services numériques de l’État, ainsi qu’aux entreprises de plus de 250 millions d’euros de chiffre d’affaires comme c’est déjà le cas pour l’accessibilité numérique », propose l’expert.
Pour des centres de données et réseaux moins énergivores
Le quatrième chapitre veut diminuer la consommation des centres de données et des réseaux. Le projet de loi incite les opérateurs à prendre des engagements pluriannuels contraignants de réduction de leurs impacts environnementaux auprès de l’Autorité de régulation des communications électroniques, des postes et de la distribution de la presse (Arcep). Ils devront notamment inclure des initiatives pour réduire les impacts associés à la fabrication et à l’utilisation des box mises à disposition de leurs abonnés. L’Arcep pourrait à l’avenir refuser d’attribuer des fréquences radioélectriques pour cause de la préservation de l’environnement.
Frédéric Bordage voudrait aller encore plus loin et invite les députés à s’intéresser à la question de la mutualisation des box. « Dans une tour de la Défense, on a une seule box pour 200 salariés et ça fait 20 ans que ça marche, note-t-il. Pourquoi ne pas avoir une seule box pour les immeubles d’habitations ? Ce projet devrait favoriser la mutualisation des équipements lorsque c’est possible. »
Sensibiliser les utilisateurs à l’impact environnemental
Le projet de loi comporte enfin plusieurs dispositions pour développer l’éducation à la sobriété numérique, dès le plus jeune âge. Les sénateurs proposent de conditionner le diplôme des ingénieurs en informatique à l’obtention d’une attestation de compétences acquises en éco-conception logicielle. « Cela fait des années que notre collectif se bat pour inclure la sobriété numérique dans les formations, c’est une excellente nouvelle, déclare Frédéric Bordage. Rappelons juste qu’on ne peut pas éco-concevoir un logiciel. L’éco-conception ne peut porter que sur un service numérique dans son ensemble. »
En outre, le texte prévoit la création d’un « Observatoire de recherche des impacts environnementaux du numérique » placé auprès de l’Ademe. Si le projet de loi est adopté, le bilan Responsabilité sociétale des entreprises (RSE) devrait comprendre des données sur l’impact environnemental du numérique. Et enfin, un crédit d’impôt à la numérisation durable des petites et moyennes entreprises pourrait voir le jour.
Réalisé par Observ’ER, la FNCCR (Fédération nationale des collectivités concédantes et régies) et l’Ademe (l’Agence de la transition écologique), le 11e baromètre des énergies renouvelables électriques souligne que la puissance raccordée au 30 septembre 2020 était de 56 523 MW, laissant estimer une projection de la dynamique 2020 à 57 700 MW. Ainsi, les ENR électriques auront produit 124 TWh et auront couvert 27,3 % de la consommation électrique nationale de fin septembre 2019 à fin septembre 2020.
En 2019, les technologies ENR spécifiquement électriques représentaient 39 920 emplois directs en 2019 (38 290 ETP en 2018) pour un chiffre d’affaires de 13,5 milliards d’euros (13 M€ en 2018).
La production repose toujours essentiellement sur l’hydroélectricité (63,5 TWh), devant l’éolien 39,2 TWh, le solaire PV (12,9 TWh), les bioénergies (7,7 TWh), les énergies marines (usine marémotrice de La Rance 480 GWh) et enfin, la géothermie, 133 GWh.
Mais 89 % des nouvelles capacités installées proviennent de deux filières, éolien terrestre et solaire photovoltaïque (PV)… Et cette tendance confirme celle des deux décennies précédentes, ces deux technologies représentant sur cette période 95 % des nouvelles capacités installées. Plus précisément, en 2020, 51 % des nouvelles puissances proviennent de l’éolien et 38 % du solaire. En termes de production, l’éolien a représenté 39,2 TWh, contre 12,9 TWh pour le PV, ce qui signifie que les deux filières combinées ne sont plus « marginales » dans le mix électrique.
Cependant, le document montre un risque de décrochage sur ces deux technologies par rapport aux objectifs définis à la fois dans le cadre des engagements européens, mais aussi vis-à-vis de la programmation pluriannuelle de l’énergie (PPE).
L’éolien, léger décrochage
D’abord, l’éolien : 671 MW ont été ajoutés depuis janvier 2020, à fin septembre, soit un rythme en retrait de 17 % par rapport à ce qui avait été observé sur la même période en 2019 (805 MW). Côté production, la filière a délivré, en 2019, 30,7 TWh d’électricité, soit environ 7,2 % de la consommation nationale. Au niveau européen, la France est restée en 2019 le quatrième pays en termes de puissance éolienne raccordée derrière l’Allemagne (60 840 MW), l’Espagne (25 742 MW) et le Royaume-Uni (23 931 MW).
En termes de puissance nouvellement raccordée au premier semestre 2020, l’éolien a traversé un trou d’air important à cause de la crise sanitaire, avec un recul de 45 % des volumes ajoutés par rapport à la même période de l’année précédente (363 MW contre 549). Sur l’ensemble des neuf premiers mois de l’année, on observe un recul de 17 %, précise Observ’ER. De la mi-mars au début du mois de mai, la grande majorité des parcs éoliens en construction se sont arrêtés sur l’ensemble du territoire. La priorité a été de réorganiser les chantiers pour leur mise en suspens (démontage de grues, protection du matériel et des équipements, balisage des chantiers) et de décaler les opérations dans le temps. L’administration a également retardé les appels d’offres, avec un effet rattrapage à l’été. Cependant, l’année 2020 va se clôturer avec un volume d’environ 1,4 GW de puissance supplémentaire, soit un chiffre très proche de celui de 2019. Le secteur s’écarte néanmoins un peu plus de ses objectifs futurs. En effet, si le développement du parc éolien a respecté le point de passage qui lui avait été assigné à fin 2018 en affichant 15 235 MW (contre un objectif de 15 000 MW), la filière savait qu’elle devait désormais progresser de pratiquement 2 GW à partir de 2019 pour respecter sa trajectoire à 2023 puis 2028.
Le solaire, un grand écart à combler
Comme les années précédentes, le baromètre fait apparaître un « décrochage » sérieux en termes de photovoltaïque, notamment depuis la publication de la PPE, dont les objectifs sont ambitieux, rappelle le document.
« Nous sommes autour de 1 GWc [gigawatt-crête, NDLR] par an, alors qu’il faudrait 2,5 GWc à 3 GWc par an » pour atteindre l’objectif fixé par la PPE, indique Frédéric Tuillé, responsable des études chez Observ’ER, lors de la présentation de l’étude.
Ainsi, si la capacité PV a passé la barre des 10 GW à fin septembre 2020, avec 10 596 MWc raccordés, et une production 2019 de 11 356 TWh, l’objectif à fin 2023 (échéance de la première période de la PPE) est de 20,1 GWc et à fin 2028, compris entre 35,1 GWc et 44 GWc. La croissance enregistrée à fin septembre 2020 (+692 MWc) est proche de celle enregistrée en 2019 sur la même période (+701 MWc), montrant la résilience du secteur en pleine crise sanitaire. Cependant, c’est loin d’être suffisant pour atteindre les objectifs 2023 et encore moins 2028. Et tripler la capacité installée par année constitue une « gageure », indique le rapport, rappelant que la seule fois où plus de 1 GW a été installé était en 2011 (1,8 GWc).
Des coûts de plus en plus compétitifs
Le baromètre indique que « les chiffres de 2019 montrent qu’en France, trois technologies sont à des niveaux de coût tout à fait compétitives face à une solution gaz : l’éolien terrestre, les grandes centrales photovoltaïques au sol et la petite hydroélectricité. Pour cette dernière technologie, l’amplitude des coûts est importante car elle correspond aux différents types de centrales (la puissance installée, la hauteur de chute ou l’hydrologie des sites) ».
Une fois encore les baisses les plus rapides sont enregistrées sur le solaire et l’éolien.
Sur la période 2008-2019, la valeur du coût moyen complet de production d’un mégawattheure (LCOE) d’éolien terrestre a baissé de 42 %, passant en moyenne de 104 €/MW à 60 €/MW (moyenne des estimations pour 2019), soit l’effet de la diminution des Capex (coûts d’investissement), de l’allongement de la durée de vie des équipements, de l’amélioration du facteur de charge lié à l’augmentation des hauteurs des nacelles et de la taille des rotors. L’autre facteur important est une baisse du facteur d’actualisation (passant de 6 % à 4 %), qui représente un tiers de la baisse.
« Pour les installations solaires au sol, la décroissance du LCOE a été très impressionnante », insiste le baromètre Observ’ER, qui se fonde sur les chiffres de l’Ademe. Entre 2008 et 2019, le Capex a été divisé par 7,3 et les Opex (coûts d’exploitation) par 4,7. Pour les années à venir, les évolutions font état d’une diminution de l’ordre de 50 % du coût complet moyen d’ici à 2050.
Les objectifs d’électricité renouvelable pour la France en 2023 seront-ils atteints ?
Extrait du Baromètre 2020 des énergies renouvelables en France par Observ’ER
2020 aura été une année… particulière. Une pandémie doublée d’une crise économique et couronnée par une série de confinements : ce sont là les ingrédients parfaits pour revisiter le passé. Chez Techniques de l’Ingénieur, le coup de blues ne nous a pas laissés indifférents.
Et à année spéciale, sujet spécial. Petit tour des biotechnologies rouges (comprendre : spécifiques au domaine de la santé) les plus prometteuses de ces 20 dernières années ! Et si le troisième millénaire n’a jusqu’à présent été que trop généreux, ne perdons pas de vue les perspectives bioéthiques.
Le dilemme 23andMe
En 2006, une biotech parmi tant d’autres voyait le jour en Californie. Mais la promesse de 23andMe n’est pas passée inaperçue : proposer des tests génétiques aux particuliers. Découvrir ses origines ancestrales contre un simple échantillon salivaire et 99 $ ? Un marché qui s’est vite avéré gagnant. En 2019, 23andMe pouvait se targuer d’un chiffre d’affaires de 475 millions de dollars. Son offre s’est diversifiée depuis quelques années et inclut désormais des dépistages génétiques liés à la santé.
Cependant, les tests génétiques « récréatifs » sont toujours interdits en France. Ce qui, selon le magazine de l’Inserm, n’empêche pas 100 000 à 200 000 personnes à y recourir chaque année en faisant appel à des entreprises internationales (comme 23andMe, et ses concurrentes MyHeritage DNA ou AncestryDN, entre autres).
Pour Bernard Baertschi, chercheur en philosophie et éthique à l’université de Genève, interrogé par le magazine de l’Inserm : « Quel est le risque psychologique de recevoir de simples informations chiffrées sans accompagnement médical ? L’être humain ne sait pas bien décider en situation d’incertitude. »
Toujours est-il qu’aux Etats-Unis, les bases de données d’ADN humain, précieux répertoires de patrimoine génétique, ont été cruciales dans l’identification et la capture de serial killers longtemps restés anonymes ! Faut-il pour autant, par respect de la vie privée, en brider l’utilisation ?
Les « ciseaux moléculaires »
CRISPR-Cas9, surnommée technique des « ciseaux moléculaires », permet de couper l’ADN avec une précision inédite. Si bien qu’en octobre 2020, Emmanuelle Charpentier et Jennifer Doudna, les découvreuses de cette méthode d’édition du génome, ont été récompensées du prix Nobel de chimie.
Développée en 2012, cette technologie ouvre la voie à des applications médicales auparavant inespérées. Néanmoins, des voix n’ont pas tardé à se lever contre d’éventuelles dérives bioéthiques, plus particulièrement concernant un risque potentiel de modification génomique sur les embryons ou les cellules germinales.
Les sonnettes d’alarme ont retenti de plus belle quand, en 2018, sont nés en Chine deux bébés dont les génomes ont été modifiés par Crispr-Cas9. Un an après la naissance des jumelles Lulu et Nana, The Guardian a donné la parole à la biologiste moléculaire et maîtresse d’enseignement en bioéthique Natalie Kofler (Université de Yale et Harvard Medical School) : « Crispr a le pouvoir de changer à jamais l’histoire de l’humanité, faisant ainsi de son utilisation éthique la responsabilité de chacun. En tant que citoyens, nous devons faire pression pour que les doyens des facultés de médecine, les professeurs, les responsables des subventions, les rédacteurs en chef des revues scientifiques, les responsables de la réglementation et ceux qui conçoivent les directives mondiales en matière de recherche viennent d’horizons très divers. »
Et alors que le but derrière cette expérience décriée était de rendre les nouveaux-nés génétiquement résistants au VIH, le MIT Technology Review a révélé en décembre 2019 que rien n’en démontre le succès. Crispr-Cas9 avait donc bein généré des mutations, mais qui auraient – ou pas ! – conféré une résistance au VIH…
Faire pousser des organes, sur des puces
En septembre 2020, Techniques de l’Ingénieur vous expliquait comment des chercheurs français travaillent au développement de tissus et d’organes sur des puces microfluidiques. Ces constructions physiologiques, capables de mimer les fonctions naturelles observées in vivo, sont une alternative éthique intéressante aux expérimentations sur les animaux.
Ainsi, Xavier Gidrol (CEA, Inserm et Université Grenoble-Alpes), directeur de recherche à la tête d’un projet de pancréas-sur-puce, interrogé dans notre article, détaillait : « Un problème majeur aujourd’hui est l’attrition [également appelée ‘taux d’abandon’, elle correspond à la perte de participants dans un essai clinique, NDLR], et une de ses raisons est l’inadéquation des modèles animaux qui ne sont pas toujours pertinents d’un point de vue scientifique ou bien acceptés d’un point de vue éthique. Les organes sur puce comblent ce vide car ils constituent des modèles plus pertinents pour les tests médicamenteux, en espérant qu’on obtiendrait ainsi moins de rejets et de déchets. »
Le Wyss Institute, à Harvard, est le laboratoire précurseur de la technologie des organes sur puces. C’est en 2010 qu’il avait publié dans Science les résultats de ses travaux sur la synthèse d’un poumon-sur-puce.
Néanmoins, la recherche clinique ne semble pas prête pour abandonner de sitôt les cobayes au profit d’organes sur puces. Clément Quintard, doctorant en microfluidique au CEA-Leti, écrit dans The Conversation : « Il faut encore confirmer sur le plan scientifique leur pertinence par rapport aux modèles animaux employés à l’heure actuelle. De plus, les organes sur puce et la microfluidique en général sont encore trop souvent difficiles d’utilisation. »
Dr. IA
Nous avons triché, car étymologiquement ceci n’est pas une biotechnologie mais une technologie appliquée à la santé. L’intelligence artificielle comme outil d’aide au diagnostic a fait ses preuves. Comme le rappelle le journal du CNRS, l’IA de deep learning « Show and Tell », élaborée par Google et entraînée pour légender automatiquement des images, était parvenue en janvier 2017 à repérer sur la peau 90 % des taches bénignes dans 130 000 images analysées, alors que les dermatologues n’en avaient reconnues que 76 %.
Du côté rival, IBM, de part sa division IBM Watson dédiée à l’IA, a créé une branche « Health » consacrée à la santé dont notamment l’imagerie médicale. Mais les multinationales de la tech, dont nous n’avons cité que deux noms, ne sont pas les seules sur le marché… Baignées dans cet engouement général, de nombreuses start-up santé bourgeonnent un peu partout (la France n’y fait pas exception) et essaient de rattraper le train en marche de l’IA, avec plus ou moins de succès.
En dépit des attentes optimistes liées aux algorithmes dans le secteur médical, des institutions invitent à la prudence quant au traitement et à la récolte des données. Ainsi, dans son avis paru en mai 2019, le CCNE (Comité consultatif national d’éthique) estime que « les résultats obtenus ne peuvent être évalués et validés que par une garantie humaine, condition d’une responsabilisation des acteurs », précisant que cette garantie « devrait être assurée par des instances indépendantes de contrôle ».
Et que faire quand l’IA se trompe ? À qui revient la responsabilité de l’erreur médicale ? Pour le magazine en ligne Quartz, la réponse est floue. Le média évoque le cas Da Vinci, le robot chirurgien : plusieurs plaintes ont été émises à l’encontre de Surgical Inc., le fabricant, après que Da Vinci ait brûlé des patients ou encore après que des pièces détachées du robot soient tombées (et retrouvées) dans le corps de patients… Ici, le verdict est clair : le fabricant est responsable. Mais qu’en est-il des IA alimentées de données racialement biaisées et dont les diagnostics se trouvent faussés par la couleur de peau du patient ? Qui est responsable : l’entreprise manufacturière ou le médecin qui a accepté le diagnostic ? La question reste ouverte.
Si les nouvelles technologies peuvent parfois être synonymes de progrès et avoir un impact positif sur notre mode de vie, elles ne sont pas exemptes de conséquences néfastes. Mais que leurs impacts soient positifs, négatifs voire les deux, réfléchir aux conséquences d’une technologie dès la conception s’avère fondamental. Avoir une approche éthique de l’innovation permet une meilleure prise en compte des impacts environnementaux, sociaux et sociétaux des nouvelles technologies.
Dominique Vinck, sociologue des sciences et de l’innovation et Professeur ordinaire à l’Université de Lausanne, revient sur les questions politiques soulevées par le développement des technologies et les méthodes pour avoir une approche éthique dès la conception. Il est également auteur de la ressource documentaire chez Techniques de l’Ingénieur : Prise en compte précoce des questions éthiques et sociétales dans la R et D.
Techniques de l’Ingénieur : Quelles questions éthiques soulève le développement des nouvelles technologies ?
Dominique Vinck : Tout d’abord, il y a un problème dans la définition du mot « éthique ». L’éthique se réfère à ce qui est bien ou mal au niveau des comportements individuels, or les problèmes liés aux technologies sont collectifs et les décisions prises aujourd’hui vont toucher plusieurs générations. Les gens parlent de « problème éthique » par erreur, ce sont des questions politiques qui touchent l’ensemble de la société.
Les technologies apportent des bénéfices mais aussi des préjudices, or la répartition entre les deux est inégale dans la société. En supposant qu’on ne puisse pas éviter les préjudices, il s’agit de se demander comment les rendre plus équitables. Par exemple, le nucléaire a des avantages majeurs comme le développement économique et l’absence de rejet de CO2, mais pose la question des déchets.
Le problème avec les technologies, c’est qu’elles affectent toute la société alors que les décisions ne sont prises que par des organisations ou entreprises individuelles. Ces choix ne sont pas délibérés dans la société, dans les instances représentatives élues pour nous représenter et prendre des grandes décisions pour notre avenir. Se pose alors un problème de démocratie technique, avec des choix pris par des sous-communautés sans prendre en compte les conséquences globales sur l’avenir.
Peut-on évaluer les conséquences d’une technologie en amont ?
L’immense majorité des innovations ne sont pas des innovations de rupture donc elles ne changent pas fondamentalement les choses. Ainsi, on peut étudier les analyses des précédentes innovations pour évaluer les conséquences des suivantes. Par exemple, on travaille aujourd’hui sur les véhicules électriques ou à hydrogène, mais on bénéficie tout de même de plus de 100 ans d’histoire de l’automobile derrière nous. On peut donc anticiper certaines conséquences potentielles et mener des enquêtes.
Ce n’est pas si différent du travail que réalisent déjà les ingénieurs. Lors de la conception d’une technologie, des simulations, des tests et des calculs sont réalisés pour s’assurer de la solidité, stabilité ou sécurité d’un produit. Il faudrait donc imaginer des simulations pour anticiper les usages d’une nouvelle technologie, l’organisation à mettre en place ou la législation qui doit l’accompagner.
D’ailleurs, il ne s’agit pas seulement de se demander quels seront les effets d’une technologie dans 20 ans, mais aussi ce qui existe dès aujourd’hui. Parfois, les conséquences sont connues mais on continue à faire courir des risques.
Qui doit se charger d’évaluer les impacts ?
Le mieux serait que chaque individu ait conscience de l’importance de l’éthique, et soit donc formé dès ses études puis qu’il continue à nourrir ces questionnements. Cependant, même avec une bonne sensibilisation, les pressions liées au cadre du travail marginalisent ces questions-là. Bien souvent, on sacrifie la qualité au profit du délai ou du coût.
Il faudrait donc que ces questions soient aussi portées à d’autres niveaux, notamment de l’organisation ou de l’entreprise. Mais il faut savoir comment l’instituer et vérifier que ça fonctionne. Faut-il passer par la législation sur les entreprises ou compter sur la responsabilité des industriels ? J’aimerais croire en la deuxième option mais au vu des pressions économiques, on a constaté plusieurs fois que sans la législation, les acteurs n’auraient pas bougé. Il s’agit également de pouvoir accueillir la parole quand il y a des problèmes. Les gros accidents ne viennent jamais des gros risques car ils sont connus et pris en compte en amont, mais de problèmes jugés mineurs et qui n’ont pas été considérés malgré les éventuelles alertes. Le principe de précaution voudrait que toutes les hypothèses et alertes soient étudiées, et il faut donc que l’institution soit organisée pour ça.
Enfin, il serait utile de concevoir des outils et méthodes pour aider à appréhender les impacts. Par exemple, des ingénieurs mécaniciens qui travaillaient dans la conception d’un moteur me disaient qu’ils auraient aimé avoir un indicateur pour évaluer rapidement l’impact écologique à chacun de leurs choix techniques. Donc il y a quelque chose à faire du point de vue des méthodes, car la seule bonne volonté ne suffit pas.
Quelles sont les différentes approches pour prendre en compte l’éthique dès la R&D ?
Il existe différentes méthodes, qui peuvent être combinées. Tout d’abord, on peut partir de l’évaluation des impacts que peut avoir une technologie. C’est une très bonne méthode mais elle comporte quelques faiblesses. D’abord, on peut difficilement imaginer les répercussions d’une innovation de rupture. Ensuite, les conséquences ne viennent pas seulement d’un choix technologique mais d’une série de choix divers réalisés par différents acteurs. Par exemple, le développement de l’automobile dépendait des choix des ingénieurs mécaniciens, mais aussi des groupes pétroliers, des législations qui ont favorisé les routes etc.
Une autre méthode est de partir de valeurs. Chaque technologie est la somme d’une infinité de choix, il s’agit donc de déterminer en amont quelles valeurs on souhaite respecter et à quoi on accorde le plus d’importance. Il peut s’agir de la satisfaction clients, l’impact écologique, la marge pour l’entreprise etc. Les choix se font donc en fonction de ces valeurs. Cette méthode permet de faire des choix rapidement, sans avoir besoin de réaliser des essais, des études, des calculs pour évaluer des conséquences futures. En revanche, il ne suffit pas toujours d’avoir choisi de bonnes valeurs pour éviter les conséquences négatives.
Une troisième approche consiste à mêler les acteurs donc à intégrer une variété de points de vue sur tout le processus. Quel que soit son niveau d’expertise, un spécialiste est toujours limité par son propre paradigme. Ainsi, impliquer des experts d’autres disciplines permet d’avoir une approche plus globale et de prendre en compte de potentielles conséquences qui n’auraient pas été imaginées. Mais outre les spécialistes, il faut aussi écouter la parole des membres de la société. Parfois, des riverains ou des patients ont une connaissance fine de l’effet de la pollution ou d’un médicament qui échappe aux experts. La diversité dans les équipes est également primordiale. La littérature à ce sujet démontre qu’au niveau de la créativité, de l’ingénierie, et de la performance économique des entreprises, la diversité est un facteur prédictif des performances. Il s’agit de diversité de sexe, genre, origine, classes sociales. Malheureusement, il existe encore de nombreux freins que je n’explique pas, qui font qu’une partie des ingénieurs hommes aiment rester entre eux et sont mal à l’aise avec d’autres personnes, avec les femmes. C’est un problème à prendre au sérieux car il a un effet désastreux sur l’ingénierie.
Parmi ces approches, y en a-t-il des plus efficaces que les autres ?
Globalement, non. Il faudrait combiner toutes ces méthodes mais cela demande du temps, des ressources, donc il faut trouver un compromis. Dans la théorie rationnelle de la prise de décision, on dit qu’il faut imaginer toutes les solutions à un problème, les comparer puis choisir la meilleure. Or dans la réalité, on définit le problème en fonction de notre domaine de compétence donc on ne le définit pas de manière globale, et lorsqu’on trouve une solution, elle dépend aussi de notre expertise. Dans le processus de décision, on remarque qu’on ne cherche pas plusieurs solutions : on choisit la première solution satisfaisante, or on sait que la première solution est régulièrement sous-optimale. Mais le manque de temps fait qu’on ne peut pas trouver des dizaines de solutions. Par exemple, l’entreprise Legrand qui produit des infrastructures électriques avait trouvé un compromis organisationnel : à chaque problème, ils s’imposent de trouver trois solutions satisfaisantes avant de choisir la meilleure.
Nous avons interrogé Sébastien Goudalle, ancien ingénieur d’Air Liquide et co-fondateur de COMPOSE IT, afin qu’il nous présente les nombreux avantages apportés par cette technologie unique.
Créée en 2018, la startup lauréate du réseau Entreprendre et membre de La France Water Team, conçoit des réservoirs très résistants, recyclables, et aussi faciles à installer qu’à maintenir.
Techniques de l’Ingénieur : Les réservoirs COMPOSE IT sont basés sur une technologie de mise en œuvre innovante. Pouvez-vous expliquer le fonctionnement de cette technologie ?
De gauche à droite : Sébastien Goudalle, Pierre Blanc-Vannet et Jonathan Archer, les trois co-fondateurs de COMPOSE IT.
Sébastien Goudalle : Les réservoirs que nous fabriquons sont mis en forme et fonctionnalisés par des empilements successifs de films de matière. Ils sont composés de 2 couches. La couche externe, qui apporte la structure mécanique, est constituée de bandes en fibre de verre enrobées de polypropylène thermoplastique. Contrairement aux procédés classiques, nous n’utilisons pas de liner pour la couche interne. Dans notre procédé, celui-ci est remplacé par un empilement de films de polybutène thermoplastique.
La mise en œuvre entièrement robotisée nous permet d’obtenir de manière reproductible des réservoirs à la structure monolithique, capables de résister jusqu’à 16 bars, voire plus, et conçus dans des matériaux extrêmement durables.
Quels sont les avantages par rapport à des réservoirs en composite thermodurcissable ?
À l’heure actuelle, 100 % des réservoirs composites du marché sont constitués de polymères thermodurcissables et COMPOSE IT est l’unique entreprise française à développer des réservoirs thermoplastiques.
Les polymères thermoplastiques ont d’énormes avantages. D’une part, ce sont des polymères recyclables, ce qui n’est pas le cas des thermodurcissables. D’autre part, les thermoplastiques ne perdent pas leurs propriétés mécaniques en vieillissant, alors que la résistance à la pression des thermodurcissables diminue avec le temps.
La technologie de mise en forme brevetée dont nous détenons la licence exclusive pour la France et l’Allemagne nous permet ainsi de fabriquer des réservoirs d’eau froide pour la surpression et le traitement des eaux, dont la durée de vie est de 50 ans.
Réservoirs à vessie pour installations de pompage et surpresseurs
En parallèle, nous sommes par ailleurs en train de développer 2 autres gammes de produits : des réservoirs à air comprimé pour l’industrie ainsi que des réservoirs d’eau chaude sanitaire pour les particuliers.
D’un point de vue technique, quel est l’intérêt d’utiliser un ballon d’eau chaude en composite thermoplastique plutôt qu’un réservoir en acier ?
Actuellement la durée de vie des chauffe-eaux est limitée par la corrosion ainsi que par la formation de calcaire, qui a tendance à se développer sur les aspérités en surface de l’acier. Avec un chauffe-eau en composite thermoplastique, on élimine donc ces deux problèmes, car la paroi interne est extrêmement lisse, ce qui empêche la formation du tartre. Ceci se traduit par la suppression de l’anode sacrificielle et élimine toute intervention de maintenance.
Dans certaines régions où l’eau est particulièrement calcaire, il arrive que la durée de vie d’un chauffe-eau électrique ne dépasse pas trois ans, ce qui engendre des coûts non négligeables. Nous serons bientôt en mesure de commercialiser des ballons d’eau chaude dont la durée de vie avoisinera 50 ans, ce qui est révolutionnaire !
La recyclabilité des réservoirs est-elle d’ores et déjà prouvée ?
Une fois broyés, nos réservoirs sont compatibles avec la technologie Thermosaïc développée par le CETIM-CERMAT et d’autres partenaires. Ce procédé actuellement en phase de pilote industriel permet de produire en continu des panneaux structurels à partir de déchets de composites thermoplastiques. En revanche, il n’est pas possible de recréer un réservoir à partir de ces déchets composites.
Durée de vie longue, recyclabilité… ce type de réservoir présente de nombreux atouts d’un point de vue environnemental. Y en a-t-il d’autres ?
En effet, nos produits sont conçus pour avoir un faible impact environnemental. En plus de la durée de vie longue et de la recyclabilité, cela se traduit par une fabrication locale et un sourcing européen des matières premières. Par ailleurs, ce procédé présente une autre particularité : il ne crée pas de déchets, car les résidus de bandes sont réutilisés en interne pour former de nouvelles bobines. Ainsi, 100 % de la matière première qui rentre est utilisée, ce qui est également un avantage économique, ces matériaux étant très techniques, donc assez coûteux.
Nous avons encore des pistes pour réduire notre impact environnemental, comme utiliser de l’électricité décarbonée pour le process, des polymères biosourcés ou encore des fibres de verre recyclées.
Comment envisagez-vous votre développement futur ?
Cette technologie a beau être mature, nous disposons encore d’une forte marge de progression, principalement au niveau de la pression et des volumes admissibles. Nous développons actuellement des réservoirs de plus de 1 000 litres et nous sommes confiants sur notre capacité à intégrer ce marché. Par ailleurs, nous sommes en recherche active de partenaires industriels pour développer de nouveaux produits plus adaptés techniquement et économiquement à leurs besoins.
Enfin, si nos réservoirs sont actuellement produits en Belgique, nous avons pour objectif d’ouvrir notre première usine française en 2021.
Informations dissimulées, atteintes à la sécurité, non-respect des bonnes pratiques, les manquements éthiques existent en entreprise et ont parfois causé des incidents, voire des accidents mortels. Les raisons de ces manquements sont multiples : baisse des coûts, délais trop courts, préservation de réputation etc. Un des cas d’éthique de l’ingénierie les mieux documentés concerne l’explosion de la navette Challenger en 1986.
Au cours de la mission STS-51-I, un défaut sur un des joints du propulseur a causé la désintégration de la navette et la mort des 7 membres de l’équipage. Pourtant, ce défaut avait été signalé 6 mois plus tôt par Roger Boisjoly, ingénieur en aéronautique travaillant pour Morton Thiokol, le fabricant des propulseurs. L’entreprise n’avait pas communiqué à la NASA les inquiétudes de leurs ingénieurs.
Autre exemple, en France cette fois : le 5 mai 1992, la tribune provisoire du stade Armand Cesari à Furiani s’est écroulée à quelques minutes d’un match de football. L’accident a fait 18 morts et des milliers de blessés. L’enquête a révélé que l’entreprise en charge de la construction de la tribune avait utilisé des matériaux incompatibles, qu’il y avait des irrégularités juridiques en matière de sécurité et que le montage de la tribune aurait dû nécessiter trois fois plus de temps que les délais demandés.
Dans ces exemples, l’avis des experts est capital et permettrait d’éviter des accidents. Pourtant, il n’est pas toujours aisé de s’imposer, voire s’opposer à sa direction, et d’être écouté.
Que faire en cas de manquement de l’entreprise ?
Christelle Didier est maîtresse de conférences en Sciences de l’éducation à l’Université de Lille et a été Responsable du pôle « Ethique, ingénieurs et ingénierie » à l’Université Catholique de Lille. Elle rappelle : « Il est finalement rare qu’un ingénieur ne sache pas ce qui est bien ou mal face à une situation. En revanche, il peut avoir peur de perdre son poste s’il se démarque trop ». Dans certains cas, les lanceurs d’alerte ont fini par alerter les médias, mais d’autres solutions existent avant d’en arriver là.
« Face à un dilemme éthique, les ingénieurs peuvent par exemple établir un dossier, demander l’avis de confrères et repérer dans l’entreprise quelles personnes sont les plus susceptibles de prendre en considération leur alerte. Il est important de ne pas être seul », explique Christelle Didier. En effet, créer des espaces d’écoute et de réflexion peut être primordial. La maîtresse de conférences précise : « Les énormes problèmes éthiques sont finalement peu fréquents et tombent rarement d’un coup. Ce qui est important, c’est de savoir quoi faire face aux petits problèmes éthiques que l’on constate au quotidien et de créer une culture de l’attention aux signaux faibles. D’où la nécessité de concevoir des lieux de discussions qui peuvent être pensés par les entreprises, par les syndicats, ou même par les ingénieurs eux-mêmes avec leurs confrères ou anciens camarades. Cela permet de nourrir la réflexion et de ne jamais se sentir seul ou désarmé. »
Créer un cadre éthique en entreprise
Selon Michel Jonquières, vice-président de l’Académie de l’Ethique, « de nombreuses entreprises ont d’ores et déjà créé des cadres éthiques, que ce soit au travers de l’application d’une politique de l’éthique, d’une charte éthique ou d’un code de déontologie. Ces documents traduisent l’expression par la direction générale des principes et des orientations en matière d’éthique et expriment des valeurs à respecter ». Avant toute chose, l’entreprise doit donc déterminer quelles valeurs elle souhaite respecter : la qualité, la sécurité, la rentabilité, la satisfaction client etc.
La mise en œuvre d’une démarche éthique en entreprise peut venir de la direction qui impulse la démarche vers ses salariés, ou bien partir des salariés vers la direction. Michel Jonquières précise : « Il est à noter qu’une démarche éthique doit concerner avant tout le personnel de l’organisation mais aussi un grand nombre de parties prenantes qu’il convient de bien identifier : actionnaires, clients, partenaires, fournisseurs et sous-traitants etc. Un reporting périodique est indispensable, ne serait-ce que dans le cadre de la DPEF [déclaration de performance extra-financière, NDLR] ».
Une démarche complexe
Elaborer une charte peut être un début mais ne suffit pas. Le vice-président de l’Académie de l’Ethique rappelle qu’ensuite, « il convient d’en assurer la démultiplication – sensibilisation, formation, communication – et le bon fonctionnement au quotidien, de veiller à attribuer les moyens humains et financiers et définir les règles applicables. Le déploiement d’une politique de l’éthique, d’une charte ou d’un code de déontologie doit être nécessairement sous-tendu par la nomination d’un délégué à l’éthique, de référents éthiques, d’un comité de l’éthique ». Ainsi, l’éthique devient un domaine à part entière de l’entreprise, au même titre que la qualité ou les systèmes d’information.
La prise en compte officielle de l’éthique peut permettre de créer des espaces de discussion, et de pouvoir accueillir la parole et toutes les alertes, même celles qui paraissent infondées. Mais la question de l’éthique reste épineuse. Parfois, les valeurs personnelles ou les normes de la profession entrent en confrontation avec celles de l’entreprise. D’autre fois, les pressions économiques sont trop fortes pour respecter les chartes en vigueur. Christelle Didier remarque que l’image et l’impact sur les clients contribuent à faire bouger les entreprises. La pression des associations ou institutions a donc une influence. « Les labels, les normes ISO sont également de bonnes méthodes pour changer les choses car les entreprises vont mettre en place un cahier des charges pour chercher à les obtenir », ajoute la maîtresse de conférences. Elle conclut : « En plus des pressions venant de l’extérieur incitant les entreprises à plus de vigilance, il y a de nos jours de plus en plus de jeunes cadres soucieux des questions écologiques et sociales susceptibles d’infléchir la culture, ce qui est un signe encourageant pour l’avenir ».
Le magazine d’actualité de Techniques de l’Ingénieur lance son podcast maison : Cogitons Sciences. Disponible en ligne, vous pouvez déjà en écouter la bande-annonce !
Cogitons Sciences, c’est quoi ?
Cover réalisée par Camille Van Belle pour Techniques de l’Ingénieur.
Tous les premiers lundis du mois, nos journalistes reçoivent au micro des invités experts de divers horizons : des sociologues, des ingénieurs, des philosophes, des industriels, etc… pour réfléchir à l’avenir des sciences.
Les énergies de demain, l’éthique des sciences, les métiers émergents… C’est aujourd’hui que tout se joue !
Les épisodes de Cogitons Sciences durent trente à quarante minutes et sont intégrés dans des mini-séries thématiques de trois épisodes. Pour notre première mini-série, nous nous intéressons à l’éthique dans les sciences.
C’est pour quand ?
Retrouvez le premier épisode de Cogitons Sciences le lundi 1 février ! Il aura pour thème : l’éthique de l’innovation.
C’est où ?
Le podcast est disponible en ligne et sur toutes les plateformes d’écoute ! Pour ne pas rater la sortie des prochains épisodes, vous pouvez vous abonner dès maintenant à Cogitons Sciences sur toutes les plateformes d’écoute :
Jeudi 7 janvier 2021, RTE prévoyait que la consommation nationale atteindrait 88 000 mégawatts (MW) le lendemain. En cause : une baisse des températures prévue entre -4 et -4,5°C sous les normales de saison. Si les moyens de production étaient suffisants (88 200 MW), les marges pour répondre aux aléas météorologiques ou techniques étaient faibles. Le gestionnaire de réseau a donc demandé aux Français de réduire leur consommation sur la tranche horaire 7h-13h avec un signal rouge sur le site Ecowatt, sorte de météo de l’électricité. « Finalement, le lendemain, on était vraiment loin du risque de coupure parce que les entreprises avaient pu réduire leur consommation, la météo était meilleure que prévue et les Français ont fait des écogestes en réduisant leur consommation », indique RTE à Techniques de l’ingénieur.
Des risques de coupure en cas de vague de froid importante
Chaque année, RTE signale que l’hiver peut être tendu pour le réseau électrique en cas de vague de froid importante. RTE confirme que l’hiver 2020-2021 reste placé sous vigilance particulière, principalement à cause de la crise sanitaire. Avec les décalages dans les plannings d’arrêts des réacteurs nucléaires pour maintenance, 13 réacteurs seront à l’arrêt fin février. En février et début mars, le risque de coupure d’électricité sera donc plus important que les années précédentes.
Le risque de coupure se manifesterait principalement en cas de vague de froid importante. En France, la consommation électrique dépend fortement de la température. « À chaque degré sous les normales de saison, on consomme environ 2 400 MW de plus, soit quasiment la consommation de la ville de Paris », avance RTE.
Quels moyens pour faire face à une vague de froid exceptionnel ?
Avant d’organiser des coupures d’électricité, RTE dispose de différents leviers. Il peut d’abord importer de l’électricité et demander aux Français de réduire leur consommation. Si cela ne suffit pas, il peut arrêter la consommation de gros sites industriels. Enfin, il peut baisser la tension sur le réseau de distribution de 5 % pour réduire de 5 % la consommation.
Afin de limiter la consommation des entreprises, RTE dispose de deux solutions : l’effacement et l’interruptibilité. L’interruptibilité est un dispositif hors marché de l’électricité qui lie RTE à des sites industriels gros consommateurs en France. « Ces sites sont rémunérés pour stopper leur consommation d’électricité en cas de besoin », précise RTE. L’effacement consiste à activer des capacités de baisse de consommation à un moment donné. Celles-ci sont mises sur le marché soit par des entreprises, soit par des agrégateurs de consommation de particuliers. « L’interruptibilité a un potentiel d’environ 1 300 MW, l’effacement d’environ 3 000 MW », précise RTE.
La Commission des affaires économiques du Sénat réagit
Face à cette situation, la Commission des affaires économiques du Sénat appelle le Gouvernement à prendre des mesures d’urgence. Elle appelle notamment à intensifier les appels d’offres en matière d’effacements de consommation, à rehausser le chèque énergie à l’attention des ménages en situation de précarité énergétique et à renforcer les dispositifs de soutien à la rénovation énergétique.
En parallèle, la commission juge que la sécurité d’approvisionnement passe par un soutien réaffirmé à la filière nucléaire. Pour Sophie Primas (Les Républicains – Yvelines), présidente de la commission : « La ministre de la transition écologique a indiqué en novembre à notre commission qu’il fallait « diversifier notre mix électrique afin d’être moins à la merci de ce type d’aléas ». Elle se trompe : c’est au contraire l’énergie nucléaire qui constitue le garant de notre sécurité d’approvisionnement. Faute d’un soutien suffisant à cette filière, ce sont aujourd’hui des centrales thermiques, de surcroît étrangères, qui tournent à plein régime, non des panneaux solaires ou des éoliennes, soumis aux aléas météorologiques ! Nous n’avons pas fini d’en payer les conséquences ! Le Gouvernement doit réagir ! ».
RTE n’a pas vocation à réagir à ces propositions de la commission du Sénat. Pour y voir plus clair sur les possibilités de coexistence entre les différents moyens de production, il publiera prochainement un rapport évaluant la sécurité d’approvisionnement d’ici 10 ans. Un autre rapport important sur la faisabilité technique d’un mix électrique à forte proportion d’énergies renouvelables d’ici 2050 est attendu à la fin du mois.
Teréga, un opérateur de transport et de stockage de gaz situé dans le sud-ouest, vient de signer un partenariat avec Toulouse Tech Transfer, un organisme favorisant le transfert de technologies de la recherche publique vers les entreprises, afin de développer en co-maturation une nouvelle technologie de méthanation. Celle-ci est issue d’un travail de recherche au LPCNO (Laboratoire de physique et chimie des nano-objets) sur la synthèse de nanoparticules métalliques. Cette innovation a pour origine l’utilisation à la fois des propriétés physiques et chimiques d’une même nanoparticule magnétique.
Vue d’ensemble du pilote de laboratoire Méthamag – Crédit photo Toulouse Tech Transfer
Le procédé de méthanation, breveté par le LPCNO et baptisé Méthamag, consiste à convertir du CO2 en méthane par hydrogénation grâce à la réaction chimique de Sabatier bien connue : CO2 + 4 H2 → CH4 + 2 H2O. Son originalité est de reposer sur un procédé de catalyse en phase gazeuse par hyperthermie magnétique, c’est-à-dire par l’échauffement de nanoparticules ferromagnétiques capables de chauffer considérablement en présence d’induction magnétique. Ces nanoparticules peuvent donc être utilisées comme catalyseurs pour toute une série de réactions d’importance industrielle dont l’hydrogénation du CO2 en méthane. « Concrètement, le procédé fonctionne grâce à un réacteur dans lequel est introduit le mélange gazeux et autour duquel une bobine située à l’extérieure va permettre l’induction magnétique. Celle-ci va activer les nanoparticules métalliques présentes à l’intérieur du réacteur et va permettre la mise en œuvre de la réaction » explique Laura Luu Van Lang, chargée d’études opportunités business au pôle stratégie et innovation chez Teréga.
Zoom sur le réacteur avec la bobine d’injection et le système de refroidissement – Crédit photo Toulouse Tech Transfer
Un procédé particulièrement adapté à la technologie Power-to-gas
Son avantage majeur est d’être capable de s’activer et se désactiver de manière quasi instantanée grâce à une mise en température quasi immédiate du système. « Il n’y a pas de temps de chauffe ou de montée en puissance de l’installation comme sur les autres procédés », ajoute Laura Luu Van Lang. Le procédé se révèle donc particulièrement adapté à la technologie Power-to-gas pour valoriser le surplus d’électricité provenant des énergies renouvelables. Cette électricité étant d’abord transformée en hydrogène par électrolyse de l’eau et pouvant ensuite être convertie en méthane grâce à une réaction de méthanation.
Autre atout de Méthamag : son efficacité énergétique. « Aujourd’hui, elle est de l’ordre de 40 %, mais sur des essais réalisés à toute petite échelle, précise Laura Luu Van Lang. Des simulations démontrent qu’on pourrait atteindre une efficacité énergétique de 70 % sur des installations de plus grandes tailles. Dans tous les cas, le rendement réactionnel est toujours supérieur à 95 %. À ce stade, les résultats sont très prometteurs ». Enfin, comparé aux procédés de méthanation par voie catalytique classique qui présentent l’inconvénient d’être sensibles aux impuretés, cette technologie l’est beaucoup moins. « Ceci s’explique par les catalyseurs, c’est-à-dire l’induction magnétique, qui sont situés à l’extérieur du réacteur. »
En plus de contribuer au développement de la filière Power-to-gas, ce procédé pourra également être alimenté grâce à des unités de méthanisation. Ces dernières produisent en effet du biogaz, composé essentiellement de méthane et de dioxyde de carbone. « Ce biogaz est épuré et seul le méthane est injecté dans les réseaux. Le CO2 n’est aujourd’hui pas valorisé. Il pourrait donc servir à alimenter notre procédé Méthamag afin d’augmenter le rendement de ces unités de méthanisation », complète Laura Luu Van Lang.
Le Méthamag pourra être alimenté par la technologie de pyrogazéification
À plus long terme, cette technologie pourrait être utilisée par la filière pyrogazéification, une autre voie de production de gaz renouvelable à partir de déchets comme le bois. Encore peu développée en France, elle pourrait voir le jour à l’horizon 2030. « La pyrogazéification produit un gaz de synthèse nommé le syngaz et composé principalement d’hydrogène, de monoxyde de carbone et de dioxyde de carbone, analyse Laura Luu Van Lang. Son intérêt est qu’il comporte tous les éléments nécessaires à la réaction de méthanation. »
Les trois partenaires de ce projet se donnent environ un an et demi pour réaliser les développements post laboratoire. L’étape suivante doit mener vers l’industrialisation du procédé. L’objectif étant de concevoir dans trois ans les premiers pilotes industriels afin de démontrer leur efficacité.
De « méchants » robots humanoïdes qui déciment les humains, ou les remplacent simplement s’ils sont de bonne humeur, quand d’autres, « les gentils », se lient d’amitié avec l’Homo sapiens… C’est ici le scénario type propre à la science-fiction mettant en scène des machines anthropomorphes – qui nous tourmentent, ou pas.
Or, vous vous en doutez, la réalité est bien différente. Dès les premières étapes de la conception d’un robot (attention, un vrai, donc ni le cyborg Terminator ni R2D2, rappelons-le !), des recommandations éthiques et des règles juridiques s’imbriquent dans le cheminement du projet.
Curieux de savoir comment l’éthique s’invite dans le monde de la robotique, nous avons interviewé Catherine Tessier, référente intégrité scientifique et éthique de la recherche à l’ONERA (Office National d’Etudes et de Recherches Aérospatiales). Catherine Tessier a également rédigé, pour Techniques de l’Ingénieur, la ressource documentaire Conception et usage des robots : quelques questions éthiques. Entretien !
Techniques de l’Ingénieur : Sur quels aspects de la robotique intervient l’éthique ?
Catherine Tessier. Crédit photo : N.B. – ONERA
Catherine Tessier : La réflexion éthique concerne la manière dont est conçu le robot, ainsi que les usages qu’on envisage.
Le chercheur et l’ingénieur doivent s’interroger en continu dès qu’ils s’emparent d’un nouveau projet : quel aspect donner au robot ? Une ressemblance avec l’humain ou l’animal est-elle pertinente ? Avec quels programmes équipe-t-on ce robot ? Quelles données ces programmes utilisent-ils ? Si ce robot interagit avec l’être humain, quel sera son impact sur l’humain ? Va-t-il modifier le comportement de l’humain, voire l’humain lui-même ?
De manière non spécifique aux robots, il faut également réfléchir aux matériaux utilisés, à leur provenance, leur durabilité, à l’impact environnemental de l’usage des robots ainsi qu’à leur fin d’usage.
Une question primordiale qu’il faut se poser est le « pourquoi » : pourquoi conçoit-on cet objet ? En quoi va-t-il aider l’humain, ou améliorer la condition humaine ?
Quel est le cœur de votre travail ?
À l’ONERA, mes missions en tant que référente intégrité scientifique et éthique de la recherche sont réparties en deux volets. En ce qui concerne l’intégrité scientifique, il s’agit de sensibiliser mes collègues aux bonnes pratiques de recherche, et a contrario aux pratiques discutables et aux fraudes scientifiques. En ce qui concerne l’éthique de la recherche, j’aide mes collègues à se poser des questions quand ils préparent des projets européens ou ANR [Agence nationale de la recherche, NDLR] et à compléter les documents qui demandent de mettre en évidence les éventuelles questions éthiques soulevées par ces projets.
Faut-il avoir fait des études spécifiques pour exercer cette réflexion éthique ?
Certainement pas, les profils sont très différents ! On trouve des philosophes bien sûr, des juristes, mais aussi des personnes dont l’éthique n’est pas le quotidien. Ce qui compte surtout est l’expérience du terrain et l’envie de se poser des questions sur ce qu’on fait et comment on le fait. Pour résumer, il faut aimer se poser des questions, douter toujours, ne pas se reposer sur ses certitudes, être très à l’écoute des arguments des uns et des autres qui ne vont pas toujours dans le même sens, voire sont contradictoires.
Comment faire la distinction entre éthique et juridique ? Est-ce qu’il y a un dialogue entre les deux ?
Des juristes sont présents dans les comités d’éthique. Mais l’éthique et le juridique sont en effet différents. L’éthique est tout le temps en mouvement et elle ne décide pas, elle recommande. Cependant, il se peut qu’une recommandation éthique devienne juridique, devienne une loi : c’est le cas par exemple de la loi de bioéthique.
À l’inverse, il y a aussi des lois qui peuvent ne pas être conformes à certaines valeurs éthiques. Par exemple, la peine de mort est un principe juridique dans certains pays mais ce n’est pas pour autant qu’elle respecte les principes de respect de la vie et de dignité humaine.
Revenons maintenant aux nouveaux objets, comme les robots. Dans ce cas, les juristes peuvent se demander s’il faut ou non légiférer sur ces objets. Par exemple, si le véhicule à fonctions de conduite automatisées est introduit dans la société, il faudra modifier le code de la route, car il est fondé sur la présence d’un conducteur.
L’un des sujets en discussion autour de la robotique concerne la notion de responsabilité.Quand un accident est provoqué par un robot, qui en porte la responsabilité ? Est-ce que l’éthique peut répondre à cela ?
Je ne suis pas juriste, mais un robot est une chose au sens juridique. Il dépend alors de la législation sur les choses. En cas d’accident, l’enquête va remonter la chaîne des responsabilités. C’est le cas quand il y a un accident d’avion par exemple : l’avion est un objet complexe et les enquêteurs remontent la chaîne de responsabilités à tous les niveaux, et cela peut être très intriqué.
Je fais partie du Comité National pilote d’éthique du numérique. Celui-ci traite actuellement trois saisines : une sur le véhicule à fonctions de conduite automatisées, une deuxième sur l’IA et le diagnostic médical, et une dernière sur les agents conversationnels ou chatbots. Je participe au traitement de la saisine sur le véhicule à fonctions de conduite automatisées et nous y réfléchissons : en cas d’accident, où va la responsabilité ? Mais cela ne va pas être différent des objets complexes, comme dans le cas de l’avion. Et avant de remonter la chaîne des responsabilités, il faut identifier qui est responsable de quoi dans l’objet : qui est responsable de tel capteur, qu’a fait l’opérateur ou le passager, etc.
Est-ce qu’il existe des institutions internationales dont la parole « fait loi » et qui dictent les principes éthiques à respecter en robotique ?
Au niveau européen, il existe le « High-Level Expert Group (HLEG) on Artificial Intelligence », un groupe de réflexion qui a publié des recommandations relatives à l’intelligence artificielle (IA). C’est ensuite à l’Europe de s’en emparer et de définir éventuellement des textes contraignants donc des législations, comme c’est le cas du RGPD – Règlement général sur la protection des données – par exemple.
À l’échelle internationale, un groupe d’experts mandaté par l’UNESCO, et dont j’ai fait partie, a rédigé une recommandation mondiale sur l’éthique de l’IA. Ce texte est en cours d’examen par les États membres. L’enjeu ici est d’arriver à un consensus sur ce qu’il convient de faire avec les possibilités offertes par le numérique, par exemple la reconnaissance faciale, ou encore la justice assistée par le numérique.
Selon vous, quels sont les enjeux majeurs liés à l’éthique de la robotique sur lesquels il faut absolument engager le débat aujourd’hui ?
Une problématique importante est le vocabulaire employé pour parler des robots. En effet, beaucoup de fantasmes – attentes ou peurs – se créent autour de l’objet robot car on en parle souvent avec des termes anthropomorphiques : on dit par exemple qu’il « décide », alors qu’il est programmé avec des logiciels qui font des calculs.
Il faut aussi nous interroger sur les motivations qui nous poussent à concevoir des robots destinés à remplacer l’être humain. Pourquoi aller plus vite ? Pourquoi éliminer les tâches pénibles ? Pourquoi vouloir être plus précis ? Pourquoi vouloir une interaction ludique ?
Il apparaît que certaines motivations doivent être examinées. Par exemple dans le cas du véhicule à fonctions de conduite automatisées, l’une des motivations est la réduction du nombre d’accidents de la route. Or les expériences les plus fréquentes sont réalisées sur des navettes destinées à circuler dans des environnements bien particuliers, sites périurbains ou voies propres, donc des endroits où se produisent peu d’accidents. Il existe donc un décalage entre la motivation et la réalité actuelle, qu’il convient d’interroger.
Quelles sont alors les questions clés qu’il faut se poser avant d’entreprendre la conception d’un nouvel objet robot ?
Quelles fonctions envisage-t-on d’affecter au robot ? Pourquoi vouloir lui affecter ces fonctions ? Est-ce que ce robot est désirable ? Est-ce que son usage est proportionné aux besoins de la société ? Il y a aussi le risque de créer de nouveaux besoins de toutes pièces : au nom de quoi créer ces besoins ?
En outre, peut-être va-t-on déposséder l’humain d’un certain nombre de choses qu’il sait faire, et que finalement il ne saura plus faire. Par exemple, il est possible qu’avec une généralisation du véhicule à fonctions de conduites automatisées, nous ne sachions plus conduire nous-mêmes. On peut faire un rapprochement avec le fait qu’avant que la voiture soit largement répandue, on savait monter à cheval ; or aujourd’hui, c’est moins le cas. Cette perte progressive de compétences, et l’acquisition de nouvelles compétences, doit être interrogée.
Il faut donc accompagner l’entrée de ces technologies dans la société, dès le plus jeune âge et dans les cursus de formation, en identifiant quelles compétences seront nécessaires et quels nouveaux métiers sont susceptibles d’être créés.
Un écueil à éviter est la tendance à s’interroger sur les nouveaux objets, en particulier les robots, une fois qu’ils existent, et non pas avant. Le risque est de tomber dans le « blanchiment éthique » (ou « ethics washing ») où l’éthique est invoquée pour cautionner après coup ces objets. La question que pose le développement rapide du numérique et des robots est celle de la liberté de l’être humain de ne pas adopter ces nouveaux objets et de choisir de ne pas accepter qu’ils s’imposent à lui.
Les agents conversationnels sont parfois le premier interlocuteur avec qui l’on échange lorsqu’on contacte une entreprise. Apparus dans les années 2000 sur Internet pour remplacer les FAQ (Foires aux questions) et basés sur le langage écrit, ils ont progressivement conquis le langage oral. Au téléphone, ces conseillers virtuels vous orientent vers la bonne personne. Inutile de taper sur son smartphone la touche correspondant au bon service, ils nous demandent de prononcer à haute voix notre demande. Et sur Internet, ils prennent à présent l’apparence d’un personnage virtuel. Ils sont censés mimer une interaction avec un être humain, mais ont rapidement montré leur limite. « Ces machines sont très performantes sur le plan technique pour vous rediriger vers les bonnes sources d’information, explique Nicolas Sabouret, professeur à l’Université Paris-Saclay et chercheur au LIMSI (Laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur). Par contre, il leur manquait cette couche de compétences sociales qui font qu’un interlocuteur humain va essayer d’être chaleureux, d’être en empathie avec la personne avec qui il est en contact. Aujourd’hui, on demande à ces agents conversationnels d’aller au-delà du champ métier pour lequel ils sont programmés à l’origine. »
Pour y parvenir, le LIMSI réunit une équipe composée de psychologues et d’informaticiens. Les premiers conceptualisent ce qui fonde la condition humaine, en particulier l’aspect émotionnel, personnel et individuel des relations humaines. Les seconds vont simuler à l’aide de modèles informatiques ces concepts pour les rendre opérationnels sur des agents conversationnels.
Reproduire plusieurs nuances de sourires
Leur objectif : parvenir à créer des émotions au cours d’une conversation avec un conseiller virtuel. Pour cela, l’équipe de recherche s’appuie sur les comportements verbaux de ces derniers mais aussi non verbaux. Beaucoup étudié au cours des années 2000, le contrôle du visage est aujourd’hui très bien identifié dans la littérature en psychologie. Des automates ont ainsi pu être créés et sont capables d’animer assez finement les mouvements d’un visage virtuel. « Il ne s’agit pas de produire des expressions caricaturales, qui étaient un peu le défaut des premiers agents virtuels et qui ont entraîné un désintérêt pour ces personnages animés, car ils n’apportaient pas grand-chose à la relation. La tendance aujourd’hui est de produire des micro-émotions ». Les chercheurs savent à présent reproduire plusieurs nuances de sourires, notamment celui dit de Duchenne caractérisé par un plissement au niveau des yeux, mais aussi des haussements de sourcils, des mouvements des joues, des hochements de la tête… Ces expressions du visage sont complétées par des mouvements des bras et des mains. Ces agents ont ainsi acquis une dimension sociale et sont en mesure d’exprimer la joie, l’empathie, l’encouragement ou au contraire la tristesse et la déception.
Sur le plan informatique, le défi est de relier ces comportements avec les mots. Pour l’instant, beaucoup de règles restent écrites à la main. « Selon tel contexte, à l’intérieur de telle entreprise et en fonction de tels mots prononcés par un client, nous programmons la machine pour provoquer telle micro-expression. Ces règles sont écrites manuellement afin de garder l’intégralité du contrôle sur le système et être sûr que l’agent aura des comportements adaptés ». Même si les corpus de données s’enrichissent et qu’il serait possible d’utiliser les techniques d’apprentissage automatique pour générer une réponse de l’agent virtuel sans avoir à le spécifier manuellement, les chercheurs ne laissent pas la machine totalement autonome. « Les entreprises sont très frileuses et ne veulent pas que les conseillers virtuels fassent des erreurs. Surtout depuis la mésaventure avec l’agent de Microsoft qui apprenait automatiquement à dialoguer à partir des réponses trouvées sur Internet. Il s’est mis à insulter les personnes car il est fréquent que les internautes emploient un vocabulaire grossier, ce qui peut être accepté entre amis, mais pas avec un agent professionnel. »
Classer les mots dans des catégories générales d’émotions
Au LIMSI, les chercheurs conçoivent des modèles informatiques à mi-chemin entre les règles écrites manuellement et le « machine learning ». L’un d’eux, à base de raisonnement, consiste à catégoriser les différentes formes d’émotions en fonction du contexte dans lequel elles apparaissent. Ce modèle fonctionne en deux temps. Les mots prononcés par le client sont d’abord classés dans des catégories générales d’émotions à l’aide de règles manuelles bien identifiées. Ensuite, la machine est libre d’exprimer l’émotion identifiée comme elle le souhaite. Pour cela, les chercheurs s’appuient sur de nombreux travaux établis en psychologie et en informatique qui relient des catégories d’émotions avec des comportements aussi bien verbaux que non verbaux. « Grâce à ces modèles, on sait que la réponse du conseiller virtuel ne sera pas hors des clous, car la machine va agir à l’intérieur d’une catégorie d’émotions bien précise. Pour l’instant, les techniques d’apprentissage automatique ne sont pas suffisamment matures pour laisser le système se débrouiller entièrement seul. »
Pour se confronter à des problématiques terrains, le LIMSI travaille avec plusieurs entreprises dont la start-up Davi spécialisée dans le traitement du langage naturel et l’informatique affective. Ensemble, ils ont déjà conçu plusieurs agents conversationnels, notamment de l’entraînement aux entretiens d’embauche, pour l’office du tourisme de Nevers ou pour L’Oréal. Pour cette entreprise, il a pris la forme d’un conseiller maquillage. « Actuellement, nous développons beaucoup d’outils avec plusieurs entreprises différentes autour du coaching pour la santé et le bien-être. Il ne s’agit pas de créer un conseiller virtuel pour simplement convaincre une personne, pour par exemple arrêter de fumer. Nous analysons les déterminants psychologiques du changement de comportement pour ensuite, à travers les interactions avec les agents, amener les personnes à adopter un nouveau mode de vie. »
Ces travaux de recherche autour de l’expression faciale, la gestuelle et le contenu verbal des agents conversationnels, permettent aux clients d’avoir la sensation d’être en interaction avec un humain. Même si l’objectif n’est pas de les tromper en leur faisant croire qu’ils ne sont pas face à une machine. « L’intelligence artificielle a fait beaucoup de progrès ces dernières années, mais ne réussira jamais à égaler la richesse d’une interaction entre deux humains. Il y a beaucoup trop d’implicites et de sous-entendus au cours d’une conversation. Ces agents virtuels sont très performants lorsque leur domaine d’interaction est fermé, mais beaucoup moins lorsqu’il est ouvert. »
L’homme désormais le plus riche au monde, Elon Musk, veut conquérir Mars à l’horizon 2026. Et bien que sa fortune de 209 milliards de dollars le démarque certainement, le CEO de SpaceX et de Tesla est loin d’être le premier à rêver de colonisation spatiale. Et la planète rouge n’est pas une star solitaire ! La possibilité de s’établir un jour sur la Lune est discutée depuis le 16ème siècle, lorsque, en 1640, le Dr. John Wilkins avait imaginé des chariots ailés comme modes de transports galactiques.
Il faut admettre que nos fusées ne volent pas à tire-d’aile… Et pourtant, nous sommes plus près que jamais de la terraformation des corps célestes. Tellement qu’il faut peut-être freiner un peu et prendre le temps pour contempler les étoiles. Réfléchir. Se poser des questions. Songer aux problématiques éthiques qui découlent de telles ambitions.
Techniques de l’Ingénieur a interrogé Jacques Arnould, expert éthique au CNES. Jacques Arnould a publié chez les éditions Techniques de l’Ingénieur la ressource documentaire L’éthique de l’espace.
Techniques de l’Ingénieur : Comment définir l’éthique de l’espace ?
Jacques Arnould, expert éthique au CNES. Crédit photo : Martin Riebeek
Jacques Arnould : La spécificité des interrogations éthiques liées aux activités spatiales est qu’elles s’intéressent à deux types d’activités : l’exploration de l’espace et l’exploitation de l’espace au profit des terriens. Les questions générales sont : quels sont les buts ? Quels sont les moyens mis en place ? Et quelles seraient les conséquences positives ou négatives ? En résumé : le pourquoi, le comment et l’après.
Considérez-vous l’éthique de l’espace comme une discipline à part entière ?
Je n’oserais pas dire que c’est une discipline. Mais je constate qu’il y a un nombre croissant d’universitaires qui intègrent l’éthique de l’espace dans leurs travaux. Ils la considèrent donc comme un véritable sujet de travail.
Depuis une vingtaine d’années, la place de l’éthique dans l’ingénierie a beaucoup changé, mais sur Terre, pas concernant l’espace ! Dans le milieu spatial proprement dit, on peut faire mieux.
Mais j’observe une sensibilité éthique croissante. Au CNES, je participe à des projets de plus en plus nombreux, dont beaucoup d’études prospectives.
Pourquoi est-il important d’inscrire la réflexion éthique dans le domaine spatial ?
L’éthique pour moi est une posture d’interrogation. C’est une posture d’ingénieur : avant de démarrer un projet, un ingénieur doit se poser les questions sur les objectifs et les conséquences. Il faut qu’il soit responsable. Au CNES, nous n’avons pas attendu la création du poste d’expert éthique pour poser ces questions.
Or, parfois, il arrive que ces questions soient posées sur le tard. Peut-être qu’on a oublié de poser ces questions, ou peut-être qu’on n’a pas eu le temps… Le rôle de l’expert éthique est donc d’émettre des interrogations pour aider les ingénieurs à aborder ces questions.
Un exemple avec les astronautes : est-il d’abord convenable d’envoyer des humains dans l’espace ? Une question qui se pose d’autant plus aujourd’hui, puisqu’en ce moment cela déborde un peu dans tous les sens avec des spots publicitaires pour des voyages touristiques dans l’espace !
Chose intéressante, ces doutes et questions nous ramènent à une question ancienne pour nous en tant qu’organisme public : pourquoi envoyer des gens dans l’espace ? Pour quelles missions avons-nous besoin d’envoyer des astronautes dans l’espace ? Si on n’a pas de réponse, cela signifie qu’il vaut mieux ne pas commencer la mission et ne pas débuter le recrutement des astronautes.
Et si on ignorait éternellement ces questions ?
Nous nous rendons compte que nous ne pouvons pas ignorer ces questions qui doivent se poser régulièrement : pourquoi des vols habités, ou encore pourquoi un espace militaire ? Si nous évitons ou ignorons les questions du développement de ces pans du spatial, nous allons nous retrouver en état d’apesanteur, sans fondement et sans raison d’être, dans le vide.
Il faut que ces interrogations soient un exercice permanent. Surtout quand on est un organisme public : ce serait grave de ne pas savoir dire ce qu’on fait. Il faut formuler des questions et essayer d’y apporter des réponses. Je parlais plus tôt de spots publicitaires, par exemple : peut-on accepter de tourner de la pub dans l’ISS ?
Il faut trouver des fondations à ce que nous faisons. En m’aidant de mon expérience et de mon expertise, je donne matière à penser à mes collègues et c’est à eux de prendre des décisions.
Est-ce que les débris spatiaux font partie des questions abordées tardivement ?
C’est une question très intéressante et assez compliquée, qu’il faut aborder avec précaution. Dès le lancement de Spoutnik 1 en 1957, les experts savaient que le satellite allait rester dans les airs et qu’il lui fallait beaucoup de temps pour descendre. Sauf qu’on ne s’attendait pas à une telle augmentation massive des activités spatiales, et donc à autant de débris.
Les spécialistes ne s’en rendent compte que depuis les années 80 et essaient de se projeter dans l’avenir. Mais les humains sont d’abord responsables de leur milieu proche. L’écologie est d’abord proche et petit à petit elle se développe au-delà. L’espace, lui, est très loin. Sur Terre, on rencontre des difficultés à appliquer la taxe carbone, ce qui nous laisse penser que dans l’espace cela ne va pas être plus simple !
Car il y a des enjeux économiques aussi : il y a des pressions économiques qui dissuadent de garder du carburant pour désorbiter le satellite et l’éloigner, puisque ce serait trop coûteux. Les débris de satellites sont un réel danger potentiel et c’est aussi un indicateur de la manière dont nous sommes collectivement responsables d’un projet.
Et les solutions sont complexes car elles aussi sont coûteuses : un grand coup de balais ou de filet n’est pas possible ! La solution la plus accessible est d’anticiper : il faut, dès le début du projet, faire en sorte que tous les éléments du satellite restent attachés, afin de ne faire qu’un seul débris et ainsi limiter les réactions en chaîne.
L’éthique pose-t-elle des remparts à la colonisation spatiale ?
Concernant la colonisation de Mars, Elon Musk n’est pas près d’y installer 1000 personnes. Les juristes doivent encore réfléchir à la mise en place d’une telle opération en prenant en compte les lois en vigueur et les propos politiques actuels.
Quant à la réflexion éthique, tout revient à la question « à qui appartient l’espace ? ». Il nous faut retrouver les principes éthiques fondamentaux, retrouver cet esprit que les pionniers de la conquête spatiale ont voulu insuffler dans leurs projets. C’est-à-dire les idées selon lesquelles l’espace devrait être un bien commun, l’accès à l’espace libre et qu’on ne peut pas se l’approprier. Cet esprit est mis à mal et bousculé par des projets de colonisation d’entreprises privées.
Mais ces principes éthiques fondamentaux datent d’il y a 60 ans. Il faut donc savoir comment les utiliser dans le contexte actuel. Il nous faut prendre en compte la situation générale de la Terre, les techniques employées, l’autonomie possible des colonies envoyées… Et évidemment, le « pourquoi ». Est-ce que Mars est un plan B pour les terriens ? La plupart des spécialistes s’accordent à dire que ce n’est pas le cas, et que Mars ne pourrait supporter qu’une petite colonie.
Pour moi, la colonisation de Mars est surtout la copie martienne d’une question terrestre : pourquoi, sur Terre, les ressources en eau et en pétrole ne font-elles pas partie du patrimoine humain ?
Et si on trouvait un jour des traces de vie sur Mars. Qu’est-ce que cela changerait à nos réflexions éthiques ?
Dès les années 1960, l’astronome Carl Sagan s’était posé la question : que ferait-on si on trouvait des traces de vie simples ou fossiles sur une autre planète ? Deux camps opposés apportent leurs réponses. Pour le camps des verts, il faut s’installer sur place pour étudier et conserver ces formes de vie dans l’espoir que, en les intégrant et en les envahissant, elles serviront à développer la vie sur cette planète pour la transformer en un espace vert ; vient ensuite le camps des rouges pour qui il faut tout arrêter, sanctuariser cette planète et rentrer sur Terre.
Une possibilité différente est aussi à considérer : et si ces formes de vie parvenaient à notre planète Terre ? Je pense aux sondes qui retournent sur Terre une fois leurs voyages spatiaux achevés. Imaginons que nous ramenons des échantillons martiens contenant des traces de vie microscopiques. Il faudra alors d’abord prendre toutes les mesures nécessaires pour ne pas mettre la population terrestre en danger.
Toutefois, cette question très importante reste difficile à aborder car nous ne connaissons pas encore ces potentielles formes de vies et nous ne savons donc pas quels risques elles peuvent représenter. Toujours est-il qu’il faut au moins poser la question et la faire exister. C’est un premier pas vers l’avant. Et le jour où la question se posera réellement, on aura alors déjà avancé.
Existe-t-il des institutions qui définissent des règles pour l’éthique de l’espace ?
En France, le CNES est la structure publique centrale dont la mission est d’élaborer les propositions et les soumettre au gouvernement pour mettre en oeuvre des programmes spatiaux ; nous réalisons cela en collaboration avec des acteurs scientifiques et industriels, avec le secteur de la défense aujourd’hui plus présent que jamais, avec la sphère politique, mais aussi avec toute la société française, qui joue un rôle au travers de l’éducation, et avec aussi le monde culturel.
Au niveau international, les Nations Unies disposent du COPUOS (Committee on the Peaceful Uses of Outer Space), structure comportant un bureau des affaires spatiales situé à Vienne. Au sein du COPUOS siègent des délégations de tous les pays engagés dans le spatial. Celles-ci se réunissent plusieurs fois par an pour discuter de problématiques aux dimensions techniques et juridiques.
Une telle structure a à la fois des qualités et des défauts. D’un côté, elle permet la rencontre et le débat entre de nombreux acteurs internationaux ; d’un autre côté, elle peut être extrêmement lourde à gérer et lente à s’activer.
Mais les Nations Unies abritent aussi des groupes de réflexions, en dehors du COPUOS, qui s’intéressent à l’éthique de l’espace.
Une autre structure est le COSPAR (Committee on Space Research). Elle est basée à Paris et a été fondée par le Conseil international pour la science. Son bureau permanent s’intéresse à la gestion des programmes scientifiques dans l’espace et leurs dimensions politiques.
On parle beaucoup d’aspects politiques et rarement d’éthique. Il est encore difficile d’introduire le mot « éthique » dans les débats…
Contrairement à l’éthique en médecine, l’éthique de l’ingénierie est moins connue. Pourtant, elle n’en est pas moins essentielle. Tout d’abord, il s’agit de comprendre ce qu’est l’éthique. Michel Jonquières, vice-président de l’Académie de l’Ethique, explique : « À mes yeux, l’éthique représente la recherche d’un équilibre permanent entre des valeurs – ce que je crois – et un comportement – ce que je fais ». Ainsi, l’éthique est un questionnement constant et n’est pas à confondre avec la morale, qui définit l’ensemble de nos devoirs avec une distinction bien/mal, ni avec la déontologie, qui correspond à des règles clairement établies.
En effet, l’éthique est avant tout personnelle et mouvante. Michel Jonquières précise : « Face à deux situations identiques vécues dans un espace de temps différent, un individu peut adopter un comportement éthique différent, mais également s’il est seul ou s’il est en collectivité ». L’éthique n’a donc pas de règles universelles, et c’est ce qui complique son utilisation et son encadrement. Deuxième frein : l’éthique est rarement associée à l’ingénierie, notamment en France.
La nécessité de l’éthique dans l’ingénierie
Chaque corps de métier a une responsabilité, et d’autant plus lorsque ses décisions peuvent affecter l’ensemble de la société. « En France, on a tendance à parler d’éthique et de déontologie pour des secteurs précis comme la médecine ou le journalisme. Pourtant, à partir du moment où un métier a un impact sur les autres qui n’est pas visible par les non-spécialistes, il est important que les représentants de ce métier se rassemblent pour définir ce qui est correct ou ne l’est pas. Les questions feront débat, mais il est nécessaire de se poser pour en parler », explique Christelle Didier, maîtresse de conférences en Sciences de l’éducation à l’Université de Lille et ancienne responsable du pôle « Ethique, ingénieurs et ingénierie » à l’Université Catholique de Lille.
L’éthique de l’ingénierie correspond à une interrogation sur les enjeux soulevés par l’ingénierie. Pour Christelle Didier, elle invoque « des questions liées aux activités de conception et de création d’objets, de procédures ou de programmes. Elle porte sur les intérêts, demandes et besoins des utilisateurs finaux, des riverains ou tout autre groupe impacté par ces activités ou des individus dont le travail peut être transformé par des décisions relevant de l’ingénierie ».
Certains pays prennent en compte l’éthique de l’ingénierie depuis des années et encadrent tous les ingénieurs. Au Québec, il existe un Ordre des Ingénieurs qui a le pouvoir de juger un ingénieur pour ses fautes et de le radier de la profession, à l’image du Barreau pour les avocats ou du Conseil national de l’Ordre des médecins en France. Aux Etats-Unis, il n’existe pas un ordre rassemblant tous les ingénieurs mais des associations par branche de métier qui détiennent un statut juridique. Chaque association dispose de codes de déontologie régulièrement révisés.
Le cas de la France
Alors comment l’éthique de l’ingénierie est-elle encadrée en France ? Tout d’abord, les ingénieurs, comme n’importe quel corps de métier, doivent respecter les lois nationales et internationales en vigueur. Il s’agit par exemple de la déclaration des Droits de l’Homme, du droit du travail, des conventions de l’Organisation internationale du Travail etc. Ensuite, certains secteurs sont encadrés et contrôlés. Par exemple, l’Agence de Sûreté nucléaire (ASN) assure le contrôle de la sécurité nucléaire. En revanche, aucun organisme n’est chargé d’encadrer toute la profession des ingénieurs français où les débats pourraient éclore. Il n’existe donc aucun moyen de contrôler leurs activités, et en cas de litige, les entreprises seront responsables pénalement mais pas les ingénieurs directement.
Selon Michel Jonquières, le problème vient justement du manque de structuration de cette profession en France. « Le métier d’ingénieur est un métier pluridisciplinaire assez mal structuré malgré un socle de compétences communes. La création d’un ordre professionnel pourrait réguler la profession et établir des règles précises, par exemple en matière de responsabilité », explique-t-il.
Sans être un ordre professionnel, la fédération Ingénieurs Et Scientifiques de France (IESF) réunit les alumni des écoles d’Ingénieur en France. Elle a rédigé en 1997 Le code de déontologie du CNISF (ancienne appellation d’IESF) puis la Charte d’éthique de l’ingénieur en 2001. Mais ces chartes n’ont aucun caractère coercitif et ne créent pas d’espace de contrôle. Aujourd’hui, IESF travaille à la refonte de sa charte. Selon Jean Dambreville, délégué général d’IESF, les ingénieurs « doivent disposer d’un guide pour prendre les meilleures décisions dans leur vie professionnelle ».
Mais la question reste la même : comment faire respecter un code de déontologie à des ingénieurs qui n’ont pas besoin d’autorisation pour exercer et qui ne sont pas contrôlés ? Jean Dambreville compte sur l’adhésion volontaire : « Effectivement, rien n’oblige un ingénieur à respecter ces règles. Cependant, je préfère travailler sur un code qui sera adopté par tous, parce qu’il s’appuie sur des valeurs communes et reconnues, même s’il n’a pas un caractère légal ». Ainsi, des groupes de travail composés d’ingénieurs, de chercheurs en sciences sociales, de juristes se penchent sur les problématiques de RSE, de lanceurs d’alerte, d’écologie, de responsabilité des ingénieurs dans la prise de parole publique etc.
Une sensibilisation dès la formation ?
Pour Christelle Didier, il ne faut pas se contenter de rédiger des codes mais plutôt créer une culture de l’éthique qui peut être distillée dès les études d’ingénieur. « Si en France, il y a parfois quelques cours d’éthique, aux Etats-Unis, les étudiants ont 50 h de cours par an dédiées à ce sujet pendant 4 ans. Ça ne règle pas tout mais ça permet de créer une culture, des points de repère », souligne-t-elle.
Selon elle, il ne suffit pas de mettre en place des « cours techniques sur les éoliennes » pour sensibiliser les futurs ingénieurs à l’éthique et à la prise en compte des questions écologiques. « Il me semble que la discipline à développer serait l’engeneering studies, à l’image des gender studies. On utiliserait ainsi la philosophie, la sociologie, la psychologie pour s’interroger sur l’ingénierie et construire une meilleure compréhension de la profession grâce à l’interdisciplinarité ».
Tous les jours, nous tapons différents mots de passe (du moins, tous ceux qui ne se contentent pas d’en avoir un ou deux par paresse…). Et cela devient vite pénible. Selon Microsoft, en novembre 2019, 100 millions de personnes utilisaient leurs offres de connexion sans mot de passe. En mai 2020, ce chiffre est passé à 150 millions.
Principale raison : retaper son mot de passe est contraignant. Pour être efficace, cette solution exige une « hygiène numérique » : recours à un gestionnaire de mots de passe, utilisation de mots de passe « forts » et différents pour chacun de nos comptes…
Résultat, différentes alternatives sont présentées depuis des années comme des solutions idéales et simples à utiliser. C’est le cas de l’empreinte digitale qui est de plus en plus intégrée à des smartphones ou à des boîtiers USB pour ordinateur (la présence d’un lecteur d’empreintes digitales n’étant pas nouvelle puisqu’en 2009, Acer l’avait intégré à son M900).
Mais l’identification biométrique par empreintes digitales est-elle la panacée ? Depuis des années, des hackers ont démontré les limites de cette solution. Si ce constat ne doit pas alarmer outre mesure le grand public, il inquiète tous ceux qui peuvent être espionnés ou qui sont recherchés par des polices.
Il existe différentes méthodes pour voler des empreintes digitales. Voici les principales qui peuvent être employées.
1-Mouler l’empreinte digitale
Une empreinte digitale moulée peut être prise alors que la victime est, par exemple, inconsciente. Un intrus utilisera alors le moule afin de créer un faux bout de doigt avec une imprimante 3D.
2-S’emparer de l’empreinte digitale prise avec un scanner
Cette option est certainement la plus facile, car ces données sensibles ne sont pas toujours stockées avec le niveau de sécurité nécessaire (le RGPD insiste d’ailleurs sur le fait que les entreprises doivent respecter un cahier des charges rigoureux en ce qui concerne les mesures de sécurité organisationnelles et techniques).
Au mois d’août 2019, des chercheurs israéliens, assistés par le site web vpnmentor, ont découvert une faille de sécurité impactant une base de données biométriques (BioStar 2) dédiée au contrôle d’accès dans les entreprises. Cette vulnérabilité aurait permis d’accéder aux empreintes digitales de plusieurs millions de personnes…
3-Prendre une photo de l’empreinte digitale sur une surface vitrée
L’équipe de recherche en sécurité X-Lab de Tencent a démontré l’efficacité de cette méthode lors du concours de cybersécurité Geekpwn 2019. Elle leur avait permis de tromper à trois reprises un smartphone et deux fois un système d’accès sur base.
Après avoir pris une photo d’une empreinte digitale sur un verre (laissée par des personnes au hasard), l’équipe de X-Lab avait créé une fausse empreinte. Tout ce processus n’avait pris que 20 minutes et le matériel utilisé ne coûtait que 200 euros. Par contre, impossible de connaître les détails précis de leur méthode. On peut juste dire que l’image a été traitée (par une application développée en interne) pour obtenir la transparence requise, puis elle a été transférée à une imprimante 3D.
Toujours est-il que ces Chinois ont affirmé qu’ils pouvaient tromper les capteurs physiques, optiques, ou encore ultrasoniques.
L’équipe de Tencent n’est pas la seule à maîtriser ce type de piratage. Au mois d’août 2020, le groupe de sécurité Talos de l’équipementier américain Cisco a dépensé environ 2 000 dollars sur plusieurs mois pour tester l’authentification par empreinte digitale proposée par Apple, Microsoft, Samsung, Huawei et trois fabricants de serrures.
Le résultat est inquiétant : en moyenne, les fausses empreintes digitales ont pu contourner les capteurs au moins une fois dans environ 80 % des cas. Les pourcentages sont basés sur 20 tentatives pour chaque appareil avec la meilleure fausse empreinte digitale que les chercheurs ont pu créer.
Seul bémol : l’équipe a insisté sur le fait que leurs résultats ont nécessité plusieurs mois de travail minutieux, avec la création de plus de 50 moules à empreintes digitales avant de trouver le bon.
« Toute technique de clonage des empreintes digitales est extrêmement difficile, ce qui fait de l’authentification des empreintes digitales une méthode valable pour 95 % de la population », a expliqué Vitor Ventura, un des chercheurs de Talos.
Comment éviter d’être piraté quand on risque d’être espionné ? Être parano ! Les Chinois de Tencent recommandent d’effacer les empreintes digitales de tout ce que l’on touche ou de porter des gants en permanence.
Des échantillons d’aérosols ont été collectés pour l’Institut Weizmann des Sciences lors de l’expédition Tara Pacific, durant la traversée de l’océan Atlantique Nord en 2016. Leurs résultats, publiés dans la revue Communications Earth & Environment, montrent que des microplastiques se trouvent dans l’air marin.
« Une fois que les microplastiques sont dans l’atmosphère, ils sèchent et ils sont exposés à la lumière UV et aux composants atmosphériques avec lesquels ils interagissent chimiquement. Les particules qui retombent dans l’océan sont susceptibles d’être encore plus nocives ou toxiques qu’auparavant pour toute vie marine qui les ingère », explique Miri Trainic, auteure principale de l’étude et chercheuse à l’Institut Weizmann des Sciences. « De plus, certains de ces plastiques deviennent des supports pour la croissance bactérienne de toutes sortes de bactéries marines, de sorte que le plastique en suspension dans l’air pourrait permettre à certaines espèces de partir en balade, y compris les bactéries pathogènes qui sont nocives pour la vie marine et les humains », ajoute Assaf Vardi, co-auteur du même institut.
Une première étude qui cache la forêt
Cette étude est la première à détecter et identifier des particules microplastiques en suspension dans l’air marin, loin des côtes. 43 échantillons ont été analysés par les chercheurs. Des microplastiques ont été trouvés dans neuf d’entre eux, soit 20 %. Dans ces échantillons, les microplastiques représentent entre 1 et 10 % du nombre total de particules d’une taille supérieure à 10 µm.
Les auteurs postulent que ces résultats sous-estiment grandement la concentration réelle de microplastiques dans l’air marin en raison des défis techniques actuels. En effet, ils n’ont pas pu analyser les particules de microplastiques en suspension dans l’air d’une taille inférieure à 5 micromètres (μm). « Dans une distribution granulométrique d’aérosol marin typique, la plage de diamètres entre 10 nm et 1 μm constitue plus de 99 % de la concentration totale de particules en suspension dans l’air », rappelle l’étude.
L’équipe a ensuite identifié les types de plastiques par spectroscopie portable Raman. Elle a ainsi détecté du polystyrène, du polyéthylène, du polypropylène et du polysilicone. Du polyéthylène et du polypropylène ont également été retrouvés dans l’eau de mer échantillonnée aux mêmes sites que les échantillons d’aérosols, suggérant une possible production locale de particules microplastiques en suspension dans l’air.
Des microplastiques locaux ou transportés sur de longues distances
Les particules de microplastiques ont des temps de résidence dans l’air marin de quelques minutes à plusieurs jours. Les chercheurs avancent donc l’hypothèse que certains microplastiques pénètrent dans l’atmosphère via l’éclatement de bulles à la surface de l’océan. D’autres sont ramassés par les vents et transportés par les courants d’air vers des régions éloignées. « Les microplastiques en suspension dans l’air que nous avons trouvés peuvent rester dans l’atmosphère pendant environ 2 jours, et être transportés sur une distance de 100 à 1 000 km pour une vitesse de vent marin typique de 8 mètres par seconde », partagent les auteurs.
« L’éclatement des bulles injecte le microplastique dans l’atmosphère dans un processus associé à la formation d’aérosols des embruns marins, ce qui implique que l’océan peut être une source mondiale constante de microplastiques en suspension dans l’air, qui peut être transportée vers les régions côtières et des endroits éloignés, explique l’étude. Cependant, nous ne pouvons pas écarter la possibilité que certains aérosols microplastiques puissent provenir d’autres bateaux, continents ou îles, et être transportés dans l’atmosphère marine éloignée. »
Quasiment un an jour pour jour après la promulgation de la loi d’orientation des mobilités (LOM), les filières de l’automobile, de l’électricité et de l’hydrogène ont rendu public un rapport commun autour de l’objectif 2040 inscrit dans la LOM.
Les acteurs de l’électromobilité entendent aider notamment les décideurs publics, en identifiant les initiatives à prendre dès à présent et les verrous à lever (aux niveaux national et européen) pour s’inscrire dans l’objectif fixé.
La coopération entre filières automobile et énergétique a tout son sens
Le rapport rappelle d’abord qu’« au regard des objectifs de décarbonation du secteur des transports poursuivis, que ce soit aux niveaux européens ou français, en 2030 ou en 2050, les véhicules électriques, c’est-à-dire les véhicules électriques à batterie (VEB) et les véhicules à hydrogène à pile à combustible (VEH PAC), ainsi que les différentes hybridations basées sur l’une et/ou l’autre de ces deux technologies, permettent de répondre pleinement à l’objectif du zéro-émission à l’usage si l’électricité ou l’hydrogène consommés sont produits de façon décarbonée ».
Dans ce cadre, la coopération entre filières automobile et énergétique « a tout son sens, dans la mesure où une approche globale de réduction des émissions de gaz à effet de serre (GES), concernant le transport et l’énergie notamment, est nécessaire », insistent les filières. Sans oublier que l’électromobilité aura également un rôle à jouer pour améliorer la qualité de l’air et réduire les nuisances sonores.
Des recommandations pour lever les verrous
Le rapport reprend une série de verrous à lever pour atteindre les objectifs, en l’accompagnant de recommandations.
Il s’agit d’abord de « renforcer les dispositifs de soutien à l’achat pendant la première phase de l’essor des véhicules électriques pour permettre un changement d’échelle et avoir une politique fiscale adaptée sur le long terme pour favoriser le recours aux énergies décarbonées ».
Il faut ensuite « réduire les coûts des VE (VEB et VEH PAC) pour les rendre accessibles au plus grand nombre, tout en veillant à améliorer la compétitivité des sites de production en France », ne pas altérer, voire conforter la filière automobile française, et rendre compétitive l’offre d’hydrogène bas carbone dans les infrastructures publiques de distribution de carburants. Le rapport appelle notamment à « clarifier les objectifs nationaux afin que les développements de R&D soient faits avec des débouchés marchés clairs, et apporter un soutien à la R&D pour réduire le risque des acteurs de la filière ».
Logiquement, le rapport demande de « développer de façon massive les infrastructures publiques et privées – notamment dans les logements collectifs (droit à la prise) – pour accompagner et favoriser la demande en véhicules électrifiés », l’accent étant notamment mis sur la nécessité de déployer les stations hydrogène, et standardiser.
Ensuite, le document appelle à « garantir l’adaptation aux mutations industrielles : planifier conjointement entre Etat et représentants industriels les évolutions nécessaires en emplois, compétences, moyens de production, et les investissements nécessaires pour faire de l’Europe une force économique dans le développement et la production des batteries et des piles à combustibles », plus particulièrement en mettant en œuvre, conformément au contrat stratégique de filière signé entre l’Etat et la filière automobile, un plan de R&D défini par les filières et le secteur de la recherche, mais aussi en diagnostiquant rapidement les besoins en formations futures.
Ensuite, le rapport demande de prendre en compte les bénéfices et les impacts environnementaux sur toute la chaîne de valeur, y compris la production et le recyclage en France des batteries, notamment en renforçant et en poursuivant « les démarches d’économie circulaire déjà en place dans la filière automobile en y intégrant les problématiques des véhicules électriques et à hydrogène ».
Enfin, le document recommande de prendre en compte sérieusement la question des réseaux électriques, en accompagnant « la montée en puissance de l’électromobilité et les opportunités pour les réseaux électriques ».
Le rappel des objectifs
A moyen terme, les projections de la filière tablent sur une part de marché de près de 64 % de véhicules légers en bas-carbone en 2030, dont 39 % de VEB, 24 % d’hybrides rechargeables et 1 % VEH PAC, soit environ un parc de véhicules électrifiés d’environ 7,5 millions d’unités dont 300 000 véhicules hydrogène. A plus long terme, la loi d’orientation des mobilités tout comme la Stratégie nationale bas-carbone (SNBC) notamment permettent aux acteurs concernés d’avoir une visibilité sur la place visée de l’électromobilité dans le parc de véhicules. Sans oublier l’objectif de créer, in fine, une industrie française pérenne, compétitive et avec une forte capacité à l’export.
Ce travail commun a été structuré selon trois périodes de temps qui se caractérisent par des niveaux d’incertitudes différents. Les initiatives doivent ainsi se décliner sur le court terme (2018-2022 horizon du contrat stratégique), le moyen terme (2022-2030 et sur l’échéance européenne de baisse des émissions de GES) mais aussi sur le long terme (au-delà de 2030) pour s’inscrire sur la trajectoire de « l’objectif 2040 » de la LOM.
Dans un précédent article, nous vous présentions la première version du chimiste artificiel. Cette technologie associant dispositifs de production chimique, de mesure des résultats et intelligence artificielle était alors au stade de la faisabilité. En plus de permettre d’accélérer les opérations de R&D, cette version 2.0 est capable de produire chaque jour des kilogrammes de boîtes quantiques à haute valeur ajoutée et sur-mesure, ce qui ouvre la voie vers une industrialisation.
Une méthode de fabrication en trois phases
Du point de vue de l’utilisateur, la synthèse de boîtes quantiques avec le chimiste artificiel 2.0 se fait en trois phases :
Phase 1 : l’utilisateur renseigne les paramètres recherchés, comme la couleur de la lumière qu’il veut obtenir.
Phase 2 : étape de R&D. Le chimiste artificiel conduit de manière autonome une série d’expérimentations rapides afin d’identifier le matériau optimal et la manière la plus efficace de le produire.
Phase 3 : passage en mode production afin d’obtenir la quantité de matériau désirée.
Deux réacteurs microfluidiques modulaires guidés par IA
Le chimiste artificiel 2.0 dispose de deux réacteurs microfluidiques opérant en série. Conçu pour être autonome, le système a l’avantage de permettre aux utilisateurs de passer d’un matériau à l’autre sans qu’il soit nécessaire d’arrêter la machine. Le fonctionnement détaillé est disponible dans le papier publié récemment en open access dans le journal Advanced Intelligent Systems.
Illustration du procédé de fabrication continue et à la demande de LHP QD inorganiques, grâce à 2 réacteurs microfluidiques modulaires assistés par IA (crédit : Milad Abolhasani)
Développer un tel système, aussi autonome pour les phases de R&D que de production n’a pas été simple. Dans un communiqué de presse, Milad Abolhasani, co-auteur de la publication et professeur assistant d’ingénierie chimique et biomoléculaire à la North Carolina State University (NCSU), précise : « Pour y parvenir, nous avons dû concevoir un procédé qui ne laisse aucun résidu chimique dans les réacteurs et qui permet au système robotique guidé par IA d’ajouter les bons ingrédients, au bon moment, à chaque instant du procédé de production multi-étapes. »
Un système à l’efficacité croissante
Parce qu’il est contrôlé par un algorithme d’intelligence artificielle, le chimiste artificiel 2.0 est capable d’apprendre et de s’améliorer. Milad Abolhasani l’explique :
« La première fois que vous utilisez le chimiste artificiel 2.0 pour produire des boîtes quantiques d’une classe donnée, le robot lance automatiquement une série d’expériences d’apprentissage actif. C’est de cette manière que le cerveau du système robotique apprend la chimie des matériaux. En fonction de la classe du matériau, cette étape d’apprentissage peut prendre entre 1 et 10 heures. »
Que se passe-t-il après cette phase d’apprentissage ? Le système devient capable d’identifier la meilleure formulation possible parmi 20 millions de combinaisons, en moins de 40 minutes.
Par ailleurs, les chercheurs s’attendent à ce que la durée de la phase de R&D diminue à chaque utilisation, à mesure que l’algorithme qui pilote le système apprend et gagne en efficacité.