Des robots pour combattre le Covid-19

UVD Robots a-t-elle trouvé une solution pour limiter la propagation du Covid-19 ? En tous les cas, l’activité de cette entreprise danoise devrait fortement s’accélérer après la signature le 19 février d’un contrat avec Sunay Healthcare Supply.

Ce fournisseur de matériel médical sur le marché chinois a acheté plusieurs centaines de robots (vendus entre 80 000 et 90 000 dollars) de désinfection par UV. Ils seront déployés dans toutes les provinces chinoises. « Grâce à cet accord, plus de 2 000 hôpitaux auront désormais la possibilité d’assurer une désinfection efficace, protégeant à la fois leurs patients et leur personnel », a déclaré Su Yan, PDG de Sunay Healthcare Supply, dans un communiqué de presse.

À l’origine, le développement de ces robots était destiné à réduire les taux d’infections nosocomiales dans les établissements de santé. En 2017, en France, il était d’environ 5 %.

Le risque est surtout important dans les services de réanimation, car ils accueillent une population à fortes morbidité et mortalité et qui est souvent exposée à des procédures invasives qui accroissent le risque d’infection nosocomiale.

Désinfection en 15 minutes

En 2014, un groupe d’hôpitaux danois a exprimé son souhait de trouver un moyen efficace de combattre plus efficacement ces infections. C’est ainsi qu’est né ce fameux robot. Il s’agit d’un ensemble mobile équipé de plusieurs capteurs LIDAR ( « light detection and ranging ») et de puissantes lampes UV de courte longueur d’onde (UVC).

Utilisé entre autres par l’industrie agroalimentaire, la pisciculture, le thermalisme ou encore le traitement des eaux de pluie, le rayonnement UVC est une radiation électromagnétique comprise entre 200 et 280 nm et correspondant à la plage germicide.

Le robot scanne l’environnement à l’aide de ses LIDARS et crée une carte numérique. Il suffit ensuite de lui préciser les pièces qu’il devra traiter (entre 10 et 15 minutes par salle) de manière totalement autonome (même pour prendre un ascenseur). Par sécurité, le robot fonctionne en l’absence de personnes. Mais s’il en rencontre une, il éteint immédiatement les lampes UV.

Équipés de puissantes lampes UV de courte longueur d’onde (UVC), ces robots peuvent désinfecter une chambre d’hôpital en 15 minutes /UVD Robots

Après avoir été testés et validés cliniquement à l’hôpital universitaire d’Odense et par des laboratoires microbiologiques indépendants, les premiers modèles ont été mis sur le marché en 2018. Ils sont vendus dans une quarantaine de pays (et récemment en Floride).

UVD Robots a signé le 22 mars un accord exclusif avec Aked, un distributeur de matériel d’orthopédie et d’ostéosynthèse. « La désinfection par UV n’est pas très développée en France alors que c’est le cas dans les hôpitaux britanniques, allemands et danois, précise Denis Pichon, PDG d’Aked. C’est même obligatoire dans les blocs opératoires en Arabie saoudite. Cette solution est très efficace. Elle permet de réduire le taux d’infection de surfaces difficiles d’accès : par exemple, les cuvettes des toilettes. D’autres secteurs pourraient être intéressés par ces robots comme les industriels pour traiter les vestiaires et les cantines. »

L’objectif des robots UVD était d’aider les hôpitaux à prévenir ces infections nosocomiales. L’épidémie de Covid-19 a accéléré l’activité de l’entreprise qui a également été contactée par des écoles et des croisiéristes.

Matériaux biosourcés pour le bâtiment et stockage temporaire de carbone

Extraits choisis de l’article Matériaux bio-sourcés pour le bâtiment et stockage temporaire de carbone de Thibault Lecompte.

Les matériaux du bâtiment sont souvent vus comme des « émetteurs de GES », à l’image des matériaux cimentaires et des produits de la sidérurgie. Pour ces secteurs, l’effort écologique consiste à limiter la production de GES liée à leurs produits : optimisation des procédés, filières de combustibles alternatifs, utilisation d’énergies renouvelables, économie circulaire, filières de matières premières à faible impact environnemental.

Les matériaux biosourcés, au contraire, captent du CO2 au cours de leur croissance via la photosynthèse. L’usage de ces matériaux pour la construction pourrait compenser les émissions des autres matériaux à l’échelle d’un bâtiment, voire permettre de considérer les bâtiments comme des puits de carbone. La condition pour cela est que leur gisement soit géré de manière durable, notamment dans le cas du bois d’œuvre ou des matériaux d’isolation issus de bois d’arbre : en termes de bilan carbone, une forêt exploitée est dite durable si la biomasse extraite durant une année est compensée par la biomasse créée durant cette même année. Ceci nécessite de prendre en compte plusieurs facteurs tel que la croissance d’un arbre et donc la période de révolution au sein d’une exploitation forestière qui dure entre quelques dizaines d’années (minimum 20 ans pour certains résineux) et quelques centaines d’années (jusqu’à 300 ans pour certains feuillus). Cependant, la période de croissance d’un arbre doit être mise en vis-à-vis de la durée de vie du bâtiment. Compte tenu de cette problématique, les matériaux agro-sourcés, qui sont des plantes annuelles, pourraient être considérés comme de meilleurs candidats pour répondre à la demande croissante de matériaux de construction tout en stockant temporairement du carbone. Les principaux matériaux issus de plantes annuelles actuellement utilisés en Europe comme matériaux d’isolation sont les fibres de chanvre et de lin, la chènevotte de chanvre et la paille de blé. Mais d’autres sont actuellement étudiés, parmi lesquels les anas de lin, la moelle et l’écorce de tournesol, le miscanthus, la balle de riz ou le roseau phragmite. Le bois d’arbre quant à lui se destine principalement à quatre types de produits : le bois de structure (poteaux, poutres et ossatures), les revêtements de sols et de parois (parquets, lambris, bardages), les panneaux de particules (sols, contreventements) et la laine de bois (isolation).

L’ensemble de ces produits biosourcés pourrait représenter à moyen terme un volume conséquent de stockage de carbone. Mais ce potentiel de stockage doit être calculé et validé scientifiquement, en réalisant une analyse de cycle de vie complète et en répondant à plusieurs questions importantes.

Quels sont les principaux gaz à effet de serre liés aux matériaux biosourcés, quel est leur effet sur le réchauffement climatique et comment est-il calculé et pris en compte actuellement ?

Les principaux gaz à effet de serre émis dans le milieu de la construction dépendent du type de matériau et des procédés utilisés. Le Tableau 1 reprend les données de Berje et du GIEC, et propose un inventaire des principaux gaz à effet de serre émis dans le cycle de vie des matériaux du BTP.

Quelle est la contribution potentielle des matériaux de construction biosourcés à la réduction des gaz à effet de serre dans l’atmosphère ?

Un changement de pratique aura donc un effet immédiat et à long terme. Cet effet sera d’autant plus bénéfique si certaines conditions sont respectées :

  • Tension sur les forêts

– Une gestion réellement durable des forêts, respectant des temps de révolution raisonnables et en accord avec la cinétique naturelle de croissance des arbres. Cette gestion durable doit aussi éviter les intrants d’origine fossile et optimiser l’usage de carburant et les transports. De fait, les pratiques sylvicoles doivent tendre vers une approche « écosystème » (biodiversité, mélange des essences et des âges) plutôt qu’une approche « produit » (plantations de monoculture, arbres du même âge, coupes claires) afin d’optimiser le stock de carbone dans les forêts.

– Dans le but de limiter les quantités de bois utilisées, les structures doivent être optimisées (utilisation de poutres en I, poutres treillis, travail sur les coefficients de sécurité des calculs de structure).

– Certains débouchés de la foresterie, comme le bois énergie ou l’électricité biomasse, devront aussi décroître en volume. L’isolation améliorée des bâtiments, et les règlementations sur l’usage domestique du bois-énergie devraient aller dans ce sens.

– Le développement de l’agroforesterie pourrait être un moyen d’augmenter le stock de carbone dans les sols et d’approvisionner les filières locales de bois de structure.

  • Limitation des gaz à effet de serre anthropiques :

– limiter les intrants synthétiques et les labours profonds pour les agro-ressources ;

– privilégier les filières locales pour limiter les transports et maîtriser les ressources ;

– privilégier les liants minéraux qui carbonatent au cours de la vie en œuvre (chaux aériennes) ou utiliser si possible des liants à base de terre ;

– d’une manière générale, les matériaux en vrac (paille, chènevotte, ouate de cellulose) sont à préférer aux matériaux sous forme de plaques ou de rouleaux, souvent liés par des fibres synthétiques.

  • Fin de vie des matériaux : utiliser des matériaux issus du recyclage et travailler sur le recyclage en fin de vie du bâtiment peut permettre, dans le cas des matériaux bio-sourcés, un stockage permanent de carbone. C’est aussi le cas lors d’une mise en décharge, pour environ 85 % du carbone contenu dans le bois d’arbre, et 75 % du carbone des plantes agricoles.
  • Durabilité : les règles de l’art et les règles professionnelles doivent être respectées, et assurer une durée de vie des systèmes constructifs et des bâtiments la plus élevée possible. Plus le carbone est stocké longtemps, plus le bénéfice est élevé.

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 8 avril !

Matériaux bio-sourcés pour le bâtiment et stockage temporaire de carbone , un article de Thibaut LECOMPTE

L’industrie a adopté les matériaux biosourcés

La filière des matériaux biosourcés est en plein essor en France. Les raisons à cela sont multiples, mais on peut dégager deux tendances lourdes. D’abord, il y a un contexte écologique. La volonté de développer une économie de plus en plus indépendante des matières premières fossiles – en particulier le pétrole – a favorisé le développement de l’usage de matériaux biosourcés par l’industrie.

Seconde tendance lourde, l’émergence, en parallèle à celle des biomatériaux, de filières écologiques de transformation et de production de matériaux : chimie douce, biotechnologies… Les industriels profitent aujourd’hui d’un écosystème complet et performant pour envisager leurs activités sous un angle plus écologique. Tout en restant concurrentiels, ce qui n’était pas encore le cas il y a encore 15 ans.

Les synergies entre les filières des matériaux biosourcés, de la chimie du végétal, et des biotechnologies sont évidentes. Elles permettent notamment d’adresser de manière globale la notion de cycle de la matière, qui permet à l’industrie de manager de façon précise et responsable sa production de déchets, sa consommation énergétique, en bref son impact environnemental.

Aujourd’hui on peut séparer les produits biosourcés industriels (hors alimentation et énergie) en deux grandes familles : les matériaux plastiques et composites, et les molécules chimiques. Les premiers vont intéresser de nombreux secteurs comme ceux de l’automobile, de l’emballage, ou du bâtiment. Les molécules chimiques – solvants, tensioactifs, lubrifiants…  – vont quant à elles concerner les domaines de la machinerie, de l’hygiène, des colles, des cosmétiques…

La problématique du remplacement du plastique

Aujourd’hui, la problématique mondiale du plastique – et de son interdiction progressive en France et dans de nombreux autres pays – a permis de montrer en quoi les produits biosourcés sont devenus bien plus qu’une alternative à l’usage des hydrocarbures mais une solution de plus en plus compétitive. Dans ce cas précis, le développement par les industriels de sacs en bioplastique biodégradables, compostables dans un jardin, est un progrès majeur. Cela va permettre – à moyen terme – d’en finir avec l’usage des PLA (plastiques en acide polylactique). Il s’agit tout de même d’un signe fort, même s’il n’est pas question pour l’industrie de tourner le dos aux hydrocarbures dans les années à venir. Quoi qu’il en soit, on voit émerger depuis peu des produits constitués de plastiques recyclables pour tous les usages : sacs, on l’a dit, mais aussi bouteilles, couverts, films de paillage… Un véritable marché existe.

Les avantages compétitifs des produits biosourcés

Au-delà du contexte écologique, il ne faut pas négliger le potentiel innovant des produits biosourcés. De nombreuses entreprises investissent massivement dans la R&D pour développer des produits biosourcés présentant des performances égales – ou supérieures – aux produits à base d’hydrocarbures existant déjà sur le marché. Arkema fait partie de ses entreprises. Spécialiste de la chimie du ricin (une plante non comestible), le premier groupe chimiste de France a développé des produits biosourcés comme le PA 11, qui est obtenu dans une des 5 bio-usines du groupe. Aujourd’hui le PA 11 est considéré comme un polyamide longue chaîne de haute performance. Il est utilisé dans la conception de nombreux produits finis comme des pièces automobiles, des lunettes, des semelles de chaussures de sport… Comme le synthétise Jean-Luc Dubois, directeur scientifique de l’entreprise, sur le site d’Arkema : «Nos bio-usines sont la preuve que l’on peut fabriquer des produits techniques, compétitifs à partir de matières premières renouvelables et répondant à une vraie demande du marché».

Un exemple des synergies qui se créent entre les industries de matériaux et des procédés, et qui constituent, au delà du contexte écologique, le meilleur garant du succès de ces filières sur les marchés.

Par P.T

 

Les cartes indispensables pour suivre la propagation du Covid-19

Cloîtré chez soi en période de confinement en raison de la propagation du nouveau coronavirus (Covid-19), sans autre moyen de distraction que les réseaux sociaux, on est vite tourmenté par un flot d’informations à la fiabilité plus ou moins suspecte ! Une solution serait de se déconnecter et privilégier les loisirs plus archaïques comme les bains à bulles, les livres de poche, ou le tricot… Une autre serait de chercher soi-même l’information directement à la source.

Plusieurs équipes de chercheurs et d’experts, indépendantes ou affiliées à des établissements, ont rendu disponibles sur le Web des cartes du monde alimentées en continu avec les derniers décomptes de cas atteints, décès ou encore rétablissements. De nombreux médias, francophones et anglophones, incluent des captures de ces cartes dans leurs publications. Mais il est possible pour chacun de consulter directement ces sources d’information. Deux possibilités se présentent : suivre dans le monde la progression du nombre d’infections ou traquer l’évolution génétique du virus au fur et à mesure de sa propagation.  

L’épidémiologie mondiale vue en temps réel 

L’un des sites les plus relayés est celui de l’université de Johns Hopkins (Etats-Unis). Il reprend des données récoltées du monde entier et que les chercheurs responsables de la plateforme ont rendu disponibles sur GitHub. Ces informations proviennent de sources diverses dont notamment le Centre européen de prévention et de contrôle des maladies, l’Organisation mondiale de la santé, et les ministères et départements en charge de la santé ainsi que des centres de prévention en Chine, aux Etats-Unis, en Italie, en Australie, à Taïwan, à Singapour… La carte a l’avantage de montrer dans le détail, pour chaque pays, le nombre des personnes infectées par le virus, combien en sont décédées et combien ont guéri. Méfiance, cependant : des hackers tentent d’ores et déjà de profiter de la situation en diffusant des liens vers de fausses plateformes de cartographie, d’apparence semblable à la carte de Johns Hopkins, et dans lesquels sont dissimulés des logiciels malveillants. D’autres outils de veille notables et semblables sont le site de suivi en temps réel de The Base Lab, qui affiche de plus une sélection des derniers articles internationaux en lien avec la pandémie, ou encore HealthMap où l’on peut visualiser dans une chronologie animée la propagation des infections au Covid-19 dans le monde. 

Informations épidémiologiques liées au Covid-19 en France, enregistrées le lundi 23 mars 2020 à midi /Capture d’écran sur le site de l’université Johns Hopkins

Selon la carte de l’université de Johns Hopkins : en France métropolitaine, le lundi 23 mars à midi, on en est à 16 018 cas confirmés, 674 morts et 2 200 guérisons. En revanche, cette carte n’indique pas la localisation exacte, région par région, en France, alors que ces précisions sont apportées sur les cartes de la Chine ou encore des Etats-Unis.

Les données épidémiologiques liées au Covid-19 en Chine, visualisées par région (ici Hubei), sur le site de l’université Johns Hopkins /Capture d’écran  sur le site de l’université Johns Hopkins

Dans l’Hexagone, une source de chiffres régionaux intéressante est le site de Santé publique France qui rassemble sur une même page les données épidémiologiques du pays et les met à jour en fin de journée, sans pour autant les représenter sur une carte.  

Suivre l’évolution génomique du Covid-19

Pour aller plus loin, NextStrain offre la possibilité de comprendre l’expansion de la pandémie en suivant les mutations génétiques du virus au fil de sa transmission. Le site se base sur l’analyse des 955 génomes du SARS-Cov-2 (Covid-19) partagés publiquement à ce jour sur la plateforme GISAID afin de les comparer entre eux et ainsi caractériser comment le virus “évolue et se déplace dans le monde”, explique le site. 

NextStrain effectue également l’analyse et l’interprétation de données : les lecteurs peuvent y accéder en consultant les rapports de situation, disponibles en plusieurs langues, régulièrement mis en ligne sur le site. Le dernier rapport en date a été publié le 20 mars et revient sur l’importance d’étudier les données des séquences génomiques du virus afin de “valider les historiques de voyage” : “identifier où un cas donné a été infecté est important pour comprendre quelles régions ont une transmission locale par rapport aux cas principalement associés aux voyage”, peut-on lire sur le site qui donne en exemples les cas d’infections contractées suite à des voyages en Iran et en Europe

Arbre phylogénétique du Covid-19 (répartition par pays), enregistré le 23 mars 2020 /Capture d’écran sur le site NextStrain

Dans un arbre phylogénétique que NextStrain a intégré au rapport, ce mélange d’échantillons de différents pays est bien apparent : “cela indique que les inévitables mouvements humains ont déjà introduit le virus dans de nombreuses régions du globe”, note le site qui rappelle que “les rapports de l’OMS ont confirmé des cas dans 159 pays sur 195 dans le monde”. Le site met à disposition de l’utilisateur un guide de lecture des arbres phylogénétiques. Pour résumer, le code couleur indique où chaque nouvelle mutation a été découverte, les séquences génétiques étant représentées par des lignes et les mutations par des cercles.

Code couleurs par pays sur le site NextStrain /Capture d’écran sur le site de NextStrain

Quand des séquences sont identiques, elles apparaissent sous la forme de lignes parallèles jointes à l’extrémité gauche par une ligne verticale. Et lorsqu’une séquence présente une mutation unique, elle se trouvera sur une ligne isolée. Dans le cas du Covid-19, comme le souligne NextStrain, plusieurs des séquences sont identiques (les lignes verticales sont visibles à gauche) alors que d’autres ont des mutations uniques ou partagées et se trouvent donc sur des “branches” à droite. 

Trevor Bedford, qui a co-développé NextStrain, fournit davantage d’explications sur les mutations du Covid-19.  Dans une interview accordée au Fred Hutchinson Cancer Research Center (Etats-Unis), où il est collaborateur, le chercheur a précisé que le taux de mutation du Covid-19 semble être de “24 mutations par an”, un taux qui est “conforme aux prévisions”, soit deux mutations par mois. Un taux de mutation similaire à celui du virus de la grippe, continue Trevor Bedford, avant d’ajouter : “Ce coronavirus possède un génome plus grand que celui de la grippe, alors il y a moins de mutation par base [les bases nucléiques font partie des principaux composants de l’ADN et de l’ARN, NDLR]. Aucune des mutations du COVID-19 ne semble particulièrement intéressante, mais il faut en surveiller quelques unes. L’une de ces mutations concerne la protéine “spike” [qui constitue la “couronne” du virus et lui est indispensable pour s’attacher à la cellule de l’hôte, NDLR], qui sera importante dans la recherche d’un vaccin.”

Crédit photo de une : National Institute of Allergy and Infectious Diseases (NIAID), Creative Commons

Revue du Web #132 : les vidéos les plus étonnantes du mois

Les poignées de porte spéciale Covid-19

Face au Coronavirus, il a fallu rappeler les règles d’hygiène de base. Se laver les mains oui, mais éviter de toucher les poignées de porte, plus facile à dire qu’à faire. Heureusement, grâce à la fabrication additive, on peut imprimer des adaptateurs qui permettent d’ouvrir les portes avec le coude ou l’avant-bras.

La vérité sur le téléphone de Pablo Esocbar

Lancé par le frère de Pablo Escobar à grand coup de campagne marketing, Escobar Fold 1 fait déjà place au Escobar Fold 2. Sauf qu’un célèbre youtubeur américain a découvert que, sous les finitions dorées, se cachait… un Samsung Galaxy Fold. Il semble que le projet Escobar ne soit pas aussi blanc que cela …

Le robot humanoïde basketteur

Toyota a développé un robot humanoïde de 2,09 mètres de hauteur capable de courir sur le terrain ou marquer des buts. Durant un concours de shoots à 3 points, il a même réussi 11 de ses tentatives. Le constructeur a doté le robot d’un petit moteur puissant ainsi que d’une IA supérieure afin d’améliorer le mécanisme de ses tirs.

L’avion hybride de Voltaero prend son envol

Le prototype de l’avion Cassio 1, développé par la petite entreprise Voltaréo, a effectué son premier vol d’essai avec un moteur hybride électrique fourni par l’entreprise Safran. Il s’agit d’un démonstrateur basé sur un avion existant, le Cessna 337 Skymaster, qui vise à démontrer la pertinence et la fiabilité de la technologie.

La photo qui a changé notre vision du monde

Le 24 décembre 1968, trois astronautes américains ont observé la Terre pour la première fois depuis l’espace. En plus de découvrir la face cachée de la Lune, Franck Borman, James Lovell et William Anders, ont été les premiers hommes à quitter l’orbite terrestre et surtout à observer un lever de Terre.

Biomimétisme : et si on s’inspirait du blob ?

L’histoire est la suivante. En 1970, au Texas, une femme découvre dans son jardin une masse jaune, ressemblant à une éponge. Ne sachant pas ce à quoi elle a affaire, elle décide de passer un coup de râteau sur cette chose. A sa grande surprise, le lendemain, non seulement la chose n’a pas disparu, mais elle a même doublé de volume. Elle décide alors de vaporiser de l’insecticide sur cette masse jaune, qui commence alors par changer légèrement de couleur, tout en continuant à grandir.

La femme appelle alors les policiers qui, faute d’imagination, décident de tirer sur cette masse jaune avec leur pistolet. Le lendemain, la masse jaune a repris sa forme initiale, et elle a encore doublé de volume ! Les pompiers sont appelés à leur tour, et décident de brûler la «chose». Rebelote, le lendemain, l’étrange masse jaune est encore là et elle a encore grossi ! Elle fait alors deux mètres carrés.

©Audrey DUSSUTOUR / CRCA / CNRS Photothèque

Le surlendemain, pourtant, la chose a disparu. Vu le contexte aux Etats-Unis à l’époque, les médias parlent très vite d’extra-terrestres qui auraient visité le jardin de la pauvre Marie. Et bien non, il s’agit «juste» d’un blob.

Qu’est-ce qu’un blob ?

Pour comprendre ce qu’est le blob, il vaut mieux commencer par comprendre ce qu’il n’est pas. Le blob n’est pas un animal. Ce n’est pas une plante non plus. Encore moins un champignon. Le blob est un organisme unicellulaire qui appartient au règne des amiboïdes. Visible à l’oeil nu, il est généralement de couleur jaune et se nourrit de spores, de champignons, de bactéries et d’autres microorganismes. Il est apparu sur terre il y a environ un milliard d’années, bien avant l’homme (6 millions d’années).

Le blob se cultive très bien in vitro, c’est une des raisons pour lesquelles il intéresse beaucoup les scientifiques. Par contre, il ne supporte ni la lumière ni la sécheresse.

Composé d’une seule cellule – un être humain en totalise à peu près 100 milliards – la cellule du blob comprend 40 paires de chromosomes et près de 34 000 gènes. Contrairement à tous les autres organismes unicellulaires, la cellule du blob contient plusieurs noyaux. En fait, plus elle grossit plus elle va en contenir, jusqu’à plusieurs milliards.

Caractéristiques inédites et pistes pour la recherche

Le plus gros blob jamais observé faisait plus de 10 mètres carrés. Il peut également se déplacer à la vitesse de 1 cm par heure, grâce à un réseau veineux à l’intérieur de la cellule. En effet, des fibres musculaires le long des veines de la cellules permettent au blob, par contraction, d’étendre sa membrane pour se déplacer. Un cas unique, présentant des similitudes avec la manière dont se développent les tumeurs, et qui à ce titre est l’objet de recherches multiples liées à la lutte contre le cancer. Mais ce n’est pas tout. En se déplaçant, le blob grandit, se nourrissant par contact. Il va se placer sur sa nourriture et la phagocyter, l’ingérant entièrement. Se faisant, il double de taille tous les jours !

Autre particularité, le blob peut entrer en dormance. En l’absence d’eau, il sèche, littéralement, et sa membrane se contracte alors autour de son système veineux. Son activité s’arrête, il ne grossit plus. Il est comme mort. Cet état de dormance peut durer jusqu’à deux ans. Replacé dans un milieu humide, le blob desséché revient à la vie. Petit détail, sa sortie de dormance s’accompagne d’un rajeunissement de la cellule. Ainsi le blob est quasi immortel en laboratoire, ce qui intéresse évidemment beaucoup les chercheurs, qui cherchent aujourd’hui à comprendre les mécanismes biologiques qui sous-tendent ces extraordinaires capacités.

Le blob, spécialiste en architecture de réseaux ?

Toshiyuki Nakagaki est un chercheur japonais, qui a beaucoup étudié le blob. Il a notamment réalisé une expérience célèbre – le labyrinthe – en 2008, où il a montré la capacité du blob, qui ne possède pourtant pas de cerveau, à sortir du dédale seul. Donc à résoudre un problème.

Dans cette expérience, des flocons d’avoine (le péché mignon du blob) sont installés à l’entrée et à la sortie d’un labyrinthe. Déposé dans le dispositif, le blob s’étend pour coloniser l’ensemble du labyrinthe puis se rétrécit pour finalement ne former plus qu’une ligne continue entre l’entrée et la sortie, empruntant le plus court chemin à chaque fois.

Deux ans plus tard, le chercheur japonais a renouvelé l’expérience pour démontrer la capacité du Blob à créer des réseaux intelligents. Pour cela,  il a reproduit, sur une plaque couverte de gel d’agar, la carte de la région de Tokyo, en déposant des flocons d’avoine sur les trente-six localités principales autour de la capitale japonaise. Il a ensuite installé un blob en lieu et place de la gare centrale de Tokyo. Le blob s’est alors déplacé pour ingérer les flocons d’avoine et comme on peut le voir sur cette vidéo, il a construit lui-même une forme de réseau.

Réseau qui va connecter tous les flocons d’avoine. Ce réseau a ensuite été comparé au réseau ferré japonais réel, et il apparaît que le blob a mieux travaillé que les ingénieurs japonais, puisque le réseau qu’il a formé est à la fois plus court, plus robuste et moins coûteux – virtuellement – que le réseau réel. Il s’agit donc là aussi d’une source d’inspiration pour les chercheurs, qui veulent aujourd’hui comprendre comment le blob – qui n’a donc pas de cerveau – fait pour mener à bien des actions pertinentes et efficaces. Cette étape est le préliminaire au développement d’applications pour l’industrie.

Le blob intéresse les chercheurs pour sa capacité à anticiper des événements

La troisième expérience notable réalisée par Toshiyuki Nakagaki et son équipe sur le Blob concerne l’anticipation des événements. Dans cette expérience, le chercheur japonais s’est «amusé» à exposer au froid des blobs – les blobs n’aiment pas le froid – à intervalles réguliers. Toutes les 30 minutes en l’occurence. Le blob placé dans un milieu nutritif grandit donc, et quand il est exposé au froid, au bout d’une demi-heure, il stoppe sa croissance. Quand les chercheurs ont arrêté l’exposition au froid, le blob a repris sa croissance normalement. 29 minutes et 30 secondes plus tard, alors que les chercheurs s’apprêtaient à renouveler l’exposition au froid, le blob s’est arrêté de grandir tout seul, anticipant le coup de froid à venir. Le blob est donc capable d’anticiper des événements et de s’y préparer.

Des recherches complémentaires ont été menées depuis, notamment par la française Audrey Dussutour, chargée de recherche au CNRS et spécialiste mondiale du blob.

Le blob acquiert l’information et la transmet par contact

Audrey Dussutour a notamment réussi à mettre en évidence la capacité du blob à réguler au mieux son régime alimentaire et à faire passer une information à un autre blob par contact.

La chercheuse a également mis en évidence des différences comportementales entre différentes souches de blobs, avec des caractères propres à chaque souche.

Dernier exemple, le blob produit de petites protéines microscopiques non toxiques et dégradées naturellement par l’humain. Un débouché possible pourrait ainsi être la pharmacologie, puisque ces molécules pourraient servir de véhicules pour transporter certains médicaments à l’intérieur du corps.

Un aperçu de l’ensemble de ses recherches menées sur le blob par Audrey Dussutour est disponible ici.

Le blob est donc une source de bio-inspiration très particulière pour les chercheurs, puisque cet organisme développe une forme d’intelligence sans synapses ni neurones, cas extrêmement rare dans le règne du vivant. Un défi à la compréhension pour le moment, mais un potentiel applicatif qui pourrait intéresser de nombreux domaines de l’industrie dans le futur : pharmacologie, médecine, architecture de réseaux, transmission de l’information… Pour l’instant nous n’en sommes pas encore à cette phase là.

Offshore éolien : l’effet de sillage obligera à une planification transfrontalière

Le phénomène physique est bien connu et étudié depuis très longtemps : c’est « l’effet de sillage ». A l’arrière d’une éolienne, un sillage tourbillonnaire se développe, et la vitesse moyenne du vent après l’hélice est réduite puisque l’éolienne a capté une partie de l’énergie cinétique du vent.

L’effet de sillage signifie ainsi une diminution de la vitesse du vent derrière l’éolienne entraînant notamment une baisse de production des éoliennes situées après la première. D’où l’importance d’une distance ad hoc entre les éoliennes d’un parc.

Par ailleurs, une distance suffisante entre les sites est essentielle car les parcs éoliens réduisent la quantité d’énergie qui peut être fournie par le vent sur une vaste zone environnante. Si les études montrent qu’une baisse de productible peut-être observée dans un cas « classique » d’installations, dans les cas extrêmes, c’est-à-dire quand les parcs sont trop proches les uns des autres, cet effet peut réduire la productivité d’un parc voisin d’un quart ou plus, indiquent Agora Energiewende et Agora Verkehrswende.

Dans le cadre de l’étude, réalisée uniquement sur la zone économique exclusive de l’Allemagne en mer du Nord (la zone sur laquelle l’Allemagne a la souveraineté, où divers parcs éoliens sont prévus), les think tanks se sont appuyés sur des chercheurs de l’Université technique du Danemark (DTU) et de l’Institut Max Planck de bio-géochimie (MPI-BGC) de Iéna qui ont appliqué deux modèles différents afin d’examiner divers scénarios. Ces scénarios différaient en ce qui concerne l’emplacement du parc éolien et le nombre et la capacité des turbines par kilomètre carré. Les rendements éoliens totaux ont ensuite été estimés pour chaque scénario.

Alors que les modèles variaient considérablement en termes d’approches sous-jacentes, les résultats sont « remarquablement cohérents », notent les chercheurs Axel Kleidon (MPI-BGC) et Jake Badger (DTU).

« Les décideurs politiques et les autorités responsables de la planification extracôtière seraient bien avisés de veiller à ce que les futurs parcs éoliens disposent de suffisamment d’espace », indique, dans un communiqué publié à cette occasion, Patrick Graichen, directeur d’Agora Energiewende. « Alors que l’Allemagne et ses voisins sur la mer du Nord prévoient de développer considérablement l’énergie éolienne offshore, des activités de planification conjointes sont essentielles et permettront un déploiement optimal du parc éolien. »

L’éolien en mer clé de l’approvisionnement énergétique européen ?

L’éolien offshore devrait devenir un pilier clé de l’approvisionnement énergétique futur de l’Europe, dans le cadre du Green Deal. Quelque 400 à 450 gigawatts pourraient être installés dans toute l’UE d’ici à 2050. La capacité éolienne offshore pourrait potentiellement être également augmentée de 500 gigawatts afin de répondre à l’énorme demande d’électricité associée à la production d’hydrogène vert (par exemple pour les besoins industriels), selon l’Agence internationale de l’énergie (AIE).

En Allemagne, les scénarios actuels prévoient 50 à 70 gigawatts de capacité éolienne offshore d’ici à 2050 et 20 GW dès 2030. Avec une production annuelle de 200 à 280 térawattheures, cette capacité devrait couvrir entre un tiers et la moitié de la consommation électrique actuelle du pays.

L’étude conclut que les parcs éoliens allemands devraient être construits non seulement sur la Baie allemande (c’est-à-dire la partie sud-est de la mer du Nord, mais aussi dans des zones plus éloignées, car les parcs seraient sinon situés trop près les uns des autres, ce qui réduirait leur potentiel de rendement annuel entre 3 000 et 3 300 heures à pleine charge, contre 4 000 heures à pleine charge, estiment les chercheurs. Ces derniers précisent que leurs résultats s’appliquent principalement aux parcs éoliens offshore à grande échelle, qui sont en train de devenir la norme (plus de 500 MW, jusqu’à 1 000 MW, voire plus).

Les chercheurs signalent en outre que si leur étude se cantonne à la zone économique allemande en mer du Nord, leurs recommandations valent également pour la mer Baltique, où le potentiel éolien offshore développable est de quelque 80 GW.

L’étude signale en outre qu’elle ne prend en compte que le déploiement prévisible des parcs dans la zone allemande, sans s’intéresser à ce qui se passe également aux Pays-Bas au Royaume-Uni ou encore au Danemark. Or, les installations prévues en cours dans ces pays pourraient, à terme, impacter également la Baie allemande, réduisant ainsi les vents dans cette zone. D’où la nécessité d’analyser et de coordonner les développements dans ces zones. Ce qui est loin d’être le cas aujourd’hui, chaque pays se lançant dans le déploiement en prenant en compte sa seule zone économique, déplorent les chercheurs.

Sans oublier, signale l’étude, que l’éolien flottant, qui est d’ores et déjà prévu dans le cadre de la trajectoire européenne à hauteur de 100 à 150 GW, constitue une réponse à cet enjeu de « tassement » des parcs.

Les chercheurs ajoutent également qu’une étude plus détaillée devrait être menée afin de voir quel sera l’impact d’un tel déploiement massif de parcs offshore sur l’éolien terrestre, qui est implanté également fortement dans cette partie de l’Allemagne.

Matériaux, conception : les drones de plus en plus bio-inspirés

Les drones ont fait la preuve de leur utilité dans plusieurs secteurs d’activité. D’abord développés par les militaires, ils ont ensuite trouvé des débouchés dans l’industrie, les services, l’agriculture, les loisirs. De même que pour les autres engins volants, la bioinspiration permet d’améliorer les paramètres de performance : poids, autonomie, capacité à transporter des charges… Voyons quelques exemples. 

L’encombrement spatial d’un drone peut être un inconvénient majeur, surtout si la mission du drone est de se faufiler dans des espaces contigus, étroits. Le drone Quad-Morphing  mis au point par le CNRS a la particularité d’avoir des ailettes rétractables, qui lui permettent de changer d’envergure. Innovation inspirée de la perruche, qui est capable de replier ses ailes en plein vol, ce drone peut aligner ses quatre rotors, passant ainsi d’une envergure de 26 à 13 cm en moins de 0,2 seconde.

Pratique pour trouver son chemin entre des murs très étroits par exemple. In fine, il s’agit pour les ingénieurs de développer un guidage autonome pour que le drone puisse lui-même évaluer la nécessité de réduire son envergure, selon les obstacles qui se présentent à lui.

 

Des matériaux bio-inspirés pour le transport de charges

Amazon avait fait sensation il y a quelques années en dévoilant vouloir généraliser le transport et la livraison de ses colis par drone. Nous n’en sommes pas encore là, mais l’idée progresse. En témoigne les drones FlyCroTugs. Ces modèles de drones, de très petite taille, sont inspirés des capacités de la guêpe, qui est capable de transporter plus de 40 fois son poids. En effet, quand une guêpe se retrouve à devoir transporter une charge trop lourde pour elle, elle décide de la tirer en la traînant au sol. C’est ce qui a inspiré les chercheurs de l’université de Stanford, pour développer un drone minuscule et très léger (une centaine de grammes) capable de tirer des charges beaucoup plus lourdes que lui, via une forme de treuil relié à un câble. Mais la bioinspiration, dans ce cas, ne s’arrête pas là. Pour assurer l’ancrage du drone sur une surface, les chercheurs se sont inspirés en partie… des pattes du gecko, pour créer un adhésif suffisamment efficace. Ce sont ainsi 32 micro-pointes en forme d’hameçon qui permettent au dispositif de s’ancrer dans les aspérités de la surface sur laquelle il veut se poser dans le cas de surfaces rugueuses. Dans le cas de surfaces planes – comme des vitres – un second modèle a été développé, à base d’interaction électrique moléculaire, qui assure un maintien suffisant, sans l’aide d’un adhésif. 

S’inspirer de la nature pour économiser de l’énergie

Chaque année, deux écoles d’ingénieurs, l’ISAE-Supagro et l’ENAC, organisent une rencontre au cours de laquelle les deux écoles s’affrontent – en toute camaraderie – sur un thème autour de l’innovation aéronautique. En 2019 cette rencontre avait pour thème les drones. L’occasion de découvrir des prototypes innovants et en l’occurrence bio-inspirés. 

Une des finalités de cette bio-inspiration est de développer des drones consommant moins d’énergie lors de leurs vols, mais aussi de récupérer de l’énergie pendant le vol.

Prenons l’exemple d’un prototype présenté lors de ce concours comme un drone à extraction d’énergie. Ce dernier reproduit la technique de vol des oiseaux, en utilisant la force issue des variations de pression – liées au vent – autour du drone. Concrètement, les ailes du drone, bardées de capteurs, mesurent la pression atmosphérique sur les ailes pour les orienter de façon à profiter des rafales et économiser de l’énergie. Selon les chercheurs, il serait possible via cette technique d’améliorer l’autonomie des drones de 45 %. Seul bémol, ces améliorations ne sont envisageables que pour des appareils relativement petits, et sûrement pas pour un avion, puisque les ajustements perpétuels de trajectoires rendraient le vol très désagréable.

Par P.T

Le gagnant du Grand jeu concours Techniques de l’Ingénieur 2019 est …

Vous avez été plus de 22 000 à participer au Grand jeu concours Techniques de l’Ingénieur 2019 et nous vous en remercions. Après un tirage au sort effectué le 14 février au sein de la rédaction de Techniques de l’Ingénieur, voici le nom du grand gagnant.

Le gagnant du grand jeu concours 2019 est …

Romain Lubet est le grand gagnant du concours Techniques de l’Ingénieur 2019 ! Il a répondu correctement aux 5 questions et il remporte donc un casque de réalité virtuelle.

Après une licence pro, Romain a approfondi ensuite ses connaissances sur la maintenance industrielle grâce à une formation de l’AFPA. Il occupe actuellement le poste d’automaticien au sein de l’ACPI, un bureau d’études basé en Charente-Maritime. En tant qu’automate, il développe avec expertise des technologies sur de nombreux constructeurs d’automates programmables mais également dans le domaine de la supervision et de la robotique.

Quelle surprise pour Romain Lubet de découvrir qu’il est le grand gagnant de l’Edition 2019 ! Il va pouvoir profiter du casque de réalité virtuelle Oculus. Un casque qui va lui permettre de plonger de façon spectaculaire dans un monde immersif en 3D.

Les réponses au grand jeu concours 2019

Pour le grand jeu concours Techniques de l’Ingénieur, des étudiants ou professionnels, quel que soit leur âge, ont pu tester leurs connaissances sur l’actualité 2019 scientifique et industrielle. Voici les réponses aux 5 questions posées.

1/ Parmi ces architectes célèbres, qui est un des pionniers en matière de bio-inspiration ?
Jean Nouvel / Antonio Gaudi / Leonard de Vinci

En savoir plus

2/ Dans quelle ville un concept de contrôle d’éclairage a été effectué en utilisant une architecture d’IoT (Internet of Things) ?
New-York / Shanghai / Padoue

En savoir plus

3/ Pour quelle technologie, John B. Goodenough, Stanley Whittingham et Akira Yoshino ont été récompensés du Prix Nobel de chimie 2019 ?
Batterie Lithium-ion / Cryo-microscopie électronique / Synthèse de machines moléculaires

En savoir plus

4/ Parmi les 120 000 embauches d’ingénieurs, combien de jeunes diplômes en 2018 ?
10 000 / 30 000 / 50 000

En savoir plus

5/ Quel matériau pourrait bientôt faire son apparition sur nos smartphones ?
aluminium / graphène / carbone

En savoir plus

En 2020, les Editions Techniques de l’Ingénieur s’efforceront d’aborder avec vous les grands sujets ou enjeux scientifiques et industriels de demain.

Quelques noms de gagnants

Voici quelques noms des gagnants du jeu concours 2019 Techniques de l’Ingénieur, parmi les 20 tirés au sort :

Romain Lubet, gagnant du concours 2019

Romain Lubet,

Fatma Brahmi,

Charles Priou,

Mathilde Garavillon,

Stéphane Reboul,

Ils ont eu l’occasion de remporter chacun un cadeau parmi les lots offerts cette année : un casque VR Oculus, un projecteur portable Lumia, une Nintendo Switch, une batterie portable solaire ainsi que d’autres très beaux lots.

Félicitations à eux et à l’année prochaine pour un nouveau grand jeu concours !

Partagez les ressources de votre ordinateur pour aider la recherche sur le COVID19

Folding@home permet la modélisation dynamique du repliement des protéines. Comprendre le fonctionnement des protéines du COVID-19 est le premier pas vers une solution thérapeutique.

Les protéines des virus

Les protéines sont des machines moléculaires constituées de chaînes linéaires appelées amino-acides. Dans la plupart des cas, ces molécules se replient spontanément pour former des structures fonctionnelles compactes. À l’instar des machines, ce sont les arrangements des composants de la molécule (c’est-à-dire les atomes) et leurs mouvements qui déterminent la fonction de la protéine.

Les virus eux aussi ont des protéines. Celles-ci leur servent par exemple à se reproduire ou à détruire notre système immunitaire. Une récente étude indique d’ailleurs que le caractère particulièrement contagieux de COVID-19 serait lié à la présence d’une “protéine en forme de pic”, à la surface du virus SARS-CoV-2.

Déterminer la structure d’une protéine par la modélisation

Les simulations informatiques permettent de comprendre la dynamique complexe des protéines. À partir de modèles expérimentaux, il devient possible de simuler comment tous ces atomes se déplacent les uns par rapport aux autres et de révéler les éventuels sites d’action de médicaments.

Exemple de protéine modélisée par Folding@home (Source : capture d’écran, Folding@home)

En plus de nécessiter énormément de puissance de calcul, ces simulations informatiques ne donnent pas forcément de résultats exploitables. Ainsi, démarrer une nouvelle simulation est un peu comme jouer au loto : plus on achète de tickets plus on a de chances de gagner !

Calcul partagé : mode d’emploi

Pour accélérer les simulations, il y a une solution : multiplier la puissance de calcul en sollicitant des milliers d’ordinateurs à travers le monde. C’est ce que vous propose de faire Folding@home.

Comment faire ? C’est très simple. Il vous suffit pour cela d’installer le logiciel en le téléchargeant ici. Une fois installé, le logiciel travaille tout seul, en tâche de fond. Vous pouvez lui attribuer plus ou moins de ressources, choisir de le faire tourner uniquement lorsque vous ne travaillez pas et bien entendu l’arrêter à tout moment.

Lorsque votre ordinateur est disponible, il réalise donc des séries de calcul appelées “workunits”. Chaque fois que les calculs sont terminés, le logiciel envoie vos résultats aux équipes de chercheurs, vous faisant ainsi contribuer de manière passive.

L’interface web de Folding@home (source : capture d’écran)

Et après tout ça ? Continuez à utiliser Folding@home

Le logiciel a eu tellement de succès ces derniers temps que les chercheurs ont dû augmenter le rythme des simulations ! Ceci prouve que le travail collectif paye, en matière de recherche. Car avec 20 ans d’existence, Folding@home n’est pas réservé à l’étude du coronavirus.

La simulation a récemment permis de prédire une structure alternative pour une protéine d’Ebola sur laquelle aucun médicament n’est efficace. Ces prédictions ont depuis été confirmées par des expérimentations.

Par conséquent, si vous désirez installer Folding@home sur votre ordinateur, sachez que le logiciel est aussi utilisé pour supporter la recherche sur le cancer et les maladies d’Alzheimer, de Parkinson ou de Huntington. Continuez à l’utiliser !

Copier le fonctionnement du cerveau pour économiser de l’énergie

Damien Querlioz est chercheur au CNRS. Avec ses équipes, il tente de développer des systèmes intelligents reproduisant le fonctionnement des neurones et des synapses dans le cerveau. Le but ? Développer des modèles informatiques plus économes en énergie et donc plus performants.

Techniques de l’Ingénieur : Sur quels aspects s’inspirer du fonctionnement du cerveau pourrait améliorer les technologies existantes d’intelligence artificielle ?

Damien Querlioz : Ces dernières années ont été marquées par des progrès absolument considérables au niveau de l’intelligence artificielle. Aujourd’hui, dans certains cas, elle est capable de dépasser le cerveau en termes de performances. On en a eu l’illustration il y a quelques années lors de l’organisation d’un match de GO (le GO est un jeu de plateau) gagné par une intelligence artificielle (développée par Google), contre le meilleur joueur du monde.

Mais il y a d’autres aspects sur lesquels l’IA est bien moins performante qu’un cerveau. C’est le cas surtout en ce qui concerne la consommation énergétique. Pour revenir au jeu de GO, l’IA développée par Google tournait sur un énorme réseau d’ordinateurs et de cartes graphiques qui avaient une consommation électrique globale de 150 000 Watts. Pour le cerveau, on est à environ 20 Watts.

Cela illustre les différences de fonctionnement dans l’accomplissement de tâches intelligentes entre le cerveau et une IA. Nous essayons donc de développer une électronique qui reproduit les stratégies énergétiques opérant dans le cerveau.

Beaucoup de gens travaillent sur ces questions depuis quelques années car il s’agit là d’une vraie problématique de fond, mais également d’une problématique applicative, puisque la consommation énergétique élevée liée à l’usage de l’IA pose de vrais problèmes pour le futur, si on table sur un développement massif de cette technologie.

Comment s’explique ce fossé en termes de consommation énergétique ?

Aujourd’hui ce qui est assez clair, c’est que le facteur primordial expliquant la différence de consommation énergétique entre le cerveau et l’IA est la mémoire.

Dans un ordinateur, on trouve des processeurs spécialisés pour faire des mathématiques, et des mémoire où on stocke les informations. Les processeurs et les mémoires sont séparés non seulement physiquement mais aussi conceptuellement. On s’est rendu compte que dans les tâches d’intelligence artificielle, il n’y avait pas tant de mathématiques que ça à réaliser. Il s’agit plutôt de traiter des volumes de données énormes. En fait, la quasi totalité de l’énergie dépensée est consacrée à déplacer des informations. Le cerveau, lui, a un fonctionnement complètement différent, puisqu’il ne sépare pas calculs et mémoire.

Dans le cerveau, l’équivalent des processeurs sont les neurones, et il est majoritairement admis que les synapses, qui connectent les neurones entre eux, sont les lieux de stockage de la mémoire. C’est l’énorme différence avec un ordinateur : dans le cerveau, les synapses se situent à la jonction entre les neurones, l’information est donc déjà sur place, là où on en a besoin. D’où un gain d’énergie phénoménal.

Le but de nos recherches est d’essayer de reproduire cette stratégie du cerveau en créant des circuits constitués de neurones artificiels et de synapses artificielles qu’on connecte au plus près les uns des autres, et qui seront capable de faire de l’IA en consommant beaucoup moins d’énergie.

Quels sont les contraintes liées à la conception de ces systèmes ?

Les neurones et les synapses artificiels peuvent être réalisés avec des transistors qui sont les composants traditionnels de l’ordinateur. Les chercheurs développent ces modèles-là depuis longtemps. Mais cela pose un gros problème. Dans un réseau de neurones, il y a énormément de synapses. Cela implique un nombre de transistors très élevé, une surface utilisée importante et un coût également très élevé.  C’est pour cela que le nombre de synapses que l’on peut mettre sur une puce électronique est très limité.

De plus, les synapses réalisées avec des transistors ont le défaut d’oublier ce qui est mémorisé à partir du moment où l’on éteint la puce. Il est donc indispensable de reprogrammer toutes les synapses dès qu’on rallume la puce. Ce qui est très long et coûteux.

C’est la raison pour laquelle depuis plusieurs années beaucoup de recherches, dont la nôtre, se sont déportées sur le développement de nouveaux composants pour créer des synapses artificielles. C’est une petite révolution dans la micro électronique. Ces nouveaux types de mémoires, issus des nanotechnologies, sont particulièrement adaptés pour faire de l’intelligence artificielle. C’est un domaine qui est en train d’exploser.

Ces dernières années, nous avions dans les systèmes que nous développions quelques nanosynapses. En ce qui concerne mon groupe de recherche, le système le plus abouti que nous avons mis en place comprenait 1024 nanosynapses. A l’heure actuelle nous travaillons sur un système plus gros qui en contiendra 64 000.

Dans l’industrie aussi le sujet fait école, puisqu’ IBM a présenté lors d’une conférence à San Francisco en décembre dernier un système de plus d’un million de nanosynapses !

Ce qu’il faut comprendre, c’est qu’à partir du moment où le système développé contient quelques milliers de nanosynapses, il est déjà possible de développer des applications. Evidemment, quand on développe un système dépassant le million de synapses, les applications possibles sont d’autant plus complexes et ambitieuses.

Vous venez de nous parler de recherches qui s’inspirent du fonctionnement du cerveau. Que peut-on dire du fonctionnement des synapses et des neurones à proprement parler ?

Dans les travaux que je viens d’évoquer, on s’est inspiré de l’architecture du cerveau et de la manière dont les choses sont connectées. Mais dans nos expériences la fonction des neurones et des synapses reste assez différente de ce que font réellement des neurones et des synapses dans un cerveau.

Il y a un autre type de recherche, beaucoup plus fondamentale, qui vise à s’inspirer directement du comportement observé des synapses et des neurones dans le cerveau. Il faut savoir que les synapses et les neurones sont des objets très compliqués à étudier, qui ont une dynamique propre, et qui réagissent en temps réel selon des équations qui sont d’une grande richesse. Il est probable que cette dynamique soit utilisée par le cerveau, et qu’il y ait matière à s’en inspirer.

Le problème c’est que reproduire des objets dynamiques très riches à l’aide de transistors est très compliqué, au vu du nombre de transistors nécessaires.

Il s’agit là encore d’une autre gamme de recherche, sur laquelle je travaille en collaboration avec Julie Grollier à l’unité mixte CNRS/Thales, qui est un laboratoire co-organisé par le CNRS et la société Thales.

Nous utilisons pour ces recherches un autre type de nanocomposant, qui est un neurone artificiel. Il se présente sous la forme d’un petit objet qui a à la fois des propriétés électriques et magnétiques, et qui permet de reproduire les équations qui ressemblent à celles régissant le fonctionnement d’un neurone. A partir de là, nous avons réussi à fabriquer des petits réseaux de neurones et montrer qu’ils étaient capable d’effectuer des tâches, comme reconnaître des chiffres ou des voyelles prononcées.

C’est un domaine de recherche très excitant, puisqu’il s’agit là d’essayer de s’inspirer du fonctionnement du cerveau de la manière la plus profonde possible. Nous sommes encore dans une phase très amont de la recherche, et à l’heure actuelle notre démonstrateur comporte seulement quatre nanocomposants.

Le but ultime de ces recherches est-il de recréer artificiellement le fonctionnement exact du cerveau en laboratoire ?

Pas forcément. D’une part parce qu’aujourd’hui nous ne connaissons pas tout du fonctionnement du cerveau, déjà. Mais on touche là à un point fondamental. Pour effectuer une tâche intelligente, doit-on s’inspirer uniquement de la biologie ou doit-on s’inspirer également des technologies artificielles que nous possédons aujourd’hui ? Quelle est la meilleure approche ? Il me semble que la réponse à cette question n’a rien d’évident.

Propos recueillis par P.T

Photo Une : Damien Querlioz, chercheur au CNRS, tente de développer des systèmes intelligents reproduisant le fonctionnement des neurones et des synapses dans le cerveau.

Manipuler des emballages en plastique libère des microplastiques

En ouvrant des emballages en plastique, vous risquez de générer des microplastiques. C’est la conclusion d’une nouvelle étude internationale parue dans Scientific Reports. Les chercheurs menés par Cheng Fang de l’Université australienne de Newcastle viennent de montrer que des tâches quotidiennes telles que couper, déchirer ou tordre les emballages, sacs et scotchs en plastique contribuent à générer des microplastiques. Ces processus peuvent générer entre 0,46 et 250 microplastiques par centimètre de plastique coupé, déchiré ou tordu. La quantité varie selon l’approche d’ouverture, la rigidité, l’épaisseur et la densité des matières plastiques.

Des analyses poussées pour identifier les microplastiques

Pour surveiller la génération de microplastiques, les scientifiques ont utilisé une microbalance à cristal de quartz (QCM) avec une sensibilité jusqu’à 1 nanogramme. En plus, ils ont eu recours à la spectroscopie infrarouge à transformée de Fourier (FTIR) pour identifier chimiquement les microplastiques. En parallèle, la microscopie électronique à balayage (SEM) leur a permis de visualiser physiquement les microplastiques pour une étude plus approfondie de leur morphologie. Plusieurs objets ont ainsi été testés : un sac à provisions, un film d’emballage de chocolat, un bouchon et une bouteille en plastique, un gant, un verre et de la mousse de polystyrène expansé.

Différentes formes et tailles de microplastiques ont été observées. « Il s’agissait notamment de fibres, de fragments ou de triangles, d’une taille allant du nanomètre au millimètre », relate l’étude. Les résultats suggèrent que les activités quotidiennes telles que l’ouverture de sacs ou de bouteilles en plastique et le fait de couper du scotch pourraient être des sources supplémentaires de petites quantités de microplastiques. Cependant, le risque et la toxicité associés, ainsi que leur ingestion potentielle, n’ont pas encore été étudiés. Les auteurs appellent à des recherches complémentaires sur l’exposition humaine.

Le coronavirus impactera gravement l’avenir des entreprises françaises

Depuis le 15 mars, du fait des mesures de confinement décidées par le gouvernement, l’économie française semble figée. Face à cette glaciation de l’économie qui risque d’impacter sévèrement l’avenir des entreprises françaises, l’État a pris des mesures. Malgré cela, une future morosité économique reste à craindre. Pascal Perri, journaliste et docteur en économie, explique en détail les implications et les conséquences de cette crise sur l’économie française.

Techniques de l’Ingénieur : À moyen terme, jusqu’à quel point l’économie française risque-t-elle d’être impactée par cette crise du coronavirus ? Le gouvernement parle de récession pour 2020, qu’en pensez-vous ?

Pascal Perri : La récession pour cette année ne fait même pas débat. La question est plutôt de savoir de combien elle sera. Et cela peut être sévère et elle sera probablement supérieure au 1 % dont a parlé le ministre de l’Économie, Bruno Le Maire. Cela peut représenter une chute du PIB sévère car nous risquons d’avoir une année à 300 jours de PIB. Nous ne serions plus à une année à 365 jours, mais à 300. Nous avons pratiquement un mois d’activité qui est occulté.

Pourquoi toute l’économie du pays est-elle concernée ?

L’économie est un flux. Il y a des agents économiques, l’État, les entreprises ou les ménages, qui paient les factures, qui les encaissent dans certains cas, et qui repaient. C’est un flux qui alimente la richesse. C’est le principe de la création de valeur : on achète des biens ou des services pour les ménages, les entreprises les vendent, l’État touche une part au passage : la fiscalité, les cotisations sociales. Cela fait vivre l’édifice sur lequel repose la société française, qui est un édifice solidaire. Dans la mesure où l’État se porte garant de l’ensemble des engagements des ménages et des entreprises, c’est une somme considérable.

Quel est le sens du fonds de garantie mis en place par l’État ?

L’État a décidé de se porter garant sur les besoins de trésorerie des entreprises. C’est l’esprit de ce fonds de garantie de 300 milliards d’euros annoncé par Emmanuel Macron. Cela ne veut pas dire que l’État va dépenser cette somme. Ce fonds de garantie servira à assurer les emprunts bancaires. Autrement dit, il aura pour objectif d’assurer les prêts qui seraient accordés aux entreprises mises en difficultés par cette crise du coronavirus. Ce fonds de garantie joue le rôle d’un indicateur de confiance. Cela signifie qu’en dernier recours, l’État sera débiteur.

Les aides de l’État aux entreprises se limitent-elles à ce fonds de garantie ?

Il y a effectivement les aides de trésorerie, qui vont aider les entreprises à passer le cap difficile, de façon directe ou indirecte. Par exemple, l’État va garantir une compensation aux indépendants, qui n’ont pas de bulletin de salaire, mais qui ont malgré tout un revenu. [Pour cela, les indépendants devront justifier d’une baisse de revenus de 70% entre mars 2019 et mars 2020, NDLR]. 600 000 entreprises sont concernées. L’État va garantir à ces artisans, ces commerçants, ces indépendants, durant la durée de la crise, qui va être plus ou moins longue, 1 500 euros de revenus mensuels. Sur un mois, cela représente 900 millions d’euros. Sur deux mois, presque 2 milliards d’euros. Il y a également le chômage partiel qui est pris en charge par la collectivité. Cela équivaut à une enveloppe de 8 milliards d’euros. L’État renonce aussi à percevoir des cotisations sociales et des charges fiscales, et cela représente environ 30 milliards d’euros. On arrive donc assez vite à 40 milliards d’euros.

Cela sera-t-il suffisant pour soutenir l’économie ?

Si l’économie repart, avec un petit coup de boost, cette crise laissera une trace moyenne. Mais il est vraisemblable que des secteurs d’activité entiers aient beaucoup de mal à redémarrer, dans de mauvaises conditions. Et il est également vraisemblable que des entreprises succombent à cette période. Il y en a qui sont particulièrement exposées.

Lesquelles ?

Air France, par exemple, qui est une entreprise qui emploie entre 35 et 40 000 salariés. Jean-Baptiste Djebbari [secrétaire d’État auprès de la ministre de la Transition écologique et solidaire, chargé des Transports, NDLR] a indiqué qu’Air France n’assurait que 10 % de ses vols, et que les 90 % restants avaient été annulés. Dans certains cas, et pour des entreprises qui seraient stratégiques comme Air France ou les entreprises de commodités et de première nécessité comme l’eau, le gaz, l’électricité, l’État va devoir monter au capital, voire dans certains cas nationaliser les entreprises. Au moins pour un certain temps, pour leur permettre de surmonter la crise.

Quels seront les impacts du coronavirus sur les secteurs de l’industrie et de l’innovation ?

La crise risque de limiter les capacités des entreprises à financer l’innovation. Au fond, ce sont des arbitrages de ressources. Quand on a mobilisé toutes ses ressources pour se sauver parce qu’on manquait d’oxygène, on manque de moyens pour investir. Les entreprises d’aujourd’hui font des efforts, et elles vont continuer à devoir faire des efforts dans le contexte pour traiter l’urgence. Elles doivent honorer une partie de leurs engagements, elles vont devoir investir dans la relance, dans la reprise de l’activité. Ce sont des budgets qui manqueront à l’innovation, c’est l’évidence.

Propos recueillis par Chaymaa Deb

Crédit portrait photo : Siren-Com

Une soufflerie pixellisée pour drones

Au détour d’une rue, une bourrasque fait dévier votre vélo. Vous resserrez l’emprise sur votre guidon. Un changement de direction suffit pour vous prendre de face un puissant vent contraire. Vous pédalez plus fort. Ce genre de situations inattendues auxquelles nous nous adaptons naturellement est une réelle préoccupation pour les fabricants de drones de livraison urbaine qui, par leur légèreté, sont sensibles aux fluctuations du vent.

Pour tester la résistance de ces drones, les fabricants leur font subir des écoulements d’air important dans des souffleries. Cependant, celles-ci produisent en général un flux continu. Flavio Noca, professeur d’aéronautique à la Haute École du paysage, d’ingénierie et d’architecture de Genève (HEPIA), a eu l’idée de mettre au point une soufflerie “pixellisée” composée de plusieurs petits ventilateurs indépendants pouvant reproduire les fluctuations du vent. Son ancien assistant, Guillaume Catry, commercialise quant à lui les souffleries via une spin-off de l’HEPIA, WindShape. L’inventeur de la soufflerie pixellisée nous explique le fonctionnement et les avantages d’une soufflerie pixellisée pour tester les drones.

Techniques de l’ingénieur : Pouvez-vous nous expliquer le principe de votre soufflerie pixellisée ?

Flavio Noca : Depuis une décennie arrivent sur le marché des drones ressemblant plus à des oiseaux que des avions. Par mauvais temps – pluie, rafales de vent, etc. – ces petits objets volants vont être plus secoués que les gros avions. Nous souhaitions développer une soufflerie qui puisse générer des vents avec des turbulences que pourraient rencontrer les drones s’ils devaient voler en extérieur. Il ne s’agissait pas de refaire les mêmes souffleries que les existantes, mises au point pour réaliser des écoulements peu turbulents. Nous avons eu l’idée de mettre au point une soufflerie pixellisée, composée de milliers de petits ventilateurs, générant un vent arbitraire et contrôlable. Cette soufflerie peut réaliser toutes sortes de vent : rafales, tourbillons, cisaillements, etc. Mais également des vents avec variation brusque de vitesse, comme un vent d’un côté de la façade d’un bâtiment mais pas de l’autre. Des conditions presque identiques aux conditions extérieures.

Presque identiques ?

Il nous reste effectivement une inconnue : nous ne savons pas comment sont ces vents à cette échelle. Quels vents vont rencontrer les drones dans les zones urbaines ? Comment le savoir ? Nous devons travailler sur les mesures de vent à petite échelle. Pour le moment, la météo “de tous les jours” est à grande échelle, c’est-à-dire avec une résolution de quelques centaines de mètres. Pour les drones, il faudra descendre à l’échelle du centimètre. Nous travaillons, dans le cadre de notre projet d’environnement de test intelligent, à l’Ecole Polytechnique Fédérale de Lausanne (EPFL) pour faire ces mesures avec un mât de 25 mètres instrumenté. Le cadre universitaire ressemble un peu au cadre urbain. Mais également sur l’utilisation du machine learning avec l’Ecole Polytechnique Fédérale de Zürich (ETHZ) : que dois-je faire avec chaque pixel de vent pour pouvoir reproduire l’écoulement en trois dimensions par le mât de mesure de l’EPFL ? C’est un projet sur lequel on va travailler ces prochaines années.

Quel est l’objectif de ce projet ?

L’idée est d’avoir un centre où il y aura cette soufflerie pour pouvoir faire voler n’importe quel type de drones. Même des drones taxis qui pourront transporter des humains. Notre soufflerie pixellisée est en effet composée de modules que l’on empile les uns sur les autres. On peut ainsi la faire aussi grande qu’on le souhaite. Il y a un grand intérêt de la part de toutes les entreprises pour développer et faire certifier leurs drones, comme celles de livraison Amazon, UPS ou encore DHL. Depuis la première commercialisation en 2017 à l’Institut de Technologie de Californie (Caltech) et le Jet Propulsion Laboratory (JPL) de la Nasa, les souffleries ont été vendues à l’Ecole Nationale d’Aviation Civile (ENAC) de Toulouse, à l’Université de Technologie de Nanyang (NTU) à Singapour, ou encore à l’Ecole Polytechnique Fédérale de Lausanne (EPFL). Des discussions sont également en cours avec le centre de certification de drones de New York. L’objectif est d’avoir un centre qui ne sera pas dédié uniquement à la certification, mais également au développement. Je pense que ce type de lieu va se propager un peu partout dans le monde.

Légende photo de une : La soufflerie pixellisée composée de petits ventilateurs peut générer tous types de vents/ Flavio Noca

Coronavirus : la chaîne agricole pleinement mobilisée

« J’invite tous les salariés des entreprises qui sont encore ouvertes, des activités qui sont indispensables au fonctionnement du pays, à se rendre sur leurs lieux de travail (…) dans des conditions de sécurité sanitaire maximales », a déclaré ce mardi 18 mars le ministre Bruno Le Maire sur BFM Business. Il a cité l’exemple de secteurs comme l’agroalimentaire, la grande distribution ou les déchets. « Il faut que de l’agriculteur jusqu’à la grande distribution, aux commerces de détail et aux marchés, les marchandises alimentaires puissent circuler », a-t-il partagé.

L’agroalimentaire et la chaîne agricole mobilisés

Les messages d’encouragements de Bruno Le Maire et Didier Guillaume se multiplient. Les deux ministres ont envoyé une lettre de soutien et de reconnaissance aux salariés des coopératives, des PME et des industries de l’agroalimentaire. « Il est indispensable que la chaîne alimentaire perdure pour soutenir l’effort de la communauté nationale, écrivent-ils. En retour, l’Etat sera à vos côtés pour traverser cette période difficile. »

Dans un autre communiqué, Didier Guillaume remercie l’engagement des forces vives de la chaîne agricole et agroalimentaire et encourage la responsabilité de chacun dans l’acte d’achat. « C’est un enjeu crucial et stratégique pour notre pays car la santé et l’alimentation sont les deux principales préoccupations de nos concitoyens depuis le début de la crise », insiste le ministre.

La FNSEA confirme pour sa part la mobilisation des agriculteurs pour assurer la poursuite de la production agricole. « Dans ce moment difficile pour l’ensemble des français, la fourniture de produits agricoles et alimentaires est en effet une priorité absolue ». Les agriculteurs devront « respecter les gestes barrières à la transmission du virus de manière stricte, ainsi que les formalités administratives nécessaires à la circulation des personnes », poursuit la fédération. Toutefois, « à l’heure des fermetures de frontières, des mesures d’incitation à l’emploi et des assouplissements administratifs en agriculture sont nécessaires et urgentes », avance la FNSEA.

Prophesee met au point des capteurs de vision neuromorphique

Prophesee s’inspire de l’œil humain pour créer son capteur de vision. La start-up française, créée en 2016, a mis au point un capteur neuromorphique qui reproduit le fonctionnement de la rétine humaine : chaque pixel est indépendant et va réagir de manière asynchrone aux changements de luminance de l’environnement. Il va ainsi générer des données, y compris les coordonnées et une information temporelle de l’ordre de la microseconde, uniquement pour les pixels où un changement est détecté. Le système repose sur un principe biologique : ne pas envoyer une information que le cerveau possède déjà en supprimant la redondance de l’information. En d’autres termes, tant que le capteur ne voit pas de changement, il n’envoie pas d’information. Pour améliorer son système, la start-up s’est récemment associée à Sony pour co-développer un nouveau modèle de capteur, dont la taille de pixel est de 4,86 micromètres, contre 15 micromètres pour le capteur précédent qui est en vente dans un format mini PBGA (pour Plastic Ball Gril Array) pour des applications dans l’industrie 4.0.

A gauche, la scène que perçoit un capteur conventionnel. A droite, la scène que perçoit le capteur neuromorphique de Prophesee

Ce résultat a été rendu possible grâce à la technologie BSI 3D Stacked de Sony (pour Back Side Illuminated) qui a permis d’empiler un capteur d’image CMOS rétro-éclairé et des circuits logiques, dont chaque pixel est connecté électriquement par des plots de cuivre (connexion Cu-Cu). “Jusqu’à présent nous travaillions sur des wafers en 2D, ce qui avait un impact à la fois sur la dimension des capteurs ainsi que sur le ratio surface photosensible et surface totale, précise Luca Verre, cofondateur de Prophesee. On perdait près de 70 % des photons. Avec Sony, nous avons pu développer d’un côté la photodiode et de l’autre la partie intelligente, pour ensuite les empiler l’une sur l’autre.”

Une faible consommation d’énergie

La méthode permet une petite taille de pixel, de bonnes performances en faible luminosité (40 mlx), une réponse rapide des pixels, une résolution élevée (1280 × 720 HD) et une lecture de données à haut débit (1 066 Mega d’événements par seconde). Ce taux de sortie a été atteint en compressant sans perte d’informations les données d’événements, c’est-à-dire les informations de polarité de changement de luminance, de temps et de coordonnées x/y pour chaque événement. Mais également une réduction de la consommation énergétique : le capteur consomme 32 milliwatts pour enregistrer 100 000 événements par seconde, et seulement 73 milliwatts à 300 millions d’événements par seconde. “Le fait d’avoir moins de données permet de réduire le coût système.”

Les applications de ce système sont variées. “Le capteur peut être utilisé pour toutes les applications en temps réel qui ont des contraintes énergétiques, un coût système et nécessitent de la rapidité”, affirme Luca Verre. A savoir les systèmes de vision artificielle dans le véhicule autonome, l’automatisation industrielle, l’IoT, la sécurité et la surveillance ainsi que la réalité virtuelle et augmentée. “Dans les systèmes grands public comme smartphone ou casque VR, l’enjeu est sur la partie énergétique”, poursuit le cofondateur. La première application de la start-up était médicale : le capteur a été intégré dans les systèmes de restauration visuelle de Pixium Vision. “Nous sommes toujours en relation avec Pixium Vision et Gensight Biologics, confie Luca Verre. Nous travaillons également avec d’autres sociétés dans le domaine médical sur l’instrumentation médicale pour faire par exemple du comptage de particules et des analyses de fluide.”

Vers d’autres systèmes bioinspirés

Outre l’amélioration de son capteur de vision, Prophesee souhaite s’orienter vers d’autres systèmes bioinspirés. Il explique : “Les modèles biologiques de captation ne se cantonnent pas à la vision : la vision : mémoire, audio, plateforme de calcul… Pour l’instant, nous avons parié sur la vision, qui est un système complexe mais bien compris par rapport à d’autres. Mais dans notre roadmap à très long terme, nous pensons aller vers d’autres formes de captation de l’information.”

Transmission de données : les lasers dans la course aux débits

En 2010, selon le cabinet d’analystes IDC, le monde n’échangeait que deux zettaoctets de données numériques, soit l’équivalent de deux milliards de téraoctets ou environ 500 milliards de DVD ! En 2015, ce chiffre avait été multiplié par six.

Et une pause ne semble pas envisagée ! Selon le même cabinet, le volume mondial de données sera multiplié par 3,7 entre 2020 et 2025, puis par 3,5 tous les cinq ans jusqu’en 2035, soit plus de 2 100 zettaoctets.

Principale raison à cette exploitation de la data : le big data et l’ambition des entreprises d’analyser quasi en temps réel d’énormes volumes de données pour mieux appréhender les comportements de leurs clients et prospects.

Autre facteur : le succès du streaming vidéo (et bientôt, du jeu vidéo en streaming) avec les plateformes de VOD. Autre phénomène majeur : le succès de l’OTT (« Over The Top »). L’OTT permet de transporter des flux vidéo, audio ou des données sur Internet sans l’intervention nécessaire d’un opérateur.

Ondes acoustiques et lumineuses

Avant, il y avait celui qui avait les tuyaux (typiquement les opérateurs) et ceux qui avaient le contenu (en ayant décroché une exclusivité). C’est le business model de Canal+ (avec ses matchs de foots, la F1…) qui passait par différents « tuyaux » (câble, satellite…).

Ce business model a vécu. Maintenant, un opérateur peut lui-même commercialiser une exclusivité, par exemple la diffusion d’un championnat de foot. Un autre peut décrocher la diffusion sur internet d’un concert ou d’un tournoi de eSport…

Afin de répondre à cette forte croissance, des recherches sont menées depuis des années pour trouver une solution ultra rapide. Dans cette course à la vitesse, les systèmes de communication optique ont depuis longtemps la cote.

Elles permettent une transmission de données très rapide en envoyant des impulsions de lumière à travers une fibre optique au lieu d’utiliser un courant électrique pour transférer des informations.

C’est cette piste qui a été étudiée et améliorée (publication dans Nature Communications le 11 février) par une équipe de recherche de l’université de Leeds et de l’université de Nottingham. Leur principe est original : il combine la puissance des ondes acoustiques et lumineuses. Pour schématiser, des ondes acoustiques font vibrer les puits quantiques à l’intérieur du laser à cascade quantique.

En s’appuyant sur des lasers Térahertz (ondes électromagnétiques dont la fréquence s’étend entre 0,1 et 10 THz) à cascade quantique, le débit atteindrait 100 gigabits par seconde, soit environ mille fois plus vite qu’un câble Ethernet de qualité.

Courtes distances

Ces types de lasers n’ont cessé, ces dernières années, de voir leurs performances s’améliorer grâce à une meilleure maîtrise des procédés de fabrication des semi-conducteurs à l’échelle nanométrique. Mais, ils présentent néanmoins un point faible : ils ne fonctionnent qu’à des températures cryogéniques…

D’où l’idée d’exploiter d’autres types de laser. L’année dernière, des ingénieurs de l’université de Bochum se sont appuyés sur les changements de polarisation de la lumière. Ces spin lasers transmettent au moins cinq fois plus de données que les meilleurs systèmes conventionnels et ne consomment qu’une fraction de l’énergie.

Publiée en avril 2019 dans la revue Nature, leur étude avait démontré que cette technologie fonctionnait potentiellement à température ambiante et ne nécessitait aucun champ magnétique externe.

Les Français aussi s’intéressent aux lasers. « En gagnant en puissance, nous sommes parvenus à envoyer des données, certes à un débit inférieur aux 100 gigabits par seconde, mais sur un kilomètre au lieu de quelques dizaines de mètres en laboratoire. Tout porte à croire que la transmission sans fil de données à très haut débit sur une longue distance est pour bientôt », avance Guillaume Ducournau, de l’Institut d’électronique, de microélectronique et de nanotechnologie.

La CRE fête ses 20 ans et met sur la table les dossiers chauds à venir

Née des directives européennes ouvrant les marchés de l’énergie, la CRE entend contribuer à la construction de l’Europe de l’énergie, car « plus que jamais », a insisté Jean-François Carenco, « l’énergie, c’est l’Union européenne ». Et c’est un dossier sur lequel le régulateur français entend peser.

Retour en arrière

Dominique Jamme, directeur général des services, et présent depuis les tous débuts de la CRE, a rapidement passé en revue les grandes étapes de l’institution. D’abord, comme il le rappelle, « nous avons été une sorte de startup », dont « la légitimité n’existait pas, même juridiquement tout n’était pas consolidé. »

La première pierre à poser a résidé dans l’indépendance des opérateurs de réseaux, sans laquelle il n’y a pas de marché, a-t-il insisté. Ensuite dans la foulée, cela a consisté à mettre en œuvre un marché de gros afin d’avoir une référence de prix. Cela s’est traduit par la création de la bourse de l’électricité (Powernext, devenue Epex), puis celle du gaz. Dès le départ, de premières concertations avec les parties prenantes ont été instaurées, avec la création, dès 2003, des groupes de travail, électricité (GTE) et gaz (GTG). Et l’UE a joué un rôle dès le départ également, en poussant à libéraliser le marché de la production, alors que, jusque-là, n’existait qu’un seul opérateur.

Ce qui implique qu’il a fallu « s’attaquer aux ressources », donc « obliger le fournisseur historique à mettre à disposition de la production ». Il y a d’abord eu les VVP (les virtual power plants, ou centrales virtuelle), contraignant EDF à mettre sur le marché un certain volume de kWh, puis l’Arenh (Accès réglementé à l’énergie nucléaire historique, contraignant EDF à céder à un prix fixé un quart de son nucléaire). Un Arenh toujours au cœur des préoccupations aujourd’hui. Autre chantier d’importance, la « dépolitisation » des tarifs réglementés de vente (TRV) aux clients, avec l’adoption de « l’empilement des coûts ». Côté indépendance, la CRE a été mise à rude épreuve avec le dossier des énergies renouvelables, pour lesquels elle donne un avis motivé et lance les appels d’offres, notamment sur l’offshore éolien.

Autre dossier, récurrent, celui de la fixation des tarifs d’accès au réseau public, Turpe, pour l’électricité et ATR pour le gaz ; la CRE fixant les montants des dépenses et des rémunérations des gestionnaires de réseaux.

La CRE a également participé au marché, en favorisant l’entrée en service des compteurs communicants, comme Linky et Gazpar. Aujourd’hui, l’un des dossiers majeurs est celui de la transformation du mix français et donc des réseaux dans cette transformation.

L’avenir

Autant de dossiers qui demeurent sur la table du régulateur, a indiqué son président. Ainsi, la CRE va gérer la fin des tarifs réglementés de vente pour le gaz, programmée pour 2023. Par ailleurs, toujours en termes de gaz, Jean-François Carenco a rappelé que la CRE pouvait mettre à son crédit, sur les deux dernières années, le fait qu’il n’existe plus aujourd’hui qu’une seule zone pour le transit de gaz en France, avec deux opérateurs, GRTgaz et Terega (au sud-ouest), mais aussi pour le stockage.

La CRE insiste par ailleurs sur la pertinence du modèle actuel d’organisation du marché du gaz fondé sur le principe d’une tarification du transport qui reflète les coûts de réseau. La CRE souligne également le succès de la régulation du stockage de gaz mise en place en France et rappelle que à ce titre la législation européenne doit préserver la juste flexibilité qui a permis l’élaboration de ce nouveau cadre afin que d’autres pays puissent éventuellement s’en inspirer.

La CRE relève particulièrement le souci constant qu’il faut avoir de mettre en cohérence la vision européenne et les particularités nationales.

Du côté des réseaux, la CRE consulte sur l’évolution du réseau de transport d’électricité de RTE. Ce dernier a publié en septembre 2019 son schéma décennal de développement du réseau de transport d’électricité (SDDR). Un tel schéma n’avait pas été élaboré depuis 2016.

RTE estime que les investissements devront atteindre environ 33 milliards d’euros sur la période 2021 à 2035. À ceci s’ajoutent environ 3 milliards d’euros d’investissement dit hors réellement lié au réseau tel que l’immobilier, la logistique et des systèmes d’information. D’après RTE, les investissements sont donc amenés à croître fortement au cours des prochaines années, passant de 1,5 milliard d’euros en 2018 à 2,4 milliards d’euros en 2030 puis après de 2,9 milliards d’euros par an entre 2031 et 2035. Si la CRE se félicite de la qualité générale des travaux de RTE, elle note que l’augmentation des dépenses d’investissement se traduira nécessairement par une augmentation substantielle du Turpe. Il est donc nécessaire de chercher les meilleurs arbitrages entre les coûts la sécurité la qualité et l’impact environnemental tout en tenant compte des risques et incertitudes pesant sur l’évolution du système électrique. La CRE estime notamment qu’il y a une réflexion à faire sur les systèmes d’information. En outre, dans le Turpe 6, c’est-à-dire celui qui est en cours d’élaboration, les investissements doivent accepter de nouvelles d’injections et ces droits à l’injection représentent quelque 7 milliards d’euros.

Au titre des priorités il faut aussi prendre en compte l’enfouissement des lignes. Mais aussi les interconnexions, la France exportant environ 15 % de sa production. Une nouvelle ligne est en construction vers l’Espagne, deux vers l’Italie, l’une Piémont Savoie l’autre via la Corse et une nouvelle liaison IFA 2 est quasiment réalisée avec le Royaume-Uni. Enfin une nouvelle liaison entre la France et l’Irlande est en cours. Jean-François Carenco souligne cependant qu’il faut que ces liaisons servent et qu’il s’agit d’être circonspect dans ces dépenses.

Les zones non interconnectées (ZNI), c’est-à-dire les territoires d’Outre-mer et la Corse, seront également un sujet pour la CRE. Jean-François Carenco a rappelé que l’Outre-mer devient le lieu où se mettent en œuvre les systèmes énergétiques d’avenir de la France, avec un verdissement total, une sécurité d’approvisionnement et l’autonomie. Le tout avec un contrôle financier, car on dépense par an environ 2 milliards d’euros.

Aujourd’hui la contribution des ENR à la production d’électricité des ZNI est de 30 % seulement, a rappelé Catherine Edwige, commissaire chargée du dossier, alors que ce n’est que 2 % du territoire national, les émissions de CO2 des ZNI comptent pour environ 20 % des émissions de la France.

L’Arenh s’est à nouveau invité au menu futur de la CRE, avec la demande par les ministres de la Transition écologique et solidaire et de l’Économie, respectivement Élisabeth Borne et Bruno Le Maire, de réaliser une analyse des coûts de production, de passer de l’Arenh à un autre mécanisme qui ferait qu’EDF vende l’ensemble de sa production nucléaire à un prix qui évoluerait dans une fourchette à définir. Jean-François Carenco s’est félicité que la CRE ait été saisie de ce dossier par les ministères, démontrant, selon lui, l’indépendance de l’institution. Au passage, cette modification entre également dans le cadre de la réorganisation en deux entités d’EDF, le fameux plan Hercule.

Enfin, pour préparer l’avenir, le président de la CRE a souligné la mise en place du comité de prospective, qui va entamer très prochainement sa troisième saison, en abordant les questions des énergies marines, des réseaux centralisés/décentralisés, du pilotage des recharges de véhicules électriques et enfin de l’hydrogène.

Autant dire, que la CRE ne va pas chômer dans les mois à venir.

Le « Collectif pour une économie plus inclusive » fait place aux jeunes

Favoriser l’accès au monde du travail dans les grandes entreprises est l’un des objectifs que s’est fixé le Collectif pour une économie plus inclusive, créé en 2018. Autour de ses fondateurs, Emmanuel Faber, PDG de Danone et Thomas Buberl, DG d’Axa, trente-cinq sociétés françaises se sont réunies pour impulser une dynamique économique vertueuse dans la société. « Nous avons la conviction partagée qu’il est urgent que l’économie de notre pays soit plus inclusive, que l’économique et le social aillent de pair, que le tissu social se reconstruise à partir du tissu économique. Bref, que l’économie et la finance qui la sous-tend soient au service de la société », ont indiqué les membres du Collectif lors de sa création, dans une tribune publiée dans Le Monde, le 18 décembre 2018.

70 000 alternants en 2020

Pour ce faire, ces structures misent depuis 2019 sur l’emploi des jeunes, par le biais de l’alternance. En effet, la formation professionnelle est au cœur du projet de ces entreprises. « Si nous ne pouvons pas créer beaucoup d’emplois car nous sommes des grandes entreprises sur des marchés matures, nous pouvons sécuriser les parcours et l’employabilité », expliquait Emmanuel Faber à L’Usine Nouvelle. Déjà en 2019, 13 entreprises avaient embauché 15,5 % d’alternants de plus qu’en 2018. La part des alternants dans les effectifs salariaux est alors passée de 2,8 à 3,8 %. En 2020, les 35 entreprises du Collectif espèrent voir passer cette part à 4,5 %.

De plus, dans un communiqué en date du 13 février dernier, le Collectif indique avoir accueilli l’année dernière 60 000 apprentis dans toute la France. Il y est également indiqué que ces grandes entreprises françaises ambitionnent d’embaucher 20 % d’apprentis de plus que l’an passé. Ainsi, 70 000 contrats en alternance seraient proposés par ces sociétés, parmi lesquelles se trouvent Veolia, Engie, et Schneider Electric. « Sur le plan de la formation professionnelle, les entreprises du Collectif, qui ont dispensé en 2018 34,4 millions d’heures de formation, confirment leur ambition d’atteindre 37,9 millions d’heures en 2020 », indique le Collectif. Ce chiffre représente une hausse de 10 % de ces ambitions en termes de formation.

Pôle Emploi, Éducation Nationale et missions locales

Mais pour pouvoir atteindre leurs objectifs, ces grandes entreprises déclarent ne pas pouvoir agir seules. « Nous avons fait le plus facile, maintenant le sujet c’est d’aller chercher des publics encore plus éloignés de l’emploi avec des partenaires associatifs ou publics », a indiqué à L’Usine Nouvelle Gilles Vermot-Desroches, directeur du développement durable chez Schneider Electric. Ainsi, les sociétés regroupées dans le Collectif aimeraient notamment avoir l’aval du ministère du Travail pour transférer les nombreuses candidatures spontanées qu’elles reçoivent à leurs fournisseurs. Aujourd’hui, une telle pratique reste interdite.

En attendant, les entreprises désireuses d’engager des jeunes s’appuient sur des collaborations avec plusieurs organismes, dont certains sont étatiques. Comme en 2019, les sociétés s’engagent, en partenariat avec l’Union nationale des missions locales (UNML), à dédier 25 % de leurs stages découvertes à des jeunes éloignés de l’emploi. Ces dernières doublent également leurs recrutements de chômeurs inscrits à Pôle Emploi. Le Collectif collabore aussi avec le ministère de l’Éducation Nationale pour que les programmes d’alternance soient les mieux adaptés possibles au monde de l’entreprise. Enfin, les salariés actuels de ces grandes entreprises ne sont pas en reste. Plus de cinq millions d’heures leurs seront accordées au titre de la formation continue additionnelle.

COVID-19 : attention aux arnaques informatiques !

Tsunami de 2004, tremblement de terre en Haïti en 2010, Coronavirus en 2020 : quel est le point commun entre ces catastrophes naturelles et cette épidémie ? Outre le fait qu’ils ont causé la mort de nombreuses personnes, ces trois événements ont été exploités par les cybercriminels.

L’objectif est toujours le même : profiter de ces tragédies pour escroquer des internautes. Et la méthode ne change pas ! L’appât se présente toujours sous la forme d’un email officiel.

Le 26 décembre 2004, un séisme de magnitude 9,3 provoque une vague géante dans l’océan Indien. Très rapidement, des escrocs envoient des milliers d’emails demandant notamment de l’argent au nom de l’ONG anglaise Oxfam. Mais les coordonnées bancaires indiquées dans le courrier correspondent à un obscur compte à Chypre…

Le 12 janvier 2010, Haïti est frappé par un tremblement de terre. Dès le lendemain, le FBI signale des emails imitant des ONG pour récupérer des dons.

Nous assistons actuellement aux mêmes campagnes d’emails avec l’épidémie de coronavirus.

Les arnaques se sont tellement multipliées ces dernières semaines que l’Organisation mondiale de la Santé (OMS) a dû publier un avis invitant les gens à être vigilants. La plupart de ces tentatives d’escroquerie reposent en effet sur des emails usurpant son identité.

Ci-dessous, un faux email envoyé par l’OMS à des internautes italiens (source : Sophos)

Écrit en italien et prétendant émaner d’un fonctionnaire transalpin de l’OMS, le message insiste sur le caractère régional de l’épidémie.

Autre exemple repéré par l’éditeur de sécurité Sophos :

La plupart des courriers électroniques invitent les destinataires à télécharger un document Microsoft Word pour obtenir plus d’informations. Une fois téléchargé, le fichier Word active un logiciel malveillant, permettant aux attaquants d’accéder à des données sensibles.

De son côté, l’éditeur de sécurité Kaspersky a découvert des fichiers malveillants présents sous plusieurs formats (PDF, mp4 et docx) et mentionnant dans leur nom « coronavirus ». Le nom des fichiers indique dans certains cas que le contenu donnerait des instructions pour se protéger du virus, informerait sur les derniers cas découverts et les zones touchées en temps réel ou même indiquerait les procédures à suivre pour la détection du virus, ce qui n’a encore jamais été dévoilé.

« En réalité, ces fichiers contiennent un grand nombre de menaces, des chevaux de Troie comme des vers informatiques, capables de détruire, bloquer, modifier ou copier des données, et aussi d’interférer avec les opérations en cours, sur les ordinateurs ainsi que les réseaux », prévient Kaspersky.

Pourquoi les cybercriminels exploitent-ils toujours la même technique ? Parce que ce type d’attaque malveillante a démontré depuis longtemps son efficacité !

Selon une étude publiée en 2017 par Proofpoint, un éditeur de sécurité, près de 90 % des clics sur des URL ou des pièces jointes malveillantes ont lieu dans un délai de 24 heures après la remise de l’email. 25 % de ces clics se produisent en seulement 10 minutes !  En clair, les internautes se précipitent sur ces emails piégés.

Appelée phishing (ou hameçonnage), cette escroquerie consiste à créer et à envoyer un email ayant une apparence légitime (avec la présence du logo officiel d’une organisation mondiale ou d’une ONG dans le cas du COVID-19 ).

Le but ? Profiter du contexte d’urgence ou de peur pour leurrer les destinataires et les inciter à télécharger un logiciel malveillant ou à saisir des informations confidentielles, voire à faire un virement sur un compte bancaire.

Quel que soit le prétexte (de façon générale, tous les événements internationaux et l’actualité peuvent être exploités par les pirates, mais également l’actualité réglementaire pour duper les entreprises), il est indispensable de respecter quelques règles de base.

1-Ne vous précipitez pas

Comme nous l’avons vu avec l’étude de Proofpoint, les internautes cliquent très (trop) vite sur le lien ou la pièce jointe d’un email. Les attaques de phishing reposent toujours sur les mêmes ressorts psychologiques : la peur (de voir son forfait mobile ou son compte bancaire bloqué), la bonne affaire, la tragédie… Résultat, vous paniquez et vous cliquez sans réfléchir.

2-Faites attention aux fautes d’orthographe et de grammaire

Beaucoup de cybercriminels ne font pas de fautes, mais d’autres en font en revanche. Prenez le temps nécessaire pour analyser les messages et détecter les signes prouvant qu’ils sont effectivement frauduleux. Qui n’a jamais reçu un email du Crédit Agricole alors que votre banque est la Société Générale ?

3-Ne faites rien !

C’est la meilleure parade contre le phishing, car les antivirus et les solutions antispam ne peuvent pas détecter en temps réel toutes ces attaques. Si vous êtes en train de travailler, ne consultez pas vos emails.

On ne peut pas faire correctement deux choses à la fois. Faites une pause et consultez à tête reposée vos emails. En cas de doute, appelez votre banque ou votre opérateur internet pour vérifier l’authenticité de l’email.

Vous pouvez aussi passer le curseur (SANS cliquer dessus) de votre souris sur le lien URL intégré dans le corps de l’email : vous pourrez ainsi constater une adresse étrange du style www.oms.covid.ru.

Deepfake : peut-on s’en prémunir?

Discours trafiqués, images ou vidéos truquées… Les deepfakes se propagent à toute vitesse sur les réseaux sociaux. Cette technique basée sur l’intelligence artificielle consiste à superposer des vidéos l’une sur l’autre, et permet notamment de remplacer les visages et réaliser ainsi des trucages. Parfois pour une noble cause – la fausse vidéo de Trump réalisée par Solidarité sida – ou pour faire sourire, plus souvent pour diffuser des informations erronées, discréditer telle personnalité ou manipuler l’opinion… La tendance ne devrait pas ralentir à l’approche des élections présidentielles américaines, en novembre prochain. Ce n’est pas un hasard si les plateformes de réseaux sociaux, de plus en plus pointées du doigt, ont présenté ces derniers mois leurs armes anti-deepfake : Facebook, en décembre dernier, avec son concours pour la mise au point de technologies de détection ; et Twitter, dont le label applicable aux médias « trompeurs » a été annoncé en février… Vincent Claveau, chercheur CNRS à l’Irisa (Institut de recherche en informatique et systèmes aléatoires) décrit la technologie au cœur du phénomène deepfake et les moyens possibles pour l’endiguer. Et la solution n’a pas forcément un caractère technique…

Techniques de l’Ingénieur : Plusieurs variantes composent la famille du deepfake. Quelles sont-elles ?

Vincent Claveau : Le lip-syncing, tout d’abord, consiste à synchroniser le mouvement des lèvres avec le discours d’une autre personne. L’attaque est pernicieuse, car seule une petite partie de la vidéo d’origine est modifiée. La deuxième technique revient à appliquer les expressions du visage d’un acteur, le marionnettiste, sur le visage de la cible, la marionnette. Le visage et les mouvements de la tête dans leur ensemble sont alors changés. Troisième type, qui s’éloigne un peu du deepfake : la production d’images entièrement artificielles, des visages inédits notamment.

Comment un deepfake est-il élaboré ?

« Deep » provient de deep learning, une méthode d’intelligence artificielle basée sur l’apprentissage : nourrie par des exemples, la machine apprend automatiquement à exécuter une tâche. Dans le cas typique du lip-syncing, l’IA s’entraîne, en traitant des discours audios, à faire bouger des lèvres de manière réaliste. Puis on demande à cette IA entraînée de réaliser ce travail en partant d’une nouvelle bande audio dont les images n’existent pas, lesquelles seront alors créées. Cette méthode demande beaucoup de données d’entraînement, c’est à dire de véritables vidéos où sont prononcés de vrais discours accompagnés des mouvements de lèvres correspondants. Le principe est analogue pour la technique de la marionnette, toute une palette d’expressions faciales constituant la base de départ.

Le développement des deepfakes suggère-t-il que la technologie s’est démocratisée ?

Les briques technologiques nécessaires ne sont plus aussi coûteuses, en effet, et sont à la disposition de tout le monde, que ce soit les frameworks [des boîtes à outils pour l’apprentissage des IA, ndlr], ou la vision par ordinateur, le détourage des lèvres ayant précédé de loin l’avènement du deep learning. En plus, ces briques sont parfois packagées au sein d’un même logiciel, par exemple une application de « face swapping » disponible sur smartphone. En soi, la production de fausses vidéos n’est pas nouvelle, les effets spéciaux dans le cinéma en sont l’illustration. La différence, c’est qu’aujourd’hui, un non-spécialiste, sans la moindre compétence de graphiste, est capable d’utiliser un tel logiciel.

Les méthodes de détection mises en place par les plateformes de réseaux sociaux vous semblent-elles fiables ?

Difficile pour nous, scientifiques, de nous prononcer sur leur qualité, car nous ne savons pas ce que Facebook, Twitter et les autres mettent en œuvre. S’il s’agit de décrire les techniques se développant en laboratoire, certaines exploitent également le deep learning et décèlent des incohérences dans l’image, parfois visibles à l’œil nu sur les premiers deepfakes : intérieur de la bouche inexistant, oreilles ou boucles d’oreille anormales… Sauf que le jeu du chat et de la souris s’instaure : les générateurs suivants de deepfakes intègrent ces techniques de détection pour gommer leurs défauts. Les détecteurs conçus il y a trois ou quatre ans sont donc obsolètes. C’est la raison pour laquelle des chercheurs refusent de communiquer leur façon de faire, de peur que ces connaissances soient assimilées par les prochains générateurs de deepfakes. D’autres détecteurs, plus pointus, vont analyser la concordance entre la rougeur du visage et l’afflux sanguin. On peut aussi chercher les traces laissées par les composants qui ont servi à capturer l’image (image forensics en anglais, ndlr). La vidéo officielle de Donald Trump, filmée par une caméra de NBC, doit comporter la signature correspondante. Hélas, les compressions/décompressions multiples de la vidéo peuvent atténuer ces indices. A priori, Twitter s’est orienté vers le « patch checking », pour analyser le cheminement de la vidéo et remonter jusqu’à la source, considérée plus ou moins suspecte. C’est un travail que seuls les concepteurs de ces réseaux sociaux peuvent accomplir. Nous n’en avons pas les moyens.

Pour une personne non-initiée, existe-t-il des astuces pour repérer un deepfake ?

Des logiciels, tels que des plug-ins pour les navigateurs web, sont conçus pour détecter la manipulation d’images et les photomontages, bien qu’ils soient plutôt destinés au traitement des fake news. En vérité, il faut admettre que nous sommes entrés dans une ère où l’on ne peut plus croire la preuve vidéo. C’est un changement de paradigme car maintenant, n’importe qui peut truquer une vidéo. La démarche la plus sûre se résume à la vérification des sources. Qui envoie cette vidéo, puis-je lui faire confiance… ? Ce sont les questions indispensables à se poser.

Propos recueillis par Frédéric Monflier

Nouvelle alerte sur les effets sanitaires du changement climatique

2019 est bien la deuxième année la plus chaude jamais enregistrée, derrière 2015. « Les années 2015 à 2019 sont les cinq années les plus chaudes jamais enregistrées, et la décennie 2010–2019 est la plus chaude jamais observée, complète l’Organisation Météorologique Mondiale (OMM). Chaque décennie successive depuis 1980 a été plus chaude que toutes celles qui l’ont précédée depuis 1850 ». La nouvelle décennie commence mal : le mois de janvier 2020 a été le plus chaud jamais enregistré et les concentrations de gaz à effet de serre atteignent de nouveaux records.

Des effets mondiaux de plus en plus graves

Sur l’année 2019, la température moyenne annuelle a été supérieure de 1,1°C aux niveaux préindustriels. Mais la température est loin d’être le seul indicateur du changement climatique en cours. Les inlandsis et les glaciers continuent de fondre. Le niveau de la mer monte de plus en plus vite et atteint sa valeur la plus élevée depuis le début des mesures. La chaleur océanique bat de nouveaux records et des vagues de chaleur marine étendues ont été observées.

Aucun continent n’a été épargné par les phénomènes météorologiques extrêmes comme les vagues de chaleur, les sécheresses et les inondations. De plus en plus de personnes sont exposées au stress thermique, à l’insécurité alimentaire et à de graves pénuries d’eau. Les cyclones tropicaux ont frappé les Bahamas, le Japon et le Mozambique. Les feux de forêt ont touché jusqu’à l’Arctique et ont été particulièrement intenses en Amazonie, puis en Indonésie et en Australie.

La faim repart à la hausse

Après une décennie de diminution constante, la faim augmente à nouveau. 821,6 millions de personnes en ont ainsi souffert en 2018. C’est 10 millions de plus qu’en 2017. « Cette année-là, la variabilité du climat et les extrêmes météorologiques ont constitué un facteur aggravant, de même que les chocs économiques et les conflits, dans 26 des 33 pays touchés par des crises alimentaires, analyse l’OMM. Ils sont même le principal facteur des crises alimentaires dans 12 de ces 26 pays. »

Certains pays de la Corne de l’Afrique voient se détériorer leur sécurité alimentaire. En cause : les chaleurs extrêmes, les déplacements de population, les conflits et la violence. Fin 2019, environ 22,2 millions de personnes y étaient en situation de grave insécurité alimentaire. En 2020, la situation s’aggrave avec une invasion massive de criquets pèlerins dans la Corne de l’Afrique à cause de précipitations particulièrement intenses à la fin de l’année. C’est la pire invasion depuis plus de 25 ans dans la région, et la plus grave au Kenya ces 70 dernières années.

Des effets sanitaires qui s’accentuent

En 2019, les records de températures estivales en Australie, en Inde, au Japon et en Europe ont impacté les populations. « Au Japon, une vague de chaleur intense a fait plus de 100 morts et nécessité 18 000 hospitalisations, partage l’OMM. En France, on a enregistré plus de 20 000 consultations aux urgences pour des maladies liées à la chaleur entre juin et la mi-septembre. Lors de deux grandes canicules estivales, 1 462 décès ont été recensés au total dans les régions touchées de ce pays. »

La transmission du virus de la dengue par le moustique de l’espèce Aedes continue sa progression. Désormais, environ la moitié de la population mondiale est exposée à un risque d’infection. « En 2019, une forte augmentation des cas de dengue a été observée à l’échelle mondiale », fait savoir l’OMM.

L’évaluation de la biodégradabilité des plastiques : un défi !

« Le problème d’accumulation de plastiques dans l’environnement est essentiellement lié au fait que les matières plastiques conventionnelles ont une durée d’utilisation extrêmement restreinte par rapport à leur biodégradation, analyse Emmanuelle Gastaldi, professeure associée à l’Université de Montpellier. Dans ce contexte, les plastiques biodégradables pourraient apparaître comme une option de fin de vie pertinente. »

Il existe pour l’instant quelques normes de biodégradabilité privées. Toutefois, Emmanuelle Gastaldi souligne qu’il faut considérer ces normes avec précaution. « On a besoin de normes qui fixent des seuils et des durées de biodégradation, mais les conditions accélérées ne sont pas les conditions réelles de l’environnement, rappelle-t-elle. Nous sommes incapables de prévoir la biodégradation d’un plastique dans l’environnement car on ne connaît pas assez les mécanismes de biodégradation dans tous les organismes, on ne connaît pas les interactions avec le milieu, donc il faut avancer dans la recherche pour mieux modéliser les choses. »

Qu’est-ce qu’un plastique biodégradable ?

« La propriété de biodégradable se réfère à un polymère ou un matériau qui peut être métabolisé par la microfaune et la microflore de l’environnement, ce qui veut dire que son carbone peut être utilisé dans des conditions précises, explique Emmanuelle Gastaldi. Il est important de préciser les conditions associées à cette biodégradation. »

Les polymères présentent différentes liaisons et fonctions chimiques suivant leur nature. On retrouve par exemple des liaisons carbone – carbone pour les polyoléfines, des liaisons esters pour les polyesters, ou encore des liaisons amides et osidiques pour d’autres types de plastiques. « Ces liaisons vont être ou non reconnues par certains enzymes excrétés par les microorganismes de l’environnement, détaille Emmanuelle Gastaldi. C’est cette capacité à être ou non reconnu et donc coupé ou non qui va être fondamentale pour différencier les matériaux qui seront facilement biodégradables dans des conditions naturelles ou pas. »

Comment un plastique se biodégrade-t-il ?

Anne-Marie Delort, directrice de recherche au CNRS à l’Institut de Chimie de Clermont-Ferrand, explique les mécanismes en jeu. Si la biodégradation est un mécanisme biologique, elle s’accompagne de mécanismes physiques et chimiques. Il y a d’abord la fragmentation, une dégradation assez superficielle suite à des phénomènes d’érosion, qui ne va pas changer la nature, la longueur et la taille des polymères. Ensuite, la dégradation va couper les chaînes polymères. « Il y a deux grands types de mécanismes : des mécanismes d’hydrolyse et d’oxydation qui vont arriver à des chaînes polymères de plus en plus courtes qui vont pouvoir éventuellement servir de substrat aux microorganismes », avance Anne-Marie Delort. Enfin, l’assimilation de ces polymères amène à la production de méthane en absence d’oxygène ou de CO2 en présence d’oxygène.

De nombreux paramètres du milieu et du matériau influencent la biodégradabilité d’un polymère. Citons la température, l’oxygène, les UV, la nature et la quantité des microorganismes, l’humidité, le pH… Ajoutons la turbulence, la composition chimique du matériau, les propriétés de surface, sa rugosité, sa cristallinité… Et enfin les propriétés thermiques, la surface spécifique du matériau, sa forme et son épaisseur. « Pour évaluer la biodégradabilité d’un plastique, on peut regarder comment le polymère se modifie, comment les caractéristiques de ce polymère évoluent, comment il est colonisé par les microorganismes, caractériser la formation et la dégradation des oligomères et regarder ce qu’il se passe à l’intérieur de la cellule pour évaluer la présence des métabolites microbiens afin de montrer la bio-assimilation », détaille Anne-Marie Delort.

Enfin, quelle est la différence entre un plastique biodégradable et compostable ? « Le mot compostable se réfère à un objet qui va être capable de se biodégrader dans des conditions de compostage normalisées et qui va répondre à d’autres exigences spécifiques en termes de désintégration, de composition et d’écotoxicité de ses produits de biodégradation », prévient Emmanuelle Gastaldi.

Cap sur Mars : quels signes de vie chercher et comment ?

Co-développée par l’Agence spatiale européenne (ESA) et l’agence spatiale russe Roscosmos, ExoMars 2020 se promet de trouver sur Mars des signes de vie passée. Alors que le lancement de la mission était prévu pour juillet 2020, les deux agences spatiales en charge ont annoncé ce 12 mars son report pour 2022. Les raisons derrière cette décision : des difficultés techniques et l’épidémie du nouveau coronavirus Covid-19, rapporte l’AFP. À terme, la mission devra atterrir dans le bassin martien Oxia Planum.

Avec ExoMars 2020, “il y a beaucoup d’espoir”, note Frances Westall, directrice de recherche responsable du groupe Exobiologie au CNRS d’Orléans. La chercheuse a co-piloté le développement de la caméra rapprochée Clupi embarquée sur le rover “Rosalind Franklin” qui fera le voyage dans le cadre de cette mission. Les technologies intégrées au rover suscitent un optimisme inédit. Même s’il faudra creuser un peu pour y arriver ! Et pour cause… “De puissants rayons UV atteignent la surface de Mars et détruisent les molécules organiques, ne laissant que des molécules organiques extrêmement dégradées, détaille Frances Westall. Pour essayer de trouver des molécules organiques qui ne sont pas dégradées, le rover va forer jusqu’à 2 mètres en-dessous de la surface. Nous avons en effet  construit des modèles et réalisé des expériences qui nous ont permis de démontrer que les effets des radiations et des oxydants sont négligeables à cette profondeur”. 

Vision d’artiste de l’astromobile « Rosalind Franklin » sur Mars. Pour un schéma annoté du rover, consulter ce lien /ESA /ATG medialab

Les oxydants qu’évoque Frances Westall sont les perchlorates. Et ce n’est pas tout, pour pouvoir analyser l’échantillon collecté, les instruments de mesure embarqués doivent le chauffer et le broyer ! En effet : “Les instruments à bord du rover doivent chauffer l’échantillon collecté afin d’analyser les molécules organiques, explique la chercheuse, d’abord par chromatographie en phase gazeuse, afin de les séparer, puis mesurer leur masse par spectrométrie de masse pour les identifier. Et quand les échantillons contenant du perchlorate sont chauffés, les molécules organiques seront dégradées”. Mais avant tout, “les instruments doivent broyer l’échantillon”, ajoute la géologue. Et c’est là que la caméra Clupi entre en jeu. 

Des carottes martiennes immortalisées en 3D 

Clupi se comporte comme une loupe, souligne Frances Westall. Elle possède une résolution spatiale très performante de 15 microns par pixel à 10 centimètres, ainsi qu’un système d’autofocus mécanique qui permet la prise de 10 images à différentes profondeur de champ d’un même endroit pour les superposer ensuite et créer une image 3D et en couleurs. Grâce à cet appareil, nous pourrons réaliser des captures photographiques de l’échantillon avant qu’il ne soit broyé, pour bien documenter le contexte environnemental dans lequel les biosignatures seraient repérées.” Et qu’entend-on par “biosignatures” ?  “Une biosignature est une signature physique, chimique ou minéralogique qui est en lien avec la vie ou un reste de vie, décrit la chercheuse. Il peut s’agir d’un tapis microbien minéralisé, de fossiles de bactéries, de minéraux précipités par des bactéries, etc…” Mais la géologue précise que sur Mars “il est plus probable de trouver des traces de matière organique que, par exemple, des fossiles bactériens”. 

Or, toujours selon Frances Westall, la matière organique peut provenir de phénomènes abiotiques, qui ne sont donc pas liés à la vie. D’où l’importance d’étudier l’environnement dans lequel les traces de matières organiques auront été détectées : “Clupi nous permettra d’apercevoir des détails petits et rapprochés qui apportent des informations sur la composition des sédiments, comment ils se sont formés, quel en est la texture, poursuit la chercheuse. Supposons que par chance des bactéries fossilisées – sachant que leur fossilisation en elle-même est très rare – soient présentes dans la roche martienne : même si Clupi ne peut pas visualiser une bactérie individuelle, elle permettra de voir les colonies bactériennes”. 

La caméra Clupi capturant en image un fragment de roche martienne découvert sur Terre. Ce morceau nous est parvenu de l’espace suite à la collision d’un astéroïde ou d’une comète avec la planète rouge /ESA /M. Cowan

Autre indice du vivant : “Ce qui distingue les molécules de la vie est leur complexité et leur spécificité, remarque Frances Westall. La vie n’utilise pas une énorme variété de molécules. La vie est comme nous, paresseuse, il n’y a pas beaucoup de molécules organiques mais elles sont complexes ! Alors, même quand la matière organique a subi une dégradation, il est possible grâce à l’analyse, et à un certain plafond de dégradation, de repérer des motifs moléculaires indiquant que ces traces ne proviennent pas de processus abiotiques mais bien d’organismes vivants.” 

NASA Mars 2020 : ramener des échantillons de Mars sur Terre 

Cependant, les expéditions vers Mars ne devraient pas s’arrêter là. Comme l’affirme Frances Westall, l’idéal serait de rapporter sur la planète bleue des carottes de roche martienne afin de les analyser avec les instruments terriens, beaucoup plus performants que que ceux embarqués sur les rovers. Et la mission de la NASA Mars 2020, qui sera lancée en juillet 2020, s’engage sur cette voie : “Le rover (désormais appelé Perseverance, ndlr.) de la mission Mars 2020 va creuser à 10 centimètres de la surface martienne pour prélever des carottes rocheuses, continue la chercheuse. Le rover va préserver ces carottes dans des tubes puis relâcher ces derniers à la surface de la planète. Le plan est qu’une deuxième mission, menée par la NASA et l’ESA, récupère ces tubes à l’aide d’un petit robot développé par l’ESA. Le robot va stocker les tubes dans une sorte d’appareil en forme de sphère qu’il lancera ensuite en orbite pour qu’il soit repêché par une sonde spatiale afin de retourner sur Terre.” 

Vision d’artiste : le rover Perseverance laissera les tubes d’échantillons martiens à la surface de la planète /NASA/JPL-Caltech

Si le projet semble très ambitieux, il a ses désavantages : “La profondeur de forage est de 10 centimètres seulement, constate Frances Westall. À cette faible distance de la surface, les échantillons risquent d’être fortement dégradés. Et on ne pourra savoir ça que des années plus tard, puisqu’il faudra 5 à 10 ans avant que les tubes ne soient ramenés sur Terre”. Dans un monde parfait, sourit la chercheuse, “la meilleure des méthodes serait d’envoyer une géologue sur Mars”.

Crédit photo de une : NASA, ESA, et STScI 

L’Europe lance son Pacte Plastiques

Près de 90 organismes dont 14 États membres de l’Union européenne, des dizaines d’entreprises de tous les secteurs et des ONG lancent le Pacte plastiques européen sous l’impulsion de la France et des Pays-Bas. Bonduelle, Unilever, Suez, Veolia et Nestlé figurent parmi les signataires. Ces derniers prennent des engagements sur 4 grands enjeux du plastique – l’éco-conception, la réduction de l’usage unique, l’amélioration de la collecte, du tri et du recyclage de ces plastiques – ainsi que sur la hausse de l’utilisation de plastiques recyclés. L’objectif de ce Pacte est de réaliser la vision développée par la nouvelle économie des plastiques de la Fondation Ellen MacArthur.

Concrètement, les signataires s’engagent à mieux concevoir les emballages plastiques et les produits à usage unique en plastique mis sur le marché européen, de façon à ce qu’ils soient réutilisables « lorsque cela est possible » et, dans tous les cas, recyclables d’ici 2025. Cet objectif s’accompagne d’une réduction de l’usage du plastique vierge d’au moins 20 % en poids dont au moins 10 % provenant d’une réduction absolue des plastiques d’ici 2025 par rapport à 2017. En plus, les signataires s’engagent à augmenter les capacités de recyclage d’au moins 25 % d’ici 2025. Enfin, il s’agira d’incorporer au moins 30 % de plastique recyclé en poids dans la gamme de produits et d’emballages des entreprises.

La participation est volontaire, mais chaque année les signataires doivent établir un rapport sur l’avancement de leurs engagements. Ils participeront à une réunion annuelle, à des groupes de travail, de façon à mettre en œuvre la vision commune pour une économie circulaire des plastiques. Le Pacte est signé jusqu’au 1er juin 2026, mais pourra être prolongé.

Un Pacte qui consolide bien d’autres initiatives

Ce Pacte européen s’ajoute à la liste des initiatives clés au niveau mondial : le Partenariat mondial des Nations Unies sur les détritus marins, la Convention Basel, le Partenariat mondial d’actions sur le plastique, l’Alliance to End Plastic Waste, la Plateforme pour l’accélération de l’économie circulaire et l’engagement mondial de la nouvelle économie des plastiques de la Fondation Ellen MacArthur. En plus, il fournit un cadre plus général aux Pactes nationaux concernant le plastique tels que le Pacte national français sur les emballages plastiques et les Pactes plastique néerlandais et du Royaume-Uni.

Enfin, ce Pacte plastiques européen est lié en plus à un réseau mondial de Pactes sur les plastiques (l’Afrique du Sud, la Malaisie et le Chili), menés par la Fondation Ellen MacArthur. « Le Pacte n’a pas vocation à dupliquer ou à remplacer des engagements existants ou des initiatives en cours, précise le texte du Pacte. Au lieu de ça, il accélère et soutient les initiatives nationales et de sociétés en ajoutant des échanges et une coopération transfrontaliers à une échelle paneuropéenne. »

Les pays signataires sont les suivants : France, Pays-Bas, Danemark, Allemagne, Belgique, Espagne, Finlande, Grèce, Italie, Lettonie, Lituanie, Portugal, Slovénie, Suède.

Comment l’implant de Pixium Vision aide les malvoyants à recouvrer la vue ?

Pixium Vision a mis au point un implant sous-rétinien permettant d’offrir une meilleure acuité visuelle aux personnes malvoyantes, notamment atteintes de dégénérescence maculaire liée à l’âge (DMLA). Créée en 2011, la société reprend le concept d’implant rétinien, composé de panneaux photovoltaïques activés par la lumière externe, développée à l’université de Stanford. D’autres entreprises travaillent – ou ont travaillé – également sur des technologies analogues, telles que l’américaine Second Sight et l’allemande Retina Implant AG qui a, quant à elle, cessé son activité en 2019, entre autre faute de résultats probants.

L’originalité de Pixium Vision : être sans fil ! Deux études cliniques de faisabilité ont été lancées, dont une en France où cinq patients ont été implantés avec succès, avec des résultats indiquant une acuité visuelle améliorée. Entretien avec Guillaume Buc, directeur de la technologie chez Pixium Vision.

Techniques de l’ingénieur : Pouvez-vous nous décrire l’implant et son fonctionnement ?

Guillaume Buc : L’implant sous-rétinien est composé d’environ 400 pixels. Ces cellules hexagonales sont dotées d’une zone photovoltaïque et d’une électrode de stimulation. Le principe de ces implants est de remplacer les photorécepteurs – qui sont des cellules transformant la lumière en signal chimique dans la rétine – qui dégénèrent. On vient intégrer notre petite puce dans la zone centrale de la rétine – la macula – à la place ou en dessous des photorécepteurs dégénérés qui finissent par s’en aller car ils ne sont plus alimentés. Les autres couches de la rétine interne, particulièrement les cellules bipolaires qui reçoivent d’ordinaire le signal chimique des photorécepteurs, sont quant à elles toujours vivantes. Quand les cellules bipolaires sont stimulées, elles envoient un signal aux cellules ganglionnaires (les cellules terminales de la rétine en termes de traitement de signal) qui passe par le nerf optique pour arriver au cerveau.

Est-ce que ce genre d’implant permet de restaurer la vue ?

On ne peut pas rétablir une vision complètement naturelle. On restaure par stimulation électrique un signal visuel structuré qui permet de visualiser des formes telles que des lettres, des pictogrammes, etc. L’originalité de notre système Prima est de rétablir une acuité significative dans une zone où il n’y a plus de perception du tout. Ce signal que les patients perçoivent n’est pas coloré car la modulation colorée du signal nécessite des codages beaucoup plus complexes dans le cerveau par des types cellulaires spécifiques, qui réagissent plus ou moins en fonction des longueurs d’ondes. Notre but est de rétablir une acuité visuelle la meilleure possible et une vision utilisable dans une situation de tous les jours. Nos patients ont perdu la vision fine, détaillée. Ils peuvent en effet se déplacer sans assistance mais ont des difficultés pour lire le nom d’une rue ou la direction du métro. C’est ce type d’autonomie que l’on souhaite pouvoir rétablir avec notre dispositif.

L’implant doit être accompagné de lunettes spécifiques pour fonctionner… Pourquoi ?

Les lunettes servent à activer l’implant : il y a une caméra intégrée dans l’axe de l’œil implanté qui va capturer en temps réel la scène extérieure, un peu comme les Google Glass. Chaque image capturée est simplifiée par un processeur. Il faut extraire l’information qui a le plus de sens pour le patient, ce qui fait partie des recherches que l’on mène. En effet, transformer une image complexe en quelque chose d’interprétable sur une matrice de 20 x 20 pixels n’est pas simple. On travaille également sur un nouveau système de lunettes transparentes, sur lesquelles seul le projecteur reste opaque, pour voir jusqu’à quel point les patients arrivent à combiner leur vision périphérique résiduelle – assez bonne chez les personnes atteintes de DMLA – avec une vision centrale restaurée. Les premiers signes sont prometteurs, même s’il faudra attendre les résultats cliniques complets pour conclure.

L’électronique est-elle intégrée aux lunettes ?

Le module de projection des lunettes est relié par câble à un processeur porté à la ceinture. Ce processeur est intégré dans un boîtier, avec une source infrarouge suffisamment importante pour activer les pixels d’implant, et une batterie. Il s’agit d’un boîtier avec des boutons permettant de contrôler le zoom ou la luminosité du signal projeté. Il est très simple d’utilisation pour que des personnes âgées peu technologues puissent l’utiliser.

Quels étaient les challenges technologiques ?

Un challenge technologique important que nous avons résolu est le fait que l’implant puisse rester dans l’œil plusieurs années de fonctionnement. Mais également le travail sur l’herméticité de l’implant par rapport à son environnement. Le fond de l’œil est une partie très corrosive, peu favorable pour les composants électroniques. Par ailleurs, le développement des lunettes, qui sont un système de réalité augmentée spécifique, demande de fédérer de nombreuses disciplines techniques : optique, électronique, mécanique, algorithmique.

D’autres essais cliniques sont-ils prévus ?

Nous souhaitons réaliser une étude de plus grande ampleur sur plusieurs dizaines de patients pour obtenir le marquage CE nécessaire à la commercialisation en Europe. La société travaille avec les autorités réglementaires pour définir le nombre de patients. L’objectif est de démontrer statistiquement le bon fonctionnement sur un patient et d’apporter des éléments de bénéfice, dans l’optique d’une commercialisation du produit d’ici 2023.

En savoir plus sur le fonctionnement de l’implant.

L’anonymat sur le web : de la sueur et des illusions

En février 2020, Eric Eoin Marques a plaidé coupable pour avoir exploité un service d’hébergement (appelé Freedom Hosting) qui permettait aux utilisateurs d’accéder anonymement à plus de 8,5 millions d’images à caractère pédophile.

Arrêté en 2013, cet Irlandais de 33 ans avait été extradé vers les États-Unis par les autorités irlandaises en mars 2019. Il risque une peine minimale de 15 ans de prison et une peine maximale de 30 ans. La décision du tribunal sera connue en mai prochain.

Pour mettre la main sur Eric Eoin Marques, le FBI aurait réussi à le repérer dans les recoins obscurs d’internet : le Darkweb. Les Fédéraux auraient notamment trouvé l’adresse IP du serveur situé en France. Ce serveur n’hébergeait pas que du contenu à caractère pédophile, mais aussi Tor Mail, l’encyclopédie Hidden Wiki, des forums de pirates et des services de blanchiment d’argent (dont Onion Bank).

Eric Eoin Marques se croyait pourtant à l’abri des regards en utilisant différentes méthodes dites d’anonymisation, dont le recours à TOR, un réseau décentralisé. Mais dès 2017, une équipe de chercheurs français avaient démontré les faiblesses de ce réseau.

Pas d’anonymat à 100%

Cette arrestation confirme qu’être anonyme sur le web est très difficile. Et plonger dans le Darkweb n’est pas suffisant. Le terme Darknet (ou Darkweb) désignait au départ les réseaux non accessibles par ARPANET (l’ancêtre de l’Internet actuel) développé aux États-Unis par la DARPA (Defense Advanced Research Projects Agency), une agence du département de la Défense des États-Unis.

Le Darknet désigne un réseau privé virtuel permettant notamment le partage de fichiers de pair à pair. Il n’est pas à confondre avec le terme Deep web, dont le contenu n’est pas ou peu indexé par les moteurs de recherche traditionnels.

Qualifiés à tort de cours des miracles où l’on peut acheter de la drogue et des armes, ces réseaux constituent d’indispensables outils en faveur de la liberté d’expression, de la protection des sources des journalistes, mais aussi de protection de la vie privée.

Mais cela ne signifie pas qu’ils garantissent un anonymat total. Il faut garder à l’esprit qu’il existe différents degrés d’anonymat et que même en suivant différentes règles, il n’est pas garanti à 100 %.

« Soyons clairs, les techniques très efficaces nécessitent des compétences et des moyens hors de portée du grand public. Le plus important est d’avoir une vision globale », insiste une source confidentielle experte en cryptographie. De manière générale, il ne faut divulguer aucune information privée, sauf si cela est absolument nécessaire, sur internet. Il faut une discipline de fer que seuls quelques experts comme Edward Snowden peuvent tenir sur la durée.

EBIOS : un village autonome pour Mars qui préserve la biodiversité sur Terre

À quoi pourrait ressembler la vie humaine sur Mars, sans eau, ni nourriture, ni air respirable ? C’est la question à laquelle essaient de répondre plusieurs scientifiques spécialisés dans les technologies spatiales. Parmi eux, Barbara Belvisi. Cette jeune femme d’affaires française de 34 ans est la fondatrice et dirigeante d’Interstellar Lab, une startup créée en 2018. L’objectif de la jeune pousse : mettre au point EBIOS, un village intégralement autonome et autosuffisant dans lequel pourrait s’exporter la vie humaine sur la planète rouge. À terme, le site EBIOS devrait pouvoir accueillir 105 personnes. Avant cela, un premier module de test, d’une capacité d’accueil de cinq personnes, sera mis au point aux États-Unis au deuxième semestre 2020.

Un lieu de sciences et de cultures

C’est dans le sud de la Californie, au cœur du désert des Mojaves, que le premier village sera en capacité d’accueillir du public dès la fin de l’année 2021. Un second site devrait ouvrir ses portes en 2022 en Floride, près de Cap Canaveral. D’autres suivront dans les années suivantes, dont un au moins en Europe. En tout, Interstellar Lab ambitionne d’ouvrir une dizaine de sites dans le monde. Un village EBIOS est pensé pour pouvoir accueillir à la fois des membres de la communauté scientifique et le grand public. « Nous voulons que les publics se mélangent, c’est l’un de nos enjeux. Il y aura cependant des périodes durant lesquelles uniquement scientifiques ou astronautes seront sur site pour conduire différentes expérimentations », précise Barbara Belvisi. Pour vivre une semaine en autarcie, chaque personne devra débourser entre 3 000 et 6 000 euros.

Concrètement, toutes les stations EBIOS devraient être conçues sur le même modèle. Le modèle architectural retenu est celui d’une fleur, aux allures très futuristes. Chaque site devrait être composé de plusieurs unités hermétiques reliées entre elles, et qui convergeraient toutes vers un dôme central. Comme l’attestent les images de synthèse de simulation du projet, la végétation devrait occuper une place prépondérante au cœur de cet écosystème. Pour la nourriture, les plantes seraient cultivées par hydroponie. Les outils technologiques utilisés par Interstellar Lab permettront également de traiter de l’eau souillée pour en refaire de l’eau potable. Et derrière un attendu laboratoire scientifique, se trouveront également un lieu destiné à la musique et à la détente, ainsi qu’une salle de sport.

Image de synthèse de simulation du village EBIOS/Interstellar Lab

Un circuit fermé, aux équilibres complexes

En plus de sa dimension spatiale, Interstellar Lab propose une solution efficiente pour la préservation du vivant sur Terre. « La vie que l’on tente d’apporter sur Mars est exactement celle que nous cherchons à protéger ici ; c’est la genèse de mon projet », explique Barbara Belvisi. « Chez Interstellar Lab, on ne rêve pas de fuite sur Mars : on s’attache à résoudre les problèmes sur Terre tout en nous préparant pour la vie ailleurs », ajoute-elle. Par ailleurs, la startup recherche des terrains éloignés des villes, sans aucun raccordement aux réseaux d’eaux ou d’énergies pour implanter ses unités innovantes. En effet, le fonctionnement des unités EBIOS repose sur le principe de l’habitat bio-régénératif, et tire son nom de ce principe. Ainsi, EBIOS signifie « Experimental BIOregenerative Station ».

C’est pour cela que ce village innovant est un système en circuit fermé, où l’eau, la nourriture et l’énergie sont entièrement recyclés. L’un des plus grands challenges liés à cette boucle fermée est la gestion de l’air. Pourtant, EBIOS sera bien autonome sur ce point. « L’O2 est produit par les plantes, le CO2 traité par les plantes. Nous avons des tanks de back-up en cas de problème sur notre système de production agricole. Le plus gros challenge est l’estimation de la production agricole et donc de la consommation de CO2 par les plantes, la quantité d’O2 qu’elles produisent et leur besoin en azote. Un des challenges sur l’azote est de construire le bon modèle d’équations stœchiométriques qui nous permette de simuler les conditions dans EBIOS », éclaire Barbara Belvisi.

Crédit photos : Interstellar Lab

Le coronavirus fait chuter les particules fines en Chine

Petit à petit, le virus Covid-19 a bouleversé le quotidien des Chinois. Le gouvernement a pris des mesures drastiques pour réduire le risque de propagation de la maladie. Environ 50 millions de personnes sont confinées dans les villes et villages de la province du Hubei depuis fin janvier. C’est en particulier le cas pour le chef-lieu Wuhan, où le coronavirus est apparu en décembre. À travers le pays, diverses quarantaines sont mises en place. Toutefois, 90 % des usines sont actuellement en service dans le pays, selon le gouvernement. Pour sauver les apparences, la Chine ferait tourner ses usines à vide.

Le Covid-19 bouleverse l’économie et les émissions

Alors que la Chine entrevoit un retour à la normale, les bourses mondiales s’écroulent. Lundi 9 mars au matin, la Bourse de Paris chutait de -7,20%, dans le sillage des autres places financières mondiales inquiètes de la baisse des cours du pétrole et des effets économiques de l’épidémie de coronavirus. Ces mauvaises nouvelles économiques laissent néanmoins entrevoir une baisse de la pollution.

Le Service pour la surveillance de l’atmosphère de Copernicus (CAMS) du CEPMMT estime qu’en faisant baisser considérablement l’industrie et la circulation en Chine, les mesures mises en place ont entraîné une chute des émissions de particules fines PM2,5, l’un des polluants atmosphériques les plus importants en termes d’impact sur la santé. « Une réduction d’environ 20 à 30 % des PM2,5 en surface au-dessus de grandes parties de la Chine en février 2020 », avance le CAMS. Cette première observation en Chine pourrait se renouveler dans d’autres pays. Le Covid-19 serait ainsi plus performant que les gouvernements dans la lutte contre la pollution.

Une baisse des PM2,5 attribuée au coronavirus

Le Service pour la surveillance de l’atmosphère Copernicus (CAMS) observe une baisse des particules fines (PM2,5) mensuelles en février par rapport à la moyenne des moyennes mensuelles des trois années précédentes. Le CAMS surveille quotidiennement les PM2,5 atmosphériques au-dessus de la Chine. Pour ce faire, elle combine les observations satellites avec des modèles informatiques détaillés de l’atmosphère.

L’organisation explique prudemment que cette baisse peut être attribuée « probablement », au moins « en partie au ralentissement de l’activité dû aux mesures contre la propagation de Covid-19 ». D’autres facteurs pourraient jouer un rôle. « La Chine, par exemple, essaie activement de réduire ses émissions, et la variabilité météorologique entre les différentes années doit également être prise en compte, détaille Vincent-Henri Peuch, directeur du CAMS. Pour soustraire ces variables de l’équation, nous avons fixé la durée de trois ans (2017-2019) pour estimer les conditions « business as usual » comme compromis pour avoir une estimation représentative de la moyenne mensuelle de février, tout en ne considérant pas une période trop longue sur laquelle les émissions varient considérablement en raison des tendances à long terme. »

Différence en pourcentage des niveaux de particules fines (PM2,5) pour février 2020 par rapport à la moyenne de février sur les années 2017-2019, telle que surveillée par le CAMS / CAMS du CEPMMT

Un crustacé découvert et déjà contaminé au plastique

La Fosse des Mariannes se situe dans le nord-ouest de l’océan Pacifique. Des chercheurs de l’Université de Newcastle y ont découvert une nouvelle espèce d’amphipode, un crustacé très abondant en milieu marin, comme ils l’expliquent dans la revue Zootaxa. Sa particularité ? Les chercheurs ont nommé officiellement ce petit crustacé « Eurythenes Plasticus », en référence au plastique qui le contamine.

Cette nouvelle espèce d’amphipode a été prélevée entre 6 010 et 6 949 m de profondeur. Les chercheurs ont fait une analyse de microplastiques dans quatre juvéniles (crustacés lorsqu’ils sortent de l’œuf) d’Eurythenes Plasticus. Les trois individus prélevés à 6 865 m étaient exempts de fibres plastiques. En revanche, le juvénile d’une longueur corporelle de 15,6 mm et prélevé à 6 949 m, contenait une fibre sombre de 649,648 μm de long dans son intestin postérieur. L’analyse par spectroscopie infrarouge à transformée de Fourier a déterminé que cette fibre était similaire à 83,74 % au polyéthylène téréphtalate (PET). Ce polymère sert à fabriquer divers emballages et objets du quotidien en plastique, en particulier les bouteilles d’eau et de sodas, ainsi que les vêtements synthétiques en polyester.

De microplastiques et de crustacés

Cette découverte ajoute Eurythenes Plasticus à la liste des amphipodes contaminés par le plastique. Il rejoint les spécimens adultes de Hirondellea gigas de la fosse des Mariannes et les Eurythenes sp. de la fosse du Pérou-Chili. « La consommation de microplastiques par un juvénile indique que les amphipodes piégeurs ingèrent potentiellement des microplastiques tout au long de leur vie, ce qui pourrait avoir des effets aigus et chroniques sur la santé, s’inquiète l’étude. Alors que les impacts écotoxicologiques de l’exposition aux microplastiques n’ont pas encore été étudiés sur les amphipodes des grands fonds, les premiers travaux sur d’autres Malacostraca [une classe de crustacés dits « supérieurs », ndlr] indiquent que l’ingestion de fibres de polypropylène par le crabe des sables, Emerita analoga, augmente la mortalité adulte et diminue la rétention des pontes d’œufs. »

Les océans contiennent des microplastiques de sources diverses et de différents polymères. En particulier, chaque cycle de lavage des textiles synthétiques en machine à laver relâche des centaines de milliers fibres dans les eaux usées. Une fois dans l’environnement, ces fibres contaminent toute la chaîne alimentaire. « Sans de profonds changements mondiaux dans le cycle de vie du plastique, de la réduction de sa production à l’amélioration de la gestion des déchets, les plastiques et les microfibres continueront d’être transportés en haute mer et seront omniprésents dans la chaîne alimentaire hadale », préviennent les auteurs. Le WWF qui a soutenu l’étude saisit l’opportunité pour réitérer son appel à un accord international afin de mettre fin à la pollution au plastique.