Comment identifier les pirates informatiques qui détournent des sites web ?

Tous les appareils connectés à l’Internet disposent d’une adresse IP (« Internet Protocol »). Elle est représentée par une série de nombres séparés par des décimales. Mais ce type d’adresse est trop compliqué à retenir et pénible à retaper à chaque fois que l’on souhaite se connecter à un site.

D’où la création du système de noms de domaine (Domain Name System ou DNS). Il fait correspondre les adresses Web (par exemple https://www.techniques-ingenieur.fr/) avec les adresses IP des serveurs qui hébergent ce site Web. En réalité, toute l’infrastructure réseau passe par le DNS : sites, messagerie électronique, imprimante, gestion des badges d’accès… Demain, ce sont les milliards d’objets connectés qui y seront reliés.

Les adresses IP et les DNS sont donc deux points très sensibles qu’il convient de surveiller de près, car des pirates peuvent tenter de les détourner. Cette technique n’est d’ailleurs pas récente comme on peut le constater en lisant cet article sur le blog de Stéphane Bortzmeyer, informaticien à l’Association française pour le nommage Internet en coopération (Afnic) : le gouvernement du Pakistan avait bloqué YouTube en février 2008.

Lorsqu’un internaute se connecte à un site, le serveur DNS vérifie dans son « cache » l’existence de cette adresse. Mais si ce DNS a été piraté, il sera dirigé vers un autre site. Il lui ressemblera comme deux gouttes d’eau (si les pirates sont très « professionnels ») mais sa finalité sera malveillante (dont la récupération de vos données personnelles).

150 000 dollars en 2 heures !

On estime qu’en 2017, les incidents de routage tels que les détournements IP ont touché plus de 10 % de tous les domaines dans le monde. Toutes les entreprises peuvent être victimes, même les poids lourds du net ! En avril 2018, des pirates avaient détourné le trafic d’Amazon pendant 2 heures : 13 000 adresses IP avaient été redirigées et 150 000 dollars avaient été volés auprès des internautes qui pensaient aller sur le site de ce géant du e-commerce.

Le même mois, des pirates avaient mis en place un détournement des protocoles DNS pour usurper l’identité d’un portefeuille en ligne d’ethers, une cryptomonnaie alternative. Résultat : ils ont volé pour environ 20 millions d’euros.

Une étude de l’année dernière avance l’hypothèse qu’une entreprise chinoise de télécommunications a utilisé cette approche pour recueillir des renseignements sur les pays occidentaux en réacheminant leur trafic Internet par la Chine.

Il est donc important d’anticiper cette menace qui repose principalement sur une lacune importante du Border Gateway Protocol (BGP), un mécanisme de routage, comme le rappelle l’étude du MIT et de l’Université de Californie (CAIDA). La technique malveillante consiste donc à « convaincre »  les réseaux voisins que le meilleur moyen d’atteindre une adresse IP spécifique est de passer par son réseau.

Pour mieux identifier les attaques en série, le groupe de scientifiques a d’abord extrait les données de plusieurs années de listes de diffusion des opérateurs réseau, ainsi que les données BGP historiques prises toutes les cinq minutes depuis la table de routage globale.

À partir de là, ils ont observé les qualités particulières des acteurs malveillants et ont ensuite formé une intelligence artificielle, un modèle d’apprentissage machine pour identifier automatiquement de tels comportements. Ils ont ainsi pu identifier environ 800 réseaux suspects qui pirataient des adresses IP pendant des années.

Les Américains ont découvert que les blocs d’adresse des pirates disparaissent plus rapidement que celles des réseaux légitimes. Les cybercriminels utilisent également des blocs d’adresses IP multiples (préfixes de réseau) qui sont enregistrés dans plusieurs pays à la fois.

Cette étude est donc un excellent moyen de valider ou de réorienter les efforts de la communauté des opérateurs de réseaux pour mettre un terme à ce type d’attaque.

L’intelligence artificielle : entre excitation et éthique

L’intelligence artificielle est à la croisée de plusieurs disciplines : informatique, mathématiques (logique, optimisation, analyse, probabilités, algèbre linéaire), sciences cognitives…

Les algorithmes qui la sous-tendent reposent sur des approches aussi variées : analyse sémantique, représentation symbolique, apprentissage statistique et exploratoire, réseaux neuronaux, etc.

Son essor récent est dû aux progrès importants de l’apprentissage machine (ou machine learning) : au lieu de programmer la machine avec les règles qui régissent une tâche (souvent beaucoup plus complexe qu’on ne le pense), elle les découvre maintenant elle-même.

Dérives

Mais l’IA oblige à la réflexion, car ses enjeux sont extrêmement variés. Ce forum a donc été l’occasion de l’aborder sous deux aspects. Premièrement, le recours aux technologies issues de l’IA pour tenter de relever les grands défis actuels de l’humanité : développement durable de l’ONU en matière de santé, éradication de la pauvreté, accès à l’éducation ou préservation de l’environnement.

Deuxièmement, l’appréciation des risques inhérents à l’IA et sur les moyens à mettre en œuvre pour les circonscrire. « Toute technologie porteuse de bienfaits comporte aussi des risques. Les incertitudes inhérentes au développement et au déploiement rapide de l’IA et du numérique nécessitent, autant que possible, d’être anticipées et maîtrisées. Il s’agit de déployer des efforts de recherche et des expérimentations afin d’appréhender ces différentes problématiques sur les plans techniques, sociaux et humains », insiste Malik Ghallab, directeur de recherche émérite au CNRS et co-organisateur de cet événement.

Car les dérives de l’IA existent. « L’IA transforme la société et cela peut avoir des conséquences. Ainsi, les technologies prédictives qui aident à prendre des décisions peuvent être instrumentalisées. Aux États-Unis, des compagnies d’assurance se sont basées sur le code postal pour déterminer le risque d’accident ! C’est stupide », constate Jean-Gabriel Ganascia, professeur à l’Université Pierre et Marie Curie et responsable de l’équipe ACASA (Agents Cognitifs et Apprentissage Symbolique Automatique) du LIP6.

Un cadre de référence

Le Global Forum on AI for Humanity a été aussi l’occasion de rappeler que Paris et Montréal veulent être les deux pôles de l’IA au travers du Partenariat mondial sur l’intelligence artificielle (PMIA) lancé avec l’OCDE, sous l’impulsion du Canada et de la France. Les meilleurs experts internationaux et les gouvernements se réuniront pour échanger sur les opportunités et risques de l’IA.

La multiplication des forums sur l’IA (à Berkeley il y a quelques mois, aux Pays-Bas, début octobre) confirme que cette thématique va au-delà du simple buzzword. Elle soulève à la fois de nombreux espoirs dans différents domaines, mais aussi des interrogations auxquelles il est encore très difficile de répondre. C’est le cas de l’éthique.

« Les entreprises veulent faire ce qu’il faut, mais elles n’ont pas de cadre de référence clair sur ce que l’IA éthique signifie dans leur cas d’utilisation ou dans leur contexte ni d’orientation sur la façon dont elles peuvent l’appliquer. Cela les empêche de mettre en œuvre des solutions d’IA », explique Laetitia Cailleteau, Global Managing Director, Conversational AI chez Accenture.

Par exemple, il est essentiel de s’assurer qu’un algorithme d’IA et ses données sous-jacentes sont aussi impartiaux et représentatifs que possible. Si l’on s’appuie sur l’IA pour étudier d’une demande de crédit, il faut s’assurer que les données historiques ne sont pas biaisées.

L’amélioration des capacités informatiques et des connaissances sur l’IA ne doivent pas conduire à trop de précipitation. La réflexion reste essentielle pour que les usages de l’IA soient majoritairement positifs.

LiFi : une technologie bien visible

Communiquer avec la lumière qui nous entoure. C’est l’idée de la technologie LiFi (Light Fidelity), nommée en 2011 et dont les premiers dispositifs remontent à la fin des années 2000. Cette technologie sans fil s’appuie sur la lumière visible pour transmettre de l’information. Son application paraît d’autant plus simple que les sources de lumière dite visible inondent aujourd’hui les rues de nos villes. Fiables et peu onéreuses, les LED (Light Emitting Diode) en sont un parfait exemple. Le LiFi s’inspire directement des avancées et des savoir-faire développés en premier lieu pour les télécommunications optiques fibrées. Cependant, les différences sont nombreuses : l’infrarouge fait place aux longueurs d’onde visible (380 – 780 nm) ; le milieu de propagation du signal ne se fait plus de façon guidée comme pour la fibre optique mais bien à travers l’air lui-même ; sans oublier que l’éclairage et l’information se déroulent en simultané. Le LiFi apparaît donc comme un bon complément aux technologies basées sur les radiofréquences, ne pouvant interférer avec leurs longueurs d’onde.

Avantages et inconvénients du LiFi

L’un des atouts majeurs de la technologie LiFi réside dans son très grand débit potentiel. Alors que le Wi-Fi atteint en moyenne des débits de 50 Mb/s, des groupes de recherche sur le LiFi sont parvenus à obtenir des débits supérieurs à 4 Gb/s – soit 80 fois plus que pour le Wi-Fi. De plus, l’impact des radiofréquences sur la santé est encore sujet à caution, et certains lieux en sont totalement dépourvus – les hôpitaux et les avions par exemple. Les LED et leur longue durée de vie – de l’ordre de 10 000 heures contre 100 pour une ampoule à incandescence – pourraient donc permettre au LiFi de s’inviter dans nos villes, et plus encore.

Toutefois, les risques sur la santé dus aux LED existent bel et bien. Leur spectre qui pique dans le bleu semble ainsi nuire aussi bien à notre œil qu’à notre sommeil. Autre inconvénient lié aux LED, leur champ de vision doit rester vide entre l’émetteur et le récepteur, quand le Wi-Fi fait fi des obstacles tout en diffusant dans toutes les directions. Résultat : le LiFi est sensible aux coupures de signal, même si son champ de vision restreint promet une confidentialité accrue. Enfin, le LiFi est basé sur le principe de modulation de la lumière, et donc de variations de puissance lumineuse. Ces variations peuvent être perçues par l’œil humain. L’observateur est alors confronté à un effet de scintillement plus ou moins marqué, et plus ou moins agréable.

Des perspectives ancrées dans le futur

Que ce soit en intérieur ou en extérieur, le LiFi laisse entrevoir de nombreuses applications. En intérieur tout d’abord. Le visiteur d’un musée pourrait se repérer dans le labyrinthe des couloirs à l’aide du géopositionnement permis par la lampe sous laquelle il se tiendrait. Un cas propre aux bâtiments imposants et complexes. En gardant l’exemple du musée, la LED éclairant une œuvre serait capable d’y afficher diverses informations supplémentaires à l’attention des visiteurs, en format audiovisuel ou vidéo. Le réseau Internet fourni par Bluetooth, Wi-Fi ou même par fil se verrait compléter par une composante lumineuse LiFi. Pour ce qui est de son exploitation en extérieur, les défis à relever sont nombreux – les conditions climatiques (nuit, jour, plein soleil, pluie, …) n’en étant qu’un exemple.

Néanmoins, cette technologie pourrait intéresser le milieu de la voiture autonome. Ainsi,  la communication véhicule-véhicule se ferait via des phares à LED, également utiles pour échanger avec la signalisation routière. Là encore, les obstacles à franchir sont nombreux, notamment au niveau des configurations possibles : croisements, virages, zone urbaine, etc. Mais l’avenir appartient aussi aux émetteurs et récepteurs organiques – OLED (Organic LED) pour les émetteurs, OPV (Organic Photovoltaic) et OPD (Organic Photodetector) pour les récepteurs. Ces composants, souples et très fins, ont l’intérêt de pouvoir transformer à terme n’importe quelle surface en émetteur ou récepteur potentiel. Des possibilités qui laissent songeur même si, pour le moment, les récepteurs sont encore des modules ajoutés et encombrants.

 

Exclusif ! L’article complet dans les ressources documentaires en accès libre du 28 octobre au 17 novembre !

Technologie LiFi (Light Fidelity) , un article de Luc CHASSAGNE.

Les technologies du gouvernement pour protéger vos données

Au cours de l’année, plusieurs solutions sécurisées ont été proposées par le gouvernement. Parmi elles, on retrouve la messagerie sécurisée, le disque de stockage USB ou encore l’application d’authentification. Un cloud “souverain” est quant à lui en cours d’élaboration.

 L’authentification biométrique

L’application smartphone Alicem (pour “Authentification en ligne certifiée sur mobile”) permet aux particuliers de prouver leur identité sur internet par reconnaissance faciale. Celle-ci permettrait, selon le ministère de l’Intérieur et l’Agence internationale des titres sécurisés (ANTS) à l’origine de la technologie, de s’affranchir des multiples mots de passe nécessaires pour accéder à des services en ligne. Progressivement, elle donnera également l’accès aux services imposant la présence physique. Lors de la création de l’identifiant, une vidéo de reconnaissance faciale est réalisée. Celle-ci est comparée aux informations contenues dans la puce sécurisée du titre biométrique, comme le passeport.

En cours de qualification par l’agence nationale de la sécurité des systèmes d’information (Anssi), la solution est cependant controversée. En effet, en juillet dernier, La Quadrature du Net a “déposé un recours devant le Conseil d’Etat pour demander l’annulation du décret autorisant la création de l’application” peut-on lire sur le site de l’association. Cette dernière met en avant le non-respect du règlement général sur la protection des données (RGPD) – pointé par la Cnil – par un consentement contraint de l’utilisateur. Pour utiliser l’application, celui-ci n’a pas d’autre choix que d’utiliser la reconnaissance faciale.

La messagerie instantanée

L’Etat français dispose depuis avril 2019 d’une messagerie personnelle (en version bêta) pour s’affranchir des applications Telegram et Whatsapp. Baptisée Tchap, elle permet aux agents de communiquer entre eux et d’échanger des informations sensibles depuis leur ordinateur. La messagerie repose sur le logiciel open source Riot et implémente le protocole Matrix, un standard open source pour la communication sécurisée, décentralisée et en temps réel (https://matrix.org/).

Cependant, quelques heures après son lancement, le hacker Elliot Alderson lançait l’alerte d’une faille de sécurité (https://twitter.com/fs0c131y/status/1118791420624687104). Contacté par BFM, il explique qu’il a réussi à s’inscrire sur la messagerie réservée aux employés du gouvernement disposant d’une adresse mail en gouv.fr et elysee.fr (https://www.bfmtv.com/tech/tchap-la-messagerie-securisee-du-gouvernement-victime-d-une-faille-de-securite-1675988.html). Pour y parvenir, “Elliot Alderson a intercepté les échanges entre le formulaire d’inscription de l’application et les serveurs”. Il s’est ensuite inscrit avec son mail personnel en y ajoutant @elysee.fr.

Le disque de stockage USB

L’agence nationale de la sécurité des systèmes d’information (Anssi) a partagé en mai le prototype d’un disque de stockage USB chiffrant, open source et open hardware, ainsi que l’ensemble des modules qui le compose. “Les nombreux mécanismes matériels et logiciels implémentés lui permettent de résister à tout type d’attaques sophistiquées” peut-on lire sur le communiqué. L’année dernière, l’agence avait dévoilé Clip OS, son système d’exploitation sécurisé et open source.

Le fonctionnement complet de WooKey est décrit chez nos confrères de 01net. L’ensemble des informations de WooKey est disponible sur la page du projet (http://wookey-project.github.io/). Le schéma de la carte électronique et le code source le sont sur GitHub.

Le cloud de confiance

Dassault Systèmes et OVH ont été sollicités par l’Etat pour travailler sur un projet de “cloud souverain” en 2020. Une alternative aux clouds américains pour éviter aux entreprises françaises et européennes de stocker leurs données sensibles sur des plateformes américaines qui reposent sur le Cloud Act. Ce dernier permet aux forces de l’ordre de contraindre les fournisseurs de services américains à fournir les données stockées sur les serveurs d’entreprises américaines, qu’ils soient situés aux États-Unis ou dans des pays étrangers. Nous voulons créer un cloud de confiance. Il aura vocation à stocker toutes les données stratégiques des entreprises qui le souhaitent, privées comme publiques, en toute indépendance et avec des garanties nécessaires explique Bruno LeMaire, ministre de l’Economie, lors de la commission d’enquête “Souveraineté numérique” le 10 septembre.

Interrogé par France 3 Régions, Michel Paulin, directeur d’OVH, préfère la dénomination “cloud de confiance” : On préconise un cloud ouvert. Il doit être simple à mettre en œuvre, multilocal (nos centres de données sont sur quatre continents), accessible (avoir des prix compétitifs), réversible et transparent. Du côté de Dassault Systèmes, c’est 3D Outscale – qui a lancé en 2018 une offre cloud dédiée au secteur public – qui est en charge du développement. L’entreprise fait partie du comité stratégique d’Exatrust, un groupement d’entreprises spécialisées dans le cloud et la cybersécurité.

Quels réseaux pour la ville du futur ?

Tous les réseaux sont impactés par les mutations actuelles des villes. Qu’ils soient routier, de communication, informatique, de transport, électrique… la smart city veut tous les repenser pour rendre leur fonctionnement , disons-le en deux mots, efficient et intelligent.

Quelles sont donc les caractéristiques des réseaux de demain ? Fibre, wifi, Lyfi, LoRa, 4G, 5G… les solutions existantes sont légions, et évoluent vite. La solution s’oriente pour l’instant vers une combinaison de plusieurs réseaux, qui convergeront tous vers une plateforme de partage des données.

Chaque réseau ayant des avantages comparatifs différents en termes de rapidité, de fiabilité, de couverture… un « mix » spécifique sera développé pour chaque type d’objet connecté, allant du capteur le plus basique aux milliers que l’on trouve dans un véhicule autonome.

Un mix de réseaux

Aussi, les spécificités de chaque technologie engendrent des différences en termes de coût et de consommation d’énergie, deux variables clés dans la conception de la ville intelligente.

Aujourd’hui, il est facile d’imaginer les possibilités immenses en ce qui concerne la gestion de la ville de demain. La massification de la récolte de données, via les capteurs, et le croisement intelligent de ces données aboutissant à des actions autonomes d’objets connectés – circulation, collecte des déchets, tri, consommation électrique… – semblent obéir à une évolution naturelle.

Mais ce n’est que le sommet de l’iceberg. Cette massification est un véritable casse-tête quand il s’agit d’imaginer l’infrastructure nécessaire. Surtout qu’il ne s’agit pas de se passer du réseau existant. Cela est d’ailleurs peut-être aussi bien, puisque les premières briques du réseau du futur sont déjà là: fibre, wifi et bientôt 5G… il faut continuer à développer ce réseau, en y ajoutant du partage, de la sécurité et de l’intelligence.

Le cas des transports

Prenons l’exemple des transports. Les capteurs, les caméras, les GPS… génèrent des données. On peut se servir de la fibre pour installer des caméras analytiques destinées à analyser le trafic. Notons que ces caméras peuvent également servir pour la reconnaissance faciale, l’analyse des trajectoires des véhicules pour prévenir les accidents par exemple. Pour faire transiter ces données, on a tendance à privilégier les réseaux wifi. Certaines villes commencent même à offrir l’accès au réseau à leurs habitants, en échange de l’installation d’applications permettant de collecter des données supplémentaires, sur les flux piétons par exemple. Tout cela ne va pas sans poser de nouveaux défis en termes de sécurité et de vie privée, mais ce n’est pas le sujet ici.

Dans le cas des transports le wifi est recommandé car un très haut débit est nécessaire. Pour des applications acceptant un bas débit, on aurait plutôt tendance à privilégier des réseaux peu énergivores comme Sigfox ou LoRa.

Mais un réseau comme LoRa a des atouts utiles pour gérer les données relatives au transport: basé sur une technologie s’appuyant sur des protocoles ouverts, il favorise l’interopérabilité entre les différents objets connectés, autre brique fondamentale de la smart city.

Dernier exemple, la 5G. Préconisé pour les usages nécessitant à la fois débit et performance, il pourrait s’avérer parfait pour gérer le fonctionnement des véhicules autonomes.

Au final, si l’évolution des réseaux vers plus d’interopérabilité et d’intelligence est en cohérence avec l’avènement de la smart city, le réseau existant constitue l’outil sur lequel il faut travailler. Et en termes de coûts, c’est la seule solution envisageable.

L’AIE prévoit un fort rebond des renouvelables dans les cinq ans, mais…

Les capacités en énergies renouvelables (ENR) devraient ainsi bondir de 50% d’ici à 2024, selon le scénario « central » de l’AIE (main case scenario), notamment tirées par le solaire, et plus particulièrement par les unités décentralisées à la fois sur les bâtiments (particuliers, industriels et commerciaux) dans les pays occidentaux et pour les besoins déconcentrés dans les pays en développement. L’AIE précise qu’il s’agit d’une révision de 14% de sa prospective 2018, qui prend en compte une nouvelle chute des coûts ainsi que des améliorations du contexte (notamment les appels d’offres) tant pour le solaire que pour l’éolien terrestre et en mer.

L’agence prévoit ainsi un bond de 1 220 GW des ENR d’ici à 2024, soit l’équivalent de la capacité installée aux Etats-Unis. Sur ce total, 700 GW seront implantés en solaire, largement majoritairement en photovoltaïque. L’AIE consacre un focus sur cette énergie, soulignant plus particulièrement la montée en puissance des installations décentralisées, notamment en Europe. Ainsi en 2018, 41 GW ont été installés sur des toitures, un record, indique l’AIE, qui fait de ces solutions les premières, avec 213 GW posés. L’Europe dispose ainsi de la plus grande capacité installée décentralisée au monde, soit 40% environ des implantations de ce type. Et le nombre de toitures équipées chez les particuliers devrait passer à 100 millions dans le monde d’ici à 2024, soit un doublement des surfaces couvertes.

L’éolien progressera, lui, de 351 GW, dont 12% en offshore. Ce qui signifie qu’en termes de capacité installée, l’éolien et le solaire dépasseront la capacité de l’hydraulique en 2024. Une hydroélectricité dont la croissance se poursuivra, indique l’AIE, avec 121 GW supplémentaires, mais essentiellement dans les économies émergentes et les pays développés. Quant à la biomasse, elle demeure loin de ces chiffres, même si ces énergies devraient progresser d’un cinquième d’ici à 2024.

Au final, le solaire devrait ainsi représenter 1,2 TW (térawatts) en 2024. L’éolien terrestre atteindra les 850 GW, soit une croissance de 57%. L’offshore éolien devrait voir sa capacité multipliée par trois, soit 43 GW de plus pour atteindre les 65 GW dans cinq ans, mais représentera plus de 10% de la production totale d’énergie. L’AIE publiera ce vendredi 25 un rapport spécifique sur cette ENR, à Copenhague, au Danemark, pays qui a, le premier, misé sur cette technologie. Quant à la biomasse, la progression sera de 32% d’ici à 2024, pour toucher les 171 GW installés à cette date. La géothermie n’atteindre ne revanche que 18 GW, avec une progression de 28% d’ici à 2024.

Combien de kWh ?

Reste qu’en termes de production, cela fera passer les ENR de 25% en 2018 à 30% en 2024, soit une croissance de 5,3% annuellement, et le double de la hausse de la demande mondiale, qui s’explique à la fois par la hausse des productions solaires et éoliennes, mais aussi par un ralentissement de la demande en électricité grâce partiellement à l’efficacité énergétique.

C’est toujours l’hydraulique qui représentera la part la plus grande des ENR, dépassant, selon l’AIE, les 4 500 TWh en 2024, loin devant les 2 000 TWh éoliens et les 1 500 TWh solaires (5% de la production mondiale…). En termes absolus, l’AIE souligne que les ENR progressent de 37% sur la période sous revue, ce qui représente une hausse de 2 450 TWh sur cinq ans et les deux tiers de la hausse de la production d’électricité anticipée sur la période.

Une répartition géographique déséquilibrée

Ainsi, en 2024, les ENR compteront pour plus de 9 000 TWh, mais 75% seront concentrés sur six marchés : La Chine en tête, puis l’Europe, les Etats-Unis, le Brésil, l’Inde et le Japon.

Le Brésil demeurera le pays où les ENR compte le plus dans la production d’électricité, avec 93% anticipés en 2024. La part des ENR en Europe progressera de 8% sur le période sous revue, atteignant les 40% en 2024, l’éolien représentant la majeure partie de cette progression, devant le solaire. En Chine et en Inde, ce sont également ces deux énergies qui tirent la croissance des ENR, qui dépasseront l’hydroélectricité. Aux Etats-Unis, c’est la force du vent qui joue ce rôle, tandis qu’au Japon, ce sera le solaire, selon l’AIE.

La Chine seule devrait faire progresser la capacité installée en ENR de 489 GW, majoritairement en solaire (+ 280 GW), équitablement répartis entre solaire distribué et grandes centrales. L’AIE indique avoir révisé ses prédictions à l’aune d’un changement de soutien au solaire, les grands parcs se voyant privés des tarifs d’achats, mais progressant quand même fortement. L’Agence ajoute d’ailleurs que le coût du solaire et de l’éolien terrestre se rapproche fortement du prix de l’électricité produite au charbon dans la majorité des provinces chinoises. A noter que la capacité installée en hydraulique devrait progresser de 16%, mais avec un tiers des projets reposant sur les centrales de pompage (STEP), afin d’améliorer la flexibilité du système électrique et sa résilience face à la montée en force des énergies variables (solaire et éolien). Deux pics d’ajouts de capacités correspondent aux projets géants de Wudongde et de Baihetan, pesant 26 GW à eux deux, et qui seront mis en service en 2020 et en 2023 respectivement, signale l’AIE.

Par ailleurs, la Chine ne néglige pas la biomasse, avec une hausse des capacités de 20 GW sur la période sous revue, avec un passage par l’atteinte de l’objectif 23 GW en 2020, comme prévu par le 13e plan chinois.

L’inde devrait de son côté voir progresser sa capacité en ENR de 112 GW, soit un quasi doublement, et dans la logique de son plan national défini en 2018, d’atteindre un objectif de 175 GW en 2022 et de 275 GW en 2027.

Aux Etats-Unis, la progression se poursuit, avec 50% de capacités en plus en 2024 (132 GW), surtout en éolien (+ 33 GW, dont 10% offshore) et en solaire (+ 88 GW).

Fatih Birol, le directeur général de l’AIE, a souligné à l’occasion de la présentation du rapport : « Une croissance aussi météorique hors de la sphère des fournisseurs d’énergie traditionnels va transformer la manière dont nous produisons et consommons l’électricité. Son développement doit être bien géré, pour garantir des revenus pour la maintenance des réseaux, contenir les coûts d’intégration au système et répartir équitablement les coûts entre consommateurs. »

Enfin, malgré ces résultats encourageants selon l’AIE, cette dernière signale que la croissance des émissions de CO2 continue de progresser. L’Agence appelle ainsi à focaliser plus l’attention sur les besoins en chauffage et sur la mobilité…

 

La blockchain à la rescousse de l’IoT

La blockchain est un système qui gère les transactions s’opérant entre les partenaires d’un réseau distribué. Par transaction on entend transfert de monnaie, d’échanges, d’écriture d’état dans un registre, ou de traçabilité à opérer sur des actions telles qu’achats, ventes, suivi ou déplacements, actes de fabrication ou de distribution…

Les technologies gravitant autour des smart city et plus particulièrement l’IoT ont des besoins forts aussi bien en terme de sécurisation des données, d’historique associé à un objet connecté et d’interopérabilité. L’organisation décentralisée de la blockchain, sans intermédiaire, pourrait aussi permettre à un objet de communiquer avec un autre objet pouvant conduire à certaines prises de décisions autonomes par celui-ci.

Il en ressort que la blockchain est un rouage essentiel à la multiplication des objets connectés, multiplication qui s’accompagne pour l’instant de failles importantes dans la sécurité des données qui transitent.

L’énorme enjeu de la sécurisation des données

On ne va pas énumérer ce qui fait de la sécurisation des données un enjeu fondamental pour l’avènement des smart city : smart buildings, véhicule autonome, internet des objets, gestion des machines dans une usine connectée, santé connectée… toutes ces innovations technologiques ne sont implémentables que si et seulement si la problématique de sécurisation des données relatives à ces usages est assurée.

La blockchain est devenue célèbre pour sa capacité à sécuriser les transactions en bitcoins. Elle pourrait très rapidement s’avérer indispensable au déploiement de l’ensemble des objets connectés, en ajoutant une couche de sécurité via une chaîne associée à l’identité de l’objet connecté, le rendant résistant aux tentatives de hacking. Car cette chaîne d’identification, caractéristique de la blockchain, permet aux objets connectés de recevoir des commandes, et de communiquer entre eux, de manière sécurisée. En effet, la blockchain permet aux objets d’interagir entre eux sans avoir à communiquer via une tierce partie limitant, par conséquent, les sorties d’informations ou les attaques potentielles venant de l’extérieur.

Un autre avantage lié à l’utilisation de la blockchain pour l’IoT est l’autonomie. La blockchain gardant en mémoire – via les “registres” – l’historique des transactions effectuées, un objet connecté peut fonctionner librement et sans aucune intervention extérieure, en toute sécurité.

Blockchain et intermodalité

Les smart cities intègrent dans leur développement des innovations importantes concernant les transports. D’abord pour des problématiques de désengorgement de certains axes routiers, en ville par exemple.

Les innovants véhicules autonomes suscitent à ce titre de gros espoirs. Combiné à la blockchain, le transport autonome pourrait gérer le trafic avec une efficacité maximale.

Ceci en connectant les véhicules entre eux, mais aussi avec les feux, les péages…

Le gain en termes d’encombrement routier serait gigantesque. En plus de sécuriser l’ensemble des échanges entre les véhicules et les objets connectés liés à la circulation, la blockchain permet également un traitement combiné sur l’ensemble des données traitées.

Ceci pourrait permettre d’optimiser également les temps de recharge des véhicules autonomes et d’assurer au consommateur un prix optimal.

Economiser de l’énergie avec la blockchain

La blockchain peut se rendre indispensable à la smart city en lui permettant d’atteindre un de ses buts affiché, à savoir l’efficience énergétique. En effet, en permettant une interopérabilité entre les objets connectés, elle assure un fonctionnement optimisé des objets et donc mécaniquement des économies d’énergies.

Même chose pour le transport, l’optimisation des trajets, des consommations des véhicules, de leur recharge, auront pour conséquence une optimisation de la consommation électrique de tout le secteur routier.

D’ailleurs, la blockchain est de plus en plus utilisée pour économiser l’énergie: elle entre en jeu dans la gestion de la distribution d’électricité sur les réseaux, en fonction de l’offre et de la demande. Du coup, non seulement la distribution est ajustée, mais le stockage intermittent prend tout son sens, grâce cette nouvelle efficience.

Le who’s who des pirates

La cyberguerre et l’espionnage numérique existent déjà ! Il suffit de parcourir le « Cyberthreat Handbook » de Thales et de Verint pour en être convaincu. Fruit d’un an d’enquête, cet annuaire mondial vise à étudier et à catégoriser les groupes de cyberattaquants et cybercriminels les plus actifs, talentueux ou rusés (ces trois caractéristiques allant souvent de pair dans ce type de mission…). Il décrit très précisément leur mode opératoire, leurs motivations et les secteurs touchés.

Sur les soixante-six groupes de pirates les plus brillants, la moitié sont considérés d’origine étatique ou soutenus par un État. La publication de cet annuaire confirme donc que les techniques de piratage informatique sont de plus en plus employées par des États pour en déstabiliser d’autres ou pour voler des informations très sensibles comme des brevets ou des plans d’un futur avion…

Un quart (26 %) des autres « méchants » groupes sont des « hacktivistes ». Il s’agit de militants motivés par des idéologies communautaires, religieuses, politiques. Il y a une dizaine d’années, des milliers d’internautes avaient saturé de connexions le site de la Lufthansa. Deux associations allemandes lui reprochaient de mettre ses appareils au service du gouvernement pour l’expulsion des immigrés clandestins.

Cet annuaire répertorie aussi 20 % de cybercriminels (motivés par l’appât du gain) et 5 % des cyberterroristes.

Parmi les groupes les plus dangereux en termes de sophistication de leurs outils, les groupes russes dominent (4 dans les 10 premiers), suivis par les groupes chinois (3 sur 10). Il y aurait un groupe lié à l’État français, Animal Farm ou ATK 08. Actif depuis au moins 2009, il aurait développé des codes malveillants utilisés contre des organisations diverses, notamment en Syrie, en Iran et en Malaisie.

Supermarché du malware

Dans la majorité des cas, les équipes chargées de ces cyberattaques poursuivent un objectif : être le plus discret possible tant qu’elles n’ont pas terminé leur mission. Ensuite, elles effacent la moindre de leurs traces ou laissent, au contraire, des traces pour brouiller les pistes et incriminer un autre groupe.

Mais dans cette guerre de l’information, ces groupes peuvent aussi laisser volontairement des preuves de leur intrusion pour rappeler à l’ennemi qu’ils maitrisent leur sujet… C’est le cas des Chinois. Tout l’inverse des Américains qui misent sur la discrétion pour pirater des pays menaçants ou des  alliés.

Car il ne faut pas être naïf ; chaque allié tente d’en savoir plus sur les autres, même si officiellement ils travaillent ensemble. D’ailleurs, les tentatives d’espionnage ou déstabilisation touchent en priorité les gouvernements et la défense (près de la moitié des attaques), la finance (plus du tiers), l’énergie (10 % environ).

Les attaques contre les médias et le secteur médical (hôpitaux) et pharmaceutique ont connu une augmentation « particulièrement significative » ces derniers mois.

Cette étude constate aussi l’apparition d’un « supermarché du malware » (malware as a service). Il permet aux cyberpirates d’acheter et d’utiliser des logiciels développés par d’autres groupes d’attaquants.

Refroidir des serveurs informatiques dans l’huile

Frédéric Delpeyroux est le président fondateur de la société Totalinux, fondée il y a 14 ans et qui conçoit, installe et maintient des architectures IT.

La solution imaginée par Totalinux pour refroidir les serveurs informatiques qui constituent les data centers est originale, puisqu’elle consiste à les faire baigner dans de l’huile.

Solution Totalinux : faire baigner les serveurs dans de l’huile pour les refroidir.

Pourquoi ? Il faut d’abord se plonger dans le contexte actuel. Aujourd’hui les data centers se multiplient, et leur consommation d’énergie – pour refroidir les serveurs – ainsi que les rejets de chaleur posent des problèmes importants.

Plus précisément, dans le cas de la smart city et des smart buildings, on sait que la quantité de données à traiter va exploser dans les années à venir. Leur stockage et la maintenance des serveurs va donc être de plus en plus énergivore.

Différentes solutions technologiques ont émergé ces dernières années pour traiter ce problème. La plus spectaculaire, imaginée par Microsoft, consiste à immerger les serveurs – au large de l’Ecosse – pour que ces derniers soient naturellement refroidis par l’eau de mer. Cette solution n’a pas rallié tous les suffrages, c’est le moins que l’on puisse en dire. Outre le coût du projet en lui-même, qui permet mal d’imaginer la multiplication de cette solution, les difficultés techniques d’intervention sur site paraissent insurmontables.

Plus prosaïquement, les serveurs sont souvent refroidis soit par l’air, soit par l’eau. Dans le premier cas, il faut des quantités d’air très importantes, et dans le second, nous sommes face à une denrée de plus en plus rare…

L’utilisation de l’huile comme vecteur de refroidissement a de nombreux avantages. Liquide caloriporteur, l’huile se réchauffe au contact des serveurs et peut être réutilisée après passage dans un échangeur, pour le chauffage par exemple.

Aussi, cette solution permet de se débarrasser de toute l’infrastructure de réseau non indispensable, et donc de diminuer la taille des datacenters.

Frédéric Delpeyroux assure même que  sa solution permet de faire baisser sa facture énergétique de 90% !

Ce qui est certain, c’est l’absence de bruit du dispositif, et le fait qu’il ne fonctionne pas à l’eau. Dans une perspective durable, cela sonne plutôt bien.

Le biomimétisme, quand les villes apprennent de la nature

Selon les chiffres avancés par les Nations Unies, 70% des hommes vivront en zone urbaine en 2050. Des zones souvent bâties sans tenir compte de l’environnement et qui deviennent néfastes pour la biodiversité. Face à cette urbanisation croissante mais aussi aux effets des changements climatiques, il est donc temps de revoir la manière dont nos villes sont construites. « Il est temps de s’inspirer de la nature afin de reconnecter les villes à l’environnement » souligne Olivier Floch, organisateur de Biomim’Expo avec le Ceebios (Centre Européen d’Excellence en Biomimétisme de Senlis). En effet, les experts du biomimétisme soulignent qu’il faut s’inspirer de la nature afin de dessiner des villes plus vivables pour leurs habitants et donc pouvoir diminuer notre impact environnemental.

S’inspirer de la nature

L’observation de la nature peut inspirer la façon dont on peut réaménager les villes. En effet, la mise en œuvre des préceptes du biomimétisme contribue à améliorer le tissu urbain existant.

Par exemple, en Inde, chaque année, des millions de m3 d’eau se déversent à cause des moussons. Ces volumes d’eau importants sont absorbés grâce à un grand nombre de plantes qui ont développé une capacité unique d’absorption. Ces mangroves apparaissent  comme un rempart naturel face à la montée des eaux attendue dans les prochaines années.

Autre exemple, pour chasser les îlots de chaleur qui se forment dans les zones dépourvues de végétation et ainsi baisser les températures en période caniculaire, les villes plantent de plus en plus d’arbres en zone urbaine. Il est aussi possible de réintroduire un peu de biodiversité dans les zones urbaines, notamment en cherchant à développer des trames vertes et des trames bleues dans les villes.

S’inspirer du vivant devient donc une piste sérieuse de recherche pour les entreprises et les collectivités locales. Le biomimétisme fait désormais partie intégrante de leurs stratégies R&D.

Le biomimétisme au cœur des villes, un défi technologique

Pour réduire l’empreinte environnementale des zones urbaines, les scientifiques souhaitent créer des villes autosuffisantes. Des villes qui ne dépendent que de l’énergie solaire et de la présence d’eau.

Différents exemples viennent nourrir ce fantasme. En effet, l’idée d’intégrer des éoliennes en villes fait son chemin même si elle ne semble pas faire l’unanimité. Pourtant, des chercheurs envisagent de copier la peau des baleines pour éliminer le bruit causé par les pales. Autre exemple, des chercheurs australiens étudient la photosynthèse d’un certain type de fougère afin de développer un nouveau type d’électrode qui pourrait augmenter de 3 000 % la capacité de stockage de l’énergie solaire.

L’apport du biomimétisme sur les solutions de mobilité inspirent également les chercheurs. En effet, ces derniers ont observé le comportement des bancs de poisson et des vols d’étourneaux pour étudier leur déplacement dans l’eau et ainsi comprendre comment ils évitent les collisions. Appliquées à des véhicules intelligents disposant de systèmes de détection et de communication embarqués, ces études favorisent la conduite synchronisée de demain via une communication inter-véhicules, ouvrant la voie à un trafic plus sûr et moins congestionné.

La nature a donc encore beaucoup à nous apprendre.

Smart City : comment sécuriser les entreprises connectées ?

À l’ère de l’industrie 4.0, les entreprises utilisent de plus en plus de capteurs et de systèmes connectés, qui deviennent de véritables portes ouvertes pour les pirates informatiques. Motivés par l’appât du gain, la recherche de notoriété ou la volonté de déstabiliser les entreprises, les hackers peuvent désormais impacter le réel. Grâce à la digitalisation des entreprises, ils peuvent agir directement sur les machines ou sur le réseau électrique par exemple. Ainsi, les risques sont réels et doivent être anticipés par les entreprises. Thierry Notot, ingénieur spécialisé en cybersécurité chez Socomec, nous a donné quelques clés pour mieux comprendre et se prémunir des attaques.

Il distingue d’abord l’IT et l’OT : « Il y a deux types de réseaux : l’IT donc le réseau Office, bureautique, sur lequel on connecte des pc standard facilement sécurisables et l’OT, un réseau de process sur lequel on va brancher des machines, des compteurs, des capteurs IoT etc. ». Si la sécurisation est importante pour le premier réseau, le second en revanche présente de nombreuses failles. Les appareils sont souvent conçus afin de durer des dizaines d’années et leur sécurisation n’est pas pensée dès la conception. Ces équipements sont donc facilement piratables s’ils ne sont pas protégés.

Une autre faiblesse courante dans les entreprises concerne la gouvernance : personne n’est nommé pour s’occuper de la cybersécurité. Historiquement, la DSI s’en occupe mais cette organisation atteint rapidement ses limites quand il s’agit d’OT. En effet, cette tâche nécessite des connaissances métier or la DSI ne connait pas le matériel spécifique. Certaines entreprises s’adaptent et mettent l’OT sous la responsabilité de l’usine ou d’agents de maintenance. D’autres nomment un responsable sécurité qui chapeaute l’ensemble. Quelles que soient les stratégies adoptées, l’implication de la direction est capitale afin de mettre en place les moyens financiers et instaurer une approche globale.

Des solutions existent

L’ingénieur de Socomec est très clair : « Le risque 0 n’existe pas ». Cependant, il existe des manières de minimiser les risques.

Premier facteur à améliorer : la sensibilisation. Selon lui, «en matière de cybersécurité, la première faille c’est l’humain ». Les exemples sont nombreux où les attaques ont commencé car les mots de passe par défaut n’avaient pas été modifiés ou des clés USB infectées avaient été utilisées. Avec l’évolution des pratiques, former le personnel demeure un point capital pour protéger une entreprise. « Il ne s’agit pas de faire une formation isolée mais bien de mettre en place un véritable processus où on vérifie que les informations ont bien été intégrées, quitte à les répéter régulièrement », rappelle l’ingénieur.

En outre, la sécurisation se fait en plusieurs étapes. D’abord, Thierry Notot conseille de faire un état des lieux de tous les équipements connectés sur le réseau de l’entreprise. Mettre au point une stratégie de cybersécurité nécessite d’avoir une approche globale sur l’ensemble du matériel, d’où le besoin de cartographier les équipements. Ensuite, il faut réaliser une analyse de risques. Elle permet d’identifier les failles potentielles et remonter les vulnérabilités identifiées sur le terrain. Enfin, une fois que les risques sont déterminés, il faut les classifier et mettre en place des contre-mesures. Parmi les solutions possibles, il cite la sécurisation de l’authentification afin de répondre au besoin de traçabilité, mais aussi le chiffrement et la cryptographie pour sécuriser l’échange de données. Certains équipements notamment d’OT devront éventuellement être changés si leur sécurisation ne peut être améliorée.

Un budget défini par les risques

Les moyens financiers nécessaires à la mise en place d’une stratégie de cybersécurité adaptée dépendent de l’analyse des risques. « L’idée c’est de ne pas jouer la surenchère dans la sécurité c’est-à-dire mettre des produits hyper sécurisés alors que le risque est faible », explique Thierry Notot. Les moyens financiers devront couvrir les frais matériels, la gestion des certificats mais aussi le besoin de personnel dédié. Néanmoins, certaines tâches peuvent être automatisées. Si le coût peut être élevé, l’ingénieur rappelle qu’il faut surtout le comparer au coût pour l’entreprise en cas d’attaques, qui sera nettement supérieur.

Revue du Web #127 : les vidéos les plus étonnantes du mois

La cape d’invisibilité d’Harry Potter

Et si le fantasme d’invisibilité devenait réalité : c’est l’invention mise au point par des chercheurs canadiens. Grâce à une sorte de film transparent, ce matériau est capable de faire disparaître un être humain ou un objet lorsque l’on en recouvre.

Une guitare électrique fabriquée uniquement avec des iPhone

Les instruments de musique sont généralement fabriqués avec des matériaux tels que le bois. En effet, le bois permet une acoustique naturelle très intéressante pour faire sonner les notes. Pour les guitares électriques, c’est différent. Découvrez l’iCaster, une guitare électrique réalisée uniquement avec iPhone.

Un surf électrique et volant « made in France »

Prenez le large sur cette planche de surf électrique capable d’atteindre 40 km/h avec une autonomie d’environ 1h30.  Cette planche un peu particulière est un surf électrique sur foil avec une aile immergée qui permet à la planche d’évoluer en volant sur l’eau. En cas de chute, elle est équipée d’un coupe-circuit qui coupe le moteur.

Un hôtel géré par des robots et des dinosaures

Dans cet hôtel de Tokyo, les robots, en plus d’être divertissants, représentent une main d’oeuvre non négligeable. Des robots réceptionnistes aux robots aspirateurs en passant par le robot concierge dans la chambre, les machines parviennent à combler en partie les désirs des clients. Vous serez accueillis par deux charmants dinosaures (ou charmantes humanoïdes) lors de votre séjour à l’hôtel.

Un robot qui racle

Le geste est simple, pourtant presser la meule de fromage et faire glisser le fromage fondu dans l’assiette demande précision et savoir-faire. En utilisant l’approche par imitation et des algorithmes d’intelligence artificielle, ce bras robotique est en mesure de raviver la flamme lors de vos longues soirées d’hiver.

Le robot Atlas fait son numéro d’équilibriste

On ne présente plus le robot Atlas développé par Boston Dynamics. Courir, sauter, il sait déjà faire pleins de choses. Dans cette vidéo, on le découvre réalisant toute sortes de pirouettes. Avec ses 28 articulations hydrauliques, ses 1,50 mètres et ses 80 kilos, Atlas fait preuve d’une impressionnante mobilité et d’un équilibre remarquable.

Le Metal Binder Jetting, une technologie qui monte

Si le parc machine et les pièces métalliques de qualité utilisent aujourd’hui principalement des technologies de fusion laser sur lit de poudre ou de la fusion par faisceau d’électrons, de nombreuses autres technologies sont en train d’émerger. Difficile de prévoir lesquelles finiront par avoir le dessus pour le moment. Parmi ces différents procédés, l’injection de liant sur lit de poudre métallique, Metal binder jetting en anglais (MBJ) est cependant celui qui connaît l’essor le plus important.

Comment ça marche ?

Le metal binder jetting (MBJ) se déroule en deux grandes étapes : tout d’abord, la fabrication de la pièce verte et ensuite la consolidation par déliantage-frittage. Il s’agit en premier lieu de déposer des couches de poudres métalliques sur lesquelles est projetée de l’encre (en l’occurrence un liant organique). Le liant n’est déposé que sur la forme et la section correspondant à la pièce désirée. On obtient alors une pièce verte qui va être consolidée et prendre ses dimensions finales après déliantage (élimination du liant par évaporation-décomposition) puis frittage (on porte la pièce à une température proche de son point de fusion pour induire une coalescence des grains et un comblement des espaces laissés par le liant). La pièce finale est donc plus petite que la pièce verte et ce retrait dimensionnel est la principale difficulté de ce procédé. Le procédé global de fabrication présente une forte analogie avec celui du Metal Injection Molding (MIM) où la pièce verte est obtenue par injection dans un outillage avant un processus de consolidation (déliantage-frittage) très similaire au MBJ.¹

Le Cetim, un précurseur français

Rapidement le Cetim (centre technique des industries mécaniques) voit dans cette technologie une pertinence économique pour la production de petites pièces complexes en petite et moyenne série. Il investit alors dans des machines pour faire des études de faisabilité, de répétabilité et de qualité. Les tests sont concluants et le centre technique décide de promouvoir activement cette solution auprès des PME françaises sur ses différents sites et plateformes technologiques via des actions de formation ou d’accompagnement à la fabrication additive métallique.

Le MBJ présente en effet de nombreux atouts pour devenir une technologie majeure dans les années à venir. Aujourd’hui, il propose une productivité significativement supérieure aux technologies par fusion (laser ou faisceaux d’électron). En outre, la qualité des pièces à l’issue du process nécessite moins de reprise que les technologies par fusion. Enfin, la productivité actuelle et potentielle à l’avenir est aussi bien meilleure grâce à la possibilité de couvrir l’ensemble du lit de poudre avec plusieurs têtes d’impression – sans pour autant augmenter excessivement le coût de l’équipement contrairement aux buses laser. Le procédé est aussi moins exigeant en matière de conditions de production : pas besoin d’atmosphère contrôlée, travail à température ambiante donc le volume de la chambre de fabrication n’a pas de limite théorique. Si aujourd’hui l’offre en matériau est faible, elle est en train de s’enrichir rapidement et à terme, la plupart des matériaux disponibles en MIM devraient être disponibles en MBJ, de même que des matériaux comme les carbures ou les céramiques.

La principale limite de ce procédé tient à l’étape de frittage qu’il faut d’une part apprendre à contrôler et d’autre part qui impose des pièces de taille relativement modeste. En effet, au-delà d’une certaine taille, on ne sait pas encore assurer un retrait dimensionnel au moment du frittage dans des tolérances acceptables pour des productions en série.

 Une technologie dont les grands s’emparent

Jusqu’à récemment, seuls deux fournisseurs commercialisaient des machines MBJ. Il s’agissait de la société suédoise Digital Metal (groupe Höganäs) et de l’américain ExOne. Mais de nombreux acteurs se dévoilent à présent. Desktop Metal a présenté ainsi en 2017 son système « Production SystemTM », suivi par d’autres comme HP avec sa HP Metal Jet, GE avec sa H1 ou encore Stratasys, un spécialiste de la 3D plastique qui s’ouvre aujourd’hui au métal. Cet engouement pour le marché de la fabrication additive métallique et pour cette technologie montre que les constructeurs ont désormais compris ses potentialités et sont prêts à s’en emparer. Dès lors, la productivité et le choix des matériaux devraient s’améliorer très rapidement.

Mais cet engouement ne doit pas faire oublier que la fabrication additive métallique est encore jeune. D’autres procédés apparaissent régulièrement et feront peut-être encore mieux ou trouveront une autre place. Par exemple, un procédé proche qui reprend le MIM classique (moulage par injection de métal) avec une injection d’un mélange métal/liant est développé notamment par le français Pollen AM sur sa Pam Serie M ou le frittage de poudre dans un moule plastique de la Metal X proposé par l’américain MarkForged.

¹ : Définition extraite de l’ouvrage « Fabrication additive métallique : les fondamentaux » en téléchargement gratuit, fruit du partenariat entre Techniques de l’Ingénieur et le Cetim.

La France structure le secteur de l’impression 3D Métal

En 2017, les pouvoirs publics ont fait entrer le sujet de la fabrication additive dans le champ de leurs priorités pour soutenir la modernisation de l’industrie française. Dans ce cadre, le gouvernement s’est appuyé sur une feuille de route rédigée sous l’animation de l’Alliance Industrie du futur. Les soutiens vont à la R&D, notamment via les dispositifs d’aides aux programmes investissement d’avenir (PIA) ainsi qu’à l’équipement des entreprises avec pour objectif affiché en 2017 de faire grimper le pays de la 7e à la 5e place en terme de machines industrielles installées, c’est-à-dire de passer de 3 à 9 % du parc mondial dans les 5 ans.

Le soutien passe alors par des dispositifs fiscaux avantageux comme le suramortissement exceptionnel en faveur des investissements de transformation numérique des PME industrielles (loi de finances de 2019) ou encore des prêts « industrie du futur ». En parallèle, le gouvernement a initié le programme 3D Start PME visant à accompagner des PME vers l’utilisation de la fabrication additive. Il favorise le développement d’un réseau de plateformes (mutualisation d’équipements et de compétences) permettant à la fois un soutien à la recherche, une diffusion et un accompagnement des PME et des grands groupes vers l’adoption des technologies de fabrication additive. C’est le groupe « Fabrication additive » de l’Alliance Industrie du futur qui est chargé d’animer et coordonner les initiatives, projets et plateformes dédiés à la FA. Un volet formation a aussi été prévu comportant l’inventaire des formations existantes et la création de référentiels métiers / formations.

3D Start PME : passage à l’acte pour une douzaine d’entreprises

Le programme 3D Start PME est piloté par le CETIM, le CEA et le Symop. Il est soutenu par le programme des investissements d’avenir (PIA) mis en œuvre par Bpifrance. Actuellement en phase pilote, ce programme propose aux PME volontaires et sélectionnées un accompagnement pas à pas pour évaluer l’intérêt d’intégrer l’impression 3D dans leur processus de fabrication et connaître les impacts sur leur stratégie, leur organisation, les compétences et toute la chaîne numérique. L’initiative est ouverte aux entreprises manufacturières (PME) de moins de 250 salariés et dont le chiffre d’affaires est inférieur à 50 millions d’euros. À ce jour, 32 entreprises ont été choisies pour bénéficier du diagnostic d’opportunité et une douzaine devraient finalement passer à l’acte et se lancer réellement dans la fabrication additive. Ces dernières pourront recevoir une aide à la décision, un accompagnement à la mise en œuvre de la fabrication additive par des experts indépendants et la réalisation d’une preuve de concept (POC) financée à hauteur de 50 % sur une plateforme de faisabilité.

Outre le dispositif d’accompagnement des PME, ce projet pilote permettra l’élaboration de supports de sensibilisation et de formation, intégrant notamment le volet HSE (hygiène sécurité environnement) qui constitueront un socle d’outils disponibles pour le déploiement de l’action dans les territoires. La première phase du projet s’est achevée avec le développement d’un outil de diagnostic et la mise en place d’une base de données de consultants formés à l’utilisation de l’outil.

Le réseau des plateformes prend forme

Le réseau des plateformes technologiques dédiées à la fabrication métallique prend forme petit à petit. Le Symop a lancé en mars 2018 un portail sur la fabrication additive qui référence les acteurs du secteur (tous matériaux), qu’ils soient fournisseurs de logiciels, matériaux, gaz, machines, solutions de post-traitement, bureaux d’études etc. Début 2019, il a ajouté une cartographie des plateformes technologiques consacrées à la FA. Chaque plateforme possède sa fiche détaillant sa vocation principale, ses moyens et ressources humaines, ses équipements et les financements éventuels lui permettant de mettre en œuvre des actions collectives et/ou privées.

Le nombre de plateformes dédiées à la fabrication additive métallique ne cesse de progresser. Le Cetim y est un acteur majeur grâce au développement de ses actions et de ses installations en région. Parmi les dernières nées, la création d’une unité pilote à dispositif partagé (UPDP) sur le site de Cluses en début d’année 2019 dans la vallée de l’Arve. Dans un bassin industriel qui produit des centaines de milliers de pièces avec des équipements de pointes, les entreprises locales sont cependant en recherche de procédés leur permettant de réaliser des courtes séries et de limiter les risques d’investissement. Une demande à laquelle la fabrication additive métallique peut répondre. Le fonctionnement de cette UPDP se fera comme celle installée à St Etienne, sous la forme d’un programme de 18 mois. Les industriels intéressés peuvent être accompagnés pour une sensibilisation à l’utilisation d’équipements de fabrication additive métallique basés sur la technologie du MBJ (Metal binder jetting – projection de liant sur poudre métallique) afin de valider une preuve de concept, monter en compétence ou encore monter un programme de R&D. Cette unité a d’ailleurs pour but de construire un programme collectif de R&D autour de la qualification du titane (Ti-6Al-4V) pour démontrer la capacité du procédé de MBJ à produire des pièces qualifiées pour les implants médicaux. Il s’agit là pour le Cetim de la 9e UPDP dédiée à la fabrication additive métallique. Un maillage régional qui vient compléter la mise en place d’une grande plateforme d’envergure internationale, l’Additive Factory Hub, qui s’est s’installée à Saclay en décembre 2017.

Un pôle d’excellence international

L’Additive Factory Hub portée par le Cetim et le CEA réunit autour d’elle une vingtaine de partenaires académiques et industriels. Cette plateforme représente un investissement de 40 millions d’euros sur 5 ans. Elle bénéficie d’une partie des 350 millions d’euros débloqués par la région Ile-de-France pour développer son activité industrielle et d’un apport du Cetim de 2,5 M€. Cette plateforme est dédiée à la R&D pour les différents partenaires du projet tels que Safran, Air Liquide, Poly-Shape, AddUp ou encore le CEA List, l’Onera ou les Arts et Métiers. Elle est aussi à disposition des PME qui ont besoin d’un accompagnement pour se lancer dans des investissements en matière de fabrication additive avec des programmes dédiés sur le modèle du programme national 3D Start PME. Potentiellement, 500 entreprises industrielles pourraient ainsi bénéficier de cette initiative.

Le maillage national s’appuie sur les régions

En parallèle de la mise en place de plateformes, les initiatives pour structurer la recherche et le développement industriel autour de la fabrication additive métallique s’appuient beaucoup sur des constructions régionales – propices à capter des fonds européens. C’est le cas par exemple du projet CLIP FAM (Caractérisation du Lit de Poudre pour la Fabrication Additive Métallique) construit autour d’un consortium normand composé de plusieurs entreprises et centres de recherches : Analyses & Surface, ArianeGroup, CEVAA, CRISMAT, GPM, INSA Rouen Normandie, LMN, NAE et Volum-e. Il bénéficie de fonds régionaux et de fonds européens. Débuté le 1er décembre 2018, ce projet a pour but de développer une méthode de caractérisation de l’étalabilité des poudres métalliques pour la fabrication additive (banc d’essai) ; renforcer la modélisation de l’étalabilité afin d’anticiper une production optimale ; évaluer l’impact d’une poudre avec une bonne/mauvaise étalabilité sur la pièce produite ; appuyer l’émergence d’une norme spécifique sur la poudre (volet étalabilité).

Ce projet constitue non seulement une initiative fédératrice et structurante pour les acteurs de la fabrication additive en Normandie mais il est aussi essentiel dans le développement futur de la filière de fabrication additive métallique. En effet, certains défauts ou hétérogénéité dans les pièces fabriquées naissent de la qualité et de la mise en œuvre des poudres métalliques qui empêchent le procédé d’être correctement industrialisé.  Aujourd’hui les poudres, selon leur procédé de fabrication, leur fournisseur etc présentent des différences qui nécessitent souvent de réétalonner la fabrication avant de lancer une série. Trouver les techniques pour caractériser et standardiser ces poudres est donc une étape essentielle à l’essor des technologies sur lit de poudre (fusion laser, fusion par faisceau d’électrons, projection de liant etc.).

Le PDG de Lubrizol martèle sans convaincre l’absence de toxicité

Mardi matin, Eric Schnur était entendu par les députés dans le cadre de la la mission d’information de l’Assemblée nationale. Mardi après-midi, il était auditionné par les sénateurs pour la commission d’enquête parlementaire du Sénat sur la gestion des conséquences de l’incendie de l’usine Lubrizol.

Devant les sénateurs, le PDG de l’entreprise américaine a réitéré ses excuses à toutes les personnes touchées par cet incendie « au nom de nos 8700 employés dans le monde ». D’après les informations connues à ce jour, « l’incendie s’est déclenché en dehors du site, mais il faut encore en définir la cause », a-t-il prévenu.

Une absence de toxicité à moyen et long terme ?

Selon un document publié sur le site de la préfecture, 5 253 tonnes de produits chimiques ont brûlé dans l’usine classée « Seveso risque haut », ainsi que 4 252 tonnes de produits chez son voisin Normandie Logistique. Sur ce dernier site, 1 691 tonnes provenaient aussi de Lubrizol. Les substances stockées chez Normandie Logistique étaient uniquement des « produits non dangereux selon la réglementation Seveso », a soutenu le PDG. « Nous pensons pouvoir affirmer que tous les produits présents ne présentent pas de risques pour la santé », a assuré Eric Schnur, devant la commission. Depuis l’accident, plus de 2000 échantillons auraient été prélevés, et ils n’ont pas montré d’impact environnemental immédiat.

Les explications répétées du PDG sur l’absence de risques à moyen et long terme ne convainquent pas la commission. Ce patron américain se risque même à avancer que Lubrizol fait des simulations sur les fumées et qu’« il n’y a pas de différence significative avec ce que l’on peut trouver dans l’incendie d’une maison ». Des fumées qui seraient les mêmes, voire moins dangereuses que dans un incendie domestique ? « Cela n’est pas entendable pour les personnes qui ont vécu l’incendie », a réagi Céline Brulin, sénatrice de la Seine-Maritime. Mais le PDG l’affirme : les experts ont pu prédire les impacts sur la santé : « il n’y a pas d’autres impacts sur la santé que l’irritation causé par la fumée ».

L’entreprise veut se montrer coopérative

Face aux doutes du public, le PDG veut se montrer coopératif. « Nous allons continuer à soutenir les tests, l’échantillonnage, fournir des informations détaillées sur tous les produits », prévient-il. Et l’entreprise fera en sorte que des experts en toxicité indépendants puissent avoir les informations nécessaires pour mener leurs propres études.

L’eau utilisée pour éteindre l’incendie a été confinée et va être traitée, assure Eric Schnur. Un plan de surveillance sanitaire et environnemental qui regarde les effets à moyen et long terme a été mis en place. Il poursuit en rappelant la volonté de travailler en toute transparence avec les autorités et « agir en bon voisin ».

Des indemnisations à long terme

Si le montant des indemnisations n’est pas encore connu, le PDG de Lubrizol insiste sur sa volonté d’accompagner les agriculteurs et les entreprises affectés, notamment dans le tourisme. Des dispositifs sont en cours de réflexion pour faire face aux besoins les plus immédiats, mais il n’y a pas encore de système d’évaluation global. « Nous ne savons pas quels seront les besoins à long terme mais nous serons là », rassure-t-il.

En particulier, Lubrizol travaille avec la FNSEA pour indemniser en priorité les agriculteurs les plus touchés. L’entreprise est en lien avec la Préfecture pour gérer un fonds qui répondra aux besoins des entreprises. Et elle finance des opérations de nettoyage et les évaluations environnementales. Toutefois, rien n’a encore été discuté avec les autorités locales pour l’indemnisation des communes qui ont dû faire face à de nombreuses dépenses.

Un incendie commencé à l’extérieur

Comme tout le monde, Eric Schnur attend les résultats de l’enquête pour savoir ce qu’il s’est passé. Lubrizol n’a accès qu’aux images de surveillance vidéo sur son site. Celles-ci montrent que l’incendie a commencé à l’extérieur, puis s’est propagé sur le site.

Le système anti-incendie sur site a fonctionné pendant au moins 2 heures et délivré au moins 2000 tonnes d’eau. « Ce système est conçu pour éteindre un incendie dans les lieux de stockage, analyse Eric Schnur. Si l’incendie vient de l’extérieur, le système ne peut pas l’arrêter ».

Les opérations de traitement des fûts endommagés par l’incendie sur le site de Lubrizol devraient commencer ce mercredi et durer environ deux mois. « La partie production du site n’étant pas impacté par l’incendie, nous allons étudier la possibilité de le remettre en activité », fait savoir Eric Schnur. En attendant la reprise de l’activité, les employés continueront à être rémunérés.

Le Syndicat des énergies renouvelables appelle à accélérer le mouvement

Jean-Louis Bal, le président du SER, n’y est pas allé par quatre chemin mardi dernier, en présentant les priorités de la profession des énergies renouvelables. Le SER juge que la PPE doit « être adoptée rapidement » et « doit redonner des perspectives aux filières oubliées, comme la géothermie électrique, l’hydrolien et la cogénération-bois ».

Urgence sur la chaleur renouvelable

C’est côté chaleur que le SER estime qu’il y a urgence à mettre en place « un plan d’accélération » car « nous sommes largement en-deçà de la trajectoire » permettant d’atteindre l’objectif qu’a fixé la loi de transition énergétique pour une croissance verte (LTECV) de 2015, insiste Jean-Louis Bal. Même si sur 2017 et 2018, la filière chaleur renouvelable a ajouté 1% par an, portant à 19,9% la part de cette énergie dans la consommation finale de chaleur, l’objectif fixé par la LTECV est de 38% en 2030 et celui de l’engagement européen est de 33% en 2020… Autant dire que le compte n’y est pas, à ce rythme, martèle le président du SER.

Le SER propose ainsi d’accompagner le développement de la chaleur renouvelable via une refonte du CITE (Crédit d’impôt pour la transition énergétique), car 60% des projets se sont développés grâce à ce mécanisme qui est modifié à compter du 1er janvier prochain. Il faut « éviter un trou d’air », insiste Jean-Louis Bal. Il faut donc que ceux qui lancent des projets avant la fin de l’année 2019 continuent de bénéficier du CITE tel qu’il existe estime-t-il. Une autre proposition vise à augmenter les moyens de l’Anah (Agence nationale de l’habitat), alors même qu’elle enregistre une baisse de ses dotations. Et il faut que les inserts et foyers fermés dans les « primo-acquisitions » puissent bénéficier du CITE, ce qui n’est pas le cas aujourd’hui. Sans oublier d’aligner les montants de la prime de la bûche sur ceux du granulé.

En outre, il y a urgence à mobiliser le fonds chaleur dont, certes, le budget sera porté à 350 millions d’euros en 2020 contre 298 M€ en 2019, qui seront dépensés, mais qui ne « porte pas encore ses fruits » auprès des entreprises et de l’agriculture, qui misent sur une baisse des prix des combustibles fossiles. Notamment à cause du coup d’arrêt mis à la contribution climat (ou taxe CO2), dont le SER juge qu’il faut lui redonner rapidement une trajectoire et une existence en la rendant acceptable par la population. Le fait que cette contribution soit suspendue au résultat de la « convention citoyenne pour le climat » fait courir un risque, estime le SER.

Enfin, pêle-mêle, le SER appelle à des mesures pour exploiter mieux le potentiel géothermique français, notamment en mettant en œuvre une exploration des aquifères profonds, et en dotant chaque région d’un animateur spécialiste de la question. Enfin, le syndicat souligne la nécessité de poursuivre le soutien aux grandes installations solaires thermiques, via la poursuite des appels d’offres de l’Ademe (Agence de l’environnement et de la maîtrise de l’énergie).

Les filières électriques

Côté filières électriques renouvelables, Jean-Louis Bal constate que sur les années passées, la progression du solaire photovoltaïque atteint environ 1 GWc par an, et avec les résultats des appels d’offres de la Commission de régulation de l’énergie, ce chiffre devrait atteindre en 2021, 2 GWc par an. « Ce qui est encore insuffisant pour tenir l’objectif de la PPE » (20,6 GWc en 2023 et entre 35,6 et 44,5 GWc en 2028) car il faudrait installer 4 GWc par an, insiste Bal.

La récente loi énergie-climat facilite le développement du PV en mettant un seuil minimal de 30% sur les toitures des entrepôts, supermarchés et ombrières de parking, mais le SER juge nécessaire d’aller plus loin pour faciliter l’émergence de nouveaux projets. Jean-Louis Bal indique ainsi que la taille de certains projets n’est pas adaptée aux appels d’offres actuels, appelant à « instaurer un guichet ouvert pour les installations de moins de 500 kWc », une disposition permise par « l’encadrement des aides d’Etat au niveau européen ».

Par ailleurs, pour les centrales de grande puissance, il est nécessaire de poursuivre les efforts afin de faciliter l’accès au foncier, et notamment auprès des grands maîtres d’ouvrage publics, tels que l’armée, etc. Enfin, le SER rappelle l’obligation d’élargir le marché de l’autoconsommation collective.

Pour l’éolien terrestre, l’évolution de la puissance raccordée va dans le sens de la PPE (qui prévoit 2 GW raccordés par an), et le SER juge qu’il faut poursuivre les mesures de simplification entreprises, afin de raccourcir les délais de développement. En revanche, pour l’éolien offshore, il faut « aller au-delà des déclarations ». Le président du SER a rappelé que « pour 2021 et 2022, il n’y a aucun projet identifié » dans la PPE actuelle. Or pour assurer la rentabilité des usines en chantier, il faut de la visibilité. « C’est possible, il y a un potentiel suffisant, mais la planification doit démarrer sans tarder », a insisté Jean-Louis Bal.

Un gigawatt, dès 2020, et chaque année jusqu’en 2024 doit être affirmé, pour éviter un trou d’air pour les volumes d’éolien en mer posé. Le projet de PPE a été présenté avant Dunkerque, a ajouté Jean-Louis Bal. Or, Dunkerque montre que l’argument « c’est cher ne tient plus ». Il faut donc combler ce trou d’air potentiel.

En revanche, côté hydrolien, le président du SER a constaté que cette source d’énergie faisait partie des « filières oubliées » et « encore maltraitées », alors même qu’il y a quelques PME qui continuent en France et qui font de réels progrès (Sabella et Hydroquest, pour ne citer qu’elles !). C’est pourquoi le SER juge qu’il faut mettre en place les conditions nécessaires pour engager la phase de démonstration industrielle, et faire qu’en 2023, lors de la révision de la PPE, il puisse y avoir des appels d’offres ad hoc.

Enfin, le président du SER juge qu’il faudrait se pencher sur la géothermie électrique, qui constitue en outre une opportunité pour la production d’une filière française de production de lithium, terre rare largement utilisée pour les batteries. En effet, explique-t-il, le lithium est présent dans les eaux profondes géothermiques et pourrait en être extrait.

Fabrication additive métallique : un marché français encore timide

Selon cette étude, l’activité française en matière de fabrication additive métallique est encore peu structurée pour la production de série et les équipements sont surtout la propriété de centres de recherche et de formation. Le marché est partagé en trois segments assez équilibrés : 30% pour les poudres (19,5M€), 40% pour les équipements (24M€), et 30% pour la fabrication des pièces(17,1M€). Les auteurs du rapport estiment que « la croissance sur le segment métal en France suit la tendance mondiale grâce à des donneurs d’ordres importants en aéronautique et en automobile » et devrait doubler entre 2018 et 2025 pour atteindre 122M€. La répartition du chiffre évoluerait avec le développement de la fabrication de pièces de série pour se répartir en 20 % pour les poudres, 30 % pour les équipements et 50 % pour la fabrication de pièces.

Une filière française qui se structure

Même si le marché est encore timide, plusieurs indices montrent que toute la filière est en train de se structurer. Tout d’abord, on voit l’émergence de gros acteurs tel Addup (co-entreprise de Fives et Michelin) qui grandit notamment par croissance externe, en rachetant d’autres entreprises françaises spécialisées et qui espère capter 10 % du marché mondial des équipements d’ici 2023. Ensuite, on observe le développement de la production de pièces en série et plus seulement des seules activités de prototypage qui se fait souvent par des alliances entre prototypistes, fabricants de machines et donneurs d’ordre. Cependant, ce développement ne se fait pas forcément avec des alliances franco-françaises et certains donneurs d’ordre travaillent avec des spécialistes de la fabrication additive métallique à l’étranger tels PSA qui travaille avec l’américain Divergent ou Mecachrome avec le norvégien Norsk Titanium. Les principaux secteurs actifs dans la fabrication additive métallique en France n’ont pas beaucoup évolué ces cinq dernières années. Il s’agit de l’aéronautique et du spatial, du médical et de l’automobile. Trois autres secteurs sont en train d’émerger : le luxe même si les volumes seront limités, l’énergie et la fonderie et l’outillage (pour la fabrication des moules notamment).

L’exemple de la fonderie française

En mai 2019, 3D Métal Industrie est née de la mutualisation des moyens de six fondeurs ardennais, d’un bureau d’étude et de l’Union des industries et métiers de la métallurgie (UIMM). Cette entreprise, installée à Charlevilles-Mézières, a acquis en juin une machine du fabricant ExOne – la S-Max Furane – dont les dimensions permettent de produire des moules d’une taille maximum de 1 800 x 1 000 x 700 mm et qui fonctionne sur la technologie du liage de sable afin de fabriquer des noyaux et des moules par fabrication additive. L’investissement de plus d’1,2 M€ n’était possible que via cette mutualisation. L’idée de l’entreprise est née des collaborations qui ont eu lieu pendant 3 ans sur la plateforme régionale Platinium 3D, qui accompagne les entreprises sur les procédés de fabrication additive, notamment métallique. Pour Renaud Mignolet, président de cette nouvelle entité, « cette technologie qui révolutionne la fonderie  permet de fabriquer vite et mieux plusieurs pièces de fonderie dans différents alliages et sans coût d’outillage. […] Elle offre ainsi  des perspectives de diversification sur des marchés à forte valeur ajoutée tout en permettant d’être plus compétitifs, performants et réactifs et de réaliser des économies de transport ».

Métal Industrie espère atteindre le million d’euros de chiffre d’affaires d’ici 5 ans en visant le marché français et européen. Cette initiative est emblématique de la structuration du marché français : un travail en réseau, une mutualisation des moyens qui s’appuie sur un tissu de PME dynamiques.

Un besoin de formation et d’accompagnement

Cette étude détaille aussi les principaux freins à lever pour que le marché tant mondial que français puisse pleinement prendre son essor. En France, les entreprises expriment un besoin important de formations « en re-conception mécanique pour apprendre à identifier les pièces où la fabrication additive métallique est adaptée et apporte une valeur ajoutée par rapport aux procédés traditionnels d’élaboration de métaux » explique l’étude.

Le besoin d’accompagnement a été clairement identifié et pris en compte par les pouvoirs publics. En France où les TPE/PME forment toujours le cœur du tissu industriel, cet accompagnement tant pour l’information, la formation, la réalisation de preuves de concept et le prototypage est essentielle afin de permettre à de petites structures d’accéder à ces nouvelles technologies. On voit donc émerger de nombreux programmes d’aides au niveau national ou régional et la création de plateformes mutualisées permettant un accès facilité aux équipements et aux compétences liés à la fabrication additive métallique.

Le marché mondial de la fabrication additive métallique explose

Les données sur le marché mondial de la fabrication additive métallique sont aujourd’hui issues de différentes enquêtes de cabinets d’études, généralement américains. Les chiffres peuvent donc varier d’une source à l’autre mais tous les rapports vont dans le même sens : le marché de la fabrication additive métallique est en plein essor depuis 2015 et connaît une croissance rapide qui ne devrait pas se démentir avant plusieurs années.

Ainsi, dans son rapport 2019 sur le marché de la fabrication additive avec poudre métallique, le cabinet d’analyse Smartech Analysis évaluait le chiffre d’affaires du marché (machines, équipements, services) à 3,3 milliards de dollars pour 2018 avec une projection de croissance permettant d’atteindre 11 Md$ en 2024. Le rapport précise que les technologies sur lit de poudre représentent actuellement 80 % de toutes les installations mondiales mais que les ventes d’équipements de fusion sur lit de poudre ont marqué le pas en 2018 au profit de nouvelles technologies qui ont permis au marché de continuer sa croissance. Des technologies alternatives portées par de grands équipementiers comme Desktop metal, GE additive, HP, Stratasys qui proposent outre les équipements, tout un accompagnement du client permettant plus facilement aux entreprises de s’approprier ces nouvelles technologies.

En 2018, SmartTech Markets Publishing estimait que le nombre de machines dédiées à l’impression 3D métal avait augmenté de 80 % entre 2017 et 2016 et estimait que les revenus générés par ce marché était de 1,15 Md$ en 2017 contre 950 M$ en 2016, soit une croissance de 20 %. De son côté, le Wohlers Report de 2019 consacré à la fabrication additive notait une forte croissance du marché des matériaux de fabrication additive, notamment sur le segment des métaux avec une croissance de 41,9 % entre 2017 et 2018 dans la continuité des cinq dernières années. Une progression logique qui suit celle du marché des solutions ou des machines. Ce même cabinet estimait ainsi en 2018 que 1 768 solutions de fabrication additive métal auraient été vendues en 2017 contre 983 en 2016, (soit une hausse de 80% environ). Pour le cabinet d’audit et de conseil Deloitte, dans son rapport annuel Technology, Media and Telecommunications Predictions, le segment des matériaux d’impression 3D métal est passé de 28 % de parts de marché à 36 % entre 2017 et 2018 tandis que la part des plastiques est passée de 88 % à 65 %. Le cabinet n’hésitant pas à annoncer qu’à cette vitesse, le marché des matériaux métalliques pour la fabrication additive pourrait dépasser celui des plastiques dès 2020 ou 2021.

Les leviers de la croissance

Le marché global souffre cependant parfois d’une hésitation des clients à investir dans des équipements où les innovations sont rapides et qui pourraient donc être dépassés ou au moins bien moins performants que les machines qui sortent juste un an plus tard. SmartTech Analysis relève ainsi un certain attentisme des entreprises qui se préparent à investir mais attendent plus de maturité du marché. Le cabinet estime ainsi que pour que la croissance du marché ne soit plus limitée sur le moyen/long terme, il faudra progresser sur trois aspects essentiels : les logiciels, les services et la normalisation.

Derrière ces chiffres parfois impressionnants, notamment pour un marché extrêmement jeune et des volumes encore modestes comparés au marché global de la métallurgie, on trouve cependant des leviers solides indiquant une réelle implantation des nouveaux modes de production liés à la fabrication additive. Ainsi, la croissance s’explique en premier lieu par un début de maturité des solutions de fabrication proposées. Les machines ne sont plus seulement capables d’assurer des productions de prototypage rapide mais bien d’être compatibles avec la production de petites séries à des cadences industrielles honorables pour des produits soit haut de gamme soit très bas de gamme (imprimante métal de bureau).

En parallèle de l’amélioration des machines tant sur le plan de la productivité, de la qualité que de l’ergonomie, les technologies se sont diversifiées et certaines rendent l’accès financier à la fabrication additive métallique plus aisé (solution de Metal binder jetting par exemple comparée à des solutions de fusion par laser). Les matériaux continuent d’évoluer et le choix s’est beaucoup élargi permettant à de nouvelles industries de s’intéresser à ces nouvelles technologies. Enfin, ces deux dernières années ont vu l’arrivée de géants de l’industrie métallique s’emparer du marché : GE, HP pour les machines ou encore la création de véritables sociétés de services proposant des solutions clés en main pour les industries (sur le modèle d’Add-Up en France). Par ailleurs, au niveau des industriels eux-mêmes, le travail de qualification des processus de fabrication mené depuis parfois plus de 10 ans (notamment dans l’aéronautique et le spatial) porte désormais ses fruits et depuis quelques mois, on ne compte plus les pièces métalliques imprimées en 3D qui sont intégrées à des avions, hélicoptères, satellites etc.

Ce marché jeune est donc en pleine croissance et en pleine structuration et devrait voir dans les années à venir ses volumes et ses revenus continuer de croître avec des acteurs qui devraient se concentrer de plus en plus pour soit opérer sur l’ensemble de la filière soit pouvoir offrir plus de services et de solutions au cas par cas à leurs clients.

Rencontres et conférences pour la journée des Nations Unies

L’UNESCO reçoit les jeunes lors de la journée des Nations Unies, célébrée chaque année le 24 octobre. Un jour anniversaire qui marque l’entrée en vigueur de la Charte des Nations Unies en 1945 et donc l’acte de naissance des Nations Unies.

A cette occasion, sept agences des Nations Unies seront présentes à Paris : le Centre régional d’information des Nations Unies (UNRIC), le Comité ONU Femmes France, le Haut-Commissariat des Nations Unies pour les réfugiés (HCR), le Programme alimentaire mondial (PAM), le Programme des Nations Unies pour l‘environnement (PNUE), l’Organisation des Nations Unies pour l’alimentation et l’agriculture (FAO) et l’Organisation des Nations Unies pour l’éducation, la science et la culture (UNESCO).

Des rencontres pour échanger

Pour célébrer la journée des Nations Unies, l’organisation part à la rencontre de son public. Les étudiants et les jeunes, en particulier, sont attendus pour échanger autour des actions, des programmes ainsi que les Objectifs de développement durables (ODD). D’autres acteurs participent à cette journée, tels que l’Association française pour les Nations Unies (AFNU) et le Ministère français de l’Europe et des Affaires étrangères.

Des conférences pour apprendre

Outres les espaces d’échanges, deux sujets de conférences vont rythmer cette journée :
– « S’engager et travailler pour les Nations Unies », à 10 heures et à 15 heures
– « Villes durables pour tous », à 13 heures, avec la participation de Thierry Happe, président et co-fondateur de Netexplo, observatoire indépendant de l’innovation digitale, de Philippe Saurel, maire de Montpellier, ville membre du Réseau mondial UNESCO des villes apprenantes et des représentants des agences Nations Unies. (*Objectif 11 Villes et communautés durables, parmi les 17 Objectifs de développement durables à atteindre d’ici à 2030.)

À la fin de la conférence sur les « Villes durables », le Challenge CAMPUS 2030 sera lancé. Tous les étudiants sont invités à participer à ce challenge, en imaginant le campus de demain, un campus plus durable et plus solidaire.

Voici le lien pour s’inscrire à cette journée des Nations Unies le 24 Octobre 2019 de 10 heures à 17 heures à la Maison de l’UNESCO : https://fr.unesco.org/feedback/241019-rsvp

Un hydrogel thermosensible à base de protéines pour l’administration ciblée de médicaments

Les hydrogels sont des réseaux 3D de polymères capables de passer de l’état de liquide à celui de gel sous l’influence de facteurs physico-chimiques tels que la température ou l’acidité. Comme le corps humain est lui-même constitué d’une multitude d’environnements, les hydrogels sont ainsi particulièrement intéressants pour l’administration ciblée de médicaments.

Un hydrogel à base de protéines

La synthèse d’hydrogels a cependant l’inconvénient d’utiliser des agents de réticulation dont la toxicité est incompatible avec un usage dans le corps humain. Il est donc nécessaire d’ajouter une étape d’extraction à leur processus de fabrication. Pour contourner ce problème, l’équipe du professeur Jin Kim Montclare de la NYU Tandon School of Engineering vient de créer un hydrogel conçu à partir d’une protéine. Cet hydrogel biocompatible est, d’après Montclare, “le premier hydrogel thermosensible conçu à partir d’une protéine à spirale enroulée et capable de passer de l’état de solution à celui de gel, par un procédé d’auto assemblage, sans l’aide d’un agent extérieur et à basse température”.

Des essais d’encapsulation concluants

La conception de l’hydrogel n’était que la première phase. Par la suite, des essais d’encapsulation ont été menés dans le but de démontrer l’efficacité de cet hydrogel pour le transport in vitro de médicaments. Pour simuler ce transport, les chercheurs ont choisi la curcumine (le pigment principal du curcuma) comme molécule à encapsuler.

Les résultats, publiés dans la revue américaine BioMacromolecules, indiquent que la liaison curcumine/protéine augmente la stabilité thermique et l’intégrité mécanique de l’hydrogel. Les analyses de structure et les essais de microscopie révèlent par ailleurs la présence d’un enchevêtrement de nanofibres de la protéine, ce qui crée une matrice poreuse permettant d’emprisonner de petites molécules hydrophobes telles que la curcumine.

Les prochains travaux de ce groupe de chercheurs porteront sur la conception d’hydrogels programmés pour répondre de manière précise à des températures déterminées.

Bientôt l’administration ciblée de médicaments ?

L’administration ciblée de médicaments et la nano médecine font partie des thèmes de recherche en vogue en raison des progrès immenses qu’ils laissent entrevoir en médecine. Les projets de recherche se multiplient partout à travers le monde, y compris en Europe, notamment à travers la plate-forme de financement EuroNanoMed qui a lancé en 2019 un appel à projet transnational sur la nano médecine.

Source

Les voitures autonomes menacent les centres-villes

Le développement non contrôlé des voitures autonomes pourrait augmenter considérablement les embouteillages dans les villes européennes. Sans réglementation, le trafic pourrait augmenter de 50 % à 150 %. Cela entraînerait une hausse des émissions de CO2 dû aux voitures de 40 % d’ici 2050. Cette envolée enterrerait la possibilité d’atteindre les  objectifs climatiques européens.

Dans son nouveau rapport, l’ONG Transport & Environnement prédit une réduction drastique des prix des véhicules autonomes. De plus en plus confortables et de moins en moins chers, ces véhicules rouleraient davantage et gagneraient des parts de marché sur les transports en commun et les déplacements en vélo.

Réglementer les applications sans chauffeur

En ligne de mire de la Fédération européenne pour le transport et l’environnement se trouvent en particulier les applications, telles que Uber. En pilotant des services de véhicules automatisés, elles encourageront de nouveaux trajets et conduiront à davantage de kilomètres parcourus, augmentant les émissions et aggravant la congestion. Lorsque les voitures actuellement avec chauffeur seront automatisées, les tarifs pourraient chuter de plus de 50%. Alors, la demande se multipliera.

« Nous avons un besoin urgent de politiques garantissant que tous les véhicules de type taxis et autobus opérant dans les grandes villes n’émettent pas d’émissions d’ici 2025, avec des incitations pour les trajets partagés et une réduction progressive des places de stationnement disponibles pour les voitures particulières », prévient Yoann Le Petit, nouvel expert en mobilité chez T & E

Réduire la place de la voiture en ville

Des solutions existent pour contrer ce funeste destin. Les experts incitent les villes à refuser l’accès des centres villes aux voitures autonomes thermiques. Ils proposent de réduire progressivement l’espace dédié aux voitures et déployer en parallèle des voitures électriques partagées et autonomes. Cela pourrait réduire la congestion des villes de 60%.

Au programme : la réduction des places de stationnement, des routes plus étroites, moins de voies réservées aux voitures. Mais aussi l’amélioration des transports en commun et la mise en place de plans de circulation pour réguler les flux de voitures privées dans les villes. Ce changement dans la planification urbaine, associé au passage à des véhicules zéro émission, permettrait de se mettre sur la voie d’une décarbonisation des transports d’ici 2050.

« L’automatisation, l’électrification et le partage sont trois révolutions qui peuvent transformer notre façon de nous déplacer, analyse Yoann Le Petit. Mais, que ce soit une bonne chose pour l’environnement ou pour la qualité de vie de nos villes dépend entièrement des choix que font les gouvernements ». Avant d’ajouter : « Si nous voulons une mobilité durable, nous devons interdire les voitures sans conducteur équipées de moteurs à combustion et réduire progressivement l’espace disponible dans les villes pour les voitures. »

Des nanoémetteurs thermiques sélectifs

21Avant d’être supplantées par la technologie LED, les ampoules à incandescence étaient surtout connues pour leur capacité à émettre de la lumière dans le visible. Néanmoins, cette technologie a d’autres utilisations moins connues du grand public. En effet, l’incandescence reste à l’heure actuelle le moyen le plus simple de produire un rayonnement infrarouge. Ainsi, le fonctionnement des technologies de détection infrarouge dépend toujours de ce type de source.

Une source de rayonnement thermique accordable

À l’Université de Rice, à Houston au Texas, l’équipe de chercheurs du professeur assistant Gururaj Naik a créé un nouveau type de de sources incandescentes à la fois lumineuses, directionnelles et surtout dont la longueur d’onde est accordable. Comment ? En repensant la manière de concevoir les émetteurs thermiques infrarouges.

Une agrégation de nanoémetteurs thermiques sélectifs

Les sources lumineuses ont longtemps été considérées comme des sortes de « boîtes noires » que l’on tentait d’exploiter au mieux. Mais les chercheurs ont eu une idée innovante : découper la source lumineuse en plusieurs éléments et les faire interagir. Chaque sous-élément a ainsi une fonction qui lui est propre, par exemple apporter de la luminosité ou un rayonnement sur des longueurs d’onde spécifiques.

Un fonctionnement basé sur la physique quantique

Alors que les métaux sont connus comme étant des émetteurs très lumineux, ils ont malheureusement une sélectivité faible. À l’inverse, les semi-conducteurs sont des émetteurs très sélectifs, mais dont la luminosité est basse.

Concrètement, les chercheurs du « Rice University engineering laboratory » ont réussi à combiner les propriétés de ces deux éléments complémentaires à l’aide de la physique quantique. Alors que les deux oscillateurs (de taille submicronique) qu’ils ont créés demeurent passifs à température ambiante, il se produit un couplage électromagnétique lorsqu’ils sont chauffés à 700 °C. Ainsi, lorsque l’oscillateur métallique émet suffisamment de rayonnement thermique, le disque en silicium devient capable de stocker et de libérer de la lumière de manière contrôlée.

Des applications dans de nombreux domaines

En associant ces deux matériaux, les chercheurs ont créé ce qu’ils appellent une transition de phase optique (optical phase transition), ce qui rend ce couplage extrêmement sensible aux perturbations extérieures. Par conséquent, l’utilisation de composants basés sur cette technologie nanophotonique permettrait de concevoir des capteurs ultra-performants.

Enfin, alors que les technologies utilisant les semi-conducteurs au silicium semblent montrer leurs limites, les commutateurs optiques sont annoncés par l’ITRS (L’International Technology Roadmap for Semiconductors) comme successeurs désignés. Le système développé par l’équipe du professeur Naik peut ainsi être considéré comme une avancée majeure en ce domaine.

Source

Réseaux de chaleur et de froid : un coup de pouce ?

Le 7 octobre, à Reims, Elisabeth Borne, la ministre de la Transition écologique et solidaire (MTES), et Emmanuelle Wargon, secrétaire d’Etat, ont présenté ces mesures destinés « à promouvoir le développement des réseaux de chaleur et de froid en France ». Celles-ci sont organisées autour de cinq grands axes :

  • accroître la mobilisation et l’attractivité des réseaux ;
  • améliorer l’information et la protection des consommateurs ;
  • renforcer la compétitivité économique des réseaux ;
  • contribuer au verdissement de l’énergie délivrée par les réseaux ;
  • valoriser l’innovation et investir dans la recherche et le développement.

Les réseaux de chaleur et de froid jouent un rôle indispensable pour massifier les énergies de chauffage sans carbone, ou constituent des systèmes de production et de distribution de froid efficaces au plan énergétique et environnemental. Le projet de Programmation pluriannuelle de l’énergie (PPE) prévoit d’ailleurs, dans son état actuel, une augmentation de 74 % de la chaleur de réseau d’ici à 2023. Une chaleur qui devra « verdir », insiste le MTES. Le gouvernement envisage ainsi d’augmenter le taux d’énergies renouvelables et de récupération (ENR&R) nécessaire pour être éligible à la TVA à 5,5 % ; il pourrait être fixé à 55% en 2025 et à 60% en 2030, contre 50 % actuellement.

Cœur du dispositif, le Fonds chaleur

Le Fonds chaleur est géré par l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe). L’enveloppe du Fonds chaleur devrait atteindre 290 millions d’euros en 2019, et pour 2020, sa dotation initiale atteindrait les 350 M€. En 2018, alors que la dotation initiale était de 208 M€, 259 M€ ont été engagés, rappelle le MTES. L’enveloppe pour 2020 s’inscrit dans un contexte de gel de la contribution climat-énergie (CCE) ou taxe carbone qui a « un impact significatif sur la compétitivité des réseaux de chaleur », souligne le MTES dans son dossier de presse sur les mesures. En revanche, dès 2021, « la trajectoire d’augmentation du Fonds chaleur » sera revue « afin de compenser le gel de la CCE si la reprise d’une trajectoire de hausse de cette dernière n’est pas décidée d’ici là ».

Le MTES se fixe comme ambition, via une campagne ad hoc de communication, de toucher quelque 50 à 60 collectivités sans réseau par an. D’autres mesures visent à favoriser ces réseaux qui souffrent souvent de la concurrence avec le gaz naturel.

Le Syndicat des énergies renouvelables (SER) a accueilli avec satisfaction ces mesures qui « visent notamment à améliorer la compétitivité des réseaux ». Il se félicite également de la possibilité d’attribuer des certificats d’économies d’énergie (CCE) pour des raccordements sur des réseaux qui bénéficient de l’aide du Fonds chaleur et de celle d’augmenter le plafond d’éligibilité des aides au forfait de ce dispositif.

De son côté, la FNCCR (Fédération nationale des collectivités locales et concédantes), qui est à la pointe du dispositif depuis des années, signale des « bonnes nouvelles ». Elle donne l’exemple des prochains outils développés par l’Ademe avec notamment le concours de la FNCCR mis en ligne d’ici la fin de l’année, tout comme la cartographie ViaSèva plus visible et le site observatoire-des-réseaux.fr. Autres moyens mis en place : l’adoption du principe d’un bonus Fonds Chaleur pour les projets participatifs – mesure fortement portée par la FNCCR – dans la logique des actions menées dans les ENR électriques, et l’actualisation régulière du schéma directeur, qui va contribuer à renforcer le réseau de chaleur en outil d’aménagement. La FNCCR va s’atteler à l’ouverture de la réflexion sur la tarification aux côtés de tous les partenaires qui voudront s’impliquer en raisonnant en approche globale de modèle économique des réseaux de chaleur.

En revanche, la Fédération regardera avec vigilance certains points, notamment l’augmentation du taux de 50% à 55% (2025) puis 60 % (2030) pour bénéficier de la TVA à taux réduit qui se fait dans un calendrier maîtrisé ; des points de vigilance seront portés par la FNCCR, notamment sur certains cas à sortir de cette obligation, comme les réseaux géothermiques.

Des indicateurs pourtant au vert

Les réseaux de chaleur se font à partir de la chaleur fatale, de la géothermie, des ressources forestières locales gérées durablement, de la chaleur en cogénération via des unités de méthanisation territoriales, ou encore de l’énergie du soleil avec le solaire thermique.

Le développement des réseaux de chaleur s’accompagne en effet d’un verdissement rapide de leur mix énergétique. En 2005, ils utilisaient 74% d’énergies fossiles et seulement 26% d’ENR&R. En 2017, cette part atteint 56% du mix. Il s’agit d’une hausse constante et rapide qui s’est d’ailleurs accélérée ces dernières années : 83 % des réseaux, soit 88 % des livraisons de chaleur, utilisent désormais des énergies vertes pour produire de la chaleur.

Le groupe de travail a réuni au total une centaine de participants, avec l’implication forte de plusieurs d’entre eux, notamment le Syndicat National du Chauffage Urbain et de la Climatisation Urbaine (SNCU), l’association AMORCE, la Fédération nationale des collectivités concédantes et régies (FNCCR), appuyés par l’expertise de l’Agence de l’environnement et de la maîtrise de l’énergie (ADEME), du Centre d’études et d’expertise sur les risques, l’environnement, la mobilité et l’aménagement (CEREMA), et de la Direction générale de l’énergie et du climat (DGEC), qui en assurait l’animation. Un travail en ateliers avec les membres du groupe s’est déroulé de mars à juillet 2019.

Chiffres-clés des réseaux de chaleur et de froid en France (Source MTES)

  • 760 réseaux de chaleur, principalement dans les grands centres urbains, avec une longueur cumulée de 5 397 km représentant 25 TWh de livraison de chaleur.
  • Ils alimentent à 91% des bâtiments résidentiels et tertiaires (56% sont des logements, 35% du tertiaire), les autres secteurs (industrie, agriculture) se répartissent les 9% restant.
  • 56% de la chaleur produite est d’origine renouvelable ou de récupération.
  • Cela correspond à 2,4 millions de logements ou équivalent, soit 38 212 bâtiments raccordés.
  • En 2017, avec une longueur cumulée de 198 km, les 23 réseaux de froid ont permis de livrer 1 TWh d’énergie calorifique en 2017.

Le Prix Nobel de chimie 2019 récompense la recherche sur les batteries lithium ion

Il s’agit de John B. Goodenough de l’université d’Austin au Texas (USA), M. Stanley Whittingham de l’université de Binghamton, dans l’État de New York (USA) et de Akira Yoshino (Meijo University, Nagoya, Japon).

Petit rappel historique sur l’origine des batteries Li-on.

À l’origine : la crise pétrolière des années 70

C’est en recherchant un moyen de se passer des énergies fossiles que le chimiste britannique Michael Stanley Whittingham a découvert le potentiel immense du TiS2, un matériau à la densité d’énergie très forte. Il l’utilisa ainsi en tant que cathode dans une batterie au lithium et créa un nouveau type de pile. Néanmoins, le lithium métallique qui entrait dans la composition de l’anode rendait cette batterie trop explosive pour être utilisée.

Phase de développement dans les années 80

John Goodenough proposa ensuite de remplacer les sulfures tels que le TiS2 par des oxydes métalliques. En 1980, il démontra qu’en intercalant de l’oxyde de cobalt avec des ions lithium il était possible d’obtenir des batteries de 4 V, soit le double de la première pile de Whittingham. Cette avancée importante participa ainsi à la création de batteries plus puissantes.

Les premières batteries Li-ion

C’est en se basant sur les travaux de Goodenough que le japonais Akira Yoshino créa la première véritable batterie Li-ion en 1985. Néanmoins, au lieu d’utiliser une anode au lithium, fortement réactive, il utilisa le coke, un matériau carboné lui aussi capable de s’intercaler aux ions lithium. Le résultat fut satisfaisant : une batterie légère, hautement résistante et pouvant être chargée des centaines de fois était née.

Les batteries lithium-ion ont de l’avenir

Ce type de batterie a révolutionné notre quotidien depuis son entrée sur le marché en 1991. Sans elle, la téléphonie mobile ne serait pas ce qu’elle est aujourd’hui, pas plus que les véhicules 100% électriques.

Source

The Ocean Cleanup collecte ses premiers déchets plastiques

Sa deuxième tentative aura été la bonne. Un an après le déploiement d’un premier test à grande échelle au large de San Francisco, The Ocean Cleanup annonce le succès de son système 001/B. « Nous avons maintenant un système autonome dans le Vortex de déchets du Pacifique nord qui utilise les forces naturelles de l’océan pour capturer et concentrer passivement les plastiques, confirmant ainsi le principe le plus important derrière le système de The Ocean Cleanup », se félicite Boyan Slat, fondateur de The Ocean Cleanup. Les déchets plastiques arrêtés comprennent des plastiques de toutes tailles, s’échelonnant de microplastiques de 1 mm jusqu’à des filets de pêche fantômes.

Des avancées en un an de recherche et de tests

Une première barrière flottante de 580 mètres avait été déployée en septembre 2018 au cœur du gyre du Pacifique Nord. Fin décembre, elle avait dû être ramenée à terre à la suite de plusieurs avaries. En particulier, la barrière et les déchets se déplaçaient sensiblement à la même vitesse. Conséquence : les plastiques n’étaient pas capturés par le système.

Pendant un an, les équipes ont retravaillé le système, avant de déployer le système 001/B le 26 juin dernier à partir de Vancouver, au Canada. Après plusieurs configurations testées, l’équipe est fière d’annoncer ses nouveaux résultats. L’ajout d’une ancre avec un parachute a permis de ralentir le système. Et un nouveau design a permis d’arrêter les déchets qui passaient par-dessus les flotteurs. Désormais, le plastique est bien collecté et capturé dans le système.

Avoir un système autonome pour réduire les coûts

L’objectif initial du fondateur était d’arriver au déploiement de 50 barrières dès 2020 pour assurer le nettoyage de la moitié du plastique flottant dans les premiers mètres de ce gyre en 5 ans. Cela reviendrait à récolter 15 000 tonnes de plastiques par an. Il y aura des retards puisqu’il reste deux défis importants à relever : obtenir une durabilité du système et une rétention des plastiques à long-terme. « La clé pour avoir un système économiquement viable est de pouvoir concentrer et collecter le plastique de façon autonome sur de longues périodes de temps », précise Boyan Slat. Il ajoute qu’il faut désormais « améliorer le système pour pouvoir rester là-bas pendant un an et avoir à ne récolter le plastique que périodiquement, car le paramètre à optimiser est réellement le nombre d’heures de bateaux nécessaire pour récolter une tonne de plastique ».

Les tests continuent sur le System 001 jusqu’à fin novembre. L’équipe est déjà à pied d’œuvre pour développer le système 002, un système de nettoyage complet, qui répondra à ces besoins et que Boyan Slat compte dévoiler « aussitôt que possible ».

Repérer des personnes à travers un mur grâce au Wi-Fi

La technique proposée par Yasamin Mostofi et son équipe est appelée XModal-ID (prononcé Cross-Modal-ID). Elle permet d’indiquer si une personne se cache derrière un mur.

Pour relever ce défi, la première étape consiste à extraire une image 3D de la vidéo de la personne à l’aide d’un algorithme d’extraction de maillage 3D humain. Ensuite, les chercheurs tentent de simuler les signaux RF qui auraient été générés si cette personne marchait dans une zone de couverture Wi-Fi, par approximation des ondes électromagnétiques.

La troisième étape consiste à faire correspondre la démarche de la personne en comparant les spectrogrammes créés par les signaux Wi-Fi en temps réel et ceux de la vidéo.

Enregistrer la fréquence cardiaque…

Lors de ses expériences, l’équipe américaine a obtenu des résultats de précision situés entre 82 % et 89 %. Comme l’ont suggéré les chercheurs, cette technique serait d’une grande aide pour la police qui tente d’identifier des suspects.

Ce n’est pas la première fois que des scientifiques mettent au point un moyen d’identifier les personnes à travers les murs. En 2015, des chercheurs du Laboratoire d’informatique et d’intelligence artificielle du MIT avaient mis au point un dispositif de capture RF permettant d’identifier les silhouettes humaines à travers le mur en utilisant les réflexions du corps sur les transmissions sans fil.

Ils avaient développé un dispositif, appelé RF-Capture, qui transmettait des signaux sans fil et analysait ensuite leurs réflexions pour reconstituer une forme humaine.

Leur solution améliore un projet entamé par l’équipe du MIT dès 2013. Selon ces chercheurs, RF-Capture est suffisamment performant pour déterminer les différences subtiles dans les formes corporelles. Sa précision atteindrait les 90 %. Il peut même enregistrer le rythme respiratoire et la fréquence cardiaque d’une personne.

Suivre des objets en mouvement

Les recherches ne se focalisent pas uniquement sur la détection humaine. Des applications professionnelles sont également envisagées. En 2017, des chercheurs de l’Université technique de Munich (TUM) avaient développé un procédé d’imagerie holographique capable de générer des images 3D de l’environnement en utilisant le Wi-Fi.

« Grâce à cette technologie, nous pouvons produire une image tridimensionnelle de l’espace autour de l’émetteur Wi-Fi, comme si nos yeux pouvaient voir le rayonnement micro-ondes », expliquait Friedemann Reinhard, directeur du Emmy Noether Research Group for Quantum Sensors à l’Institut Walter Schottky de l’Université technique de Munich.

Les exploitants d’installations industrielles automatisées pourraient s’en servir pour suivre les objets en mouvement.

L’ECE forme les ingénieurs à la voiture du futur

Depuis la mi-septembre, 32 étudiants de l’école d’ingénieurs ECE Paris.Lyon suivent une nouvelle formation accessible en cinquième année, dont l’intitulé ne fait aucun mystère de la spécialisation : Véhicule Connecté et Autonome. Lors du mondial de l’auto 2018, les écoles d’ingénieur ESIEA et Estaca avaient elles aussi annoncé le lancement de filières dédiées aux véhicules autonomes.

L’automobile de demain mobilisera en effet des expertises qui rompent avec celles du passé. Moins centrée sur le moteur thermique, la valeur ajoutée se décale vers l’informatique, les télécommunications, l’intelligence artificielle… Porte-parole de cette industrie et décisionnaire de la stratégie, la Plateforme de la Filière Automobile (PFA) rappelle qu’une voiture autonome et connectée fonctionne grâce à une centaine de millions de lignes de code, sept fois plus qu’à bord d’un Airbus A380. En 2040, le système embarqué pourrait représenter la moitié du coût de développement du véhicule.

Combinée aux changements technologiques (émergence des motorisations électrique ou hybride…) et sociétaux (la voiture n’est plus un bien mais un moyen), cette vague numérique bouleverse les métiers. « Les opérateurs de production risquent de disparaître dans les cinq à dix ans, prévient Emmanuelle Peres, directrice générale adjointe de la PFA. D’autres métiers devront se reconvertir ou monter en compétence, la tendance s’accélérant. Enfin, de nouveaux profils se développent dans la conception et l’innovation. Mais ces postes sont difficiles à pourvoir ». Dès lors, l’industrie automobile, qui prévoit de recruter 8000 ingénieurs par an d’ici à 2022, pourrait se retrouver sous tension.

Préparer des ingénieurs pour 2030

La crainte de la pénurie a motivé la création de cette majeure au sein de l’ECE, bientôt centenaire, dont les cursus se focalisent sur les nouvelles technologies. Après un appel à projets, la proposition de cette école a été retenue par la PFA, qui dispose d’un budget de 18 millions sur cinq ans (cofinancé à moitié par l’État) pour élaborer les modules de formation. C’est l’un des premiers résultats concrets de la feuille de route signée en mai 2018 par la PFA et le gouvernement, afin que la filière automobile s’adapte aux nouveaux enjeux : le véhicule électrique, le véhicule autonome et connecté (le projet d’expérimentation SAM est en cours), le développement de la compétitivité et l’acquisition de nouvelles compétences pour une mise à niveau des métiers, donc. Et cette dernière ne s’envisage pas sur le court terme. « Grâce à cette formation, on se prépare pour les années 2025-2030, reconnaît Hervé Gros, directeur général de la Société des ingénieurs de l’automobile (SIA). La moitié des compétences recherchées ne seront pas satisfaites en 2022, si tant est qu’on les connaisse exactement ».

Dans le détail, le programme compte 190 heures de cours théorique et se compose de quatre modules : conception de l’architecture système/logicielle/électronique, fonctionnement en autonomie (capteurs, IA…), connectivité (cybersécurité, télécommunications…) et usage (enjeux générationnels, attentes des clients…). Les intervenants responsables de l’enseignement exercent dans les sept entreprises partenaires, à savoir AVL, Faurecia, PSA, Renault, Transdev, Valeo et Vector. La pédagogie est complétée par des projets de réalisation technique, en collaboration avec des industriels, et un stage de 100 jours au minimum. L’ECE envisage une centaine d’élèves dans cette filière d’ici à trois ans.

Vers la bioimpression de tissus fonctionnels

C’est le grand défi de la bioimpression : rendre les tissus fonctionnels pour pouvoir les implanter sur des êtres humains. “Il est beaucoup plus simple de réaliser un tissu qui ressemble à un tissu humain – une composition de cellules – que de faire un tissu avec une fonction” confie Christophe Marquette, coordinateur de la plateforme 3DFab de Lyon dont une partie des travaux concerne l’impression de peau pour grands brûlés. Cette fonction est par exemple la solidité du tissu ou encore son élasticité. Nous sommes encore loin des organes artificiels implantables sur l’humain, mais les réalisations récentes – au-delà de nos frontières – montrent que les travaux sont sur la bonne voie.

Des cœurs humains

La création d’un organe fonctionnel, à partir de cellules prélevées directement sur le patient, offre un espoir pour les personnes en attente d’une greffe. L’utilisation des propres cellules du futur hôte permettrait ainsi d’éviter les potentiels rejets d’une transplantation d’organe étranger. Deux cœurs de petite taille imprimés en 3D ont été dévoilés cette année.

Le premier, en avril, a été conçu par une équipe de recherche israélienne de l’université de Tel Aviv à partir de cellules souches. Pour concevoir l’encre, les scientifiques ont utilisé des cellules du tissu adipeux qu’ils ont reprogrammées en cellules souches pluripotentes induites, puis différenciées en cardiomyocytes (cardiaques) et endothéliales (vaisseaux sanguins). La matrice extracellulaire est transformée en hydrogel. Les deux types de cellules sont ensuite combinés séparément avec l’hydrogel pour réaliser l’encre destinée aux tissus cardiaques et de vaisseaux sanguins. Le réseau de vaisseaux est, selon les chercheurs, “encore limité”. L’évolution des techniques d’impression permettant leur réalisation avec précision pourrait changer la donne.

Le second, de l’entreprise américaine Biolife4D, est un mini-cœur fonctionnel. La société a mis au point une encre composée d’éléments de la matrice extracellulaire reproduisant les propriétés du cœur des mammifères. Des cellules sanguines ont été reprogrammées en cellules souches pluripotentes induites pour ensuite les différencier en cellules cardiomyocytes. Ces cellules ont été couplées à la bio-encre pour imprimer le cœur.

Des techniques de vascularisation

D’autres équipes de recherche travaillent quant à elles sur des techniques pour vasculariser les tissus et permettre leur fonctionnement. C’est le cas des scientifiques des universités de Rice et de Washington qui ont mis au point une technique s’appuyant sur la photopolymérisation, en utilisant des cellules vivantes et des hydrogels, pour imprimer des réseaux vasculaires complexes. Celle-ci permet de réaliser des réseaux vasculaires enchevêtrés complexes qui imitent les réseaux naturels pour le passage de fluides tels que l’air, le sang ou encore la lymphe. Pour démontrer leur technique, les scientifiques ont imprimé une petite poche d’air entourée de vaisseaux sanguins afin de montrer la robustesse des vaisseaux lors de la circulation sanguine. En se remplissant d’air et en se dégonflant, elle reproduit le mécanisme naturel d’un poumon.

Les scientifiques de l’institut Wyss de Harvard se sont penchés quant à eux sur une autre technique : “l’écriture sacrificielle”. Celle-ci consiste à imprimer des vaisseaux sanguins dans une matrice composée de tissus dérivés de cellules souches, puis à retirer l’encre pour laisser place à des canaux fonctionnels. L’équipe a réussi à créer du tissu cardiaque capable de battre de manière synchrone pendant sept jours.

Bioimpression : “Le challenge est de faire de la peau avec une tenue mécanique que l’on pourra suturer”

Les techniques ont-elles évoluées ? Comment fabrique-t-on un tissu biologique ? Quels sont les challenges à relever ? Pour faire le point sur l’avancée de la bioimpression en France, nous avons interrogé Christophe Marquette, coordinateur de la plateforme 3DFab créée en 2015 à Lyon, et spécialisée dans la fabrication additive pour les applications médicales. Le biochimiste réalise des recherches sur les matériaux pour qu’ils puissent être implantables en 3D, comme des tissus pour la greffe ou des implants sur mesure.

Depuis la création de la plateforme 3DFab en 2015, comment la bioimpression a-t-elle évolué en France ?

Les techniques sont beaucoup plus matures. Nous avons accès à des outils performants en bioimpression, inspirés des techniques de l’impression du plastique comme l’encre chargé en cellules. On utilise par exemple des techniques d’extrusion, une sorte de seringue qui réalise des traits fins de pâte. Le dessin en 3D se réalise par pression sur la buse. Il existe également des technologies hybrides extrusion – jet d’encre pour les cellules n’aimant pas la pâte, comme celle de la rétine n’étant pas engluée dans un film plus épais. Il y a encore des choses à améliorer, mais la technique est plutôt bien rodée. En fonction de la qualité des machines, on va avoir des choses plus précises, mieux résolues et plus reproductibles.

Comment imprime-t-on un tissu ?

On n’imprime pas le tissu, on imprime la cellule vivante dans de la gelée. Pour devenir un tissu, il faut la laisser maturer. C’est comme faire murir un fruit, cela prend du temps. Pour faire une peau par exemple, il nous faut 20 minutes afin d’imprimer une surface de 10 x 10 cm et 2 à 3 semaines pour qu’elle devienne de la peau. La grande partie de la recherche se focalise sur l’accélération de la maturation des cellules. Et comment s’en servir pour devenir un tissu fonctionnel avec vascularisation.

Rendre un tissu fonctionnel, est-ce le challenge de la bioimpression ?

Pour le moment, il n’existe pas – ou de manière anecdotique – de tissu fonctionnel qui s’implante. Il existe des choses cellularisées, mais pas de tissu réimplanté. Le challenge est de faire de la peau, avec une tenue mécanique, que l’on pourra suturer. Il faut que la peau devienne solide. Cela fait partie de ce que l’on appelle la post-impression. Il est beaucoup plus simple de réaliser un tissu qui ressemble à un tissu humain, qui n’est qu’une composition de cellules, que de faire un tissu avec une fonction. Par exemple, de rendre élastique une peau imprimée. Pour y parvenir, on active la synthèse d’élastine et on organise les fibres de collagène par stimulation mécanique.

C’est un domaine sur lequel vous travaillez ?

Nous avons tout un pan sur l’impression de peau pour les grands brûlés. Nous sommes en phase pré-clinique mais nous ne ferons pas la première implantation sur l’homme avant 2 ans. Pour pouvoir implanter sur une personne, il faut entre 10 et 20 ans. On doit passer toutes les barrières réglementaires, faire des tests pré-cliniques sur des modèles expérimentaux pour avoir suffisamment de données en toxicologie et efficacité in vivo. En d’autres termes, montrer que ce n’est pas dangereux. Et fabriquer de la peau est une technique simple, car on le fait directement sur la personne avec un bras robotique qui se déplace au-dessus des surfaces. La maturation se fait sur la personne, le tissu devient fonctionnel automatiquement. La peau, le vasculaire et le cartilage sont en essai pré-clinique.

D’où proviennent les cellules utilisées ?

Soit d’une banque de tissus, soit du patient directement. On lui fait une biopsie pour prélever des cellules que l’on fait ensuite multiplier en laboratoire avant l’impression. En général, on laisse multiplier les cellules pendant 2 à 3 semaines pour pouvoir imprimer un tissu de grande taille. Cela va dépendre des cellules et de leur dynamisme. Utiliser les propres cellules du patient est une stratégie de bio-impression en médecine régénérative. Cela permet de pallier la greffe d’un organe ou d’un tissu d’une personne tierce, pouvant engendrer des complications ou des rejets. D’ailleurs, il est plus simple de prendre un organe chez une personne décédée pour l’implanter que d’en fabriquer un. Notre objectif est d’éviter les rejets en les fabriquant depuis les cellules du patient.

Faut-il une taille minimum pour être exploitable ?

Pour avoir un intérêt anatomique, les veines, les artères, la peau doivent faire au moins 10 centimètres, la taille caractéristique minimum de ces tissus. Le cartilage n’a pas besoin d’être grand car il est remplacé par petite partie. Si le tissu doit être réimplanté, il doit être compatible avec la forme finale. De plus, on peut fabriquer un tout petit tissu avec succès, mais lorsqu’on souhaite le faire en plus grand, on peut se heurter à des problèmes techniques ou de faisabilité. Le passage à l’échelle requiert la vascularisation, la tenue de l’objet sous son propre poids et la capacité à obtenir assez de cellules.

Y a-t-il un intérêt des cellules souches en bioimpression ?

L’intérêt des cellules souches est d’avoir une culture que l’on peut différencier en fibroblaste (cellule des tissus conjonctifs, qui a une fonction de soutien et de protection des autres tissus, ndlr), chondrocyte (qui forme le cartilage, ndlr), etc. Mais ces cellules différenciées, comme la peau ou le foie, nécessitent justement une étape de différenciation. Cela prend plus de temps. Les cellules chondrocytes sont quant à elles plus difficiles à mettre en culture. En France, on peut utiliser des cellules souches de lipoaspiration de tissu graisseux, pour faire du cartilage ou du lipoderme. On ne peut pas implanter des cellules IPS (cellules souches pluripotentes induites, des cellules fabriquées en laboratoire, ndlr), contrairement au Japon.

Découvrez l’impression de tissu : démonstrations 1 et 2