Web-découvertes « Simulations – Essais », une série de webinars « Cetim Academy » en accès libre

Les outils de simulation font partie intégrante des démarches proactives de conception/investigation tant au niveau des produits que des process.
Les essais, normalisés ou non, restent une étape de validation capitale dans le processus de mise sur le marché des produits.
Maîtriser le couplage essai/simulation devient crucial pour répondre aux enjeux de coût/qualité/délais.

Profitez de cette série de webinars pour mettre à jour, dans vos activités, les outils de simulation par leur contribution, leur mise en œuvre, leurs capacités de capitalisation des savoir-faire.

Les enjeux sont déterminants :

Anticiper les difficultés de mise au point en limitant les risques et en assurant le résultat.
Réduire les délais de développement des produits et se positionner en leader du « Time to Market ».
Valider rapidement les composants ou les produits à mettre sur le marché.
Capitaliser les réussites et les erreurs de conception qui constituent une base données précieuse pour vos futurs développements.

Les + du Cetim :

Des services orientés métiers pour réussir les étapes clés de vos processus de conception ou d’investigation.
Des plateformes dédiées et configurables pour pratiquer vos essais ou développer vos futurs bancs d’essais.
Plus de 450 formations Cetim Academy® disponibles en présentiel ou en classe virtuelle, en inter ou en intra.

Les Web-découvertes du parcours « Simulations – Essais » :

Web-découvertes « Ingénierie », une série de webinars « Cetim Academy » en accès libre

Les outils et les méthodes au service de l’ingénierie, à l’heure de la digitalisation, évoluent et permettent de mettre en place de nouvelles activités au sein de votre entreprise dans les phases de conception et d’industrialisation.

Profitez de cette série de webinars pour faire un point sur ces boosters de l’ingénierie, afin de concevoir tant les composants que les sous-ensembles, et leurs procédés associés.

Les enjeux sont déterminants :

Optimiser la phase de conception et manager les équipes de façon transversale.
Se préparer sans prise de risque à l’intégration de nouvelles activités qui feront la différence.

Les + du Cetim :

Des moyens et des services à votre disposition pour évoluer vers des modes d’ingénierie plus collaboratifs et plus agiles.
Plus de 450 formations Cetim Academy® disponibles en présentiel ou en classe virtuelle, en inter ou en intra.

Les Web-découvertes du parcours « Ingénierie » :

Web-découvertes « Fabrication-Contrôle », une série de webinars « Cetim Academy » en accès libre

Les technologies de fabrication évoluent et se fiabilisent.
Par ailleurs, dans un contexte d’exigences accru, le domaine du contrôle évolue très vite grâce aux nouvelles technologies d’investigation, la numérisation des données, leur intégration progressive au sein des process.

Profitez de ces présentations pour faire un tour d’horizon des technologies de fabrication abouties qui pourraient changer la donne. Affinez ou repensez vos processus de contrôle afin d’optimiser les délais et les coûts, tout en respectant les contraintes de vos clients.

Les enjeux sont déterminants :

Stabiliser ses process et anticiper les dérives pour garantir sa performance auprès de ses clients.
Rester dans la course et se différencier grâce aux outils et méthodes de contrôle les mieux adaptés à ses productions.
Ne pas manquer une étape clé dans son déploiement technologique, source de gains et de différentiation.
Intégrer ces nouvelles technologies en anticipant leurs contributions et leurs problématiques de cohabitation avec ses procédés connexes.

Les + du Cetim :

Une capacité unique, des plateformes et laboratoires pour valider des faisabilités technologiques, un accompagnement jusqu’à l’industrialisation.
Plus de 450 formations Cetim Academy® disponibles en présentiel ou en classe virtuelle, en inter ou en intra.

Les Web-découvertes du parcours « Fabrication-contrôle » :

La chasse aux exoplanètes : mode d’emploi

Développé par la NASA et les Agences spatiales européenne (ESA) et canadienne (ASC), le télescope spatial James-Webb sera lancé vers mars 2021. “Il promet de révolutionner la science, souligne Xavier Bonfils, astrophysicien à l’Institut de planétologie et d’astrophysique de Grenoble. Ce télescope permettra de savoir facilement si des exoplanètes ayant la taille de la Terre possèdent également une atmosphère qui contient de l’eau. On fera donc beaucoup de progrès dans la connaissance des planètes propices à la vie”

Vision d’artiste du télescope spatial James-Webb /Northrop Grumman/NASA

Un autre projet ambitieux est celui de l’Observatoire européen austral (ESO) : le Télescope géant européen qui, lui, sera installé sur Terre.

Vue d’artiste du Télescope géant européen /ESO/L. Calçada/Creative Commons

Déterminer la densité d’une exoplanète

“Il y a beaucoup de “si” qui planent, remarque Xavier Bonfils. Plusieurs exoplanètes sont à ce jour considérées comme potentiellement habitables, candidates de part leur taille similaire à celle de la Terre, mais il faut savoir si elles ont une atmosphère et quelle en est la composition, si elles présentent un effet de serre, quels types de nuages s’y forment… Et pour ce faire, une démarche rationnelle a été adoptée”. À l’heure actuelle, les techniques de mesure pour explorer les exoplanètes restent indirectes puisque la lumière de l’étoile surpasse tellement celle de sa planète qu’un télescope est vite “ébloui”. La méthode historique pour détecter une exoplanète est celle des vitesses radiales. Il s’agit de déterminer la masse de la planète extrasolaire grâce à la mesure des changements de vitesse radiale de son étoile. En effet, le système planète-étoile tourne autour d’un barycentre et cette révolution cause l’approche et l’éloignement périodiques de l’étoile par rapport à l’observateur, résultant en un décalage spectral périodique. Cette méthode donne la masse de la planète en fonction de l’inclinaison de l’orbite (qui reste inconnue). 

Représentation de la révolution d’une planète et de son étoile autour d’un barycentre commun /Domaine public

Une autre méthode est celle des transits ou des éclipses. Si par hasard l’orbite d’une planète est alignée avec notre ligne de visée, les planètes peuvent occulter une partie de leur étoile, créant ainsi une baisse de luminosité. On connait alors la taille de la planète et l’inclinaison de l’orbite.

En combinant ces deux méthodes, “nous obtenons la masse et le rayon, précise Xavier Bonfils, nous pouvons alors mesurer la densité qui nous permet d’estimer si l’exoplanète est rocheuse ou gazeuse”

Connaître la composition de son atmosphère

Mais qu’en est-il de l’identification de son atmosphère ? “On peut à nouveau utiliser la méthode des transits, répond le chercheur. Si la planète a une atmosphère, cette pellicule de gaz fait apparaître le disque légèrement plus grand. Nous mesurons donc la profondeur de transit [variation relative de la luminosité apparente de l’étoile du fait du transit, NDLR], selon différentes longueurs d’onde, et si celle-ci varie, cela signifie que la planète a une atmosphère – qui doit être transparente à certaines longueurs d’onde et opaque à d’autres”

C’est cette même méthode qui permet de déterminer la composition de l’atmosphère ! En effet, les composés chimiques absorbent la lumière à des longueurs d’onde spécifiques. C’est ainsi que l’on peut par exemple repérer la signature de l’eau dans une exoplanète. Cependant, tempère Xavier Bonfils : “Nous n’avons réussi à détecter de la vapeur d’eau en utilisant cette méthode que sur des exoplanètes qui font plusieurs fois la taille de la Terre, comme des géantes gazeuses et des planètes aussi grandes que Neptune. La plus petite exoplanète sur laquelle ça a marché est K2-18b, découverte il y a quelques mois, qui a un rayon faisant deux fois et demi celui de la Terre. Mais cette eau détectée ne peut se trouver que sous forme d’un type particulier de glace, l’atmosphère étant tellement épaisse qu’elle doit exercer une très grande pression”

Vers une meilleure détection

L’Observatoire européen austral est en train de construire, dans le désert de l’Atacama au Chili, un télescope dont le miroir primaire fera 39 mètres de diamètre : le Télescope géant européen. Avec sa puissante résolution angulaire, il permettra de séparer la planète de son étoile et en capturer des images. “Pourront ainsi être détectées les exoterres tempérées et habitables qui gravitent autour d’étoiles vraiment proches, précise l’astrophysicien. Ce télescope sera équipé de plusieurs instruments dont un qui permettra d’isoler la lumière de la planète de celle de son étoile. Nous pourrons alors plus facilement analyser la lumière dans son atmosphère et, en fonction de son spectre de couleurs, savoir d’une part si les variations spectrales sont indicatrices de signatures de la vie – comme l’eau – et d’autre part remonter à la composition chimique de l’atmosphère”. L’entrée en service de ce télescope est prévue pour 2024. 

Le confinement aura-t-il raison du recyclage ?

« La situation actuelle est extrêmement difficile pour notre secteur et toute l’industrie, partage Jean-Luc Petithuguenin, président de la fédération des entreprises du recyclage (Federec) et président de Paprec. Nous connaissons en moyenne une baisse d’activité de 50 % ». L’activité la plus touchée concerne le recyclage des métaux. « La baisse d’activité pour les métaux se situe entre 80 et 90 % », assure Jean-Luc Petithuguenin. Le recyclage des papiers-cartons et des plastiques connaît pour sa part une baisse d’activité d’environ 30 %. Les professionnels craignent aussi une baisse des collectes de verre ménager.

L’activité économique tourne au ralenti depuis plus de trois semaines. Pour évaluer l’impact du Covid-19 sur le recyclage, Federec a mené une enquête auprès de ses adhérents. 149 entreprises et 851 établissements ont répondu, représentant 84 % des établissements adhérents. Ainsi, selon Federec, 71 % des entreprises du secteur du recyclage déclarent continuer leur activité, 78 % de leurs établissements restent ouverts. Si la plupart des déchetteries municipales ont fermé leurs portes, 73 % des déchetteries professionnelles restent ouvertes, mais connaissent un faible taux d’activité. En plus, selon Citeo, 57 % des centres de tri étaient ouverts au 1er avril, assurant 62 % des capacités de traitement théoriques.

Une dépendance du secteur à l’activité économique

Les déchets collectés par les entreprises du recyclage proviennent à 70 % d’entreprises et à 30 % des ménages. « On travaille d’abord pour l’industrie et l’arrêt de beaucoup d’industriels nous pénalise énormément », assure Jean-Luc Petithuguenin. En amont, l’activité des entreprises du recyclage dépend de l’approvisionnement en déchets des entreprises, des collectivités et des particuliers. En aval, elle dépend des besoins de ses clients en matières recyclées. Le ralentissement industriel a donc un impact direct sur les entreprises du recyclage. « En amont, énormément d’industriels ont arrêté leur activité, notamment tout le secteur automobile et le BTP, et la plupart des déchetteries municipales sont à l’arrêt. En aval la problématique est moindre, car on continue de pouvoir circuler en Europe assez facilement malgré la crise lorsque l’on trouve des transports. »

Ainsi, 94 % des établissements fonctionnent en mode dégradé. Cela concerne l’absence de certains salariés, l’adaptation des horaires et la mise en place de consignes sanitaires pour respecter les gestes barrières. Les trois quarts des entreprises ont recours au chômage partiel, et la moitié des entreprises estiment avoir perdu plus de 60 % de leur activité. En mars, les adhérents évaluent la perte de leur chiffre d’affaires à 53 %. Ils anticipent une perte de 65 % pour le mois d’avril.

« Nous assistons de plus en plus aux félicitations des soignants et du public qui nous remercient de ramasser les poubelles et de participer à l’effort national », se félicite Jean-Luc Petithuguenin. Un autre moyen à notre portée de soutenir l’industrie du recyclage pendant le confinement consiste à trier ses déchets. « Il faut continuer de dire aux Français de jeter dans la poubelle jaune, cela sera recyclé partout où c’est possible. Simplement, n’y mettez pas vos mouchoirs, vos médicaments et la poubelle de la salle de bain », conclut-il.

L’assignation en justice de Total suit son cours

Le 19 juin 2019, Sherpa, ainsi que les associations Notre Affaire à Tous, Les Eco Maires, ZEA et 13 collectivités territoriales mettaient en demeure Total de prendre les mesures nécessaires pour prévenir les risques majeurs liés au changement climatique. Depuis cette date, la Région Centre Val de Loire et la Fédération France Nature Environnement (FNE) ont rejoint le collectif.

Total n’a pas donné suite, estimant déjà remplir ses obligations. Le 28 janvier dernier, ce collectif inédit a donc assigné en justice le groupe Total devant le tribunal judiciaire de Nanterre. Au sein de Sherpa, Lucie Chatelain est chargée de plaidoyer du pôle « globalisation et droits humains ». Elle travaille sur ce dossier et nous invite à comprendre la portée des actions à l’encontre des entreprises.

Techniques de l’ingénieur : Pouvez-vous nous expliquer la particularité de l’action en cours contre Total ?

Lucie Chatelain : C’est le premier contentieux climatique contre une entreprise en France. La particularité de cette action tient tout d’abord au fait qu’elle est portée par cinq associations, dont Sherpa, et quatorze collectivités territoriales.

Surtout, cette action s’appuie sur un double fondement juridique inédit en matière de lutte contre le changement climatique. Nous demandons à Total de se mettre en conformité avec la loi sur le devoir de vigilance des sociétés mères, qui l’oblige à prendre des mesures d’identification des risques et de prévention des atteintes aux droits de l’homme et à l’environnement causées par ses activités. Nous lui demandons également de prendre les mesures nécessaires pour prévenir le préjudice écologique qui dérive de sa contribution au changement climatique, en s’appuyant sur les dispositions issues de la loi pour la reconquête de la biodiversité de 2016. C’est la première action en France contre une entreprise pour l’obliger à prendre des actions générales pour lutter contre le changement climatique.

Contrairement à une plainte qui relève du droit pénal, il s’agit d’une procédure civile qui oppose, d’un côté, les associations et les collectivités et, de l’autre, Total. Nous demandons au tribunal de prononcer une injonction, c’est-à-dire d’ordonner à Total de prendre certaines mesures et de les mettre en œuvre de façon effective. Cette assignation fait suite à la mise en demeure envoyée en juin dernier. La fermeture des tribunaux en raison de la crise du Covid-19 va repousser les premières audiences de procédures comme dans l’ensemble de nos contentieux en cours.

Quel est l’intérêt des collectivités territoriales à assigner Total en justice ?

La loi sur le devoir de vigilance permet à toute personne intéressée, au sens juridique, de demander à une entreprise qu’elle prenne des mesures nécessaires pour prévenir des atteintes à l’environnement ou aux droits des hommes causées par ses activités.

Nous considérons que ces différentes collectivités territoriales sont directement intéressées, car elles doivent prendre des mesures d’adaptation et de prévention aux changements climatiques. Dans une certaine mesure, elles sont elles-mêmes directement affectées par les changements climatiques qui ont un impact sur leur budget. C’est en tant que personnes concernées par le changement climatique qu’elles demandent à Total de prendre des mesures.

En absence de condamnation judiciaire, quelles avancées attendre ?

Toutes les actions de Sherpa démontrent les limites du droit civil et pénal actuel à l’heure de faire condamner des entreprises françaises pour des atteintes aux droits humains ou à l’environnement commises à l’étranger. Malgré tout, nous avons par exemple obtenu les mises en examen de Samsung et Lafarge, deux premières historiques.

Dans nos différents dossiers d’atteintes aux droits de l’homme et à l’environnement dans la chaîne de valeur, nous ne sommes pas encore arrivés au stade du jugement avec condamnation de la société. Cela ne veut pas dire que cela ne produit pas des changements au niveau législatif. C’est par exemple le cas des avancées obtenues grâce à  la loi sur le devoir de vigilance. Cela crée également une pression médiatique qui contraint les entreprises à changer leurs pratiques, même avant une condamnation. Par exemple, l’année dernière, Vinci a mené une opération de communication sur le chantier au Quatar pour montrer que les conditions s’étaient améliorées.

Propos recueillis par Matthieu Combe

Une méthode économique pour filmer à très grande vitesse à l’échelle atomique

June W. Lau avec le Microscope Electronique à Transmission modifié
Credit: N. Hanacek/NIST

La microscopie à résolution temporelle est considérée comme la dernière frontière des nanosciences, car elle permet d’observer non seulement l’espace à l’échelle atomique, mais aussi les mouvements en dessous de la nanoseconde.

Une méthode astucieuse basée sur la stroboscopie

Cette invention, appelée “beam chopper” fonctionne à la manière d’un stroboscope, c’est à dire qu’elle est  est basée sur l’observation de phénomènes périodiques rapides.

Une fois intégré dans le microscope, le dispositif génère une onde électromagnétique de type radio-fréquence (RF) dans la direction du faisceau d’électrons. “Les électrons qu’elle rencontre sont ensuite transportés par cette onde, un peu à la manière de bouchons flottant à la surface de l’eau”, explique June W. Lau, physicienne au NIST et co-auteure de l’étude récemment publiée dans Review of Scientific Instruments.

En surfant sur cette “vague”, les électrons suivent un parcours ondulant, alors qu’ils approchent de l’ouverture du faisceau. La plupart d’entre eux sont bloqués, à l’exception de ceux dont l’alignement avec l’ouverture est parfait. Comme la fréquence de l’onde RF est modulable, les électrons heurtent l’échantillon à observer entre 40 millions et 12 milliards de fois par seconde !

Les microscopistes qui disposent de cette amélioration sont ainsi capables de capturer des “événements” avec des intervalles de temps allant de 1 nanoseconde à 10 picosecondes.

Des résultats encourageants

Les résultats obtenus sont très encourageants, car ils indiquent que le microscope modifié fonctionne exactement comme ils l’avaient prévu en mode “stroboscopique”.

“Ces résultats nous rassurent, car ils signifient que le microscope est prêt à être utilisé pour résoudre de réels problèmes scientifiques”, affirme June W. Lau.

Quel impact industriel futur ?

Bien que cette technologie soit davantage destinée à la recherche (les microscopes électroniques à transmission sont plutôt des outils de recherche fondamentale), sa mise en application pourrait avoir des répercussions industrielles intéressantes.

“Les téléphones mobiles et les réseaux de communication sans fil utilisent des fréquences de l’ordre du gigahertz. Les matériaux contenus dans ces dispositifs fonctionnent également à cette fréquence. Cette invention pourrait permettre de révéler le fonctionnement interne de ces matériaux et ainsi contribuer à les améliorer”, précise June W. Lau.

Où en est le développement : verra-t-on bientôt cette technologie commercialisée sur les microscopes ?

À cette question, June W. Lau. répond : “Nous sommes quelque part dans un entre-deux. Certes, nous sommes encore loin de l’industrialisation, mais nous avons fait énormément de chemin et dépassé le stade du prototype. Je suis assez confiante sur le fait qu’une première génération de produits fiables puisse maintenant être construite.”

Pour en savoir plus : 

https://www.nist.gov/news-events/news/2020/02/simple-retrofit-transforms-ordinary-electron-microscopes-high-speed-atom

https://aip.scitation.org/doi/10.1063/1.5131758

Crédit photo de une : Cezary Borysiuk, Creative Commons

Tensions autour de l’accès réglementé à l’énergie nucléaire historique (Arenh)

Les fournisseurs d’électricité font face à une perte de chiffre d’affaires liée à la baisse de la consommation d’énergie à cause de la crise sanitaire et des mesures de confinement mises en œuvre pour faire face à l’épidémie de Covid-19. Le recul de la demande électrique est de l’ordre de 15 % en moyenne par rapport au niveau habituellement constaté au mois de mars, rappelle la CRE. En outre, cette baisse de la consommation se concentre en particulier sur le segment industriel et tertiaire en raison des mesures d’urgence prises par le Gouvernement pour faire face à l’épidémie de Covid-19.

Ce retrait de la demande affecte, comme nous l’avions déjà écrit, les prix de l’électricité sur les marchés de gros : le prix du produit base pour le deuxième trimestre de 2020 est de 21 €/MWh au 26 mars 2020 (contre de 40 €/MWh à 45 €/MWh sur l’année précédente). Et comme le montre le dernier rapport daté du 2 avril d’Epex, la bourse de l’électricité, la moyenne des prix sur les échanges en mars et en base s’élève à 23,83 €/MWh et en pointe à 28,96 €/MWh.

En outre, les fournisseurs doivent revendre sur le marché un surplus d’électricité à un prix plus bas que celui auquel ils l’ont acheté. Enfin, ils doivent reporter la facture d’énergie des petites entreprises en difficulté.

Or, les fournisseurs ont généralement déjà acheté, à un prix convenu à l’avance, les quantités d’électricité nécessaires à l’approvisionnement de leurs clients. Et pour la majeure partie d’entre eux, cette électricité a été achetée dans le cadre de l’Arenh, qui prévoit qu’EDF doit céder à ses concurrents un quart de sa production nucléaire (soit 100 TWh) à un prix fixe de 42 €/MWh. La CRE signale que la plupart des fournisseurs actifs en France ont choisi, pour l‘année 2020, de recourir à l’Arenh pour approvisionner leur portefeuille de clients, à hauteur en moyenne de 60 % de leurs besoins et pour un volume global de 100 TWh.

Ils se retrouvent donc avec un surplus d’électricité qu’ils doivent vendre sur le marché à un prix bien inférieur à celui auquel ils l’ont acheté.

Activer la clause de force majeure

Dans ce contexte, plusieurs fournisseurs ont demandé l’activation de la clause de force majeure prévue dans l’accord-cadre Arenh. Cela leur permettrait de suspendre le contrat Arenh, de mettre fin aux livraisons des volumes d’Arenh pendant la durée de la force majeure et de s’approvisionner sur le marché à un prix beaucoup plus bas pour la totalité de leurs volumes, explique la CRE.

EDF, le vendeur, a fait part à ces fournisseurs de son opposition au déclenchement de cette clause, considérant que les conditions prévues dans le contrat Arenh ne sont pas réunies.

La CRE constate le désaccord entre les parties au contrat, mais considère néanmoins que la force majeure ne trouverait à s’appliquer que si l’acheteur parvenait à démontrer que sa situation économique rendait totalement impossible l’exécution de l’obligation de paiement de l’Arenh. Compte tenu de ce qui précède, les conséquences d’une suspension totale des contrats Arenh en raison de l’activation des clauses de force majeure seraient disproportionnées, indique le régulateur du secteur. Ce dernier juge en outre qu’« une telle situation créerait un effet d’aubaine pour les fournisseurs au détriment d’EDF qui irait à l’encontre des principes de fonctionnement du dispositif, lesquels reposent sur un engagement ferme des parties sur une période d’un an ». En conséquence, la CRE se refuse à activer la clause de force majeure.

C’est cette décision que l’Association nationale des opérateurs détaillants en énergie (Anode) et l’Association française indépendante de l’électricité et du gaz (Afieg), deux associations rassemblant des fournisseurs alternatifs d’énergie, viennent de contester en référé devant le Conseil d’Etat afin de faire annuler la décision de la CRE du 26 mars dernier.

En revanche, face aux circonstances exceptionnelles actuelles, la CRE préconise des mesures d’ajustement du mécanisme Arenh. D’abord, la CRE va procéder à la suppression de certaines pénalités (dénommées CP2) au titre de l’année 2020. Ces pénalités s’appliquent en cas de demande excessive d’Arenh par rapport à la consommation des clients du fournisseur. La CRE considère que les éventuels excédents pour 2020 seront « indépendants de la volonté des fournisseurs ». En outre, la CRE accepte un rééchelonnement du paiement des factures Arenh pour les fournisseurs dont les clients auraient eux-mêmes demandé un paiement différé de leurs factures.

Enfin, elle demande à EDF d’être souple sur les conditions de paiement des « petits fournisseurs », en prenant en compte leur situation de fragilité, donc à accepter d’une certaine manière le cas de « force majeure ». Dans le cadre de ces échanges, la CRE estime souhaitable qu’EDF puisse accorder des facilités de paiement supplémentaires. En cas d’accord amiable entre EDF et un fournisseur sur de telles mesures, la CRE transmettra les nouvelles modalités de paiement à la Caisse des dépôts et consignations, après s’être assuré du caractère proportionné de l’accord.

Selon certains échos dans la profession, ce dernier point, qui s’apparente à « avantage » à certains fournisseurs au détriment d’autres, pourrait bien constituer une distorsion de concurrence, et donc conduire à des recours.

Cette tension autour de l’Arenh intervient alors que le gouvernement a lancé en février dernier (cf.  EDF : remaniement des ventes de la production nucléaire…et de l’entreprise) des projets de remaniement de la façon dont l’énergie nucléaire est vendue en France, et donc mettre un terme au mécanisme actuel. Des propositions qui avaient été plutôt bien accueillies par la profession dans son ensemble.

Les robots Spot font leurs premiers pas dans l’industrie

Il grimpe sur un mont d’objets, descend des escaliers, ouvre une porte, marche sur des pierres, porte un parpaing ou encore se déplace sous la pluie. Il, c’est le robot Spot de Boston Dynamics. Dans une vidéo, la société américaine dévoile les performances techniques de son quadrupède prêt à sortir du laboratoire. C’était le 24 septembre 2019. Depuis la publication de la vidéo, Spot a débuté ses premières rondes dans les industries.

“Avec ce genre de robot à pattes, il est possible de scanner l’avancement de chantier de construction ou de déployer à distance un robot pour aller inspecter un problème sur un site distant comme une exploitation offshore ou de grands parcs industriels”, souligne Antoine Cully, directeur de l’Adaptative & Intelligent Robotics Lab de l’Imperial College de Londres.

Tester dans des environnements réels

La société pétrolière norvégienne Aker BP a par exemple “embauché” Spot dans le but d’évaluer ses performances dans l’inspection autonome, l’acquisition des données et la création automatique de rapport. Son environnement de travail : la plateforme offshore Skarv en Norvège. Avec le concours de l’éditeur Cognite, Aker BP a programmé le robot pour tester sa mobilité dans des environnements pétroliers et gaziers afin de s’assurer que celui-ci pouvait atteindre des installations difficiles d’accès aux automatisations traditionnelles.

Voir ici la démonstration de son activité, publiée par Aker BP.

Un autre client, HoloBuilder, utilise le robot Spot pour son activité de construction. Les ouvriers peuvent utiliser leur smartphone pour apprendre à Spot à documenter un chemin autour d’un chantier de construction puis se déplacer de façon autonome sur ce chemin. Il pourra prendre des photos à 360° pour les envoyer automatiquement à leur logiciel de traitement. Une solution qui pourrait permettre de réaliser de façon autonome des jumeaux numériques ou d’inspecter la progression du chantier.

Une agilité impressionnante

Boston Dynamics est reconnu pour ses robots bipèdes et quadrupèdes très agiles. “Spot est une innovation en termes d’ingénierie, affirme Antoine Cully. Il s’agit d’un robot avec une agilité impressionnante (à l’image des cheetah et mini-cheetah du MIT) et il est très intéressant de voir Boston Dynamics produire ce genre de robot en série et créer de nouveaux marchés”. Une ouverture sur le monde industriel qui pourrait créer un mouvement positif dans la recherche robotique… à pattes.

“Il y a quelques années, quasiment aucune compagnie ne concevait et vendait des robots à pattes, ajoute Antone Cully. Maintenant, il y en a plusieurs (Ghost Robotics, ReactRobotics, ANYmal robotics, Unitree) et c’est excellent pour stimuler la recherche et l’innovation dans ce domaine qui était jusque-là limité à la recherche académique”.

Le robot quadrupède Spot de Boston Dynamics est en test dans des entreprises de construction, des installations minières et pétrolières /Capture d’écran YouTube /Boston Dynamics

Une plateforme de développement ouverte

L’utilisation des robots, pour tester différentes applications, est permise par un kit de développement logiciel (SDK) fourni par Boston Dynamics. Jusqu’ici disponible à une poignée d’entreprises testeuses, Boston Dynamics l’a ouvert et rendu disponible sur GitHub à tout développeur souhaitant développer des applications personnalisées permettant à Spot de réaliser tout type de tâches utiles à de nombreuses industries.

En proposant à une poignée d’utilisateurs industriels le test de son robot, l’objectif de Boston Dynamics est d’obtenir un retour terrain afin de lui apporter des améliorations. Mais “avant de considérer plus d’avancées sur l’agilité et la rapidité, je pense qu’il y aura une phase de réduction des coûts et de spécialisation pour certaines applications, par exemple marcher sur des terrains enneigés ou boueux”, estime Antoine Cully. Selon le journaliste Matt Simon de Wired, 75 robots Spot travaillent actuellement, dans des entreprises de construction par exemple ou des installations minières.

Crédit photo de une : Youtube / Boston Dynamics

Un capteur pour mesurer la fraîcheur des aliments emballés

Crédit photo : Projet Terafood

Dans le monde, le gaspillage alimentaire coûte plus de 630 milliards d’euros par an et est responsable de 30 % de la consommation d’eau sur terre et de 8 % des gaz à effet de serre. Chaque année, en Europe, plus de 90 milliards de kg de nourritures sont jetées. Pour lutter contre ce phénomène, une équipe de chercheurs développe un capteur capable de détecter l’état de fraîcheur des aliments. L’idée est de le placer à l’intérieur de chaque emballage au moment du conditionnement, puis de le scanner avant la commercialisation du produit pour savoir si l’aliment est consommable ou pas. Ce projet, baptisé Terafood et d’une durée de quatre ans, bénéficie du soutien du programme européen de coopération Interrégional France-Wallonie-Vlaanderen. Mathias Vanwolleghem, chercheur au CNRS à l’IEMN (Institut d’Électronique de microélectronique et de nanotechnologie) et coordinateur du projet, nous présente cette innovation.

Techniques de l’Ingénieur : Comment fonctionne votre technologie ?

Mathias Vanwolleghem, chercheur au CNRS : En se dégradant, les aliments rejettent des molécules organiques comme le sulfure d’hydrogène, l’ammoniac ou l’éthanol. Nous développons une technologie utilisant des ondes aux fréquences térahertz (THz) pour sonder la présence de ces composés volatils et leurs concentrations dans l’atmosphère à l’intérieur d’un emballage alimentaire. Ces ondes électromagnétiques présentent plusieurs intérêts. Elles sont capables de traverser, sans pertes, la plupart des matériaux d’emballage comme les cartons, les films plastiques, sauf le métal.

Un doctorant, Elias Akiki, réalise des mesures photoacoustiques dans le cadre du projet Terafood /Projet Terafood

Elles permettent ainsi d’analyser le contenu de l’emballage sans rompre son intégrité ni modifier la qualité de l’aliment car elles portent une faible énergie. Ensuite, ces ondes interagissent fortement avec les molécules organiques  à l’intérieur de l’emballage en perdant de la puissance. En mesurant la modification de la puissance spectrale dans la gamme térahertz, on peut prédire la composition de l’atmosphère de ces emballages et ainsi mesurer la fraîcheur des aliments. Cette approche, par spectroscopie THz et par absorption, nécessite de disposer d’un détecteur de rayonnement THz très précis et sensible.  Ces appareils existent mais se révèlent coûteux et peu pratiques. L’originalité de notre projet consiste à détecter indirectement, par transduction, la modification de la puissance THz.

Quel rôle joue le capteur ?

Sous l’effet des ondes THz, les molécules organiques s’agitent puis s’échauffent et vont provoquer une très légère vibration à l’intérieur des emballages et générer, par pression, une faible onde acoustique. Le capteur, composé de silicium, contient une membrane dont le rôle est d’offrir une résonance à ces ondes sonores, un peu comme le ferait une batterie. Ce processus d’émission d’un son suite à l’absorption d’un signal photonique s’appelle la photoacoustique.  Nous mesurons l’onde acoustique à l’aide d’un vibromètre laser fonctionnant grâce au principe de l’effet Doppler et qui consiste à mesurer le décalage de l’onde entre son émission et sa réception. Chacun peut faire l’expérience de cet effet Doppler en présence d’un véhicule pourvu d’une sirène : en s’approchant, le son émis semble plus aigu puis il devient plus grave en s’éloignant. Au final, l’onde acoustique émise par le capteur est directement corrélée à la concentration en molécules organiques et donc permet d’évaluer l’état de fraîcheur des aliments.

A quel stade de développement se trouve le projet ?

Nous testons prochainement une première génération de capteurs en les plaçant à l’intérieur d’une cellule de gaz dans laquelle nous introduirons une concentration bien connue de molécules organiques. Cette cellule permettra de simuler, dans des conditions de laboratoire, un emballage alimentaire sous différents stades de dégradation. A l’été 2020, nous pensons faire la première démonstration mondiale de l’efficacité de notre technologie. Le financement du projet Terafood se termine à l’été 2021, la poursuite de ce travail afin de le mener jusqu’à un stade de maturation industrielle nécessitera un nouveau financement. Nous sommes convaincus que l’industrie agro-alimentaire pourrait trouver, dans cette innovation, une alternative révolutionnaire pour l’analyse des aliments. Pour le moment, les industriels effectuent quelques prélèvements sur un lot puis réalisent des tests biochimiques pour évaluer l’état de fraîcheur de leurs produits. Un test négatif sur quelques échantillons les contraint à détruire le lot entier. Notre technologie permettra un test non destructif, en temps réel, et sur chaque emballage individuel en quelques millisecondes. Le seul investissement consistera à s’équiper d’une source d’ondes THz et d’un vibromètre. Un investissement certes important, entre 50 et 60 000 euros pour acquérir deux appareils performants, mais négligeable par rapport aux pertes économiques résultant des produits alimentaires jetés alors qu’ils sont encore consommables.

Propos recueillis par Nicolas Louis

Les énergies marines (hors éolien) poursuivent leur progression

Premier constat d’Ocean energy Europe (OEE), l’Europe demeure le leader mondial des installations marines fondées sur l’énergie des courants et sur le houlomoteur. Attention, les chiffres sont loin des installations éoliennes offshore (loin des gigawatts), mais la courbe d’apprentissage ressemble de plus en plus à celle des parcs éoliens en mer.

L’hydrolien monte en force en Europe

Ainsi, la capacité installée en énergie des courants (essentiellement de hydrolien) a continué d’augmenter en 2019, atteignant 27,7 MW depuis 2010, soit près de quatre fois plus que dans le reste du monde.

En 2019, 1,52 MW ont été ajoutés, ce qui est moins qu’en 2018 (3,7 MW) parce que les développeurs misent désormais sur des projets plus importants, ce qui prend plus de temps à mettre en œuvre, précise OEE. Préfigurant les machines à venir, la plus puissante hydrolienne mise en service l’année passée l’a été en France. Un projet d’Hydroquest, société basée près de Grenoble, qui a immergé une turbine à axe vertical de 1 MW à Paimpol-Bréhat (Côtes d’Armor). Le kite hydrolien du développeur suédois Minesto (au Pays de Galles, avec 500 kW) fait également partie de cette catégorie des « grosses » machines. Également originaire de France, la petite hydrolienne de Guinard (20 kW) est, elle, destinée au marché de l’énergie local et a été mise à l’eau dans l’estuaire de la Ria d’Etel, dans le Morbihan.

En revanche, de nombreux projets de taille quasi commerciale sont dans le pipe et devraient entrer en service dès cette année, soit près de 3,4 MW prêts à entrer dans l’eau en 2020. Pour Sabella, autre « leader » français du secteur, une nouvelle immersion au large de Ouessant dans le cadre du projet Phares d’Akuo Energy avec EDF est prévue et démontrera aussi l’intérêt des hydroliennes de capacité intermédiaire.

A la fin 2019, 10,4 MW étaient effectivement à l’eau en Europe, la majorité d’entre eux étant installés en France et au Royaume-Uni.

La production d’énergie de ces équipements marémoteurs a atteint 15 GWh l’an dernier, notamment grâce au projet de Meygen. OEE souligne que les machines à l’eau ont démontré ainsi leur résistance aux difficiles conditions marines. Les projets européens en place ont ainsi produit 50% d’électricité de plus en 2019 que l’année précédente, selon les statistiques publiées ce mardi par Ocean Energy Europe (OEE).

OES relève trois nouveaux projets Horizon 2020 – LiftWEC, Element et NEMMO – chacun axé sur différents domaines d’amélioration pour les dispositifs d’énergie houlomotrice ou marémotrice.

Ces projets contribuent à atteindre les objectifs du plan stratégique pour les technologies énergétiques de l’UE (SET-plan) de 10 à 15 centimes d’€/kWh d’ici 2025-2030 pour l’hydrolien et une même valeur d’ici 2030-2035 pour l’énergie houlomotrice.

Ailleurs dans le monde, c’est au Canada, en Chine et aux États-Unis que les projets sont en cours de développement. Environ 1,8 MW sont ainsi prêts à être lancés.

Le houlomoteur européen

Sur le houlomoteur, 603 kW ont été ajoutés dans les eaux européennes en 2019. La croissance régulière du secteur au cours de la dernière décennie se poursuit ainsi, indique OEE. Plusieurs projets ont été mis à l’eau le long des côtes de l’Atlantique et de la mer du Nord, portant les installations cumulées de l’Europe à 11,8 MW.

Le français GEPS Techno (Wavegem, 120 kW) et le finlandais AW Energy (350 kW) ont installé, respectivement en France et au Portugal, leurs premières machines à taille réelle ; premier pas vers des parcs pilotes houlomoteurs. Les deux entreprises estiment pouvoir parvenir à monter en puissance dans les années à venir.

Le dispositif OPT (3 kW, en Ecosse) est également à pleine puissance ; sa capacité inférieure est appropriée pour alimenter directement des équipements de surveillance et des applications similaires, plutôt que pour la production d’électricité à grande échelle.

Les équipements en test (mais pas à taille réelle) représentaient la moitié des installations en 2019, Nemos (70  kW, en Belgique), AMOG (40 kW, en Cornouailles) et Waves4Energy (50 kW, en Italie).

Bien que l’Europe reste à la pointe de l’énergie houlomotrice en termes de capacité cumulée et d’excellence technologique, l’écart se réduit, avec le reste du monde, signale cependant OEE. Les installations annuelles dans d’autres parties du monde ont, pour la deuxième année consécutive, dépassé l’Europe, précise OEE. Les États-Unis et la Chine commencent à récolter les fruits d’investissements soutenus en RD&I, avec des installations combinées de 1,8 MW en 2019.

Ailleurs dans le monde

OES est le nom du programme de collaboration technologique lancé par l’Agence internationale de l’énergie (AIE) pour relier les différentes programmes indépendants, internationaux, gouvernementaux et de l’industrie en matière de technologies marines (hors éolien donc). L’OES compte 25 membres à fin 2019.

L’OES a renommé les enjeux en OES-environmental (OES-E), dont font partie 15 pays, emmené par le DOE américain et mis en œuvre par le Pacific Northwest National Laboratory. OES met notamment à disposition une base de données Tethys avec de nombreuses études et rapport sur l’impact des énergies marines.

Les Espagnols de Tecnalia ont présenté une étude sur les coûts, dont les résultats ont été partagés avec les l’AIE dans le cadre de ses travaux sur les renouvelables. OES a lancé deux programmes sur la modélisation et la validation des technologies marines. La première est conduite par Raboll, du Danemark, pour le houlomoteur, et la seconde par l’Energy Research Institute de Nanyang Technological University, à Singapour, autour de l’énergie des courants marins. Par ailleurs, un groupe de pays – Japon, Inde, Chine, France et Pays-Bas – travaille sur les technologies ETM (Énergie thermique des mers) afin d’évaluer le potentiel mondial et de discuter des projets actuellement en cours.

Enfin, en 2019, une nouvelle étude a été lancée autour des emplois dans le secteur, coordonné par France Énergies Marines. Un atelier a par ailleurs eu lieu sur les énergies marines et les conditions insulaires. L’OES a enfin soutenu un projet de l’EMEC, en Ecosse autour des sites de test en mer.

OES passe en revue 20 pays et l’Union européenne, comptée comme pays. A l’aune de cette revue de détail, au-delà de l’Europe, deux zones sont particulièrement actives en matière d’énergies marines : l’Amérique du Nord et l’Asie.

En Amérique du Nord, la Loi sur les énergies renouvelables marines au Canada a été modifiée pour étendre les tarifs de rachat et les accords d’achat d’électricité aux développeurs d’énergie marémotrice travaillant sur « Force » (Fundy Ocean research centre for energy), le site de recherche sur la technologie des courants de marée dans la baie de Fundy, en Nouvelle Ecosse. Et deux autres sites de tests sont en service. Jusqu’à présent, 7 MW ont été alloués pour l’énergie des marées par le pays.

De leur côté, les États-Unis ont lancé une nouvelle initiative de R&D « Powering the Blue Economy » pour explorer les opportunités sur les marchés océaniques américains. Le Water Power Technologies Office (WPTO) du ministère de l’Énergie (DOE, en initiales anglaises) a alloué 25 M$ pour des projets innovants, et a lancé toute une série d’appels à projets dotés de financements. Au total, le pays dispose de 13 sites d’essais, dont certains alloués par la Marine nationale (Navy).

En Asie

Des progrès sont constatés par OES, l’Inde rend les technologies marémotrices, marémotrices et OTEC éligibles aux obligations d’achat renouvelables, et la Chine fournit un tarif de rachat temporaire de 0,33 € / kWh pour la technologie des courants de marée. La Corée du Sud a dédié près de 17 M$ à ces projets marins.

L’énergie cumulée produite à partir de l’énergie des vagues et des courants de marée est passée de moins de 5 GWh en 2009 à 45 GWh en 2019. Cette multiplication par dix place le secteur sur une voie prometteuse pour la prochaine décennie.

TOP 5 : Les articles les plus lus en #Mars2020

1. Le Coronavirus fait chuter les particules fines en Chine

Le coronavirus bouleverse de plus en plus l’activité économique mondiale. Cela a au moins une bonne conséquence pour la planète : les émissions de particules fines chutent en Chine, selon les données du Service pour la surveillance de l’atmosphère de Copernicus (CAMS) du CEPMMT.

2. Les cartes indispensables pour suivre la propagation du Covid-19

Dès le début de la pandémie de Covid-19, plusieurs outils en libre accès sur le web traquent en temps réel sa propagation à travers le monde. Compilant les données d’épidémiologie dans des cartes interactives, souvent reprises dans la presse, ces sites ont rapidement prouvé leur utilité auprès du grand public. Tour d’horizon des meilleurs outils de suivi.

3. (Replay) Impact du Covid-19 sur les perspectives économiques

Le fort ralentissement économique qui se dessine avec la propagation du Coronavirus fait peser un risque accru sur la situation financière des entreprises, particulièrement pour celles qui sont très endettées et dont l’activité serait affectée. Il y a quelques semaine nous avons demandé à Denis Ferrand d’intervenir afin de nous donner sa vision des perspectives économiques industrielles. Nous ne savions pas à quel point cette question allait être sensible et sur toutes les lèvres, et Denis Ferrand ne savait pas que les slides qu’il nous avait transmis seraient plus que jamais d’actualité. Nous vous proposons dans ce webinar de faire un tour d’horizon des différents scénarios possibles et de s’interroger sur une vison du cycle probable de l’après crise.

4. Copier le fonctionnement du cerveau pour économiser de l’énergie

La neuromorphique consiste à s’inspirer du cerveau humain pour créer artificiellement des réseaux intelligents. Un exemple de bio-inspiration qui pourrait à terme permettre le développement de réseaux performants et moins énergivores.

5. Adapter les vignobles français au réchauffement climatique

La hausse des températures de l’air perturbe le fonctionnement des vignes et modifie la composition des raisins. Nathalie Ollat, ingénieure de recherche à l’INRAE, nous explique comment aider la filière viti-vinicole à se préparer au climat de demain.

Crédit photo de une : National Institute of Allergy and Infectious Diseases (NIAID)Creative Commons

 

Maladiecoronavirus.fr, une plateforme inédite de dépistage du Covid-19

Crédit photo : Florian Le Goff

Après plus de deux semaines de confinement, l’épidémie de coronavirus continue de s’accroître sur le territoire français. Les hôpitaux sont submergés, les services de réanimation saturés et le nombre d’appels au Samu ne cesse de croître. C’est à partir de ce constat qu’est née la plateforme maladiecoronavirus.fr, destinée à aider les usagers à interpréter au mieux leurs éventuels symptômes, et ainsi savoir s’ils sont potentiellement infectés ou non par le Covid-19.

Mise en ligne mi-mars, aux alentours du début du confinement français, la plateforme revendique déjà plusieurs millions d’utilisateurs. Au moins 3 millions d’entre eux ont intégralement rempli le questionnaire d’autodiagnostic. Le cofondateur de Kelindi et spécialiste de l’informatique de santé, Florian Le Goff, voit en la rapide mise en place de cette plateforme une prouesse technique. En effet, cette dernière, vérifiée et validée par un collège de scientifiques, n’a été réalisée qu’en quelques jours.

Quelle est la fonction de Kelindi ?

Florian Le Goff : La spécialité de notre start-up est de créer des algorithmes pour détecter l’apparition de maladies. Ces algorithmes sont assez simples généralement. On se concentre sur les symptômes, et on les combine avec certains facteurs de gravité.

Comment est née maladiecoronavirus.fr ?

Il se trouvait qu’on était en train de suivre l’actualité scientifique sur le Covid-19 et les facteurs de comorbidités, notamment dans le JAMA [Journal of the American Medical Association, NDLR], et le Journal of Medicine. Au fur et à mesure qu’on avançait, on voyait qu’en France il n’y avait pas d’application pour dépister le grand public. On voyait que le 15 [le Samu, NDLR] commençait à saturer sous les appels de gens qui avaient des symptômes relativement bénins. On s’est posé la question de développer une application qui permettrait de réduire la pression sur le 15, en orientant les patients le plus tôt possible dans le système de santé.

Comment l’algorithme a-t-il été réalisé ?

L’algorithme est conçu sur une logique assez simple. On a essayé de digitaliser les questions qui sont posées par les médecins spécialistes quand ils procèdent à un examen clinique d’un patient suspecté du Covid-19. Donc on pose des questions sur l’historique médical, lorsqu’il y a un intérêt à le connaître. Et ensuite on étudie certains symptômes. Nous effectuons une étude complète de toutes les comorbidités qu’il y a dans le Covid-19.

Comment vous êtes-vous assurés de la validité scientifique de l’algorithme ?

Après avoir réalisé l’algorithme, nous avons fait appel à un conseil scientifique dans lequel se trouvent des scientifiques de l’AP-HP, de l’Institut Pasteur, du CHU de Rennes, de CHU de Lille, du CHU d’Angers. Et il nous restait à industrialiser cela. Ainsi, j’ai fait appel à Dernier Cri, une agence spécialisée dans l’innovation, pour transformer cet algorithme en un produit complet, qui soit facile et agréable à utiliser, et accessible au grand nombre.

Comment avez-vous fait pour créer aussi rapidement cette plateforme ?

L’agence Dernier Cri, avec laquelle je travaille depuis 2009, a apporté toute la ressource technique nécessaire. Pendant une semaine, entre 20 et 25 personnes ont travaillé en continu pour sortir l’outil en quelques jours. De plus, même si Kelindi a été créée cette année, cela fait huit ans que nous créons ce type d’algorithmes. Il y a eu une symbiose totale entre les développeurs et les scientifiques. Actuellement, l’algorithme est mis à jour quasiment quotidiennement.

Comment est née l’Alliance digitale contre le Covid-19 ? En quoi est-elle essentielle à la plateforme ?

La plateforme existait avant l’Alliance. Cependant, il fallait encore lui donner sa dimension nationale. L’Alliance est un ensemble de quinze industriels* qui ont contribué soit financièrement, soit humainement, soit techniquement, soit les trois en même temps, à consolider l’outil. Les assureurs, mutualistes ou non, l’ont relayée auprès de leurs assurés. D’autres ont apporté leur concours scientifique pour améliorer l’algorithme. D’autres encore ont fourni de la ressource de stockage, à l’image de La Poste, avec Docaposte. Actuellement, nous sommes contactés tous les jours par des entreprises qui demandent ce qu’elles pourraient faire pour nous aider.

À quoi vont servir toutes les données que vous collectez au sujet du Covid-19 ?

Notre but est de réaliser une enquête épidémiologique pour comprendre comment l’épidémie s’est déroulée, et derrière mettre en place de nouveaux modèles mathématiques pour simuler comment ça se passe sur le terrain. L’objectif n’est pas de dire que les gens ont le Covid-19 ou pas pour l’instant, c’est de dire qu’à tel moment les gens ont présenté tels symptômes. Dans quelques mois, les données collectées se retrouveront éventuellement dans le Health Data Hub [la plateforme des données de santé mise en place par le Ministère des Solidarités et de la Santé en 2019, NDLR]. Ensuite, il faudra que l’analyse de ces données soit faite par des acteurs neutres et reconnus, comme l’Institut Pasteur. Toutes ces données sont anonymes. La seule information personnelle qu’il faut donner, hormis les données de santé, est le code postal.

Quel va être l’intérêt de posséder ces informations ?

Concrètement, il va s’agir pour nous de comprendre comment agit le virus sur le patient au début de la contamination. C’est un travail de recherche, de longue haleine.

Avez-vous développé d’autres plateformes destinées au dépistage de pathologies ?

Fabrice Denis [oncologue et expert en e-santé, NDLR] avec qui je travaille, est l’auteur d’une étude qui est capable de prédire la rechute de cancer de poumons sur la base d’un auto-questionnaire que le patient remplit toutes les semaines. En étudiant la dynamique des questions dans le temps, il a démontré qu’il était capable de détecter des rechutes de cancers avant même parfois de les voir en imagerie médicale. Parce que justement, l’intérêt de ces algorithmes est de se poser la question du parcours de soins et du bon moment de prise en charge. Cela fait huit ans que Fabrice Denis travaille sur le sujet.

Est-ce qu’un algorithme pour aider à déceler un diabète ou une maladie d’Alzheimer serait envisageable ?

Ces pathologies sont complexes. Il y a déjà beaucoup d’équipes qui travaillent sur ces sujets-là. Chez Kelindi, on se pose effectivement des questions sur ce qu’on pourrait faire avec le même type de modèle sur deux sujets : la croissance des enfants et la dégénérescence des seniors. Là aussi, on va être sur des symptômes qui vont apparaître dans le temps, et savoir les analyser pourra nous permettre de prédire certaines maladies.

* Les quinze industriels de l’Alliance sont : Kelindi, Dernier Cri, La Poste, De Gaulle Fleurance & Associés, Allianz France, AG2R La Mondiale, AstraZeneca, CompuGroup Medical, Johnson & Johnson, La Banque Postale Assurances, Malakoff Humanis, MesDocteurs, Le Groupe VYV, La Mutuelle Générale et Withings.

 

Uranus et Neptune, deux planètes encore à explorer

Les géantes de glace Uranus et Neptune sont les deux planètes les moins connues de notre système solaire. Celles-ci n’ont été survolées qu’une fois chacune par une sonde spatiale, Voyager 2, en 1986 pour Uranus et 1989 pour Neptune. Début janvier, une conférence internationale baptisée “Ice Giant Systems 2020” a été organisée à Londres par la Royal Society. L’occasion pour de nombreux scientifiques d’échanger sur l’exploration future de ces deux planètes.

Michel Blanc, astronome émérite à l’Institut de recherche en astrophysique et planétologie (IRAP, unité mixte du CNRS et de l’Université de Toulouse III – Paul Sabatier) s’intéresse aux géantes de glace. Il a participé à la mission Cassini-Huygens et travaille en ce moment sur une mission spatiale de la NASA actuellement en orbite autour de Jupiter. Il nous explique pourquoi les scientifiques et les agences spatiales s’intéressent aux géantes de glace Uranus et Neptune.

Techniques de l’Ingénieur : Pouvez-vous nous expliquer ce qu’est une géante de glace ?

Michel Blanc : Dans le système solaire, il existe trois types de planètes : telluriques (Terre, Mars, Vénus, Mercure), gazeuses (Jupiter, Saturne) et de glace (Uranus et Neptune). Pour les définir simplement, les planètes telluriques sont des objets solides avec une petite couche non solide, les géantes gazeuses sont des grosses boules d’hydrogène avec un peu d’hélium qui ressemblent au soleil. Pour les géantes de glace, l’essentiel de leur enveloppe est formé de glace, majoritairement glace d’eau mais aussi de méthane et d’ammoniac, dont une partie est sans doute à l’état liquide.

Pourquoi s’intéresser aux géantes de glace ?

On connaît très mal les géantes de glace. On les a survolées une fois avec une sonde Voyager 2 (Uranus en 1986 et Neptune en 1989). On connaît bien mieux les planètes telluriques, grâce aux différentes missions spatiales vers Mars et à moindre titre vers Vénus et Mercure. Et on connaît bien les géantes gazeuse, Jupiter avec la mission Galileo et Saturne avec Cassini-Huygens. D’un point de vue scientifique, si l’on veut comprendre la diversité du système solaire, les géantes de glace restent les deux grandes inconnues. En plus, depuis 1995, on a découvert et observé de nombreuses planètes autour d’autres étoiles que le soleil, ce que l’on appelle les exoplanètes. Et il se trouve que dans la classification par rayon et masse de ces exoplanètes – plus de 4 000 – celles de la taille d’Uranus et de Neptune font partie des plus abondantes. On connait actuellement très peu de choses sur la structure et la composition des exoplanètes. En gros, juste leur taille et leur masse! Donc, dans ce contexte de déficit d’information, on essaie de comparer les exoplanètes avec les planètes du système solaire, qu’on connait évidemment beaucoup mieux, dans un premier temps sur la seule base de leur masse et de leur taille. Deux paramètres qui permettent de montrer que, par leur taille et leur masse, Uranus et Neptune sont semblables à la composante majoritaire des exoplanètes.

Que connait-on d’elles pour le moment ?

On les observe depuis la Terre, mais les mesures sont limitées par la résolution d’image. Nous sommes à 19 unités astronomiques pour Uranus et 30 pour Neptune. Elles ont par exemple des propriétés communes avec les géantes gazeuses : champ magnétique propre, anneaux, satellites. D’ailleurs, on s’intéresse également à leurs satellites. L’un des plus intéressants par son activité géologique est Triton, un satellite de Neptune. Sa surface est parsemée de nombreux geysers qui alimentent son atmosphère d’azote. Il fait moins de 40° Kelvin (soit -230° C) à la surface. Avec ses 2700 km de diamètre, Triton est la septième plus grosse lune du système solaire et c’est en fait une lune très étrange. Elle orbite dans le sens rétrograde, opposé à celui de la rotation de Neptune et hors du plan de son équateur. Cela fait penser que Triton ne serait pas “né” dans le système de Neptune, mais serait, comme Pluton par exemple, un objet de la ceinture de Kuiper qui orbitait initialement au-delà de Neptune et a été capté ultérieurement dans son champ de gravité. Il pourrait ainsi nous informer sur cette famille très mal connue d’objets lointains du système solaire.

Quels sont les moyens mis en place pour découvrir ces géantes ?

Le télescope James Webb de la NASA est déjà engagé et va permettre de regarder l’ensemble des objets du système solaire, à distance. Il sera positionné à proximité de la Terre. Son objectif est d’étudier l’univers profond, la cosmologie, les planètes. Il ne sera pas dédié à une seule classe d’objets astrophysiques. Pour progresser dans nos connaissances des géantes de glace, plutôt que de les regarder à distance, il faut aller sur place. D’où l’intense activité de préparation d’une mission qui puisse aller rendre visite à Uranus et/ou Neptune des deux côtés de l’Atlantique. Les études battent leur plein pour construire les bases scientifiques du projet, dans les agences spatiales comme dans les laboratoires américains et européens. En ce moment les scientifiques œuvrent pour inciter les agences spatiales européennes et américaines à réaliser ces missions. Celles-ci n’ont pas encore pris leur décision. La Nasa va commencer dans quelques mois son cycle de prospective pour les sciences planétaires avec une mission vers Uranus et Neptune en étude parmi d’autres. Dans tous les cas, cela ne se fera pas avant le début 2030, le budget de l’agence spatiale européenne (ESA) étant déjà engagé jusque-là. La NASA et l’ESA discutent sur la possibilité d’une mission conjointe vers l’une ou l’autre des géantes de glace. Chaque mission coûte 2 ou 3 milliards de dollars, les agences ont donc un intérêt à s’associer.

Quels sont les défis technologiques pour cette mission ?

Il y a un degré de complexité important dans l’étude des deux géantes de glace. Pour mesurer la composition de leur atmosphère et mieux comprendre leur scénario de formation, la méthode la plus efficace consiste à faire descendre une sonde dans leur atmosphère. Plus précisément, réaliser un vaisseau interplanétaire qui irait se mettre en orbite autour de Neptune et larguerait la sonde dans son atmosphère. A la Nasa, une équipe du Jet Propulsion Laboratory (JPL) travaille sur ce scénario. Pour cela, il est nécessaire d’avoir un gros bouclier thermique car la sonde doit entrer très vite et ouvrir un parachute qui fonctionne à basse température. Les compétences existent en Europe pour réaliser une telle mission, à l’ESA et chez les trois principaux industriels assembleurs de satellites : Airbus Defense & Space, OHB et Thales Alenia Space. Au laboratoire d’astrophysique de Marseille (LAM), le professeur Olivier Moussis travaille intensément sur la définition scientifique du projet de construction d’une telle sonde atmosphérique.

Si les missions vers les géantes de glace sont sélectionnées, quand pourraient-elles avoir lieu ?

Pour aller vers ces géantes de glace, il nous faut beaucoup de vitesse et d’énergie. On est obligé de se faire aider de l’assistance gravitationnelle de Jupiter, permettant de donner une impulsion au vaisseau pour aller vers Neptune et Uranus. Pour ces raisons de trajectographie, si on tire après 2030, on ne pourra pas tirer tout de suite vers Neptune. La première fenêtre de tir est favorable à Uranus. Peut-être le choix s’orientera vers une belle mission vers Uranus d’abord, mais cela n’est que spéculation personnelle. Il faut attendre un peu que la NASA et l’ESA aient étudié les différentes possibilités et pris une décision.

Le récap’ insolite du mois #1

Coronavirus : Google annule son traditionnel poisson d’avril

La décision est tout à fait légitime. Le monde entier lutte chaque jour contre la pandémie du Covid-19 qui est d’une rare ampleur.
« Cette année, nous allons prendre congé de cette tradition par respect pour tous ceux qui luttent contre la pandémie de Covid-19. Notre objectif premier est d’aider les gens, alors gardons les blagues pour le mois d’avril 2021, qui sera sans doute bien plus brillant que celui-ci », écrit Lorrain Twohill, responsable marketing de Google, dans une note interne à ses équipes.
Comme chaque 1er avril, Google se distingue par la qualité de ses poissons d’avril. Etant donné le contexte actuel, la firme américaine craint évidemment que celui-ci ne soit de mauvais goût.
Par le passé, Google a démontré qu’il savait être un spécialiste du genre avec une imagination débordante, avec par exemples : Tulip, le (faux) service intégré qui permettait de communiquer avec les plantes, ou encore une (fausse) application mobile capable de nettoyer l’écran du smartphone.

De l’urine pour créer des bases lunaires 3D

Dans une étude parue dans la revue Journal of Cleaner Production, des scientifiques explorent l’hypothèse que l’urine des astronautes pourrait aider à créer un matériau à partir du régolithe lunaire.
Ils envisagent d’employer l’urée (une substance qui se forme dans le foie et est éliminée dans les urines), pour créer « un mélange chimique permettant de réduire l’eau ». Ce mélange est nécessaire à la conception d’un matériau suffisamment robuste.  L’urée, utilisée comme plastifiant, servirait à rendre le mélange plus flexible, avant qu’il ne durcisse (un peu comme du béton).
Les auteurs ajoutent néanmoins qu’il faudra approfondir d’autres études avant d’évaluer si ce matériau peut supporter les réelles conditions de la Lune.

Une application pour déterminer votre chance d’être atteint du Covid-19

A l’analyse de votre toux, des chercheurs américains affirment pouvoir déterminer si vous êtes atteints du coronavirus. En effet, la gêne respiratoire, la toux  et la fièvre comptent parmi les symptômes principaux. Et c’est sur cette caractéristique que se base COVID Voice Detector.
L’application est assez simple à utiliser puisqu’il s’agit de soumettre âge,  taille, poids, origine ethnique et, surtout, antécédents médicaux. Ensuite, les utilisateurs sont invités à tousser trois fois devant leur microphone, puis à s’enregistrer en train de réciter l’alphabet.  Les créateurs du service reconnaissent tout de même que l’application n’a pas valeur de diagnostic médical.

 

Non, l’Internet ne risque pas d’être saturé !

Stéphane Bortzmeyer connaît très bien les moindres rouages de l’Internet. Il est notamment membre de Gitoyen (association loi de 1901 regroupant plusieurs entreprises et associations intervenant comme fournisseur d’infrastructure d’hébergement et d’accès à Internet) et de l’IETF (Internet Engineering Task Force) qui élabore et promeut des standards Internet. Selon cet expert, il n’y a pas de craintes à avoir.

Techniques de l’Ingénieur : De nombreux articles évoquent un risque de voir l’Internet saturé à cause du confinement. Quelle est votre opinion ?

Stéphane Bortzmeyer : L’Internet ne s’est pas écroulé contrairement à quelques prévisions sensationnalistes. Ces annonces alarmistes, indiquant que le trafic réseau a augmenté de tel ou tel pourcentage à certains endroits, n’ont pas de sens. L’Internet est un ensemble de réseaux qui sont connectés entre eux comme des tuyaux. Il y a une augmentation des usages, mais l’Internet en connaît en permanence. Tous les deux mois, nous avons un nouveau record ! Il y a toujours des tensions, car il y a toujours de nouveaux usages et services.

Certes, il y a eu des régions confinées où la capacité du réseau a été dépassée par moments. Cela ne signifie pas pour autant que l’Internet est « tombé ». Que l’on soit confiné ou que l’on travaille au bureau, nous utilisons l’Internet en permanence. Lorsqu’on atteint une limite, le débit ralentit. Pour l’utilisateur, cela se traduit par des téléchargements qui prennent un peu plus de temps ou des vidéos qui s’arrêtent quelques secondes ou minutes.

Report de Disney+, baisse des débits des plateformes de streaming vidéo… Toutes ces annonces sont-elles justifiées ?

Non, il s’agit plus d’un plan de communication pour se présenter comme des « gentils » qui acceptent de s’adapter à la situation pour ne pas saturer Internet. Pourtant, le report de quelques jours de Disney+ [la plateforme a annoncé le 21 mars qu’en accord avec le gouvernement français, elle reportait son lancement en France au 7 avril 2020, et non plus au 24 mars comme prévu initialement, NDLR] était inutile. La semaine prochaine, nous serons toujours en confinement et le trafic sera exactement le même…

Même en période de crise sanitaire, le business et les problématiques politiques ne disparaissent pas. Il y a toujours des rivalités qui se maintiennent.

L’Organe des régulateurs européens des communications électroniques, le BEREC (Body of European Regulators for Electronic Communications) a précisé dans son communiqué du 30 mars qu’il n’y a pas eu d’explosion du trafic.

De nombreuses personnes qui télétravaillent, ou des parents qui veulent se connecter à des serveurs de l’Éducation nationale (dont les « Espace numérique de travail » – ENT), se plaignent de lenteurs. Quelles en sont les causes ?

Elles peuvent être multiples. La cause peut se trouver dans l’ordinateur de l’utilisateur qui est infecté par des codes malveillants impactant ses performances. Le réseau domestique peut être également saturé à cause de multiples connexions simultanées dans le foyer. La liaison entre le poste de travail du salarié et le Système d’information (SI) de son entreprise peut présenter des goulots d’étranglement. Mais, dans la majorité des cas que j’ai pu étudier, c’est le SI qui n’était pas adapté pour une montée en charge aussi forte et ponctuelle. De nombreux sites web ont également été conçus sans aucune préoccupation de résistance à une forte audience. Résultat, ils deviennent inaccessibles plus ou moins temporairement. Il faut étudier chaque rouage de cette chaîne globale (du PC de l’ordinateur au SI de son organisation) pour repérer puis corriger les dysfonctionnements. Mais les équipes informatiques sont surchargées de travail en ce moment.

Le Plan Très haut débit prévoit de couvrir 80 % du territoire français d’ici 2022 avec des accès FTTH. Cet objectif ne sera pas atteint*. Si plus de foyers étaient équipés en fibre optique, la situation serait-elle moins compliquée ?

Je ne pense pas. Comme je viens de l’expliquer, c’est un ensemble de facteurs qui a un impact sur la qualité de la connexion. A Paris, je capte une trentaine de réseaux wifi qui se partagent tous la même ressource en 2,4 GHz. La fibre, c’est très bien. Mais que l’on soit ou non connecté à la fibre n’y change rien. Dans la plupart des cas, ce sont les serveurs et les sites qui ont été mal configurés. Toute la difficulté réside dans la nécessité de trouver un équilibre dans toute la chaîne.

Quelles leçons peut-on tirer de cette crise ?

C’est un événement exceptionnel qui était difficile à anticiper et il n’est pas sûr qu’il se reproduise. Il existe de nombreux virus, mais ils n’ont pas eu un impact aussi fort. S’il y a une leçon à retenir, c’est qu’il faut optimiser les serveurs en matière d’économie et de performances.

Propos recueillis par Philippe Richard

Crédit photo Une : Antoine Lamielle

* En termes de couverture territoriale, le câblage fibré n’atteint que 20 %, selon les résultats publiés par l’Arcep (Autorité de régulation des communications électroniques) fin 2019.

Une blockchain pour rassurer les consommateurs

Selon une étude réalisée en 2018 par le Center for food integrity (association américaine à but non lucratif) , seul un tiers des consommateurs a confiance en l’industrie alimentaire contre 47 % un an auparavant. Pour regagner leur confiance, des entreprises misent sur la transparence et la traçabilité des données.

Ces deux objectifs peuvent être atteints en s’appuyant sur une blockchain comme celle développée par Connecting Food. Créée par Maxine Roper et Stefano Volpi, qui ont travaillé 20 ans dans le secteur de l’alimentaire, cette start-up a reçu l’aide de l’institut du CEA List et a aussi bénéficié de la bourse French Tech de Bpifrance. Elle compte une vingtaine de clients en Europe.

Techniques de l’Ingénieur : Axiane Meunerie, un des leaders de la fabrication et de la commercialisation de farines en France, s’est appuyé sur votre expertise pour assurer la traçabilité de sa farine « Savoir Terre ». Quels sont les avantages de votre blockchain pour ce secteur d’activité ?

Stéphane Marin : Qu’il s’agisse de cette farine, issue d’une agriculture française et durable, ou d’autres produits alimentaires, le principe de notre solution LiveTrack est toujours le même : il s’agit de capter en temps réel l’information de chaque acteur de la chaîne d’approvisionnement et de les enregistrer dans la blockchain pour en garantir l’authenticité et la non-falsification. Cette chaîne comprend les agriculteurs, mais aussi les moulins, les transporteurs, la distribution… Il s’agit de récupérer de la data au plus près des systèmes d’information qui la produisent.

À la différence d’une blockchain publique, comme celle de bitcoin, il s’agit ici de blockchain « à permission ». Les acteurs, en nombre restreint, se limitent aux producteurs, transformateurs, distributeurs, et doivent certifier leur identité à l’entrée afin de garantir la confidentialité des données partagées.

Une fois toutes ces données identifiées, nous les partageons avec les autres différents acteurs de la filière. Si des données devaient être modifiées, chaque membre en serait ainsi informé.

Vous assurez également des audits de la « supply chain » d’Axiane Meunerie : pouvez-vous expliquer ?

Grâce à la connaissance métier des deux fondateurs de Connecting Food, nous avons développé une solution unique au monde, LiveAudit. C’est un module de la solution Connecting Food, qui applique un double contrôle aux informations que chaque acteur renseigne dans le système : cohérence et conformité.

Contrairement à des audits plus « classiques » menés une fois par an ou tous les cinq ans ou effectués de façon aléatoire, notre solution permet d’authentifier et de certifier en temps réel, de manière totalement numérique, qu’un produit respecte bien les engagements (dont le cahier des charges) et les promesses faites au consommateur final tout au long de son parcours dans la filière.

Comment les consommateurs peuvent-ils vérifier les informations qui leur sont données ?

Ils peuvent utiliser notre application LiveScan. Il suffit de flasher, avec l’appareil photo de son smartphone, le QR code figurant sur un produit pour savoir quelle est son origine exacte, quelles sont les différentes étapes de sa transformation et le détail des audits menés. Pour revenir sur l’exemple de la farine, les consommateurs peuvent connaitre l’identité des agriculteurs ayant cultivé le blé tendre ainsi que la localisation de leur exploitation.

Un scandale sanitaire comme celui de la viande de cheval et les contrefaçons de médicaments serait-il limité, voire impossible, avec la blockchain ?

L’idée est en effet de limiter les scandales. Mais il faut être honnête : rien n’est impossible. Ce n’est pas parce qu’il y a une blockchain qu’un nouveau scandale ne pourrait pas éclater. Notre objectif reste à vérifier l’entièreté d’un processus et toutes les informations. Il s’agit de contrôler au maximum chaque transaction pour s’assurer que les différents acteurs et les outils de production sont parfaitement identifiés. Si un acteur qui a 50 tonnes de farine en envoie 80, cela se verra immédiatement. Cette information sera suspecte.

Vous avez remporté un appel d’offres pour travailler avec Coop Italia : où en sont vos projets de développement à l’étranger ?

Nous travaillons avec Coop Italia, qui est le premier distributeur italien, pour la traçabilité des œufs bio. Dans cette blockchain, il y a notamment un acteur qui fait des analyses permettant de détecter la présence de salmonelle.

Nous continuons à développer notre présence dans ce pays. Nous avons également un client en Allemagne qui commercialise des sodas aux fruits bio sans sucre. Enfin, en Suède, nous travaillons avec un acteur de la génétique animale.

Propos recueillis par Philippe Richard

Fermes urbaines : l’agriculture en ville, un marché juteux ?

C’est la nouvelle tendance dans les grandes villes en manque de verdure. Pour manger local, et plutôt que de vivre à la campagne, certains ont préféré faire venir les cultures à la ville. Si la question du modèle agricole urbain se pose depuis les années 1990, plusieurs startups se sont emparées du sujet durant ces dernières années. Elles s’appellent Agricool, Infarm, Agripolis ou encore Peas&Love, et sont à l’origine de l’installation de potagers d’un genre nouveau à l’intérieur ou à la périphérie de grandes villes. Sur son site internet, la jeune pousse française Agricool affirme « contribuer chaque jour à la construction d’un nouveau système alimentaire, plus sain, plus responsable ».

De manière générale, les cultures des fermes urbaines sont également composées de fruits, d’aromates, de graines germées, et de salades. Les différents plants poussent dans des substrats, sous des LED qui imitent le rayonnement solaire. Ces serres innovantes fonctionnent par hydroponie, voire aéroponie pour les plus récentes. Qu’elles soient hydroponiques ou aéroponiques, l’un des intérêts de telles unités de culture est de drastiquement réduire les besoins en eau, jusqu’à 90 %.

Un « modèle fiable » et une levée de fonds de 30 millions d’euros

Créée en 2015 par Guillaume Fourdinier et Gonzague Gru, tous deux fils d’agriculteurs, Agricool a développé une technologie de culture verticale, installée dans d’anciens conteneurs maritimes. Au départ, la jeune pousse s’est spécialisée dans la culture de fraises. « Notre solution est modulaire. Ces containers recyclés sont comme des briques de Lego à taille humaine et parfaitement adaptés pour s’intégrer dans les villes » explique Guillaume Fourdinier, par voie de communiqué. « Ces briques peuvent être empilées, dissociées, rattachées. Tout a été pensé pour s’adapter au mieux aux contraintes inhérentes aux espaces urbains », ajoute-t-il.

Forte de ses premières expériences en région parisienne, la startup a inauguré le 11 février dernier un nouveau site à La Courneuve, en Seine-Saint-Denis (93). Dix conteneurs, dans lesquels pousseront fraises, salades et herbes aromatiques, ont été installés. Aujourd’hui, la startup propose la culture de six produits différents, dont du basilic, de la coriandre ou du persil. Tous les plants seront présents sur ce nouveau site. « Ces produits marquent le début de notre production diversifiée » précise Guillaume Fourdinier. Tous ces produits seront ensuite commercialisés dans différents points de vente. À Paris, les références d’Agricool sont vendues dans plusieurs magasins Monoprix.

En rayon, une barquette de 125 grammes de fraises est vendue 2,99 euros. 100 grammes de salade sont, quant à eux, vendus 3,20 euros. La startup envisage également d’organiser des ventes en direct dans ses lieux de culture. « Sur quatre ans de recherche et développement, nous avons désormais fait la preuve que notre modèle est fiable, nous avons fait baisser nos coûts de production de 30 % et nous gagnons de l’argent » affirme à l’AFP Guillaume Fourdinier. Ainsi, le modèle économique de la jeune société semble séduire. Depuis son lancement, Agricool a levé plus de 30 millions d’euros, notamment venus de Bpifrance et du fonds Danone Manifesto Ventures.

Des fermes urbaines en entrepôt, au plus près des clients

La startup allemande Infarm a, quant à elle, adopté une autre stratégie. Cette jeune pousse a proposé à ses clients d’intégrer directement des unités de culture au sein même de leurs lieux de travail. « L’entreprise propose des potagers d’intérieur que nous installons directement dans les restaurants et les supermarchés », explique Florian Cointet, DG d’Infarm France à L’Étudiant. Actuellement, la société est présente en Allemagne, au Danemark, en France, au Luxembourg et aux États-Unis. Au total, plus de 500 potagers Infarm ont déjà été installés. En France, cette jeune pousse travaille également avec Metro, fournisseur de matières premières essentiellement pour les professionnels des métiers de bouche.

En novembre 2018, la firme a intégré dans son entrepôt de Nanterre dix-huit potagers en verre sur une surface de 80 m². L’investissement s’est élevé à environ 200 000 euros. Pour Benoît Feytit, directeur général de Metro France, installer des potagers urbains au sein de ses entrepôts permet de valoriser les circuits courts et de répondre à une demande de la clientèle. « Ce projet […] illustre […] notre volonté d’innover et de proposer à nos clients des produits […] respectueux de l’environnement. C’est aussi l’une des réponses que nous souhaitons apporter à la demande de plus en forte de nos clients […] de favoriser les circuits courts » explique-t-il. À l’heure actuelle, Metro propose à ses clients 22 variétés différentes d’herbes aromatiques et de micro-végétaux.

Pour l’entreprise, posséder une ferme urbaine permet de vendre immédiatement les produits aux clients. En effet, les vitrines d’Infarm ne sont éloignées des étals que de quelques mètres. Notons qu’ainsi cultivés, les produits coûtent en moyenne 10 à 15 % plus cher que leur équivalent en référence classique. Plusieurs restaurateurs ont d’ores et déjà été séduits par ces produits. Parmi eux se trouve Guillaume Gomez, meilleur ouvrier de France et chef des cuisines de l’Élysée.

Aujourd’hui, la part des herbes et végétaux issus de la ferme urbaine ne représente pas encore un revenu significatif. « Cela ne remplacera jamais l’agriculture classique, c’est une solution supplémentaire, qui est essentielle pour éduquer nos clients » concède Ertan Yilmaz, responsable du secteur Food chez Metro.

 

Une colle sous-marine décollable à l’électricité

À l’heure actuelle, il n’existe pas encore d’adhésifs de ce type dans le commerce.

Un domaine de recherche émergent

Les recherches académiques sur les adhésifs intelligents sont en revanche assez nombreuses. Néanmoins, la plupart de ces études concernent l’adhérence de colles sur des surfaces sèches.

Comme nous l’affirme le professeur associé Bruce P. Lee du Department of Biomedical Engineering du Michigan Technological University : “La présence d’eau a tendance à fragiliser la plupart des adhésifs synthétiques, à la manière d’un pansement qui se décolle quand vous prenez la douche.”

On dénombre ainsi une petite poignée d’études concernant l’adhésion en milieu humide. “Ces adhésifs sont contrôlables par des modifications de pH ou des stimuli lumineux. Ces modes de stimulation ont l’inconvénient d’être peu pratiques à mettre en œuvre en conditions réelles”, ajoute B.P Lee.

Un mécanisme d’adhésion particulier

L’équipe de chercheurs a donc voulu développer un adhésif fonctionnant sous l’eau et décollable par l’électricité. Pour cela, ils ont utilisé le catéchol, un composé que l’on retrouve dans les protéines adhésives utilisées par les moules pour adhérer à des surfaces sous-marines.

“Le catéchol est capable de former des liaisons fortes avec des métaux, des polymères et même des tissus mous. La force d’adhérence de cette molécule dépend de son état d’oxydation. Nous avons donc utilisé l’électrochimie pour contrôler cet état oxydation qui à son tour permet de contrôler les propriétés adhésives”, affirme le chercheur.

Dispositif permettant de tester l’adhérence de la colle par indentation. Le carré bleu est la partie adhésive. Credit : B.P Lee.

Des résultats encourageants

Les travaux que les chercheurs viennent de publier dans le Journal of the American Chemical Society avaient pour but de démontrer la faisabilité d’utiliser l’électrochimie pour contrôler l’adhérence du catéchol.

“Nous avons conçu un dispositif de test capable de mesurer l’adhérence tout en envoyant de l’électricité au niveau de la zone adhésive. Cette méthode nous a permis de systématiquement déterminer l’effet de l’électricité (de la tension ou de l’intensité), de la concentration en sel au niveau de l’interface et de la concentration en catéchol sur l’adhérence”, explique B.P Lee.

Ils ont ainsi pu démontrer que, quand l’adhésif était en contact direct avec le substrat, il pouvait être désactivé sous l’effet de l’électricité, jusqu’à un détachement complet.

“C’est un peu comme appuyer sur un bouton pour stopper l’adhérence de la colle”, ajoute le chercheur.

Quelles applications industrielles ?

Ce projet est financé par l’Office of Naval Research américain, car ses recherches permettraient de concevoir des adhésifs intelligents pour des applications sous-marines. Par exemple, ce type de colle pourrait servir à faire adhérer des capteurs présents sur des bateaux ou des sous-marins. Le décollement pourrait ainsi être automatisé et contrôlé par un dispositif électronique.

Il y a aussi des applications dans le biomédical. On peut par exemple imaginer des pansements ou des bandages que l’on peut retirer sans douleur”, explique B.P Lee.

Les travaux de ces chercheurs se poursuivent. La prochaine étape sera de trouver un moyen de recoller cet adhésif de la même manière, ce qui permettrait de répéter plusieurs fois le processus d’activation et de désactivation.

“La difficulté est actuellement dans le contrôle de la chimie responsable de l’adhérence du catéchol, car il subsiste encore beaucoup d’inconnues », rappelle le chercheur.

Il reste donc encore du travail avant de voir apparaître ce type de colle sur le marché, mais la faisabilité est démontrée.

Source

Contre-choc pétrolier : un prix du baril au plus bas depuis 2002

Philippe Chalmin est économiste et spécialiste des questions pétrolières. Professeur d’histoire économique à l’Université Paris-Dauphine, il est fondateur du Cercle Cyclope, qui publie un rapport annuel sur l’état et les perspectives des marchés mondiaux de matières premières. Il revient pour Techniques de l’Ingénieur sur les causes et les conséquences de cette crise au niveau mondial.

Techniques de l’Ingénieur : Le prix du baril de Brent est à son plus bas depuis 2002. Pourquoi ?

Philippe Chalmin : Depuis les frappes américaines sur l’Iran en janvier, le prix du baril de Brent est resté dans la zone des 50-55 dollars. Début mars, lors d’une réunion de l’OPEP+, les pays de l’OPEP proposent de réduire la production pour soutenir les prix. Ils veulent réduire de 1,5 million de barils par jour pour les pays de l’OPEP et de 500 000 barils par jour pour la Russie. Le lendemain, les Russes refusent et annoncent maintenir leur production. Mohamed Bin Salman, le prince héritier d’Arabie Saoudite, décide alors de casser le marché et ouvre les vannes. En quelques jours, le baril passe de 55 dollars à 25 dollars. Le baril n’a pas été aussi bas depuis 2002.

Qu’est-ce que cela implique alors que surgit une crise mondiale liée au coronavirus ?

La stratégie saoudienne peut se comprendre, mais elle intervient au moment où la crise du coronavirus devient mondiale. Des activités entières sont paralysées, la demande de pétrole au niveau mondial va s’effondrer à partir du mois de mars. Plusieurs experts anticipent des baisses de la demande mondiale. Les estimations qui tournent prévoient une baisse entre 5 et 10 millions de barils par jour, alors que la production journalière mondiale tourne autour de 100 millions de barils.

Ajoutez à cela le fait que les Saoudiens comptent augmenter leur production de 9,7 à 12 millions de barils par jour en avril. Pour leur part, les Emiratis augmenteront leur production de 500 000 barils. La Russie, en réaction, va aussi augmenter sa production pour tenir tête. Le résultat est qu’au moment où la demande va diminuer de 5 à 10 millions de barils par jour, l’offre va augmenter de 3 millions de barils par jour. A priori, nous allons donc nous retrouver avec un excédent mondial pouvant peser 10 millions de barils par jour, c’est-à-dire 10 % du marché mondial. À ce niveau-là, les prix vont continuer à baisser. Donald Trump a dit qu’il se tenait prêt à intervenir « au moment opportun » dans cette guerre des prix, mais là encore, personne ne sait ce que cela signifie.

Quelles peuvent être les conséquences au niveau mondial ?

Beaucoup de raffineries vont soit fermer, soit entrer en maintenance. La baisse est un sacré cadeau pour tous les pays en développement importateurs comme l’Inde. Au-delà, cela va impliquer une crise majeure pour tous les pays exportateurs. Les pays producteurs définissent l’équilibre de leur budget sur un prix du baril. Pour la Russie, c’est 42 dollars, pour l’Algérie 109 dollars et pour l’Arabie Saoudite 83 dollars. À 30 dollars le baril, l’Arabie Saoudite a un déficit budgétaire de 22 %. Cela représente 170 milliards de dollars de déficit. Le pays dispose d’un fonds souverain de l’ordre de 500 milliards de dollars, mais cela risque de ne pas être totalement suffisant.

Malgré la crise, la Chine a plutôt maintenu ses importations de pétrole pour l’instant. Si le pays a augmenté ses stocks stratégiques, il dispose aussi d’une grosse activité de raffinage et réexporte de nombreux produits raffinés. Il devient en plus intéressant pour les entreprises de négoces d’acheter du pétrole et de le stocker pour le revendre plus tard. La Chine a ainsi importé 10,7 millions de barils par jour en décembre, 10,4 en janvier et il semblerait qu’elle importerait encore 10 millions de barils par jour en mars. Rappelons que le confinement n’a pas été total en Chine. La production industrielle en Chine a diminué de 13 % sur janvier et février, mais le pays a maintenu ses importations, aussi sur les autres matières premières : fer, métaux non ferreux…

Propos recueillis par Matthieu Combe

Nos données sont-elles privées en cas d’épidémie ?

La France confinée et surveillée. Un amendement  initialement déposé au Sénat évoquait la possibilité d’obliger les opérateurs français à partager les données de leurs clients avec les autorités afin de faire face à l’épidémie de Covid-19. Il a depuis été retiré du texte provisoire.

La France n’est pas le seul pays à envisager une telle mesure. Elle est déjà adoptée en Chine, en Italie, en Corée du Sud, en Allemagne ou encore en Autriche. Israël devrait également passer au crible les données de géolocalisation régulièrement collectées par les opérateurs mobiles dans le pays et en Cisjordanie.

Dans tous les cas, l’objectif est le même : repérer des personnes qui sont entrées en contact étroit avec des porteurs du Covid-19 et leur envoyer des SMS afin qu’elles se mettent en quarantaine immédiatement.

La divulgation de ce plan a suscité l’inquiétude des défenseurs de la vie privée en Israël, mais aussi dans les autres pays. En France, cet amendement ne laisse pas indifférent. « Nous craignons que l’État n’ait déjà fait des tests sans le dire officiellement, car le droit le permet. Depuis 2015, la loi renseignement semble déjà autoriser de telles mesures. On peut se passer de cet amendement », Arthur Messaud, analyste juridique et politique à la Quadrature du Net.

Sur son site, cette association se demande si cet usage serait « conforme au règlement général sur la protection des données (RGPD) ».

Et de nombreux Français ont été surpris de recevoir un SMS leur rappelant les consignes de sécurité à appliquer pour lutter contre la propagation du Covid-19. Pourtant, cet envoi massif, prévu par la loi française, respecte le droit européen.

Missions d’intérêt public

La Commission Nationale de l’Informatique et des Libertés (CNIL) rappelle que le règlement général sur la protection des données (RGPD) permet l’utilisation de données personnelles sans consentement des personnes, notamment dans le cadre d’une obligation légale, de missions d’intérêt public ou pour la sauvegarde des intérêts vitaux des personnes.

« L’envoi des messages nécessaires à l’objectif prévu par l’article L. 33-1 du Code des postes et communications électroniques, dans le contexte de lutte contre la propagation du coronavirus (COVID-19), s’inscrit clairement dans ce cadre », a précisé la commission.

D’ailleurs, aucun numéro de téléphone n’a été transmis au gouvernement : celui-ci s’est contenté de transmettre un message aux opérateurs, qui se sont chargés, avec leurs propres bases de données, de l’acheminer vers les particuliers.

Mais l’amendement envisagé, le SMS de l’État et la multiplication des téléconsultations suscitent des interrogations sur la protection des données de santé. Dans le droit français, elles ne peuvent ni être cédées ni être vendues.

Collecte de données de santé par les entreprises

Et le RGPD a renforcé leur protection. Ce texte européen définit les données de santé comme étant « des données à caractère personnel relatives à la santé physique ou mentale d’une personne physique, y compris la prestation de services de soins de santé, qui révèlent des informations sur l’état de santé de cette personne ».

Il s’agit donc de données sensibles qu’il est interdit de collecter. Sauf exceptions. En France, le législateur a décidé « que les traitements ayant une finalité d’intérêt public, notamment à des fins de recherche, peuvent utiliser des données de santé après autorisation de la CNIL », indique au Monde Hélène Guimiot-Bréaud, Chef du service de la santé de la CNIL.

La CNIL a aussi rappelé récemment  les conditions dans lesquelles les données personnelles, notamment de santé, peuvent être utilisées par les entreprises.

Elle précise que « les employeurs doivent s’abstenir de collecter de manière systématique et généralisée, ou au travers d’enquêtes et demandes individuelles, des informations relatives à la recherche d’éventuels symptômes présentés par un employé/agent et ses proches ».

Les entreprises ne peuvent donc mettre en œuvre des relevés des températures corporelles de chaque employé/agent/visiteur ou la collecte de fiches ou questionnaires médicaux auprès de l’ensemble des employés/agents.

Selon, Arthur Messaud, de la Quadrature du Net, il est encore trop tôt pour savoir si des données sensibles (et dont de santé) ont été exploitées par des entreprises et les GAFA. « Une fois la crise passée, il faudra attendre plusieurs mois pour avoir une opinion plus précise ».

Jeu concours : Tentez de gagner l’ouvrage du CETIM « Fabrication additive métallique – Les fondamentaux »

Qu’est-ce que la Fabrication additive métallique ?

La fabrication additive est l’une des technologies liées au numérique susceptible de transformer profondément les modes de production et, par conséquent, les modèles économiques actuels. Bénéficiant continuellement d’avancées technologiques majeures, elle ouvre la voie à de nouveaux concepts et modes de conception inenvisageables jusque-là, tout en promettant d’autres champs d’applications dont certains restent encore à explorer.
Mais qu’en est-il de la réalité technologique et économique ? Concrètement, que permet la fabrication additive aujourd’hui avec les contraintes réelles d’une entreprise ? Quels investissements en temps, en formation, en équipement, seront nécessaires ?

Comment gagner votre ouvrage ?

Destiné aux entreprises qui hésitent encore à sauter le pas, ce guide les accompagne dans leurs choix et leur présente les différentes possibilités qui leurs sont offertes. Il décrit d’abord l’évolution de la technologie durant les 30 dernières années, le marché actuel, les avantages et les limites de cette technique, et les questions à se poser avant d’investir. L’ouvrage dresse ensuite le panorama des différentes technologies disponibles avant de revenir dans le détail sur chacune d’elles : principe de fonctionnement, point forts et limites, applications, etc.

Pour participer et tenter de gagner un ouvrage du Cetim « Fabrication additive métallique : les Fondamentaux » ainsi que de nombreux lots Techniques de l’Ingénieur,

Il suffit de répondre à ses 3 questions :

Cliquez ici

Les gagnants seront tirés au sort à partir du 17/04/2020. Pour plus d’informations, vous pouvez consulter le règlement de ce concours.

Bonne chance à tous !

Le Covid-19 risque d’amoindrir les recettes de TICPE pour 2020

Crédit photo : Matthieu Toret

Depuis le début de la crise sanitaire liée au Covid-19, nombre d’entreprises tournent au ralenti, et davantage d’automobilistes laissent leur voiture au garage. Selon le Réseau de transport d’électricité (RTE), la consommation d’électricité a baissé de 10% depuis le 16 mars, date de fermeture des établissements scolaires. Dans le même temps, le prix des carburants dégringole à la pompe, du fait de la baisse mondiale de consommation de pétrole.

Pourtant, conformément au projet de loi de finances rectificative pour 2020, le ministère de l’Économie maintient ses prévisions de recettes de la taxe intérieure sur les produits énergétiques (TICPE) à 14,5 milliards d’euros. Bien qu’un rebond d’activité soit attendu par le gouvernement en sortie de crise, les attentes du gouvernement paraissent optimistes. Une thèse que soutient Maître Matthieu Toret, avocat spécialiste en fiscalité énergétique.

Techniques de l’Ingénieur : Qu’est-ce que la TICPE ? En quoi consiste-elle ?

Maître Matthieu Toret : La taxe intérieure de consommation sur les produits énergétiques, ou TICPE, est une taxe qui porte sur une soixantaine de produits énergétiques, dont les principaux sont les essences et le gazole. La TICPE s’applique également sur le fioul domestique, le fioul lourd, ou encore le white spirit.

Qui sont les Français soumis à cette taxe ?

En France, la TICPE est connue du grand public comme étant la taxe sur les carburants, celle qui a déclenché la crise des gilets jaunes. C’est une taxe qui est payée par toutes les personnes qui consomment des énergies, aussi bien les particuliers que les entreprises. Ainsi, les automobilistes y sont soumis lorsqu’ils font le plein de leur voiture. Officiellement, les redevables sont les fournisseurs d’énergie, Total par exemple. Mais bien évidemment, c’est reporté sur les consommateurs.

Comment est calculée la TICPE ?

Depuis 2014, cette taxe se divise en deux parties. La première, budgétaire, est fixe. L’autre partie est calculée en fonction des émissions de CO2 du produit. C’est pour cela que le diesel devait augmenter plus que l’essence, car il est plus polluant. Cette part carbone a augmenté d’année en année entre 2014 et 2018. Entre 2018 et 2019, une nouvelle hausse de cette taxe carbone était prévue. Elle avait finalement été gelée consécutivement au mouvement des gilets jaunes, conformément aux annonces d’Emmanuel Macron en décembre 2018.

Quelle part représente la TICPE dans les recettes de la France ?

La TICPE représente une part importante du budget annuel français. La première recette fiscale est la TVA. La deuxième recette est l’impôt sur le revenu. La troisième est l’impôt sur les sociétés. Et la taxe sur les produits énergétique est, à elle seule, la quatrième recette de l’État. Elle constitue donc un très gros levier fiscal.

Quel impact a la crise du coronavirus sur la TICPE ? Comment lier les deux problématiques ?

Le gouvernement a publié son projet de loi de finances rectificatif. Ce dernier tire les conséquences de la crise sanitaire que traverse actuellement la France, puisque l’État a débloqué tout un tas d’aides en faveur des entreprises. Et cela est bien normal et légitime. Or, il va falloir que l’État les finance soit par l’impôt soit par la dette. Donc, dans la loi de finances, il y a des mesures de financement. Il y a également des recettes escomptées. Concernant la TICPE, le Gouvernement a maintenu ses prévisions de recettes de TICPE, à 14,5 milliards d’euros. Et ce, malgré la crise que traverse la France.

Cette estimation du gouvernement vous semble-t-elle réaliste ?

Les recettes de TICPE attendues pour 2020 sont équivalentes, voire supérieures aux recettes des années précédentes. Effectivement, cela semble très étonnant et optimiste, puisque les automobilistes sont appelés à rester chez eux. Les entreprises, supportant également la TICPE, tournent pour nombre d’entre elles au ralenti ou sont à l’arrêt. Par conséquent, il va y avoir une baisse inévitable de la consommation de produits énergétiques, et donc une baisse des recettes, c’est mécanique. De manière générale, il peut y avoir un écart entre le budget prévisionnel et le budget réel. Dans ce cas, je pense que l’écart risque d’être conséquent, bien qu’il soit difficile de donner une estimation chiffrée à l’heure actuelle.

Pourquoi Bercy ne revoit-il donc pas cette estimation à la baisse ?

Le gouvernement se permet de maintenir ces prévisions de recettes, puisqu’il espère un rebond d’activité après le confinement, dont la date est incertaine pour le moment. Malgré cela, ces estimations restent tout de même optimistes, car les automobilistes ne vont pas rouler quatre fois plus parce qu’ils ont été confinés. Ils rouleront peut-être un petit peu plus, parce qu’ils auront le goût de sortir un petit peu plus, mais ils ne vont pas passer leur temps sur les routes de France.

Est-il envisageable que l’État compense des éventuelles recettes déficitaires par une hausse de la TICPE ?

Pour le moment, cela n’est pas prévu. A priori, ce sujet n’est pas à l’ordre du jour, et reste extrêmement sensible, comme l’a montré le mouvement des gilets jaunes. Le dégel de cette taxe carbone ne serait probablement pas accepté par les Français pour le moment en tout cas. La taxe carbone reste un sujet politiquement ultra-sensible. Cependant, il va bien falloir que l’État finance les mesures qu’il a annoncées soit par de l’endettement soit par des hausses d’impôts. Pour le moment, il ne s’agit que de recettes estimées. Toute décision sera probablement prise une fois le chiffre réel des recettes de TICPE pour 2020 connu.

Une hausse de la consommation énergétique sera-t-elle envisageable en sortie de crise ?

Si un fort rebond de l’activité est peu probable pour les automobilistes, il reste possible pour les entreprises. Toutes les entreprises industrielles qui sont actuellement à l’arrêt auront peut-être des carnets de commande plus remplis lorsque l’activité reprendra.

Les entreprises sont-elles obligatoirement soumises à la TICPE ?

Non. Comme c’est le cas pour beaucoup de taxes, la réglementation prévoit des exonérations en faveur de l’industrie lourde et des taux réduits en faveur des secteurs particulièrement exposés à la concurrence internationale.

Quel est le champ d’application des exonérations prévues en faveur du secteur industriel ?

La réglementation prévoit que les énergies consommées pour les processus industriels de la chimie, de la métallurgie et de la minéralogie soient exonérées de toutes les taxes énergétiques. Or, certaines entreprises n’ont pas connaissance de ces exonérations, ou n’ont jamais demandé à bénéficier des tarifs réduits. Si une entreprise ne fait pas la démarche auprès de son fournisseur, ce dernier lui applique automatiquement le tarif plein. Ces entreprises peuvent toutefois demander le remboursement de ces taxes à l’administration des douanes qui les gère.

Propos recueillis par Chaymaa Deb

L’électricité anglaise se décarbone, mais attention à la délocalisation, signale un rapport

En juin 2019, le gestionnaire du réseau de transport (GRT) britannique, National Grid s’est félicité du fait que pendant 15 jours, il n’y a eu aucun recours aux centrales au charbon outre-Manche. Et le GRT de poursuivre, estimant que cela signifiait que l’électricité britannique était bien en train de tendre vers l’objectif de zéro rejets carbonés.

Mais le Centre for Policy Studies (CPS) a étudié cette période en détail dans un rapport intitulé « The Great Carbon Swindle  », que l’on peut traduire par la « grande escroquerie du carbone » (en référence à un film musical des années 80…). Tony Lodge, analyste de CPS pour l’énergie et les infrastructures, part de plusieurs constats. D’abord, en 2019, la production décarbonée d’électricité outre-Manche a représenté 48,5 % des approvisionnements. Ensuite, le Royaume-Uni importe six fois plus d’électricité qu’il n’en exporte, en moyenne. Une électricité importée de France, de Belgique et des Pays-Bas, via les interconnexions. Sans oublier les imports en provenance d’Irlande.

Des émissions carbonées « délocalisées »

Ainsi, lors de la quinzaine de fin mai-juin 2019, quand les centrales au charbon britanniques n’ont pas livré un kWh au réseau, des importations en provenance des Pays-Bas, de Belgique et de France, ont quand même eu lieu. Pour la France, les importations peuvent être largement décarbonées, insiste le CPS, dans la mesure où le mix électrique français l’est. Mais selon le CPS, sur cette période, la modélisation montre que les Pays-Bas ont produit 535,8 GWh d’électricité à partir de leurs centrales au charbon (qui représentent encore un quart de leur mix électrique). En prenant en compte le fait que les Pays-Bas exportent environ 8 % de leur production au Royaume-Uni, cela signifie en moyenne que 40,4 GWh au charbon ont été exportés via l’interconnexion…

En outre, insiste l’étude du CPS, comme il est « impossible de savoir d’où proviennent les électrons sur la fameuse plaque de cuivre européenne », en estimant qu’une part de l’électricité allemande (encore en 2019 à 38% fondée sur le charbon) est parvenue au Royaume-Uni via les Pays-Bas, la Belgique ou même la France, la « quinzaine bas-carbone » de 2019 ne l’est pas tant que cela, juge le CPS. Ce qui équivaut à une « délocalisation » des émissions carbonées du Royaume-Uni et non à une absence de carbone dans le mix britannique.

Vers une taxe sur les importations émettrices de carbone ?

L’étude rappelle de plus que cette électricité n’est pas soumise au prix plancher du carbone britannique (British carbon price floor), ni d’ailleurs aux coûts de transport de courant. Ce qui donne aux importations un avantage compétitif, insiste le CPS.

Enfin, le CPS souligne qu’il est nécessaire de prendre en compte sur la durée lesdites interconnexions, car, alors que Londres a décidé l’arrêt de tout moyen de production au charbon dès 2025, leurs homologues du Continent en ont encore pour des années (jusqu’en 2038, pour l’Allemagne, 2030, pour les Pays-Bas). D’où la proposition du CPS de profiter de la COP26 à Glasgow, à l’automne, pour que le Royaume-Uni prenne le leadership, en mettant en œuvre une taxe carbone à la frontière sur la majorité des importations émettrices de carbone. Pour l’électricité, il s’agirait notamment d’imposer cette taxe qui serait proportionnée au mix de production de l’exportateur. Une telle mesure donnerait des règles du jeu équitables pour les producteurs britanniques et encouragerait les autres pays à accélérer leur transition vers les énergies renouvelables, tout en garantissant des revenus aux producteurs britanniques permettant d’être réinvestis, estime le CPS.

Le CPS adresse d’ailleurs cette demande à l’ensemble des produits importés fortement émetteurs, comme l’acier, le charbon, la chimie, le ciment, les engrais.

Covid-19 : Techniques de l’Ingénieur vous offre des articles pour soutenir les industriels

L’équipe éditoriale a passé au crible les 12 000 articles de nos ressources documentaires et a sélectionné ceux qui vont être utiles aux industriels dans la gestion de la pandémie : flux pharmaceutiques, fabrication rapide des gels hydroalcooliques, masques ou matériels médicaux.

Les articles ci-dessous pourront également aider les industriels dans la gestion du risque sanitaire au sein de leurs établissements.

Voici la liste des articles offerts exceptionnellement pendant cette période. Ils sont libres d’accès et consultables à volonté :

Logistique hospitalière – Besoins de gestion des flux pharmaceutiques
Pharmacovigilance – Surveillance du risque médicamenteux
Pharmacométrie
Traçabilité des produits pharmaceutiques en milieu hospitalier
Séquençage à haut débit – Outils et enjeux pour la santé humaine
Nettoyage à sec des dispositifs médicaux par CO2 supercritique 
Application des biocapteurs pour la détection des pathogènes 
Analyses en microbiologie – Environnement microbien
Management des risques appliqué à la production pharmaceutique
Élaboration des gels et des aérogels
Nanoparticules pour des applications antibactériennes, antifongiques et antivirales
Textiles bioactifs et à activité biologique
Fabrication additive-impression 3D dans le domaine de la santé

Applications des caoutchoucs hors pneu
De la biosurveillance participative de la qualité de l’air
La réalité virtuelle au service de l’autonomie des personnes
Analyse spatiale pour l’épidémiologie et la géographie de la santé

Et pour tous, en terme d’organisation industrielle :

Responsabilité en matière d’hygiène, de santé et de sécurité
Coordination de la sécurité et de la protection de la santé
Gestion des crises sanitaires
Grands enjeux de santé dans les entreprises
Évaluation des risques professionnels
Culture de la prévention
Gestion de la continuité : réalisation et mise en œuvre d’un PCA

Entre générosité, éthique, coronavirus et impression 3D

Je suis probablement l’un des plus anciens du CNRS engagés en impression 3D (1984 !) et j’ai commencé à être profondément satisfait de voir émerger des offres généreuses de la part de la communauté scientifique pour apporter ses savoir-faire en fabrication additive aux nombreux problèmes associés à la crise du coronavirus. Et puis, en dehors de cette main tendue qui peut être un vrai réconfort, enfermé entre mes ordinateurs, mes livres, ma vertèbre fracturée qui contribue aussi à mon confinement, je me suis mis à réfléchir à l’intérêt d’une action d’éclat de solidarité, affichable, inscrite dans une logique de salut public, visant à réaliser des éléments permettant la prévention des malades, du public et du corps médical d’une part, des soins d’autre part. Ce petit document illustre quelques questions de responsabilité qui méritent d’être mises en débat. Si l’on peut aider, on doit le faire, mais sans doute pas n’importe comment.

Les machines ne sont pas toutes adaptées aux demandes du corps médical

Dans les faits, il s’agit bien de réaliser des éléments standards avec des machines dédiées « personnalisation ». Une des forces des dispositifs de fabrication additive, en dehors du champ considérable d’initiatives personnelles autorisées par cette technologie, réside dans le fait que ce qui était coûteux dans les procédés traditionnels (usinage par exemple) devient quasiment gratuit, mais quand il s’agit de pièces simples, quel est l’intérêt technologique de la 3D ? Rappelons que l’impression 3D ou la fabrication additive recouvrent en réalité toute une série de procédés qui ont en commun de fabriquer des objets par dépôt de couches successives extrêmement fines de matière (ou plus simplement d’ajouts comme des fils fondus ou enfin, simultanément, de la matière ou de l’énergie), lesquelles sont solidifiées au fur et à mesure par une source d’énergie (laser, par exemple). On est ainsi passé en 36 ans d’une technologie de polymérisation résolue dans l’espace induite par de la lumière à tout un ensemble de procédés permettant la réalisation d’objets en différents matériaux : polymères, céramiques, métaux, nourriture, etc. La liste est longue.  Cependant, toutes les machines ne sont pas capables de tout faire en termes de réalisation d’objets 3D, depuis la taille (le µm ou le décamètre), le matériau, les propriétés fonctionnelles, etc. Les machines ne sont pas toutes adaptées aux possibles demandes de la part du corps médical. 

La fabrication additive exploite des sources numériques généralement adaptées dans les unités de recherche académique à la réalisation de pièces uniques dont les performances sont affinées généralement de manière incrémentale. Cela signifie qu’une machine 3D ne se « conduit » pas comme une imprimante classique de bureau où il suffit d’appuyer sur un bouton « Print », pour faire simple. Des opérations manuelles (et intellectuelles) sont nécessaires avant d’atteindre l’objet souhaité (cf. figure 1). Une imprimante 3D n’est pas une imprimante 2D de bureau.  

Figure 1 : Les étapes de fabrication d’un objet par fabrication additive (croix rouge : intervention humaine dans le processus) /Jean-Claude André

Indépendamment de ces aspects, les machines à bas coût (de type fil fondu) utilisent des polymères fusibles dont le dépôt est résolu dans l’espace, permettant la réalisation d’objets complexes, mais avec des performances spatiales parfois modestes. Or, ce sont plutôt ces machines spectaculaires (dont le coût peut être de quelques centaines d’€), que l’on retrouve dans les Fab-Lab (fabrication laboratory, « laboratoire de fabrication »), qui permettent en particulier l’apprentissage individuel. L’impression 3D pourrait par contagion se traduire par une « transformation culturelle » du consommateur final de base (pourquoi pas le médecin) devenant acteur de la production, directement, ou indirectement via le dispositif Fab-Lab pour autant que cela ait été préparé (nombre de Fab-Lab et/ou nombre de personnes formées). Dans les conditions classiques, les personnes engagées utilisent également des matériaux de faible coût, adaptés à leur souhait (jusqu’au recyclage de plastiques usagés).

Une demande claire et des conditions réglementaires et de sécurité adéquates

Si l’on peut trouver en recherche académique des conditions d’hygiène et de sécurité répondant aux normes actuelles, les responsables de Fab-Lab, généralement bénévoles sont conscients des questions de protection des opérateurs, mais peuvent parfois peiner pour disposer de bonnes conditions d’hygiène et de sécurité. Les pièces à réaliser correspondent-elles au possible des machines 3D avec des fichiers sources STEP ou STL qui doivent être fournis aux producteurs de pièces 3D (et non réalisés sur place) ? Les matériaux sont-ils compatibles avec un contact prolongé avec la peau ? Les performances biomédicales des masques sont-elles affectées par la fabrication 3D ? Y-a-t-il des risques pour les opérateurs ?

Voilà pour l’entrée dans le monde passionnant de la 3D, monde qui peut être exploité dans le cadre où existe une valeur ajoutée relative au « jouable » actuel (fourniture possiblement rapide de pièces 3D, grande réactivité des acteurs, compréhension rapide des questions et efficacité dans leur traitement). Qu’il existe une pénurie de matériels adaptés à la lutte contre le coronavirus est une évidence, qu’il existe des demandes diffuses de la part du corps médical trahit certes une anticipation modeste des besoins il y a quelques mois, mais pour tenter d’apporter des solutions robustes au vrai problème (traduit par un très grand nombre d’appels au secours parfaitement compréhensibles), il faudrait y voir un peu plus clair dans ces demandes : nature des matériels à réaliser, compatibilité des matériaux vis-à-vis d’un usage sur les humains, performances techniques, conformités, et surtout la quantité d’éléments à produire par jour, etc. La  nature de la demande doit être précisée. Comme signalé plus haut, il peut s’agir surtout de machines de laboratoire et de machines de coût moyen/faible dans les Fab-Lab dont la mission principale n’est pas la production de masse (ce qui peut être différent en milieu industriel, pour lequel mon expérience est médiocre). Indépendamment des Fab-Lab qui disposent de leurs propres critères de liens avec la société, les unités de recherche académiques devraient participer à ce mode d’action de manière volontaire mais autorisée par leur hiérarchie, le tout dans un cadre juridique cohérent. Il s’agit bien de permettre à des agents dont un certain nombre d’entre eux sont aujourd’hui confinés de se déplacer dans des conditions « acceptables » et autorisées d’un point de vue sanitaire. Les conditions réglementaires visant la production d’éléments conformes au besoin médical doivent être éclairées (et vérifiées).

Un élément essentiel doit à ce stade être mentionné, celui des flux de production d’éléments 3D dédiés à la lutte contre le coronavirus. Il s’agira, on l’aura compris, de productions « artisanales » qui disposeront d’un coût élevé (même s’il reste théorique) relativement aux productions standardisées de masse, mais dans le cadre d’une validation réglementaire en termes de protection plus que modeste. On peut donner l’impression qu’un équipement de protection individuelle issu de technologies High-Tech (comme les technologies 3D) va assurer le besoin, justement parce qu’il provient d’une technologie émergente sans que les bonnes conditions d’usage aient été démontrées. Deux aspects sont ciblés : la non-présence de virus sur l’équipement et un fonctionnement conforme. Il est donc  nécessaire de fournir aux utilisateurs des équipements qualifiés selon leur(s) usage(s). Ne pas assurer cette conformité ne serait pas éthique, mais en tout cas réellement irresponsable, voire plus. C’est à l’Etat d’assurer la confiance nécessaire, en même temps que de s’occuper du packaging et de la répartition des fournitures sur les demandeurs. 

Les mesures à prendre dans les prochains jours

En l’absence d’une telle validation, les producteurs ne risquent-ils pas d’être considérés comme responsables d’avoir mal répondu à cette main tendue (tout à fait compréhensible et socialement souhaitable) si des problèmes sanitaires émergent demain ? Dans les propos de nombre de médias, on a l’impression que l’Etat a passé son temps à éviter d’acheter les masques dont on a besoin et il serait, pour le moins inacceptable, que ceux qui tentent d’aider (mais peut-être mal parce que ce n’est pas leur métier) soient suspectés de la moindre faiblesse. Il faut donc que l’Etat prenne ses responsabilités (pour autant qu’il en soit capable, vu sa compréhension de ce que peut apporter la 3D à la société, mais c’est possiblement envisageable en termes d’usage médical).

Voilà, à la lecture de nombreux mails, ce que je comprends de la situation et, en tant qu’ancien de la 3D (mais encore actif), d’utiliser un peu de recul pour m’exprimer. Pour conclure, il paraît nécessaire de définir dans les jours qui viennent :

  1. Un site unique de centralisation des demandes/besoins médicaux ; contraintes en termes d’hygiène, de performances, etc. : Association Française de Prototypage Rapide ? Réseau des Instituts Carnot ? Réseau National des Fab-Lab ? Ministère de la santé ? Voici une liste possible, mais je ne pense pas que cela soit à moi de décider ;
  2. Un recensement national des offres : matières, machines, flux ou nombre, temps de fabrication et de fourniture ; un élargissement en dehors du périmètre universitaire devrait être favorisé ;
  3. Un feu vert officiel de la part de la hiérarchie pour une telle opération est nécessaire et validé par l’Etat (pour ce qui concerne les services publics) ;
  4. Une validation par l’Etat en termes de choix d’équipements à fournir, de flux (centaines, milliers, millions d’équipements/jour), de performance, etc.
  5. La fourniture de pièces conformes aux normes en vigueur, conformité assurée par l’Etat ;
  6. Financement partiel ou total des équipements aux producteurs (ou à leurs tutelles).

Si ces conditions ne sont pas raisonnablement « remplies », il faudrait sans doute ne rien faire (ou au mieux expliquer pourquoi on ne fait rien, ce qui serait dommage dans le contexte actuel, mais on n’est pas obligé de faire semblant…). On aurait bonne mine d’afficher un soutien massif avec, par exemple, une demande de 100 millions/semaine d’un élément particulier 3D, alors que la capacité de production issue des unités de recherche serait 100 fois plus faible ! La générosité n’a pas de limites, mais le possible si. Une promesse doit être tenue ! Alors pourraient rester des actions ponctuelles pour autant que les risques/remarques évoqués soient levés. Mais tout cela reste à construire alors que le temps nous est compté.

En dépit du Covid-19, le système électrique résiste

Comme le souligne Fatih Birol, le directeur général de l’agence internationale de l’énergie, « l’énorme perturbation causée par la crise du coronavirus a mis en évidence à quel point les sociétés modernes dépendent de l’électricité. Des millions de personnes sont désormais confinées à leur domicile, recourant au télétravail pour faire leur travail, aux sites de commerce électronique pour faire leurs courses et aux plateformes de streaming vidéo pour trouver du divertissement. Une alimentation électrique fiable sous-tend tous ces services, ainsi que l’alimentation des appareils que la plupart d’entre nous tiennent pour acquis, tels que les réfrigérateurs, les machines à laver et les ampoules. »

En France, action/réaction

Dès l’annonce du confinement général en France, RTE a anticipé une baisse des consommations (moins de bureaux occupés, moins de trains, etc.). Un peu tôt d’ailleurs, puisque les véritables baisses sont intervenues deux jours plus tard.

Les prévisionnistes de RTE ont d’ailleurs eu bien du mal à prévoir pour les jours suivant le 17 mars les consommations « la veille pour le lendemain (soit en J-1) », signale Jean-Marc Jancovici, président du Shift Project, sur son compte Twitter. Il faut dire qu’il était particulièrement difficile de connaître à l’avance le comportement de la population face à cet événement. Reste que, dès jeudi 19, la chute de la demande est patente et prise en compte par RTE, avec quelque 15 % de recul de la demande électrique par rapport à la semaine précédente.

De son côté, EDF a lancé dès le départ le plan « pandémie », mis au point lors des crises du SRAS en 2003. Objectif : maintenir les activités essentielles pour assurer la production d’électricité nécessaire en France. Dans un communiqué publié le 23 mars, après une semaine de confinement et une certaine stabilisation des consommations, EDF précise que la suspension d’opérations de maintenance des installations de production due au confinement impose une remise à plat des programmes d’arrêts de tranches nucléaires (qui fournissent toujours quelque 75 % du courant en France). L’objectif est là encore d’assurer la disponibilité maximale à court terme (en opérant au plus vite les opérations de rechargement des réacteurs, afin qu’ils soient disponibles rapidement) et à moyen terme, afin de ne pas reporter les arrêts jusqu’à l’hiver 2020-2021 (c’est aussi cela la prévision moyen terme).

A l’étranger, en Europe

En Europe, en moyenne, la demande a reculé de 2 % à 7 % par rapport à la semaine dernière.

« En Italie, bien que la baisse la semaine dernière ait été de 12 %, il y avait déjà un impact de 8 % par rapport à la semaine précédente, ce qui implique un impact total de 20 % sur les deux dernières semaines », signalent les consultants de Ember, le 23 mars, qui s’appuient sur les données de l’association européenne des gestionnaires de réseau électriques, Entso-E. Premier pays à avoir été touché en Europe, l’Italie a enregistré des baisses de la demande d’électricité dès la semaine du 2 au 8 mars ; Cela ne s’est pas produit ailleurs en Europe. En outre, l’Italie a imposé de nouvelles interdictions cette semaine (fermeture des usines « non vitales »), ce qui signifie que davantage d’industries et de services seront fermés et que l’impact sur la demande d’électricité pourrait même dépasser 20 %. Vendredi dernier, la régie de Milan A2A a déclaré que le coronavirus était responsable d’une baisse de 15% de la demande d’électricité dans toute l’Italie et que la baisse atteignait jusqu’à 25% dans les régions du nord de l’Italie, rapporte Ember.

En Espagne, l’impact sur la semaine passée a été de -10 % sur la demande d’électricité, mais jeudi 19 a connu la plus forte baisse avec 16 %. La baisse de la demande d’électricité en Allemagne s’est accélérée à 6 % vendredi 20, alors que davantage d’industries ont fermé au cours de la semaine (aucune donnée n’a encore été rapportée pour le week-end par Entso-E). Le Royaume-Uni, qui n’avait toujours pas pris de mesures drastiques de confinement, a connu l’un des plus petits impacts jusqu’à présent. Néanmoins, insistent les consultants, chaque pays a connu un certain impact ; par exemple, la Pologne a enregistré des baisses quotidiennes d’environ 5 % du lundi au vendredi.

Conséquences sur les prix et le marché du CO2

L’électricité en Europe, c’est un marché sur l’ensemble de la plaque de cuivre (les pays sont tous interconnectés et interagissent). Quand la demande chute et que la production est encore là, les prix baissent. Et quand, comme dimanche dernier, le soleil et le vent sont au rendez-vous, comme ces énergies ont « priorité sur le réseau », les prix plongent carrément. Résultat, à midi, toute l’Europe est en prix négatifs (eh oui, on paie pour pouvoir voir son électricité prise sur le réseau…). Le bilan pour les producteurs est catastrophique, puisqu’ils vendent « à perte » ou à des prix inférieurs à leurs coûts de production, sauf pour les énergies renouvelables qui bénéficient d’un tarif d’achat fixe. Autant dire qu’un déficit est à prévoir à terme entre ces subventions et les prix de marché.

Bien entendu, des centrales s’arrêtent aussi pour ne pas surproduire. Et les centrales qui s’arrêtent en premier sont celles qui avaient été appelées en dernier, c’est-à-dire les moyens fossiles au gaz notamment… Puis, les centrales au charbon. Selon le think-tank AgoraEnergiewende, sur la seule Allemagne, les émissions de CO2 devraient ainsi reculer entre 10 et 25 millions de tonnes, à cause de la crise du Covid-19.

Bilan de l’opération, les prix sur le marché des quotas d’émissions de CO2 reculent fortement depuis la semaine dernière. Ils sont passés à 15,45 euros par tonne le 23, contre autour de 23 euros par tonne, début mars. Le marché du CO2 (ETS, en initiales anglaises) venait péniblement de se remettre sur pied depuis un an environ, après une grave crise. La chute du prix sur l’ETS prélude un retour en force des capacités au charbon, qui se voyaient « sorties » du marché puisqu’elles devaient payer le prix du CO2 en plus. Et comme il y aura des quotas non utilisés, pour cause de chute de la demande européenne, il y a fort à parier que le prix du CO2 sur le marché restera faible, pour au moins la seconde moitié de l’année, donnant un avantage aux centrales au charbon, plus émettrices, sur celles au gaz…  Les consultants de Ember estiment désormais que la Commission européenne devrait agir pour éviter un effondrement dudit marché du CO2.

Taïwan combat le Covid-19 avec le big data

Taïwan ne compte qu’une centaine de cas confirmés. Cette exception a plusieurs explications. Premièrement, les autorités ont réagi très rapidement. Dès le 6 février, elles ont interdit l’entrée sur son territoire aux millions de touristes chinois qui s’y rendent chaque année.

Mais surtout, Taïwan a mis en œuvre l’analyse d’importants volumes de données et des nouvelles technologies, selon un article récent du Journal of the American Medical Association (JAMA).

Dès le début de l’épidémie virale, « les autorités taïwanaises ont en effet dressé une carte très détaillée des personnes qui ont contracté le virus et de leurs proches et ont pu arrêter rapidement la transmission », selon Chih-Hung Jason Wang, directeur du Center for Policy, Outcomes and Prevention de l’université de Stanford, qui a co-écrit l’article paru dans le JAMA.

Les autorités ont intégré la base de données de l’assurance maladie nationale à celle de l’immigration et des douanes. Cela a permis de suivre les antécédents de voyage et les symptômes des personnes sur une période de 14 jours. Tous les hôpitaux, cliniques et pharmacies ont eu accès à ces informations pour chaque patient. Les personnes placées en quarantaine ont reçu des téléphones portables délivrés par le gouvernement et sont suivies au moyen d’appels et de visites.

Un plan d’urgence conçu dès 2003

Concernant les visiteurs étrangers (provenant des régions les plus touchées), Taïwan leur a demandé de remplir un formulaire de déclaration de santé en ligne. Pour gérer les ressources (quantité de masques, nombre de chambres d’isolement à pression négative et d’autres fournitures sanitaires), les autorités se sont appuyées sur des solutions d’analyse d’importants volumes de données (big data).

Toutes ces actions font partie du plan de réponse d’urgence à l’épidémie de Taïwan conçu après l’apparition du SRAS en Chine en 2003. En vertu de la loi taïwanaise sur le contrôle des maladies transmissibles et en cas de crise, les fonctionnaires peuvent activer le plan, ce qui donne au gouvernement des pouvoirs qu’il n’aurait pas normalement.

Ce plan d’urgence a été activé dès le 20 janvier et il intègre plus de 124 mesures, selon le JAMA.

Un mois dans l’espace #3

Thomas Pesquet, expert en confinement

Depuis que les Français sont contraints de rester chez eux, à la suite de la pandémie actuelle liée au coronavirus, chacun découvre un mode de vie un peu particulier : celui du confinement.

Le confinement, Thomas Pesquet connaît bien, lui qui a passé 196 jours dans l’espace en 2017. Du coup, l’astronaute français a posté une vidéo réalisée par ses soins, pour rappeler les gestes barrières, faire de la pédagogie et donner quelques trucs et astuces pour «passer le temps» :

Pour vous aider à traverser cette période très particulière, le site espace-exploration.com a quant à lui décidé de donner accès gratuitement à ses contenus dédiés à la mission Proxima, à laquelle Thomas Pesquet a pris part. Vous pouvez retrouver ces contenus gratuits ici.

Le coronavirus a des effets spectaculaires sur la pollution en Chine

Au début du mois de mars, la Nasa a diffusé des images spectaculaires du ciel chinois vu de l’espace. Les deux photos ci-dessous ont été prises à un peu moins de deux mois d’intervalle (1er janvier pour la première, 25 février pour la seconde) :

Photographie satellite du ciel chinois ©Nasa

 

Que voit-on ? Le ralentissement de l’activité en Chine, où la crise du coronavirus a éclaté au début du mois de décembre 2019, a considérablement fait baisser les émissions de gaz à effet de serre. D’hydroxyde d’azote plus précisément. Et cela se voit depuis l’espace.

Chercheuse en qualité de l’air à la Nasa, Fei Liu a précisé : «C’est la première fois que je constate une baisse aussi spectaculaire sur une zone aussi large pour un événement spécifique». Avant de comparer ce phénomène avec celui déjà observé pendant la crise financière de 2008, qui avait aussi ralenti l’activité du pays. Cependant, la baisse des émissions alors observée depuis l’espace avait été beaucoup plus progressive.

Un nouveau scénario pour expliquer les trous noirs supermassifs

Des astrophysiciens italiens viennent de publier une solution pour expliquer la création des graines des trous noirs supermassifs et leur grossissement rapide.

Selon ces derniers, c’est la migration de millions de résidus compacts d’étoiles massives, dans les régions centrales des toutes premières galaxies, qui serait à l’origine de la formation de ces astres stellaires. L’étude est publiée dans The Astrophysical Journal.

La Nasa confirme la pollution visuelle due à la multiplication des projets de constellations de satellites

Les astronomes et l’astrophotographie pâtiront de la multiplication des projets de constellations de satellites : c’est la Nasa qui le dit. Tête de proue des projets pharaoniques actuellement en cours, la constellation imaginée par Elon Musk, Starlink, doit à moyen terme envoyer plusieurs dizaines de milliers de satellites en orbite.

Trace lumineuse des satellites de la constellation Starlink. ©UAI

La pollution lumineuse dont sont responsables les satellites Starlink déjà en orbite est documentée (voir image ci-contre).

Beaucoup d’autres projets sont en cours, et cela a déjà des conséquences sur l’observation du ciel. C’est pour cela que la Nasa a mis en place le projet Darksky Index, qui permet à tous les amateurs de mettre en réseau leurs photographies du ciel, ceci afin de mesurer concrètement l’impact de ces constellations de satellites sur la pollution lumineuse.

En bref…

Le 21 mars dernier, 34 nouveaux satellites sont venus renforcer la constellation OneWeb. Ces derniers ont décollé à bord du lanceur Soyouz et ont rejoint les 6 satellites déjà mis en orbite l’an passé. Pour parvenir à créer l’infrastructure spatiale géante voulue par OneWeb, 18 lancements supplémentaires sont prévus, même si les rumeurs de dépôt de bilan – causé par la crise du coronavirus – enflent pour l’entreprise américaine.

Le 24 mars, la Chine a mis en orbite trois satellites  de surveillance militaire «Yagoan 30». C’est le troisième lancement de ce type, après ceux de novembre 2017 et juillet 2019. Ce lancement intervient seulement 8 jours après l’échec en vol de la nouvelle Longue Marche 7A, victime d’une défaillance de son troisième étage.

Par P.T