La production de particules submicroniques disponible pour l’industrie

Ce nouveau procédé, né à partir d’une technologie développée au laboratoire Nanomatériaux pour les systèmes sous sollicitations extrêmes de l’institut franco-allemand de recherches de St Louis, s’adresse plus particulièrement aux entreprises de la pharmacie, des cosmétiques et de l’agroalimentaire. Il permet de produire industriellement des particules inférieures au micron -submicroniques- afin d’augmenter leur surface active. Une caractéristique qui augmente la réactivité, la solubilité ou l’efficacité des composés et matériaux ainsi réduits.

Une découverte explosive

Parmi les trois brevets internationaux sur lesquels s’appuient Spinofrin, celui sur le procédé d’évaporation flash est central. Le SFE (Spray flash evaporation) est un procédé qui produit des particules submicroniques à partir d’un composé en solution dans un liquide et qui peut passer à l’échelle industrielle sans être modifié. Au départ, les chercheurs travaillaient sur un moyen de fabriquer des cristaux submicroniques d’explosifs pour les utiliser dans la synthèse de particules de diamants artificiels. Ils ont réalisés que leur procédé pouvait en fait s’appliquer à divers types de matériaux et changer facilement d’échelle. Le SFE consiste à placer une solution initiale sous forte pression (40 bars) puis à la détendre à travers une buse dans une enceinte sous vide (5mbars). Les gouttes de liquide sont fragmentées avant l’évaporation du solvant et engendrent des particules de taille inférieure au micron.

Une start-up version studio

Spinofrin a été co-créée en février 2018 par les chercheurs de l’Institut franco-allemand de Saint-Louis et du CNRS, et par Technofounders, un « start-up studio ». Depuis 2017, le CNRS s’est allié à Technofounders pour accélérer la création d’entreprise à partir des technologies nées dans ses laboratoires. Le CNRS qui assure, via un programme de prématuration où les équipes peuvent développer un prototype, une première sélection des recherches, propose ensuite à Technofounders celles qu’il estime les plus prometteuses. Le «start-up studio» Technofounders, s’il estime que la technologie peut donner naissance en 24 mois à un produit ou à un service suffisamment différenciant par rapport à l’offre existante et que les clients potentiels vont réellement utiliser ce produit ou ce service, s’engage alors dans la création de la start-up en tant que cofondateur et s’implique directement dans le développement de l’entreprise. Il apporte un financement, un capital humain de management et de commercial et met en place petit à petit une équipe opérationnelle autonome à laquelle Technofounders passe la main pour ne finalement rester présent qu’au niveau du capital.

Un potentiel bien concret

Spinofrin s’adresse ainsi aujourd’hui aux acteurs de la pharmacie, des cosmétiques, de l’agroalimentaire et des matériaux pour leur proposer des études de faisabilité de submicronisation, la fabrication d’échantillons de quelques centaines de grammes pour leurs propres tests et pourra ensuite accompagner la phase d’industrialisation pour optimiser le rendement à grande échelle puisque le procédé permet de produire de quelques grammes à plusieurs tonnes. Dès mai 2018, une dizaine d’entreprises avait déjà passé commande ou manifesté leur intérêt, annonçait le CNRS dans sa lettre de l’innovation.

Sophie Hoguin

Le numérique s’attaque aux rejets d’eaux usées

À Biarritz, le réseau d’assainissement est unitaire : les eaux usées et pluviales sont collectées dans les mêmes canalisations. La station d’épuration de la ville traite en moyenne 20.000 mètres cubes (m3) d’eaux usées sur une journée et son débit de pointe est de 56.000 m3. Lorsqu’il pleut, l’eau est temporairement stockée dans les quatre bassins dits de «rétention» de la ville. Ils totalisent 40.000 m3.

Le système a été pensé pour traiter en débit de pointe une pluie mensuelle, c’est-à-dire une pluie qui arrive en moyenne douze fois par an. En cas d’orages intenses, le réseau sature ; les capacités demeurent insuffisantes. L’eau est alors rejetée dans l’océan Atlantique, sans traitement, à 800 m au large de la plage de Marbella.

Dans ces conditions, le numérique prend de plus en plus de place. «Grâce à des algorithmes, nous sommes capables de modéliser les flux de pluies qui vont arriver et de les répartir de manière intelligente sur tous les réseaux», se félicite Marie-Ange Debon, directrice générale de Suez. C’est la force du logiciel Aquadvanced Assainissement, développé par Suez et déployé à Biarritz.

Le numérique pour limiter les déversements

Rendez-vous au centre Visio de Biarritz. Ce centre collecte en temps réel les données provenant des capteurs répartis sur le réseau d’assainissement et ses infrastructures. Depuis 2016, il est équipé du logiciel Aquadvanced Assainissement. Ce logiciel permet d’adapter en temps réel le réseau d’assainissement, afin de limiter son débordement, limiter les risques d’inondation et maîtriser la qualité des rejets dans le milieu naturel. «Sa force est d’intégrer des prévisions de pluies de Météo France, prévient Pierre Echavidre, directeur adjoint Suez Eau France au Pays Basque. Cela permet rapidement de remplir ou vider des bassins».

aquadvanced-biarritz
Dans le centre Visio de Biarritz, un opérateur suit en temps réel l’état du réseau d’assainissement

Concrètement, lorsque la pluie est plus importante que la moyenne, l’eau est stockée dans les bassins de rétention. L’eau est ensuite déstockée, une fois la pluie passée, et envoyée vers la station d’épuration pour y être traitée. Pour optimiser les volumes de stockage, les capteurs mesurent les niveaux d’eau sur l’ensemble du réseau et optimisent le système en permanence. «Un bassin de 10.000 m3 peut stocker un volume largement supérieur sur une journée, précise Pierre Echavidre. Lorsqu’une pluie s’affaiblit, il est par exemple possible de déstocker 2000 m3, avant de pouvoir les restocker quelques heures plus tard, lorsque la pluie revient

La ville traite environ 6 millions de m3 d’eaux usées par an. «Avec le déploiement du logiciel Aquadvanced, le volume des eaux déversées sans traitement a diminué entre 30 et 40 %, analyse Pierre Echavidre. Nous sommes désormais aux environs de 300.000 m3 chaque année, soit 5 % du volume annuel traité

Le numérique en complément des bassins

La ville vient d’achever la construction d’un cinquième bassin de rétention de 4.000 m3. Ces réservoirs sont toutefois coûteux et longs à mettre en place : ce nouveau bassin a coûté 6,8 millions d’euros. «En période estivale, nous déversons encore entre 5 à 6 jours, reconnait Pierre Echavidre. Ce nouveau stockage permettra de déverser entre 2 et 3 jours de moins».

L’agglomération Côte Basque Adour a pris à bras le corps le problème des inondations. En complément de toutes ces solutions, et dans le cadre de son Schéma directeur des eaux pluviales (Sdep) lancé en 2010, elle demande désormais aux promoteurs et aux particuliers acquéreurs d’un terrain constructible de compenser la surface imperméabilisée. Pour ce faire, ils doivent se doter sur place d’un bassin ou d’une cuve de stockage des eaux pluviales.

Suez espère convaincre les collectivités d’adopter son logiciel, notamment pour diminuer la pollution plastique dans les océans. «Aquadvanced peut être déployé sur n’importe quel système d’assainissement existant, à partir du moment où il y a des ouvrages de stockage» précise Pierre Echavidre. En plus de Biarritz, la solution a été déployée à Paris, Bordeaux et Saint Étienne pour prévenir les inondations, les rejets d’eau sur le littoral et les phénomènes de pollution. Elle vient d’être déployée ou est en cours de déploiement à Marseille, Dijon, Mulhouse, Montargis, Carcassonne, Roanne et Vallauris.

Par Matthieu Combe, journaliste scientifique

L’ytterbium, la mémoire quantique de demain

Aujourd’hui, la cryptographie quantique passe par la fibre optique, sur quelques centaines de kilomètres. Elle est caractérisée par son aspect de haute sécurité : il est en effet impossible de copier les informations ou de les intercepter sans les faire disparaître. Toutefois, cette impossibilité de copier le signal empêche aussi les scientifiques de l’amplifier pour le diffuser sur de longues distances, comme c’est le cas avec le réseau wifi.

Trouver le bon matériau pour confectionner les mémoires quantiques

Le signal ne pouvant être ni copié ni amplifié sous peine de disparaître, les scientifiques se penchent actuellement sur la fabrication de mémoires quantiques capables de le répéter en capturant les photons et en les synchronisant entre eux afin de les diffuser toujours plus loin. Reste à trouver le matériau approprié pour confectionner ces mémoires quantiques. «Toute la difficulté est de trouver un matériau capable d’isoler l’information quantique portée par les photons des perturbations environnementales pour que l’on puisse les retenir environ une seconde et les synchroniser entre eux, explique Mikael Afzelius, chercheur au Département de physique appliquée de la Faculté des sciences de l’UNIGE. Or, en une seconde, un photon parcourt environ 300 000 km!» Les physiciens et les chimistes doivent donc trouver un matériau très bien isolé des perturbations, mais capable de fonctionner à des hautes fréquences permettant de stocker et restituer le photon rapidement, deux caractéristiques souvent considérées comme étant incompatibles.

Un point magique pour le graal des terres rares

Aujourd’hui, il existe déjà des prototypes de mémoire quantique testés en laboratoire, notamment à base de terres rares comme l’europium ou le praséodyme, mais leur vitesse n’est pas encore assez élevée. «Nous nous sommes alors intéressés à une terre rare du tableau périodique qui avait été très peu étudiée, l’ytterbium», expose Nicolas Gisin, professeur au Département de physique appliquée de la Faculté des sciences de l’UNIGE et fondateur d’ID Quantique. «Notre objectif est de trouver le matériau idéal pour la confection des répéteurs quantiques, et cela passe par l’isolation des atomes de leur environnement qui a tendance à perturber le signal», complète-t-il. Cela semble être le cas avec l’ytterbium ! En soumettant cette terre rare à des champs magnétiques très précis, les physiciens de l’UNIGE et du CNRS ont découvert qu’elle entre dans un état d’insensibilité qui la coupe des perturbations de son environnement et qui permet de piéger le photon pour le synchroniser. «Nous avons trouvé un «point magique» en variant l’amplitude et la direction du champ magnétique, s’enthousiasment Alexey Tiranov, chercheur au Service de physique appliquée de la Faculté des sciences de l’UNIGE, et Philippe Goldner, chercheur à l’Institut de recherche de chimie Paris (CNRS/Chimie ParisTech). Lorsque ce point est atteint, on augmente d’un facteur 1 000 les temps de cohérence des atomes d’ytterbium, tout en travaillant à des hautes fréquences!»

Les avantages de l’ytterbium

Les physiciens sont actuellement en train de construire des mémoires quantiques à base d’ytterbium qui permettent de réaliser rapidement les transitions d’un répéteur à l’autre, tout en gardant le photon le plus longtemps possible pour effectuer la synchronisation nécessaire. «Ce matériau ouvre un nouveau champ des possibles dans la création d’un réseau quantique mondial et souligne l’importance de poursuivre des recherches fondamentales en parallèle à des recherches plus appliquées, comme la création d’une mémoire quantique», conclut Mikael Afzelius.

Source: CNRS

Les plantes obtenues par mutagenèse sont des OGM

La Cour de justice de l’Union européenne (CJUE ) a donné raison à la Confédération paysanne et à huit autres associations le 25 juillet dernier. « Les organismes obtenus par mutagenèse constituent des OGM et sont, en principe, soumis aux obligations prévues par la directive sur les OGM », conclut l’arrêt de l’instance juridique. La Cour estime que les risques liés à ces nouvelles techniques  « pourraient s’avérer analogues » à ceux des OGM traditionnels. Par ailleurs ces nouvelles techniques permettent de produire des OGM « à un rythme et dans des proportions sans commune mesure avec ceux résultant de l’application de méthodes traditionnelles de mutagenèse ».

Seules les techniques traditionnelles développées avant l’adoption de la directive sur les OGM « et dont la sécurité est avérée depuis longtemps » sont exclues de son champs d’application. Cela ne signifie pas pour autant qu’ils peuvent être librement disséminés. « Les États sont libres de légiférer dans ce domaine dans le respect du droit de l’Union, en particulier des règles relatives à la libre circulation des marchandises », précise l’arrêt. Reste à savoir si les instances décisionnelles suivront cet avis de la CJUE.

Des réactions contrastées

La confédération paysanne et les huit autres requérants saluent « une victoire ». Elles « appellent l’Union européenne et le gouvernement français à appliquer strictement cette décision ». Cela revient notamment à « suspendre immédiatement la culture des variétés rendues tolérantes aux herbicides » et « financer des programmes de recherche afin d’identifier les techniques utilisées ». Pour sa part, le Gouvernement « salue cette clarification attendue » qui crée « un cadre harmonisé à l’échelle européenne afin de protéger les consommateurs et l’environnement, dans le respect du principe de précaution ».

En revanche, la FNSEA et quatre autres syndicats agricoles y voient « un bien mauvais signal ». « L’application systématique de la Directive OGM à l’ensemble des outils modernes de sélection variétale est de nature à isoler l’Europe de toute innovation en la matière », dénoncent-ils. « Une agriculture en panne d’innovation variétale ne pourra relever l’ampleur des défis climatiques et environnementaux », estiment-ils.

Pour l’Association Française des Biotechnologies Végétales (AFBV), réduire l’usage des pesticides dans le cadre du plan Ecophyto requiert « des nouvelles variétés de plantes plus vertes, c’est à dire génétiquement résistantes aux maladies et aux prédateurs de toutes sortes ». Elle prédit « des années très noires » pour l’avenir des agriculteurs européens « si ce renoncement était confirmé par l’U.E ». Et ce d’autant plus que contrairement à ce qu’annonce la CJUE, l’AFBV estime qu’« aucun risque potentiel n’a été identifié » sur les OGM obtenus par transgenèse, encore moins sur ceux obtenus par mutagenèse.

Les nouvelles techniques de mutagenèse n’existaient pas lorsque les réglementations européennes et françaises sur les OGM ont été adoptées. Plutôt que d’introduire un gène étranger dans la plante, ces techniques induisent des mutations ciblées à l’échelle moléculaire directement dans le génome de la plante pour lui fournir la propriété recherchée. Il est ainsi possible de faire muter un gène en modifiant un faible nombre de nucléotides, moduler l’expression d’un gène, activer ou désactiver des gènes. Certaines ont même permis de développer des variétés de semences résistantes à des herbicides, tout comme des OGM obtenus par transgenèse.

Par Matthieu Combe, journaliste scientifique

La face toxique de la Lune

Les différentes missions Apollo des années 1960 et 1970 et notamment celles où les astronautes se sont posés sur la Lune ont mis à jour l’omniprésence de ces poussières en suspension, abrasives, collantes, capables de percer les combinaisons spatiales, de corroder et de s’infiltrer dans les pièces mécaniques. Dès lors, ce paramètre a rapidement été pris en compte pour concevoir du matériel, des machines qui iraient sur la Lune. Mais on s’est peu intéressé à l’aspect santé humaine. Pourtant, cette poussière a un potentiel pathologique très important pour l’homme.

moon-dust

Poussières de Lune, qui êtes-vous ?

Elles recouvrent la surface de la Lune sur une épaisseur de 3 à 20m, ces régolithes (poussières issues de la dégradation des roches en place par érosion ou de débris météoritiques), sont composées principalement de silice (SiO2), d’alumine (Al2O3) et d’autres composants comme le fer, calcium et le magnésium. Les phénomènes physiques qui ont lieu sur la Lune les ont souvent transformés en verre ensuite broyé en fines poussières (de quelques microns) extrêmement tranchantes et abrasives. En outre, ces poussières sont magnétisées. Ce qui les rend extrêmement collantes sur les machines et les combinaisons. Les différents témoignages des astronautes affirment qu’elles possèdent une odeur forte ressemblant à celle de la poudre à canon brûlée.

De la fièvre lunaire aux silicoses

Qualifiée de fièvre lunaire ou de rhume des foins lunaire, les symptômes présentés par les astronautes en contact avec les poussières lunaires allaient de l’éternuement à la congestion nasale en passant par les maux de gorge et les larmoiements. Certains astronautes ont présenté ces symptômes une journée quand d’autres ont mis plusieurs jours à s’en remettre. Au vu de la composition et de la taille des poussières, on sait d’ores et déjà que le risque est élevé de développer outre de simples irritations passagères des maladies plus graves ressemblant aux silicoses des mineurs avec des atteintes déjà connues aux poumons, au cerveau et à l’ADN en cas d’exposition prolongée (voir notamment cette étude). Les projets d’installation lunaire devenant concrets, l’agence spatiale européenne a décidé de lancer un vaste programme d’évaluation et de maîtrise des risques sanitaires liées à la poussière. Des experts du monde entier sont mis à contribution.

Travailler avec une poussière de substitution

Aujourd’hui il s’agit d’obtenir une connaissance fine de ces risques pour pouvoir y parer de manière adéquate. Comme on ne dispose pas de grande quantité de poussières lunaires, le travail va être effectué à partir de poussière de substitution. Contrairement aux poussières terrestres qui, au fil du temps, s’arrondissent et s’érodent, les poussières lunaires sont ciselées, en forme de crochets et restent coupantes et piquantes. Une des poussières terrestres qui ressemblent le plus est tirée d’une mine volcanique en Allemagne. Cependant, le tableau n’est pas tout noir. Les technologies et les connaissances sur la maîtrise des risques liés aux particules fines ont fortement évolué depuis les années 1970. Ionisation, systèmes de filtration haute technologie, casque, respirateur artificiels sont bien plus étanches, résistants et performants aujourd’hui. Une première expérience sur place avec un monitoring serré des colonisateurs lunaires sera d’autant plus importantes que sur Mars, la poussière est tout aussi agressive mais aussi chimiquement toxique. On soupçonne ainsi la poussière martienne d’être tellement oxydante qu’elle serait capable de brûler les plastiques, les caoutchouc et les tissus organiques au premier titre duquel la peau humaine…

Sophie Hoguin

Une voix pour la vie ? La hauteur de notre voix est déterminée avant que nous parlions

La hauteur -le fait d’être grave ou aigüe- est un paramètre acoustique de la voix humaine qui varie entre les individus et les sexes après la puberté. Elle porte des informations importantes ayant des conséquences sur nos relations sociales. On sait par ailleurs que la vie fœtale dans l’utérus impacte le développement de l’enfant et sa vie d’adulte. En comparant le pleur de bébés enregistrés quelques mois après la naissance avec leur voix à l’âge de cinq ans, les scientifiques ont découvert que la hauteur du pleur était corrélée à la hauteur de la voix – un bébé pleurant dans les graves aura plus de chance de développer une voix grave qu’un bébé pleurant dans les aigus, quel que soit son sexe. Leurs travaux soulignent également un probable lien entre l’environnement hormonal qu’a connu l’enfant dans le ventre de sa mère et la hauteur de sa voix.

Les chercheurs et chercheuses ont d’abord enregistré des bébés de 3 mois pleurant au moment du bain. Cinq années plus tard, elles et ils ont à nouveau enregistré leurs voix – les enfants devaient alors s’exprimer librement devant des images. En comparant les caractéristiques acoustiques des pleurs et des paroles, les scientifiques ont constaté que la hauteur des voix était prédite par celle des pleurs enregistrés quelques années auparavant. En mesurant un indice reposant sur la taille relative des doigts de la main et connu pour être lié à l’environnement hormonal du fœtus, elles et ils ont par ailleurs découvert que les différences de hauteur de voix entre les humains trouvent pour partie leur origine dans la vie prénatale. Ces résultats sont renforcés par une autre étude des mêmes scientifiques montrant que la hauteur de la voix à l’âge de sept ans prédit avec succès celle de la voix adulte.

Pour percer tous les mystères de notre voix, il faudra poursuivre les recherches car il est difficile d’enregistrer les mêmes enfants à plusieurs années d’intervalles. Ici, seuls 15 enfants ont pu être suivis, tous de nationalité française, alors que l’acoustique des pleurs et des voix est influencée par le contexte culturel.

Source: CNRS

La France, 16ème au palmarès des pays les plus innovants

Pour la septième année consécutive, la Suisse se retrouve en tête de ce palmarès mondial de l’innovation. Elle est suivie de la Suède, du Royaume-Uni, de Singapour et des Etats-Unis. En 16e position, la France reste derrière l’Allemagne, mais est devant la Chine. L’Indice mondial de l’innovation est publié depuis 2007 conjointement par l’Organisation Mondiale de la Propriété Intellectuelle (OMPI),  l’Université Cornell et l’Institut européen d’administration des affaires (INSEAD).

L’innovation du monde passée au crible

Afin d’établir ce classement, 80 critères sont passés au crible dans 7 domaines : les institutions, le capital humain et la recherche, l’infrastructure, le perfectionnement du marché, le perfectionnement des entreprises, la connaissance et les résultats technologiques, ainsi que la créativité. Les critères vont  du nombre de demandes de titres de propriété intellectuelle déposées à la création d’applications mobiles, aux dépenses en matière d’éducation et aux publications scientifiques et techniques.

La France se retrouve dans le top 25 pour tous les domaines pris en compte par l’indicateur et est mieux classée que la moyenne européenne. Sa force s’observe notamment dans trois domaines : le capital humain et la recherche (11e), l’infrastructure (10e) et le perfectionnement du marché (11e). En particulier, la France est première pour l’indicateur des opérations de capital-risque, deuxième pour la performance environnementale et quatrième pour la qualité de ses publications scientifiques. Par ailleurs, la région parisienne occupe la 9e place du classement des pôles mondiaux les plus innovants.

domaine-france-innovation
Scores de la France dans les sept domaines pris en compte par l’Indice mondial de l’innovation.

Les pays émergents se positionnent

Aux côtés d’Israël, de l’Australie, des Etats-Unis et du Canada, 11 des 20 pays les plus innovants se situent en Europe et cinq en Asie. La Chine se trouve pour la première fois dans le top 20, se hissant à la 17e place, contre la 22e en 2017. Plusieurs pays asiatiques – Indonésie, Malaisie, Thaïlande, Vietnam – continuent leur progression, se rapprochant des puissances régionales telles que la Chine, le Japon, Singapour et la Corée du Sud. 

À la 47e place, le Chili est premier de la région Amérique latine et Caraïbes. Istraël (11e) et Chypre (29e) occupent les premières places en Afrique du Nord et en Asie occidentale pour la sixième année consécutive. L’Afrique du Sud, à la 58e place, est à la tête des pays de l’Afrique subsaharienne. Enfin, l’Inde (57e) est en tête de la région Asie centrale et du Sud.

Voici le top 20 des pays les plus innovants en 2018 et leur évolution par rapport à l’année dernière :

Classement mondial 2018

Pays

Classement mondial 2017

1

Suisse

1

2

Pays-Bas

3

3

Suède

2

4

Royaume-Uni

5

5

Singapour

7

6

Etats-Unis

4

7

Finlande

8

8

Danemark

6

9

Allemagne

9

10

Irlande

10

11

Israël

17

12

Corée du Sud

11

13

Japon

14

14

Hong Kong (Chine)

16

15

Luxembourg

12

16

France

15

17

Chine

22

18

Canada

18

19

Norvège

19

20

Australie

23

Par Matthieu Combe, journaliste scientifique

Parker Solar Probe : la recherche française décolle en direction du Soleil

Un peu plus près des étoiles, dans la couronne de plasma qui entoure le Soleil. C’est l’objectif de la mission Parker Solar Probe de la NASA pour tenter de résoudre l’un des plus grands mystères de la physique contemporaine : comment la température de son atmosphère peut-elle dépasser le million de degrés alors que celle sa surface atteint seulement 6 000 °C ? Les astrophysiciens ont déjà proposé que la couronne pourrait être chauffée par des ondes électromagnétiques produites en surface, mais impossible de tester cette hypothèse sans se rendre sur place, dans un milieu aux conditions extrêmes, comme le fera cette sonde. Ses mesures permettront également d’étudier d’autres phénomènes, tels que la genèse des vents solaires.

Parker Solar Probe atteindra son objectif en novembre 2018, seulement trois mois après son lancement de Cape Canaveral prévu le 11 août à bord d’une fusée Delta IV Heavy, le plus puissant lanceur de la NASA. Pour atteindre son objectif aussi rapidement, la sonde battra le record de vitesse par rapport au Soleil : au plus près de l’étoile, elle atteindra les 700 000 kilomètres par heure. A cette vitesse par rapport à la Terre, Parker Solar Probe relierait Paris à Sydney en moins de 2 minutes ! La sonde effectuera vingt-cinq passages à proximité du Soleil durant cette mission, entrecoupés de passages près de l’orbite terrestre au cours desquels les données récoltées pourront être envoyées aux scientifiques. Ses trois derniers passages l’amenant au plus proche du Soleil, à environ 6 millions de kilomètres de la surface solaire.

Cette mission américaine profite de l’expertise de cinq laboratoires français, tels que le Laboratoire de physique et chimie de l’environnement et de l’espace (LPC2E ; CNRS/CNES/Université d’Orléans) qui a développé un instrument embarqué à bord de Parker Solar Probe : son magnétomètre à induction mesurera les variations du champ magnétique dans la couronne solaire. Ces mesures seront donc cruciales pour comprendre comment elle peut être chauffée à des températures dépassant le million de degrés.

En outre, les équipes du Laboratoire d’études spatiales et d’instrumentation en astrophysique (Observatoire de Paris–PSL/CNRS/Université Paris Diderot/Sorbonne Université) et du Laboratoire de physique des plasmas (CNRS/Observatoire de Paris–PSL/Ecole polytechnique/Université Paris-Sud/Sorbonne Université) ont participé à la mise au point d’un récepteur radio et de deux spectromètres, fabriqués aux Etats-Unis. Quant à l’Institut de recherche en astrophysique et planétologie (CNRS/CNES/Université Toulouse III-Paul Sabatier), il sera impliqué dans l’exploitation des images de la caméra embarquée par la sonde. Enfin, le four solaire du laboratoire Procédés, matériaux et énergie solaire du CNRS a permis d’éprouver les matériaux et capteurs de Parker Solar Probe dans des conditions proches de celles auxquelles ils seront confrontés autour du Soleil.

Le savoir-faire de ces laboratoires profitera par ailleurs à une autre mission d’exploration solaire à l’horizon 2020 : à son tour, la mission Solar Orbiter de l’Agence spatiale européenne prendra la route du Soleil avec à son bord divers instruments de mesure développés dans plusieurs laboratoires français.

img_5017_resizeartifica
© Guillaume JANNET/LPC2E Capteur magnétique à induction conçu et réalisé par le laboratoire LPC2E, avec le soutien du CNES et du CNRS. Le capteur subit ici un test de vibrations.
assembly_resizeartifica
© Ed WHITMAN/Johns Hopkins APL/NASA Assemblage de la sonde américaine Parker Solar Probe.

Source : cnrs

La Lune aurait pu être habitable

Cela fait maintenant plusieurs années que la probable présence d’eau à la surface de la Lune n’est plus un mystère pour nombre d’astronomes. Malgré cela, les chercheurs de la NASA s’accordent à dire que le satellite de la Terre n’a en aucun cas pu être un jour habitable. Cette théorie a été remise en question par les chercheurs Dirk Schulze-Makuch, professeur au centre d’astronomie et d’astrophysique que l’Université de Berlin, et Ian Crawford, professeur d’astrobiologie à l’Université de Londres. Ces derniers affirment dans la revue Astrobiology que des fenêtres temporelles correspondant à des périodes d’habitabilité de la Lune pourraient bel et bien être définies.

De l’eau présente depuis des milliards d’années

De récentes missions spatiales ayant permis l’analyse de roches et de sols lunaires ont mené les chercheurs à aboutir à ces conclusions. Les deux hommes définissent deux périodes de potentielle habitabilité de la Lune. La première pourrait avoir eu lieu juste après l’accrétion de l’astre, il y a environ 4,5 milliards d’années. Et la seconde quelques centaines de millions d’années plus tard, lors du dégazage lié à l’activité volcanique lunaire. En effet, de l’eau aurait été emprisonnée dans la roche lunaire lors de ces deux événements.

Il est néanmoins bon de relativiser la présence d’eau à la surface du satellite terrestre. Les deux scientifiques ont réussi à démontrer que lors des événements précédemment évoqués, de la vapeur d’eau a pu être enfermée dans les roches de basalte lunaire. Avec le temps, le dégazage d’eau aurait pu former des océans lunaires mesurant jusqu’à un kilomètre de profondeur. Toutefois, cela était impossible car l’atmosphère n’a jamais été suffisamment dense sur la Lune.

Une courte vie hypothétiquement possible sur la Lune

Si l’hypothèse de la présence d’eau sur la Lune à son époque primitive semble faire de moins en moins de doute, il n’en demeure pas moins que des interrogations persistent sur la présence d’organismes vivants. Schulze-Makuch et Crawford font également des suppositions sur ce point. Selon eux, il se pourrait que des formes de vie se soient développées durant les premiers millions d’années de l’astre sous forme bactériologique, et durant quelques milliers d’années au plus.

La communauté scientifique s’accorde à dire qu’il est très difficile à l’heure actuelle d’évoquer cette possibilité avec plus de précision. Selon elle, si la vie sur la Lune a un jour été possible, elle pourrait s’expliquer par l’abiogenèse. Cela voudrait dire que la vie aurait été générée de façon spontanée à l’échelle nanobactériologique. Reste une dernière éventualité évoquée par les scientifiques. La vie aurait pu passer de la Terre à la Lune par le biais de transferts de météorites il y a 3 ou 4 millions d’années. « Il est possible que la vie terrestre ait inoculé des environnements lunaires passablement habitables » avancent  Dirk Schulze-Makuch et Ian Crawford.

Par Matthieu Combe, journaliste scientifique

Place au plan Ecophyto II+ suite à l’échec d’Ecophyto II

Les ministères de l’Agriculture, de la Santé, de la Recherche et de la Transition écologique annoncent conjointement une nouvelle hausse du nombre de doses-unités épandues à l’hectare (NODU), l’indicateur de référence utilisé dans le cadre du plan Ecophyto. La hausse est de 12,4 % entre 2014 et 2016.

Le plan Ecophyto a été lancé en 2008. Il visait alors une réduction de l’usage des pesticides de 50 % d’ici 2018. En 2015, le plan était remodelé en plan Ecophyto II avec le report de l’objectif à 2025, doté d’un palier intermédiaire en 2020, à -25 %. Face à ce nouvel échec, les quatre ministères annoncent le lancement du plan « Ecophyto II+ ». Ce dernier intègre les mesures du plan d’action sur les produits phytopharmaceutiques et une agriculture moins dépendante aux pesticides et du plan d’action de sortie en trois ans du glyphosate, respectivement présentés les 25 avril et 22 juin derniers. Ce nouveau plan sera soumis à consultation publique à l’automne en vue d’être publié avant la fin de l’année.

Quelques financements supplémentaires

Chaque année, le plan Ecophyto II est financé à hauteur de 71 millions d’euros. Le plan Ecophyto II+ sera doté de la même enveloppe. Sans en préciser l’étendue, les ministères annoncent en complément que « les outils du Grand Plan d’investissement seront également mobilités pour accompagner les priorités d’Ecophyto II+ ». Par ailleurs, Stéphane Travert a annoncé deux millions d’euros supplémentaires pour accompagner le développement du réseau de fermes DEPHY qui testent des démarches innovantes de réduction du recours aux pesticides. D’ici 2021, le ministre souhaite multiplier par 10 le nombre de ces fermes, de 3.000 à 30.000.

Pour l’association Générations Futures, « ce nouveau plan manque d’une approche claire sur de nécessaires changements radicaux de systèmes agricoles ». Au lieu de parler de « biocontrôle ou d’optimisation technique », l’association estime que le plan devrait  « généraliser les systèmes de culture en rupture avec les pratiques actuelles ». Chez France Nature Environnement, la chargée des questions pesticides Claudine Joly appelle à « l’activation d’autres leviers économiques et réglementaires nécessaires pour obtenir une mobilisation de l’ensemble de la profession ».

Par Matthieu Combe, journaliste scientifique

Revue de presse anglophone #19

Les datas médicales plus vulnérables

medecine

Une étude montre que les données médicales sont les plus sujettes au hacking. La plupart du temps, des erreurs humaines sont à l’origine de ces failles. Lire

Source : The Guardian

Analysons les tweets d’Elon Musk

elon-musk-camion-tesla-1140

Le charismatique patron de Tesla est un habitué de Twitter… et des polémiques sur Twitter. Lire

Source : Wall Street Journal

Facebook et le challenge des datas

Facebook-at-work

La firme américaine s’est engagée à continuer à faire du ciblage commercial tout en limitant au maximum l’exploitation des données personnelles des usagers. Lire

Source : Wall Street Journal

Les oiseaux californiens s’entrainent à survivre

oiseaux

Des chercheurs américains ont étudié des oiseaux californiens dans une région marquée par le réchauffement climatique. La conclusion : ils s’adaptent remarquablement rapidement aux changements actuels. Lire

Source : New York Times

Les mains des robots ressemblent de plus en plus aux nôtres

Capture d’écran 2018-07-31 à 15.30.31

Les chercheurs s’orientent de plus en plus vers le développement de mains robotisées ayant les mêmes caractéristiques que celles des humains. Lire

Source : New York Times

Une centrale solaire flottante sur un lac alpin suisse

Depuis 2013, l’entreprise Romande Energie teste à proximité du Lac de Toules différents types de panneaux solaires et leur inclinaison. Le permis de construire d’un démonstrateur de parc solaire flottant a été délivré par le Canton du Valais en septembre 2017 pour une mise en service en 2019. Avec 2.240 m2 de panneaux, le démonstrateur produira 750 mégawattheures (MWh) par an. Soit de quoi alimenter l’équivalent de 208 ménages de la commune de Bourg-Saint-Pierre. Pour un investissement de 2,35 millions de francs suisses (environ 2 millions d’euros), l’objectif est de vérifier la faisabilité technique et financière d’un parc solaire flottant d’envergure.

L’entreprise Poralu Marine développe l’ensemble de la structure flottante sur laquelle seront installés les panneaux solaires. Après avoir installé une première ferme solaire flottante au Canada, l’entreprise devra prendre en compte «des températures particulièrement rigoureuses, anticiper le poids de la neige sur les panneaux et l’emprise de la glace, sans oublier les vents soufflant jusqu’à 120 km/h», précise-t-elle dans un communiqué. Si les résultats sont favorables, un parc flottant d’envergure pourrait recouvrir jusqu’à 35 % de la surface de ce lac de barrage. Dès 2021, la structure comprendrait près de 67.000 m2 de panneaux solaires reposant sur un tapis d’environ 1.000 flotteurs arrimés aux rives du lac. Elle produirait 23.000 MWh par an, soit de quoi alimenter 6.400 ménages.

Dans cet environnement alpin, le parc pourrait produire «jusqu’à 50% d’énergie en plus qu’un parc de mêmes dimensions situé en plaine, grâce notamment à la réverbération de la lumière sur la neige», rappelle Poralu Marine.

Par Matthieu Combe, journaliste scientifique

Revue du web #116 spéciale robotique : les 6 vidéos les plus étonnantes

Un robot pour capturer les créatures des abysses…

Des chercheurs américains ont créé un bras robotisé capable de capturer sans blesser des organismes qui vivent dans les profondeurs des océans.

Testé jusqu’à 700 mètres, le robot pourrait en théorie résister à la pression jusqu’à 11 kilomètres de profondeur.

L’étude vient d’être publiée dans la revue Science Robotics.

 

Des mains robotiques aussi agiles que les nôtres ?

Des ingénieurs de la Silicon Valley travaillent actuellement sur les mains robotisées.

Leur but : se rapprocher le plus possible des mains humaines.

 

Le robot centaure qui sauve des vies

Des chercheurs italiens se sont inspirés de la mythologie grecque pour imaginer un robot sauveteur, capable d’intervenir lors d’effondrements ou de catastrophes nucléaires.

 

Cheetah 3 : en fait, ce robot n’a même pas besoin de voir !

Le MIT vient de présenter sa nouvelle prouesse : Cheetah 3 monte les escaliers, saute et se déplace partout… sans rien voir.

Le secret : deux algorithmes, un algorithme de « détection au contact », et un « modèle prédictif de contrôle ».

 

Robots en kit : initiation à la robotique

Pour faciliter l’initiation à la robotique, rien de tel qu’un robot flottant télécommandé !

Le projet Waterbot est en ce moment sur la plateforme de crowfunding Kickstarter !

 

Ce robot livre déjà vos colis (si vous habitez Pékin)

Le robot livreur, qui vous apporte vos repas, circule en ce moment dans les rues de Pékin à une vitesse moyenne de 3 km/h, une vitesse peu impressionnante, certes, mais un service apprécié.

Pour autant, ne vous attendez pas à ce qu’il monte jusqu’à chez vous, le robot livreur préfère vous attendre devant l’immeuble, chargé de votre commande. Pour la récupérer, cliquez sur le lien reçu par mail !

Par I. B

Téléphone… voiture

Et une raison de plus de ne pas oublier son smartphone : dans quelques années, la clé de contact de votre véhicule sera intégrée dans une puce de votre téléphone mobile. Le Car Connectivity Consortium (CCC) a publié la norme Digital Key Release 1.0, pour standardiser le système.

Le CCC se consacre à la collaboration intersectorielle dans l’élaboration de normes et de solutions mondiales pour la connectivité des téléphones intelligents et des véhicules. Il compte plus de 70 membres dont Audi, BMW, General Motors, Hyundai, Apple, LG, Panasonic, Samsung, Volkswagen, Continental, Gemalto, NXP et Qualcomm.

Cette norme permettra de généraliser cette fonction de clé intégrée à un mobile (qui est pour l’instant spécifique à quelques marques comme Tesla et Audi avec sa Connect Key présentée en 2015). Et aussi de limiter les risques. En 2016, une faille dans le système d’ouverture de millions de voitures avait été détectée.

Une nouvelle version en 2019

Digital Key est présenté comme un système sécurisé permettant aux constructeurs automobiles de transférer une clé numérique vers un smartphone. Le transfert s’appuie sur une infrastructure Trusted Service Manager. Elle tire parti des limites de distance NFC (Near Field Communication ou communication en champ proche) et d’un lien direct avec l’élément de sécurité de l’appareil.

Le consortium CCC prévoit de sortir la version 2.0 de sa norme Digital Key Release au premier trimestre 2019. C’est à ce moment-là que seront définis les protocoles de communication entre les véhicules et les smartphones afin d’assurer une parfaite interopérabilité.

Reste que le déploiement réel des outils embarquant ce standard n’est pas encore communiqué. D’autant que les premières clés numériques des constructeurs ne sont pas très visibles. Celle d’Audi est assez rare. En 2015, Volvo avait déclaré qu’il vendrait des modèles avec clés numériques en 2017. Ce n’est pas le cas aujourd’hui.

Autre inconnue qu’il s’agira de contrôler précisément : les échanges de ces clés numériques lors de la location ou le partage d’une voiture… Officiellement, ces clés faciliteraient ces opérations car les locataires n’auraient pas besoin de recevoir les clés physiques pour emprunter un véhicule.

La société d’autopartage Turo (présenté comme le «Airbnb des voitures») expérimente déjà un dispositif qui permet au propriétaire d’une voiture de la déverrouiller à distance avec son téléphone. Zipcar propose également une offre un peu similaire.

Mais lorsqu’on voit la facilité avec laquelle des hackers désactivent de nombreux modèles de serrures connectées, on peut exprimer quelques craintes légitimes…

Philippe Richard

Nouveaux retards et surcoûts à l’EPR de Flamanville

Dans le feuilleton de l’EPR de Flamanville, EDF fait désormais face à des soudures défectueuses du circuit secondaire principal de refroidissement. Ce circuit relie le générateur de vapeur à la turbine qui produit l’électricité. L’énergéticien a annoncé fin juillet avoir contrôlé 148 soudures sur les 150 que compte le circuit secondaire principal. Parmi elles, «33 soudures présentent des écarts de qualité et vont faire l’objet d’une réparation».

Des soudures plus fragiles que prévu

EDF avait décidé que les composants les plus essentiels à la sûreté de l’installation relèveraient du principe d’«exclusion de rupture». Supposés être résistants à toute épreuve, l’entreprise pouvait se dispenser d’en étudier les conséquences de rupture, celle-ci étant supposée impossible. 20 autres soudures ne respectent pas les exigences de «haute qualité» liée à ce principe d’exclusion de rupture et vont être réparées.  Pour dix autres soudures, EDF propose à l’Autorité de sûreté nucléaire «une démarche de justification spécifique».

Dans ces conditions, le chargement du combustible est reporté d’un an. Il est désormais prévu au 4e trimestre 2019,  pour une mise en service commerciale de l’installation en 2020. L’addition passe ainsi de 10,5 à 10,9 milliards d’euros. Au début du projet en 2007, la mise en service de l’EPR de Flamanville était prévue pour 2012. L’installation complète devait alors coûter 3,3 milliards d’euros. Avec 8 ans de retard dans le planning de livraison et un dépassement des dépenses de plus de 7 milliards d’euros, force est de constater que l’EPR de Flamanville n’est pas le fleuron promis de l’industrie française.

Réactions en cascade

Peu avant cette annonce, les ONG Greenpeace et le Réseau Sortir du nucléaire avaient porté plainte contre EDF, Framatome (ancien Areva) et contre X pour dix infractions relevées sur le chantier. Selon le Réseau Sortir du nucléaire, «les malfaçons, mais aussi les contrôles déficients, semblent revêtir un caractère quasiment systémique».  Selon France Nature Environnement, «EDF s’embourbe à Flamanville». Pour sa part, le parti Europe-Ecologie-Les Verts est encore plus incisif et parle de «fiasco industriel du siècle». 

Flamanville a également une incidence sur le dossier Fessenheim. C’était une promesse de François Hollande, maintes fois répétées : fermer la centrale Fessenheim avant la fin de son quinquennat. Elle n’a pas été respectée. L’ancien président avait cédé à une délibération du Conseil d’administration d’EDF. La fermeture de la centrale n’interviendra qu’à partir de la mise en service de l’EPR de Flamanville et si  elle est « nécessaire » au respect du plafond de la capacité de production d’électricité d’origine nucléaire installée en France. Dans ces conditions, le gouvernement a confirmé qu’il entendait repousser la fermeture de la centrale de Fessenheim à 2020. Le Réseau Sortir du nucléaire juge «inacceptable de repousser ainsi indéfiniment l’arrêt de Fessenheim».

Par Matthieu Combe, journaliste scientifique

Hubble immortalise Mars et Saturne au plus proche de la Terre

Cet été, les planètes Mars et Saturne sont relativement proches de la Terre. Le 31 juillet, Mars était même au plus proche de la Terre depuis 15 ans, à 57,6 millions de kilomètres. Ces phénomènes ravissent les astronomes amateurs qui peuvent observer les planètes avec un simple télescope. Le télescope spatial Hubble de la NASA et de l’ESA  profite de l’occasion pour livrer de nouveaux clichés.

Des planètes en opposition

Au cours des derniers mois, les planètes Mars et Saturne ont été en opposition à la Terre. Une planète est dite en opposition, lorsque le Soleil, la Terre et cette planète sont alignés dans cet ordre.C’était le 27 juin pour Saturne et le 27 juillet pour Mars. Pendant une opposition, la planète est au plus proche de la Terre. Elle est alors particulièrement visible, car entièrement éclairée par le Soleil vue de la Terre. Cela permet aux astronomes de l’observer en détail.

Peu avant son opposition, le 6 juin, Hubble observait Saturne. La planète se trouvait alors à environ 1,4 milliard de kilomètres de la Terre. L’image dévoilée montre le magnifique système d’anneaux de Saturne. En plus, elle révèle un motif hexagonal autour du pôle nord. Il s’agit d’un élément de vent stable et persistant découvert lors du survol de la sonde spatiale Voyager 1 en 1981. Enfin, la structure en bandes de la planète,  est clairement visible. Elle est causée par les vents et les nuages à différentes altitudes.

saturne-opposition-2018
Saturne vu par Hubble le 6 juin. Credit: NASA, ESA, A. Simon (GSFC) et l’équipe OPAL, et J. DePasquale (STScI)

Pour la première fois, Hubble a également photographié six des 62 lunes connues de Saturne : Dione, Encelade, Téthys, Janus, Epiméthée et Mimas. Les scientifiques émettent l’hypothèse qu’une petite lune similaire s’est désintégrée il y a 200 millions d’années pour former le système d’anneaux de Saturne.

Six satellites de Saturne ont été observés le 6 juin. Credit: NASA, ESA, A. Simon (GSFC) et l'équipe OPAL, et J. DePasquale (STScI)
Six satellites de Saturne ont été observés le 6 juin. Credit: NASA, ESA, A. Simon (GSFC) et l’équipe OPAL, et J. DePasquale (STScI)

Une tempête martienne

Hubble a photographié la planète Mars le 18 juillet, juste 13 jours avant que Mars ne soit au plus proche de la Terre. Alors que les images précédentes montraient en détail la surface de la planète, les nouveaux clichés dévoilent une tempête de sable gigantesque qui enveloppe la planète entière. Seules les calottes polaires blanches (Terra Meridiani), le cratère Schiaparelli et le bassin Hellas sont encore visibles.Toutefois, ces caractéristiques sont légèrement floues, à cause de la poussière dans l’atmosphère. Les tempêtes de poussière mondiales durent des semaines ou des mois. Elles ont tendance à se produire au printemps et en été dans l’hémisphère sud, lorsque Mars est au plus proche du Soleil et que le réchauffement est maximal.

Les vaisseaux spatiaux en orbite autour de Mars peuvent étudier le comportement de la tempête à basse altitude. Les observations de Hubble permettent aux astronomes d’étudier les changements dans la haute atmosphère. Les observations combinées aident les scientifiques planétaires à mieux comprendre comment ces tempêtes mondiales se produisent.

Mars vu par Hubble le 18 juillet 2018. Credit: NASA, ESA, et STScI
Mars vu par Hubble le 18 juillet 2018. Credit: NASA, ESA, et STScI

Ces nouvelles images de Mars et de Saturne viennent compléter d’anciennes données recueillies par Hubble, d’autres télescopes et des sondes spatiales. Elles permettent aux astronomes d’étudier comment les nuages et les structures à grande échelle sur d’autres planètes de notre système solaire évoluent avec le temps.

Par Matthieu Combe, journaliste scientifique

L’écologie digitale, vous connaissez ?

Une récente enquête menée par le cabinet d’études et conseil Occurence pour l’ONG Digital for the planet s’intéresse à la perception qu’ont les Français de la pollution numérique. Obsolescence programmée, data centers, cloud, D3E : voici des termes connus des Français qui ont intuitivement conscience de l’impact environnemental du digital, même s’ils ne le connaissent pas en détail. Ils sont ainsi 76 % à estimer que les activités digitales produisent aujourd’hui autant ou plus de CO2 que le secteur aéronautique au niveau mondial. Le digital est déjà responsable de 16 % de la consommation électrique mondiale, part qui devrait augmenter de 50% d’ici 2020. Toutefois, 73 % des Français ignorent le principe d’écologie digitale qui découle de la pollution numérique.

Comprendre l’écologie digitale

« L’écologie digitale est la discipline qui étudie l’impact environnemental des différents écosystèmes reliant l’humain et le digital dans le but d’en limiter les effets nuisibles pour l’environnement », avance le cabinet d’études Occurence. Les Français sont 90 % à en avoir une bonne opinion lorsqu’ils en apprennent la définition. Pour Inès Leonarduzzi, CEO de Digital for the Planet, la pédagogie est le premier levier à tirer pour mettre en place une véritable stratégie d’écologie digitale. « On a gagné en pouvoir d’achat ces vingt dernières années, mais perdu en savoir d’achat ; notamment en ce qui concerne le digital, estime-t-elle. Quand on interagit sur un réseau social ou qu’on achète de l’espace de stockage en cloud, on ne nous dit pas ce que ça coûte réellement à la planète ».

Au moment où les Français se tournent de plus en plus vers les achats responsables, seulement 1 Français sur 4 estime que les entreprises se sont déjà saisies du sujet en France. Ils sont pourtant 80 % à indiquer, en tant que consommateur, qu’ils seraient plus fidèles à une marque si celle-ci prenait des engagements forts pour lutter contre sa pollution digitale.

Les Français sont également prompts à inciter le gouvernement français à en faire une priorité stratégique. Ils sont ainsi 77 % à vouloir que « la France devienne en cinq ans le champion international de cette discipline ». Et pour cause : 2 Français sur 3 sont en accord avec l’idée selon laquelle « l’écologie digitale est un indicateur de bonne santé économique ». Dans ces conditions, « les politiques et les entreprises doivent impérativement se saisir de l’écologie digitale s’ils ne veulent qu’elle les rattrape », prévient Assaël Adary, président du Cabinet Occurence.

Par Matthieu Combe, journaliste scientifique

Plus de 8 millions de tonnes de plastiques déversées dans les océans

Le plastique à usage unique : un fléau environnemental

Cette année, le thème de la Journée mondiale de l’environnement était la lutte contre la pollution plastique. Dans le viseur, la réduction des plastiques à usage unique ou jetable qui représentent 50% des déchets. Le rapport de l’ONU énumère les objets concernés: «les mégots, les bouteilles en plastique, les bouchons en plastique, les emballages alimentaires, les sacs plastique de supermarché, les couvercles en plastique, les pailles, les touilleurs et les récipients alimentaire à emporter». Avec une consommation qui s’élève à environ 500 milliards par an, les sacs en plastique représentent le problème majeur. Face à ce constat, pour le secrétaire général de l’ONU, un seul mot d’ordre : «bannissez les produits en plastique à usage unique. Refusez ce que vous ne pouvez pas réutiliser».

Le danger des microplastiques

Sur les neuf milliards de tonnes de plastique produites, seulement 9% ont été recyclées. Sachant que la plupart des plastiques ne sont pas biodégradables, ils finissent en majorité dans les décharges ou dans notre milieu naturel où ils mettront des milliers d’années à se décomposer totalement. Selon le rapport de l’ONU, sans un système de gestion des déchets très efficace environ 12 milliards de tonnes de déchets plastiques seront retrouvées dans les décharges et l’environnement d’ici 2050.

En attendant sa décomposition totale, le plastique contamine les sols et l’eau sous forme de particules de microplastiques qui abiment la faune et la flore marine. Selon les études, 90% de l’eau en bouteille et 83% de l’eau du robinet contiennent des particules de plastique. Le Secrétaire général António Guterres tire la sonnette d’alarme : «Il y a aujourd’hui plus de microplastiques dans les mers du globe que d’étoiles dans toute la Galaxie. Des îles les plus reculées jusqu’au pôle Nord, aucune région n’est épargnée. Si la tendance actuelle se poursuit, il y aura en 2050 plus de plastique que de poissons dans les océans.»

Ces déchets représentent aussi un véritable danger pour la santé humaine puisque lorsque les microplastiques sont ingérés par les poissons (car confondus avec de la nourriture), ils sont transférés dans les tissus animaux pour finalement pénétrer dans notre chaîne alimentaire. Selon le rapport, «les produits en polystyrène, qui contiennent des produits chimiques cancérigènes comme le styrène et le benzène, sont très toxiques lorsqu’ils sont ingérés, endommagent le système nerveux, les poumons et les organes reproducteurs». Les conséquences de l’ampleur de ce phénomène sont très méconnues aujourd’hui car très peu de connaissances sont disponibles sur les effets des microplastiques sur la santé.

Parmi les alternatives envisagées, les plastiques issus de ressources renouvelables et biodégradables comme les biopolymères à base de biomasse (le PLA (acide polylactique) ou les PHA (polyhydroxyalcanoates)) suscitent l’intérêt et font l’objet de nombreuses recherches pour connaitre leur effet dans l’environnement naturel.

Par Aliye Karasu

L’humanité vit à crédit depuis ce matin !

« Si la Planète était une entreprise, elle serait aujourd’hui au bord de la faillite, annonce Pascal Canfin, directeur général du WWF France dans un communiqué. Nous devons impérativement changer notre modèle de développement ». En seulement 7 mois, l’humanité a épuisé son stock de ressources renouvelables fournies par la terre et les océans et saturé les puits. Désormais, le CO2 va s’accumuler dans l’atmosphère, les forêts vont reculer et les sols s’appauvrir.

Un dépassement inquiétant

Le jour du dépassement de la Terre arrive de plus en plus tôt chaque année. Il arrive deux jours plus tôt que l’année dernière, un mois plus tôt qu’en 2004, deux mois plus tôt qu’en 1996 et trois mois plus tôt qu’en 1980. Les surfaces productives de la Terre se réduisent sous les diverses pressions humaines : la déforestation, le réchauffement climatique, l’érosion des sols, le recul de la biodiversité, etc.

Selon sa définition officielle, le développement durable est « un développement qui répond aux besoins du présent sans compromettre la capacité des générations futures à répondre à leurs propres besoins ». Au bout du compte, il faudrait désormais l’équivalent de 1,7 Terre pour assurer un développement durable et étancher notre soif de croissance. Sans cette 0,7 Terre supplémentaire, la pollution et les déchets s’accumulent dans l’air, l’eau et les sols.

Le WWF appelle donc à « inverser la tendance ». Pour ce faire, il invite tous les acteurs à s’engager à « mettre un terme à l’érosion du capital naturel et à revoir leurs modèles de développement ». En particulier, l’association rappelle que l’urgence est à la réduction drastique de nos émissions de gaz à effet de serre liées à la combustion d’énergies fossiles, et la réduction de notre empreinte alimentaire.

La France, parmi les leaders du déficit

Malgré l’impulsion donnée par l’Accord de Paris, la France est loin d’être un bon exemple. Si toute l’humanité vivait comme des Français, le Jour du dépassement de la Terre arriverait le 5 mai. Et il faudrait l’équivalent de 2,8 Terres pour un développement durable. Le WWF appelle donc la France à appliquer des « politiques ambitieuses et cohérentes au niveau national » et « un leadership au niveau international ».

D’ici la fin de l’année, l’agenda politique français sera bien rempli côté environnement. Des discussions capitales vont concerner la future programmation pluriannuelle de l’énergie dès la rentrée. Au programme, il y aura également la loi d’orientation sur les mobilités et la loi sur la fin de la déforestation importée. « Nous devons parvenir à faire de la biodiversité une priorité internationale et réussir à Marseille et à Pékin en 2020 à trouver un New Deal pour la nature, estime Pascal Canfin. Comme ce fut le cas pour l’Accord sur le climat en 2015, la France est attendue pour montrer un leadership et une exigence de cohérence dans ses politiques, en métropole comme en Outre-Mer. »

Vous souhaitez calculer le nombre de planètes qu’il nous faudrait si tout le monde vivait comme vous ? Calculez votre empreinte écologique.

Par Matthieu Combe, journaliste scientifique

Compétences comportementales : indispensables pour les métiers du cloud et de la cybersécurité

L’Association pour l’emploi des cadres (Apec) et l’Observatoire des Métiers des Télécommunications (OMT) ont présenté une étude qui met en lumière les 22 métiers et compétences cadres recherchées dans les domaines du cloud, du big data et de la cybersécurité. Si à l’instar d’autres études métiers relatifs aux technologies de la communication ou de l’informatique, cette photographie réalisée à partir des offres d’emplois publiées par l’Apec, révèle que l’Ile-de-France est la région qui recrute le plus et que les candidats les plus recherchés possèdent 1 à 3 ans d’expérience, elle montre aussi que certaines compétences, autrefois considérées comme secondaires deviennent un élément déterminant des recrutements.

Le Cloud tient le haut du pavé

Sur les 21000 offres publiées par l’Apec en 2017 dans ces domaines, le cloud est majoritaire avec 50 % des annonces considérées contre 37 % pour le big data et 13 % pour la cybersécurité. Cependant, les auteurs de l’étude soulignent que ces chiffres sont à manipuler avec prudence tant les frontières entre les trois domaines sont poreuses. En effet, l’Apec recense pour ces 3 domaines 22 métiers mais certains d’entre eux classés dans un domaine pourraient tout aussi bien être classés dans un autre.

La transformation numérique des entreprises, la rapidité de développement de nouvelles technologies, rendent ces secteurs très mouvants et la définition de « métiers » ou de « profils professionnels » délicats. Il faut bien sûr aussi noter que ces offres d’emplois, qui représentent 4 % de l’ensemble des offres Apec et 22 % des offres relatives aux fonctions informatiques, ne sont forcément qu’une fraction des offres totales du marché. Certains recruteurs se limitant à des plateformes collaboratives ou aux réseaux sociaux pour trouver leurs collaborateurs.

La technique ne suffit plus

Désormais les compétences techniques ne sont plus déterminantes, elles sont nécessaires mais pas suffisantes, les recruteurs recherchent des compétences transversales et comportementales : capacité d’adaptation et d’apprentissage pour pouvoir acquérir de nouvelles compétences techniques et faire face aux évolutions, capacité à gérer des projets en mode agile, maîtrise de l’anglais et surtout capacité relationnelle, rigueur, esprit d’initiative. Les variétés de langage, de technologies requises sont telles, que les employeurs n’hésitent plus à écrire des phrases telles que «peu importe les technologies utilisées, nous cherchons quelqu’un sachant s’adapter.» dans leurs annonces. En même temps vu qu’elles visent des profils de 3 ans d’expérience maximum, difficile d’exiger de tout maîtriser… Les annonces décrivent d’ailleurs souvent des compétences informatiques très larges allant des bases de données, aux langages informatiques en passant par la maîtrise de plateforme OS ou de frameworks/librairies. Cette tendance s’explique aussi par le manque de candidats encourageant les entreprises à élargir leurs critères et au système d’appels d’offres. Les entreprises postant des annonces pour répondre à des appels d’offres ou pour se constituer un vivier de spécialistes auxquels elles peuvent faire appel à tout moment.

Jeunesse, Ile-de-France, informatique, le trio gagnant

Plus de 50 % des offres, dans les trois domaines considérés demandent une expérience courte, de 1 à 3 ans et plus de 50 % des annonces concernent l’Ile-de-France. Ce chiffre atteignant 60 % pour les métiers du big data comme «consultant data», «data scientist», «data analyst», «ingénieurs data». Néanmoins, certaines régions se démarquent comme les régions PACA et Bretagne pour la cybersécurité. Des entreprises de tous secteurs d’activité diffusent ces offres mais c’est le secteur des activités informatiques qui logiquement  prend la tête devant le secteur de l’ingénierie-R&D. La cybersécurité se démarque des deux autres domaines, car le secteur des activités informatiques y est moins majoritaire. Ainsi, un tiers des offres émanent des transports (automobile, aéronautique), de l’ingénierie et des équipements électroniques. Les auteurs de l’étude explique cette spécificité en raison du développement de l’Internet des objets (IoT).

Sophie Hoguin

Trop peu de progrès pour la sécurité des systèmes informatiques des entreprises

Cette enquête Mips (« Menaces informatiques et pratiques de sécurité en France ») est réalisée tous les deux ans auprès d’entreprises de tailles et de secteurs variés. Pour l’édition 2018, 350 entreprises ont répondu et 200 établissements de santé. Les thèmes abordés sont calqués sur ceux de la norme ISO 27002:2013 relative à la sécurité des systèmes d’information.

Entreprises : encore trop peu de RSSI

Selon les auteurs de l’étude, la « maturité » des systèmes de sécurité de l’information (SSI) des entreprises stagne. En effet, si par exemple la mise en place d’organisations ou de structures dédiées augmente au fil des ans, elles n’ont pas forcément le budget ou un système organisationnel permettant d’être efficace.

La fonction de responsable de la sécurité des systèmes d’information (RSSI) recule par rapport à 2016 (63 % contre 67%) sauf dans les banques-assurances qui en sont pourvues à 85 %. Cependant, elle est désormais plus rattachée à la direction générale (49%) qu’à la direction des services informatiques (30%), un point positif pour lui donner du poids et un pouvoir d’arbitrage. Mais attention, ces chiffres globaux masquent des disparités très fortes entre les grandes à très grandes entreprises et les plus petites.

En outre, l’approche des risques est encore loin d’être préventive : les budgets sont consacrés à la mise en place de solutions techniques telles que des pare-feu, des anti-spams et anti-virus mais les systèmes de gestion des informations et des événements de sécurité (SIEM) ou les autres outils de contrôles d’accès ou de contrôles des fuites sont faiblement développés (respectivement par 38 % et 14 % des entreprises interrogées), les entreprises inventorient les risques (80%) et mettent en place des politiques (75%) mais ne les évaluent pas réellement (29 % le font seulement).

Des dispositifs partiels, pas de suivi

De manière générale si les pratiques évoluent vers dans le bon sens, l’efficacité finale est encore faible. Ainsi, 72 % des entreprises ont banni l’usage des équipements personnels, 75 % d’entre elles réalisent une veille permanente en vulnérabilités et en solution de sécurité de l’information et les entreprises identifient plus vite et réagissent mieux en cas d’incidents puisque désormais les incidents sont traités en moins de 24h pour 70 % d’entre elles (contre 58 % en 2016). Mais pour autant, il y a peu de collecte systématique de l’information et quand elle existe elle n’est pas analysée, il y a peu d’audit, de tests et de contrôles et quand ils sont réalisés c’est souvent sous l’impulsion d’exigences contractuelles ou réglementaires ou par des tiers. Quand il existe des plans de continuité d’activité, au moins un quart d’entre eux n’ont pas été testés. Et si 50 % des entreprises ont inventorié leurs actifs informationnels (33 % en 2016), cet inventaire est souvent partiel pour 70 % d’entre eux et à la suite de cet inventaire seuls 23 % l’ont analysé. Si bien que les auteurs se demandent comment les plans de réduction des risques peuvent être efficaces si on ne sait pas exactement où sont les risques…

Etablissements de santé : bien mieux qu’il y a 4 ans

L’édition 2018 de l’étude fait un focus sur les établissements de santé de plus de 200 lits, comme en 2014. Et les efforts sont là vraiment notables. Ainsi, les établissements ayant formalisé un plan de sécurité des systèmes d’information est passé de 50 % en 2014 à 92 % en 2018. Plus de la moitié des établissements ont créé un poste de RSSI à plein temps et 60 % ont mis en place des programmes de sensibilisation auprès des professionnels, des chiffres qui ont doublé en quatre ans.

Les marges de progrès restent cependant encore importantes, le Clusif note par exemple que la cryptographie n’est pas encore assez exploitée, seuls 40 % des établissements y ayant recours, ce qui reste toutefois mieux que les entreprises (30%).

Parmi les freins identifiés, le budget est encore largement cité (même si ceux-ci sont en augmentation) ainsi qu’un manque de personnel qualifié.

Dans ce secteur, les pannes d’origine internes sont la cause principale des incidents au même titre que les virus (40% chacun) et nombre d’incidents sont liés à des erreurs de conception, de mise en œuvre de logiciels ou d’utilisation. Cependant, l’étude souligne que le nombre d’incidents est deux à trois fois moindre qu’en 2014 et que 75 % d’entre eux sont résolus en 24h.

Sophie Hoguin

À l’usine, au bureau, tous remplacés par des robots ?

Nous roulions dans une rue, j’examinai anxieusement les policiers et les agents d’entretien : c’étaient des robots. Un épicier se retourna avec curiosité : c’était un robot. Je tentai de distinguer les chauffeurs des voitures qui nous dépassaient : elles n’en avaient pas. Face aux clients, à la banque, au restaurant, au salon de coiffure, c’étaient des robots, tous, chatbots et androïdes, à roulettes ou sur des jambes…
Cette scène imaginaire, inspirée du roman de Pierre Boulle La planète des singes, présage-t-elle du futur qui nous attend ? Depuis quelques années, des chiffres tapageurs font les titres de la presse au sujet de l’automatisation du travail, susceptible d’être effectué par des machines ou des logiciels. Selon certaines études, cela concernerait près d’un emploi sur deux dans les dix ou vingt prochaines années ! Après le plombier polonais, le (ro)bot autonome voleur d’emploi s’invite dans les débats…

Combien d’entre nous seront-ils concernés ?

« Ces études se sont notamment basées sur la créativité et la dextérité manuelle requises par un emploi pour déterminer s’il est automatisable ou non », commente Gregory Verdugo, chercheur au Centre d’économie de la Sorbonne. Plus fine, une étude de l’OCDE distingue les différentes tâches d’un même emploi et tient compte du degré d’interaction avec les clients ou les collègues, une capacité gourmande en adaptabilité et, pour l’heure, non automatisable à 100 %. Résultat : « seulement » un emploi sur dix serait menacé par la prochaine « robolution » dans les pays les plus industrialisés.

Avec une approche similaire, l’enquête Insee/DARES arrive à 15 % d’emplois automatisables pour la France. « Bien malin en vérité qui peut prédire ce qui sera techniquement automatisable », intervient Gregory Verdugo selon lequel aucun de ces chiffres ne fait sens. « En 2004, Frank Levy et Richard Murnane, deux économistes de Harvard, classaient la conduite parmi les activités qui échapperaient aux révolutions technologiques parce qu’elle réclame de s’adapter à des situations non prévues. Six ans après la sortie de leur livre, les Google Cars sillonnaient les routes californiennes… », illustre l’économiste.

« Jusqu’à présent, ce sont surtout les emplois non qualifiés qui ont été pourvus ou modifiés par des machines, dans les usines principalement. Aujourd’hui, c’est le caractère routinier ou non d’une activité qui est pris en compte, le fait de suivre une suite d’actions selon un protocole strict », analyse Gilles Saint-Paul, chercheur au sein de l’unité Paris-Jourdan Sciences Économiques. Et routinier ne rime pas forcément avec peu qualifié. Jardiniers et plombiers tirent ainsi leur épingle du jeu, en partie grâce à la souplesse de leurs gestes et à leur facilité de déplacement, bien loin de celles des robots. Tandis que les cols blancs ont de quoi trembler sérieusement, à commencer par les comptables jugés à l’unanimité « très automatisables ».

Selon le New York Times, de nombreuses banques américaines développent des « robo-advisors », logiciels qui gèrent le patrimoine et font fructifier l’argent de leurs clients. Au Japon, Watson, la célèbre intelligence artificielle d’IBM, remplace trente-quatre employés d’une compagnie d’assurance-vie, soit un quart des effectifs. Et on teste des algorithmes pour conseiller juges et avocats à partir de décennies de jurisprudence ou pour distinguer entre mille une tumeur maligne. Chaque jour, ou presque, de nouvelles prouesses émaillent la rubrique high-tech des webzines, laissant perplexes les jeunes cadres dynamiques.

Source: CNRS

Un matériau pneumatique entièrement imprimé en 3D

Plusieurs défis ont été relevés pour aboutir aux premiers résultats présentables du projet « Liquid Printed Pneumatics », une collaboration entre le MIT Self-assembly Lab et le constructeur automobile BMW. Il fallait trouver un matériau liquide qui durcisse avec le temps tout en gardant des propriétés élastiques suffisantes pour supporter d’être gonflé et il fallait trouver une technique d’impression 3D qui permettent de fabriquer des objets de grande taille, rapidement avec ce matériau.

La voie ouverte par le « Rapid Liquid Printing »

Cette nouvelle technologie de fabrication additive pour les polymères et autres matériaux synthétiques a été présenté dans une publication de septembre 2017 de la revue 3D printing and additive manufacturing. Le Rapid Liquid Printing consiste à utiliser une cuve remplie d’un gel. L’impression 3D va se faire au sein de ce gel qui sert de support à la structure construite ; une buse va introduire le matériau de fabrication, non pas forcément couche par couche, mais réellement là où c’est nécessaire, comme un dessin en 3D. Cette buse est portée par une structure robotisée qui est commandé numériquement. La cuve peut donc être potentiellement de n’importe qu’elle taille et l’objet fabriqué aussi. Le matériau reste en place au sein du gel sous sa forme finale, jusqu’à ce qu’il durcisse. Un procédé rapide (comparé aux autres procédés de fabrication additive) et qui permet de s’affranchir de toute limite de taille.

Un caoutchouc de silicone gonflable

BMW et le MIT Sefl-assembly Lab ont choisi un caoutchouc de silicone comme matériau pour leur démonstrateur. Après deux ans d’études, les premiers résultats prennent donc la forme de coussinets gonflables assemblés les uns aux autres. Les coussinets se gonflent à l’air et selon la pression appliquée leur gonflement, plus ou moins important va faire varier la forme de la structure générale et/ou sa fermeté. Un exemple marquant de ce que la fabrication additive apporte comme liberté pour repenser les formes et les fonctions des objets, évolutives dans le temps ou en fonction de certains paramètres commandables.

Le fruit de ce partenariat entre un industriel et un laboratoire de recherche est visible à l’exposition The Future Starts Here, à Londres jusque début novembre 2018.

pneu1pneu2pneu3

Sophie Hoguin

Un biopolymère à base de lignine pour l’impression 3D

Les matériaux végétaux pour l’impression 3D sont pléthores. Cependant, ils sont encore bien souvent marginaux ou réservés à des utilisations ponctuelles pour des particuliers. Mais les biopolymères ont toute leur place dans l’impression 3D comme le prouve ce nouveau matériau proposé par l’Oak Ridge National Laboratory (ORNL). Ce laboratoire américain a développé un biocomposite à base de lignine qui peut être utilisé pour faire de l’impression 3D à l’échelle industrielle. Une démarche intéressante surtout quand elle utilise les coproduits d’autres filières végétales. Le nouveau matériau mise en œuvre dans ce laboratoire de recherche américain est un mélange de lignine, de caoutchouc synthétique (styrène-butadiène), de fibres de carbone et d’ABS (acrylonitrile butadiène styrène). Ces travaux ont donné lieu à un dépôt de brevets et ont été publiés dans la revue Applied Materials Today.

Des fibres de carbone clés

L’ORNL a profité de son expérience de plus de 5 ans avec les matériaux à base de lignine pour ces recherches. La lignine, composant clé des cellules végétales et qui leur confèrent leur rigidité est un coproduit abondant de certaines filières végétales comme les biocarburants. Au départ, les recherches ont seulement porté sur un apport de lignine à un mélange de thermoplastiques (caoutchouc synthétique + ABS), mais les chercheurs ont fait face à des difficultés pour préserver la fluidité du mélange lors du chauffage. Ils ont alors eu l’idée d’ajouter 10 % de fibres de carbone discontinues (Cfs). Cet ajout a été décisif pour l’obtention de propriétés très intéressantes : non seulement le mélange a été amélioré mais cela a aussi permis de renforcer les liaisons entre les différentes couches déposées lors de la fabrication avec une adhésion intercouches améliorée de 100 %. Par ailleurs, la lignine et les fibres de carbones confèrent au matériau final qui contient 40 % de lignine, de très bonnes propriétés mécaniques que les chercheurs espèrent encore améliorer. En outre, la technique mise au point en laboratoire peut être facilement transférée à un niveau industriel.

D’autres coproduits sont en 3D

Ce n’est pas la première fois que les nouveaux matériaux conçus pour l’impression 3D cherchent à utiliser des coproduits ou des déchets. On peut par exemple citer les divers produits au catalogue de l’américain 3D Fuel. L’entreprise a composé une gamme de filaments biocomposites en partenariat avec c2rnew, un spécialiste des matériaux composites utilisant des résidus, coproduits et déchets issus de l’agriculture ou du traitement des déchets. La gamme comprend aujourd’hui quatre filaments différents incorporant des drêches de bière, du chanvre, du marc de café ou encore des cendres d’incinération. Mais on peut aussi trouver des filaments à base d’algues chez Algix 3D et potentiellement toutes sortes de biopolymères peuvent être adaptés. Par exemple, Eric Klarenbeek et Maartje Dros, deux designers hollandais, travaillent ainsi avec des biopolymères à base d’algues, de mycélium, d’amidon de pommes de terre ou de coques de noix de coco.

Sophie Hoguin

Galileo : le concurrent du GPS trace sa route

Avec ce lancement (en direct à 13 h 25 heure de Paris depuis le site www.esa.int), Ariane 5 porte de 22 à 26 le nombre de satellites composant la constellation Galileo. 24 sont opérationnels et placés à 23 222 km tandis que six satellites serviront de «roue de secours».

Cette mise sur orbite permettra d’améliorer la précision du positionnement et la couverture mondiale du système de navigation (mis en service en… 2008) dont les premiers services remontent à 2016.

Près de 100 millions de terminaux commerciaux exploitent déjà les données de Galileo. Avec ce dernier lancement, le GPS européen pourrait passer à 200 millions d’utilisateurs.

Galileo fournit un service de positionnement global très précis (grâce à des fréquences doubles en standard, la précision en temps réel atteint le mètre) et garanti sous contrôle civil. Il est interopérable avec le GPS et Glonass, qui sont respectivement les systèmes mondiaux de navigation par satellite des États-Unis et de la Russie.

galileo_control_centre_gcc-d_oberpfaffenhofen_1-18_gcc_44 (1)

eCall : des secours plus rapides

L’aide à la navigation automobile sera améliorée. Les informations de positionnement affichées par les smartphones (une soixantaine de modèles sont compatibles et une trentaine de fabricants de puces proposent des solutions) seront plus précises et plus fiables, en particulier dans les environnements urbains où les rues étroites et les grands immeubles bloquent souvent les signaux satellites.

Mais la grande nouveauté devrait être la généralisation du système eCall. Il compose automatiquement le numéro d’urgence unique européen 112 en cas d’accident grave de la route et communique, grâce à Galileo, la localisation du véhicule aux services d’urgence. Le système eCall – qui peut également être déclenché manuellement – ne transmet que les informations essentielles et ne stocke ni n’enregistre les données. On estime qu’eCall réduira le temps de réponse des services d’urgence de 50 % dans les zones rurales et jusqu’à 60 % dans les zones urbaines, sauvant ainsi des centaines de vies chaque année et réduisant les conséquences des blessures.

Galileo aura de nombreux usages. Officiellement reconnu par l’Organisation maritime internationale dans le cadre de son système mondial de radionavigation, Galileo jouera un rôle important dans la navigation maritime. Que ce soit en mer, dans un port très fréquenté ou dans un canal étroit, il devrait contribuer à assurer une navigation plus sûre sur l’eau.

Galileo fournit aussi une fonction globale de recherche et de sauvetage (SAR), basée sur le système opérationnel Cospas-Sarsat. Les satellites sont en effet équipés d’un transpondeur capable de transférer les signaux de détresse des émetteurs de l’utilisateur vers les centres régionaux de coordination du sauvetage, qui déclenchent alors l’opération de sauvetage.

Mais l’enjeu est aussi politique face à l’hégémonie du GPS américain. «Quelque 10 % du PIB européen dépendent aujourd’hui des systèmes de positionnement par satellites, et d’ici à 2030, ce pourcentage pourrait grimper à environ 30 %», justifie le CNES, l’agence spatiale française.

Philippe Richard

Créer de la confiance avec les blockchains

La technologie blockchain est née avec le bitcoin qui reste aujourd’hui l’application majeure et l’exemple le plus remarquable de sa mise en œuvre. Il est cependant apparu qu’à côté de la réussite de cette blockchain particulière, bien des variantes sont possibles, certaines plus complexes, plus puissantes mais plus risquées (Ethereum), certaines plus simples (les blockchains privées).

C’est un volumineux ensemble de méthodes et d’applications qui est en train de naître et qu’on est en train de concevoir en s’inspirant de près ou de loin de la construction inattendue de Satoshi Nakamoto. Il ne fait aucun doute que le rôle de cette technologie nouvelle sera déterminant dans le monde de réseaux qui est le nôtre, où les outils permettant de créer des échanges sécurisés d’informations, de valeurs et de confiance seront des clés du progrès.

BLOCKCHAINDEF

Infographie réalisée à partir de l’article H5538 de Jean-Paul DELAHAYE

Le gouvernement construit doucement la mobilité propre

Familiarisez-vous avec les «zones à faibles émissions» (ZFE), ces zones  où la circulation automobile va devenir de plus en plus restreinte. Pour l’instant, seul Paris et dans une moindre mesure Grenoble ont déployé une telle zone, fonctionnant grâce au système des vignettes Crit’Air. Les ZFE constituent désormais l’axe principal de ce nouveau plan pour diminuer la pollution de l’air dans les territoires les plus touchés. L’Etat souhaite nouer un partenariat volontaire et prioritaire avec les 14 territoires renvoyés par  Bruxelles devant la Cour de justice européenne pour des dépassements répétés des valeurs limites d’exposition au dioxyde d’azote (N2O), gaz toxique émis notamment par les véhicules diesel. Sont concernés les agglomérations de Paris, Marseille, Nice, Toulon, Lyon, Grenoble, Saint-Etienne, Valence, Strasbourg, Montpellier, Reims et Toulouse. Mais aussi la vallée de l’Arve et la Martinique.

En plus, l’Etat demande à toutes les agglomérations de plus de 100.000 habitants d’évaluer l’intérêt de mettre en place de telles zones. D’ici fin 2020, ces territoires sont invités à mettre en place au moins une ZFE pour y restreindre la circulation des véhicules les plus polluants. Chaque collectivité peut décider du périmètre géographique de la zone, des plages horaires, des catégories de véhicules concernés, des dérogations et de la progressivité des règles dans le temps. L’Etat définira le cadre pour permettre des contrôles automatisés. La signature  des engagements volontaires est prévue le 8 octobre prochain.

Plus de covoiturage et d’autopartage

Dans sa lutte contre la pollution de l’air, le gouvernement compte également sur le développement de l’autopartage et du covoiturage. Afin de diminuer l’autosolisme, dès 2019, les collectivités pourront expérimenter des voies réservées aux véhicules en covoiturage transportant deux ou trois occupants minimum. Elles pourraient être partagées avec les transports en commun et les véhicules à très faibles émissions. L’Etat promet de développer les mesures nécessaires pour contrôler ces nouvelles voies et un cadre fiscal favorable. Dans un domaine proche, le cotransportage de colis sera soutenu.

Les avantages en nature au travail seront réformés pour faciliter le remboursement  par les entreprises d’une part des dépenses de mobilité de leurs salariés en covoiturage ou à vélo. La recharge électrique gratuite fournie par une entreprise à ses salariés ne sera plus considérée comme un avantage en nature et sera donc défiscalisée.

Des objectifs à plus court terme

Dans le cadre de son Plan Climat, Nicolas Hulot espère atteindre la neutralité carbone de la mobilité en 2050 et mettre fin à la vente des voitures neuves émettant des gaz à effet de serre en 2040. Pour y arriver, il faut des objectifs chiffrés à plus court-terme. La loi d’orientation sur les mobilités (LOM) portera donc l’objectif de multiplier par cinq les ventes de véhicules électriques et par quinze les ventes de poids-lourds à faible émission d’ici 2022 par rapport à 2017. Elle définira des trajectoire de transition des flottes maritimes et fluviales par type de flotte, en concertation avec les filières. Outre les discussions internationales sur le transport maritime, la France propose de mettre en place des critères écologiques pour les nouveaux navires, d’exonérer les carburants alternatifs de la TICPE et annonce un plan d’aide à la remotorisation de 8 millions d’euros sur 5 ans pour améliorer la performance environnementale de la flotte dans le secteur fluvial.

La transition nécessite des soutiens et financements. Dans ces conditions, le dispositif de bonus-malus et le déploiement de la prime à la conversion seront maintenus. En plus, le déploiement des bornes de recharge pour les véhicules électriques sera facilité sur les parkings, les autoroutes, les routes nationales et en entreprise d’ici 2022. Le gestionnaire du réseau de distribution prendra désormais en charge 75% des coûts de raccordement de ces bornes, contre 40 % actuellement.

Le dispositif de suramortissement de 40 % qui incite fiscalement les entreprises à acheter des poids lourds moins polluants est prolongé jusqu’en 2021. Il est étendu à toutes les sources alternatives (GNV, biométhane, électrique, hydrogène, ED95) et renforcé pour les petits poids lourds. En particulier, l’Etat soutient le déploiement de 100 nouvelles stations GNV et 2.100 véhicules d’ici 2022. Le Plan hydrogène qui vise à amorcer la filière de mobilité hydrogène s’inscrira également dans la LOM.

Le plan vélo est particulièrement attendu par les ONG. Présenté en septembre prochain, il visera à tripler la part du vélo dans les déplacements, de 2,7 % à 9 % en 2024.  Le gouvernement n’a pas encore fait d’annonces sur le verdissement du transport ferroviaire, une mission étant en cours. Même constat pour l’aéronautique, les assises nationales du transport aérien se déroulent du 20 mars au 15 septembre 2018. Couvrant l’ensemble des impacts environnementaux du secteur, elles serviront de base à un nouveau plan d’actions.

Par Matthieu Combe, journaliste scientifique

Impression 3D d’organes ou de tissus vivants : les promesses du bio-printing

Le bio-printing vise à mettre à disposition des biologistes et des médecins des procédés permettant de déposer des suspensions cellulaires, des solutions aqueuses ou des hydrogels sur des supports biocompatibles, en limitant les différents stress que peuvent subir les cellules par les procédés de fabrication additive pour atteindre une fonctionnalité biologique souhaitée dans les tissus ou organes bio-imprimés.

Relativement aux techniques de fabrication additive classiques, l’impression 3D d’éléments biologiques ajoute un niveau de complexité important aux procédés car il est nécessaire de structurer « intelligemment » des matériaux vivants ou non, mimant la matrice extracellulaire et de contrôler les distributions spatiales de différents types de cellules ou de biomolécules pouvant jouer un rôle sur la différenciation cellulaire, leur croissance ou leur mort.

Dans les faits, la fabrication d’un tissu biologique par bio-printing s’effectue de la manière suivante :

  • une première étape consiste à conceptualiser par ordinateur l’architecture du tissu biologique puis à programmer les paramètres d’impression des « encres » contenant des cellules. Il convient généralement de prévoir un support sur lequel les cellules vont adhérer et se développer. De même, les processus de transfert nutritionnel doivent être anticipés pour permettre un développement effectif des cellules ;
  • les « tissus biologiques » sont ensuite imprimés couche-par-couche à l’aide d’automates qui reproduisent les motifs conçus par ordinateur en déposant par exemple des microgouttelettes d’encres biologiques ;
  • la dernière étape repose sur la maturation du tissu imprimé en bioréacteur. Cette étape permet aux cellules de s’auto-organiser jusqu’à faire émerger des fonctions biologiques spécifiques.

IDTechEx1 a réalisé une étude sur les futures applications, les marchés et les acteurs du domaine. Dans cette synthèse IDTechEx cible, pour l’essentiel, deux axes d’action principaux en bio-printing :

  • la réalisation de supports représentant des tissus humains pour permettre de tester des médicaments (à la place de travailler sur l’animal et sur l’humain) ;
  • la production de matériaux biologiques et de tissus humains pour les « réparations ».

Des avancées stimulantes aux promesses sensationnalistes

Parmi les avancées, les chercheurs de l’INSERM2 (équipe de Nadine Benkirane-Jessel à Strasbourg Unité 1109 dans INSERM, 2015) ont créé un implant ostéo-chondral composé de deux compartiments afin de régénérer le cartilage et l’os sous-chondral au sein de l’articulation :

  • une membrane nanofibreuse, à base de collagène ou de polymères, dotée de nanoréservoirs de facteurs de croissance osseux, pour favoriser la réparation de l’os ;
  • une couche d’hydrogel (alginate) renfermant de l’acide hyaluronique et des cellules-souches issues de la moelle osseuse du patient, favorisant la régénération du cartilage.

L’organisation en trois dimensions du dispositif favoriserait la croissance et la différenciation des cellules-souches en cellules du cartilage. « Imaginez la membrane nanofibreuse comme une feuille de papier déposée par le chirurgien sur l’os abîmé. Immédiatement après, il dépose la seconde couche contenant les cellules-souches et termine son intervention. Ensuite, le travail de consolidation de l’ensemble se fait seul ! L’objectif est d’obtenir une régénération totale de l’articulation – os sous-chondral et cartilage – dans les mois qui suivent », explique la chercheuse.

Les startups du secteur s’inscrivent dans une stratégie à long terme qui vise « tout simplement » la réalisation d’organes. Certes, on n’en est pas là, mais la vision est claire, soutenue par un public très intéressé par l’accès à des soins spécifiques, voire peut-être à des possibilités d’« augmentation » des performances humaines en attendant la mise sur le marché de produits, services ou systèmes nouveaux qui satisfont un renforcement de la demande de « bien-être », pour laquelle on acceptera de payer un certain prix (notion d’attractivité).

Par exemple, BioBots conçoit des imprimantes 3D capables de créer des tissus vivants. Ses produits sont disponibles sur le marché depuis quelques mois. En mai dernier, BioBots, avec une logique de promesse sensationnelle, présentait au public son imprimante capable de créer des tissus humains vivants, reproduisant pour l’occasion l’oreille coupée de Van Gogh…

Pour mener à bien ses ambitions, BioBots utilise une encre photo-transformable, qui mise en présence de lumière se polymérise. Combinée avec des cellules vivantes, elle permet de mettre en forme de la matière biologique synthétique. Lors de « Techcrunch Disrupt » à New-York en 2015, Dan Cabrera, CEO de l’entreprise, aurait affirmé que sa méthode permettait à sa création de se différencier de ses concurrents proposant également des imprimantes 3D capables de créer la vie.

Parmi les entreprises concurrentes, on compte le Canadien Aspect Biosystems, le Suédois Cellink , ou encore le Japonais Cyfuse. Pour BioBots, le projet vise à faciliter la recherche médicale. Ainsi, il serait possible d’utiliser ces tissus vivants pour tester des médicaments en laboratoire, s’affranchissant de la nécessité d’utiliser des animaux. Surtout, on pourrait ainsi réaliser des tests individuels, pour offrir à chaque patient un traitement personnalisé correspondant le plus parfaitement possible à ses besoins.

Du bio-printing à l’homme augmenté

La médecine n’est déjà plus l’art destiné à cerner les causes d’un mal-être et à aider l’organisme à réagir aux agressions qui l’ont rendu malade. Elle considère le corps comme un assemblage d’organes plus ou moins interdépendants qu’il faut entretenir, réparer, changer, transformer ou améliorer. Le soin peut alors céder la priorité à la réparation. Avec l’individualisme, la spécificité des corps risque de devenir l’un des fondements de la médecine de précision de demain, tant qu’elle permet des soins sur mesure ou personnalisés (et moins coûteux en principe). Dans le même temps, les effets de la transformation du concept de santé (OMS) allant de la suppression de la maladie, à la réalisation d’un bien-être individuel (médecine de confort) soutiennent le développement potentiel d’« Homme augmenté », développement autorisé dans son principe par le bio-printing. De plus, l’avènement de l’impression 3D pourrait résoudre certains des problèmes les plus pressants auxquels fait face le don d’organes — comme la disponibilité et le rejet par le corps du patient receveur.

Donnons-nous rendez-vous dans quelques années pour savoir si la science triomphera de l’actuelle bulle spéculative et saura faire du bio-printing une méthode efficace et robuste pour la médecine.

Extrait de l’article de Techniques de l’Ingénieur RE268, Bio-printing – État des lieux et perspectives, d’Emmanuel GUÉDON, Laurent MALAQUIN et Jean-Claude ANDRÉ (février 2017)

1IDTechEx. – 3D bio-printing 204-2024 : applications, markets, players (2014). http://www.idtechex.com/

2INSERM. – Un implant vivant pour régénérer le cartilage (2015). http://www.inserm.fr/

Revue de presse anglophone #18

Au Royaume-Uni le prix de chargement des voitures électriques variera en fonction des pics d’utilisation

uk-electric

Le développement des voitures électriques outre-Manche s’accompagne d’une réflexion autour de l’usage du réseau électrique pour les recharges. Lire

Source : The Guardian

L’empreinte humaine du changement climatique

troposphere

Des chercheurs ont trouvé dans la troposphère des traces qui accréditent l’idée selon laquelle les changements climatiques saisonniers sont influencés par les activités humaines. Lire

Source : The Guardian

Un bébé serpent piégé dans de l’ambre

serpent

Les chercheurs pensent que ce serpent fossilisé dans de l’ambre permettra d’avoir des informations nouvelles sur les grands principes de l’évolution. Lire

Source : New York Times

Les secrets des micro-jets du citron

Capture d’écran 2018-07-23 à 15.49.21

En vidéo, explications sur les micro-jets que l’on peut observer quand on presse la pelure des citrons. Lire

Source : New York Times

Qu’est ce qui reste sur facebook et qu’est ce qui est effacé ?

zuckerberg

Même la frime de Mark Zuckerberg ne peut pas l’affirmer avec certitudes. Lire

Source : New York Times