Les bourdons attirés par les pesticides néonicotinoïdes (étude)

Selon ces recherches, publiées mercredi dans la revue Proceedings of the Royal Society B, les insectes sont d’abord repoussés par l’eau sucrée contenant des néonicotinoïdes, puis se mettent peu à peu à la préférer à l’eau non traitée.

Les néonicotinoïdes, ensemble de sept insecticides neurotoxiques (acétamipride, clothianidine, imidaclopride, thiaclopride, thiaméthoxame, nitenpyrame et dinotéfurane), sont devenus les pesticides les plus utilisés dans le monde.

« Il est d’abord apparu que les insectes évitaient la nourriture contenant le pesticide, » décrit Andres Arce, chercheur à l’Imperial College de Londres. « Pourtant, au fur et à mesure où ils testaient la nourriture traitée, ils développaient une préférence pour celle-ci ».

Même quand le positionnement des mangeoires était inversé, les pollinisateurs se tournaient vers celle contenant l’insecticide.

Les néonicotinoïdes, même à faible dose, s’attaquent au système nerveux des pollinisateurs (abeilles et bourdons désorientés, sperme des mâles altéré…).

« Nos résultats (…) montrent certains symptômes de comportement addictif », note Richard Gill, un autre auteur.

Début 2015, une précédente étude avait déjà relevé l’attirance apparente des abeilles pour les fleurs traitées: quand on leur proposait une solution de sucrose à côté d’une autre associée à un néonicotinoïde, les abeilles mellifères comme les bourdons préféraient se tourner vers le second nectar.

Comme la nicotine pour l’homme, « il se peut que les néonicotinoïdes agissent comme une drogue, rendant la nourriture plus gratifiante », relevaient les chercheurs de l’université de Newcastle.

Au contraire des pesticides de surface, les néonicotinoïdes servent souvent de manière préventive, par enrobage des semences: la substance est alors absorbée par la plante et se propage à tous ses tissus.

Plusieurs pays en ont acté l’interdiction, principalement du fait de leur impact sur les abeilles.

L’UE a décidé en avril d’en bannir trois pour les cultures de plein champ. Une interdiction entrera en vigueur samedi en France pour 5 d’entre elles, avec de possibles dérogations au cas par cas jusqu’en juillet 2020.

« Tous droits de reproduction et de représentation réservés. © 2018 Agence France-Presse. »

Des écosystèmes hydrogène fleurissent en région

La France ne compte encore que 23 stations hydrogène privées ou publiques. Les projets prennent doucement forme : 4 stations sont en cours de construction et 33 à l’état de projet. La première région à s’être dotée d’une politique régionale liée à l’hydrogène est la Normandie avec EasHyMob, dès 2016. Le projet prévoit le déploiement d’un premier maillage de 15 petites stations d’une capacité de 20 kg ou 50 kg par jour sur la région pour alimenter une flotte de 250 véhicules captifs. Seule la station de Rouen est actuellement en fonctionnement, alimentant une dizaine de véhicules. Les stations sont prévues sur les grands axes routiers normands reliant les grandes agglomérations de la région.

Des régions qui investissent dans l’hydrogène

La région Auvergne-Rhône-Alpes porte pour sa part le projet Zero Emission Valley. Il prévoit le déploiement en simultanée de 20 stations et 1.000 véhicules en flottes captives entre 2019 et 2021. Le projet bénéficie de financements à la fois régionaux, européens et privés. Ainsi, le prix de l’hydrogène, identique dans toutes les stations, et les subventions accordées pour l’achat des véhicules permettront d’atteindre un coût total proche de celui du diesel. Le développement  des stations est par ailleurs facilité. « Le mécanisme financier en place permet de couvrir le risque trafic pour celles qui fonctionnent naturellement, au départ, en dessous de leur seuil de rentabilité c’est-à-dire en dessous de leur seuil minimum d’usage, soit autour de 70 % du dimensionnement de la station », précise Fabio Ferrari, DG de Symbio, équipementier spécialiste des systèmes hydrogène prolongateurs d’autonomie.

La région Bourgogne-Franche-Comté affine également son projet, tout comme l’Occitanie. Ailleurs les projets se multiplient, même si la vision régionale n’y est pas encore définie. La structuration autour des filières est en cours et des appels d’offres de l’Ademe liés au plan hydrogène de Nicolas Hulot vont être lancés en septembre. Le plan est doté de 100 millions d’euros pour accompagner les investissements dans des déploiements d’infrastructures et de véhicules. « Ceci devrait inciter d’autres régions à mettre en place des écosystèmes hydrogène d’ampleur autour de la mobilité, adaptés aux spécificités énergétiques et industrielles de leur territoire », estime Fabio Ferrari.

Le Plan H2 va multiplier les projets

Le Plan Hydrogène de Nicolas Hulot donne une vision et stimule toute la chaîne de valeur. « Ce plan est complet : il cartographie toutes les actions à mener, de la production d’hydrogène à partir des énergies renouvelables jusqu’aux usages, qu’ils soient industriels ou liés à la mobilité », affirme Fabio Ferrari.

À chaque région, ensuite, de trouver son modèle en fonction de ses spécificités énergétiques et en partenariat avec les industriels locaux concernés. Par exemple, en Occitanie, l’hydrogène se développe notamment dans l’aéroportuaire pour les véhicules de service. « Si les schémas diffèrent aussi en fonction des impératifs en matière d’aménagement du territoire, les bases restent similaires : des financements multiples, une région pilote et des industriels locaux partenaires », analyse Fabio Ferrari.

Rappelons que le plan hydrogène prévoit de déployer 5.000 véhicules utilitaires légers d’ici 2023. Ils seront alimentés par 100 stations à hydrogène au niveau national. En 2028, l’objectif est de déployer entre 20.000 et 50.000 véhicules utilitaires légers, et entre 400 et 1.000 stations. « Le changement d’échelle se produira lorsque les véhicules pour les particuliers seront industrialisés, à partir de 2025-2030, affirme Fabio Ferrari. Il pourrait alors y avoir un effet boule de neige entre les véhicules et les stations jusqu’en 2040, grâce à ces véhicules de série ».

Par Matthieu Combe, journaliste scientifique

Les technologies plasma pour valoriser le CO2

Le projet PIONEER vise à former les experts de demain pour convertir le CO2 issu de n’importe quelle usine en molécules d’intérêt. Le projet exploite des technologies plasma – des gaz partiellement ionisés – alimentées par des énergies renouvelables. « La solution idéale consisterait à utiliser les pics de production d’énergie éolienne ou photovoltaïque pour convertir le CO2 en molécules à plus forte teneur énergétique, telles que l’éthanol, le méthanol (stockage chimique de l’énergie), l’hydrogène ou le méthane », fait savoir le CNRS.

Ces molécules pourront servir de matières premières, à la base du développement d’une chimie verte, avec l’éthylène, le méthanol ou l’acide acrylique. Elles pourront également servir à produire des « carburants solaires », comme du bioéthanol, du biométhane et de l’hydrogène. Ces carburants s’inscrivent dans  « un cycle du carbone idéal, sans impact environnemental », prédit l’organisme de recherche. Le tout permettra à la fois de lutter contre le changement climatique et de diminuer notre dépendance aux combustibles fossiles.

PIONEER s’attachera à développer des catalyseurs spécifiques pour chaque procédé de recyclage du CO2. Ainsi, ces catalyseurs optimiseront l’obtention de plasmas froids appropriés à ces différentes applications. « Les plasmas froids excitent les molécules de CO2 pour les rendre plus réactives sans gaspiller d’énergie à chauffer la totalité du gaz », explique le CNRS.

L’utilisation de la catalyse plasma pour obtenir une conversion efficace du CO2 est une approche innovante, nécessitant des expertises multidisciplinaires. Pour ce faire, le projet formera une nouvelle génération de chercheurs capables de traiter tous les aspects fondamentaux en plasma et catalyse en Europe.

Le projet PIONEER a récemment été récompensé par les innovative training netwoarks (ITN) 2018. Il sera suivi par Sorbonne Université en étroite collaboration avec l’École polytechnique et le CNRS. Le projet  devrait débuter en janvier 2019 et est soutenu par un large consortium de partenaires publics et privés.

Par Matthieu Combe, journaliste scientifique

Decagon: l’IA d’aide à la prescription de médicaments

La prise simultanée de plusieurs médicaments pour soigner des maladies complexes est une pratique répandue. Toutefois, le plus souvent, lorsqu’un médecin ajoute un médicament à la prescription de ses patients, il n’a aucune idée des potentielles interactions médicamenteuses. En effet, le nombre de combinaisons possibles est tel qu’elles ne peuvent pas faire l’objet d’études cliniques préalables. « Il est pratiquement impossible de tester un nouveau médicament en combinaison avec tous les autres médicaments existants, car pour un seul médicament, cela demanderait 5.000 nouvelles expériences », explique Marinka Zitnik,  stagiaire postdoctorale en informatique et co-auteur de l’étude.

Dans ces conditions, trois chercheurs de l’université américaine de Stanford ont créé Decagon, une intelligence artificielle capable de prédire les effets secondaires que peuvent entraîner la prise de paires de médicaments. Pour ce faire, elle se base sur la manière dont les médicaments ciblent différentes protéines.

Modéliser les interactions protéine-médicament

Le système repose sur un réseau massif qui modélise sous forme des graphes comment plus de 19.000 protéines courantes du corps humain interagissent entre elles et comment les substances actives des médicaments affectent ces protéines. Chaque réseau représente les interactions protéine-protéine, les protéines cibles du médicament et les interactions médicament-médicament, portant sur les effets secondaires connus.

Il y a 964 effets secondaires connus et près de 5.000 médicaments sur le marché. Cela représente donc près de 125 milliards d’effets secondaires possibles entre toutes les paires possibles de médicaments. La plupart d’entre eux n’ont jamais été prescrits ensemble, et encore moins étudiés systématiquement. En réalité,  les effets secondaires des médicaments sont encore essentiellement découverts  par accident.

Decagon a été entraîné à partir d’une liste de 645 médicaments. Sa base de donnée initiale contient 715.000 interactions protéine-protéine, plus de 4,5 millions d’interactions médicamenteuses et 18.596 effets secondaires sous forme d’interactions médicament-protéine. Grâce au deep learning, l’IA apprend progressivement et permet de prédire des effets secondaires inconnus liés à la prise de paires de médicaments.

Des prédictions confirmées

L’équipe a pu vérifier la véracité de plusieurs projections réalisées par Decagon. Par exemple, aucune donnée n’indiquait que la combinaison de l’atorvastatine, un médicament contre le cholestérol, et de l’amlopidine, un antihypertenseur, pourrait entraîner une inflammation musculaire. Decagon l’a prédit et cela a été relevé dans une étude de cas de 2017. En recherchant d’autres preuves d’effets secondaires prédits par Decagon, mais non présents dans les données de base, l’équipe a constaté que cinq des dix cas recherchés avaient été confirmés récemment, confortant l’efficacité des prédictions de Decagon.

Actuellement, Decagon prédit uniquement les effets secondaires associés à des paires de médicaments. À l’avenir, l’équipe espère étendre ses résultats à des schémas plus complexes, associant davantage de médicaments. Les chercheurs espèrent également créer un outil plus convivial permettant aux médecins de déterminer s’il est judicieux de prescrire un médicament à un patient et d’aider les chercheurs à développer des schémas thérapeutiques pour des maladies complexes avec moins d’effets secondaires. Le système est « 69 % plus performant que les systèmes classiques », estiment les auteurs. En étant proposée aux médecins, cette aide à la prescription pourrait donc diminuer grandement les risques liés aux interactions médicamenteuses.

Par Matthieu Combe, journaliste scientifique

Un village et un château construits en bouteilles plastiques

Depuis juin 2018, le premier château doté de murs en bouteilles plastiques se dresse au milieu du Plastic Bottle Village. Ce château de 4 étages renferme près de 40.000 bouteilles. À la manière d’un grillage, les bouteilles sont insérées dans des cages en métal composées de barres de fer et d’acier recouvertes ensuite par une couche de béton. Ce projet est porté par le canadien Robert Bezeau et une communauté de citoyens.

Robert Bezeau a décidé de prendre à bras le corps le fléau de la pollution plastique sur l’île  Bocas del Toro au Panama. Après un an et demi de collecte avec les locaux, il estime avoir ramassé près d’un million de bouteilles en plastique. Plutôt que de les laisser polluer les plages et la nature, il les réutilise comme isolants pour les murs des habitations du village.

Le château comprend deux chambres pouvant accueillir quatre personnes par chambre au premier étage, une suite royale pouvant accueillir jusqu’à 12 personnes au deuxième niveau, une salle à manger et un bar au troisième étage. Le quatrième niveau sert de salle de réception. Des séjours pour se repentir de l’invasion plastique seront lancés le 1er octobre prochain. « L’idée est de donner au gens une opportunité de se repentir d’avoir fait partie d’une génération responsable de la pollution plastique planétaire, et de tirer une ligne entre le passé et le futur, explique Robert Bezeau. Ces séjours seront l’occasion de discuter de plusieurs façons dont nous pouvons changer le Monde sans changer la Terre. »

Imaginer les solutions de demain

À l’instar des mises en garde apposées sur les paquets de tabac, Robert Bezeau imagine que les Gouvernements puissent un jour forcer les embouteilleurs à mettre des photos de pollution sur les étiquettes des bouteilles a usage unique. Par ailleurs, il imagine des bouteilles plastiques carrées plutôt que rondes. Celles-ci pourraient être enfoncées les unes dans les autres comme des rangées de briques et être utilisées comme matériaux de construction une fois vides. « Les pays en développement qui ont un grand besoin de logements pourraient les construire avec des bouteilles en plastique au lieu de les laisser polluer, prévient Robert Bezeau. Entre deux rangées de bouteilles, il serait possible de couler du béton ou de l’argile liquide : de cette manière, les maisons seraient très bien isolées. »

Picture2
Prototype de bouteille carrée servant de brique. PHOTO//The Plastic Bottle Village

Le village comprend une première maison, construite en 2015, avec 10.000 bouteilles. Une deuxième maison a été construite en 2016 avec 22.000 bouteilles. L’objectif est d’arriver à environ 120 maisons réparties sur 34 hectares de jungle. « La rapidité avec laquelle les maisons seront construites dépendra du nombre de personnes qui commandent une maison, ainsi que de l’entrée des fonds générés par le château. » , prévient Robert Boizeau.

Par Matthieu Combe, journaliste scientifique

L’acidification des océans, au plus haut depuis 14 millions d’années ?

Une équipe de recherche de l’Université de Cardiff au Royaume-Uni révèle que le taux d’acidification des océans pourrait atteindre des niveaux jamais enregistrés depuis 14 millions d’années. Bien que le scénario ne soit pas avéré pour le moment, c’est ce vers quoi tend l’humanité si la production de CO2 continue d’évoluer selon les conjectures actuelles. « Notre nouvelle étude géologique sur l’acidification des océans nous montre que dans les circonstances actuelles, les conditions de vie océaniques seront telles que l’écosystème marin ne les a jamais connues durant les 14 derniers millions d’années » affirme Sindia Sosdian, professeur en sciences de la terre et de l’océan à l’Université de Cardiff et auteur principal de l’étude.

Afin de parvenir à cette conclusion, ces chercheurs ont établi les rapports entre niveaux d’acidité des océans et présence de CO2 dans l’atmosphère depuis 22 millions d’années. L’étude de la composition chimique des coquilles de petits organismes vivant autrefois aux abords des océans ont permis de mettre en évidence les données recherchées. L’acidification des océans répond à un phénomène simple : l’eau absorbe environ un tiers du CO2 contenu dans l’atmosphère. Ainsi, plus l’air est chargé en dioxyde de carbone, plus l’océan est acide. Depuis le début de l’ère industrielle, les océans auraient absorbé pas moins de 525 milliards de tonnes de CO2, soit 22 millions de tonnes par jours depuis bientôt deux siècles.

Des océans toujours plus acides

Les prévisions de l’équipe de Sindia Sosdian sont liées aux projections concernant la concentration de CO2 dans l’atmosphère pour les années à venir. Si aujourd’hui l’atmosphère concentre 430 ppm de dioxyde de carbone, les chercheurs craignent qu’elle en concentre 930 ppm en 2100. Si leurs projections se concrétisaient, l’océan atteindrait un pH de 7,8 au début du siècle prochain alors qu’il est de 8,1 aujourd’hui. Autrement dit, l’acidification des océans pourrait réellement s’accélérer durant les prochaines décennies. En effet, lorsque le pH de l’océan varie de 0,1 point, ce dernier devient 25 % plus acide. Il faut remonter à l’âge du Miocène moyen, il y a 14 millions d’années, pour retrouver de tels niveaux de concentration de CO2 dans l’air et d’acidité dans l’océan.

Bien que de nombreux méfaits soient prêtés à la grande concentration de dioxyde de carbone dans l’atmosphère et que l’écosystème marin semble fragile, l’équipe de Cardiff se refuse à tirer des conclusions trop hâtives. « Comprendre exactement ce que cette acidification signifie pour les écosystèmes marins implique de faire des études de terrain à long terme et de continuer d’analyser des archives fossiles » déclare Carrie Lear, professeur à l’Université de Cardiff et co-auteur de l’étude. Cependant, le Programme des Nations Unies pour le développement (PNUD) alerte sur les risques liés à l’acidification des océans en rappelant que ce phénomène porte atteinte à la teneur en calcium des espaces marins. Or, ce dernier est essentiel au développement des petits organismes, notamment à coquille. À terme, cela pourrait induire un fort déséquilibre de l’écosystème.

Par Matthieu Combe, journaliste scientifique

Quand la nature se propose en ingénieur en chef

Cette année encore, Techniques de l’Ingénieur est partenaire de Biomim’expo  et soutient ce bel événement, toujours composé de deux journées.

Le 11 septembre, au sein de l’Hôtel de Ville de Paris, une première session s’est déroulée sur le thème  « vivre la ville »,  pour parler architecture et urbanisme, flux, mobilité, énergie, alimentation urbaine, bien-être …

Biodiversité et habitat

Cela a été l’occasion d’écouter, entre autres, Estelle Cruz, chargée de mission Habitat du Ceebios, architecte-ingénieur de l’ENSAL et Ecole Centrale de Lyon, débattre sur le thème « La biodiversité au service des villes régénératives et résilientes, concept ou réalité ? ».

Pour continuer la réflexion, Estelle Cruz anime le 11 octobre un webinar d’une heure au sujet du biomimétisme comme source d’inspiration pour améliorer les performances de l’enveloppe du bâtiment (inscription gratuite).

Rendez-vous mardi 22 octobre à la Cité des sciences et de l’industrie

Emmanuelle Wargon, Secrétaire d’État auprès du Ministre d’État, Ministre de la Transition écologique et solidaire introduira la journée du 22 octobre dédiée au biomimétisme face aux enjeux de la biodiversité, en présence de et avec Kalina Raskin, directrice générale du Ceebios et Alain Renaudin, fondateur de Biomim’expo.

Ils laisseront la parole à Joël de Rosnay, scientifique, prospectiviste et écrivain, grand témoin de la thématique matinale sur la bio inspiration dans les organisations et le management.

S’en suivront une série de pitchs et tables rondes invitant des grands groupes industriels et startups de la Biomim French Tech à échanger sur leurs stratégies, activités, et objectifs en matière de recherches et d’innovations prenant la nature en modèle.

Le programme complet et les informations pratiques pour s’inscrire et participer sont à découvrir sur le site de biomimexpo.com.

 

C’était en 2018…

Techniques de l’Ingénieur était déjà partenaire de l’édition 2018, et rappelait alors que le biomimétisme est une évidence oubliée, qui resurgit et accélère avec la nécessité de recréer un monde résilient, pérenne, durable, tout simplement vivable. Lutter contre le réchauffement climatique, réduire les pollutions, diminuer nos besoins énergétiques, travailler en circuits courts, trouver de nouvelles ressources et matières renouvelables, tirer davantage profit de la collaboration, repenser l’agriculture, préférer le circulaire au linéaire, concilier prospérité et biodiversité … Avec le développement des connaissances du vivant, l’essor de l’innovation collaborative et pluridisciplinaire, l’apport des nouvelles technologies, et la reconsidération de la nature comme modèle et non plus comme problème, l’approche de la bio-inspiration se place au cœur de notre quête de transition sociétale.

Biomim’expo est le plus grand open lab du monde : 3,8 milliards d’années de Recherche & Développement pour inspirer de nouvelles idées et pistes d’innovations pour nos modes de production et d’organisation.

Cet événement pluridisciplinaire atypique, hors des silos pour penser hors des sentiers battus est l’occasion d’une rencontre entre ingénieurs, industriels, scientifiques, startups, enseignants, étudiants, associations …

Seul et unique grand rendez-vous du genre, Biomim’expo révèle et met à l’honneur les acteurs de la recherche et de l’innovation dans ces domaines, met en lumière de nouvelles perspectives et des projets émergents, propose des rencontres collaboratives, invite à un voyage étonnant et inspirant.

Le programme 2019

–          Le 11 septembre à l’Hôtel de Ville de Paris, grand rendez-vous institutionnel.

–          Le 22 octobre à la Cité des sciences et de l’industrie de La Villette, avec des conférences autour du grand thème du  biomimétisme face aux enjeux de la biodiversité mais également, des ateliers, la Fresque du climat, une expo photos ou encore le Biomim Lab Show : toute la journée, par séquence de 30 minutes, des chercheurs et entrepreneurs feront des démonstrations.

La journée du 22 sera riche en échanges puisqu’un petit salon aménagé « comme à la maison » sera ouvert aux discussions informelles avec des chercheurs, directeurs de labos, managers en entreprise, enseignants, designers, architectes,..

Réservez vos ateliers Biomim’expo 2019

Première synthèse de composés aromatiques issu de la biomasse

C’est une avancée majeure pour trouver des alternatives aux hydrocarbures pour la chimie aromatique. Des chercheurs du CNRS, de Solvay et l’université de Poitiers ont réussi à synthétiser un composé aromatique clé, la meta-xylylènediamine (MXD) à partir du furfural, un composé chimique industriel dérivé de sous-produits agricoles comme le son d’avoine ou de blé, la sciure ou le maïs. Ces travaux ont été publiés dans Angewandte Chemie International Edition en tant que «very important paper».

Une synthèse écologique

Le furfural se présente comme un liquide huileux incolore à l’odeur d’amandes qui jaunit rapidement à l’air. Il est déjà couramment utilisé en chimie comme solvant pour le raffinage pétrochimique par exemple ou via son dérivé, l’alcool furfurylique pour la fabrication de nombreuses résines. On le retrouve aussi en agroalimentaire pour la fabrication d’arômes et son extraction industrielle est déjà développée, la production annuelle avoisine le million de tonnes par an. La meta-xylylènediamine (MXD) est quant à elle utilisée dans l‘industrie des polymères, des revêtements de surface ou dans la synthèse de polyamide et polyuréthane. Les travaux présentés ici ont permis de la produire à partir du furfural via une suite de réactions ne nécessitant pas de chauffer au-delà de 30°C et qui ne rejettent que de l’eau. Un procédé plutôt écologique auquel s’ajoute l’avantage que, lorsqu’on remplace les hydrocarbures par des composés organiques issus de la biomasse, on peut envisager de relocaliser certaines activités industrielles de synthèses loin des raffineries.

La MXD n’est qu’un premier pas

Pour réussir à transformer ce furfural les chercheurs se sont appuyés sur des modélisations DFT – c’est-à-dire des modélisations fondées sur la théorie de la fonctionnelle de la densité, une méthode de calcul quantique qui permet l’étude de la structure électronique et la modélisation des matériaux à l’échelle atomique – et ont travaillé sur une succession d’aromatisations basées notamment sur des réactions de Diels-Alder. La transposition de cette démarche et de ce procédé à d’autres composés chimiques dérivés du furfural semble possible ce qui pourrait permettre de produire aussi d’autres composés aromatiques tels que le benzaldehyde ou la benzylamine.

Sophie Hoguin

L’impression 3D en met plein la vue

Après trois ans de recherche, l’hôpital Severance de la Yonsei University Health System de Corée du sud a annoncé qu’il allait bientôt pouvoir commencer la commercialisation de son premier œil artificiel imprimé en 3D. La technologie et les prototypes ont été validés et il faut maintenant achever les tests in-vivo. Les yeux devraient être disponibles à la vente en 2020.

Cette annonce s’inscrit dans un vaste programme de promotion de la fabrication additive en Corée, pour lequel 34 millions d’euros ont été réservés dans le budget national.

Pour fabriquer ces yeux, l’hôpital s’est associé à Carima, une entreprise coréenne spécialisée en fabrication par photopolymérisation (une lumière laser UV est projetée sur une résine liquide photosensible qui se durcit au contact de celle-ci. La lumière fabrique ainsi la pièce selon la forme souhaitée, couche par couche). L’hôpital qui estime à plus de 20 000 personnes le nombre de Coréens qui ont besoin d’une prothèse mais qui n’y ont pas accès, a prévu d’établir un réseau de consultation à distance pour fournir des yeux artificiels aux patients de toutes les régions du pays.

Des Anglais qui font de l’oeil

Des chercheurs britanniques de l’université de Newcastle ont annoncé fin mai avoir réussi à imprimer une cornée par fabrication additive grâce à une encre biologique comprenant à la fois le milieu de culture et les cellules souches. Ils peuvent même créer la cornée à la forme et à la taille du patient en scannant préalablement l’oeil du malade. Une véritable révolution si les tests in vivo valident ce procédé car il y a une constante pénurie de cornées disponibles pour les greffes et plus de 15 millions de personnes dans le monde sont en attente pour un tel soin. Les recherches ayant mené à cette validation du concept ont été publiées dans Experimental Eye Research.

Garder les kératocytes vivants

Côté machine, une simple imprimante 3D biologique de base suffit, tout réside dans la composition de l’encre : un gel combinant des alginates et du collagène qui garde les kératocyles (cellules souches de cornée) vivantes malgré le process d’impression et qui est suffisamment cohérent pour garder sa forme imprimée et suffisamment souple et liquide pour passer par la buse d’impression.

1-s2.0-S0014483518302124-fx1_lrg

Cette encre s’appuie sur les travaux précédents de ce laboratoire qui avait réussi à préserver des cellules souches vivantes pendant plusieurs semaines à température ambiante grâce à un gel similaire. Une fois imprimée selon les spécifications du patient, ce qui prend moins de 10 minutes, la pré-cornée est prête pour être mise en culture : les cellules souches vont alors se multiplier sur toute la surface de la cornée imprimée, qui pourra ensuite être transplantée.

Cependant, ceci est juste la preuve du concept, il faudra encore plusieurs années avant que tous les tests in vivo soient validés et que cette technologie puisse être commercialisée.

Par Sophie Hoguin

Hackers éthiques et emploi : 11% d’augmentation mais un poste peu accessible

La plateforme Joblift a analysé 15 millions d’offres d’emploi publiées les 24 derniers mois en France. Sur cette période, 453 offres d’emploi pour hackers éthiques ont été publiées par les entreprises françaises. Cela correspond à une évolution mensuelle moyenne de 11%, contre environ 2% pour l’ensemble du marché de l’emploi. Malgré cela, la France n’est pas leader en matière d’hacking éthique, si l’on compare avec le Royaume-Uni (3 240 offres sur la même période) ou l’Allemagne (723 offres). Ce chiffre peut sembler faible face aux 4 550 incidents de cybersécurité identifiés par les entreprises françaises en 2017.

Plus du tiers des positions exigent un diplôme d’ingénieur

Contrairement à ce qu’on pourrait croire, le poste d’hacker éthique n’est pas très accessible aux autodidactes. En effet, 42% des postes sont ouverts aux ingénieurs ou titulaires d’un master en informatique ou équivalent. 35% des offres mentionnent la détention d’une certification d’hacking éthique (CSSLP, OSWE, OSCP, OSWP, OSCE, OSEE, GAWPT, GPEN, GXPN) comme obligatoire. Dans 25% de ces offres la certification suffit mais 10% exigent la certification en plus d’un diplôme d’ingénieur. Concernant la séniorité, les opportunités sont plus nombreuses pour les séniors (minimum cinq ans d’expérience) que les juniors (minimum deux ans d’expérience) avec respectivement 53% et 46%.

La demande de spécialistes de sécurité mobile en hausse de 28%

Au-delà des diplômes, 73% des offres précisent les langages de programmation à maîtriser. En tête des langages les plus sollicités par les recruteurs de hackers éthiques, Python avec 37% de mentions, suivi de Java (34%) et Perl (10%). Si ces compétences sont une constante sur l’ensemble des offres étudiées, les pentesters spécialistes du mobile ont de quoi être particulièrement optimistes : la demande d’expert en sécurité mobile a augmenté de 28%.

d32fe160-a21a-11e8-89c8-ff61f884caa3-180816_infogr_hackers_FR_03

Source : Joblift

La production de particules submicroniques disponible pour l’industrie

Ce nouveau procédé, né à partir d’une technologie développée au laboratoire Nanomatériaux pour les systèmes sous sollicitations extrêmes de l’institut franco-allemand de recherches de St Louis, s’adresse plus particulièrement aux entreprises de la pharmacie, des cosmétiques et de l’agroalimentaire. Il permet de produire industriellement des particules inférieures au micron -submicroniques- afin d’augmenter leur surface active. Une caractéristique qui augmente la réactivité, la solubilité ou l’efficacité des composés et matériaux ainsi réduits.

Une découverte explosive

Parmi les trois brevets internationaux sur lesquels s’appuient Spinofrin, celui sur le procédé d’évaporation flash est central. Le SFE (Spray flash evaporation) est un procédé qui produit des particules submicroniques à partir d’un composé en solution dans un liquide et qui peut passer à l’échelle industrielle sans être modifié. Au départ, les chercheurs travaillaient sur un moyen de fabriquer des cristaux submicroniques d’explosifs pour les utiliser dans la synthèse de particules de diamants artificiels. Ils ont réalisés que leur procédé pouvait en fait s’appliquer à divers types de matériaux et changer facilement d’échelle. Le SFE consiste à placer une solution initiale sous forte pression (40 bars) puis à la détendre à travers une buse dans une enceinte sous vide (5mbars). Les gouttes de liquide sont fragmentées avant l’évaporation du solvant et engendrent des particules de taille inférieure au micron.

Une start-up version studio

Spinofrin a été co-créée en février 2018 par les chercheurs de l’Institut franco-allemand de Saint-Louis et du CNRS, et par Technofounders, un « start-up studio ». Depuis 2017, le CNRS s’est allié à Technofounders pour accélérer la création d’entreprise à partir des technologies nées dans ses laboratoires. Le CNRS qui assure, via un programme de prématuration où les équipes peuvent développer un prototype, une première sélection des recherches, propose ensuite à Technofounders celles qu’il estime les plus prometteuses. Le «start-up studio» Technofounders, s’il estime que la technologie peut donner naissance en 24 mois à un produit ou à un service suffisamment différenciant par rapport à l’offre existante et que les clients potentiels vont réellement utiliser ce produit ou ce service, s’engage alors dans la création de la start-up en tant que cofondateur et s’implique directement dans le développement de l’entreprise. Il apporte un financement, un capital humain de management et de commercial et met en place petit à petit une équipe opérationnelle autonome à laquelle Technofounders passe la main pour ne finalement rester présent qu’au niveau du capital.

Un potentiel bien concret

Spinofrin s’adresse ainsi aujourd’hui aux acteurs de la pharmacie, des cosmétiques, de l’agroalimentaire et des matériaux pour leur proposer des études de faisabilité de submicronisation, la fabrication d’échantillons de quelques centaines de grammes pour leurs propres tests et pourra ensuite accompagner la phase d’industrialisation pour optimiser le rendement à grande échelle puisque le procédé permet de produire de quelques grammes à plusieurs tonnes. Dès mai 2018, une dizaine d’entreprises avait déjà passé commande ou manifesté leur intérêt, annonçait le CNRS dans sa lettre de l’innovation.

Sophie Hoguin

Le numérique s’attaque aux rejets d’eaux usées

À Biarritz, le réseau d’assainissement est unitaire : les eaux usées et pluviales sont collectées dans les mêmes canalisations. La station d’épuration de la ville traite en moyenne 20.000 mètres cubes (m3) d’eaux usées sur une journée et son débit de pointe est de 56.000 m3. Lorsqu’il pleut, l’eau est temporairement stockée dans les quatre bassins dits de «rétention» de la ville. Ils totalisent 40.000 m3.

Le système a été pensé pour traiter en débit de pointe une pluie mensuelle, c’est-à-dire une pluie qui arrive en moyenne douze fois par an. En cas d’orages intenses, le réseau sature ; les capacités demeurent insuffisantes. L’eau est alors rejetée dans l’océan Atlantique, sans traitement, à 800 m au large de la plage de Marbella.

Dans ces conditions, le numérique prend de plus en plus de place. «Grâce à des algorithmes, nous sommes capables de modéliser les flux de pluies qui vont arriver et de les répartir de manière intelligente sur tous les réseaux», se félicite Marie-Ange Debon, directrice générale de Suez. C’est la force du logiciel Aquadvanced Assainissement, développé par Suez et déployé à Biarritz.

Le numérique pour limiter les déversements

Rendez-vous au centre Visio de Biarritz. Ce centre collecte en temps réel les données provenant des capteurs répartis sur le réseau d’assainissement et ses infrastructures. Depuis 2016, il est équipé du logiciel Aquadvanced Assainissement. Ce logiciel permet d’adapter en temps réel le réseau d’assainissement, afin de limiter son débordement, limiter les risques d’inondation et maîtriser la qualité des rejets dans le milieu naturel. «Sa force est d’intégrer des prévisions de pluies de Météo France, prévient Pierre Echavidre, directeur adjoint Suez Eau France au Pays Basque. Cela permet rapidement de remplir ou vider des bassins».

aquadvanced-biarritz
Dans le centre Visio de Biarritz, un opérateur suit en temps réel l’état du réseau d’assainissement

Concrètement, lorsque la pluie est plus importante que la moyenne, l’eau est stockée dans les bassins de rétention. L’eau est ensuite déstockée, une fois la pluie passée, et envoyée vers la station d’épuration pour y être traitée. Pour optimiser les volumes de stockage, les capteurs mesurent les niveaux d’eau sur l’ensemble du réseau et optimisent le système en permanence. «Un bassin de 10.000 m3 peut stocker un volume largement supérieur sur une journée, précise Pierre Echavidre. Lorsqu’une pluie s’affaiblit, il est par exemple possible de déstocker 2000 m3, avant de pouvoir les restocker quelques heures plus tard, lorsque la pluie revient

La ville traite environ 6 millions de m3 d’eaux usées par an. «Avec le déploiement du logiciel Aquadvanced, le volume des eaux déversées sans traitement a diminué entre 30 et 40 %, analyse Pierre Echavidre. Nous sommes désormais aux environs de 300.000 m3 chaque année, soit 5 % du volume annuel traité

Le numérique en complément des bassins

La ville vient d’achever la construction d’un cinquième bassin de rétention de 4.000 m3. Ces réservoirs sont toutefois coûteux et longs à mettre en place : ce nouveau bassin a coûté 6,8 millions d’euros. «En période estivale, nous déversons encore entre 5 à 6 jours, reconnait Pierre Echavidre. Ce nouveau stockage permettra de déverser entre 2 et 3 jours de moins».

L’agglomération Côte Basque Adour a pris à bras le corps le problème des inondations. En complément de toutes ces solutions, et dans le cadre de son Schéma directeur des eaux pluviales (Sdep) lancé en 2010, elle demande désormais aux promoteurs et aux particuliers acquéreurs d’un terrain constructible de compenser la surface imperméabilisée. Pour ce faire, ils doivent se doter sur place d’un bassin ou d’une cuve de stockage des eaux pluviales.

Suez espère convaincre les collectivités d’adopter son logiciel, notamment pour diminuer la pollution plastique dans les océans. «Aquadvanced peut être déployé sur n’importe quel système d’assainissement existant, à partir du moment où il y a des ouvrages de stockage» précise Pierre Echavidre. En plus de Biarritz, la solution a été déployée à Paris, Bordeaux et Saint Étienne pour prévenir les inondations, les rejets d’eau sur le littoral et les phénomènes de pollution. Elle vient d’être déployée ou est en cours de déploiement à Marseille, Dijon, Mulhouse, Montargis, Carcassonne, Roanne et Vallauris.

Par Matthieu Combe, journaliste scientifique

L’ytterbium, la mémoire quantique de demain

Aujourd’hui, la cryptographie quantique passe par la fibre optique, sur quelques centaines de kilomètres. Elle est caractérisée par son aspect de haute sécurité : il est en effet impossible de copier les informations ou de les intercepter sans les faire disparaître. Toutefois, cette impossibilité de copier le signal empêche aussi les scientifiques de l’amplifier pour le diffuser sur de longues distances, comme c’est le cas avec le réseau wifi.

Trouver le bon matériau pour confectionner les mémoires quantiques

Le signal ne pouvant être ni copié ni amplifié sous peine de disparaître, les scientifiques se penchent actuellement sur la fabrication de mémoires quantiques capables de le répéter en capturant les photons et en les synchronisant entre eux afin de les diffuser toujours plus loin. Reste à trouver le matériau approprié pour confectionner ces mémoires quantiques. «Toute la difficulté est de trouver un matériau capable d’isoler l’information quantique portée par les photons des perturbations environnementales pour que l’on puisse les retenir environ une seconde et les synchroniser entre eux, explique Mikael Afzelius, chercheur au Département de physique appliquée de la Faculté des sciences de l’UNIGE. Or, en une seconde, un photon parcourt environ 300 000 km!» Les physiciens et les chimistes doivent donc trouver un matériau très bien isolé des perturbations, mais capable de fonctionner à des hautes fréquences permettant de stocker et restituer le photon rapidement, deux caractéristiques souvent considérées comme étant incompatibles.

Un point magique pour le graal des terres rares

Aujourd’hui, il existe déjà des prototypes de mémoire quantique testés en laboratoire, notamment à base de terres rares comme l’europium ou le praséodyme, mais leur vitesse n’est pas encore assez élevée. «Nous nous sommes alors intéressés à une terre rare du tableau périodique qui avait été très peu étudiée, l’ytterbium», expose Nicolas Gisin, professeur au Département de physique appliquée de la Faculté des sciences de l’UNIGE et fondateur d’ID Quantique. «Notre objectif est de trouver le matériau idéal pour la confection des répéteurs quantiques, et cela passe par l’isolation des atomes de leur environnement qui a tendance à perturber le signal», complète-t-il. Cela semble être le cas avec l’ytterbium ! En soumettant cette terre rare à des champs magnétiques très précis, les physiciens de l’UNIGE et du CNRS ont découvert qu’elle entre dans un état d’insensibilité qui la coupe des perturbations de son environnement et qui permet de piéger le photon pour le synchroniser. «Nous avons trouvé un «point magique» en variant l’amplitude et la direction du champ magnétique, s’enthousiasment Alexey Tiranov, chercheur au Service de physique appliquée de la Faculté des sciences de l’UNIGE, et Philippe Goldner, chercheur à l’Institut de recherche de chimie Paris (CNRS/Chimie ParisTech). Lorsque ce point est atteint, on augmente d’un facteur 1 000 les temps de cohérence des atomes d’ytterbium, tout en travaillant à des hautes fréquences!»

Les avantages de l’ytterbium

Les physiciens sont actuellement en train de construire des mémoires quantiques à base d’ytterbium qui permettent de réaliser rapidement les transitions d’un répéteur à l’autre, tout en gardant le photon le plus longtemps possible pour effectuer la synchronisation nécessaire. «Ce matériau ouvre un nouveau champ des possibles dans la création d’un réseau quantique mondial et souligne l’importance de poursuivre des recherches fondamentales en parallèle à des recherches plus appliquées, comme la création d’une mémoire quantique», conclut Mikael Afzelius.

Source: CNRS

Les plantes obtenues par mutagenèse sont des OGM

La Cour de justice de l’Union européenne (CJUE ) a donné raison à la Confédération paysanne et à huit autres associations le 25 juillet dernier. « Les organismes obtenus par mutagenèse constituent des OGM et sont, en principe, soumis aux obligations prévues par la directive sur les OGM », conclut l’arrêt de l’instance juridique. La Cour estime que les risques liés à ces nouvelles techniques  « pourraient s’avérer analogues » à ceux des OGM traditionnels. Par ailleurs ces nouvelles techniques permettent de produire des OGM « à un rythme et dans des proportions sans commune mesure avec ceux résultant de l’application de méthodes traditionnelles de mutagenèse ».

Seules les techniques traditionnelles développées avant l’adoption de la directive sur les OGM « et dont la sécurité est avérée depuis longtemps » sont exclues de son champs d’application. Cela ne signifie pas pour autant qu’ils peuvent être librement disséminés. « Les États sont libres de légiférer dans ce domaine dans le respect du droit de l’Union, en particulier des règles relatives à la libre circulation des marchandises », précise l’arrêt. Reste à savoir si les instances décisionnelles suivront cet avis de la CJUE.

Des réactions contrastées

La confédération paysanne et les huit autres requérants saluent « une victoire ». Elles « appellent l’Union européenne et le gouvernement français à appliquer strictement cette décision ». Cela revient notamment à « suspendre immédiatement la culture des variétés rendues tolérantes aux herbicides » et « financer des programmes de recherche afin d’identifier les techniques utilisées ». Pour sa part, le Gouvernement « salue cette clarification attendue » qui crée « un cadre harmonisé à l’échelle européenne afin de protéger les consommateurs et l’environnement, dans le respect du principe de précaution ».

En revanche, la FNSEA et quatre autres syndicats agricoles y voient « un bien mauvais signal ». « L’application systématique de la Directive OGM à l’ensemble des outils modernes de sélection variétale est de nature à isoler l’Europe de toute innovation en la matière », dénoncent-ils. « Une agriculture en panne d’innovation variétale ne pourra relever l’ampleur des défis climatiques et environnementaux », estiment-ils.

Pour l’Association Française des Biotechnologies Végétales (AFBV), réduire l’usage des pesticides dans le cadre du plan Ecophyto requiert « des nouvelles variétés de plantes plus vertes, c’est à dire génétiquement résistantes aux maladies et aux prédateurs de toutes sortes ». Elle prédit « des années très noires » pour l’avenir des agriculteurs européens « si ce renoncement était confirmé par l’U.E ». Et ce d’autant plus que contrairement à ce qu’annonce la CJUE, l’AFBV estime qu’« aucun risque potentiel n’a été identifié » sur les OGM obtenus par transgenèse, encore moins sur ceux obtenus par mutagenèse.

Les nouvelles techniques de mutagenèse n’existaient pas lorsque les réglementations européennes et françaises sur les OGM ont été adoptées. Plutôt que d’introduire un gène étranger dans la plante, ces techniques induisent des mutations ciblées à l’échelle moléculaire directement dans le génome de la plante pour lui fournir la propriété recherchée. Il est ainsi possible de faire muter un gène en modifiant un faible nombre de nucléotides, moduler l’expression d’un gène, activer ou désactiver des gènes. Certaines ont même permis de développer des variétés de semences résistantes à des herbicides, tout comme des OGM obtenus par transgenèse.

Par Matthieu Combe, journaliste scientifique

La face toxique de la Lune

Les différentes missions Apollo des années 1960 et 1970 et notamment celles où les astronautes se sont posés sur la Lune ont mis à jour l’omniprésence de ces poussières en suspension, abrasives, collantes, capables de percer les combinaisons spatiales, de corroder et de s’infiltrer dans les pièces mécaniques. Dès lors, ce paramètre a rapidement été pris en compte pour concevoir du matériel, des machines qui iraient sur la Lune. Mais on s’est peu intéressé à l’aspect santé humaine. Pourtant, cette poussière a un potentiel pathologique très important pour l’homme.

moon-dust

Poussières de Lune, qui êtes-vous ?

Elles recouvrent la surface de la Lune sur une épaisseur de 3 à 20m, ces régolithes (poussières issues de la dégradation des roches en place par érosion ou de débris météoritiques), sont composées principalement de silice (SiO2), d’alumine (Al2O3) et d’autres composants comme le fer, calcium et le magnésium. Les phénomènes physiques qui ont lieu sur la Lune les ont souvent transformés en verre ensuite broyé en fines poussières (de quelques microns) extrêmement tranchantes et abrasives. En outre, ces poussières sont magnétisées. Ce qui les rend extrêmement collantes sur les machines et les combinaisons. Les différents témoignages des astronautes affirment qu’elles possèdent une odeur forte ressemblant à celle de la poudre à canon brûlée.

De la fièvre lunaire aux silicoses

Qualifiée de fièvre lunaire ou de rhume des foins lunaire, les symptômes présentés par les astronautes en contact avec les poussières lunaires allaient de l’éternuement à la congestion nasale en passant par les maux de gorge et les larmoiements. Certains astronautes ont présenté ces symptômes une journée quand d’autres ont mis plusieurs jours à s’en remettre. Au vu de la composition et de la taille des poussières, on sait d’ores et déjà que le risque est élevé de développer outre de simples irritations passagères des maladies plus graves ressemblant aux silicoses des mineurs avec des atteintes déjà connues aux poumons, au cerveau et à l’ADN en cas d’exposition prolongée (voir notamment cette étude). Les projets d’installation lunaire devenant concrets, l’agence spatiale européenne a décidé de lancer un vaste programme d’évaluation et de maîtrise des risques sanitaires liées à la poussière. Des experts du monde entier sont mis à contribution.

Travailler avec une poussière de substitution

Aujourd’hui il s’agit d’obtenir une connaissance fine de ces risques pour pouvoir y parer de manière adéquate. Comme on ne dispose pas de grande quantité de poussières lunaires, le travail va être effectué à partir de poussière de substitution. Contrairement aux poussières terrestres qui, au fil du temps, s’arrondissent et s’érodent, les poussières lunaires sont ciselées, en forme de crochets et restent coupantes et piquantes. Une des poussières terrestres qui ressemblent le plus est tirée d’une mine volcanique en Allemagne. Cependant, le tableau n’est pas tout noir. Les technologies et les connaissances sur la maîtrise des risques liés aux particules fines ont fortement évolué depuis les années 1970. Ionisation, systèmes de filtration haute technologie, casque, respirateur artificiels sont bien plus étanches, résistants et performants aujourd’hui. Une première expérience sur place avec un monitoring serré des colonisateurs lunaires sera d’autant plus importantes que sur Mars, la poussière est tout aussi agressive mais aussi chimiquement toxique. On soupçonne ainsi la poussière martienne d’être tellement oxydante qu’elle serait capable de brûler les plastiques, les caoutchouc et les tissus organiques au premier titre duquel la peau humaine…

Sophie Hoguin

Une voix pour la vie ? La hauteur de notre voix est déterminée avant que nous parlions

La hauteur -le fait d’être grave ou aigüe- est un paramètre acoustique de la voix humaine qui varie entre les individus et les sexes après la puberté. Elle porte des informations importantes ayant des conséquences sur nos relations sociales. On sait par ailleurs que la vie fœtale dans l’utérus impacte le développement de l’enfant et sa vie d’adulte. En comparant le pleur de bébés enregistrés quelques mois après la naissance avec leur voix à l’âge de cinq ans, les scientifiques ont découvert que la hauteur du pleur était corrélée à la hauteur de la voix – un bébé pleurant dans les graves aura plus de chance de développer une voix grave qu’un bébé pleurant dans les aigus, quel que soit son sexe. Leurs travaux soulignent également un probable lien entre l’environnement hormonal qu’a connu l’enfant dans le ventre de sa mère et la hauteur de sa voix.

Les chercheurs et chercheuses ont d’abord enregistré des bébés de 3 mois pleurant au moment du bain. Cinq années plus tard, elles et ils ont à nouveau enregistré leurs voix – les enfants devaient alors s’exprimer librement devant des images. En comparant les caractéristiques acoustiques des pleurs et des paroles, les scientifiques ont constaté que la hauteur des voix était prédite par celle des pleurs enregistrés quelques années auparavant. En mesurant un indice reposant sur la taille relative des doigts de la main et connu pour être lié à l’environnement hormonal du fœtus, elles et ils ont par ailleurs découvert que les différences de hauteur de voix entre les humains trouvent pour partie leur origine dans la vie prénatale. Ces résultats sont renforcés par une autre étude des mêmes scientifiques montrant que la hauteur de la voix à l’âge de sept ans prédit avec succès celle de la voix adulte.

Pour percer tous les mystères de notre voix, il faudra poursuivre les recherches car il est difficile d’enregistrer les mêmes enfants à plusieurs années d’intervalles. Ici, seuls 15 enfants ont pu être suivis, tous de nationalité française, alors que l’acoustique des pleurs et des voix est influencée par le contexte culturel.

Source: CNRS

La France, 16ème au palmarès des pays les plus innovants

Pour la septième année consécutive, la Suisse se retrouve en tête de ce palmarès mondial de l’innovation. Elle est suivie de la Suède, du Royaume-Uni, de Singapour et des Etats-Unis. En 16e position, la France reste derrière l’Allemagne, mais est devant la Chine. L’Indice mondial de l’innovation est publié depuis 2007 conjointement par l’Organisation Mondiale de la Propriété Intellectuelle (OMPI),  l’Université Cornell et l’Institut européen d’administration des affaires (INSEAD).

L’innovation du monde passée au crible

Afin d’établir ce classement, 80 critères sont passés au crible dans 7 domaines : les institutions, le capital humain et la recherche, l’infrastructure, le perfectionnement du marché, le perfectionnement des entreprises, la connaissance et les résultats technologiques, ainsi que la créativité. Les critères vont  du nombre de demandes de titres de propriété intellectuelle déposées à la création d’applications mobiles, aux dépenses en matière d’éducation et aux publications scientifiques et techniques.

La France se retrouve dans le top 25 pour tous les domaines pris en compte par l’indicateur et est mieux classée que la moyenne européenne. Sa force s’observe notamment dans trois domaines : le capital humain et la recherche (11e), l’infrastructure (10e) et le perfectionnement du marché (11e). En particulier, la France est première pour l’indicateur des opérations de capital-risque, deuxième pour la performance environnementale et quatrième pour la qualité de ses publications scientifiques. Par ailleurs, la région parisienne occupe la 9e place du classement des pôles mondiaux les plus innovants.

domaine-france-innovation
Scores de la France dans les sept domaines pris en compte par l’Indice mondial de l’innovation.

Les pays émergents se positionnent

Aux côtés d’Israël, de l’Australie, des Etats-Unis et du Canada, 11 des 20 pays les plus innovants se situent en Europe et cinq en Asie. La Chine se trouve pour la première fois dans le top 20, se hissant à la 17e place, contre la 22e en 2017. Plusieurs pays asiatiques – Indonésie, Malaisie, Thaïlande, Vietnam – continuent leur progression, se rapprochant des puissances régionales telles que la Chine, le Japon, Singapour et la Corée du Sud. 

À la 47e place, le Chili est premier de la région Amérique latine et Caraïbes. Istraël (11e) et Chypre (29e) occupent les premières places en Afrique du Nord et en Asie occidentale pour la sixième année consécutive. L’Afrique du Sud, à la 58e place, est à la tête des pays de l’Afrique subsaharienne. Enfin, l’Inde (57e) est en tête de la région Asie centrale et du Sud.

Voici le top 20 des pays les plus innovants en 2018 et leur évolution par rapport à l’année dernière :

Classement mondial 2018

Pays

Classement mondial 2017

1

Suisse

1

2

Pays-Bas

3

3

Suède

2

4

Royaume-Uni

5

5

Singapour

7

6

Etats-Unis

4

7

Finlande

8

8

Danemark

6

9

Allemagne

9

10

Irlande

10

11

Israël

17

12

Corée du Sud

11

13

Japon

14

14

Hong Kong (Chine)

16

15

Luxembourg

12

16

France

15

17

Chine

22

18

Canada

18

19

Norvège

19

20

Australie

23

Par Matthieu Combe, journaliste scientifique

Parker Solar Probe : la recherche française décolle en direction du Soleil

Un peu plus près des étoiles, dans la couronne de plasma qui entoure le Soleil. C’est l’objectif de la mission Parker Solar Probe de la NASA pour tenter de résoudre l’un des plus grands mystères de la physique contemporaine : comment la température de son atmosphère peut-elle dépasser le million de degrés alors que celle sa surface atteint seulement 6 000 °C ? Les astrophysiciens ont déjà proposé que la couronne pourrait être chauffée par des ondes électromagnétiques produites en surface, mais impossible de tester cette hypothèse sans se rendre sur place, dans un milieu aux conditions extrêmes, comme le fera cette sonde. Ses mesures permettront également d’étudier d’autres phénomènes, tels que la genèse des vents solaires.

Parker Solar Probe atteindra son objectif en novembre 2018, seulement trois mois après son lancement de Cape Canaveral prévu le 11 août à bord d’une fusée Delta IV Heavy, le plus puissant lanceur de la NASA. Pour atteindre son objectif aussi rapidement, la sonde battra le record de vitesse par rapport au Soleil : au plus près de l’étoile, elle atteindra les 700 000 kilomètres par heure. A cette vitesse par rapport à la Terre, Parker Solar Probe relierait Paris à Sydney en moins de 2 minutes ! La sonde effectuera vingt-cinq passages à proximité du Soleil durant cette mission, entrecoupés de passages près de l’orbite terrestre au cours desquels les données récoltées pourront être envoyées aux scientifiques. Ses trois derniers passages l’amenant au plus proche du Soleil, à environ 6 millions de kilomètres de la surface solaire.

Cette mission américaine profite de l’expertise de cinq laboratoires français, tels que le Laboratoire de physique et chimie de l’environnement et de l’espace (LPC2E ; CNRS/CNES/Université d’Orléans) qui a développé un instrument embarqué à bord de Parker Solar Probe : son magnétomètre à induction mesurera les variations du champ magnétique dans la couronne solaire. Ces mesures seront donc cruciales pour comprendre comment elle peut être chauffée à des températures dépassant le million de degrés.

En outre, les équipes du Laboratoire d’études spatiales et d’instrumentation en astrophysique (Observatoire de Paris–PSL/CNRS/Université Paris Diderot/Sorbonne Université) et du Laboratoire de physique des plasmas (CNRS/Observatoire de Paris–PSL/Ecole polytechnique/Université Paris-Sud/Sorbonne Université) ont participé à la mise au point d’un récepteur radio et de deux spectromètres, fabriqués aux Etats-Unis. Quant à l’Institut de recherche en astrophysique et planétologie (CNRS/CNES/Université Toulouse III-Paul Sabatier), il sera impliqué dans l’exploitation des images de la caméra embarquée par la sonde. Enfin, le four solaire du laboratoire Procédés, matériaux et énergie solaire du CNRS a permis d’éprouver les matériaux et capteurs de Parker Solar Probe dans des conditions proches de celles auxquelles ils seront confrontés autour du Soleil.

Le savoir-faire de ces laboratoires profitera par ailleurs à une autre mission d’exploration solaire à l’horizon 2020 : à son tour, la mission Solar Orbiter de l’Agence spatiale européenne prendra la route du Soleil avec à son bord divers instruments de mesure développés dans plusieurs laboratoires français.

img_5017_resizeartifica
© Guillaume JANNET/LPC2E Capteur magnétique à induction conçu et réalisé par le laboratoire LPC2E, avec le soutien du CNES et du CNRS. Le capteur subit ici un test de vibrations.
assembly_resizeartifica
© Ed WHITMAN/Johns Hopkins APL/NASA Assemblage de la sonde américaine Parker Solar Probe.

Source : cnrs

La Lune aurait pu être habitable

Cela fait maintenant plusieurs années que la probable présence d’eau à la surface de la Lune n’est plus un mystère pour nombre d’astronomes. Malgré cela, les chercheurs de la NASA s’accordent à dire que le satellite de la Terre n’a en aucun cas pu être un jour habitable. Cette théorie a été remise en question par les chercheurs Dirk Schulze-Makuch, professeur au centre d’astronomie et d’astrophysique que l’Université de Berlin, et Ian Crawford, professeur d’astrobiologie à l’Université de Londres. Ces derniers affirment dans la revue Astrobiology que des fenêtres temporelles correspondant à des périodes d’habitabilité de la Lune pourraient bel et bien être définies.

De l’eau présente depuis des milliards d’années

De récentes missions spatiales ayant permis l’analyse de roches et de sols lunaires ont mené les chercheurs à aboutir à ces conclusions. Les deux hommes définissent deux périodes de potentielle habitabilité de la Lune. La première pourrait avoir eu lieu juste après l’accrétion de l’astre, il y a environ 4,5 milliards d’années. Et la seconde quelques centaines de millions d’années plus tard, lors du dégazage lié à l’activité volcanique lunaire. En effet, de l’eau aurait été emprisonnée dans la roche lunaire lors de ces deux événements.

Il est néanmoins bon de relativiser la présence d’eau à la surface du satellite terrestre. Les deux scientifiques ont réussi à démontrer que lors des événements précédemment évoqués, de la vapeur d’eau a pu être enfermée dans les roches de basalte lunaire. Avec le temps, le dégazage d’eau aurait pu former des océans lunaires mesurant jusqu’à un kilomètre de profondeur. Toutefois, cela était impossible car l’atmosphère n’a jamais été suffisamment dense sur la Lune.

Une courte vie hypothétiquement possible sur la Lune

Si l’hypothèse de la présence d’eau sur la Lune à son époque primitive semble faire de moins en moins de doute, il n’en demeure pas moins que des interrogations persistent sur la présence d’organismes vivants. Schulze-Makuch et Crawford font également des suppositions sur ce point. Selon eux, il se pourrait que des formes de vie se soient développées durant les premiers millions d’années de l’astre sous forme bactériologique, et durant quelques milliers d’années au plus.

La communauté scientifique s’accorde à dire qu’il est très difficile à l’heure actuelle d’évoquer cette possibilité avec plus de précision. Selon elle, si la vie sur la Lune a un jour été possible, elle pourrait s’expliquer par l’abiogenèse. Cela voudrait dire que la vie aurait été générée de façon spontanée à l’échelle nanobactériologique. Reste une dernière éventualité évoquée par les scientifiques. La vie aurait pu passer de la Terre à la Lune par le biais de transferts de météorites il y a 3 ou 4 millions d’années. « Il est possible que la vie terrestre ait inoculé des environnements lunaires passablement habitables » avancent  Dirk Schulze-Makuch et Ian Crawford.

Par Matthieu Combe, journaliste scientifique

Place au plan Ecophyto II+ suite à l’échec d’Ecophyto II

Les ministères de l’Agriculture, de la Santé, de la Recherche et de la Transition écologique annoncent conjointement une nouvelle hausse du nombre de doses-unités épandues à l’hectare (NODU), l’indicateur de référence utilisé dans le cadre du plan Ecophyto. La hausse est de 12,4 % entre 2014 et 2016.

Le plan Ecophyto a été lancé en 2008. Il visait alors une réduction de l’usage des pesticides de 50 % d’ici 2018. En 2015, le plan était remodelé en plan Ecophyto II avec le report de l’objectif à 2025, doté d’un palier intermédiaire en 2020, à -25 %. Face à ce nouvel échec, les quatre ministères annoncent le lancement du plan « Ecophyto II+ ». Ce dernier intègre les mesures du plan d’action sur les produits phytopharmaceutiques et une agriculture moins dépendante aux pesticides et du plan d’action de sortie en trois ans du glyphosate, respectivement présentés les 25 avril et 22 juin derniers. Ce nouveau plan sera soumis à consultation publique à l’automne en vue d’être publié avant la fin de l’année.

Quelques financements supplémentaires

Chaque année, le plan Ecophyto II est financé à hauteur de 71 millions d’euros. Le plan Ecophyto II+ sera doté de la même enveloppe. Sans en préciser l’étendue, les ministères annoncent en complément que « les outils du Grand Plan d’investissement seront également mobilités pour accompagner les priorités d’Ecophyto II+ ». Par ailleurs, Stéphane Travert a annoncé deux millions d’euros supplémentaires pour accompagner le développement du réseau de fermes DEPHY qui testent des démarches innovantes de réduction du recours aux pesticides. D’ici 2021, le ministre souhaite multiplier par 10 le nombre de ces fermes, de 3.000 à 30.000.

Pour l’association Générations Futures, « ce nouveau plan manque d’une approche claire sur de nécessaires changements radicaux de systèmes agricoles ». Au lieu de parler de « biocontrôle ou d’optimisation technique », l’association estime que le plan devrait  « généraliser les systèmes de culture en rupture avec les pratiques actuelles ». Chez France Nature Environnement, la chargée des questions pesticides Claudine Joly appelle à « l’activation d’autres leviers économiques et réglementaires nécessaires pour obtenir une mobilisation de l’ensemble de la profession ».

Par Matthieu Combe, journaliste scientifique

Revue de presse anglophone #19

Les datas médicales plus vulnérables

medecine

Une étude montre que les données médicales sont les plus sujettes au hacking. La plupart du temps, des erreurs humaines sont à l’origine de ces failles. Lire

Source : The Guardian

Analysons les tweets d’Elon Musk

elon-musk-camion-tesla-1140

Le charismatique patron de Tesla est un habitué de Twitter… et des polémiques sur Twitter. Lire

Source : Wall Street Journal

Facebook et le challenge des datas

Facebook-at-work

La firme américaine s’est engagée à continuer à faire du ciblage commercial tout en limitant au maximum l’exploitation des données personnelles des usagers. Lire

Source : Wall Street Journal

Les oiseaux californiens s’entrainent à survivre

oiseaux

Des chercheurs américains ont étudié des oiseaux californiens dans une région marquée par le réchauffement climatique. La conclusion : ils s’adaptent remarquablement rapidement aux changements actuels. Lire

Source : New York Times

Les mains des robots ressemblent de plus en plus aux nôtres

Capture d’écran 2018-07-31 à 15.30.31

Les chercheurs s’orientent de plus en plus vers le développement de mains robotisées ayant les mêmes caractéristiques que celles des humains. Lire

Source : New York Times

Une centrale solaire flottante sur un lac alpin suisse

Depuis 2013, l’entreprise Romande Energie teste à proximité du Lac de Toules différents types de panneaux solaires et leur inclinaison. Le permis de construire d’un démonstrateur de parc solaire flottant a été délivré par le Canton du Valais en septembre 2017 pour une mise en service en 2019. Avec 2.240 m2 de panneaux, le démonstrateur produira 750 mégawattheures (MWh) par an. Soit de quoi alimenter l’équivalent de 208 ménages de la commune de Bourg-Saint-Pierre. Pour un investissement de 2,35 millions de francs suisses (environ 2 millions d’euros), l’objectif est de vérifier la faisabilité technique et financière d’un parc solaire flottant d’envergure.

L’entreprise Poralu Marine développe l’ensemble de la structure flottante sur laquelle seront installés les panneaux solaires. Après avoir installé une première ferme solaire flottante au Canada, l’entreprise devra prendre en compte «des températures particulièrement rigoureuses, anticiper le poids de la neige sur les panneaux et l’emprise de la glace, sans oublier les vents soufflant jusqu’à 120 km/h», précise-t-elle dans un communiqué. Si les résultats sont favorables, un parc flottant d’envergure pourrait recouvrir jusqu’à 35 % de la surface de ce lac de barrage. Dès 2021, la structure comprendrait près de 67.000 m2 de panneaux solaires reposant sur un tapis d’environ 1.000 flotteurs arrimés aux rives du lac. Elle produirait 23.000 MWh par an, soit de quoi alimenter 6.400 ménages.

Dans cet environnement alpin, le parc pourrait produire «jusqu’à 50% d’énergie en plus qu’un parc de mêmes dimensions situé en plaine, grâce notamment à la réverbération de la lumière sur la neige», rappelle Poralu Marine.

Par Matthieu Combe, journaliste scientifique

Revue du web #116 spéciale robotique : les 6 vidéos les plus étonnantes

Un robot pour capturer les créatures des abysses…

Des chercheurs américains ont créé un bras robotisé capable de capturer sans blesser des organismes qui vivent dans les profondeurs des océans.

Testé jusqu’à 700 mètres, le robot pourrait en théorie résister à la pression jusqu’à 11 kilomètres de profondeur.

L’étude vient d’être publiée dans la revue Science Robotics.

 

Des mains robotiques aussi agiles que les nôtres ?

Des ingénieurs de la Silicon Valley travaillent actuellement sur les mains robotisées.

Leur but : se rapprocher le plus possible des mains humaines.

 

Le robot centaure qui sauve des vies

Des chercheurs italiens se sont inspirés de la mythologie grecque pour imaginer un robot sauveteur, capable d’intervenir lors d’effondrements ou de catastrophes nucléaires.

 

Cheetah 3 : en fait, ce robot n’a même pas besoin de voir !

Le MIT vient de présenter sa nouvelle prouesse : Cheetah 3 monte les escaliers, saute et se déplace partout… sans rien voir.

Le secret : deux algorithmes, un algorithme de « détection au contact », et un « modèle prédictif de contrôle ».

 

Robots en kit : initiation à la robotique

Pour faciliter l’initiation à la robotique, rien de tel qu’un robot flottant télécommandé !

Le projet Waterbot est en ce moment sur la plateforme de crowfunding Kickstarter !

 

Ce robot livre déjà vos colis (si vous habitez Pékin)

Le robot livreur, qui vous apporte vos repas, circule en ce moment dans les rues de Pékin à une vitesse moyenne de 3 km/h, une vitesse peu impressionnante, certes, mais un service apprécié.

Pour autant, ne vous attendez pas à ce qu’il monte jusqu’à chez vous, le robot livreur préfère vous attendre devant l’immeuble, chargé de votre commande. Pour la récupérer, cliquez sur le lien reçu par mail !

Par I. B

Téléphone… voiture

Et une raison de plus de ne pas oublier son smartphone : dans quelques années, la clé de contact de votre véhicule sera intégrée dans une puce de votre téléphone mobile. Le Car Connectivity Consortium (CCC) a publié la norme Digital Key Release 1.0, pour standardiser le système.

Le CCC se consacre à la collaboration intersectorielle dans l’élaboration de normes et de solutions mondiales pour la connectivité des téléphones intelligents et des véhicules. Il compte plus de 70 membres dont Audi, BMW, General Motors, Hyundai, Apple, LG, Panasonic, Samsung, Volkswagen, Continental, Gemalto, NXP et Qualcomm.

Cette norme permettra de généraliser cette fonction de clé intégrée à un mobile (qui est pour l’instant spécifique à quelques marques comme Tesla et Audi avec sa Connect Key présentée en 2015). Et aussi de limiter les risques. En 2016, une faille dans le système d’ouverture de millions de voitures avait été détectée.

Une nouvelle version en 2019

Digital Key est présenté comme un système sécurisé permettant aux constructeurs automobiles de transférer une clé numérique vers un smartphone. Le transfert s’appuie sur une infrastructure Trusted Service Manager. Elle tire parti des limites de distance NFC (Near Field Communication ou communication en champ proche) et d’un lien direct avec l’élément de sécurité de l’appareil.

Le consortium CCC prévoit de sortir la version 2.0 de sa norme Digital Key Release au premier trimestre 2019. C’est à ce moment-là que seront définis les protocoles de communication entre les véhicules et les smartphones afin d’assurer une parfaite interopérabilité.

Reste que le déploiement réel des outils embarquant ce standard n’est pas encore communiqué. D’autant que les premières clés numériques des constructeurs ne sont pas très visibles. Celle d’Audi est assez rare. En 2015, Volvo avait déclaré qu’il vendrait des modèles avec clés numériques en 2017. Ce n’est pas le cas aujourd’hui.

Autre inconnue qu’il s’agira de contrôler précisément : les échanges de ces clés numériques lors de la location ou le partage d’une voiture… Officiellement, ces clés faciliteraient ces opérations car les locataires n’auraient pas besoin de recevoir les clés physiques pour emprunter un véhicule.

La société d’autopartage Turo (présenté comme le «Airbnb des voitures») expérimente déjà un dispositif qui permet au propriétaire d’une voiture de la déverrouiller à distance avec son téléphone. Zipcar propose également une offre un peu similaire.

Mais lorsqu’on voit la facilité avec laquelle des hackers désactivent de nombreux modèles de serrures connectées, on peut exprimer quelques craintes légitimes…

Philippe Richard

Nouveaux retards et surcoûts à l’EPR de Flamanville

Dans le feuilleton de l’EPR de Flamanville, EDF fait désormais face à des soudures défectueuses du circuit secondaire principal de refroidissement. Ce circuit relie le générateur de vapeur à la turbine qui produit l’électricité. L’énergéticien a annoncé fin juillet avoir contrôlé 148 soudures sur les 150 que compte le circuit secondaire principal. Parmi elles, «33 soudures présentent des écarts de qualité et vont faire l’objet d’une réparation».

Des soudures plus fragiles que prévu

EDF avait décidé que les composants les plus essentiels à la sûreté de l’installation relèveraient du principe d’«exclusion de rupture». Supposés être résistants à toute épreuve, l’entreprise pouvait se dispenser d’en étudier les conséquences de rupture, celle-ci étant supposée impossible. 20 autres soudures ne respectent pas les exigences de «haute qualité» liée à ce principe d’exclusion de rupture et vont être réparées.  Pour dix autres soudures, EDF propose à l’Autorité de sûreté nucléaire «une démarche de justification spécifique».

Dans ces conditions, le chargement du combustible est reporté d’un an. Il est désormais prévu au 4e trimestre 2019,  pour une mise en service commerciale de l’installation en 2020. L’addition passe ainsi de 10,5 à 10,9 milliards d’euros. Au début du projet en 2007, la mise en service de l’EPR de Flamanville était prévue pour 2012. L’installation complète devait alors coûter 3,3 milliards d’euros. Avec 8 ans de retard dans le planning de livraison et un dépassement des dépenses de plus de 7 milliards d’euros, force est de constater que l’EPR de Flamanville n’est pas le fleuron promis de l’industrie française.

Réactions en cascade

Peu avant cette annonce, les ONG Greenpeace et le Réseau Sortir du nucléaire avaient porté plainte contre EDF, Framatome (ancien Areva) et contre X pour dix infractions relevées sur le chantier. Selon le Réseau Sortir du nucléaire, «les malfaçons, mais aussi les contrôles déficients, semblent revêtir un caractère quasiment systémique».  Selon France Nature Environnement, «EDF s’embourbe à Flamanville». Pour sa part, le parti Europe-Ecologie-Les Verts est encore plus incisif et parle de «fiasco industriel du siècle». 

Flamanville a également une incidence sur le dossier Fessenheim. C’était une promesse de François Hollande, maintes fois répétées : fermer la centrale Fessenheim avant la fin de son quinquennat. Elle n’a pas été respectée. L’ancien président avait cédé à une délibération du Conseil d’administration d’EDF. La fermeture de la centrale n’interviendra qu’à partir de la mise en service de l’EPR de Flamanville et si  elle est « nécessaire » au respect du plafond de la capacité de production d’électricité d’origine nucléaire installée en France. Dans ces conditions, le gouvernement a confirmé qu’il entendait repousser la fermeture de la centrale de Fessenheim à 2020. Le Réseau Sortir du nucléaire juge «inacceptable de repousser ainsi indéfiniment l’arrêt de Fessenheim».

Par Matthieu Combe, journaliste scientifique

Hubble immortalise Mars et Saturne au plus proche de la Terre

Cet été, les planètes Mars et Saturne sont relativement proches de la Terre. Le 31 juillet, Mars était même au plus proche de la Terre depuis 15 ans, à 57,6 millions de kilomètres. Ces phénomènes ravissent les astronomes amateurs qui peuvent observer les planètes avec un simple télescope. Le télescope spatial Hubble de la NASA et de l’ESA  profite de l’occasion pour livrer de nouveaux clichés.

Des planètes en opposition

Au cours des derniers mois, les planètes Mars et Saturne ont été en opposition à la Terre. Une planète est dite en opposition, lorsque le Soleil, la Terre et cette planète sont alignés dans cet ordre.C’était le 27 juin pour Saturne et le 27 juillet pour Mars. Pendant une opposition, la planète est au plus proche de la Terre. Elle est alors particulièrement visible, car entièrement éclairée par le Soleil vue de la Terre. Cela permet aux astronomes de l’observer en détail.

Peu avant son opposition, le 6 juin, Hubble observait Saturne. La planète se trouvait alors à environ 1,4 milliard de kilomètres de la Terre. L’image dévoilée montre le magnifique système d’anneaux de Saturne. En plus, elle révèle un motif hexagonal autour du pôle nord. Il s’agit d’un élément de vent stable et persistant découvert lors du survol de la sonde spatiale Voyager 1 en 1981. Enfin, la structure en bandes de la planète,  est clairement visible. Elle est causée par les vents et les nuages à différentes altitudes.

saturne-opposition-2018
Saturne vu par Hubble le 6 juin. Credit: NASA, ESA, A. Simon (GSFC) et l’équipe OPAL, et J. DePasquale (STScI)

Pour la première fois, Hubble a également photographié six des 62 lunes connues de Saturne : Dione, Encelade, Téthys, Janus, Epiméthée et Mimas. Les scientifiques émettent l’hypothèse qu’une petite lune similaire s’est désintégrée il y a 200 millions d’années pour former le système d’anneaux de Saturne.

Six satellites de Saturne ont été observés le 6 juin. Credit: NASA, ESA, A. Simon (GSFC) et l'équipe OPAL, et J. DePasquale (STScI)
Six satellites de Saturne ont été observés le 6 juin. Credit: NASA, ESA, A. Simon (GSFC) et l’équipe OPAL, et J. DePasquale (STScI)

Une tempête martienne

Hubble a photographié la planète Mars le 18 juillet, juste 13 jours avant que Mars ne soit au plus proche de la Terre. Alors que les images précédentes montraient en détail la surface de la planète, les nouveaux clichés dévoilent une tempête de sable gigantesque qui enveloppe la planète entière. Seules les calottes polaires blanches (Terra Meridiani), le cratère Schiaparelli et le bassin Hellas sont encore visibles.Toutefois, ces caractéristiques sont légèrement floues, à cause de la poussière dans l’atmosphère. Les tempêtes de poussière mondiales durent des semaines ou des mois. Elles ont tendance à se produire au printemps et en été dans l’hémisphère sud, lorsque Mars est au plus proche du Soleil et que le réchauffement est maximal.

Les vaisseaux spatiaux en orbite autour de Mars peuvent étudier le comportement de la tempête à basse altitude. Les observations de Hubble permettent aux astronomes d’étudier les changements dans la haute atmosphère. Les observations combinées aident les scientifiques planétaires à mieux comprendre comment ces tempêtes mondiales se produisent.

Mars vu par Hubble le 18 juillet 2018. Credit: NASA, ESA, et STScI
Mars vu par Hubble le 18 juillet 2018. Credit: NASA, ESA, et STScI

Ces nouvelles images de Mars et de Saturne viennent compléter d’anciennes données recueillies par Hubble, d’autres télescopes et des sondes spatiales. Elles permettent aux astronomes d’étudier comment les nuages et les structures à grande échelle sur d’autres planètes de notre système solaire évoluent avec le temps.

Par Matthieu Combe, journaliste scientifique

L’écologie digitale, vous connaissez ?

Une récente enquête menée par le cabinet d’études et conseil Occurence pour l’ONG Digital for the planet s’intéresse à la perception qu’ont les Français de la pollution numérique. Obsolescence programmée, data centers, cloud, D3E : voici des termes connus des Français qui ont intuitivement conscience de l’impact environnemental du digital, même s’ils ne le connaissent pas en détail. Ils sont ainsi 76 % à estimer que les activités digitales produisent aujourd’hui autant ou plus de CO2 que le secteur aéronautique au niveau mondial. Le digital est déjà responsable de 16 % de la consommation électrique mondiale, part qui devrait augmenter de 50% d’ici 2020. Toutefois, 73 % des Français ignorent le principe d’écologie digitale qui découle de la pollution numérique.

Comprendre l’écologie digitale

« L’écologie digitale est la discipline qui étudie l’impact environnemental des différents écosystèmes reliant l’humain et le digital dans le but d’en limiter les effets nuisibles pour l’environnement », avance le cabinet d’études Occurence. Les Français sont 90 % à en avoir une bonne opinion lorsqu’ils en apprennent la définition. Pour Inès Leonarduzzi, CEO de Digital for the Planet, la pédagogie est le premier levier à tirer pour mettre en place une véritable stratégie d’écologie digitale. « On a gagné en pouvoir d’achat ces vingt dernières années, mais perdu en savoir d’achat ; notamment en ce qui concerne le digital, estime-t-elle. Quand on interagit sur un réseau social ou qu’on achète de l’espace de stockage en cloud, on ne nous dit pas ce que ça coûte réellement à la planète ».

Au moment où les Français se tournent de plus en plus vers les achats responsables, seulement 1 Français sur 4 estime que les entreprises se sont déjà saisies du sujet en France. Ils sont pourtant 80 % à indiquer, en tant que consommateur, qu’ils seraient plus fidèles à une marque si celle-ci prenait des engagements forts pour lutter contre sa pollution digitale.

Les Français sont également prompts à inciter le gouvernement français à en faire une priorité stratégique. Ils sont ainsi 77 % à vouloir que « la France devienne en cinq ans le champion international de cette discipline ». Et pour cause : 2 Français sur 3 sont en accord avec l’idée selon laquelle « l’écologie digitale est un indicateur de bonne santé économique ». Dans ces conditions, « les politiques et les entreprises doivent impérativement se saisir de l’écologie digitale s’ils ne veulent qu’elle les rattrape », prévient Assaël Adary, président du Cabinet Occurence.

Par Matthieu Combe, journaliste scientifique

Plus de 8 millions de tonnes de plastiques déversées dans les océans

Le plastique à usage unique : un fléau environnemental

Cette année, le thème de la Journée mondiale de l’environnement était la lutte contre la pollution plastique. Dans le viseur, la réduction des plastiques à usage unique ou jetable qui représentent 50% des déchets. Le rapport de l’ONU énumère les objets concernés: «les mégots, les bouteilles en plastique, les bouchons en plastique, les emballages alimentaires, les sacs plastique de supermarché, les couvercles en plastique, les pailles, les touilleurs et les récipients alimentaire à emporter». Avec une consommation qui s’élève à environ 500 milliards par an, les sacs en plastique représentent le problème majeur. Face à ce constat, pour le secrétaire général de l’ONU, un seul mot d’ordre : «bannissez les produits en plastique à usage unique. Refusez ce que vous ne pouvez pas réutiliser».

Le danger des microplastiques

Sur les neuf milliards de tonnes de plastique produites, seulement 9% ont été recyclées. Sachant que la plupart des plastiques ne sont pas biodégradables, ils finissent en majorité dans les décharges ou dans notre milieu naturel où ils mettront des milliers d’années à se décomposer totalement. Selon le rapport de l’ONU, sans un système de gestion des déchets très efficace environ 12 milliards de tonnes de déchets plastiques seront retrouvées dans les décharges et l’environnement d’ici 2050.

En attendant sa décomposition totale, le plastique contamine les sols et l’eau sous forme de particules de microplastiques qui abiment la faune et la flore marine. Selon les études, 90% de l’eau en bouteille et 83% de l’eau du robinet contiennent des particules de plastique. Le Secrétaire général António Guterres tire la sonnette d’alarme : «Il y a aujourd’hui plus de microplastiques dans les mers du globe que d’étoiles dans toute la Galaxie. Des îles les plus reculées jusqu’au pôle Nord, aucune région n’est épargnée. Si la tendance actuelle se poursuit, il y aura en 2050 plus de plastique que de poissons dans les océans.»

Ces déchets représentent aussi un véritable danger pour la santé humaine puisque lorsque les microplastiques sont ingérés par les poissons (car confondus avec de la nourriture), ils sont transférés dans les tissus animaux pour finalement pénétrer dans notre chaîne alimentaire. Selon le rapport, «les produits en polystyrène, qui contiennent des produits chimiques cancérigènes comme le styrène et le benzène, sont très toxiques lorsqu’ils sont ingérés, endommagent le système nerveux, les poumons et les organes reproducteurs». Les conséquences de l’ampleur de ce phénomène sont très méconnues aujourd’hui car très peu de connaissances sont disponibles sur les effets des microplastiques sur la santé.

Parmi les alternatives envisagées, les plastiques issus de ressources renouvelables et biodégradables comme les biopolymères à base de biomasse (le PLA (acide polylactique) ou les PHA (polyhydroxyalcanoates)) suscitent l’intérêt et font l’objet de nombreuses recherches pour connaitre leur effet dans l’environnement naturel.

Par Aliye Karasu

L’humanité vit à crédit depuis ce matin !

« Si la Planète était une entreprise, elle serait aujourd’hui au bord de la faillite, annonce Pascal Canfin, directeur général du WWF France dans un communiqué. Nous devons impérativement changer notre modèle de développement ». En seulement 7 mois, l’humanité a épuisé son stock de ressources renouvelables fournies par la terre et les océans et saturé les puits. Désormais, le CO2 va s’accumuler dans l’atmosphère, les forêts vont reculer et les sols s’appauvrir.

Un dépassement inquiétant

Le jour du dépassement de la Terre arrive de plus en plus tôt chaque année. Il arrive deux jours plus tôt que l’année dernière, un mois plus tôt qu’en 2004, deux mois plus tôt qu’en 1996 et trois mois plus tôt qu’en 1980. Les surfaces productives de la Terre se réduisent sous les diverses pressions humaines : la déforestation, le réchauffement climatique, l’érosion des sols, le recul de la biodiversité, etc.

Selon sa définition officielle, le développement durable est « un développement qui répond aux besoins du présent sans compromettre la capacité des générations futures à répondre à leurs propres besoins ». Au bout du compte, il faudrait désormais l’équivalent de 1,7 Terre pour assurer un développement durable et étancher notre soif de croissance. Sans cette 0,7 Terre supplémentaire, la pollution et les déchets s’accumulent dans l’air, l’eau et les sols.

Le WWF appelle donc à « inverser la tendance ». Pour ce faire, il invite tous les acteurs à s’engager à « mettre un terme à l’érosion du capital naturel et à revoir leurs modèles de développement ». En particulier, l’association rappelle que l’urgence est à la réduction drastique de nos émissions de gaz à effet de serre liées à la combustion d’énergies fossiles, et la réduction de notre empreinte alimentaire.

La France, parmi les leaders du déficit

Malgré l’impulsion donnée par l’Accord de Paris, la France est loin d’être un bon exemple. Si toute l’humanité vivait comme des Français, le Jour du dépassement de la Terre arriverait le 5 mai. Et il faudrait l’équivalent de 2,8 Terres pour un développement durable. Le WWF appelle donc la France à appliquer des « politiques ambitieuses et cohérentes au niveau national » et « un leadership au niveau international ».

D’ici la fin de l’année, l’agenda politique français sera bien rempli côté environnement. Des discussions capitales vont concerner la future programmation pluriannuelle de l’énergie dès la rentrée. Au programme, il y aura également la loi d’orientation sur les mobilités et la loi sur la fin de la déforestation importée. « Nous devons parvenir à faire de la biodiversité une priorité internationale et réussir à Marseille et à Pékin en 2020 à trouver un New Deal pour la nature, estime Pascal Canfin. Comme ce fut le cas pour l’Accord sur le climat en 2015, la France est attendue pour montrer un leadership et une exigence de cohérence dans ses politiques, en métropole comme en Outre-Mer. »

Vous souhaitez calculer le nombre de planètes qu’il nous faudrait si tout le monde vivait comme vous ? Calculez votre empreinte écologique.

Par Matthieu Combe, journaliste scientifique

Compétences comportementales : indispensables pour les métiers du cloud et de la cybersécurité

L’Association pour l’emploi des cadres (Apec) et l’Observatoire des Métiers des Télécommunications (OMT) ont présenté une étude qui met en lumière les 22 métiers et compétences cadres recherchées dans les domaines du cloud, du big data et de la cybersécurité. Si à l’instar d’autres études métiers relatifs aux technologies de la communication ou de l’informatique, cette photographie réalisée à partir des offres d’emplois publiées par l’Apec, révèle que l’Ile-de-France est la région qui recrute le plus et que les candidats les plus recherchés possèdent 1 à 3 ans d’expérience, elle montre aussi que certaines compétences, autrefois considérées comme secondaires deviennent un élément déterminant des recrutements.

Le Cloud tient le haut du pavé

Sur les 21000 offres publiées par l’Apec en 2017 dans ces domaines, le cloud est majoritaire avec 50 % des annonces considérées contre 37 % pour le big data et 13 % pour la cybersécurité. Cependant, les auteurs de l’étude soulignent que ces chiffres sont à manipuler avec prudence tant les frontières entre les trois domaines sont poreuses. En effet, l’Apec recense pour ces 3 domaines 22 métiers mais certains d’entre eux classés dans un domaine pourraient tout aussi bien être classés dans un autre.

La transformation numérique des entreprises, la rapidité de développement de nouvelles technologies, rendent ces secteurs très mouvants et la définition de « métiers » ou de « profils professionnels » délicats. Il faut bien sûr aussi noter que ces offres d’emplois, qui représentent 4 % de l’ensemble des offres Apec et 22 % des offres relatives aux fonctions informatiques, ne sont forcément qu’une fraction des offres totales du marché. Certains recruteurs se limitant à des plateformes collaboratives ou aux réseaux sociaux pour trouver leurs collaborateurs.

La technique ne suffit plus

Désormais les compétences techniques ne sont plus déterminantes, elles sont nécessaires mais pas suffisantes, les recruteurs recherchent des compétences transversales et comportementales : capacité d’adaptation et d’apprentissage pour pouvoir acquérir de nouvelles compétences techniques et faire face aux évolutions, capacité à gérer des projets en mode agile, maîtrise de l’anglais et surtout capacité relationnelle, rigueur, esprit d’initiative. Les variétés de langage, de technologies requises sont telles, que les employeurs n’hésitent plus à écrire des phrases telles que «peu importe les technologies utilisées, nous cherchons quelqu’un sachant s’adapter.» dans leurs annonces. En même temps vu qu’elles visent des profils de 3 ans d’expérience maximum, difficile d’exiger de tout maîtriser… Les annonces décrivent d’ailleurs souvent des compétences informatiques très larges allant des bases de données, aux langages informatiques en passant par la maîtrise de plateforme OS ou de frameworks/librairies. Cette tendance s’explique aussi par le manque de candidats encourageant les entreprises à élargir leurs critères et au système d’appels d’offres. Les entreprises postant des annonces pour répondre à des appels d’offres ou pour se constituer un vivier de spécialistes auxquels elles peuvent faire appel à tout moment.

Jeunesse, Ile-de-France, informatique, le trio gagnant

Plus de 50 % des offres, dans les trois domaines considérés demandent une expérience courte, de 1 à 3 ans et plus de 50 % des annonces concernent l’Ile-de-France. Ce chiffre atteignant 60 % pour les métiers du big data comme «consultant data», «data scientist», «data analyst», «ingénieurs data». Néanmoins, certaines régions se démarquent comme les régions PACA et Bretagne pour la cybersécurité. Des entreprises de tous secteurs d’activité diffusent ces offres mais c’est le secteur des activités informatiques qui logiquement  prend la tête devant le secteur de l’ingénierie-R&D. La cybersécurité se démarque des deux autres domaines, car le secteur des activités informatiques y est moins majoritaire. Ainsi, un tiers des offres émanent des transports (automobile, aéronautique), de l’ingénierie et des équipements électroniques. Les auteurs de l’étude explique cette spécificité en raison du développement de l’Internet des objets (IoT).

Sophie Hoguin