La mauvaise nouvelle est arrivée de Californie. Les chercheurs de l’Université à Irvine ont étudié l’influence des rayons cosmiques sur des souris. Les cobayes ont été soumis à des radiations de particules à haute énergie. Menées au Laboratoire national de Brookhaven à New York, ces expériences ont provoqué une inflammation du cerveau des souris. Les résultats publiés dans la revue Science Advances précisent grâce à des scanners comment la structure même des neurones est modifiée, de quoi perturber la transmission du signal nerveux. La conséquence directe est une diminution de la capacité d’apprentissage.
Toutefois, ces symptômes ne surviennent qu’au bout de plusieurs mois, une exposition de courte durée reste donc acceptable. Sauf qu’un voyage vers Mars implique aux voyageurs de s’exposer un à deux ans. Trop long. Pour Charles Limoli, co-auteur de l’étude menée justement dans le cadre du programme de recherche de la Nasa sur les séjours spatiaux de longue durée, « Ces radiations cosmiques pourraient altérer les capacités cognitives des astronautes pendant toute leur vie ». De toute façon, l’efficacité des astronautes est de facto remise en cause. Comment être sûre qu’ils seront aptes à effectuer les manœuvres nécessaires s’ils souffrent de déficit de mémoire, de difficultés de concentration ou pire, de pertes de connaissance ?
Ces travaux, bien que menés sur des souris, alertent sur la dangerosité pour l’homme de s’exposer aux rayons cosmiques plusieurs mois. Faut-il abandonner les voyages vers la planète rouge pour autant ? Pas forcément. Il reste à réfléchir au renforcement de la protection des engins spatiaux qui pourraient suffire à limiter l’exposition aux radiations des voyageurs.
L’année 2015 verra-t-elle le risque amiante pris en charge dans tous les pays européens ? Rien n’est moins sûr, si l’on en croit un rapport publié jeudi 30 avril par la branche Europe de l’Organisation mondiale de la santé (OMS). Parmi les 53 pays européens, 16 continuent à l’autoriser, tandis que les autres disposent de réglementations plus ou moins exigeantes.
Encore une bonne résolution qui prend l’eau: en 2010, les 53 pays de la zone Europe de l’OMS s’étaient engagés, dans le cadre de la cinquième conférence ministérielle sur la santé et l’environnement organisée à Parme (Italie), à mettre en place, d’ici 2015, des législations en vue d’éliminer les maladies liées à l’amiante. Ce qui exigeait, au minimum, d’interdire l’usage de ce matériau.
Nous en sommes bien loin, comme le révèle le rapport de L’OMS Europe publié en marge d’une réunion organisée à Haïfa (Israël), qui s’est terminée jeudi. Sur les 53 pays de la zone Europe, 16 n’interdisent toujours pas l’amiante. Il s’agit pour la plupart d’anciennes républiques soviétiques, dont la Russie, la Géorgie, l’Ukraine, la Biélorussie, l’Ouzbékistan, le Kazakhstan, mais aussi l’Albanie et la Bosnie-Herzégovine. Pur l’OMS, «un Européen sur trois au moins peut être exposé à l’amiante dans son milieu de travail et dans l’environnement».
Même parmi les pays ayant interdit l’amiante, la situation est loin d’être idéale: seuls 62% de ceux l’ayant interdit disposent de plans pour mettre fin aux maladies liées à ce matériau, objectif principal de l’OMS pour 2015. Et 32% ont mis en place des mesures pour empêcher l’exposition du public lors du désamiantage des bâtiments, du transport et de la gestion des déchets.
Un risque professionnel encore ignoré
Aucun des pays continuant à autoriser l’amiante ne dispose de tableaux des maladies professionnelles: dès lors, le mésothéliome ne peut y être reconnu comme tel. Pire, aucun d’entre eux ne distingue cette maladie des autres cancers dans ses registres cancers. Mais même parmi les pays interdisant l’amiante, 23% ne reconnaissant pas officiellement le mésothéliome comme une maladie professionnelle.
Pour la directrice régionale de l’OMS pour l’Europe, Zsuzsanna Jakab, «nous ne pouvons pas nous permettre de perdre près de 15.000 vies chaque année en Europe, surtout des travailleurs, en raison des maladies causées par une exposition à l’amiante».
«Chaque décès de ce type est évitable (…) Nous exhortons tous les pays à remplir les engagements pris en 2010, et ce dès la fin de la réunion de Haïfa, et à élaborer pour la fin de l’année des politiques qui permettront d’éliminer les maladies liées à l’amiante en Europe. Il reste très peu de temps pour cela», ajoute Zsuzsanna Jakab.
Selon l’OMS, la moitié des 15.000 décès annuels liés à l’amiante dans les 53 pays européens seraient liés au mésothéliome, devant divers autres cancers (poumon, ovaire, larynx) et l’asbestose. Le mésothéliome constitue un réel fardeau économique pour les États: parmi les 15 plus pays les plus peuplés de l’Union européenne, l’OMS estime qu’il coûte à lui seul plus de 1,68 milliard d’euros par an.
Il coûte 95897€. Le dispositif capable de compenser la dégénérescence de la rétine est hors de portée de nombreuses finances. Pourtant, l’Argus II fonctionne et les patients atteints de maladie dégénérative de la rétine peuvent retrouver la capacité de discerner des formes grâce à lui et ainsi retrouver une autonomie perdue. Grâce à l’arrêté du 14 août 2014 et la prise en charge à 100%, des malades français peuvent enfin profiter du cet œil bionique.
Les trois premiers patients viennent tout juste d’être opérés. L’un a été pris en charge au centre hospitalier universitaire (CHU) de Strasbourg le 22 janvier, les deux autres, une femme de 70 ans et un homme de 72 ans ont été opérés au CHU de Bordeaux. Ces français sont atteints d’une rétinopathie pigmentaire, c’est-à -dire que l’œil et les bâtonnets rétiniens ne remplissent plus leur rôle du fait de leur dégénérescence. Or ce sont eux qui convertissent la lumière en impulsions, transmises au cerveau via le nerf optique. Les malades atteints par cette maladie commencent à perdre la vision nocturne puis voient leur champ de vision rétrécir. A terme, ils peuvent perdre la vue.
Suite à leur opération, alors que les patients du CHU de Bordeaux ne discernaient qu’un simple halo lumineux, ils sont désormais capables distinguer les ombres des personnes dans leur environnement proche, et ce en à peine deux semaines de convalescence.
L’implant rétinien développé par la société américaine Second Sight consiste en une petite caméra positionnée sur des lunettes portées par le patient. L’image est transmise par connexion sans-fil à l’implant, lui-même connecté au nerf optique par des électrodes. Ces dernières émettent des impulsions électrique et stimule les cellules encore fonctionnelles de la rétine en contournant celle déficientes.
En 2015, une trentaine d’autres patients français pourront bénéficier de la prise en charge à 100% de la pose de l’implant.
Le « FlexShapeGripper », le bras robotique capable de manipuler n’importe quel objet ;
Contrôler le bras d’une autre personne ? Un jeu d’enfant grâce à la neuroscience ;
Snuff movie high-tech : l’Apple Watch passe un très mauvais quart d’heure ;
Le gadget (inutile ?) de la semaine : l’impossible machine de Rube Goldberg, vue par Zach King ;
Et en bonus cette semaine, nos cousins les chimpanzés, espiègles et dégourdis.
Le « FlexShapeGripper », le bras robotique capable de manipuler n’importe quel objet
Pour débuter notre quatre-vingtième (!) Revue du Web, commençons par rendre une petite visite à la jeune start-up allemande Festo, spécialisée dans le développement et dans l’innovation des mouvements robotiques. Dernier né de leur laboratoire de recherche, le bien-nommé « FlexShapeGripper » entend s’inspirer des propriétés de la langue du caméléon pour saisir et déplacer aisément des objets sans les abîmer, aussi fragile soient-ils, quelle que soit leur forme.
Similaire de prime abord au « coffee ground gripper », le bras robotique de Festo et son embout silicone ne nécessitent par contre pas de machine à vide pour attraper puis maintenir les objets en l’air, bien que le principe de succion reste le même. L’embout est ici rempli d’un fluide, épousant la forme des objets à manipuler, allant même jusqu’à permettre de saisir plusieurs objets en même temps, et de les déposer ensemble, sans la moindre intervention extérieure.
Les ingénieurs de Festo n’en sont pas à leur coup d’essai, le « FlexShapeGripper » vient en effet s’ajouter au bestiaire déjà fantastique de la compagnie allemande, composé d’un goéland robot plus vrai que nature dont nous vous parlions ici, d’une très élégante libellule robotique que vous pouvez retrouver là ainsi que d’un étonnant kangourou bionique.
Le « FlexShapeGripper » de Festo
Le « Coffee ground gripper »
Contrôler le bras d’une autre personne ? Un jeu d’enfant grâce à la neuroscience !
Greg Gage a le sens du spectacle. Lors d’une conférence TED (Technology, Entertainment and Design) à Vancouver, en mars dernier, le neuroscientifique américain a su captiver son auditoire tel un bateleur de haut niveau. Oui, mais comment ? En faisant monter deux volontaires sur scène pour une démonstration pour le moins impressionnante.
Greg Gage enregistre d’abord, à l’aide d’une électrode placée sur un nerf, l’information envoyée par le cerveau de la première cobaye à son bras, sous la forme d’une impulsion électrique, lorsqu’elle décide de relever son poing. Il attache ensuite un autre jeu d’électrodes sur le bras d’un deuxième cobaye, au niveau du même nerf, afin de connecter son bras au cerveau de la première cobaye. Lorsqu’elle reprend le même mouvement du poing, l’impulsion électrique envoyée par son cerveau serait en mesure de commander le bras de son compagnon d’infortune, à son grand dam.
Snuff movie high-tech : l’Apple Watch passe un très mauvais quart d’heure
La franchise « Will it blend ? » reprend du service ! La série de petites vidéos old-school faisant l’apologie de la destruction des objets de notre quotidien, campagne de pub virale assez réussie pour le compte du fabricant américain Blendtec, a tant et si bien marché que cette petite phrase est devenue le mantra de toute une génération d’internautes turbulents. Replongeons tout entier dans le plaisir jouissif et enfantin du saccage pur et dur avec cette vidéo, démontrant (si toutefois il en était besoin) que le nouveau joujou du géant à la pomme, l’Apple Watch, n’a aucune chance une fois placée dans le blender. Tom Dickson, fondateur de Blendtec, entame même une petite conversation avec l’application Siri, juste avant le chant du cygne de la montre connectée, qui finit sans surprise pulvérisée.
Tom Dickson n’a pourtant pas le monopole du snuff movie high-tech. D’autres se sont infiltrés dans la brèche, et si vous n’êtes pas encore convaincus qu’une Apple Watch, de l’azote liquide et une masse ne font pas bon ménage, vous allez être servis.
Le gadget (inutile ?) de la semaine : l’impossible machine de Rube Goldberg, vue par Zach King
Vous connaissez sûrement Zach King, le champion du monde toutes catégories confondues des vidéos sur Vine, l’application de Twitter hébergeant et permettant de créer des vidéos de six secondes. Redbull a fait appel aux multiples talents du jeune réalisateur américain pour venir réinventer la désormais classique machine de Goldberg, habituée de notre rubrique du gadget (inutile?) de la semaine. Zach King s’est fendu d’un petit clip venant dépoussiérer l’œuvre de Rube Goldberg, ajoutant volontiers une touche surréaliste à l’ensemble.
Ce type d’installation s’inspire, on le rappelle, de l’œuvre prolifique et inventive de Rube Goldberg, un dessinateur et artiste américain mort en 1970, dont les installations avaient pour leitmotiv la transformation d’une tâche excessivement simple en une série de petites tâches complexes, impliquant la plupart du temps une réaction en chaîne. Chaque élément de la machine vient se frotter d’une manière ou d’une autre à l’élément suivant, remplissant humblement sa fonction, jusqu’à déclencher de fil en aiguille l’action finale, le but initial de la machine de Rube Goldberg.
Bonus : nos cousins les chimpanzés, espiègles et dégourdis
Pour venir conclure notre quatre-vingtième Revue du Web, direction la ville de Arnhem, aux Pays-Bas, petite agglomération qui abrite le zoo royal de Burgers, l’un des plus grands et l’un des plus visités du pays. Parmi les pensionnaires du zoo, on retrouve de nombreux animaux habitués de ce genre de structure, dont un gang de quatorze chimpanzés… très à cheval sur la notion de vie privée. Lorsque la direction du zoo décide d’observer au plus près la petite communauté en survolant leur enceinte à l’aide d’un drone, c’était sans compter sur l’éventuel désaccord des singes eux-mêmes.
A la tête de la rébellion, Tushi, une femelle de vingt-trois ans, s’est armée d’une branche d’arbre en guise de gourdin, et attend patiemment que le drone passe à portée de bâton. Il suffira de deux essais au chimpanzé pour que le bolide ne finisse sa course à terre. Fin de vie pour le drone, tandis que la GoPro s’en sort intacte. Tushi, elle, fière de son forfait, finit par se désintéresser du drone défait, tombé au champ d’honneur.
Mais nos amis les singes n’en restent pas là. Dans le parc national de Kibale, en Ouganda, un petit groupe de chimpanzés fait preuve d’une attention toute particulière lorsqu’il s’agit de traverser la route. Chaque singe regarde ostensiblement à droite et à gauche, presque plus prudents que bon nombre de nos congénères. Nul doute que les chimpanzés ont dû apprendre à s’adapter à ces installations « anti-naturelles », et ce avec brio. Prochaine étape : traverser sur un passage piéton, un peu moins près de la sortie d’un virage.
Le gazole, carburant le plus vendu dans le pays, valait en moyenne 1,2323 euro le litre, soit 0,76 centime de plus que la semaine précédente, et son niveau le plus élevé depuis la semaine du 14 novembre, d’après les relevés hebdomadaires du ministère de l’Ecologie et de l’Energie.
Le litre d’essence sans plomb 95 (SP 95) a augmenté de 1,03 centime, à 1,4367 euro, un sommet depuis la semaine du 17 octobre, tandis que celui du sans plomb 98 s’est affiché à 1,4954 euro, en hausse de 1,12 centime par rapport à la semaine précédente, un niveau qu’il n’avait plus atteint depuis la semaine du 24 octobre.
Les cours du pétrole brut ont globalement continué leur rebond la semaine dernière, soutenus par la progression moins importante que prévu des stocks de brut aux Etats-Unis et l’annonce d’une nouvelle réduction du nombre de puits en activité dans le pays. Ils ont toutefois marqué une pause vendredi, qui a limité leurs gains hebdomadaires.
Vendredi en fin d’échanges européens, le baril de Brent de la mer du Nord pour livraison en juin valait ainsi 65,94 dollars, contre 66,38 dollars la veille et 65,21 dollars le vendredi précédent.
Si depuis le début de l’année, les marges de raffinage en France sont plus élevées qu’en 2014, les marges de transport et de distribution restent relativement stables, selon le ministère de l’Ecologie et de l’Energie.
Selon les derniers chiffres disponibles, qui datent du 24 avril, la marge brute de raffinage était ainsi de 10 centimes par litre pour le gazole comm le super sans plomb 95. En mars, elle s’élevait en moyenne à 11 centimes pour le gazole et 10 centimes pour le SP 95, alors qu’en 2014, elle était de 8 centimes pour le gazole et 6 centimes pour le SP 95.
La marge brute de transport et de distribution était de 8,3 centimes par litre pour le gazole et de 10 centimes pour le SP 95 la semaine du 24 avril, contre 9 centimes et 10 centimes respectivement en mars, et 8 centimes et 10 centimes en moyenne en 2014.
Cette 20e foire se tient alors que les grandes compagnies internationales attendent la conclusion d’un accord sur le nucléaire pour revenir dans le pays, qui possède les quatrième plus importantes réserves de pétrole et les deuxièmes de gaz après la Russie.
Selon le ministère du Pétrole, quelque 1.200 sociétés iraniennes et 600 compagnies étrangères, notamment du Royaume-Uni, de France, de Chine, de Russie, de Singapour ou des Emirats arabe unis, se sont enregistrées pour cette foire de quatre jours. Mais aucun délégué américain ou saoudien ne sera présent, selon un porte-parole du ministère.
Le ministre du Pétrole Bijan Zanganeh, qui ouvrira la manifestation mercredi, cherche à attirer davantage d’investisseurs étrangers pour développer l’industrie des hydrocarbures afin d’augmenter les exportations du pays. Il veut notamment développer les champs pétroliers et gaziers de South Pars, situé dans le Golfe et commun avec le Qatar, et de West Karoun dans le sud-ouest.
Téhéran doit présenter dans les prochains mois un nouveau type de projet plus attractif pour faire revenir les compagnies internationales ayant quitté l’Iran en raison des sanctions occidentales à cause du programme nucléaire.
L’Iran et les grandes puissances du groupe 5+1 (Etats-Unis, France, Royaume-Uni, Russie, Chine et Allemagne) ont repris les négociations pour finaliser d’ici fin juin les détails d’un accord global sur le programme nucléaire iranien.
Les ventes iraniennes de pétrole sont actuellement d’environ 1,2 million de barils par jour (mbj) contre 2,5 avant l’entrée en vigueur des sanctions occidentales fin 2011. M. Zanganeh a récemment déclaré que l’Iran pourrait augmenter d’un million de barils ses exportations après un accord sur le nucléaire.
Mais il est difficile d’évaluer les perspectives pour l’Iran avec un baril de pétrole à moins de 60 dollars et un marché qui connaît une offre surabondante.
La matière noire, qui composerait 85% de l’Univers, et dont on pense qu’elle pourrait expliquer la formation des grandes structures et maintenir les étoiles à l’intérieur des galaxies, demeure, en raison de son caractère hypothétique et invisible, bien mystérieuse. Depuis que l’astronome Fritz Zwicky, en cherchant la masse de l’amas de la Chevelure de Bérénice, a découvert un écart entre la masse dite dynamique et la masse dite lumineuse pouvant s’expliquer par la présence d’une matière invisible, les scientifiques n’en ont pas appris beaucoup à son sujet.
Aujourd’hui, un nouvel élément de connaissance va peut-être venir s’ajouter aux maigres informations que l’on a sur elle. Cela, grâce aux observations transmises par le Très Grand Télescope (VLT) de l’Observatoire européen austral ainsi que le télescope Hubble. Ces derniers ont détecté un retard de la matière noire estimé à 5 000 années-lumière par rapport à l’une des galaxies qu’elle englobait après une collision avec trois autres galaxies situées dans l’amas de galaxies Abell 3827 éloigné d’1,3 milliards d’années-lumière de la Terre.
Première explication possible d’après Richard Massey, astrophysicien à l’institut de Cosmologie Computationnelle de l’Université de Durham et co-auteur de l’étude, « la matière noire a été ralentie durant la collision ». Des forces, autres que la gravité, ont potentiellement interagi avec elle, ce qui prouverait qu’elle n’est pas insensible au monde qui l’entoure et pourrait avoir « une physique propre ». Ce qui est une première.
On en apprend donc peut-être un peu plus sur la nature de la matière noire bien qu’elle garde une grande part de mystère. Peut-être, car d’autres causes ne sont pas forcément exclues. Les chercheurs ont l’intention de découvrir et d’observer des phénomènes semblables sur d’autres galaxies. Ces études doivent donc être approfondies et qui sait si le travail des chercheurs avec le Grand Collisionneur de Hadrons (LHC) – l’accélérateur de particules le plus puissant du monde – remis en service très récemment, ne nous apportera pas de nouvelles pistes de réponse d’ici quelques années.
Alors que de nombreuses compagnies proposent le wifi à bord de leurs appareils, la compagnie française reste à la traîne. Il y a quelques jours, Air France reconnaissait du retard dans la mise en route du projet et que le déploiement des connexions wifi ne serait pas effectif avant cet automne. Minimum. Retard technique, hésitations sur le modèle économique ? Les raisons du retard restent floues.
Les compagnies disposent de 2 solutions pour diffuser le signal: utiliser les satellites géostationnaires ou s’appuyer sur un réseau d’antennes au sol. Grâce aux satellites, le signal est diffusé partout, même au dessus des océans. Quand aux antennes, elles sont configurées pour envoyer le signal vers le ciel et couvrir l’espace aérien.
Retard technique, hésitations sur le modèle économique ?
Mais les investissements sont très coûteux. Quelle que soit la méthode choisie, terrestre ou par satellite, il faut compter 100 000$ au bas mot par avion, une dépense qui peut atteindre 500 000$ pour l’approche satellitaire. On comprend tout de suite que ce service est forcément payant. Or, la rentabilité survient à partir du moment où le taux d’utilisation atteint 20%. Un seuil considérablement élevé, surtout que l’on sait qu’aux Etats-Unis où le wifi équipe 85% des avions seuls 8% des passagers y ont recours. Ce faible taux d’utilisation s’explique par une technologie moins performante que ce dont ont l’habitude les usagers : débit bas, connexion parfois interrompue… En outre, dans l’inconscient des gens ce service est gratuit, les passagers sont donc peu enclins à débourser quelques dizaines d’euros selon la durée du vol. Pas de quoi motiver Air France !
Néanmoins, la compagnie française semble maintenir le cap avec le fournisseur d’accès Orange.
En 2010, le cabinet Robert Half publiait une étude indiquant que près de 40% des salariés mettaient le manque d’efficacité d’une réunion sur le compte de l’absence d’ordre du jour. En effet, le minimum est d’indiquer aux participants les sujets qui vont être abordés. Cela permet à chacun de se préparer pour proposer des interventions pertinentes.
2) Convier des personnes non concernées par le topic
Il est admis que pour permettre une prise de décision efficace, le nombre de participants ne doit pas excéder une dizaine de personnes. Au-delà, difficile de trouver un consensus. Inutile donc de rameuter tout l’étage. De plus, les personnes non concernées peuvent interférer dans le débat sans avoir les compétences pour le faire, de quoi agacer tout le monde.
3) Minimiser l’intérêt de la réunion
Ne ratez pas votre intro. Evitez les phrases du genre « c’est une petite réunion », « cela ne durera pas longtemps », cela dévalorise la rencontre. Dans la même ligne, ne reculez pas devant la moindre objection. Si vous avancez une idée, c’est qu’elle mérite au moins d’être débattue. Faites-vous confiance, sinon vous perdrez en crédibilité et démotiverez vos troupes.
4) Ne pas fournir de support visuel
Difficile de suivre le déroulé d’une réunion sans aucun support. Vous pouvez distribuer un ordre du jour en début de réunion, et/ou vous appuyer sur une présentation powerpoint qui illustrera vos propos et permettra de faire vivre la discussion de façon organisée.
5) Ne pas stopper les débordements
Parfois, les discussions peuvent s’enflammer, ou s’éloigner du sujet principal. A vous d’intervenir pour temporiser et recentrer les débats. Attention aussi à ce que tout le monde s’exprime et que la discussion ne se limite pas à un ou deux intervenants qui dominent l’échange.
6) S’éterniser des heures
D’après un sondage de l’Ifop publié fin mars, si une réunion dure plus de 52 mn, les cadres n’écoutent plus rien et préfèrent se consacrer à l’envoi de SMS ou aux échanges de mails. Or, toujours d’après cette étude, une réunion dure en moyenne 1 heure et 19 minutes, soit 27 minutes de trop ! Alors inutile de faire traîner les débats.
7) Bâcler la conclusion
A la fin de la réunion résumez les points abordés, les décisions prises et celles en suspens. Ce bilan est essentiel pour valider la pertinence de la réunion, chacun ayant bien en tête les avancées réalisées. Comme quoi cette réunion était utile.
8) Organiser réunion sur réunion
Les cadres français passent en moyenne 23 jours par an en réunion. Cette réunionite est un mal bien français puisque 70% des entreprises françaises organisent 7 réunions/sem contre seulement 55% des entreprises européennes. Pourtant, de nombreux salariés jugent ces réunions au mieux inutiles, au pire nuisibles car elle les retarde dans leur travail. Mieux vaut donc limiter les réunions.
Certes, elle ne filme qu’une image par seconde et sa résolution n’excède pas 30 x 40 pixels. Pourtant, la caméra développée par les chercheurs américains est un modèle dernier cri. Sa force ? Elle n’a pas besoin de batterie !
En effet, la caméra dispose d’un capteur d’images dont les photodiodes convertissent la lumière incidente pour générer de l’électricité. Ainsi, lors de la prise de vue, les pixels enregistrent l’image puis ils convertissent la lumière en énergie. De quoi alimenter le capteur en temps réel. Cette double utilisation des diodes pour capter la lumière et s’en servir comme générateur d’énergie est innovante. Le capteur doit quand même être chargé initialement, mais une fois mis en route, plus besoin de le recharger. Les photodiodes sont reliées à deux transistors, un microcontrôleur et un circuit de récupération d’énergie. L’ensemble alimente un supercondensateur.
Les équipes du Computer Vision Laboratory sont très enthousiastes car le prototype a été construit à partir de composants du commerce. Ceci signifie qu’en choisissant des éléments optimisés, les paramètres de la caméra doivent pouvoir être grandement améliorés, notamment en ce qui concerne la qualité d’image.
Regarder la vidéo de démonstration de la caméra autonome :
Si la durée diffère selon les individus, le record en la matière (dans le livre Guinness des records) est détenu par Randy Gardner qui a passé 11 jours, soit 264 heures sans sommeil en 1965. À l’époque, Gardner, âgé de 17 ans, étudie en Californie et souhaite savoir ce qui se produit lorsque l’on reste éveillé volontairement.
Il commence donc cette expérience, encouragé par quelques amis avant que des scientifiques, intéressés, ne prennent le relais, le surveillent et notent les effets de cette privation sur sa santé. Les conséquences n’ont pas été aussi graves qu’on pourrait le penser. Il n’a souffert d’aucun problème majeur bien que cette carence intentionnelle ait conduit à nombreux troubles : cognitifs et comportementaux. Il a notamment montré, au cours de l’expérience, des signes de paranoïa, d’irritabilité, de troubles de la mémoire et de difficultés à se concentrer. Les scientifiques lui ont par exemple demandé de soustraire sept continuellement, en partant de cent. Chose qu’il n’a pu finir parce qu’il avait oublié ce qu’il faisait.
L’importance de bien dormir
Trois paramètres sont à prendre en compte : la durée, l’heure du coucher et la qualité du sommeil.
En ce qui concerne la durée du sommeil, elle évolue au cours de la vie et dépend bien sûr de chaque personne. Mais en moyenne, selon les études, un adulte a besoin de dormir 7 à 8 heures par nuit, un adolescent de 10 à 11 heures alors que ce besoin avoisine carrément les 14/15 heures pour les nourrissons. Les premières années de vie seraient cruciales, selon une étude de l’Institut national de la santé et de la recherche médicale (INSERM), car elles détermineraient la qualité du sommeil qu’un individu aurait par la suite. Peut-être est-ce pour cela que nous dormons tant au début de notre vie.
Quant à l’heure du coucher, elle aurait une importance sur le système immunitaire. Se coucher avant minuit et se lever tôt serait donc préférable. Les centenaires auraient tous adopté ce rythme de vie.
Avoir un rythme régulier et faire des cycles complets est primordial pour la santé. Lors d’une bonne nuit, le cerveau traverse trois à cinq cycles d’une durée moyenne de 90 minutes durant lesquels se suivent plusieurs phases : le sommeil léger, le sommeil profond et le sommeil paradoxal. Le sommeil profond est le plus important, il permet au corps de récupérer, de renforcer sa mémoire et de produire l’hormone de croissance nécessaire au développement de l’enfant.
Dormir est indispensable. C’est durant cette période que le cerveau fait le tri des informations acquises au cours de la journée. Le sommeil aide à consolider la mémoire sur le long terme en permettant le transfert des informations de l’hippocampe (connu pour son rôle central dans la mémoire) vers le cortex préfrontal où elles seront pérennisées. Un mauvais dormeur aura donc tendance à oublier plus rapidement.
Les répercussions du manque de sommeil
Comme pour la durée, les effets peuvent varier d’un individu sur l’autre. Mais les symptômes les plus courants sont les sautes d’humeur, la fatigue, du stress et des difficultés à mémoriser les choses apprises. Se priver de sommeil peut également conduire dans les cas les plus extrêmes à la mort. Ou plus exactement, ce sont les conséquences engendrées par le manque de sommeil, lorsque les facultés d’un individu ont diminué à un niveau si bas qu’elles mettent en péril la vie d’un individu.
Le manque de sommeil chronique peut aboutir à un déséquilibre difficilement rattrapable le weekend. S’il s’accumule de trop, une dette de sommeil se créer, favorisant les micro-sommeils et entraînant un risque plus important que pour les bons dormeurs, d’accidents de la route. Le système immunitaire peut en être affecté. Le danger, sur le long terme, est d’augmenter les troubles de la mémoire, surtout chez les personnes âgées.
Aujourd’hui, en France, nous ne dormons en moyenne pas assez : moins de sept heures en semaine. Les causes sont multiples mais il y a sûrement une corrélation avec notre mode de vie toujours plus connecté. Chez les adolescents et chez certains adultes, par exemple, l’apparition des smartphones et tablettes a fait naître de nouveaux comportements qui ont tendance à réduire encore plus notre temps de sommeil. L’utilisation de ces appareils dans le lit, avant de dormir, n’est pas une bonne affaire car ils cassent notre rite d’endormissement (la somnolence, le stade 1) qui est censé être un moment d’apaisement total. Or les écrans lumineux stimulent notre rétine et notre cerveau et nous maintiennent éveillés plus longtemps. Voilà qui peut expliquer pourquoi les lendemains matins se révèlent parfois aussi difficiles et pourquoi nous accumulons petit à petit une dette de sommeil que nous n’aurons pas nécessairement le temps de récupérer.
L’association Sciences en marche s’est penchée sur l’impact du Crédit Impôt Recherche, un dispositif censé doper l’embauche des scientifiques et l’innovation française, sur l’emploi scientifique ainsi que la R&D privée. Autant dire tout de suite que leurs conclusions sont accablantes, pour le dispositif lui-même mais aussi pour les entreprises de plus de 500 salariés soupçonnées d’opportunisme malhonnête.
D’après les travaux menés par l’association et présentés devant la commission d’enquête parlementaire créée pour l’occasion, « Il n’existe aucune corrélation entre la création d’emplois en R&D et la créance de CIR », tant pour les chercheurs que pour le personnel de soutien. Pire, les entreprises de moins de 500 salariés, qui ne bénéficient que de 37% du CIR, sont à l’origine de la création de 82% des 30000 emplois en R&D créés entre 2007 et 2012. Les grandes entreprises de plus de 500 employés (GE), bénéficiaires de plus des deux tiers des financements n’ont créé que 18% des emplois. Un déséquilibre regrettable, qui témoigne d’une différence de coût de l’emploi considérable. Ainsi, un emploi créé grâce au CIR dans une PME coûte 60 000€/an, contre 450 000€/an pour un emploi dans une GE ! Et les mauvaises nouvelles ne s’arrêtent pas là. En comparant l’évolution de l’emploi avec l’Allemagne les chercheurs ont constaté une évolution similaire, alors que l’Allemagne ne propose pas de dispositif équivalent au CIR. Autrement dit, les emplois créés l’auraient été de toute façon.
De quoi remettre sérieusement en cause le CIR
De quoi remettre sérieusement en cause le CIR. D’autant que certains secteurs, pourtant bénéficiaires du CIR, perdent des emplois. C’est le cas du secteur des industries pharmaceutiques qui comptabilise une perte de 700 emplois R&D par an. Est-il réellement opportun de financer un secteur qui diminue sa masse salariale ?
Il existe quand même des secteurs qui créent des emplois et pour qui les aides du CIR semblent utiles. Ainsi 80% des emplois créés sont concentrés dans les branches « Activités informatiques et services d’information » et « Activités spécialisées, scientifiques et techniques ». Mais là encore, l’intérêt du CIR est remis en question par des soupçons de fraude. La Cour des comptes a d’ailleurs remis un rapport lui aussi accablant estimant que 15% des dossiers traités sont potentiellement frauduleux, le secteur de l’informatique étant cité comme le plus touché par cette dérive. Sciences en marche a quand à elle constaté une explosion des recrutements de cadres de R&D en 2007, avec un pourcentage d’embauche de 24% alors qu’il stagnait autour de 5% les 5 années précédentes. Cette hausse brutale, stabilisée autour de 25% par an, pose questions. S’agit-il d’une modification de la définition du périmètre de la R&D dans la loi ou bien à une fraude fiscale massive ? Cette augmentation anormalement élevée ne trouve pas de justification logique puisque le pourcentage de postes de chercheurs créés ne dépasse pas 5% du nombre total de cadres recrutés.
Les conclusions du rapport ne laissent plus place au doute, le CIR est un dispositif inefficace et détourné par les GE. Il est donc urgent de cibler les entreprises qui en bénéficient réellement pour développer leur activité R&D.
Restrictions – Publication au journal officiel de la restriction concernant le plomb dans les articles grand public susceptibles d’être mis en bouche par les enfants. (règlement (UE) N°628/2015 du 22 avril 2015 mettant à jour l’annexe XVII de REACH). Cette restriction s’appliquera pour les articles mis sur le marché pour la première fois à compter du 1er juin 2016. Elle comporte également un certain nombre de dérogations (clés, serrures, instruments de musique, articles religieux, batteries et piles bouton, jouets, pierres précieuses…
Cette semaine, une revue du Web un peu particulière, venant célébrer le Japon, son excellence et sa culture parfois… délicieusement décalée :
Tuttuki Bako, un jeu électronique sans arrière-pensées ;
Hebocon, duel au sommet entre les pires robots de la planète ;
« White Goat », le mastodonte du papier recyclé, du bureau aux toilettes ;
La cuisine facile et rapide, avec le canon à crevettes ;
Le gadget (inutile?) de la semaine : un (petit) coup de pouce pour tenir votre smartphone ;
Et en bonus cette semaine : le long courrier camouflage, aux couleurs de R2D2.
Tuttuki Bako, un jeu électronique sans (aucune) arrière-pensées :
Pas de chichi, débutons cette Revue du Web consacrée au Japon avec Tuttuki Bako, un petit boîtier coloré développé par le géant japonais du jouet Bandai. A première vue, Tuttuki Bako semble n’être rien de plus qu’une petite horloge flashy, sans grand intérêt. Erreur ! Si le boîtier fournit effectivement l’heure – et peut accessoirement servir de réveil matin – ce ne sont pas ces fonctionnalités sur lesquelles nous allons nous pencher. Le bouton en façade permet de changer de mode… un mode ô combien plus intéressant. Derrière le réveil se cache en fait… le meilleur jouet électronique du monde.
Car il n’y a ni manette, ni bouton de contrôle ou joystick, tout se concentre au niveau du trou situé sur le côté droit du boîtier, et c’est le doigt du joueur qui va servir de moyen de contrôle, jusqu’à apparaître grossièrement pixelisé sur l’écran à cristaux liquides ! Les six centimètres de profondeur du trou (pour 24 millimètres de diamètre) hébergent un petit contingent de capteurs de mouvement, permettant de détecter l’intrus et de le modéliser – presque – en temps réel sur l’écran, faisant de Tuttuki Bako un maillon tangible de la grande histoire de la réalité augmentée.
Le menu nous laisse le choix entre essayer de faire éternuer une fille, aider un panda à faire de la balançoire, faire rebondir une substance visqueuse ou encore se battre contre un petit personnage féru de karaté. On vous laisse maintenant admirer le clip de présentation, réalisé puis monté sans arrière-pensées.
Hebocon, duel au sommet entre les pires robots de la planète :
Fin 2014, un événement sans commune mesure s’est tenu en marge de la 18ème édition du festival Japan Media Arts. Si vous ne jurez que par les robots dernier cri, passez votre chemin. Hebocon est un tournoi organisé pour tous les bras cassés de l’électronique ainsi que pour tous les derniers de la classe en robotique et en programmation, où trente-et-un des pires robots ayant jamais foulé le sol japonais ont pu s’affronter dans des combats à mort. Des duels au sommet où non seulement les participants furent encouragés à jouer la carte du low-tech pour leur poulain, mais où chaque fonctionnalité un tant soit peu high-tech entraînait une pénalité. Les trente-et-un participants se sont de fait creusés les méninges pour pallier leur manque évident de savoir-faire.
Sur le modèle des combats de sumotoris, les pires robots querelleurs ont donc fait parler la poudre dans des affrontements à l’issue plus ou moins hasardeuse. Difficile de miser tous ses jetons sur le robot Barbie karatéka hélicoptère plutôt que sur le robot cloporte, sur le robot « Amazing quick floor » (un morceau de carton posé sur deux mini jeeps téléguidées, favori du tournoi) plutôt que sur la boite de mouchoirs montée sur vibromasseurs. Sans oublier le fabuleux robot qui secoue de la soupe lyophilisée, ainsi que le robot… enregistreur. L’amusement prend vite le dessus sur la compétition, qui se transforme peu à peu en une célébration joyeuse de la nullité assumée.
« White Goat », le mastodonte du papier recyclé, du bureau aux toilettes :
Recycler du papier de bureau en papier toilette : l’idée de départ de la société japonaise Oriental semblait plutôt bonne. Pourtant, leur poulain, « White Goat » de son petit nom, cumule les tares. La bête se nourrit donc de papier bureau standard (compter quarante feuilles) qu’elle digère pendant une demi-heure, puis qu’elle régurgite sous la forme d’un bon vieux rouleau de papier toilette tout frai, tout neuf. L’imposante machine broie d’abord les feuilles, puis les dissout dans l’eau avant d’affiner la pulpe obtenue, puis de la sécher et de l’enrouler autour d’un cylindre en carton. D’après Oriental, le coût de revient d’un rouleau serait d’environ 10 centimes d’euro, et le mastodonte permettrait même de sauver une soixantaine de cèdre par an.
Alors que les Français produisent chaque année au bureau près de 900 000 tonnes de déchets de papiers, plus de 50 % de ces déchets n’est toujours pas collectée ni recyclée. Mais est-ce un mastodonte de presque deux mètres de haut, au rendement d’un rouleau par demi-heure, consommant son lot d’électricité et d’eau, et coûtant la bagatelle de 100 000 dollars qui pourra changer la donne ?
La cuisine facile et rapide, avec le canon à crevettes :
Puisque rien ne semble vouloir arrêter la douce folie nippone, jetons un œil amusé sur les spots publicitaires que nous a concocté le leader japonais des opérateurs mobiles, NTT Docomo. N’espérez pas quelque chose de sobre : l’opérateur a voulu marquer les esprits avec un premier clip flashy, vantant la qualité de son offre de téléphonie 4G… à l’aide d’une installation expérimentale faisant la part belle à un splendide canon à crustacés, permettant de cuisiner de délicieuses crevettes grillées en à peine trois secondes, montre en main.
Méticuleuses et munies de lunettes de protection, les deux présentatrices semblent ne pas bien savoir sur quel pied danser, entre vraie fausse vidéo de cuisine, fausse vraie vidéo d’expérimentation scientifique et publicité parodique à la réalisation nerveuse.
Si vous n’êtes pas encore rassasiés, l’opérateur mobile japonais a récidivé avec un spot publicitaire alternatif présentant une autre installation et une autre recette de cuisine expéditive sauce nippone. Le canon ne martyrise cette fois-ci aucune crevette, mais se concentre sur la chair des gyozas, ces délicieux raviolis japonais. Propulsion, assemblage, assaisonnement et cuisson des petits raviolis en moins de trois secondes. Idéal si vous êtes pressés.
Le gadget (inutile?) de la semaine : un (petit) coup de pouce pour tenir votre smartphone
La tendinite du pouce, vous connaissez ? Également appelée « textonite », cette nouvelle pathologie toucherait les adeptes chevronnés de l’envoi de SMS, ainsi que les utilisateurs de smartphones en général. Autre problème de taille rencontré par les possesseurs de téléphones intelligents, la fameuse crampe de l’avant-bras, à force de tenir le petit terminal devant soi, à bout de bras, afin de regarder quelques nouvelles inepties. Notre gadget (inutile?) de la semaine vient apporter une solution tout en nuances – et à la japonaise – à ce problème, rencontré par les générations connectées, solution qui nous rappelle notre tout premier gadget inutile de la semaine.
Dans la plus pure lignée du « chindōgu », cette fâcheuse manie élevée au rang d’art qu’ont certains inventeurs à créer des objets « utiles mais inutilisables », répondant efficacement mais de manière inappropriée ou ridicule aux menus problèmes de notre quotidien, cette prothèse en forme de tête de cygne permet de garder son smartphone à vue, tout en vous laissant la possibilité de vous la couler douce, vos deux mains complètement libres de ne rien faire. Perçus comme « de véritables manifestes de résistance politique, économique et poétique », les chindōgus sont autant de petits bijoux dont la fonction est aussi évidente qu’elle insulte le sens pratique.
Poisson d’avril ou vrai gadget ? Peu importe, la vidéo est tout simplement magique.
Bonus : le long courrier camouflage, aux couleurs de R2D2
En bonus de cette Revue du Web un peu spéciale, penchons-nous sur l’art et la manière de célébrer l’expansion d’une compagnie aérienne vers de nouveaux marchés internationaux. La société de transport aérien All Nippon Airways (ANA, pour les intimes) a décidé de voir les choses en grand, en présentant sa nouvelle flottille de 787 Dreamliner, l’avion long-courrier du géant américain Boeing. Mais qu’ont-ils de si spécial ?
Rien à signaler niveau mécanique, puisque c’est du côté du design qu’il faut chercher la nouveauté. Et elle saute aux yeux, puisque les long-courriers ont été totalement relookés en R2-D2, le célèbre robot bruitiste de la franchise à succès Stars Wars. La saga de George Lucas et la compagnie aérienne japonaise se retrouvent liées autour de ce « Projet Star Wars », une collaboration sur cinq ans qui devrait probablement donner naissance à d’autres appareils grimés selon une thématique « Guerre des Étoiles ». Pour rappel, ce n’est pas la première fois que All Nippon Airways décide de relooker certains de ses long-courriers, avec ses « Pokémon Jets » ultra-colorés.
Un jour, par hasard, après avoir installé Android Wear (le système d’exploitation de Google destiné aux appareils intelligents) sur son nouveau bracelet connecté, Roman Unuchek, chercheur chez Kaspersky Lab, réussit à se connecter… au bracelet d’un collègue.
Décidé à “réaliser une petite expérience”, le spécialiste en sécurité part du principe que la majorité des bracelets connectés fonctionnant sous Android 4.3 (ou une version ultérieure) communiquent avec d’autres appareils, comme un smartphone, via la technologie Bluetooth LE, ou “Bluetooth Smart”. “Cela signifie que la connexion entre les appareils ne s’opère pas de la même manière que dans une connexion Bluetooth classique. Il n’y a pas de mot de passe de jumelage. En effet, ces bracelets possèdent rarement un écran et/ou un clavier”, écrit-il sur le blog de Kaspersky Lab.
Une méthode d’authentification fragile
Selon Roman Unuchek, la méthode d’authentification employée dans plusieurs modèles courants permet à un tiers de se connecter de manière invisible au bracelet.
“Ces bracelets utilisent le profil d’attribut générique GATT (Generic Attribute Profile). Autrement dit, le bracelet contient une certaine sélection de services et chaque service possède un ensemble de caractéristiques. Chacune des caractéristiques contient un tampon d’octets et une liste de descripteurs. Chaque descripteur contient une valeur, le tampon de données”, explique le chercheur. Partant de ces observations, le chercheur a développé une application, qui cherchait automatiquement les appareils Bluetooth LE, et tentait de s’y connecter “pour obtenir la liste des services”.
A partir de son application, Roman Unuchek a réalisé des “balayages”. Il a ainsi passé deux heures dans le métro de Moscou – où il a réussi à se connecter à 19 appareils (11 FitBit et 8 Jawbone). “Pendant une heure dans une salle de sport de Bellevue, dans l’État de Washington aux Etats-Unis, ce sont 25 appareils qui ont été détectés : 20 Fitbit et un exemplaire de chacune des marques suivantes : Nike, Jawbone, Microsoft et Polar”, indique le chercheur.
Pour se connecter aux bracelets, Roman Unuchek a donc détourné la méthode d’authentification de ces appareils. Pour que la connexion s’établisse, l’utilisateur du bracelet doit la confirmer en appuyant sur son bouton d’appairement. ”Des pirates peuvent facilement contourner cette protection car la plupart des bracelets connectés récents sont dépourvus d’écran. Lorsque le bracelet vibre pour demander à son propriétaire de valider l’appairement, celui-ci n’a aucun moyen de savoir s’il s’agit d’une connexion avec son propre smartphone ou avec un autre”, explique-t-il.
Commandes éxécutées, données extraites et actions malveillantes
Ensuite, remarque Roman Unuchek, “il est facile d’exécuter des commandes sur l’appareil après l’authentification”. Il était par exemple capable de changer l’heure du bracelet. Il serait aussi possible d’extraire des données de l’appareil.
“Il semblerait que les fabricants de ces appareils ne se soucient pas beaucoup de la sécurité. Imaginez le cas d’un bracelet doté d’un capteur de fréquence cardiaque : si le propriétaire d’un magasin parvient à accéder aux données du bracelet, il pourra analyser les variations de la fréquence cardiaque de l’acheteur lorsque celui-ci voit une offre spéciale dans le magasin. Ceci est un bon moyen pour connaître la réaction du public par rapport à une publicité”, lance l’expert de Kasperky. Et d’ajouter : “un bracelet connecté doté d’un capteur de fréquence cardiaque qui a été compromis peut également servir de détecteur de mensonge.”
L’expert indique également que l’utilisateur d’un bracelet connecté est aussi susceptible d’être victime d’actions “plus malveillantes”, comme l’utilisation d’un malware permettant à un pirate de “prendre les commandes du bracelet et de le faire vibrer en permanence – le seul moyen d’interrompre ce comportement étant le versement d’une somme d’argent.”
Le monde bouge beaucoup à l’échelle des cellules. Même dans les tissus épithéliaux, où les cellules ont plutôt la réputation d’être collées les unes aux autres et d’être bien « rangées », elles migrent et se déplacent lorsque le contexte s’y prête, que ce soit pour fermer une blessure ou du fait d’un environnement tumoral. Elles se déplacent alors collectivement en restant attachées les unes aux autres et empruntent le chemin le plus facile pour elles, ce qui les conduit souvent à s’enrouler autour d’un vaisseau, d’une fibre ou d’un nerf. « Cette configuration est en fait assez commune in vivo. Lorsque des cellules partent d’une tumeur collectivement, elles empruntent fréquemment un chemin le long et autour des vaisseaux sanguins, nerfs ou fibres musculaires », rappelle Pascal Silberzan, directeur de recherche CNRS, chef de l’équipe Physicobiologie aux méso échelles. Son équipe développe des systèmes modèles pour reproduire et étudier in vitro les comportements cellulaires. Intrigués par ces mouvements collectifs des cellules, ils ont donc fabriqué des fibres en verre dont le diamètre varie depuis moins de 1 μm jusqu’à 100 μm et sur lesquelles les cellules peuvent migrer en masse.
Lorsqu’elles migrent le long de ces fibres, les cellules changent drastiquement leur architecture interne et développent des anneaux protéiques perpendiculaires à la direction principale. En outre leur vitesse dépend fortement du rayon avec un maximum pour un diamètre de quelques microns, ce qui reproduit une des caractéristiques marquantes de la migration collective in vivo.
Mais un autre phénomène se produit dans ces conditions: en effet, les chercheurs ont observé que, à ces faibles diamètres, les cellules du front de migration ont tendance à se détacher des autres. De tels « détachements » sont également observés lors de la progression tumorale. « En perdant cette capacité d’adhésion entre elles, les cellules changent de phénotype et se déplacent à très haute vitesse », décrit Hannah Yevick, doctorante dans l’équipe et premier auteur de ce travail. La transition épithélio-mésenchymateuse représente pour les cellules tumorales le premier pas vers la dissémination. Est-ce que les courbures extrêmes rencontrées par les cellules lors de cette « migration funambule » pourraient induire cette transition épithélio-mésenchymateuse ? Histoire à suivre.
Il existe plus de 200 millions de blogs dans le monde, et chaque mois 3 millions de nouveaux blogs apparaissent sur la toile. Pourtant, un village gaulois résiste encore et toujours à l’envahisseur numérique. Un village ? Non, c’est toute la science gauloise ! En effet, alors que les chercheurs américains et britanniques se sont très vite emparés du phénomène pour communiquer avec le grand public dès 2008, la communauté française persiste à dédaigner la blogosphère. Pourquoi ? Tenir un blog serait chronophage et sans intérêt…financier.
Autrement dit, les chercheurs français n’ont pas besoin d’utiliser un tel outil de communication. Autre différence majeure avec les anglosaxons, la perception qu’ont les gens de la science. « Aux Etats-Unis, on constate une grande curiosité du public pour les sciences, d’où un plus grand engouement pour la recherche perçue comme fun et cool.» explique Antoine Bonvoisin, journaliste scientifique et ex-coordinateur du projet d’édition du livre « Les meilleurs blogues de science ». Ce qui n’est pas du tout le cas en France, comme le rappelle le Centre de recherche pour l’étude et l’observation des conditions de vie (CREDOC) dans son rapport sur la curiosité scientifique des français et leur désir de développer leurs connaissances : seuls 10% des habitants de l’hexagone considèrent la science comme un centre d’intérêt. Mais les scientifiques n’ont pourtant pas de quoi se vexer. Au contraire, selon un rapport de l’Eurobaromètre, 52% des européens préfèrent quand l’information scientifique provient du chercheur directement plutôt que par le journaliste.
Justement, le blog rempli parfaitement cette fonction et permettrait de renouer le lien entre la communauté scientifique et le grand public. Car tenir blog présente de nombreux avantages, comme en témoignent les blogs anglosaxons. Certains chercheurs se servent de leur blog comme un outil de communication avec leurs étudiants, rajoutant du contenu en ligne en complément des cours magistraux. Si certains se lancent dans le blogging par amour de la vulgarisation, d’autres ont vite saisi la puissance d’un tel outil pour réaliser leur veille et communiquer avec leurs pairs. En publiant une partie de leurs travaux, les chercheurs peuvent interagir en temps réel avec leurs confrères, l’idéal pour faire progresser les travaux. Alors qu’attendent les frenchies pour se mettre à bloguer ?
Devant le désert de blogs scientifiques français, certains initient des initiatives qui pourraient bien bousculer l’inertie des chercheurs français. Jusqu’à 2013, il n’existait qu’un seul portail de blogs de sciences, le Café des sciences, ouvert en 2006. Puis Pour la Science a ouvert son propre portail réservé aux chercheurs bloggeurs, scilogs.fr qui rassemble une vingtaine de blogs. De quoi susciter des vocations ?
Afin de réduire la consommation, les pneus doivent diminuer leur résistance au roulement tout en assurant une emprise au sol suffisante pour assurer la sécurité.
Bridgestone s’est associé à l’entreprise japonaise Kao pour développer un nouvel agent dispersant combinant de la silice et du caoutchouc et permettant de réduire la résistance au roulement tout en aidant le pneu à adhérer à la route.
De son côté, Yokohama Rubber a conçu une méthode mélangeant de l’huile d’écorce d’orange avec le caoutchouc augmentant ainsi la flexibilité du caoutchouc et son adhérence. L’entreprise assure pouvoir créer des pneus faiblement consommateur et de forte adhérence en ajoutant cette huile à des pneus ayant une faible résistance au roulement.
Sumitomo Rubber s’attaque directement au caoutchouc. L’entreprise a utilisé, dans les pneus équipant son dernier mini van, sorti le 1er février, un nouveau polymère constitué de styrène. Ce matériau évitant de chauffer permettrait selon l’entreprise de réduire la résistance au roulement de 13 % par rapport aux pneus conventionnels.
D’autres entreprises sont également actives dans ce secteur, telles que JSR qui a prévu de doubler sa production de caoutchouc d’ici 2017 ou encore Asahi Kasei et Sumitomo Chemical augmentant également leurs productions, notamment de S-SBR (caoutchouc styrène-butadiène polymérisé par solution) réclamé par les fabricants de pneus. Ce matériau a la particularité de pouvoir facilement s’associer à la silice, réduisant ainsi la résistance au roulement et améliorant la tenue de route.
Les fabricants essaient d’accroître la vente de leurs produits plus respectueux de l’environnement et les régulations environnementales sont de plus en plus exigeantes. Ainsi, les labels sont d’autres moyens d’inciter leur percée sur le marché.
L’hydrogène peut être utilisé comme carburant grâce aux piles à combustibles et pourrait servir à stocker l’excédent de production renouvelable, comme le solaire ou l’éolien. Mais extrêmement inflammable, il doit être stocké dans d’encombrants conteneurs pressurisés. Pour surmonter cet obstacle, les équipes de Gábor Laurenczy de l’École polytechnique fédérale de Lausanne (EPFL), ainsi que celles du Leibniz-Institut für Katalyse ont trouvé une solution originale : transformer l’hydrogène en acide formique.
De l’hydrogène (H2) associé à du CO2 peut être transformé en acide formique (HCOOH) par électro-réduction grâce à un catalyseur. Ce procédé de catalyse peut être basé sur le fer – un métal facilement disponible et peu coûteux, en comparaison des métaux « nobles » comme le platine ou le ruthénium. L’avantage principal est que l’acide formique, ainsi obtenu est très peu inflammable et liquide à température ambiante. L’hydrogène peut alors être stocké facilement et en toute sécurité sous cette forme. La réaction inverse est également possible : par le biais d’une catalyse, l’acide formique retourne à l’état de CO2 et d’hydrogène, lequel peut ensuite être transformé en énergie électrique. Ici, pas besoin de haute pression, la réaction se fait à pression ambiante ! Un autre avantage de cette réaction par rapport au stockage conventionnel est que le procédé permet de stocker presque le double d’énergie à volume égal. En effet, un litre d’acide formique contient plus de 53 grammes d’hydrogène, contre à peine 28 grammes pour un même volume d’hydrogène pur pressurisé à 350 bars.
La synthèse de l’acide formique par hydrogénation du CO2 se fait généralement en milieu basique, en présence d’amines ou de sels tampons, et produit des sels de formiate. L’originalité des travaux de Gábor Laurenczy est de faire cette réaction en milieu acide, sans obtention de sous-produits. Cette synthèse se fait en une seule étape, contrairement aux procédés conventionnels qui en comportent plusieurs pour purifier l’acide formique obtenu.
Cette catalyse ouvre des portes nouvelles pour l’avenir de l’hydrogène, bien que la production industrielle ne soit visiblement pas pour tout de suite.«Les travaux de Gábor Laurenczy se poursuivent afin d’optimiser plusieurs maillons de la chaîne CO2– hydrogène – acide formique – énergie », prévient Emmanuel Barraud, communiquant de l’Ecole Polytechnique Fédérale de Lausanne. « Concernant l’utilisation de l’acide formique comme réserve énergétique, les travaux en cours actuellement visent à la réalisation d’ici la fin de cette année d’un prototype de générateur autonome de 1kW ». Deux sociétés ont déjà acheté une licence pour développer cette technologie: Granit (Suisse) et Tekion (Canada).
Stocker les énergies renouvelables
Le courant obtenu grâce à des énergies renouvelables peut produire de l’hydrogène par électrolyse de l’eau. Demain, cet hydrogène pourra être transformé et stocké sous forme d’acide formique, avant d’être retransformé sous sa forme initiale pour produire de l’électricité. La simplicité et la sécurité du procédé permettrait d’utiliser une pile d’acide formique à l’échelle domestique, pour stocker la production excédentaire de panneaux solaires ou de petites éoliennes.
Des voitures carburant à l’acide formique
La première voiture à hydrogène commercialisée par Toyota stocke l’hydrogène grâce à un réservoir pressurisé à 700 bars. Ce réservoir coûte très cher, rendant la voiture difficilement accessible au citoyen lambda. Mais demain, les voitures pourraient rouler à l’acide formique, grâce à un stockage plus compact. « Techniquement, c’est tout à fait faisable. D’ailleurs, de grands constructeurs nous ont contactés en 2008, quand le baril du pétrole a atteint des sommets.A mon sens, le seul obstacle est économique », confie Gábor Laurenczy.
Une autre application possible de ce procédé est d’utiliser le CO2 atmosphérique, responsable de l’effet de serre, pour synthétiser de nombreux produits chimiques.
A côté de la ressource nucléaire, la proportion des énergies renouvelables devrait être doublée pour atteindre 22 à 24%, les 56% restants étant fournis par les centrales thermiques (gaz, charbon, pétrole) qui produisent actuellement 90% de l’électricité.
Le gouvernement doit livrer ses conclusions d’ici à la fin mai, avant la formulation d’un objectif de réduction des émissions de gaz à effet de serre en vue d’un accord international lors de la conférence COP21 sur le climat à Paris en décembre.
Sur la base des données présentées mardi, il s’oriente vers une diminution de ces rejets de CO2 et autres gaz de 21,9% entre 2013 et 2030.
Le Japon avait annoncé il y a cinq ans vouloir abaisser ses émissions de gaz à effet de serre de 25% entre 1990 et 2020, mais la catastrophe atomique de mars 2011 a rendu illusoire cette ambition qui reposait sur un usage accru de réacteurs atomiques.
Auparavant, le pays comptait 54 réacteurs nucléaires fournissant environ 30% de son électricité, mais les six de Fukushima Daiichi sont condamnés et au moins cinq des 48 restants en passe d’être démantelés.
Invoquant des raisons environnementales et économiques, le gouvernement conservateur de Shinzo Abe plaide pour un redémarrage de « tous les réacteurs jugés sûrs par l’Autorité nucléaire », selon les critères plus sévères instaurés après le désastre de Fukushima.
Mais le processus est long et compliqué, et seuls deux d’entre eux – les unités Sendai 1 et 2 (sud-ouest) de la compagnie Kyushu Electric Power – pourraient redémarrer dans les prochaines semaines.
Si, selon tous les sondages, la majorité des Japonais sont opposés à l’énergie nucléaire, la mobilisation contre leur relance s’est notablement affaiblie après un pic atteint dans les mois suivant le drame de Fukushima, au grand dam des organisations écologiques.
En Allemagne, les parcs éoliens sont majoritairement situés très au large, jusqu’à plusieurs dizaines de kilomètres. En plus de la complexité technique et logistique de la mise en œuvre des éoliennes à de telles distances, s’ajoute la complexité du raccordement. Les retards observés au niveau du raccordement au réseau électrique des parcs éoliens en mer en mer du Nord sont notamment dus « à des travaux de nettoyage des fonds de mer, en partie parsemés de munitions issues de la Seconde Guerre Mondiale », précise Sarah Florence Gaebler, chargée de mission à l’Office franco-allemand pour les énergies renouvelables (OFAEnR).
4 parcs éoliens offshore en service en mer du Nord
Les 60 MW du parc Alpha Ventus ont été les premiers à être raccordés au réseau en avril 2010 et sont depuis en exploitation. De leur côté, les 400 MW du parc Bard 1 ont été raccordés en septembre 2013, une première tranche de 200 MW étant raccordée depuis mars 2013. Mais, l’exploitation du parc a dû être arrêtée immédiatement en raison de problèmes techniques. En mars 2014, un nouveau raccordement a été testé, mais un court-circuit a grillé les filtres d’un transformateur électrique au large après juste quelques heures. Après ces longs retards, les éoliennes sont finalement connectées et l’exploitation commerciale est en cours de démarrage.
Un autre parc de 108 MW est raccordé depuis février 2014.Il s’agit du parc Riffgat. « Le parc Riffgat aurait dû être raccordé dès 2013, mais les travaux d’évacuation de plusieurs tonnes de munition sur le fond de la mer, que TenneT a été obligé de réaliser, a retardé l’installation du raccordement », rappelle Florence Gaebler. Malgré des retards dus à la complexité des installations, les experts ont su rebondir et les raccordements s’enchaînent désormais. Le parc Meerwind Süd/Ost de 288 MW est en service depuis novembre 2014.
8 nouveaux parcs éoliens offshore en service d’ici fin 2015
Trois autres parcs éoliens sont entièrement installés depuis mi-2014. Il s’agit des parcs Trianel Borkum (200 MW), Global Tech I (400 MW) et Dan Tysk (288 MW). Les travaux d’installation des éoliennes du parc Trianel Borkumont été finalisés début juin 2014. Les travaux d’installation du parc Global Tech I et du parc Dan Tysk ont été finalisés quant à eux fin août 2014.
La phase de raccordement au réseau des parcs éoliens devient alors l’enjeu principal. Après quelques retards et défaillances durant la phase de raccordement à la terre, ces 3 parcs ont réalisé leur première production d’électricité dans le cadre de phases de test entre la fin de 2014 et le début de cette année. Ils devraient entrer en opération complète entre le printemps et l’été 2015.
Le par Nordsee Ost (295,2 MW) est installé depuis décembre 2014. Une première éolienne a injecté sur le réseau en essai dès fin décembre. Il devrait également être mis en service d’ici l’été 2015.
« L’éolien offshore en Allemagne est en train de passer d’une phase pionnière à une phase industrielle », reconnaît Florence Gaebler. En revanche, « plus l’on installera de parcs, plus les connaissances seront poussées et plus les réponses et solutions seront rapides à trouver », prévient-elle. Le secteur s’enrichit des expériences passées pour les prochaines constructions. Les expériences passées devraient permettre de réduire les temps de raccordement au réseau à terre.Et il est important de retenir les leçons de ces premières installations, car plusieurs autres parcs sont encore en construction et devraient être mis en service d’ici fin 2015 : Butendiek (288 MW), Amrumbank West (288 MW), Borkum Riffgrund 1 (312MW) et Baltic 2 (288 MW).
La puissance éolienne offshore installée et en service en Allemagne devrait passer de 916 MW fin décembre 2014 à 3275 MW fin 2015, soit une augmentation de 150 %.
Quels nouveaux parcs d’ici 2020 ?
L’avenir est déjà planifié. La construction de deux autres parcs devrait commencer dans le courant de l’année : Gode Wind 1 (330 MW) et Gode Wind 2 (252 MW).
Le lancement de travaux a été annoncé en 2016 pour 5 parcs en mer du Nord et 1 en mer Baltique pour une puissance totale de 1985 MW à 2143 MW. D’autres parcs ont déjà obtenu les autorisations en Mer du Nord ou en Mer baltique pour un total de 9050 MW. En revanche, en raison de la révision des objectifs de développement de l’éolien offshore, il n’existe pas de calendrier précis pour le lancement des travaux.
Car l’éolien offshore coûte encore cher. Il est aujourd’hui au moins deux fois plus cher que l’éolien terrestre : 60 à 90 euros par MWh pour l’éolien terrestre, 120 à 150 euros par MWh pour l’éolien en mer, auquel il faut ajouter les coûts de connexion vers le rivage, estimé à 30 euros par MWh. « D’un point de vue purement de politique énergétique, et dans une optique d’efficience économique, il est donc préférable de développer aujourd’hui davantage l’éolien terrestre (technologie largement mature), que l’éolien en mer », estime Dimitri Pescia, du think-thank Agora Energiewende.
Le gouvernement allemand a suivi cette réflexion et a revu ses objectifs en matière d’éolien offshore dans le cadre de la loi sur les énergies renouvelables de 2014 (loi EEG 2014), afin de ne pas faire exploser la note de l’Energiewende. Néanmoins, la filière allemande s’étant structurée grâce aux premiers parcs, le Gouvernement n’a pas souhaité porter un coup d’arrêt à son développement. « Le développement de l’éolien en mer peut être légitimé par d’autres enjeux, notamment en matière d’acceptation, en général meilleure que pour l’éolien terrestre, et pour des objectifs de politique industrielle – développement d’un savoir-faire national et d’un tissu industriel local porteur d’emploi, comme nous le voyons largement dans le nord de l’Allemagne-, pour une technologie qui a également un potentiel à l’export », analyse Dimitri Pescia. Les objectifs se portent aujourd’hui à 6,5 GW de capacité installée d’ici 2020 et 15 GW d’ici 2030, contre respectivement 10 et 25 GW dans la version antérieure de la loi. La filière espère que cela suffira pour réduire les coûts et assurer sa compétitivité au niveau mondiale.
Ci-dessus : Parcs éoliens installés, déjà construits ou en construction dont la mise en service est prévue d’ici fin 2015
Ci-dessus : Parcs éoliens autorisés dont le lancement des travaux de construction est prévu pour 2015 et 2016
Aujourd’hui, au travers de récentes découvertes, quelques hypothèses permettent peut-être de comprendre l’apparition de la vie. En voici deux : de la goutte d’eau agissant comme un accélérateur de réactions aux molécules venues de l’espace qui pourraient être à l’origine des briques du vivant.
La goutte d’eau, le terreau de la vie ?
Des chercheurs du laboratoire de l’université de Strasbourg, experts en microfluidique, « la science et la technologie des systèmes qui manipulent des petits volumes de fluides », se sont aperçus lors d’une étude sur la production de molécules qu’une goutte d’eau agissait comme un accélérateur de réactions chimiques, quelles qu’elles soient.
Dans le cas présent, l’équipe menée par le professeur Andrew Griffiths a introduit deux micro-molécules dans des micro-gouttes : de l’amine ainsi que de l’aldéhyde, connues pour leur réaction fluorescente. Ce qui s’est produit ensuite a beaucoup étonné les chercheurs. En effet, les gouttelettes se sont mises à briller intensément, et de façon anormale, montrant que l’expérience était un succès et allait même au-delà de toutes espérances. Des imines fluorescentes, des composés organiques, ont ainsi été obtenu… En quantité 45 fois plus importante que ne laissait l’entendre les pronostics.
C’est en cherchant à découvrir pourquoi une telle réaction avait eu lieu, que les scientifiques ont considéré plus sérieusement l’architecture de la goutte d’eau ainsi que les phénomènes ayant cours à l’intérieur. Il s’est révélé que les molécules se sont retrouvées collées à la paroi des gouttes d’eau sous l’action de la tension superficielle, « un phénomène d’augmentation de l’énergie à la surface d’un fluide et qui en augmente localement la cohésion », engendrant une coalescence. Les molécules n’ont pu réagir comme elles le font en temps normal. Leurs déplacements en ont été limités, favorisant les interactions.
Comme l’explique Jean-Christophe Baret, l’un des membres de l’équipe de recherche, «dans une goutte, les molécules sont naturellement attirées vers les parois et vont momentanément s’y accrocher ». La gouttelette s’est donc révélé être un terreau propice aux réactions chimiques, agissant comme un site de Dating, c’est-à-dire en facilitant la mise en relation des molécules; ou plutôt, en augmentant les chances pour que celles-ci « se retrouvent dans la même pièce » et établissent des liaisons.
Les chercheurs ont conclu que la goutte d’eau favorisait la complexification des molécules. Et, bien que cette étude ne suffise pas à donner une explication à l’émergence des premières molécules organiques complexes, elle offre tout de même une hypothèse séduisante sur l’origine du vivant. Les exobiologistes ont décroché peut-être la timbale.
Les briques du vivant viendraient-elles d’ailleurs ?
Des chercheurs de l’Institut d’astrophysique spatiale (IAS) de l’université Paris Sud en collaboration avec l’Institut de chimie de Nice de l’université de Nice-Sophia Antipolis ont voulu savoir ce qui arrivait lorsque l’on soumettait de la glace présente dans un nuage de gaz interstellaire aux UV émis par les étoiles environnantes (même lointaines). Ils ont ainsi refroidi un mélange d’eau, de méthanol et d’ammoniaque, trois composants dont on a déjà trouvé des traces au sein de ces nuages de gaz, puis ils l’ont astreint à un rayonnement UV pendant une période allant d’une semaine à un mois.
Les échantillons de glace exposés sont ensuite passés par le laboratoire de Nice pour y être analysés par l’équipe de Uwe Meierhenrich. Là, deux petites molécules organiques ont été détecté : le glycolaldéhyde et le glycéraldéhyde; des sucres élémentaires, composés d’atomes de carbone. Or, ces deux molécules sont des constituants de structures plus complexes telles que les acides nucléiques. On les retrouve dans l’acide ribonucléique (ARN), « une molécule biologique présente chez pratiquement tous les êtres vivants ».
L’expérience leur a donc permis de comprendre et de donner une explication plausible aux mécanismes chimiques à l’origine de la création de certaines molécules pouvant, par association, produire des «molécules organiques simples comme les acides aminés ». Dans le cas présent, du glycolaldéhyde et du glycéraldéhyde; des composants des briques du vivant.
Sachant que les astronomes ont déjà perçu du glycolaldéhyde dans l’espace, l’hypothèse est donc la suivante. Les molécules créées dans l’espace ont fort bien pu voyager à dos d’astéroïde jusqu’à la Terre, où elles se seraient multipliées, développées et complexifiées par différents processus chimiques jusqu’à devenir organiques et former les premières briques du vivant. Étant donné le nombre impressionnant de micro météorites qui bombardent chaque jour la Terre, et tenant compte du fait qu’il était 1 000 fois plus élevé il y a de ça 4 milliards d’année, celles-ci ont très bien pu servir de vaisseaux aux molécules responsables des briques du vivant.
Et cela pose bien sûr une autre question… Si à l’intérieur des nuages de gaz interstellaire peuvent se produire des réactions chimiques capables d’engendrer des molécules, y compris des acides aminés, pourquoi la vie ne se serait-elle pas développée sur une autre planète ? Une étude récente a d’ailleurs montré que le nombre de planète habitable, c’est-à-dire cumulant ces trois qualités : de l’eau, de l’atmosphère et du carbone, se comptait en milliards.
Extrêmement réactif, le césium explose au contact de l’eau. Il s’agit d’un métal alcalin : dissous dans l’eau, il produit une solution d’hydroxyde de césium et entraîne un dégagement de chaleur et d’hydrogène qui explose au contact de l’oxygène dissous. La solution devient alors basique (pH > 7). Pour sublimer l’expérience, les auteurs ont rajouté de la phénolphtaléine dans l’eau, un indicateur de pH qui devient rose dans des solutions basiques.
Le sodium crée une explosion dans l’eau
Le césium n’est pas le seul métal alcalin à exploser au contact de l’eau. Vous avez sûrement déjà fait cette expérience en cours de chimie : au contact de l’eau, un petit bout de sodium s’enflamme. Mais des étudiants ont tenté une expérience plus conséquente : en jetant un bloc de sodium dans un lac, l’explosion ne se fait pas longtemps attendre. Au contact de l’eau, le sodium (Na) décompose les molécules d’eau (H2O) et libère du dihydrogène (H2), des ions hydroxyde (OH-) et des ions sodium (Na+). Cette réaction engendre un grand dégagement de chaleur. Combiné à l’oxgène, le dihydrogrène libéré s’enflamme rapidement et crée une explosion. Mieux vaut donc éviter de faire cette expérience dans un lac naturel…
Le sucre se carbonise en présence d’eau
Lorsque l’on mélange du sucre (saccharose) avec de l’acide sulfurique concentré (H2SO4) , le sucre se déshydrate et se carbonise. Il est donc transformé en carbone et en eau. La réaction de dissolution est la suivante : C12H22O11 -> 12 C + 11 (H2O). On assiste à une forte augmentation de température (due à la dissolution exothermique de l’acide dans l’eau) qui vaporise une partie de l’eau. La transformation est impressionnante et semble donner naissance à un serpent noir qui sort du bécher, d’où son surnom de «Black Snake Experiment».
Créer un serpent du pharaon
Cette expérience est encore plus impressionnante. En enflammant une poudre blanche de thiocyanate de mercure Hg(SCN)2, vous obtenez une grande masse de cendres enroulées ressemblant à des serpents. Ces cendres grandissent peu à peu au milieu d’une petite flamme bleue qui entretient la combustion. Cette expérience dégage des vapeurs toxiques de mercure et ne doit donc pas être testée chez soi.
Plonger sa main dans l’azote liquide !
On vous l’a appris : plongez un corps dans l’azote liquide et il en ressortira cassant comme du verre ! Mais le youtubeur NurdRage a décidé de ne pas se limiter à ces mises en garde. Dans cette vidéo, il plonge sa main dans l’azote liquide et la retire rapidement. Bien que rafraîchie, celle-ci reste entièrement opérationnelle. Cela s’explique par l’effet dit de «Leidenfrost». La surface de la main, ayant une différence de température de plus de 200°C par rapport à l’azote liquide, entraîne l’évaporation instantanée de l’azote. Le gaz ainsi libéré forme une barrière isolante temporaire suffisante pour éviter que sa main ne se transforme en un gigantesque glaçon. Mais attention, cet effet n’est que très limité : laisser la main plus longtemps vous assurerait de la perdre ! A ne pas tester non plus.
La chimie sublimée
Beautifull chemistry dévoile la beauté des réactions chimiques. Grâce à des équipements innovants et filmé en caméra ultra-haute définition, découvrez des réactions chimiques vues au plus près : déplacement de métal, précipitation, cristallisation, changement de couleur, formation et dégagements de bulles, dégagement de fumée… Plus de vidéos : http://beautifulchemistry.net/
Le zeste d’orange dissout les ballons de baudruche
Avez-vous déjà manipulé un ballon en mangeant une orange ? Si tel est le cas, vous avez peut-être déjà fait cette douloureuse expérience. Le limonène contenu dans le zeste du fruit dissout sur le champs le caoutchouc, entraînant son explosion immédiate.
La réaction explosive entre le coca-cola et un menthos est bien connue. Mais avez-vous déjà pensé à mélanger le célèbre breuvage avec du lait ? En quelques heures, l’acide phosphorique du Coca-Cola provoque la précipitation des protéines (albumines) présentes dans le lait et entraîne le colorant avec elles. Résultat : le cola devient « café-crème », puis laisse place à un liquide doré et un précipité brunâtre.
Des abeilles moins nombreuses, qui nidifient moins, des bourdons qui se reproduisent difficilement… Deux nouvelles études, publiées mercredi 22 avril dans Nature, sonnent à nouveau l’alerte sur les effets des néonicotinoïdes, ces pesticides contenant des substances proches de la nicotine. Celles-ci sont d’autant plus dangereuses que les précieux pollinisateurs semblent attirés par ces substances.
Les abeilles sont frappées depuis des années par un effondrement de leurs colonies, notamment en Europe et en Amérique du nord. Ce phénomène est souvent attribué aux pesticides, mais aussi à un virus, ou à des champignons, ou à un ensemble de facteurs.
Les abeilles, qui représentent 80 % des insectes pollinisateurs, sont essentielles à la sécurité alimentaire mondiale. À l’échelle planétaire, leur travail a été évalué à au moins 142 milliards d’euros.
« Les grandes cultures en fleurs sont des sources de nourriture importantes pour les abeilles sauvages, mais elles peuvent se transformer en pièges écologiques si les butineuses sont exposées à des pesticides tels que les néonicotinoïdes », relèvent les auteurs d’une étude menée en Suède, issus de l’université de Lund.
Les chercheurs ont étudié 16 champs de colza, dont la moitié ont été traitées au clothianidine, et analysé les collectes de pollen et le comportement des insectes.
« Le résultat le plus spectaculaire est que les colonies de bourdons n’ont quasiment pas grossi dans les sites traités », explique Maj Rundlof, malgré des fleurs plus abondantes. À la fin de l’expérience, on y dénombrait moins de cocons que dans les champs non traités.
Les chercheurs ont également fait une autre découverte : les abeilles solitaires ne sont pas retournées dans les nids placés aux abords des champs traités au pesticide. Elles ont en revanche regagné, dans six cas sur huit, ceux disposés près des parcelles non traitées, commençant à édifier des cellules de couvain.
Pourquoi ? « Cela reste à éclaircir, mais une capacité réduite à naviguer est une explication possible ». D’autres études ont en effet montré que des abeilles exposées aux néonicotinoïdes avaient du mal à reconnaître les caractéristiques des fleurs, à s’orienter, à butiner, conduisant à la disparition de colonies entières.
Le débat sur ces produits fait rage entre scientifiques, environnementalistes, apiculteurs, et fabricants de pesticides.
En décembre 2013, l’Union européenne a imposé un moratoire partiel sur trois types de néonicotinoïdes pour deux ans.
Une drogue
Ce rapport trouve une résonance particulière avec la publication d’une autre étude. Selon cette dernière, non seulement les abeilles n’évitent pas les fleurs traitées aux néonicotinoïdes, mais il se pourrait bien qu’elles les préfèrent.
Certains ont en effet suggéré que soient plantées, à côté des parcelles traitées, d’autres non traitées pour les abeilles. Or ce rapport montre qu’elles n’ont pas vraiment le choix : quand on leur propose une solution de sucrose à côté d’une autre de sucrose associé à un néonicotinoïde, les abeilles mellifères comme les bourdons ne sont non seulement pas repoussés par le second nectar, mais préfèrent se tourner vers lui.
« Nous avons une preuve que les abeilles préfèrent manger la nourriture contaminée par des pesticides », souligne Geraldine Wright, de l’université de Newcastle.
Les chercheurs ont utilisé des centaines de bourdons et des milliers d’abeilles à miel qui, en laboratoire, ont pu aller librement sur les deux types de solutions.
« Les abeilles n’ont évité aucune des concentrations des trois néonicotinoïdes » proposés, souligne Geraldine Wright. « Au contraire, elles ont choisi les tubes contenant l’imidaclopride ou le thiamethoxame ». Les abeilles sont également allées vers le clothianidine, sans pour autant lui montrer de préférence particulière.
Ce n’est pas une question de sensation, mais « il se peut que les néonicotinoïdes agissent comme une drogue, rendant la nourriture plus gratifiante », comme la nicotine pour les fumeurs. « Je crois que cette expérience montre que ces composants ont un effet pharmacologique sur le cerveau de l’abeille », estime la chercheuse.
PROCHAINES ÉTAPES :
1er décembre : La Commission européenne réexaminera le moratoire sur trois pesticides néonicotinoïdes (la clothianidine, l’imidaclopride et le thiaméthoxame).
Un article alarmant paru sur le journal sud-africain The Mail & Guardian puis relayé par le Courrier International dévoile un continent africain en très mauvaise posture dans mille ans, souffrant à la fois de la montée des eaux et de la désertification d’une grande partie de son territoire. On y découvre une carte de l’Afrique émaciée, très diminuée sur son flanc gauche. Des villes telles que Lagos (Nigeria), Banjul (Gambie), Abidjan (Côte d’Ivoire), et des îles basses comme l’Île Maurice ou encore le Cap-Vert et bien d’autres… pourraient ne plus exister, complètement noyés des suites de l’augmentation du niveau de la mer, estimé à un à deux mètres de haut.
La chose est d’autant plus grave et effrayante selon l’article, que pas moins de 25% de la population africaine vivraient à moins de 100 kilomètres des côtes. Ce qui n’a rien d’étonnant puisque trente-trois des 48 pays de l’Afrique continentale comptent un littoral. La côte Atlantique de l’Afrique de l’Ouest serait davantage touchée. Et le tableau se noircit encore avec la menace de la désertification d’un quart du continent
Que peut-on faire ? Apparemment mettre la main à la poche et allonger les billets ! Car « selon le Programme des Nations unies pour l’environnement (PNUE), l’investissement nécessaire pour que le continent puisse s’adapter aux changements à venir est de l’ordre de 50 milliards de dollars par an d’ici à 2050, même si l’on parvient à maintenir la hausse des températures sous la barre des 2 °C. »
Le dernier siècle a vu ses eaux montées de 10 à 20 centimètres, et il semblerait que cette tendance s’accentue encore, avec le réchauffement climatique et la fonte des glaciers. Mais faut-il réellement craindre un recouvrement si important ? On peut en effet se demander si l’article n’est pas exagérément effrayant afin de faire réagir les consciences, politiques et plus largement de tous les êtres humains, sur la maltraitance que nous exerçons à chaque instant sur notre planète et ce, depuis de nombreuses décennies ? En revanche, ce qui est certain, c’est que la Terre est vulnérable et l’éco-système bâti en plusieurs milliards d’années est fragile. À nous de le respecter si nous ne voulons pas qu’un tel scénario se produise. D’autant que l’échelle de temps est courte, et la catastrophe paraît imminente. Imaginez dans mille ans, des pays entiers recouverts d’eau entraînant des mouvements de populations massifs, des conflits inhérents…
« Jusqu’à présent, les stations d’épuration étaient conçues pour traiter les matières en suspension, le carbone, l’azote, le phosphore. Il y a désormais d’autres aspects qualité qui définissent la qualité d’un cours d’eau, notamment sur les micropolluants », prévient Samuel Martin, Responsable du département R&D Assainissement et Environnement au CIRSEE-Suez Environnement. La Directive Cadre sur l’Eau européenne a redéfini les critères de qualité des cours d’eau pour plusieurs substances. « On n’est plus au niveau de paramètres globaux comme la DBO, les matières en suspension ou l’azote total, mais on est au niveau des molécules elle-même, à des concentrations assez faibles, du ng/L au µg/L ».
Pour les stations les plus répandues, les résultats du projet AMPERES ( 2006-2009), porté par Irstea en collaboration avec Suez Environnement et l’Université de Bordeaux, par financement de l’Onema, montrent qu’environ 85 % des substances quantifiées en entrée de station sont éliminées à plus de 70 % au cours du processus. Mais un certain nombre de substances sont éliminées à moins de 30 %. Il s’agit de pesticides polaires (glyphosate, AMPA, diuron) et de quelques produits pharmaceutiques. Au final, environ 15 % des substances prioritaires sélectionnées au niveau européen, 30 % des molécules organiques et 90 % des substances pharmaceutiques quantifiées dans les eaux brutes se retrouvent en sortie des procédés biologiques à des concentrations supérieures à 0,1 µg/L.
Armistiq : améliorer l’élimination des micropolluants
Le projet ARMISTIQ (2010-2013), porté par les mêmes partenaires que le projet AMPERES, montre qu’il est possible d’améliorer l’élimination des différentes familles de micropolluants en sortie de stations d’épuration en adaptant le procédé classique de boues activées et en ajoutant des traitements complémentaires.
La réalisation de simulations numériques a permis de montrer que cela est possible en augmentant la concentration des boues ou la durée d’aération dans les bassins. Cette amélioration des performances n’est néanmoins pas efficace pour un grand nombre de polluants présents en sortie de station d’épuration.
Le projet s’est donc aussi intéressé à l’optimisation de la dégradation des micropolluants par l’utilisation seule ou en combination de traitements complémentaires : l’ozonation, l’oxydation avancée (combinaisons UV/H2O2, O3/UV, O3/H2O2) et le traitement par charbon actif.
Ci-dessus : Efficacité des 3 traitements complémentaires testés pour l’élimination de différentes familles de micropolluants. Représentation du rendement d’élimination entre la sortie de traitement secondaire et la sortie du traitement complémentaire testé : R<30 % (rouge), 30 %<R<70 % (orange), 70 %<R<90 % (vert clair), R>90v% (vert foncé)
« L’ozone, combiné ou pas à peroxyde d’hydrogène, est efficace pour une grande majorité de substances. C’est le cas aussi pour le charbon actif, avec quelques différences sur certaines molécules », assure Samuel Martin. Une bonne nouvelle est à noter : si le projet AMPERES a montré que les médicaments étaient présents à plus de 90 % à des concentrations supérieures à 1 µg/L en sortie de station, les 3 traitements complémentaires testés ici les éliminent à plus de 70 %.
L’ozone combiné au peroxyde d’hydrogène présente les meilleurs rendements, mais c’est aussi la solution la plus chère. Pour les grosses collectivités, l’ozone semble être le meilleur rapport performances/coût. Pour ces dernières, l’installation de ce procédé conduirait à une augmentation du prix de l’eau de deux centimes d’euros par m3, soit une facture additionnelle d’environ 2 € HT par habitant et par an, contre 20 € HT par habitant et par an pour le procédé peroxyde/UV.
En France, la politique s’oriente vers la réduction de la pollution à la source. Mais cela n’est pas toujours suffisant. « Si l’on veut appliquer ces solutions sur les stations actuelles, techniquement, ce n’est pas trop compliqué. On peut installer une étape de traitement tertiaire s’il y a de la place sur le site et si le traitement en amont est de qualité suffisante », assure Samuel Martin. Le choix d’investissement revient aux collectivités qui doivent arbitrer entre prix de l’eau et diminution de la pollution des cours d’eau
De nouveaux projets pour mieux traiter les micropolluants
Le projet Armistiq s’est également intéressé à l’évolution des micropolluants accumulés dans les boues, suite au séchage ou à la méthanisation. Quel que soit le procédé testé, les micropolluants sont peu affectés par les procédés actuellement utilisés. Le nouveau projet RISO-PRO (2013-2015) , financé par l’Onema et coordoné par l’Inra étudie donc leur devenir après épandage.
Une question demeure : après dégradation des micropolluants par les procédés avancés, les sous-produits sont-ils toxiques pour le milieu récepteur ? Qu’en est-il de la toxicité des micropolluants non éliminés ? C’est l’enjeu du projet EchiBioTEB (2011-2014) dont les conclusions seront prochainement communiquées par Irstea.
Le projet Micropolis (2014-2017) a été lancé à Sophia Antipolis avec Irstea, l’Agence de l’eau et d’autres partenaires en écotoxicologie. Sur le site existant, l’objectif est d’évaluer les performances de traitement par ozonation et traitement biologique complémentaire, l’impact sur le milieu et l’énergie consommée. L’idée est également de coupler des outils chimiques et écotoxicologiques (avec des gammares) pour évaluer la toxicité en sortie de station.
Le site SIPIBEL, site pilote de Belcombe, a pour objectif de réaliser l’étude de la caractérisation, de la traitabilité et des impacts des effluents hospitaliers en station d’épuration urbaine. Deux projets y sont menés : le projet Interreg franco-suisse IRMISE Arve aval (2013 -> juin 2015) qui porte sur l’impact des rejets de micropolluants (dont des résidus de médicaments) issus de STEP sur l’aval du bassin versant de l’Arve et la nappe du genevois et le projet RILACT (nov. 2014 -> mai 2018), portant sur les risques et leviers d’action relatifs aux rejets de médicaments, datergents et biocides dans les effluents hospitaliers et urbains.
Avec le SIAAP, Suez Environnement teste enfin un procédé d’oxydation catalytique pour aller plus loin dans la dégradation des micropolluants tout en réduisant la dose d’ozone utilisée.
Faut-il miser sur le bioraffinage ? Alors que le marché des produits biosourcés devrait doubler dans 5 ans (d’après un rapport du LMI) et que le marché mondial des bioraffineries se prépare à afficher une croissance insolente de 8.93% par an jusqu’à 2018, on pourrait croire que tous les voyants sont au vert. Pourtant, les bioraffineries peinent à imposer leurs produits face à leurs homologues issus de la pétrochimie. En cause, une réalité économique impitoyable. « Même le procédé le plus « vert » possible ou biosourcé échouera à détrôner son équivalent pétrosourcé s’il n’est pas compétitif au niveau du prix » résume Franck DUMEIGNIL, Directeur de l’unité de catalyse et de chimie du solide de l’université de Lille 1 et coordinateur du projet européen EuroBioRef. Seuls les biosourcés à haute valeur ajoutée pourront espérer s’affranchir de cette contrainte.
En Europe, aux freins de nature économique vient s’ajouter la réglementation REACH qui impose de faire certifier toute nouvelle molécule. Les frais afférents aux divers tests requis sont rarement supportables par une PME. Mais la chimie verte peut compter sur un contexte favorable. Le besoin de remplacer des produits issus de la pétrochimie par des produits biosourcés aux mêmes propriétés est réel. Les directives européennes visent d’ailleurs à incorporer 10% de biocarburant d’ici à 2020 et l’industrie chimique française s’est engagée à utiliser 15% de matière première d’origine végétale dès 2017. Il serait possible de remplacer un tiers des hydrocarbures fossiles en transformant la biomasse. C’est là que l’arrivée de la filière lignocellulosique est déterminante. Alors que la bioraffinerie de 1ère génération était en concurrence directe avec l’alimentation humaine et animale, celle de 2ème génération propose de convertir la lignocellulose, composée de lignine, d’hémicellulose et de cellulose.
« Autre difficulté, si les technologies existent, les sortir de l’intimité du laboratoire coûte extrêmement cher. La réalisation d’un démonstrateur nécessite le soutien d’un industriel solide car le risque est réel, et les aides publiques manquent » déplore-t-il. Les bioraffineries sont d’ailleurs plus nombreuses en Amérique du nord, aidées par des politiques de soutien. En 2010, l’Europe accepte de financer à hauteur de 23.5 millions le projet European multilevel integrated biorefinery design for sustainable biomass processing (EuroBioRef) dont le but est d’élaborer une nouvelle raffinerie intégrant l’ensemble des processus de transformation de la biomasse. Terminé en 2014, ce projet incluant 29 partenaires européens a permis de déposer 21 brevets. Les résultats ont permis d’optimiser les biotechnologies pour produire des molécules plateformes à partir de glycérol et d’hydrolysats de biomasse. Une usine pilote est sortie de terre en Norvège, capable de traiter 50kg de matière lignocellulosique sèche chaque heure.
L’un des principaux obstacles techniques que doit surmonter le bioraffinage réside dans la séparation. Culturellement, les différents utilisateurs préfèrent travailler avec un composé unique, aux propriétés bien définies plutôt qu’avec des mélanges. Or, par définition la biomasse est une matière première hétérogène, puisque variable en fonction des saisons, de la météo, de la sorte de plante…Néanmoins, concernant la production de biocarburants, le projet BioTfuel illustre bien l’évolution des mentalités. Ce projet de production de biocarburants de 2ème génération par la voie thermochimique a pour objectif de développer une chaîne de procédés dédiée à la production de biogazole et de biokérosène disponibles sur le marché dès 2020. Pour y arriver, BioTfuel mise sur le cotraitement, c’est-à-dire le traitement d’une large gamme de ressources, biomasse et fossile en même temps. Le produit final est donc un mélange de carburant d’origine fossile et de biocarburant, dont la teneur sera variable. Cette flexibilité permet à la fois d’améliorer le rendement et d’abaisser les couts de production. La technologie de gazéification appliquée aux matières fossiles devra être adaptée à l’injection de biomasse. Total, associé à ce projet, s’est aussi engagé dans Futurol, afin de développer un procédé de production d’éthanol par voie biologique à partir de différentes biomasses. Cette fois, les sucres sont extraits de la biomasse puis fermentés pour se transformer en éthanol. L’installation pilote est basée à Pomacle-Bazancourt. A terme, l’usine pourrait produire 500L d’éthanol chaque jour.
De son côté, l’INRA a développé un nouveau procédé de fractionnement de la biomasse ligno-cellulosique. Celle-ci étant particulièrement variée, la phase de prétraitement est souvent coûteuse, bien qu’elle soit un préalable essentiel aux étapes suivantes que sont l’hydrolyse enzymatique pour la production de sucres et la fermentation transformant les sucres en bio-éthanol. Les chercheurs de l’Inra proposent de réaliser tout d’abord une étape de broyage ultrafin, suivie d’une étape de séparation électrostatique. De la paille a ainsi pu être fractionnée en plusieurs parties enrichies en cellulose et en lignine-hémicellulose. Cette approche par voie sèche sans traitement chimique ni effluent a fait l’objet d’un brevet et s’applique au bois, aux sous-produits agricoles ou encore aux cultures ligno-cellulosiques.
Autre axe d’innovation, la catalyse hybride, censée combiner les atouts des catalyses chimiques et enzymatiques. REALCAT, plateforme intégrée appliquée au criblage haut débit de catalyseurs pour les bioraffineries hébergée à Centrale Lille, est dédiée au développement de catalyseurs pour les bioraffineries. « Les molécules issues de la biomasse sont plus réactives que celles issues de la pétrochimie. Loin d’être un avantage, ce comportement nécessite une attention particulière lors du process pour éviter qu’il ne s’emballe. » indique Franck Dumeignil.
Si aujourd’hui les produits issus du bioraffinages ne sont pas compétitifs avec leurs homologues pétrosourcés, le besoin d’indépendance vis-à-vis du pétrole motive des investissements qui pourraient bien changer rapidement la donne.
Par courrier, BNP Paribas, Crédit Agricole et la Société Générale se sont engagés auprès de l’association Les Amis de la Terre à ne pas participer au financement des projets de mines de charbon situés dans le bassin de Galilée en Australie, ni à celui des infrastructures associées : extension des ports, voies ferrées…. Ces banques vont ainsi plus loin dans leur engagement que celui pris par 8 autres banques internationales – Deustche Bank, HSBC, RBS, Barclays, Citi, Morgan Stanley, JP Morgan Chase et Goldman Sachs – portant uniquement sur l’extension du port d’Abbot Point. Cette extension en vue d’exporter du charbon, menace notamment la Grande Barrière de corail.
Selon les ONG, les projets devraient être soutenus par au moins une ou deux grandes banques internationales pour se concrétiser. Or, avec les engagements des banques françaises, 11 des 25 banques qui financent le plus le secteur du charbon au niveau mondial se sont désormais engagées à ne pas les financer. « Chaque engagement de banque à rester éloignée de ces projets réduit un peu plus les chances de ces projets d’être menés à terme », se réjouit Lucie Pinson des Amis de la Terre. « Les autres banques ne devraient pas s’y risquer, alors que les banques majeurs n’y vont pas », prévient-elle.
Face à cette première victoire, les Amis de la Terre appellent les banques à s’engager d’ici décembre 2015 à cesser totalement leurs financements dans le secteur du charbon. « La COP21 est une fenêtre d’opportunité pour inciter les banques à s’engager », relève Lucie Pinson. Le mois de mai, avec les assemblées générales des Grandes Banques françaises, notamment BNP Paribas (13 mai), la Société Générale (19 mai) et le Crédit Agricole (20 mai) sera un moment de mobilisation important pour l’association.
Une première victoire à renforcer
« C’est la première fois que les banques s’engagent à ne pas financer les projets de toute une région en raison de leurs impacts environnementaux et climatiques. Cependant, la bataille pour le climat ne s’arrête pas là et leurs engagements sont loin de suffire à inverser la hausse de 218 % des financements des banques françaises au secteur du charbon entre 2005 et 2013 », prévient Lucie Pinson .
Mais pour limiter la hausse des émissions en dessous du seuil de 2°C, il faut aller beaucoup plus loin. A l’origine de 94 % des 30 milliards d’euros de financements français au secteur du charbon entre 2005 et avril 2014, BNP Paribas, le Crédit Agricole et la Société Générale font de la France le 4ème plus gros financeur de ce secteur,derrière la Chine, les Etats-Unis et le Royaume-Uni. « Il faut passer la vitesse supérieure. D’autres projets charbonniers pourraient voir le jour grâce aux banques françaises. Or, 88 % des réserves totales de charbon au monde doivent rester dans le sol si nous voulons pouvoir rester en dessous-du seuil de 2 °C et il est donc urgent que les banques françaises s’engagent dès cette année à mettre un terme à leurs financements au secteur du charbon » poursuit Lucie Pinson. Les Amis de la Terre ont donc créé le site internet dédié jechangedebanque.eu, afin que tout client puisse leur demander l’arrêt des financements dans le secteur du charbon.
Les trois grandes banques françaises communiquent de plus en plus sur leurs engagements contre le réchauffement climatique, mais comptent parmi les 25 premiers financeurs du secteur du charbon au niveau international. BNP Paribas et la Société Générale sont même les 5ème et 7ème banques à financer les mines de charbon en Australie.
La Grande Barrière de Corail menacée
Un rapport commandé par le WWF notait début février que la Grande Barrière de corail étaitmenacée par l’extension éventuelle des ports existant. Celle-ci s’accompagnerait du dragage d’environ 51 millions de mètres cube de fond océanique, pour creuser et entretenir des bassins, des chenaux…Ces sols sont rejetés plus loin, détruisant potentiellement les fonds marins et leurs écosystèmes. « Une grande partie pourrait finir dans les eaux protégées de la Grande Barrière de corail où elle risque de former des bancs de sédiments qui pourront dériver sur près de 80 km et causer de lourds dégâts. Le dragage ainsi que les boues qu’il génère peuvent étouffer les coraux et compromettre la survie d’espèces menacées comme les tortues marines », prévient le WWF.
Ce vaste bassin charbonnier constitue la deuxième plus grande zone de développement possible des énergies fossiles au monde, après la Chine. S’il entre en exploitation, il émettra 705 millions de tonnes de CO2 par an, presque autant que l’Allemagne, le sixième émetteur mondial de dioxyde de carbone. L’Australie souhaite doubler la capacité d’exportation de charbon de l’Etat du Queensland. Pour augmenter la capacité en charbon des ports de la région, de 267 millions de tonnes à 637 millions de tonnes par an, le pays souhaite entreprendre des travaux d’extension de ses ports. Lesimpacts environnementaux liés dans la zone du récif a poussé nombre de banques importantes à se retirer de leur financement.
Toutefois, toutes les molécules ne peuvent pas être clippées à n’importe quelle autre. La réaction met en jeu un alcyne et un groupement à base d’azote. Depuis une dizaine d’années, la chimie click fait l’objet de nombreuses recherches. Si certaines visent principalement à maîtriser la réaction, beaucoup portent sur des nanoparticules d’or qui sont très utilisées dans le secteur médical. Le couplage entre des azotures et des alcynes fait partie des réactions chimiques dites bio-orthogonales, des réactions biocompatibles et d’une grande sélectivité. Voici 7 exemples d’applications de la chimie click.
Le CEA prépare des motifs chimiques
Les chercheurs du CEA-Ibitec-S ont développé une nouvelle application de la chimie click. Pour assembler deux éléments, les chimistes dotent l’un d’entre eux d’un groupement hétérocyclique doublement chargé, aussi appelé sydnone, et le second d’un groupement alcyne. En présence d’un catalyseur, souvent du cuivre, ces deux motifs permettent de clipper les éléments l’un à l’autre. Les scientifiques ont découvert cette réaction suite à une analyse à base de criblage à haut débit de milliers de combinaisons possibles. Cette réaction peut se produire dans du sang humain par exemple, et donc s’appliquer à la chimie médicinale aussi bien qu’aux biotechnologies.
Des nanoparticules d’or liquides-cristallines
Dans sa thèse soutenue en 2012, Sylvain Mischler de l’université de Neuchâtel explique comment la chimie click peut servir à synthétiser des nanoparticules d’or. Pour y parvenir des dendrons liquides-cristallins sont greffées aux nanoparticules d’or par cycloaddition 1,3-dipolaire. La réaction est catalysée par du cuivre. Cette approche permet de greffer aux particules d’or des dendrons acétyléniques de première et deuxième génération, mais aussi des structures dendritiques contenant des fullerènes comme le méthanofullérodendron.
Assemblage et désassemblage de systèmes prodrogue
En 2011, l’ANR accepte de financer la mise au point d’un nouveau système de systèmes nanoparticulaires poreux capable de libérer de façon contrôlée un principe actif. Ce dernier est encapsulé et relâché par ouverture de nanovalves quand il est éclairé. Pour y arriver, les chercheurs misent sur la chimie click pour lier la drogue à une molécule porteuse puis la libérer rapidement sous l’effet de la lumière UV. D’où le nom de click-unclick.
Assemblage de nanoparticules magnétiques sur des surfaces fonctionnalisées
Autre thèse, autre financement ANR. Delphine Toulemon de l’Institut de physique et chimie des matériaux de Strasbourg a réussi à clipper des nanoparticules magnétiques sur des surfaces fonctionnalisées par des molécules organiques. L’utilisation de radiations microondes permet d’accélérer la réaction tandis que le contrôle de la réaction click par électrochimie optimise la préparation de films multicouches de nanoparticules.
Fixer des nanoparticules d’or sur un substrat
Des scientifiques polonais ont utilisé la chimie click pour fixer des nanopartiucles d’or sur un substrat de carbone vitreux. Ce faisant, les nanoparticules se retrouvent liées au substrat via des liaisons covalentes, plus robustes que les liaisons faibles existantes lorsque les nanoparticules sont simplement déposées. Les chercheurs de l’Institut de chimie physique de l’académie polonaise des sciences (Varsovie) ont réussit en ajoutant des acyles aux nanoparticules d’or et des azotures au substrat. La réaction utilise une catalyse électrochimique, ce qui optimise le temps de réaction par rapport à une catalyse chimique. Cette méthode pourrait servir à fabriquer des détecteurs de conservateurs par exemple. Les scientifiques polonais assurent pouvoir travailler avec d’autres types de substrats.
Synthèse d’agents bimodaux
Au Laboratoire de synthèse et physicochimie de molécules d’intérêts biologique à Toulouse, les scientifiques ont élaboré des complexes hétérobimétalliques pouvant servir pour l’imagerie bimodale. Grâce à la chimie click, ils ont notamment greffé une pince iminodiacétate tridente sur un complexe Re(I)-pyridine-triazote pyta bidente utilisable comme sonde bimodale fluorescente.
Et si on se passait du cuivre ?
Alors que la chimie click a tout pour séduire le monde du vivant, elle présente un point faible : sa cinétique est extrêmement faible, d’où le recours fréquent à un catalyseur, le cuivre. Sauf qu’un excès de cuivre peut présenter une certaine toxicité cellulaire. Pour s’en affranchir, les scientifiques du Laboratoire de marquage au carbone 14 du CEA ont eu l’idée d’intégrer le cuivre directement à l’un des deux éléments à clipper. Les chercheurs ont développé un réactif comprenant à la fois la fonction azoture et un complexant de cuivre. Plus besoin de rajouter le catalyseur tout en conservant une bonne cinétique en réalisant les réactions en quelques secondes.
Cela est déjà arrivé. L’extinction massive des espèces qui s’est produite il y a 252 millions années, a vu disparaître de la surface de la Terre plus de 90% des espèces animales marines et 66% des espèces terrestres en 60 000 ans. Il s’agit de la plus grande extinction massive ayant affecté la Terre. En cause ? Selon cette nouvelle étude parue dans Science, d’énormes éruptions volcaniques, qui en émettant des quantités importantes de CO2 ont provoqué une acification fatale des océans par dissolution du CO2 atmosphérique. Une autre étude parue dans Science en 2012 révélait déjà que les quantités de CO2 émises par ces volcans avaient aussi entraîné une hausse importante des températures : la température au sol était comprise entre 50°C et 60°C, tandis qu’à la surface des océans équatoriaux, elle avoisinait les 40°C.
Dans un communiqué, Matthew Clarkson, auteur principal de cette nouvelle étude prévient « C’est une découverte préoccupante, étant donné que nous pouvons déjà voir une augmentation de l’acidité des océans aujourd’hui, résultant des émissions anthropiques de carbone ». Selon le dernier rapport du GIEC, l’océan a en effet absorbé environ 30% du dioxyde de carbone anthropogénique émis depuis 250 ans, provoquant l’acidification des océans à un niveau probablement au plus fort depuis des millions d’années. Nous serions donc sur une pente dangereuse. Cette évolution a déjà des conséquences sur la faune marine, notamment sur les coquillages et les coraux. L’acidification actuelle pourrait donc présager d’une nouvelle extinction massive des espèces à venir. Les lecteurs les plus affutés pourront remarquer que celle-ci a par ailleurs probablement déjà commencé pour d’autres raisons : surpêche, réduction d’habitats, braconnage, etc.
Comprendre l’acidification passée pour prévoir les conséquences à venir
Pour faire cette découverte, Clarkson et ses collègues ont étudié des roches aux Émirats arabes unis, englouties dans l’océan il y a des centaines de millions d’années. Ils y ont découvert que les océans se sont acidifiés assez rapidement en termes géologiques – au cours de quelques milliers d’années. Cela a suffi pour détruitre les chaînes alimentaires et provoquer l’effondrement de la plupart de la vie dans l’océan.
La vie aura mis 5 millions d’années pour se reconstruire et voir apparaître les ancêtres des dinosaures. Leurs descendants seront anéantis dans une autre catastrophe près de 200 millions d’années plus tard.