L’infinitésimale légèreté de l’électron déterminée avec une précision inégalée

Des physiciens ont réussi à déterminer avec une précision jamais atteinte jusqu’ici la masse de l’électron, une constante clé pour la physique fondamentale.

La nouvelle mesure publiée mercredi dans la revue Nature par l’équipe de Sven Sturm (Institut Max-Planck pour la physique nucléaire, Heidelberg, Allemagne) est 13 fois plus précise que la valeur qui était retenue précédemment.

L’électron est plus de 1.800 fois plus léger que le proton et le neutron, les autres constituants élémentaires de l’atome. Cette faible masse de l’électron rend sa détermination précise très difficile.

Découvert en 1897 par le physicien anglais Joseph John Thomson, l’électron est l’un des plus importants constituants de la matière. Thomson avait alors déjà estimé qu’il était au moins mille fois plus léger que l’ion hydrogène (proton), l’objet le plus léger alors connu. Mais il était encore loin du compte.

Pour exprimer la masse de ces tout petits objets physiques dont est constituée la matière, les physiciens utilisent l’unité de masse atomique, une mesure standard définie comme 1/12e de la masse d’un atome de carbone 12.

Le principal outil utilisé par l’équipe de Sven Sturm pour réaliser ses nouvelles mesures est le « piège de Penning », un dispositif bien connu qui combine un champ magnétique et un champ électrique particuliers. Il permet de piéger les particules pendant une longue durée, pour en mesurer les propriétés avec précision.

Sven Sturm et ses collègues n’ont toutefois pas mesuré la masse atomique de l’électron directement, mais par l’intermédiaire d’un électron lié à un noyau de carbone, dont la masse atomique est connue.

Les physiciens ont ensuite calculé que la masse atomique de l’électron était de 0,000548579909067.

Ils estiment que la nouvelle valeur ainsi obtenue est 13 fois plus précise que celle retenue en 2010 par le Comité de données pour la science et la technologie (CODATA), organisme qui préconise une liste de valeurs des constantes physiques.

A ce niveau de petitesse, la nuance peut paraître insignifiante, mais elle constitue un maillon très important pour la physique des particules.

« Ce résultat jette les bases pour de futures expériences en physique fondamentale », ont estimé les auteurs de l’étude.

Il devrait permettre dans l’avenir des tests de précision du « Modèle Standard » de la physique , qui explique comment les briques de la matière interagissent entre elles.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Revue du web #56 : les vidéos les plus étonnantes de la semaine

Cette semaine dans la revue du Web : 

  • « Tippe Top », la toupie sens dessus dessous ;
  • L’anagyre, la toupie qui ne tourne que dans un seul sens ;
  • Jeu égal ? Un robot super champion de air-hockey ;
  • Un bateau décharge sa cargaison de bois de manière spectaculaire
  • Le gadget (inutile ?) de la semaine : une machine pour trier les Skittles et les M&M’s par couleur ;
  • Et en bonus : l’art délicat de ramasser un marteau sur le sol lunaire.

« Tippe Top », la toupie sens dessus dessous

Triviales, les toupies ? Pour vous convaincre du contraire, débutons notre cinquante-sixième Revue du web avec « Tippe Top », une toupie pas vraiment comme les autres. Enthousiaste mais quelque peu malhabile, le testeur de la vidéo qui suit doit tout de même s’y reprendre à trois fois pour donner l’impulsion caractéristique à son petit joujou, tout juste déballé de son écrin, lui permettant d’effectuer les premiers tours comme l’une ou l’autre de ses consœurs toupies. Il ne faut pourtant pas beaucoup plus de quelques secondes pour voir « la magie » opérer : la toupie en aluminium semble perdre son équilibre, puis se dresse enfin… en se retournant ! C’est bien sur sa pointe, son manche, que la toupie à base sphérique termine son parcours, et ce pendant une petite dizaine de secondes, avant de se coucher comme une toupie classique.

Sujet d’étude depuis le début du dix-neuvième siècle, notamment par une Munichoise, Helene Sperl, la physique derrière la toupie « Tippe Top » n’est pas sans nous rappeler un autre phénomène physique, la « rotation de l’œuf dur » : un œuf dur mis en rotation à une vitesse d’environ dix tours par seconde se dresse, contre toute attente, à la verticale. L’élévation du centre de gravité de l’œuf serait directement liée à la transformation de l’énergie cinétique en énergie potentielle, due à un effet gyroscopique produit par le frottement entre l’œuf et la surface sur laquelle il tourne.

L’anagyre, la toupie qui ne tourne que dans un seul sens

Toujours pas convaincu(e)s ? Continuons alors avec une toupie d’un tout autre genre, répondant au doux nom d’« anagyre » : lancée dans un sens que nous qualifierons – évidemment – de bon sens, la toupie tourne sans aucun problème, avec majesté. Pourtant, une fois lancée dans l’autre sens, la toupie devient revêche, se rebelle et s’arrête de tourner pour finalement repartir… en sens inverse.

Redécouverte dans les années 70 par une équipe d’archéologues qui, pour tromper l’ennui, firent tourner nonchalamment des pierres de hache sur un plan de travail, pierres qui ne manquèrent pas de s’arrêter de tourner pour reprendre de plus belle en sens inverse, cette famille de toupie a donc un sens de rotation privilégié.

Prenant assez souvent la forme d’un ellipsoïde aplati, la plupart des anagyres cachent leur secret dans la distribution de leur masse interne : pour un anagyre d’apparence symétrique, les masses sont réparties de manière différente, selon que l’on se place sur l’un ou l’autre des axes de symétrie horizontal ; pour un anagyre d’apparence asymétrique, la répartition inégale des masses saute aux yeux.

Jeu égal ? Un robot super champion de air-hockey

Lorsque Jose Julio réunit tous les composants nécessaires à la construction d’une imprimante 3D, la dernière chose que cet internaute espagnol semble vouloir faire est celle qui coule pourtant de source… Débrouillard comme pas deux, le petit génie ibérique désire se lancer dans un projet innovant, tout en faisant plaisir à sa fille, fan de air-hockey – un jeu assez populaire que l’on retrouve régulièrement dans les salles d’arcade, où un disque est maintenu en l’air à l’aide du souffle généré par de petites aérations aménagées dans la table de jeu. L’idée est lancée…

Une table, quelques trous à la perceuse, deux ventilateurs PC, et le terrain de jeu est prêt. Le robot est lui composé de trois moteurs, un pour se déplacer sur l’axe des abscisses, deux sur l’axe des ordonnées. L’algorithme de mouvement de l’imprimante 3D ne lui semblant pas assez réactif pour être efficace au air-hockey, il le modifie pour que chaque nouvelle commande de mouvement annule la précédente, ce qui permet au robot de rejoindre la position désirée le plus rapidement possible. Pour la détection du palet, il se sert d’une « Playstation Eye », la caméra numérique dédiée à la Playstation 3 qui utilise la vision par ordinateur et la reconnaissance des mouvements. Perfectionniste, la mise en œuvre de la stratégie et de la « science » de la trajectoire est une vraie réussite. Jose Julio a bel et bien créé un monstre, un Zubizarreta du air-hockey qui, non content d’être presque imbattable, se fend d’un petit « Can you beat me ? » qui saura ravir tous les mauvais perdants.

Un bateau décharge sa cargaison de bois de manière spectaculaire

Le transport du bois au Canada peut être beaucoup plus palpitant qu’une simple succession de camions sur les réseaux routiers ou que quelques barges se déplaçant en rang d’Oignon. Dans la province occidentale de Colombie-Britannique, le « Seaspan Survivor » livre sa gigantesque cargaison de rondins de bois de manière assez spectaculaire : s’inclinant peu peu jusqu’à atteindre un angle de près de 30 degrés par rapport au niveau de l’eau, le Seaspan Survivor abandonne sa cargaison en donnant l’impression de chavirer tout entier.

Après cette opération délicate, un second bateau viendra pousser les rondins vers le rivage pour en faciliter la collecte.

Le gadget (inutile ?) de la semaine : une machine pour trier les Skittles et les M&M’s par couleur

Dans la droite lignée de David Neevel – cet artiste farfelu qui s’était fixé pour objectif la mise au point d’une machine permettant de se débarrasser de la crème d’un Oreo, dont nous vous parlions déjà ici – notre gadget (inutile?) de cette semaine se propose lui aussi de résoudre un problème absolument majeur : pouvoir trier des petites confiseries (des Skittles et des M&M’s) par couleur, et les ranger dans de petits récipients dédiés à leur couleur respective.

Équipée d’un module Arduino Uno – lui-même construit autour d’un micro-contrôleur Atmel AVR – d’un capteur de couleurs, d’un capteur de mesure de distance, de plusieurs servomoteurs, et enfin complétée par quelques pièces conçues sur mesure sortant tout droit d’une imprimante 3D, la machine infernale peut venir à bout d’un sac d’un kilo et demi de ces petites gâteries en approximativement cinq minutes. Une découverte primordiale pour tout ceux qui ne supportent à aucun prix les M&M’s rouges. Ou jaunes. Étonnant, non ?

Bonus : de l’art délicat de ramasser un marteau sur le sol lunaire

Avec une gravitation près de six fois moins élevée que sur Terre, le moindre mouvement effectué sur le sol lunaire devient une expérience ô combien différente que sur notre bonne vieille planète. Pour conclure notre cinquante-sixième Revue du Web, jetons un œil dans le rétroviseur avec cette vidéo de l’astronaute américain Charles Duke, dixième homme a avoir foulé le sol sélène (en 1972), luttant comme un beau diable pour tenter de récupérer un marteau qu’il vient tout juste de faire tomber.

Copilote du module lunaire d’Apollo 16, Charles Duke passa un peu plus de 71 heures sur la Lune, dans une région de hauts plateaux, aux environs du cratère Descartes. L’une des missions de Duke était de collecter des échantillons, ce qui ne devait pas être chose simple au vu de la mésaventure du marteau, qui lui échappe des mains. S’ensuivent alors quatre tentatives infructueuses pour le récupérer à terre… pour qu’il finisse par abandonner, se dirigeant vers le rover à la recherche des pinces. Opération qui, cette fois-ci, fut couronnée de succès, bien que non filmée.

Par Moonzur Rahman

Et aussi dans les
ressources documentaires :

Le Machining Cloud®, une révolution dans l’industrie mécanique

Le Machining Cloud est un outil internet intelligent et rapide offrant aux industriels de la mécanique l’accès à des applications, des données, des services, et des ressources issus d’une base de données centralisée via le Cloud.

Au delà des capacités offertes par une bibliothèque documentaire, le Machining Cloud est capable, de manière intelligente, de proposer aux industriels les meilleures solutions disponibles pour un processus donné.  Le Machining Cloud est conçu pour amener la production mécanique à un niveau d’efficacité jamais atteint, tant du point de vue de la qualité des pièces, que de la productivité des entreprises.

Il connecte les industriels à une offre illimitée de moyens  de production à partir d’une plateforme intuitive et standardisée. Les industriels de la mécanique ont ainsi accès à de nombreux outils analytiques pour créer,  gérer et optimiser les données de coupe, ainsi que la capacité de commander directement les composants nécessaires pour réaliser les pièces. Les utilisateurs peuvent aussi consulter et utiliser des machines-outils virtuelles, les bridages, les assemblages d’outils, et toute une série d’objets relatifs à la coupe.

Cet outil élimine également les tâches de consultation et de recherche dans les catalogues papier, ou dans les sites Internet  pour trouver et acheter les composants les plus appropriés.

D’après Michael Taesch, chef de projet du Machining Cloud, « La plupart des entreprises sont tellement habituées à subir ces tâches de recherche qu’elles ne pensent pas qu’il existe de meilleures méthodes. Avec le Machining Cloud, les industriels ont accès gratuitement et en quelques minutes à des informations fiables et à jour. A l’inverse des catalogues électroniques dont les données sont issues de simples recherches sur internet, le Machining Cloud propose des informations standardisées, renseignées et mises à jour sous la responsabilité des ‘éditeurs’ eux-mêmes -leaders en fabrication d’outils, de machines-outils, éditeurs de logiciels d’usinage, etc. Et, au-delà de la recherche documentaire,  dans le cadre d’un processus d’outillage, par exemple, les industriels peuvent économiser 20 à 30% de leur temps machine. En effet, le Machining Cloud est capable de recommander un meilleur outil ou un autre bridage dont l’intérêt sera de raccourcir le temps de coupe ou de faciliter le processus. Considérant que le Machining Cloud peut faire plusieurs suggestions sur plusieurs opérations, l’économie réalisée par cette application peut devenir impressionnante ! »

En outre, l’information fournie est directement connectable aux logiciels de FAO, de Simulation/Vérification, et de gestion d’outils.  Les données sont automatiquement formatées pour être utilisables dans les documents d’atelier et les listes d’outils.

Lors de l’événement EMO, le carburier KENNAMETAL a présenté un outil puissant qui fut véritablement l’attraction du salon, à savoir la première application du Machining Cloud. KENNAMETAL a été le premier constructeur à s’intéresser sérieusement au domaine du Cloud et à la technologie Machining Cloud. D’autres applications sont en cours de développement avec des entreprises leaders du secteur de la mécanique.

Disponible en téléchargement, l’application NOVO de KENNAMETAL optimise et affine chaque projet avec l’utilisation d’outils numériques intelligents conçus pour transformer le flux de travail en un processus de production simple et fluide.

Comme toutes les applications fondées sur le Cloud, le Machining Cloud utilise un réseau de serveurs distants qui hébergent et distribuent sur internet les processus et les données. Alors que jusque là, l’informatique traditionnelle imposait un stockage et une gestion locale des données, le principe du Cloud, en général, est d’offrir l’accès à une quantité d’informations à tout moment et n’importe où.

Pour plus d’information sur le Machining Cloud
Pour en savoir plus sur NOVO : kennametal.com/novo/fr et en images : youtube.com/watch

 

Et aussi dans les
ressources documentaires :

 

Retrouver le sens du toucher grâce à une main artificielle

Ce Danois de 36 ans ne deviendra pas un agent secret comme Steve Austin et pourtant, sa main bionique est un bijou de technologie. Grâce à elle, l’homme a pu retrouver des sensations disparues depuis neuf ans, lorsqu’une explosion survenue alors qu’il manipulait des feux d’artifice le privait de son bras gauche. Choisi comme cobaye pour tester une nouvelle main artificielle, Dennis Aabo Sorensen a de la chance dans son malheur puisque les essais cliniques auxquels il a participé lui ont fait redécouvrir le sens du toucher.

 Le système mis au point par une équipe de chercheurs suisses, allemands et italiens repose sur des électrodes implantées dans le haut du bras amputé. La particularité est que les électrodes sont directement greffées sur les nerfs périphériques. Les capteurs de la prothèse analysent la tension des tendons artificiels, convertissent cette information en impulsion électrique transmise directement aux électrodes. Un procédé qui a rendu le sens du toucher à Dennis, capable de détecter des formes mais aussi des textures.

Ce n’est qu’après trois semaines de test que la prothèse a été reliée aux électrodes. Le patient s’est retrouvé les yeux bandés, avec des boules Quiès dans les oreilles pendant une semaine. Privé de la vue et de l’ouïe, il a pu se focaliser sur le toucher. Cette expérience publiée dans la revue Science Translational Medicine n’a duré qu’un mois, conformément aux règles des essais cliniques. Mais les chercheurs l’affirment, les électrodes auraient pu rester greffées des années. De quoi redonner espoir aux personnes ayant subi la perte d’une main. Cependant, une telle prothèse ne devrait pas être commercialisée avant minimum cinq ans, un travail de miniaturisation des composants et sur la batterie devant être mené.

Alors, à quand un homme qui valait trois milliards ? En ce qui concerne le bras bionique, le prix reste mystérieux, les auteurs des tests se refusant à chiffrer le dispositif. Mais il est évident que s’ils veulent démocratiser leur prothèse, le prix devra être raisonnable.

Par Audrey Loubens, journaliste scientifique

L’astéroïde Cérès émet des jets de vapeur d’eau

Cette observation méritait bien une publication dans Nature. Le télescope spatial Herschel a permis à des chercheurs d’assister à des émissions de vapeur d’eau sur l’astéroïde Cérès. Cette découverte met un terme au débat sur la présence ou non d’eau sur cet astéroïde. Oui, il y a bien de l’eau sur Cérès. 

L’astéroïde, le plus gros connu du système solaire fait 950 km de diamètre, a d’ailleurs été promu planète naine du fait de ses dimensions.  De précédentes mesures suggéraient déjà la présence de glace à sa surface, mais celles-ci datent de 1970 et n’avaient jamais pu être reproduites malgré plusieurs tentatives  dont certaines mettant en jeu le Very Large Télescope (VLT).

Il aura donc fallu aux scientifiques européens, dont des français du CNRS et de l’Observatoire de Paris au LESIA (Observatoire de Paris/CNRS/Université Pierre et Marie Curie/Université Paris Diderot) et à l’IMCCE (Observatoire de Paris/CNRS/Université Pierre et Marie Curie/Université Lille 1), ces nouvelles mesures du télescope spatial Herschel, menées de 2012 à 2013 pour détecter de l’eau à la surface de Cérès.

Cette eau est sous forme gazeuse. La vapeur est émise de façon irrégulière, préférentiellement lorsque l’orbite de Cérès est proche du Soleil. Les mesures ont permis d’identifier deux sources distinctes d’où proviennent ces jets.

L’équipe de scientifiques a cherché à interpréter ces observations et s’est notamment intéressée à la trajectoire de l’eau émise. Des simulations des chercheurs au LESIA ont ainsi permis de déduire qu’une partie de cette eau retombait à la surface de Cérès.

Si cette découverte apporte la réponse à la question de la présence d’eau sur Cérès, elle interroge désormais sur l’origine de cette eau. Parmi les différentes explications envisagées, la théorie d’un océan souterrain  ouvrirait la voie à la recherche de vie extra-terrestre.

Par Matthieu Combe, journaliste scientifique

La température moyenne terrestre en 2013 a été de 14.52°C

C’est une valeur légèrement inférieure à celle de 2010 (14,56°C), de 2005 (14,55°C) et de 1998 (14,53°C) selon cet organisme officiel du gouvernement américain, et très proche de la moyenne des 20 dernières années (1994-2013) qui est de 14,44°C. L’écart est inférieur à un dixième de degré. Un autre organisme américain, le GISS, dresse un tableau globalement similaire à celui de la NOAA.

La pause de la hausse des températures s’est  poursuivie en 2013

Le hiatus au niveau de la température moyenne globale dure depuis plus d’une décennie et demie selon les scientifiques du climat, y compris ceux participants aux rapports du GIEC, organisme au service des politiques climatiques prônées par l’ONU. Il n’est donc plus possible de la nier ou de tenter de la marginaliser, même au nom d’une cause aussi noble que la promotion des énergies renouvelables. 

En effet, selon le dernier rapport du GIEC (l’AR5) publié en 2013, « le taux de réchauffement sur les 15 dernières années (1998-2012) de 0.05 degrés Celsius par décennie est plus faible que sur la plus longue période 1951-2012 qui est de 0.12°C par décennie. » Toute chose équivalente, sur la période 1951-1997 le réchauffement a donc été selon le GIEC d’environ 0,15°C par décennie, et il est  ainsi sur la période 1998-2012 trois fois moins rapide (0,05°C par décennie). L’année 2013 ne change pas cette tendance à la décélération, elle s’y inscrit au contraire pleinement.

figure 1 : Evolution des températures

D’un côté la pause compromet la stratégie de communication des partisans de l’exagération du réchauffement climatique conçue pour faire peur au grand public et aux décideurs, exagération dont raffolent d’ailleurs les médias en quête de lecteurs. Mais elle est d’un autre côté exploitée par des personnes parfois désignées comme « sceptiques », ce qui est un choix sémantique malheureux étant donné que le scepticisme est la base de l’esprit scientifique. Ces personnes veulent complètement nier l’importance du défi climatique. Parfois pour protéger les acteurs qui ont des intérêts financiers dans le secteur des énergies fossiles.

Ou alors, souvent pour des raisons idéologiques, par hostilité vis-à-vis de l’émergence des énergies renouvelables. Les énergies renouvelables, au très large potentiel, deviendront pourtant indispensables dans un contexte de stocks de combustibles fossiles non infinis et de croissance de la demande énergétique mondiale. Plusieurs milliards d’êtres humains des pays dits « du sud » aspirent à vivre au même niveau de confort que celui des européens de l’ouest. 

Le débat sur la thématique climatique est devenu tellement polarisé et violent entre les deux extrêmes que les climato-modérés ont du mal à faire entendre leur voix. 

figure 2 : Evolution des précipitations (1900 / 2013)

Une tendance de fond au réchauffement indiscutable 

La température moyenne terrestre durant le XXème siècle a été de 13,9°C. Comparativement à cette moyenne du siècle dernier, selon les données de la NOAA, l’année 2013 se situe ainsi à +0.62°C, 2012 à +0.57°C, 2011 à +0.53°C, 2010 à +0.66°C et pour la moyenne de la décennie 2004-2013 l’anomalie est de +0.59°C. Il y a donc bien une tendance de fond au réchauffement à l’échelle séculaire, en bonne partie lié aux émissions de gaz à effet de serre d’origine humaine selon la grande majorité des climatologues. Semble s’y superposer une oscillation à l’échelle multidécennale.

Cette oscillation joue probablement un rôle clé concernant la fameuse pause du réchauffement et cette thématique a fait l’objet le 15 janvier 2014 d’une synthèse par le média scientifique de référence Nature. « Même les scientifiques qui sont confiants dans les modèles  du climat reconnaissent qu’il y a une pression croissante pour tenter d’expliquer ce qui se passe » explique Nature, soulignant que d’autres scientifiques plus incisifs remettent carrément en question la validité de ces modèles. Pour le climatologue Gabriel Vecchi travaillant pour la NOAA: « il y a quelques années, vous pouviez voir le hiatus mais il pouvait être marginalisé du fait qu’il était dans le bruit. Mais maintenant c’est quelque chose qu’il va falloir expliquer ». Pour Nature « l’Oscillation Décennale du Pacifique (PDO) pourrait être une pièce cruciale pour résoudre l’énigme du hiatus ». 

L’Oscillation Décennale du Pacifique possède une période de six décennies

Après une phase chaude qui pourrait expliquer une partie du boom des températures observé dans les années 80 et 90, nous venons d’entrer en ce début de XXIème siècle dans une phase froide de la PDO, phase froide qui s’accompagne d’une prédominance dans un rapport 2:1 des épisodes La Niña refroidissants sur les épisodes El Niño réchauffants, tous deux s’étalant sur des périodes bien plus courtes que les phases de la PDO. Le rapport est inversé en phase PDO chaude. Les volumes des précipitations à l’échelle globale suivent ces oscillations océaniques. 

Contrairement à ce qu’essayent de faire croire certains intellectuels hostiles aux politiques climatiques prônées par l’ONU, le passage en phase océanique froide ne signifie pas que le forçage exercé par les gaz à effet de serre d’origine anthropique a disparu, la concentration en CO2 atmosphérique bat des records et le CO2 est un gaz à effet de serre. Ce forçage est simplement masqué. 

Selon l’hypothèse de l’onde de stade des climatologues Marcia Wyatt et Judith Curry, hypothèse qui a fait l’objet en octobre 2013 d’une publication dans Climate Dynamics (une revue peer reviewed), la pause du réchauffement pourrait durer jusqu’à la décennie 2030. 

Par Olivier Daniélo

En savoir plus :

  • L’article à propos du la pause du réchauffement dans la revue Nature : http://www.nature.com/news/climate-change-the-case-of-the-missing-heat-1.14525
  • Le bilan 2013 par la NOAA : http://www.ncdc.noaa.gov/sotc/global/2013/13
  • La série complète des températures des 20 dernières années selon la NOAA : 1994 (14,22°C), 1995 (14.35°C), 1996 (14.22°C), 1997 (14.42°C), 1998 (14.53°C), 1999 (14.36°C), 2000 (14.33°C), 2001 (14.45°C), 2002 (14.51°C), 2003 (14.52°C), 2004 (14,48°C), 2005 (14,55°C), 2006 (14,50°C), 2007 (14,49°C), 2008 (14.41°C), 2009 (14,50°C), 2010 (14,56°C), 2011 (14,43°C), 2012 (14,47°C), 2013 (14,52°C).

Monsanto parie sur l’eugénisme végétal

Clap de fin pour les OGM ? En tout cas, ils ne sont plus au cœur des préoccupations de Monsanto ni des autres poids-lourds comme Bayer. Conscients que les produits génétiquement modifiés se heurtent à un rejet massif de nombreuses populations et donnent lieu à de multiples procès, ces grands de l’agriculture investissent dans les biotechnologies. L’objectif reste le même, optimiser les plantes. Que cela soit pour être plus résistants aux parasites, aux maladies, pour avoir une meilleure esthétique ou même pour avoir une forme adaptée au ramassage, le but reste de ne garder que les meilleures !

Alors comment renforcer les plantes sans les modifier génétiquement ? En sélectionnant patiemment les caractéristiques cibles. Il s’agit donc de sélectionner une plante qui possède la compétence que l’on cherche à garder. Son pollen va féconder une de ses congénères, l’espoir résidant dans le fait que la descendance possédera à coup sûr la compétence ciblée. Une pratique connue depuis longtemps. Oui mais voilà, une telle approche ne réussie pas systématiquement et a l’inconvénient d’être longue à mettre en œuvre. D’où l’idée d’accélérer le processus. Pour y arriver, les industriels peuvent s’appuyer sur les biotechnologies, et plus particulièrement le génotypage et le marquage moléculaire. En effet, après la pollinisation de la plante, des scientifiques vont traquer au cœur du génome la compétence recherchée. Des marqueurs moléculaires leur permettent de la  pister dans les gènes puis de sélectionner exclusivement les semences porteuses de la compétence souhaitée.

L’utilisation des nouvelles technologies permet ainsi de promouvoir telle ou telle plante en à peine quelques années, une sélection qui aurait pris plusieurs centaines d’années en se contentant de l’approche traditionnelle.

L’avantage est que les plantes ainsi sélectionnées sont 100% naturelles et ne sont pas génétiquement modifiées. De quoi rassurer le consommateur tout en optimisant les cultures.

Par Audrey Loubens, journaliste scientifique

Le PDG d’EDF juge que de nouvelles centrales nucléaires seront inévitables en France

« L’Etat français (…) a décidé que le nucléaire devait faire partie du mix énergétique pour encore longtemps », a déclaré M. Proglio à la presse, en marge de la présentation des résultats annuels du géant français de l’électricité.

Le gouvernement s’est engagé à réduire de 75% à 50% la part de l’énergie nucléaire dans la production électrique française à l’horizon 2025, et à plafonner au niveau actuel la capacité de production nucléaire.

« Quelle que soit la durée de vie des centrales, il faudra bien les remplacer, parce que pour pouvoir continuer à produire de l’énergie électronucléaire, il faut un outil de production », a expliqué M. Proglio.

Quant à la fermeture de plusieurs centrales vieillissantes pour les remplacer par des réacteurs EPR de troisième génération, un scénario étudié par l’Elysée selon des informations de presse, M. Proglio a déclaré n’avoir « rien à dire sur les scenarii qui peuvent être envisagés ici ou là ».

« Nous échangeons bien entendu avec les pouvoirs publics. Mais, en fin de parcours, c’est aux pouvoirs publics qu’il appartient de définir la politique énergétique du pays, et il appartient à EDF de gérer son patrimoine et son outil industriels. Cela se fait de manière naturelle et concertée », a-t-il commenté.

Le groupe est détenu à plus de 84% par l’Etat français, qui n’a pas l’intention de s’en désengager, comme l’a assuré jeudi le Premier ministre Jean-Marc Ayrault sur Europe 1.

A plus court terme, EDF souhaite allonger la durée de vie de ses centrales au-delà de 40 ans, et a prévu à cette fin un plan d’investissement de 55 milliards d’euros d’ici à 2025.

« On a un programme très important de modernisation du parc existant qui ne peut se concrétiser que dans la perspective d’une durée de vie qui permet d’amortir cet investissement », a fait valoir M. Proglio.

« C’est à l’entreprise que revient de déterminer son ambition en termes de durée de vie (des réacteurs, ndlr) et à l’Autorité de sûreté nucléaire (ASN) de valider que cette durée de vie est compatible avec les normes de sûreté », a-t-il argué.

Quant à son éventuelle reconduction à la tête d’EDF, où son mandat s’achève en novembre, le PDG a souligné qu’il revenait aux actionnaires du groupe (à savoir l’État) d’en décider.

« J’ai envie d’y être », mais « ne spéculons pas », a-t-il dit. « J’ai une mission, une responsabilité, je l’assume, et je prépare EDF à être une formidable entreprise dans l’avenir », a-t-il précisé, se disant « passionné » par cette tâche.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Les agrégateurs de flexibilité : pourquoi, comment ?

La hausse de la demande de pointe, le développement des énergies renouvelables intermittentes et les nouveaux usages, tels que les véhicules électriques, nous imposent d’adopter la gestion du réseau électrique, notamment pour assurer l’équilibre offre/demande. L’intermittence et la décentralisation des moyens de production complexifient la gestion de cet équilibre. Si la mesure en temps réel de la consommation est nécessaire pour ajuster la production, cela ne suffit pas. Pour optimiser cet équilibre, il convient aussi agir sur les clients et leurs consommations. Cela se fera grâce à l’effacement, géré par les agrégateurs de flexibilité. 

La flexibilité d’une seule habitation est insuffisante pour être valorisée. Cependant, lorsqu’elle est agrégée à celles de dizaines de milliers de bâtiments et de plusieurs sites industriels, une économie de moyens de production de plusieurs mégawatts peut être effectuée. En périodes de pointe de demande sur le réseau, l’agrégateur pourra ainsi, par exemple, délester dans les bâtiments qu’il pilote, certains usages électriques, comme le chauffage, la climatisation, l’eau chaude sanitaire, l’éclairage, des process industriels, etc. La capacité d’effacement devra être d’autant plus importante que, lors des déclenchements de l’effacement, le consommateur final garde la possibilité de l’annuler. Ces agrégateurs doivent donc avoir un volume de capacité d’effacement conséquent, en gérant un grand nombre de sites, pour pourvoir compenser automatiquement cette baisse d’effacement, action nécessaire pour assurer l’équilibre du système électrique.

Les gestionnaires de réseaux devront donc connaître en temps réel les besoins de consommation, les niveaux de production et l’état des réseaux. Pour cela, ils devront rendre les immeubles et sites industriels qu’ils pilotent « intelligents », en déployant des compteurs communicants Linky, des capteurs, des réseaux de communication, des automatismes, des systèmes d’information et des logiciels de pilotage (pour le chauffage, la climatisation, etc.). L’outil informatique est la base du système sans laquelle les performances attendues par l’agrégateur ne peuvent pas être garanties. Au final, l’agrégateur devient en quelque sorte une « centrale électrique virtuelle » constituée, d’une part, de sources de productions réparties sur l’ensemble du territoire et, d’autre part, de gisements d’effacements de consommation. 

Des modèles en construction

Pour prévoir les résultats de son action sur un site, l’agrégateur a besoin de modèles performants. La prévision de la disponibilité d’un site pour s’effacer est effectivement la donnée la plus complexe à élaborer. Elle doit prendre en compte, d’une part, des paramètres physiques intrinsèques et, d’autre part, des comportements humains.

L’agrégateur cherche donc à anticiper la consommation d’électricité du site avec quelques heures d’avances. Ainsi, des stratégies de délestage en fonction des appels de puissance sont en cours d’élaboration. Des modélisations financières sont également en construction pour identifier de nouveaux modèles économiques et de nouvelles offres tarifaires en vue d’étudier et améliorer l’acceptabilité par les usagers. 

Pour que le système fonctionne et attire les clients, le service sera monétisé. C’est une particularité du marché de capacité : le fait de mettre à disposition de la puissance sera rétribué. De même, la livraison de l’énergie sera naturellement payée : c’est le cas, par exemple, en cas de vente de production photovoltaïque ou de vente d’électricité préalablement stockée (stockage par batteries, etc.).

Tests réalisées dans le cadre du projet GreenLys

Dans le cadre du démonstrateur GreenLys, GDF Suez a développé un dispositif opérationnel d’agrégation pour le secteur résidentiel. En récupérant les données de consommation globales, chauffage et eau chaude, l’agrégateur évalue le gisement de flexibilité de chaque expérimentateur, le confronte aux besoins du réseau et décide ainsi des effacements à réaliser de manière optimale.

Depuis le début de l’expérimentation, l’agrégateur a réalisé 20 000 effacements chez les expérimentateurs, soit une moyenne de 9 effacements par site et par semaine. Les effacements réalisés sur le chauffage et/ou l’eau chaude sanitaire, pendant 1 heure majoritairement, voire 2 heures, n’ont pas eu pour le moment pour but de maximiser la quantité d’électricité effacée, mais simplement de tester l’applicabilité aux bâtiments tertiaires et avoir des retours d’expériences.

Les premiers retours  montrent d’ailleurs que ces effacements n’ont pas eu d’impact sur le confort des expérimentateurs. La variation de température constatée au cours d’un effacement est située en moyenne entre 0,1 et 0,2°C. Les expérimentateurs ont peu utilisé la possibilité de déroger (interruption de l’effacement en cours en appuyant sur un bouton) : seulement 3 % d’entre eux l’ont fait. Ce premier retour d’expérience est à confirmer dans la durée et sera aussi validé avec des enquêtes sociologiques réalisées auprès des expérimentateurs. Ces tests vont se poursuivre à partir d’octobre 2013 et ce, durant toute la saison de chauffe, jusqu’en avril. L’objectif à ce stade de l’expérimentation est de collecter des données pour construire des modèles de prévision et d’étudier le comportement des utilisateurs.

Après avoir expérimenté sur les deux précédentes saisons de chauffe des plannings d’effacements « statiques », selon un rythme prédéfini, des plannings d’effacements «  dynamiques  » vont voir le jour. La tarification dynamique pourrait en effet devenir monnaie courante : elle consiste à faire évoluer le prix de l’électricité en temps réel pour s’ajuster aux contraintes du réseau. Ainsi, en cas de tension détectée, à cause de la hausse du prix de l’énergie ou de la baisse importante de la température extérieure, le prix de l’électricité est augmenté afin de réduire la demande globale et donc éviter le recours aux moyens de production de pointe plus onéreux et plus polluants !

Par Matthieu Combe, journaliste scientifique

Nucléaire: l’Elysée envisage de remplacer de vieilles centrales par des EPR (presse)

Les centrales visées sont celles dont le prolongement au-delà de 40 ans coûterait trop cher à l’électricien EDF, sommé par l’Autorité de sûreté nucléaire (ASN) de les mettre aux normes décidées après la catastrophe de Fukushima, en mars 2011 au Japon.

L’Elysée et Matignon, comme EDF et le groupe nucléaire Areva, n’ont pas commenté l’information.

A Bercy et au ministère de l’Ecologie et de l’Energie, on rappelle que l’engagement du président François Hollande de réduire de 75% à 50% la part de l’énergie nucléaire dans la production électrique française à l’horizon 2025 sera tenu, ainsi que celui de plafonner à son niveau actuel la capacité française de production nucléaire.

« Le président s’est engagé sur 50% de nucléaire en 2025, sur les manières de l’atteindre un débat existe », admet-on toutefois au ministère de l’Ecologie.

Le chef de l’Etat s’est également engagé à diviser par deux la consommation énergétique d’ici à 2050.

Selon le Nouvel Observateur toutefois, cet objectif de 50% d’électricité d’origine nucléaire serait retardé à 2028 « au plus tôt », comme l’avait déjà rapporté le journal Libération.

En échange de la fermeture d’une vingtaine de réacteurs, EDF obtiendrait le feu vert pour la construction de deux, voire trois EPR, comme l’EPR finlandais d’Areva, précise le magazine.

Une source proche du dossier a confirmé à l’AFP qu’a priori « ce ne sera pas le même nombre » de fermetures que d’ouvertures de centrales.

Le Nouvel Observateur ajoute que rien n’est encore formellement arbitré à l’Elysée, où les discussions impliquent les ministres Pierre Moscovici (économie), Arnaud Montebourg (Redressement productif) et Philippe Martin (Ecologie et Energie).

Seule la fermeture des deux réacteurs de la centrale de Fessenheim (Haut-Rhin) est pour l’heure prévue, fin 2016, sur les 58 réacteurs répartis dans 19 centrales nucléaires françaises.

Elle doit être compensée par la mise en service de l’EPR de Flamanville (Manche), dont le chantier a pris quatre ans de retard pour un coût de 8,5 milliards d’euros, triplé par rapport au budget initial.

Selon Le Monde, le PDG d’EDF Henri Proglio estime que la part du nucléaire diminuera mécaniquement en raison de la hausse de la consommation d’électricité liée aux nouvelles technologies et à un accroissement de la population de 6 millions d’habitants supplémentaires.

mpa/cb/DS

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

USA: une nouvelle substance pourrait rendre les batteries au lithium plus sûres

A l’heure actuelle ces batteries posent un risque d’incendie spontané, comme on l’a vu récemment dans des Boeing 787 Dreamliner ou sur des modèles de voitures électriques américaines Tesla.

« Il y a une forte demande pour ces batteries et aussi pour les rendre plus sûres », souligne Joseph DeSimone, professeur de chimie à l’Université de Caroline du Nord, qui a dirigé l’équipe de recherche.

« Les scientifiques cherchent depuis des années à remplacer cet électrolyte mais sans succès et personne n’avait jusqu’alors pensé à cette substance appelée perfluoropolyéther ou PFPE, comme électrolyte dans les batteries au lithium-ion », ajoute le professeur William Kenan, de l’Université de Caroline du Nord, un des co-auteurs de l’étude parue dans les Comptes rendus de l’Académie nationale américaine des Sciences (PNAS).

Aujourd’hui, les batteries au lithium équipent de nombreux appareils, dans les ordinateurs portables, les téléphones mobiles, les avions de ligne et les voitures électriques, mais un liquide inflammable est utilisé pour l’électrolyte, expliquent ces chercheurs.

Quand les batteries sont trop chargées, cet électrolyte prend feu, embrasant spontanément la batterie avec des conséquences potentiellement catastrophiques, précisent-ils.

Ces chercheurs ont réalisé le potentiel du PFPE pour les batteries au lithium quand ils se sont rendus compte qu’il avait la même structure chimique qu’un électrolyte polymère déjà objet de recherches pour des batteries au lithium.

Le PFPE est un polymère bien connu utilisé depuis longtemps comme lubrifiant pour des machines industrielles.

Mais « quand nous avons découvert que nous pouvions dissoudre du sel de lithium dans ce polymère tout a changé », explique Dominica Wong, une des chercheuses de l’équipe du professeur DeSimone.

« La plupart des polymères ne se mélangent pas à des sels, à l’exception du PFPE qui de plus est ininflammable, ce qui était inattendu », ajoute-t-elle.

Dans le passé, les chercheurs avaient identifié d’autres électrolytes ininflammables pour les batteries au lithium-ion mais ceux-ci compromettaient les propriétés de la batterie.

Désormais, l’équipe de recherche va se concentrer sur les moyens d’optimiser la conductivité de cet électrolyte et améliorer les cycles de recharge de la batterie, des étapes nécessaires avant une commercialisation, expliquent les auteurs de cette découverte.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Un colorant caramel en trop forte concentration dans des sodas

Halte aux colorants caramel. Ces additifs sont présents dans des boissons au cola, dans des confiseries, des soupes mais aussi dans certaines boissons alcoolisées comme la bière, le cidre et le whisky. Mais c’est leur taux élevé dans les sodas qui a attiré l’attention d’une association de consommateurs. Or, un des composés de ces colorants, le 4- méthylimidazole (4-MEI) serait cancérigène.  Interpellée par l’association, la Food and Drug Administration (FDA) doit donc rendre un avis. 

D’après les investigations publiées dans la revue de l’association, Consumer Reports, les produits de l’entreprise PepsiCo ne respectent pas la législation. Celle-ci limite le taux de 4-MEI à 29 µg/canette. Ce seuil a été établi à partir d’études menées sur des animaux et ayant suggéré un effet cancérigène. Au-delà d’un maximum de 29 µg  par personne et par jour, le 4-MEI provoquerait un cas additionnel de cancer pour 100 000 habitants. Les produits dépassant cette valeur doivent en faire le signalement sur le produit. Coca-Cola et PepsiCo s’étaient engagés en 2012 à abaisser le taux présent dans ses sodas. Si Coca-Cola a effectivement pris des mesures en ce sens,  les canettes PepsiOne et Diet pepsi présentent un taux de 4-MEI supérieur au seuil de 29 µg/canette sans pour autant être étiquetées en conséquence. Dans certains Etats, le taux atteindrait régulièrement 200 µg/canette. 

La FDA procède donc actuellement à une réévaluation des informations connues sur le 4-MEI, mais se montre rassurante en indiquant de ne pas considérer le 4-MEI comme un danger pour les Américains. Pourtant, une surexposition est possible. C’est le cas des enfants néerlandais et des adultes belges, tchèques, irlandais, anglais et néerlandais. En cause, une importante consommation de bière contenant un fort taux de colorant caramel.

En Europe, l’autorité européenne de sécurité des aliments a rendu un avis en 2012 concluant qu’aucune population n’était surexposée.

Par Audrey Loubens, journaliste scientifique

Une étoile presque aussi vieille que l’Univers révélée par son empreinte chimique

Si les calculs de ces chercheurs sont exacts, cette étoile s’est formée quelque 200 millions d’années seulement après le Big Bang.

Jusqu’alors, les plus anciens astres identifiés – décrits respectivement en 2007 et 2013 par des équipes européennes et américaines – affichaient 13,2 milliards d’années au compteur.

A l’échelle astronomique, cette étoile antique est en outre relativement proche de nous, souligne Stefan Keller, de l’observatoire du Mont Stromlo, dans la capitale australienne Canberra.

Elle est située dans la Voie Lactée, notre galaxie, à environ 6.000 années-lumière de la Terre, et son matricule dans le catalogue de l’Univers est SMSS J0313000.36-670839.3.

« Le révélateur de l’âge canonique de cette étoile, c’est l’absence de tout niveau détectable de fer dans le spectre lumineux qui en émerge », explique M. Keller dans un échange de mails avec l’AFP.

Initialement, le Big Bang a créé un Univers rempli d’hydrogène, d’hélium et d’un soupçon de lithium. Tous les autres éléments qui existent aujourd’hui ont été forgés dans les étoiles, nés des nuages de gaz et de poussières laissés derrière elles par des supernovas, l’explosion d’étoiles géantes en fin de vie.

Le recyclage incessant de ces éléments peut servir aux astrophysiciens pour évaluer l’âge d’une étoile car la concentration en fer ne fait que croître au fur et à mesure de ses réincarnations successives. Autrement dit, moins il y a de fer dans une étoile plus elle est vieille.

« Le taux de fer dans l’Univers augmente au fil du temps, au fur et à mesure que les générations d’étoiles se forment et meurent », résume M. Keller.

« Nous pouvons utiliser la quantité de fer contenue dans une étoile comme une +horloge+ qui nous dit quand elle s’est formée. »

« Dans le cas de notre étoile, la quantité de fer est moins d’un millionième de celle de notre Soleil, et au moins soixante fois moins que dans n’importe quelle autre étoile. Cela signifie que notre étoile est la plus ancienne jamais découverte à ce jour », affirme le chercheur.

L’étoile en question a été découverte à l’aide du télescope SkyMapper de l’Université nationale australienne, qui mène actuellement une étude du ciel austral d’une durée de cinq ans.

D’après l’étude, publiée dimanche dans la revue Nature, cette étoile serait issue d’une supernova de faible énergie, dont la masse était environ 60 fois celle du Soleil.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Un insecticide en cause dans l’apparition de la maladie d’Alzheimer

Des chercheurs ont analysé le sang de 86 personnes malades et celui de 79 autres non malades. Leurs mesures révèlent un taux de DDT quatre fois supérieur dans les échantillons des personnes atteintes d’Alzheimer ! Ces mesures ont été complétées par des analyses du cerveau de malades post-mortem. La présence de DDT a là encore été retrouvée en grande quantité. Publiés dans la revue Journal of the American Medical Association Neurology, ces résultats soulignent l’impact à long terme de cet insecticide et son implication dans la survenue d’une maladie neurodégénérative.

Le DDT a été interdit aux Etats-Unis dès 1972, mais a été très utilisé pour lutter contre le paludisme. Dans ces parties du monde, il reste un outil majeur pour éradiquer ce mal. Bien que désormais limité à une utilisation dans des bâtiments, à des doses très contrôlées, les sols et les cultures restent contaminés. Le DDT présente en effet l’inconvénient de persister plusieurs années dans son environnement, avec une demi-vie allant de 2 à 15 ans. Les Américains consommant des produits cultivés dans des régions touchées par le paludisme s’exposent donc au DDT.

Le DDT possède un composant actif, le dichlorodiphényldichloroéthylène (DDE). Ce dernier serait à l’origine de l’accroissement d’une substance participant à la formation de protéines bêta-amyloïdes, les plaques qui se forment dans le cerveau des malades d’Alzheimer. Les scientifiques  qui ont mené les analyses ont aussi constaté que les malades présentant le plus fort taux de DDE dans le sang étaient aussi ceux avec les symptômes les plus sévères. Enfin, l’impact du DDT est majoré par la vieillesse puisqu’il s’accumule dans le corps.

Dr Allan Levey, directeur du Centre de recherche sur la maladie d’Alzheimer et co-auteur de l’étude n’hésite pas à comparer  « l’effet du DDT […] au facteur génétique le plus courant prédisposant à la maladie d’Alzheimer ».

Cette étude est la première à mettre en évidence aussi clairement un effet du DDT sur la santé humaine. 

Par Audrey Loubens, journaliste scientifique

Des micro-éoliennes pour recharger vos batteries

Vous aussi vous rechargez votre portable tous les jours ? Et encore,  quand vous ne faites que téléphoner quelques minutes. Si vous avez le malheur de regarder une vidéo, d’écouter un peu de musique ou de trainer sur la toile, la batterie ne tient même pas la journée de travail. Pour pallier ce désagrément, les scientifiques planchent sur plusieurs solutions. Parmi elles, les chercheurs de l’université d’Arlington ont choisi l’option énergie renouvelable, plus précisément les éoliennes. Evidemment, il ne s’agit pas d’édifices de 20 mètres de haut mais d’éoliennes miniatures. Leur dispositif mesure 1,8mm de large, des dimensions qui permettent d’envisager de l’intégrer dans un téléphone. Et pas qu’une, mais bel et bien des dizaines.  Constituées d’un alliage de nickel, ces éoliennes possèdent une flexibilité et une résistance suffisantes pour résister aux sollicitations subies lors des manipulations d’un téléphone. L’activation des micro-pales pourrait se faire en plaçant son téléphone dans un courant d’air ou simplement en faisant du vent avec nos mains.

Pour J.C Chiao et Smitha Rao, auteurs des travaux, quelques rangées de ces éoliennes miniatures suffiraient à assurer le chargement de la batterie en à peine quelques minutes. Une estimation qui peut sembler optimiste au vu des temps de chargement actuellement supérieures à l’heure. Enfin, ce dispositif pourrait servir à autre chose que nos batteries de téléphones et servir des causes plus nobles comme l’alimentation de micro-robots servant d’outils chirurgicaux ou encore de machines de recherche et d’assistance aux victimes.

 La société taïwanaise WinMEMS Technologie s’est montrée intéressée avec une offre d’achat des droits exclusifs de commercialisation des mini-éoliennes. Disposant d’un procédé associant lithographie aux rayons X et électrodéposition,  WinMEMS espère produire à grande échelle et ainsi abaisser les coûts.

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

Un tableau de Fernand Léger déclaré faux grâce à des physiciens

Depuis les années 1970, experts, chercheurs et amateurs, jusqu’au grand spécialiste de Léger, Douglas Cooper, cherchaient à savoir si cette toile faisait bien partie d’une série intitulée « Contrastes de Formes », peinte de la main du peintre cubiste (1881-1955) entre 1913 et 1914.

Aujourd’hui, se félicite l’Institut italien dans un communiqué, « il est désormais certain » que ce tableau, propriété de la collection Peggy Guggenheim de Venise, mais jamais exposé en raison des doutes sur son authenticité, « est un faux ».

Pour ce faire, les chercheurs du Laboratoire pour l’environnement et l’héritage culturel (LABEC) de Florence, en partenariat avec l’INFN de Ferrare et le musée vénitien, utilisant un accélérateur de particules, ont mesuré le carbone 14 contenu dans un fragment de la toile non peinte du tableau.

Ils ont ensuite comparé ces résultats avec ceux de la courbe dite « du pic de la bombe », et c’est cette méthode, utilisée pour la première fois pour authentifier un tableau, qui a permis de certifier que l’oeuvre avait été peinte après 1959, soit au moins quatre ans après la mort de Léger.

Pendant la guerre froide, le nombre d’essais nucléaires augmentant dans le monde, le niveau de carbone 14 dans l’atmosphère a également augmenté, jusqu’à atteindre un pic dans les années 1963-1965, avant de baisser grâce à la signature de traités internationaux.

Pendant ce « pic de la bombe », le niveau de carbone 14 a augmenté dans tous les organismes vivants, dont le coton et le lin, utilisés notamment pour produire des toiles.

L’étude a été publiée le 21 janvier dans The European Physical Journal Plus.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

 

Et aussi dans les
ressources documentaires :           

 

Découvrez également les formations Techniques de l’Ingénieur :

Le Volocopter, un « hélicoptère » électrique

Le Volocopter est une invention de la start-up allemande e-volo. Grâce à cet essai, avec de multiples vols de plusieurs minutes, jusqu’à 22 mètres de hauteur, le concept Volocopter est validé. Pour les essais en extérieur avec pilotes,  les créateurs devront obtenir une licence de vol provisoire. Les premiers résultats étant concluants, celle-ci devrait arriver au printemps.

Dès lors, un programme d’essais en vol sera mis en place pour obtenir une classification aéronef « Volocopter » courant 2015. Au programme : plusieurs jours de vols autonomes sur des zones inhabitées pour tester et démontrer la fiabilité du pilotage électronique et les différents systèmes de sécurité. L’équipe d’e-volo espère conclure ces tests rapidement et lancer la production en série dès 2016, car « il existe déjà de nombreuses demandes de Volocopter dans le monde entier », prévient Alexander Zosel, directeur général d’e-volo.

Comment vole un Volocopter ?

L’appareil décolle et atterrit verticalement, mais contrairement aux hélicoptères traditionnels, le pilotage est un jeu d’enfant. Le pilote ne contrôle que la direction de l’appareil à l’aide d’un simple joystick qu’il oriente dans la direction souhaitée. Ce sont ensuite 20 ordinateurs, en dialogue avec des capteurs, qui prennent le relais pour adapter la vitesse de vol ou le faire tourner.

18 hélices permettent au Volocopter de s’élever dans le ciel, puis de voler. Leur pas est fixe et l’appareil reste donc toujours à l’horizontal, sans se pencher. Le changement de direction se fait en modifiant automatiquement la vitesse des hélices.

Le Volocopter pourrait voler jusqu’à 100 km/h, à une altitude de 2000 mètres. Les batteries ne permettent pour le moment que 20 minutes de vol, mais les développeurs espèrent atteindre une autonomie d’au moins une heure. Pour permettre des vols de plusieurs heures en une seule fois, une version hybride électrique et thermique, avec prolongateur d’autonomie, est également à l’étude.

Les créateurs espèrent en faire l’appareil volant le plus sécurisé au monde. Ainsi, pour assurer la sécurité pendant le vol, toutes les pièces capitales sont présentes en plusieurs exemplaires. En cas de pannes multiples, des pièces de secours prendraient alors le relais. Et en cas de panne du prolongateur d’autonomie, des batteries supplémentaires se mettent en marche pour assurer un atterrissage en toute sécurité. Enfin, en dernier recours, un parachute s’ouvre pour faire atterrir le Volocopter au sol !

Un accueil faramineux Outre-Rhin

Le projet a déjà bénéficié de 2 millions d’euros de subventions du ministère de l’industrie allemand. Pour ses futurs développements, 1,2 million d’euros ont été récoltés en décembre sur Seedmatch, un site de financement participatif allemand. 

Les  500 000 premiers euros ont été récoltés en seulement 2 heures et 35 minutes. C’est le record européen en la matière. Au final il n’aura fallu que 3 jours, 9 heures, 52 minutes pour récolter les 1,2 millions d’euros espérés…

Découvrez le prototype biplace VC200 du Volocopter en vidéo, lors de son test à Karlsruhe :

Par Matthieu Combe, journaliste scientifique
 

Sony cède son activité PC, prévoit une lourde perte et va supprimer 5.000 postes

Sony a en outre prévenu qu’il s’attendait désormais à une lourde perte annuelle de 110 milliards de yens (810 millions d’euros), au lieu d’un bénéfice de 30 milliards, du fait de méventes d’une partie de ses appareils électroniques grand public et de frais de restructuration.

Le groupe a enfin précisé que les différentes mesures de réorganisation en cours réduiraient ses effectifs de 5.000 postes, dont 3.500 à l’étranger.

Bien que ses ventes des neuf premiers mois aient grimpé de 16% à 5.901 milliards de yens (44 milliards d’euros) et qu’il ait terminé dans le vert avec un bénéfice net de 11,17 milliards de yens et un résultat d’exploitation en hausse de 70% à 140 milliards de yens, Sony a reconnu être encore dans une phase difficile qui nécessite des mesures radicales, dont la cession des PC.

Sony avait commencé à proposer des ordinateurs personnels en 1996, enregistrant un pic de ventes de près de 9 millions d’unités par an il y a quelques années, mais pour l’année comptable 2013, il ne mise plus que sur 5,80 millions et cette activité est déficitaire.

Sony est le 9e fabricant mondial de PC, une place assez honorable mais sa part de marché ne dépasse pas 1,9% pour la période de janvier à septembre, selon les calculs de l’institut IDC.

La montée en puissance des tablettes numériques et smartphones qui remplacent parfois les PC portables lamine le marché des ordinateurs personnels et, la concurrence étant féroce, Sony ne parvient plus à conserver des marges.

De surcroît, depuis des années déjà, la division des téléviseurs ne parvient pas à être rentable, ce qui constitue un énorme casse-tête pour le groupe qui de toute façon ne peut pas se retirer de ce marché emblématique de la marque, d’autant que « les TV restent le centre du divertissement multimédia », a répété à maintes reprises le patron Kazu Hirai.

Ce dernier doit s’exprimer plus tard lors d’une conférence de presse.

kap/spi/jh

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

CERN : projet gigantesque à l’étude d’un anneau de 100 km de circonférence entre la France et la Suisse

Une étude de faisabilité sera lancée la semaine prochaine. Dans cette perspective, une centaine de chercheurs venus du monde entier se réuniront du 11 au 13 février à l’Université de Genève afin de lancer ce programme prévu sur cinq ans.

Ce futur anneau est destiné à prendre la relève du LHC (accélérateur de particules), l’anneau actuel, qui mesure 27 km de circonférence. Cet anneau a été imaginé dans les années 1980 pour ne fonctionner que 25 ans plus tard.

D’une circonférence de 80 à 100 km, le futur anneau, baptisé FCC (Futur collisionneur Circulaire) pourrait atteindre une énergie sans précédent de 100 TeV (téraélectronvolt), contre 14 TeV pour le LHC.

Cette étude rejoint celle engagée depuis plusieurs années d’un collisionneur linéaire compact (CLIC), un accélérateur rectiligne de 80 kilomètres qui pourrait aussi passer sous la Suisse et la France.

L’objectif des deux études est d’examiner la faisabilité des différentes machines et d’en évaluer les coûts d’ici à 2018/2019, date à laquelle la stratégie européenne en la matière sera mise à jour, écrit le CERN.

La recherche en physique des particules devient en effet de plus en plus planétaire. Des informations sont régulièrement échangées entre l’Amérique, l’Asie et l’Europe au sein d’un organe mondial, l’ICFA (Comité international sur les futurs accélérateurs).

En attendant, il est prévu de faire fonctionner le LHC pendant encore vingt ans. Actuellement à l’arrêt, il doit redémarrer en 2015.

« Nous savons encore peu de choses sur le boson de Higgs, nous sommes en quête de la matière noire et de la supersymétrie… Seuls les prochains résultats du LHC seront en mesure de nous indiquer les pistes des recherches à suivre dans l’avenir, et le type d’accélérateur le plus adapté », a indiqué Sergio Bertolucci, directeur de la recherche et de l’informatique au CERN.

Le boson de Higgs a été découvert pendant l’été 2012 par le CERN grâce aux travaux du Belge François Englert et au Britannique Peter Higgs.

Le boson de Higgs est une particule élémentaire considérée par les physiciens comme la clef de voûte de la structure fondamentale de la matière.

Les deux hommes, qui sont octogénaires, ont reçu le Prix Nobel de physique pour cette découverte en 2013.

Ces travaux expliquent notamment pourquoi certaines particules ont une masse et pas d’autres, et par conséquent pourquoi l’Univers existe tel que nous le connaissons.

Dans les efforts de vulgarisation de cette découverte, le boson a été surnommé « particule de Dieu » parce qu’il est dans tout, tout en étant particulièrement insaisissable.

Cette avancée est l’une des plus importantes de l’histoire de la physique.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Le secteur pétrolier n’abandonnera pas son combat pour le gaz de schiste (Ufip)

« C’est une longue saga, mais nous n’abandonnerons pas », a déclaré Jean-Louis Schilansky, le président de l’Union française des industries pétrolières. « Nous pensons que ce serait une erreur pour notre pays », a-t-il ajouté lors d’une conférence de presse.

La fracturation hydraulique, seule technique éprouvée pour exploiter le gaz et le pétrole de schiste, est interdite en France par une loi de juillet 2011, validée en octobre dernier par le Conseil constitutionnel. Elle est décriée en raison des risques qu’elle fait courir à l’environnement et le président français François Hollande a écarté toute exploitation durant son quinquennat.

« La fracturation telle que pratiquée aujourd’hui n’est pas une technique sale. C’est juste pas vrai! », a affirmé M. Schilansky. « Pendant ce temps, on ne fait rien, c’est du temps qu’on perd ».

Autre facteur défavorable à l’industrie pétrolière, selon l’Ufip, le « blocage » par le gouvernement d’une centaine de demandes de permis de recherche pour les hydrocarbures dits « conventionnels ».

« Aujourd’hui, il y a 112 permis bloqués, d’entreprises essentiellement étrangères qui ont fait des demandes auprès de l’administration française », a déploré M. Schilansky.

« Nous ne voyons rien venir », a-t-il ajouté, précisant que « seulement deux permis ont été octroyés » en 2013. « C’est une situation grave non seulement pour l’industrie française, mais aussi pour le message qui est envoyé à l’étranger. (…) Il ne faut pas s’étonner si les investissements étrangers en France ont baissé ».

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Une voix de synthèse la plus proche possible d’une voix humaine

La voix est un instrument familier et mal connu qui fascine et passionne beaucoup. Tous les jours, nous mesurons à quel point elle nous est utile pour communiquer avec les autres. Tous les chanteurs, comédiens et orateurs savent que leurs cordes vocales sont un « moteur » sensible qu’il faut protéger. Les scientifiques plus précis, appellent « plis vocaux » ces replis du larynx essentiels pour transformer notre souffle en voix. A la fois puissante et fragile, la voix peut nous toucher, nous séduire, nous agacer. Pourtant, nous ignorons souvent comment elle fonctionne, ce qu’elle dévoile de notre personnalité et ce dont elle est capable.

 

 

Réalisation : Grégoire Ausina

 

LA VOIX l’expo qui vous parle (Cité des sciences et de l’industrie)

 
  • Du 10 déc. 2013 – 28 sept. 2014
  • Du mardi au samedi de 10h à 18h, dimanche de 10h à 19h.
  • Fermée le lundi
  • Durée de la visite : 2h

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Des super condensateurs dopés aux nano-diamants

Une des pistes pour doper le fonctionnement des batteries du futur pourrait résider dans la présence de nano-diamants.

Il a déjà été observé que l’ajout de nano-diamants dans les électrodes améliore la capacité des condensateurs. A ce jour, ce bénéfice reste pourtant mal compris. C’est pour découvrir comment les nanoparticules de diamants optimisent les batteries que le Centre de recherche énergétique appliquée de Bavière bavarois (ZAE) et l’Université de Wurtzbourg (Bavière) s’associent au sein du projet UMWELTnanoTECH. Cette initiative allemande sur l’enrichissement des batteries à partir de nano-diamants est prévue sur trois ans.

L’enjeu énergétique est une problématique qui tient à cœur les allemands, pour preuve le financement du Ministère de l’environnement du Land de Bavière de trois millions d’euros !

Mais la thématique est séduisante. Une fois compris le mécanisme mis en jeu, les scientifiques pourront bénéficier de batteries plus performantes, dopées à partir d’un matériau à bas coût. En effet, alors qu’on pourrait croire que des particules de diamants valent aussi cher que du diamant  de joaillerie, il n’en est rien. Les nanoparticules de diamants peuvent être récupérées parmi les résidus dispersés suite à la fabrication d’explosifs.

Comme l’a d’ailleurs démontré depuis 2007 le laboratoire alsacien Nanomatériaux pour système sous sollicitations extrême, quelques 500g de TNT dans une  cuve en acier suffisent pour fabriquer du diamant sous forme de nano-particules. Ceci avec un rendement de plus de 10 % !

Des nanoparticules de diamant à un prix abordable, la capacité des supercondensateurs optimisée, voilà deux bonnes raisons pour en savoir plus.

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

Produire de l’électricité sur la Lune, pendant la nuit lunaire

13 janvier 2014 : le rover Yutu et la sonde spatiale lunaire chinoise Chang’e 3 sont sortis avec succès de la torpeur de leur première nuit lunaire, un réveil réussi après 14 jours (terrestres…) de sommeil forcé, le rover et la sonde spatiale ayant été exposés à des températures pouvant atteindre les -180 degrés Celsius. Depuis la grande aventure spatiale américaine et la mission spatiale soviétique Luna 24 en août 1976, la mission Chang’e 3 (déesse de la Lune dans la mythologie chinoise) est la première à parvenir à poser une sonde et un astromobile lunaire – le rover Yutu, « lapin de jade » en mandarin – sur le sol de notre bon vieux satellite.

Cet exploit permet à la Chine de gagner en crédibilité en entrant dans le cercle très fermé des nations capables de mener à bien une mission lunaire, mais permet également à la superpuissance asiatique de parfaire sa technique d’alunissage, une étape dont la maîtrise est absolument indispensable pour pouvoir accomplir ce qui semble être le véritable objectif des Chinois : ramener sur Terre des échantillons de sol lunaire. Surmonter une nuit sélène de près de quatorze jours autrement qu’avec une mise en veille prolongée reste pourtant une gageure, même pour les Chinois, qui ont dû munir leur rover d’un système de chauffage, à base… d’isotopes radioactifs de plutonium 238.

Une équipe de scientifiques de l’université polytechnique de Catalogne, aidée par des scientifiques américains, s’est proposée de trouver une solution à ce problème de nuit lunaire en étudiant deux scénarios permettant de stocker de l’énergie sur la Lune pendant qu’il y fait jour, deux scénarios exposés dans un article publié dans la revue spécialisée Acta Astronautica, s’adjoignant même pour l’occasion les services d’un ponte, Michael Griffin, administrateur de la NASA jusqu’en janvier 2009.

Le premier scénario nécessite l’utilisation de la régolithe, la couche poussiéreuse qui recouvre la croûte sélène, produite par l’impact des météorites à la surface de notre satellite. En y incorporant des éléments tels que de l’aluminium, il devient possible de jouer sur l’inertie thermique de l’ensemble, si l’on en croit Ricard Gonzalez-Cinca, coauteur de l’article et chercheur à l’université espagnole. « Lorsque les rayons du Soleil atteignent la surface, un système de miroirs reflète les rayons lumineux afin de réchauffer l’ensemble de la masse thermique qui, plus tard, peut à son tour transmettre de l’énergie sous forme de chaleur, la nuit, au rover et aux autres équipements lunaires. », explique-t-il.

Le second scénario envisagé est similaire, mais implique cette fois-ci un agencement différent des miroirs, connu sous le nom de « lentille de Fresnel », une lentille plan-convexe découpée de sections annulaires concentriques, utilisée dans l’éclairage des phares de signalisation marine. Les rayons du Soleil sont concentrés sur un tube contenant un fluide, que la chaleur transforme en gaz et qui réchauffe alors l’ensemble de la masse thermique. Au cours de l’une de ces longues nuits lunaires, un moteur Stirling pourra alors convertir la chaleur… en électricité.

Par Moonzur Rahman

Revue du web #55 : les vidéos les plus étonnantes de la semaine

Cette semaine dans la revue du Web : 

  • « Mechaneu V1 », une fascinante sculpture cinétique imprimée en 3D ; 
  • Moins maîtrisé : créer des formes dans de la gelée, également à l’aide d’une imprimante 3D ; 
  • Petite fantaisie : faire à la fois une bulle de savon en forme de cube et un tesseract ; 
  • Transformer un jouet en une véritable « machine à tuer » dotée d’un laser ; 
  • Le gadget (inutile ?) de la semaine : « True Love Tester Bra », le soutien-gorge de chasteté ; 
  • Bonus : le merveilleux son d’une vis tombant dans une turbine à gaz de combustion.

« Mechaneu V1 », une fascinante sculpture cinétique imprimée en 3D

En constante évolution et en voie de démocratisation, l’impression 3D tient le haut du pavé. Pour le prouver, débutons notre cinquante-cinquième Revue du Web avec « Mechaneu V1 », première sculpture d’une série de sculptures cinétiques imprimées en 3D par le studio de design new-yorkais Proxy. Développées dans le but d’explorer les limites artistiques de l’impression 3D, les sculptures miniatures sont composées d’un ingénieux système de 64 roues dentées constituant des engrenages circulaires, s’imbriquant parfaitement pour former une sphère dont l’aspect organique ne doit rien au hasard : la position et la dynamique de chacun de ces engrenages suit un schéma algorithmique fortement inspiré par la croissance des cellules de notre organisme, si l’on en croit le concepteur de « Mechaneu V1 », Toru Hasegawa. 

Il suffit d’enclencher l’une des roues dentées pour que tout le réseau se mette en branle, comme dans un souffle. « La Nature vient à bout de nombreux problèmes en utilisant seulement la forme, ajoutant du matériau là où c’est nécessaire et en retirant là où elle n’en a pas besoin. », explique Hasegawa, avant d’ajouter qu’il s’est inspiré de cette même logique « sur chaque partie du Mechaneu, afin de créer un objet poreux bien que totalement solide ».

Moins maîtrisé : créer des formes dans de la gelée, à l’aide d’une imprimante 3D

Pendant plutôt raté et petit frère boiteux de la vidéo précédente, la vidéo qui suit montre qu’on ne gagne pas à tous les coups en surfant sur la vague de l’impression en trois dimensions… On peut y voir un internaute se livrer à quelques expérimentations, dessinant des motifs en trois dimensions – dont un cube – dans un verre rempli de gélatine, à l’aide d’une encre « maison », constituée dans des proportions gardées secrètes de… liqueur de banane et de colorant alimentaire mâtiné d’un peu d’amidon pour rendre l’ensemble moins visqueux.

Signalons tout de même, pour rendre justice au concepteur, adepte du « do it yourself », que l’imprimante 3D utilisée est artisanale et entièrement composée de vieux lecteurs CD-ROM.

 

Petite fantaisie : faire à la fois une bulle de savon en forme de cube et un tesseract

Continuons notre petit tour d’horizon avec une vidéo très ludique d’une expérience facile à réaliser chez soi, et dont le résultat semble être une insulte au bon sens : parvenir à réaliser une bulle de savon… cubique. Pour cela, il suffit de suivre les instructions de notre maître de cérémonie, un scientifique amateur particulièrement inventif et au fort accent russe, répondant au doux sobriquet de « Crazy Russian Hacker », qui a posté la vidéo sur Youtube au début du mois de janvier.

Il faut tout d’abord « construire la structure », un cube constitué de douze Cotons-Tiges – comme autant d’arêtes – collés entre eux par leurs extrémités. Une fois l’ossature réalisée, tremper minutieusement chacune des faces de la structure cubique dans de l’eau savonneuse, afin qu’un film de cette eau prenne possession du cube. Première surprise : le film d’eau savonneuse ne se stabilise pas en épousant la surface de chacune des faces, mais selon des surfaces minimales stables qui s’appuient sur le contour. C’est une solution au fameux « problème de Plateau » consistant à montrer, un bord étant donné, qu’il existe une surface minimale s’appuyant sur ce bord.

Notre sympathique Russe souffle enfin une bulle de savon au milieu de la structure, qui est alors capturée au centre du cube, épousant à son tour ce qui semble être une forme cubique. Mieux : l’ensemble forme un tesseract, l’analogue quadridimensionnel du cube, décrit de manière formelle comme « un 4-polytope régulier convexe dont les frontières sont constituées par huit cellules cubiques ».

 

Transformer un jouet en une véritable « machine à tuer » dotée d’un laser : 

Imaginer qu’un étudiant en chimie daigne se contenter d’un robot araignée sentinelle pour les fêtes de fin d’année, aussi perfectionné soit-il, revient à se bercer de douces illusions. Un jeune étudiant américain nous explique dans la vidéo qui suit, démonstration à l’appui, comment modifier un jouet somme toute inoffensif en une terrifiante araignée robotique téléguidée.

Première étape, se débarrasser de la tourelle d’origine du robot « mecha Attacknid Stryder », pour y installer un premier laser de visée, un pointeur rouge. Seconde étape, installer et connecter à l’ensemble une diode laser de 2W, de couleur bleu, et le tour est joué ! Notre apprenti bricoleur, la manette bien en main, lance alors sa nouvelle machine de guerre sur trois ballons de baudruche ayant eu l’outrecuidance de manquer de respect à la sentinelle robotique. La sanction ne se fait pas attendre.

Rappelons néanmoins l’importance des lunettes de protection laser, qui réduisent de manière significative la quantité de lumière incidente de longueur d’onde spécifique, évitant ainsi à l’œil humain d’être exposé tout en autorisant la transmission d’une quantité de lumière suffisante à une bonne vision.

 

Le gadget (inutile ?) de la semaine : « True Love Tester Bra », le soutien-gorge de chasteté

La ceinture de chasteté, insuffisante ? Si vous partagez cette opinion, le gadget (inutile?) de la semaine pourrait bien vous réjouir : les Japonais de Ravijour proposent « True Love Tester Bra », un soutien-gorge de chasteté permettant de détecter – supposément – lorsqu’une femme est réellement amoureuse, livrant alors – et alors seulement – la poitrine tant convoitée. Le soutien-gorge japonais dissimule dans l’un de ses bonnets un capteur, synchronisé au préalable avec une application présente sur le smartphone de la propriétaire (via bluetooth), permettant de mesurer les battements du cœur de cette dernière. Les données collectées sont « analysées », et le soutien-gorge finit par se dégrafer tout seul, dans un mouvement d’une rare violence, lorsque les battements restent suffisamment longtemps dans une zone spécifique, comme le montre l’illustration suivante.

 

 

La vidéo, pas sexiste pour un sou, montre le calvaire de quelques demoiselles livrées à un bestiaire masculin des plus « représentatifs » :la bête humaine, balourd et très direct, le technicien de l’amour, tout en filoutes flagorneries, ou encore le m’as-tu-vu, sûr de lui et de ses liasses de billets. Qui sera alors surpris que les concepteurs se cachant derrière le « True Love Tester Bra », en fin connaisseurs de la gent féminine et de ses émotions, sont… deux hommes ? Un autre aspect intéressant : une femme ne pourra donc pas enlever son soutien-gorge pour se laver, pour aller se coucher, ni même se changer si elle n’éprouve pas « l’amour véritable » tant vanté ici ?

 

Bonus : le merveilleux son d’une vis tombant dans une turbine à gaz de combustion

En bonus de la Revue du Web de cette semaine, voici une jolie petite mélodie qu’aucun ingénieur ou technicien travaillant sur une turbine à gaz de combustion n’a la moindre envie d’entendre. Semblant sortir tout droit d’un xylophone, cette douce phrase musicale est pourtant synonyme de cauchemar pour tout bon technicien, car cela signifie qu’il va bien falloir sortir la vis si l’on ne veut pas courir le risque d’endommager gravement la turbine. Et comme bien souvent, il est bien plus facile de laisser entrer la vis que de parvenir à la sortir…

 

Par Moonzur Rahman

Comment j’ai redécouvert les maths, grâce au film d’Olivier Peyon

« I hate math ! », les premières images du film Comment j’ai détesté les maths commencent par ce constat façon micro-trottoir dans toutes les langues : le désamour des maths est bien réel et sans frontière, et les jeunes interviewés s’en vanteraient même. « Pourquoi autant de gens se disent nul en maths, et souvent avec fierté ? C’est rarement le cas pour la littérature, l’histoire ou d’autres matières. Je suis parti de ce cri du cœur, surement un peu trivial mais qui parle à beaucoup, pour voir si on pouvait aller au-delà » explique le réalisateur Olivier Peyon. À travers un voyage aux quatre coins du monde avec les plus grands mathématiciens dont Cédric Villani (médaille Fields 2010), ce film aborde des sujets très variés : l’éducation, la recherche, la technologie, la politique, la finance…

Réconcilier les maths et l’école

Et l’amour ou le désamour des maths, ça commence à l’école : « Il faut faire des maths une histoire mystérieuse qui enchante les enfants » explique l’un des mathématiciens. Apprendre le langage mathématique, ce n’est pas forcément synonyme d’austérité, rigidité ou élitisme. En suivant dans leurs classes ces enseignants hors pair, on se prend à rêver d’une école ouverte sur l’expérimentation, la curiosité, la découverte du raisonnement, le doute et le plaisir ! Rapprocher les maths du monde réel est un enjeu majeur de l’enseignement. La réforme des « maths modernes » sous l’influence du mathématicien Bourbaki dans les années 70 a fait entrer brutalement des milliers d’élèves et d’enseignants dans le monde de l’abstraction : pour définir une droite, il n’était plus question « de plus court chemin entre 2 points », mais « d’un ensemble de points alignés entre deux points A et B ». La rupture était consommée. La réforme fut abandonnée dans les années 80, mais nous en payons encore le prix.

Mathématiques financières et dérives de la finance

Aujourd’hui, il est pourtant de notre responsabilité de nous réapproprier les maths, de ne pas renoncer ! En 40 ans, les mathématiques ont bouleversé notre société pour créer un monde où tout est tourné vers l’efficacité, la rentabilité. Apple, Google, Goldman Sachs ne sont plus qu’algorithmes et formules mathématiques. En politique aussi, on se sert des maths pour asséner des certitudes et clore le débat : « c’est mathématique », « les chiffres parlent d’eux-mêmes, c’est statistique », alors que les mathématiciens se construisent eux sur le doute. « Dans ce film, il est question de notre propre responsabilité, de la place que nous avons donnée aux mathématiques, de notre renoncement à y comprendre quelque chose, les laissant du coup entre les mains de certains, comme par exemple les banques qui ont abusé des modèles mathématiques et déclenché la crise des subprimes » alerte Oliver Peyon.

Ce film, qui donne parfois l’impression de partir dans beaucoup de directions à la fois, a le mérite d’aborder un sujet rare, d’éveiller nos consciences, de produire du doute, du questionnement… et de donner à penser ! A l’image du mathématicien Gert-Martin Greuel, qui conclut ainsi le film : « Ne croyez aucune autorité, vérifiez par vous-même. Ne répétez pas des formules apprises par cœur, mais développez vos propres idées. N’arrêtez jamais ».

M. B

 

Comment j’ai détesté les maths, film réalisé par Olivier PEYON

Pesticides: le Pr Séralini persiste et signe dans une nouvelle étude

Le professeur Gilles-Eric Séralini, auteur d’une étude controversée sur des effets d’un OGM et du pesticide Roundup sur des rats, persiste et signe avec un nouvelle étude montrant selon lui que les pesticides sont « deux à mille fois plus toxiques » qu’annoncés.

« Nous avons étendu les travaux que nous avons faits avec le Roundup et montré que les produits tels qu’ils étaient vendus aux jardiniers, aux agriculteurs, étaient de 2 à 1.000 fois plus toxiques que les principes actifs qui sont les seuls à être testés in vivo à moyen et long terme », a-t-il déclaré jeudi à l’AFP.

Avant mise sur le marché, seuls les effets de la substance active sont évalués et non ceux des produits commercialisés auxquels ont été ajoutés des adjuvants.

« Il y a méprise sur la réelle toxicité des pesticides », a insisté le professeur Séralini, précisant qu’il y a toxicité « quand les cellules commencent à se suicider » au contact du produit et « qu’elles meurent en quantités beaucoup plus significatives que les cellules contrôles ».

L’étude, publiée il y a quelques jours dans la revue Biomed Research International (groupe Hindawi) à comité de lecture, est signée du professeur Séralini ainsi que d’autres membres de l’université de Caen, où se trouve son laboratoire, et du Comité de recherche et d’information indépendantes sur le génie génétique (Criigen).

Elle a été réalisée in vitro sur cellules humaines sur neuf des « principaux » pesticides utilisés dans le monde: trois herbicides (Roundup, Matin El, Starane 200), trois insecticides (Pirimor G, Confidor, Polysect Ultra), et trois fongicides (Maronee, Opus, Eyetak).

Elle conclut que sur 9 de ces pesticides, « 8 formulations sont clairement en moyenne des centaines de fois plus toxiques que leur principe actif », et pointe du doigt les adjuvants qui « sont souvent gardés confidentiels et sont déclarés comme inertes par les fabricants ».

Les conclusions de l’étude choc du professeur Séralini sur les effets des OGM et du Roundup sur des rats, publiée en 2012, avaient été contestées par l’Agence européenne de sécurité des aliments (Efsa) et l’Agence nationale de sécurité sanitaire (Anses).

La revue Food and chemical toxicology (groupe Elsevier), qui l’avait publiée, a retiré l’article en novembre dernier. Le professeur Séralini avait relié cette décision de retrait à l’arrivée dans le comité éditorial de la revue de Richard Goodman, « un biologiste qui a travaillé plusieurs années chez Monsanto ».

Conduite en secret pendant deux ans, l’étude démontrait, selon son auteur, un risque accru de tumeurs mammaires et d’atteintes hépato-rénales pour les rats nourris avec le maïs OGM, associé ou pas à l’herbicide Roundup, deux produits du fabricant Monsanto.

La nouvelle étude du Pr Séralini a été saluée jeudi par l’ONG Générations Futures. « Nous demandons que des tests sur les effets chroniques de ces formulations de pesticides soient rendus obligatoires au niveau national et européen au plus vite, c’est une exigence de santé publique! », a déclaré son porte-parole, François Veillerette, dans un communiqué.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

REACH : les news de janvier 2014 (2/2)

5 % des dossiers d’enregistrement de décembre 2010 contrôlés (contrôle de conformité)

15/01/2014

Avant le 1er décembre 2010, les industriels ont enregistré les substances fabriquées ou importées en quantités supérieures à 1 000 tonnes par an mais aussi les substances cancérogènes, mutagènes ou toxiques pour la reproduction au-dessus d’une tonne par an, et les substances dangereuses pour les organismes aquatiques ou l’environnement en quantités supérieures à 100 tonnes par an.

La règlementation REACH exige de l’ECHA qu’elle vérifie au moins 5 % de la conformité des enregistrements par bande de tonnage. L’ECHA s’était fixé un objectif d’avoir 5 % des dossiers vérifié, au moins partiellement, à la fin de 2013.

À la fin de 2013, l’ECHA a conclu 1130 contrôles de conformité ou 5,7 % du nombre total de dossiers d’enregistrement de plus de 100 tonnes présentées au 1er décembre 2010. 69% des dossiers examinés ont été jugés non conformes. Les deux principales raisons de ces non-conformités résident dans les informations relatives à l’identification et la composition de la substance, et les justifications insuffisantes pour ne pas soumettre les études nécessaires ou un manque de données dans le rapport sur la sécurité chimique.

Fascicule sur les fiches de données de sécurité et les scénarios d’exposition

16/01/2014

La direction générale de la prévention des risques du ministère de l’Ecologie a publié un fascicule de 2 pages sur les fiches de données de sécurité (FDS) relatives aux produits chimiques. La fiche de données de sécurité doit accompagner la fourniture de substances ou mélanges dangereux au titre du règlement Reach. Transmise d’amont en aval dans la chaîne d’approvisionnement, elle offre une connaissance complète des dangers associés à l’utilisation de ces produits. Ce dépliant indique la marche à suivre pour se conformer à la fiche de données de sécurité.

Le second fascicule concerne les scénarios d’exposition et la marche à suivre à réception d’un scénario d’exposition.

Ce document est disponible sur : http://www.developpement-durable.gouv.fr/IMG/pdf/13150-Reach_fiches-scenario_10-01_DEF_Web.pdf

Mise à jour de la liste des substances candidates

16/01/2014

Un avis aux opérateurs économiques est paru au journal officiel du 16 janvier 2014. Il informe de la mise à jour de la liste des substances candidates à autorisation par l’ECHA le 16 décembre 2013, avec 151 substances et rappelle aux opérateurs économiques les obligations liées à la présence de SVHC dans les articles.

Nouvelle brochure pour les TPE et les PME

27/01/2014

Le helpdesk propose une nouvelle brochure: « TPE/PME : comment me situer et justifier de mon statut ? ». En effet, conformément au règlement Reach, les PME peuvent bénéficier de réductions significatives pour de nombreux actes soumis à redevances.

Ainsi, cette brochure a pour objectif d’apporter une aide concrète aux micro, petites et moyennes entreprises, notamment dans la détermination et la manière de vérifier ce statut de PME.

Cette brochure est disponible sur le site du Helpdesk http://reach-info.ineris.fr dans l’onglet « Documentation », section « Guides et Brochures »: http://reach-info.ineris.fr/sites/reach-info.gesreg.fr/files/pdf/BROCHURE%20PME_janv%202014.pdf

Synchroniser IUCLID avec les informations des scénarios d’exposition générée par Chesar

31/01/2014

La nouvelle version de la IUCLID Report Generator importe des informations sur l’évaluation de l’exposition générée dans l’évaluation de la sécurité chimique et l’outil (Chesar)

Une « langue électronique » espagnole peut distinguer une bière d’une autre

Le prototype, présenté dans la revue scientifique spécialisée Food Chemistry, affiche un taux de précision de 82%.

Fondé sur le fonctionnement de la langue humaine et de ses papilles ultra-sensibles, « le concept de langue électronique revient à utiliser une palette de capteurs génériques qui réagissent aux divers composés chimiques recherchés », résume dans un communiqué Manel del Valle, chimiste à l’Université autonome de Barcelone.

En l’occurrence, la langue espagnole est composée de 21 « électrodes ioniques » réagissant à différentes substances, comme l’ammonium, le sodium, les nitrates ou les chlorures.

Le spectre de signaux générés par la langue artificielle a ensuite été étalonné en fonction des différents types de bière à laquelle elle était exposée.

Grâce à une analyse informatique et un processus automatique « d’apprentissage supervisé », le dispositif « nous a permis de différencier les principales catégories de bière étudiées: schwarzbier (bière noire), lager, double malt, pils, alsacienne et sans alcool, avec un taux de réussite de 81,9% », assure M. del Valle.

L’organe artificiel est en revanche incapable de reconnaître les breuvages dont on ne lui a pas enseigné la signature chimique (mélange de bière et de soda, autres boissons), preuve de sa fiabilité selon les experts.

« Ces outils pourraient un jour doter les robots d’un sens du goût » et pourraient même finir par « supplanter les panels de goûteurs dans l’industrie alimentaire pour améliorer la qualité et la régularité des produits destinés à la consommation », conclut l’étude.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Le magazine d’actualité