Votre cerveau est plus gros le matin

Ceci a été démontré dans une étude basée sur une analyse poussée de près de 10 000 examens par IRM (étude publiée dans le magazine dans le magazine Neuroimage).

Kunio Nakamura et ses collègues de l’Institut neurologique de Montréal ont examiné 3269 scans issus de tests portant sur la sclérose en plaques et 6114 issus du projet de recherche sur la maladie d’Alzheimer (ADNI). Cela en fait la plus vaste étude en neurosciences jamais réalisée (l’étude date de 2012).

Les auteurs de l’étude y démontrent que le cerveau des patients est plus gros quand les scans sont effectués dans la matinée, par rapport à ceux de l’après-midi ou du soir pour ces mêmes patients.

Nakamura et son équipe définissent la taille du cerveau en termes de fractions du parenchyme cérébral (BPF), correspondant à la proportion du volume intracrânien qui est rempli avec le tissu cérébral. En résumé, le BPF fait référence à la part de votre crâne occupée par le cerveau.

Le BPF a chuté de 0,18% au cours de la journée dans les données issues de l’étude sur la sclérose en plaques, et de 0,44% dans l’ensemble des données de l’ADNI. Cela ne semble pas énorme, cependant à titre de comparaison c’est à peu près le même degré de rétrécissement que quelqu’un atteint de la maladie d’Alzheimer subirait au cours d’une année.

Voici une image montrant BPF par heure de la journée d’après les données de l’ADNI

Pourquoi la taille du cerveau rétrécit à mesure que la journée avance ? Nakamura et son équipe suggèrent que l’étude des fluides peut être la clé. Comme une éponge, le cerveau devient plus grand quand il est bien hydraté:

Un mécanisme possible pourrait être que la position couchée au cours de la nuit entraîne une redistribution des fluides corporels qui se sont accumulés dans les extrémités inférieures au long de la journée… Il est également possible que selon l’heure du jour nous connaissions différents états d’hydratation.

Les auteurs ont cependant averti les neuroscientifiques sur la nécessité d’étudier de près les effets du moment de la journée étudié dans les études futures :

En effet, l’analyse des résultats de l’étude suggère qu’un biais lié à la durée d’acquisition existe, et cela peut être particulièrement évident dans de petites études où le moment de l’acquisition de l’image peut ne pas être totalement aléatoire.

Par exemple, une tendance à acquérir des IRM de sujets sains dans la matinée et de groupe malade dans l’après-midi biaiserait les volumes du cerveau vers une différence de groupe plus important dans les études transversales.

Une étude récente avait déjà démontré des changements dans les propriétés fonctionnelles du cerveau à mesure que la journée avance.

Traduit par S.Luc

Source : blogs.discovermagazine

Et aussi dans les
ressources documentaires :

Comment notre cerveau se souvient-il des couleurs ?

Une étude récente a conclu que même si le cerveau humain peut faire la distinction entre des millions de couleurs, il a des difficultés notables à se souvenir des nuances spécifiques.

Par exemple, la plupart des gens peuvent facilement faire la différence entre l’azur, le marine et l’outremer. Mais quand on demande à ces sujets de se rappeler ces nuances, ils ont tendance à toutes les catégoriser dans la « catégorie des bleus ».

Cette tendance au regroupement explique pourquoi il est si difficile de compter uniquement sur sa mémoire visuelle quand on va acheter de la peinture pour repeindre un mur chez soi.

« De nombreuses cultures ont les mêmes catégories de couleurs et les mêmes mots pour ces couleurs », nous explique Jonathan Flombaum, chercheur en psychologie cognitive. « On débat d’ailleurs beaucoup sur la catégorisation universelle de ces couleurs et de son influence sur la perception que les gens ont des couleurs. »

Trouver les limites perçues entre les couleurs

Au cours de leur étude, Flombaum et ses collègues ont mené quatre expériences sur quatre différents groupes de personnes.

  • Dans la première expérience, ils ont demandé aux gens de regarder une roue de couleur composée de 180 teintes différentes. On leur a ensuite demandé de trouver le « meilleur exemple » pour chaque couleur. L’exercice a été conçu pour « trouver les limites perçues entre les couleurs », selon les chercheurs.
  • Dans une seconde expérience, les scientifiques ont montré à différentes personnes les mêmes couleurs, mais cette fois ils leur ont demandé de trouver le « meilleur exemple » pour chaque couleur générique.
  • Lors d’une troisième expérience, les chercheurs ont montré à différentes personnes des cartes de couleur en demandant aux participants de montrer sur la « roue des couleurs » la couleur correspondante, de mémoire.
  • Cette troisième expérience a donné lieu à la quatrième et dernière expérience. Les participants sont appelés à renouveler la troisième expérience, avec un délai supplémentaire de 90 millisecondes pour choisir la couleur correspondante sur la roue.

Les résultats ont révélé que la catégorisation des couleurs a un effet important dans la façon dont les gens identifient et se souviennent des couleurs.

Les participants appelés à nommer les couleurs sur la roue on trouvé 5 teintes différentes : bleu, jaune, rose, violet et vert.

« La plupart des couleurs ont été étiquetées uniformément par les participants, sauf certaines qu’on qualifiera d’« ambiguës ». Par exemple le vert et le bleu. Les zones où les réponses deviennent partagées sont les frontières entre les couleurs », précise Flombaum. « En outre, l’expérience a révélé que les participants avaient une tendance à choisir les mêmes teintes pour exprimer le « meilleur exemple » de couleur ».

Mais c’est l’expérience impliquant la mémoire visuelle qui a le plus stupéfié les chercheurs. Ces derniers prévoyaient une typologie de résultat qui, selon les chercheurs, « ferait une gentille courbe en cloche avec la bonne couleur eu sommet. Pas du tout. A la place, les résultats tendaient vers le « meilleur exemple » de la couleur » qu’ils avaient vu, pas vers la vraie couleur.

Le cerveau a tendance à aller « à l’essentiel »

Tous ces résultats suggèrent que notre cerveau se souvient des couleurs sous forme de catégories distinctes d’une part, et d’un continuum de nuances d’une autre part. Ensuite, un processus neuronal combine ces représentations pour produire un souvenir. Il pourrait y avoir plusieurs raisons à cela, mais la plus probable, comme souvent, reste l’efficacité : « La plupart du temps, ce qui nous préoccupe est simplement la catégorie de la couleur », résume Flombaum.

Cette tendance de notre cerveau à stocker des souvenirs par catégories ne concerne pas que la simple vision des couleurs. « En général, nous avons tendance à nous souvenir des choses d’une façon qui correspond d’une certaine manière à nos attentes, au détriment de la chose réelle », conclut Flombaum.

Traduit par S.Luc

Source : livescience

Et aussi dans les
ressources documentaires :

En vidéo : 4 choses étranges que nous savons sur le cerveau humain grâce à l’IRM

Depuis près de 25 ans, tout cela est étudié grâce aux millions de scanners pratiqués quotidiennement. Pour autant les nouvelles perspectives de découvertes sur ce qui se passe à l’intérieur de notre tête n’ont jamais été aussi nombreuses.

Vanessa Hill, l’animatrice de la chaîne YouTube « BrainCraft », relate certaines des expériences les plus étranges menées par des scientifiques sur nos cerveaux. Dieu merci, au début du 20è siècle, l’homme a inventé l’Imagerie à Résonance Magnétique ou IRM, point de départ d’une technologie appréciée des patients : le contrôle non destructif.

En 1991, la Société pour la résonance magnétique en médecine a dévoilé la première machine à imagerie par résonance magnétique fonctionnelle (IRMF) dans le monde, qui a permis aux chercheurs de démontrer la capacité du champ magnétique à révéler des changements dans l’activité cérébrale.

IRM Vs IRMF

Cette nouvelle machine a révolutionné la façon dont les humains ont expérimenté le cerveau, en donnant une vue « de l’intérieur », permettant de déceler n’importe quel changement consécutif au plus petit stimulus.

Depuis, les radiologues et les chercheurs ont été en mesure d’effectuer toutes sortes de tests, en utilisant les drogues, la peur, l’amour, le bruit, pour en savoir toujours plus sur la façon dont fonctionne notre cerveau.

« Nous avons utilisé l’IRMF pour apprendre des choses assez incroyables sur nos cerveaux », plaisante Vanessa Hill, qui nous explique comment l’Université de l’Illinois a utilisé une machine IRM pour visualiser le mouvement des muscles pendant qu’un patient chante. Mais, alors que l’IRM ne peut obtenir que des images sur ce qui se passe à l’intérieur, l’IRMF nous montre comment cela fonctionne réellement. Dans la vidéo de BrainCraft ci-dessus, vous visualiserez ainsi comment l’esprit des rappeurs travaille, ce qui se passe dans le cerveau quand les gens ont peur des serpents ou des araignées, et beaucoup d’autres activités cérébrales liées à des stimuli plus ou moins étranges !

Traduit par S.Luc

Source : medicaldaily

Et aussi dans les
ressources documentaires :

Comment notre cerveau nous permet d’y voir clair

Dieu merci, l’invention du stabilisateur d’image a permis de créer des appareils photos numériques garantissant l’obtention d’images proches de la perfection et de manière spontanée.

Mais nous possédons également notre propre stabilisateur, qui se trouve… dans notre œil, et nous permet de ne pas tout voir flou !

Composé de cellules nerveuses appelées axones minces, reliant l’œil au cerveau, il permet à l’œil de stabiliser l’image en déclenchant des mouvements oculaires minuscules qui stabilisent notre champ de vision.

Deux études complémentaires publiées le 7 mai 2015 dans la revue américaine Neuron (USA) se sont concentrées sur l’étude des cellules nerveuses qui corrigent les mouvements lents dans des directions spécifiques : un axe de recherche s’est donc porté sur la direction horizontale et l’autre sur la direction verticale.

Chaque fois que vous marchez, les images qui constituent votre champ de vision se meuvent à travers l’œil, selon Andrew Huberman, professeur adjoint de neurosciences à l’Université de Californie, San Diego et co-auteur de deux études sur le sujet. Contrairement aux images floues qui résultent de la prise d’images via les smartphones, votre cerveau réagit en déplaçant l’œil pour compenser ce glissement visuel, explique-t-il.

« Il s’agit d’un mouvement d’œil correctif : vous avancez, votre œil fait des micros mouvements de recul. Ces ajustements perpétuels et très rapides vous permettent de fixer un objet au loin pendant que vous avancez vers lui. »

Une correction quasi-simultanée

Le cerveau génère le mouvement des yeux après la détection de la lumière. Les ondes lumineuses se fraient un chemin dans l’air, rebondissent sur des objets et ricochent directement dans nos globes oculaires. Finalement, ils frappent une fine membrane à l’arrière de l’œil, la rétine. La rétine est composée de millions de cellules appelées photorécepteurs qui convertissent la lumière en messages électriques.

Les cellules nerveuses spéciales, appelées cellules ganglionnaires de la rétine (CGR), délivrent les messages à partir de la rétine, le long de longs axones minces, en direction des centres visuels du cerveau. Chez l’homme, des millions de ces axones sont emmitouflés au niveau du nerf optique. Ils bifurquent ensuite vers leur destination finale, les neurones.

Le cerveau interprète ces impulsions électriques comme une image et Eureka ! Nous pouvons voir.

« Différentes catégories de CGR sont accordées à des fonctions spécifiques d’un type particulier de composant d’image, comme la couleur ou le mouvement. Les chercheurs ont étudié une petite catégorie de détection de mouvements CGR qui aide nos yeux à compenser les mouvements lents dans les directions verticale et horizontale », comme le rappelle Alex Kolodkin, professeur de neurosciences et auteur principal de l’une des deux études. « Si par exemple vous faites un tour de grande roue, le champ visuel se déplace de haut en bas et votre cerveau opère essentiellement des corrections verticales.

Les scientifiques ont compris où les axones RGC se connectent dans le cerveau, mais pour l’instant nous savons très peu de choses sur la façon dont les axones s’y prennent pour cibler ces zones précises au cours du développement embryonnaire », précise Kolodkin.

Pour tenter de comprendre cela, les chercheurs ont testé leur hypothèse à l’aide de souris modifiées avec des gènes dont la particularité est d’entrainer un rayonnement des matériaux marqués, ceci afin de suivre des protéines colorées (en vert) sur les CGR verticale et horizontale. Cela a permis aux chercheurs de retracer le cheminement des neurones à travers le cerveau, a déclaré David Feldheim, qui ne participait pas directement à l’étude proprement dite.

Des protéines responsables du guidage des CGR

Les chercheurs ont ainsi pu  identifier le type de protéine qui guide les CGR à un emplacement exact du cerveau.

En développant une lignée de souris déficientes pour ces protéines spécifiques, les chercheurs ont pu tester les capacités des sujets à opérer les corrections visuelles classiques. En traquant les mouvements des yeux des souris alors qu’elles regardaient des lignes bouger verticalement, les chercheurs ont compris que les yeux des rongeurs étaient incapables de faire les ajustements nécessaires. L’équipe du professeur Huberman fit la même série de tests avec et sans les protéines spécifiques permettant les corrections horizontales et obtint les mêmes résultats.

Il s’agit de la première étude qui décrit les molécules responsables du guidage des axones de la rétine à travers le labyrinthe des neurones jusqu’à leur emplacement exact dans le cerveau, dit Feldheim.

Les scientifiques espèrent que leurs résultats aideront le traitement des troubles oculaires résultant de cellules nerveuses « mal câblées ».

« Vous pouvez imaginer un scénario dans lequel quelqu’un a un système visuel endommagé et devient aveugle petit à petit »,  témoigne Huberman. « La thérapie génique pourrait alors permettre d’activer le gêne spécifique pour « recâbler » la zone affectée et stimuler la production et la croissance de CGR vers la zone correcte du cerveau ».

Traduit par S.Luc

Source : insidescience

Et aussi dans les
ressources documentaires :

A l’instar des ordinateurs, le cerveau humain peut-il récupérer des souvenirs perdus ?

On a depuis longtemps comparé le cerveau humain à un ordinateur, puis à un smartphone…

Dans un article paru il y a cinq ans, la revue Scientific American avait questionné Paul Reber, professeur de psychologie à l’Université Northwestern, sur la capacité de stockage de la mémoire du cerveau humain, et sur l’existence d’une limite à la quantité de données qu’il peut conserver.

Le professeur Reber a expliqué que le cerveau humain est câblé pour stocker de très grandes quantités de souvenirs. Ce dernier est constitué d’environ un milliard de neurones, et ces cellules spécialisées sont interconnectées, formant ainsi environ un billion de connexions. Plus les neurones sont connectés entre eux, plus la capacité de stockage de mémoire du cerveau est augmentée, et selon Reber, un cerveau humain peut être capable de stocker environ 2,5 pétaoctets de « souvenirs ».

Si un cerveau humain est comme le flash d’un ordinateur ou d’un smartphone, est-il possible pour les scientifiques de restaurer des souvenirs considérés perdus chez des êtres humains ?

L’an dernier, des chercheurs d’UCLA ont publié leurs conclusions sur la restauration de la mémoire d’une personne atteinte de la maladie d’Alzheimer. Professeur à UCLA et auteur principal de l’étude, David Glanzman, a expliqué que la mémoire à long terme d’une personne n’est pas stockée dans la synapse, qui fait le lien entre deux neurones.

Alors que les humains constituent leurs souvenirs à long terme, le cerveau produit de nouvelles protéines qui sont impliquées dans la fabrication de nouvelles synapses. Si ce processus est perturbé par un accident ou de la maladie, les protéines ne peuvent pas être synthétisées, et les souvenirs à long terme ne seront pas mémorisés. Après avoir étudié un type d’escargot (aplysia) sur lequel il a mené des expériences sur le cerveau, Glanzman affirme qu’il est possible de restaurer les connexions synaptiques, et ainsi de restaurer la mémoire à long terme d’une personne.

L’équipe de recherche de Glanzman est arrivée à augmenter la mémoire à long terme de l’escargot en lui donnant plusieurs légers chocs électriques sur la queue. La restauration dure pendant quelques jours ; Glanzman explique que le choc électrique provoque la libération de l’hormone sérotonine  dans le système nerveux central de l’escargot. La sérotonine est un composant des plaquettes sanguines et du sérum qui resserre les vaisseaux sanguins, et joue ainsi le rôle de neurotransmetteur. Glanzman explique que la capacité du cerveau a stocker la mémoire à long terme est fonction de la croissance de nouvelles connexions synaptiques provoquées par la sérotonine.

Les chercheurs utilisent la lumière pour rétablir les « souvenirs perdus »

Parallèlement à la recherche menée par UCLA, une nouvelle étude publiée dans Science la semaine dernière a indiqué que des souvenirs dans le cerveau demeurent, mais que c’est simplement le processus de collecte de ces informations qui est perturbé par une maladie ou un accident.

Comme l’explique le co-auteur de l’étude, Susumu Tonegawa du MIT, l’amnésie est « un problème de perte de capacité de récupération » – et leur recherche a été en mesure de raviver des souvenirs perdus chez la souris, en utilisant la lumière, le choc électrique et les deux en même temps.

Le groupe de chercheurs dirigé par Tomas Ryan du MIT  a utilisé des impulsions de lumière bleue pour stimuler les neurones qu’ils appellent « engrammes de mémoire« , et qui sont impliqués dans la constitution de la mémoire. L’étude a expliqué que lors de la formation de la mémoire, les engrammes renforcent leurs synapses ; Pour déterminer si le fait de perturber le processus détruit la mémoire stockée, les rongeurs utilisés dans l’étude se sont vus injecter une protéine qui active les engrammes de mémoire en utilisant la lumière bleue.

Ensuite, les souris ont été entraînées à se rappeler l’action de « recevoir un choc électrique à l’intérieur d’une chambre ».

Les souris ont pu associer le sentiment de choc électrique avec la chambre, et elles ont développé une réponse qualifiée de « figée ».

Les chercheurs ont ensuite divisé le groupe de souris en deux ; un groupe a subi des injections d’un composé appelé anisomycine qui empêche le renforcement des synapses engrammes. Le groupe qui n’a pas reçu le composé a émis la même réponse « figée », tandis que le groupe l’ayant reçu n’a pas figé, ce qui indique qu’ils ont oublié le sentiment.

Ensuite, le groupe de souris ayant subi des injections du composé ont été « traitées » par l’impulsion de lumière bleue qui active les engrammes de mémoire. Après le traitement, le groupe a commencé à émettre de nouveau la même réponse figée, démontrant qu’elles étaient en mesure de récupérer les souvenirs perdus (concernant la chambre).

Bien que la recherche ait été effectuée uniquement sur des souris, leurs conclusions vont probablement inspirer d’autres scientifiques pour développer la recherche, enquêter sur d’autres indices, et mettre ainsi l’homme en mesure de trouver un moyen de récupérer des souvenirs perdus.

Traduit par S.Luc

Et aussi dans les
ressources documentaires :

Les scientifiques peuvent créer des cellules qui répliquent les processus du cerveau humain

Des chercheurs de l’Institut royal de technologie de Melbourne (RMIT) ont créé la première cellule de mémoire électronique au monde, capable de traiter tous les états de la mémoire, répliquant ainsi la capacité du cerveau à simultanément traiter et stocker plusieurs brins d’information.

Cette découverte révolutionnaire a été récemment publiée dans la revue scientifique Advanced Functional Materials.

Le dispositif, 10 000 fois plus petit qu’un cheveu humain est « une étape essentielle vers la création d’un cerveau bionique », ont expliqué les scientifiques.

« Ceci constitue notre plus grande avancée vers la création d’un système fonctionnant comme un cerveau muni de mémoire, traitant et stockant des informations de manière analogue et capable de récupérer rapidement cette information stockée », a déclaré pour sa part le chef de projet et co-leader des Matériaux Fonctionnels au RMIT, Dr Sharath Sriram.

Le principal auteur de l’étude, le Dr Hussein Nili, a déclaré que le dispositif constitue une étape majeure pour recréer le cerveau humain : « cette nouvelle découverte est importante car elle permet à la cellule « multifonction » de stocker et traiter des informations exactement de la même façon que le cerveau. A titre de comparaison, pensez à un vieil appareil photo qui pourrait seulement prendre des photos en noir et blanc. La même analogie s’applique ici, plutôt que des souvenirs en noir et blanc que nous avons maintenant des souvenirs en couleur avec des nuances d’ombre, de lumière et de texture, c’est fondamental.»

Le docteur Nili a expliqué que les dispositifs actuels ne sont capables de stocker les données uniquement en séquence binaire, mais la nouvelle nano-cellule en revanche peut stocker des informations sous différentes formes, de par son analogie avec les cellules biologiques.

« Car au-delà de la capacité de ces nouveaux appareils à stocker beaucoup plus d’informations que des mémoires numériques classiques (qui stockent seulement 0 et de 1), c’est bien leur habilité à se rappeler et à retenir des informations précédentes qui est excitant », a-t-il dit.

Le mécanisme du nouveau dispositif est basé sur une découverte antérieure faite par des chercheurs RMIT l’année dernière, quand ils ont créé une structure de mémoire nanométrique empilée en utilisant un film mince d’oxyde.

Trouver des remèdes pour différentes maladies neurologiques

« Nous avons maintenant introduit vices ou défauts contrôlés dans l’oxyde, ainsi que l’ajout d’atomes métalliques, ce qui libère le plein potentiel de l’effet « memristive », où le comportement de l’élément de mémoire est dépendant de ses expériences passées, a précisé le Dr Nili.

Il a aussi expliqué qu’une des finalités de la création d’un cerveau bionique est de permettre aux scientifiques de trouver des remèdes pour différentes maladies neurologiques.

« Si vous pouvez reproduire la structure d’un cerveau en dehors d’un corps humain, vous pouvez en apprendre davantage sur les fonctionnalités d’un cerveau de mammifère ou humain et notamment sur les types de troubles que les cerveaux humains développent, comme la maladie de Parkinson ou la maladie d’Alzheimer », a déclaré l’Australien Broadcasting Corporation (ABC) depuis.

Cette nouvelle cellule électronique pourrait également aider à créer une intelligence artificielle, a déclaré le co-auteur, le Dr Sumeet Walia.

« Une fois que nous sommes capables de stocker et de rappeler les événements passés, à partir de là nous pouvons réellement commencer à travailler sur le développement d’un composant de stockage pour des pans entiers de réseaux d’intelligence artificielle. Par exemple, les robots, ou même des ordinateurs qui se comportent comme un cerveau humain « , a déclaré le docteur Walia à ABC.

Traduit pas S.Luc

Et aussi dans les
ressources documentaires :

Les acides gras essentiels jouent un rôle crucial dans la croissance du cerveau humain et dans son fonctionnement

Une équipe co-dirigée par l’Université d’Exeter, en collaboration avec des experts à Singapour, a publié des résultats de recherche dans Nature Genetics qui montrent que des mutations dans la protéine Mfsd2a provoquent des déficiences touchant le développement du cerveau chez les humains. 

Mfsd2a est le transporteur dans le cerveau d’un type spécial de graisse appelée lysophosphatidylcholines (LPC). Ces graisses sont composées d’acides gras essentiels comme les oméga-3. Cela montre le rôle crucial de ces graisses dans la croissance du cerveau humain.

L’étude a été financée au Royaume-Uni par le Medical Research Council et la Fondation Newlife pour les enfants handicapés. Le Professeur Andrew Crosby, de l’Université de l’école médicale Exeter, qui a co-dirigé l’étude, a déclaré que « cette découverte excitante nous apprend beaucoup sur le rôle crucial que certaines graisses spéciales tiennent dans notre «  baguage » sanguin. L’étude montre quelles graisses sont importantes, comment elles sont absorbées par le cerveau par exemple. Bien que nous ayons découvert ce gène particulier dans des familles du Pakistan, il y a des gens ailleurs dans le monde qui souffrent aussi de cette déficience. Ces résultats nous donnent une nouvelle orientation pour le traitement potentiel de ces troubles neurologiques à l’avenir ».

L’équipe a travaillé avec les membres d’une grande famille d’un village dans le nord du Pakistan. Tous les membres du village descendent de la même lignée, et partagent des caractéristiques communes dans leur ADN.

Une mutation génétique au niveau du gène MFSD2A

Ainsi, beaucoup des sujets appartenant à cette famille ont hérité de la même mutation génétique au niveau du gène MFSD2A, provoquant des déficiences au niveau de la croissance du cerveau et de son fonctionnement. Mais la mutation ne bloque pas l’expression du gène, elle ne fait que l’altérer. Pour les individus ayant hérité de deux copies du gène muté, on observe une microcéphalie prononcée accompagnée d’une déficience intellectuelle progressive, une rigidité des membres et une absence de langage.  

Une conclusion importante de l’étude se situe dans la disponibilité des échantillons de plasma sanguin de patients, qui a permis des études biochimiques en étroite collaboration avec l’étude co-principale, dirigée à Singapour par le Dr David Silver de l’École de médecine Duke-NUS de Singapour. C’est cela qui a permis de définitivement identifier le rôle crucial de MFSD2A en tant que principal transporteur d’acides gras oméga vers le cerveau.

Traduit par S.L

Source : news-medical.net

Et aussi dans les
ressources documentaires :

Des vaisseaux sanguins découverts sous le crâne pourraient établir un lien le cerveau et le système immunitaire

Les scientifiques ont découvert un lien jusqu’ici inconnu entre le cerveau et le système immunitaire qui pourrait aider à expliquer les liens de cause à effet entre les troubles de santé physique et les troubles cérébraux chez les personnes atteintes de la maladie d’Alzheimer et de dépression.

La découverte de vaisseaux nichés juste sous le crâne révolutionne des décennies d’enseignement académique et pourrait ouvrir la voie à de nouvelles approches pour le traitement des maladies du cerveau. Les scientifiques à l’origine de la découverte n’ont pas caché leur surprise d’avoir découvert une structure anatomique majeure qui avaient été entièrement négligée jusqu’à présent !

« Ces vaisseaux n’étaient tout simplement pas censés être là »

« Ces vaisseaux n’étaient tout simplement pas censés être là d’après l’état actuel de nos connaissances », déclare Jonathan Kipnis, qui a dirigé le travail à l’Université de Virginie. « Je pensais que l’anatomie du corps humain avait été entièrement cartographiée et que de telles découvertes étaient révolues, et ce depuis au moins 50 ans ! Mais apparemment, cela n’est pas le cas. »

La découverte pourrait fournir un argument anatomique solide contribuant à renforcer l’idée grandissante selon laquelle la santé mentale et l’état du système immunitaire sont étroitement interconnectés.

Les personnes atteintes de diabète, qui est une maladie auto-immune, sont 65% plus susceptibles de développer une démence, d’après les conclusions d’une étude publiée en début d’année. D’autres recherches récentes ont montré que les patients atteints d’Alzheimer ayant subi des infections régulières, comme la toux et le rhume, ont vécu un déclin cérébral quatre fois plus important révélé lors des tests de mémoire effectués au cours d’une période de six mois que les patients avec les niveaux d’infection les plus bas.

Il n’a pas été clairement défini en revanche si ces résultats émanaient de fondements physiologiques profonds ou bien étaient simplement induits par le style de vie, comme l’alimentation et la sédentarité, qui dégradent la santé mentale et physique de façon indépendante.

« Nous sommes convaincus que pour chaque maladie neurologique dans laquelle un composant immunitaire est impliqué, ces vaisseaux peuvent jouer un rôle majeur », déclare Kipnis. « Dans la maladie d’Alzheimer, il existe une accumulation de gros morceaux de protéines dans le cerveau. Nous pensons qu’ils sont accumulés dans le cerveau parce qu’ils ne sont pas éliminés efficacement par ces vaisseaux. »

« Un état diabétique », ajoute-t-il, « qui affecte le système immunitaire dans tout l’organisme, pourrait aussi nuire à la capacité du cerveau à déblayer les protéines toxiques qui sont un des fondements de la maladie. Le rôle précis de ces vaisseaux n’est que spéculation à ce jour, d’après les scientifiques. Répondre à ces questions sera le thème de la prochaine phase de leur recherche. »

Quel est le rôle des méninges ?

La nouvelle anatomie révélée correspond donc une extension du système lymphatique, réseau de vaisseaux qui fonctionne en parallèle avec le système vasculaire du corps et véhiculant des cellules immunitaires, à la place du sang. L’étude a découvert que plutôt que de s’arrêter à la base du crâne, ces vaisseaux se prolongeaient à travers les méninges, une membrane qui enveloppe le cerveau et la moelle épinière. Ces vaisseaux n’ont sans doute pas été détectés, selon Kipnis, parce que les méninges sont souvent considérées comme une sorte d’emballage plastique du cerveau, plutôt que d’un pan de l’anatomie en tant que tel.

« Dans votre manuel d’instruction lorsque vous êtes étudiant, la première consigne est de « retirer les méninges », précise-t-il. «Les gens ne sont habituellement pas intéressés par cette région du cerveau. »

La découverte a été faite en montant les méninges d’une souris sur une seule lame afin qu’elles puissent être examinées dans leur ensemble. Après avoir remarqué au microscope la présence d’éléments ressemblant à des vaisseaux sur des cellules immunitaires présentes sur les diapositives, ils se sont lancés dans une série de tests qui ont démontré qu’il s’agissait de vaisseaux lymphatiques desservant le liquide céphalo-rachidien, le liquide qui sépare le cerveau et la moelle épinière.

Des expériences préliminaires suggèrent la même anatomie chez les êtres humains, selon l’étude publiée cette semaine dans la revue Nature.

« Nous sommes convaincus qu’ils existent aussi chez les humains », pronostique Kipnis.

Kevin Lee, un neuroscientifique de l’Université de Virginie et co-auteur de l’étude, raconte que  « la première fois que ces gars-là m’ont montré le résultat de leur étude, j’ai tout de suite pensé : il va falloir réécrire beaucoup de manuel scolaires ! Il n’a jamais été fait état d’un système lymphatique pour le système nerveux central, et ceci est cependant très clairement établi par cette observation singulière ».

La découverte d’un nouveau morceau de l’anatomie du cerveau a été accueillie avec enthousiasme par d’autres scientifiques, même si certains étaient plus prudents sur le rôle potentiel des vaisseaux dans les maladies.

Nick Fox, professeur de neurologie à l’University College de Londres, assure que la possible existence d’un lien entre les maladies du système immunitaire et la maladie d’Alzheimer est rapidement devenue un « sujet brûlant et très controversé ».

« Il s’agit d’être prudent quant aux résultats des études épidémiologiques lorsque vous ne pouvez pas être certain d’établir un lien de causalité et de corrélation, » prévient-il dit. « Et il convient de  noter que les essais de médicaments anti-inflammatoires [ciblant la réponse immunitaire] n’ont pas été concluants concernant la maladie d’Alzheimer, mais peut-être n’ont-ils pas été donnés aux patients assez tôt. »

La dernière phase de recherche pourrait, selon lui, aider à définir la véritable nature de ce lien.

James Nicoll, professeur de neuropathologie à l’Université de Southampton, perçoit les bénéfices possibles d’une telle découverte : « Ceci est susceptible d’être une découverte importante par rapport à la compréhension des maladies infectieuses et inflammatoires du cerveau à condition que les résultats soient confirmés par d’autres et chez l’être humain. »

Il déplore par ailleurs le fait que les auteurs n’aient pas vérifié de manière plus approfondie les conclusions sur les êtres humains : « toutes les expériences qu’ils ont faites ne pourraient être menées sur l’homme, mais suffisamment aurait pu l’être pour confirmer la présence de canaux similaires ».

Enfin, Roxana Carare, professeure agrégée sur le vieillissement vasculaire cérébral à l’Université de Southampton, comme la plupart de ses confrères, veut rester prudente : « Les connexions décrites prennent place entre la structure entourant le cerveau et le système immunitaire, plutôt que le cerveau lui-même et le système immunitaire. La méthodologie est très impressionnante, mais les résultats doivent être interprétés avec prudence en ce qui concerne les maladies affectant les tissus mêmes du cerveau ».

Traduit par S.L

Et aussi dans les
ressources documentaires :

Combien de temps faut-il au cerveau pour passer « en mode conscient » ?

Au cours de cet entretien, il dévoile entre autres choses les conditions d’entrée d’une image au cerveau. Plusieurs paramètres sont évoqués. Premièrement le temps d’affichage. S’il est inférieur à 50 millisecondes, l’être humain n’a pas conscience de l’avoir vue. L’image est subliminale. Il faut donc que l’oeil s’attarde au minimum 50 millisecondes pour que le cerveau l’enregistre de façon consciente. 

La deuxième chose est le traitement de l’information. Le cerveau est soumis constamment à un flot de signaux qu’il doit analyser, filtrer selon des critères propres à chaque individu (son histoire personnelle, l’intérêt ou l’objectif du moment). D’autres, sont universels: il s’agit par exemple des réflexes innés que tout individu possède. Dans l’interview, Stanislas Dehaene fait notamment référence à la réaction au bruit qui détourne automatiquement l’attention.

Dans un premier temps, toutes les images perçues sont subliminales. 

Ce n’est que par la suite, selon le traitement qu’en fait le cerveau, grosso modo si une image passe ou non dans le mode conscient, qu’elle dépasse ce statut. Dès que l’information arrive à la conscience, l’activité cérébrale s’amplifie considérablement à partir de 300 millisecondes. À ce moment, l’information circule dans de nombreuses régions du cerveau (ou plutôt l’envahit?). C’est ce que révèlent les clichés obtenus par le procédé d’imagerie par résonance magnétique fonctionnelle (IRMf). Cette application permet d’enregistrer les variations cérébrales locales quand certaines zones sont stimulées. 

Une autre méthode pour mesurer l’onde qui se propage lorsqu’une personne prend conscience d’une information consiste à poser des électrodes sur le haut du crâne 

Le cerveau est incapable de faire deux choses en même temps

Comme l’explique le docteur Dehaene, le cerveau n’absorbe qu’une information à la fois et tant que son traitement est en cours, il ne peut en assimiler d’autres. Il compare ce mécanisme de réception et d’apprentissage du cerveau à des portes qui bloqueraient l’entrée de nouvelles données tant que la précédente n’a pas été traitée. Ce n’est pas une question d’intelligence, c’est juste que l’être humain ne peut se concentrer que sur une chose à la fois.

Le vieil adage qui dit que les femmes contrairement aux hommes peuvent réaliser deux tâches simultanément serait donc erroné ? À cela, il rétorque que ce n’est pas tout à fait exact car il faut compter sur les tâches répétées tellement souvent qu’elles deviennent automatiques. À la longue, il est possible par exemple de conduire et d’écouter de la musique ou de discuter en même temps. Ces activités sont réalisées de manière non conscientes et n’occupent donc pas entièrement le cerveau.

Le monde d’aujourd’hui sème-t-il des embûches à notre conscience ? L’environnement actuel, fait d’innombrables sollicitations (publicités, smartphones…), a de quoi perturber le cerveau, engendrer des pertes de temps, qui cumulées, ralentissent notre progression dans ce que nous nous fixons comme objectif. La difficulté réside alors dans le fait de rester opaque à ce genre de distractions au moment opportun tout en laissant la porte ouverte à d’autres car il est également prouvé que ces stimulations favorisent le développement cérébral. Comme quoi, même si ces sollicitations peuvent parfois être stressantes, elles s’avèrent finalement bénéfiques.

Par Sébastien Tribot

Et aussi dans les
ressources documentaires :

« Le cerveau se répare de lui-même dans une certaine mesure »

Hugues Duffau, si vous ne le connaissez pas, est une pointure reconnue en neurochirurgie. Une célébrité que l’on dit modeste, cherchant à éviter le feu des projecteurs. Pourtant il peut se targuer d’avoir été un précurseur. C’est en effet le premier chirurgien français à avoir retiré des tumeurs sans endormir ses patients. Il a par la suite largement contribué à répandre dans de nombreux pays cette technique devenue aujourd’hui une référence.

Depuis sa première opération, qui remonte à 18 ans, – une infirmière de 25 ans, qui avait ensuite pu reprendre son activité – le neurochirurgien s’est occupé de plus de 500 personnes (dont 90 % sont encore en vie). Il dit avoir beaucoup pratiqué sur des tumeurs gliales, des tumeurs issues du tissu de soutien neuronal appelé glie.

Dans l’entretien accordé à L’Express, Hugues Duffau exposait sa technique. Il expliquait que la chirurgie éveillée était possible parce que le cerveau n’est pas sensible à la douleur. Pendant une opération, le patient ne ressent aucune gène, c’est ce qui lui permet d’être conscient. Il est tout de même anesthésié généralement afin d’ouvrir sa boîte crânienne, mais il est réveillé peu après. L’intervention se fait avec son concours. Dirigé par l’orthophoniste, il effectue des tests simples. Ce peut être des mouvements à réaliser ou des mots à prononcer. Dans le même temps, le neurochirurgien envoie de légères décharges électriques dans certaines zones à la surface du cerveau.

Le cerveau est capable de se recomposer

En fonction de la façon qu’à le patient de répondre aux demandes de l’orthophoniste (si sa parole se trouble ou si elle reste normale), le neurochirurgien peut cartographier les zones du cerveau à réparer/ôter en mettant des marqueurs. Encore maintenant, cette méthode reste la plus directe pour déterminer un plan du réseau anatomique du cerveau.

L’avantage étant de ne pas en enlever une quantité trop importante et de provoquer le moins de dégâts possibles. Car le risque de ce genre d’opération est bien là. En enlever trop, même un tout petit peu trop, et laisser des séquelles aux patients. C’est un risque de plus en plus réduit, mais qui existe malgré tout. Il révèle une anecdote particulièrement édifiante à ce sujet. Sachant l’opération d’une pianiste russe polyglotte trop longue, il s’était mis d’accord avec elle pour ne préserver que les langues qu’elle estimait essentielles. Un diagnostic précoce favoriserait bien entendu le traitement préventif. À ce titre, Hugues Duffau déclare qu’un dépistage par IRM au sein de la population permettrait cela.

C’est une chose extraordinaire. Le cerveau peut délocaliser ses fonctions d’une région à une autre, dans le même hémisphère ou dans l’autre. C’est la raison pour laquelle il déclare que « l’aire de broca n’est pas l’aire de la parole ». Les conclusions de Paul Broca, l’auteur de cette découverte en 1861, sont fausses parce qu’il n’existe pas de zone du cerveau dédiée à la parole à proprement parlé. Le neurochirurgien parle plutôt de « réseaux parallèles capables de se compenser les uns les autres », de connexions entre des nœuds. Et de fait, il donne un bon coup de botte à 150 ans d’histoire de la médecine.

Par Sébastien Tribot

Et aussi dans les ressources documentaires :

Les nanoparticules magnétiques permettront-elles de soigner des maladies du cerveau ?

La barrière hémato-encéphalique (BHE) est une barrière physiologique qui empêche naturellement les agents pathogènes, les toxines et les hormones de passer du sang au cerveau. Elle joue donc un rôle positif dans la conservation du cerveau, en le nettoyant de certains déchets par exemple. Toutefois, elle bloque presque tout, y compris les médicaments véhiculés par le sang. Ce qui n’est pas sans compliquer la tâche des médecins. 

 

Pour cette raison, une équipe de chercheurs de l’École Polytechnique de Montréal s’est ingéniée à duper la BHE de souris afin d’offrir un passage à certaines molécules actives avec comme but in fine : qu’elles puissent atteindre les régions du cerveau souhaitées en vue de les traiter. Pour y arriver, des nanoparticules magnétiques ont été placées à l’endroit voulu grâce à un dispositif d’Imagerie par Résonance Magnétique (IRM), puis faiblement chauffées par exposition à un champ de fréquence radio. Ce qui a permis d’ouvrir durant un court laps de temps la barrière. 

 

Il s’agit d’une progression significative dans la connaissance de ce réseau encore assez méconnu de microvaisseaux sanguins composé de cellules endothéliales qu’est la barrière hémato-encéphalique. Appliquer cette méthode sur l’homme pour administrer des remèdes directement dans le cerveau serait une avancée fantastique dans le traitement de certaines maladies neurologiques. Car à la différence de traitements comme la chimiothérapie, s’en prenant à tous les tissus, y compris les tissus sains, et donc extrêmement agressive pour le corps, ce procédé permettrait de cibler précisément les zones à soigner. 

 

Jusqu’à maintenant, lorsque l’on essaye de soigner les patients souffrant de maladies graves, les médecins passent par l’opération. Mais ces interventions chirurgicales sont toujours risquées, notamment quand il s’agit d’ôter une tumeur. Et parfois, l’opération est impossible si la partie du cerveau à traiter est située au mauvais endroit. La manipulation de la BHE (pour laisser passer les agents thérapeutiques et empêcher les cellules cancéreuses de traverser) et le guidage des nanoparticules pourraient donc tout changer. 

 

Du temps, des tests et de nombreuses réflexions sont encore nécessaires avant de pouvoir appliquer ce procédé novateur sur l’Homme, comme l’affirment les auteurs de l’étude – dont Anne-Sophie Carret. L’idée est certes validée et particulièrement prometteuse, mais le moment où le traitement de troubles psychiatriques, neurologiques ou issus de maladies dégénératives (Alzheimer) se fera par ce biais n’est à priori pas pour tout de suite. La gestion de l’ouverture de la barrière est trop délicate et imprécise. Encore un peu de patience donc.

 

Par Sébastien Tribot

Et aussi dans les
ressources documentaires :

Ryad et Koweït en discussions au sujet de leur différend pétrolier

« Un comité commun formé par les deux pays (…) a récemment tenu sa première réunion à Ryad », a expliqué mardi soir le ministre, Ali al-Omair, selon l’agence Kuna.

Il n’y a pas de calendrier pour les négociations, a-t-il indiqué, tout en disant s’attendre à une avancée rapide.

Le différend entre les deux pays a conduit à la fermeture des champs de Khafji et de Wafra, situés dans la zone neutre. Ces deux champs produisaient plus de 500.000 barils par jour que les deux pays se partageaient à parité.

Wafra a été fermé le 11 mai, initialement pour deux semaines pour maintenance mais il n’a pas rouvert depuis. Le gisement off-shore de Khafji avait lui été stoppé en octobre par l’Arabie saoudite, qui a fait état de craintes pour l’environnement.

Selon des sources industrielles, les autorités koweïtiennes sont mécontentes du fait que l’Arabie saoudite ait renouvelé en 2009, sans les consulter, un accord de 30 ans avec la Saudi Arabian Chevron, qui assure la production du champ pétrolier de Wafra.

Le Koweït a décidé, en représailles, de ne plus renouveler les permis de résidence des employés de cette compagnie.

L’arrêt de ces champs est un coup dur pour le Koweït, qui, contrairement à son voisin, grand producteur, a peu de capacités supplémentaires de production.

Ce différend survient alors que les prix du pétrole se sont effondrés l’an passé, avant de se redresser légèrement depuis janvier.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Vidéo : La lumière contre la pollution

Jean-Baptiste Renard, directeur de recherche au CNRS, explique comment ces instruments de mesure détectent la taille, la nature et la forme des particules. Le LOAC (Light optical aerosol counter), par exemple, est accroché au ballon du Parc André Citroën à Paris.

« Le LOAC mesure la concentration en poussière, c’est-à-dire le nombre de poussières que nous avons par unité de volume et va transmettre les informations en temps réel sur un écran où nous voyons l’évolution de la concentration en particules en fonction de l’altitude. Ceci nous montre ce que l’on va respirer à chaque fois que nous sommes en situation d’air pollué. »

 

Réalisation : Armand Bernardi

Production : Universcience, La Huit, Arte G.E.I.E., European Physical Society

Source : universcience

Et aussi dans les
ressources documentaires :

Les textiles électroniques

Cela permettrait aux industriels d’incorporer des appareils numériques dans le vêtement lui-même tels que, des téléphones, des lecteurs MP3, des GPS ou bien des outils de surveillance médicale. Les fruits de ces recherches à fait l’objet d’une publication dans la revue Scientific Reports du prestigieux groupe Nature en mai 2015.

Les textiles sont habituellement trop fragiles pour supporter les procédés de nanofabrication impliquant notamment, des températures élevées. Aussi la nature fibreuse des textiles rend difficile l’adhérence d’autres matériaux. Jusqu’à présent les techniques utilisées impliquaient de grandes couches de matériaux au détriment de la souplesse et de la transparence de tissus.

L’équipe d’Aveiro utilise le graphène en monocouche avec une croissance contrôlée en suspension dans une solution aqueuse puis transféré dans les fibres. Ce processus se déroule à température ambiante et un traitement de surface basé sur les ultraviolet-ozones irradiations augmente fortement l’adhésion aux fibres. Cette croissance contrôlée de graphène, comprenant une monocouche de graphite, a démontré de grands potentiels de conductivité et de mobilité d’électrons. Grâce à la transparence et la souplesse du graphène, le toucher, la malléabilité et la couleur des tissus restent intacts.

Cette étude est menée en partenariat avec des équipes de l’UA, l’Université d’Exeter (Royaume-Uni), l’Institut des Systèmes et d’Information pour les Microsystems et les Nanotechnologies (Portugal), l’Université de Lisbonne et le Centre Belge de Recherche Textile. Les recherches ont pu commencer grâce à une bourse de la Royal Society.

Source :  bulletins-electroniques

Et aussi dans les
ressources documentaires :

Sixième Extinction : 7% des espèces probablement déjà disparues

En utilisant deux approches, l’une fondée sur les avis d’experts naturalistes et l’autre issue des mathématiques probabilistes, ces chercheurs ont travaillé sur un échantillon d’espèces d’invertébrés et ont extrapolé leurs résultats à l’ensemble de la biodiversité terrestre. Leur étude offre un nouveau regard sur la mesure de la crise de la biodiversité, jusqu’ici focalisée sur les vertébrés, et en particulier les mammifères et les oiseaux.

Quels chiffres fondent la notion de 6ème extinction de masse ?

La Liste rouge de l’Union internationale pour la conservation de la nature (UICN) dresse chaque année la liste « officielle » des espèces éteintes ou en danger d’extinction. Elle recense environ 1000 espèces de plantes et d’animaux, éteintes au cours des quatre derniers siècles alors que dans le même temps les biologistes découvrent et décrivent en moyenne 18 000 nouvelles espèces par an, qui s’ajoutent aux deux millions déjà connues. Ce décalage entre les 1000 espèces recensées par l’UICN et les millions d’espèces existantes s’explique aisément. La mesure de la crise se base essentiellement sur les vertébrés supérieurs (oiseaux, mammifères), pour lesquels nous disposons de données robustes mais qui concentrent aussi l’essentiel des efforts de conservation.

Lorsque la Liste rouge recense « seulement » 1,3% d’extinctions chez les mammifères et les oiseaux, ce chiffre reflète, certes, la crise de la biodiversité (ce chiffre est en effet 100 à 200 fois supérieur au « bruit de fond » de l’extinction naturelle ; mais il reflète aussi le succès des actions de conservation : créations de réserves et aires protégées, plans de reproduction en captivité dont bénéficient la plupart des oiseaux et bon nombre de mammifères. Les invertébrés, au contraire, constituent le plus gros bataillon de la biodiversité (70% des espèces connues, la plupart petites et rares, difficiles à échantillonner et à identifier), mais souffrent à la fois d’un déficit de connaissances et d’un déficit d’attention en termes de stratégies de conservation. 

Une nouvelle approche de la crise de la biodiversité fondée sur les invertébrés 

Face à ce constat, une équipe de recherche pluridisciplinaire (systématique, biologie de la conservation, mathématique et bio-informatique) a remis en question les données sur lesquelles s’appuie la mesure de la Sixième Extinction en s’intéressant spécifiquement aux invertébrés. Ces chercheurs ont choisi comme modèle un groupe d’invertébrés pouvant paraître peu charismatiques : les mollusques terrestres (escargots et limaces). Pour 200 espèces tirées au sort, les chercheurs ont demandé à 35 experts du monde entier d’évaluer si elles étaient éteintes, encore vivantes ou s’ils ne pouvaient pas se prononcer.

En parallèle, toutes les informations existantes depuis deux siècles sur ces 200 espèces ont été rassemblées : données bibliographiques, mais aussi données issues de collections de plusieurs Muséums d’histoire naturelle, données d’amateurs et de collectionneurs, habituellement non utilisées pour construire ce genre de scénarii. Ces données ont alimenté un modèle de mathématique probabiliste pour mesurer les « chances » d’extinction de chacune des espèces.

Les résultats des deux approches, avis d’expert et modèle mathématique, totalement indépendants, sont remarquablement concordants. Extrapolés aux autres compartiments de la biodiversité, ces résultats permettent donc d’estimer que nous aurions déjà perdu, non pas 1,3 mais 7% de la biodiversité terrestre de la planète.

 

Source : CNRS

 

Et aussi dans les
ressources documentaires :

Réutilisation des eaux grises pour des usages domestiques : une pratique à encadrer

L’utilisation des eaux grises traitées, qui consiste à récupérer et à collecter les eaux provenant des douches, baignoires, lavabos, lave-linge, et éventuellement de la cuisine, puis à les utiliser après traitement, n’est pas autorisée en France pour des usages domestiques. En 2011, la Direction générale de la santé a saisi l’Anses afin qu’elle évalue les risques sanitaires potentiels liés à la réutilisation des eaux grises pour des usages domestiques. Dans les avis et rapport qu’elle publie ce jour, l’Agence estime que la pratique de réutilisation des eaux grises dans l’habitat doit être encadrée, et ne doit être envisagée que pour des usages strictement limités, dans des environnements géographiques affectés durablement et de façon répétée par des pénuries d’eau. Par ailleurs, la population (résidents, utilisateurs occasionnels, professionnels) doit être informée et formée aux conditions d’utilisations nécessaires pour minimiser les risques associés à la présence d’un réseau d’eau non potable dans le bâtiment.
Dans un contexte de développement durable, la réutilisation des eaux grises en milieu domestique est souvent évoquée afin d’épargner la ressource en eau et réduire la consommation d’eau potable. Depuis quelques années, l’intérêt porté à cette pratique s’est accru et certains pays comme l’Australie, les États-Unis, Israël et le Japon se sont tournés vers ces ressources complémentaires face à des situations de pénuries d’eau douce.
En 2011, l’Anses a été saisie par la Direction générale de la santé, pour évaluer les risques sanitaires liés à la réutilisation d’eaux grises pour des usages domestiques, pratique qui n’est actuellement pas autorisée en France. L’avis et le rapport d’expertise publiés ce jour définissent des critères de qualité microbiologiques et physico-chimiques des eaux grises traitées pour certains usages domestiques et recommandent des mesures de prévention à mettre en œuvre.

Risques sanitaires liés aux différents usages des eaux grises : chaque projet constitue un cas particulier

Les eaux grises (ou eaux ménagères) brutes sont des eaux issues des douches, des baignoires, des lavabos, des lave-linge, des éviers et des lave-vaisselle. Le travail mené par les experts de l’Anses montre qu’à ce jour, les données disponibles sont insuffisantes pour caractériser de manière rigoureuse et exhaustive les dangers liés aux différents contaminants physico-chimiques et microbiologiques des eaux grises, et les niveaux d’exposition liés aux différents usages, applicables à toutes les situations.
Les eaux grises contiennent des matières particulaires et organiques, et sont contaminées par des micro-organismes dont des pathogènes et des contaminants physico-chimiques issus notamment du lavage des mains, des produits d’hygiène corporelle et cosmétiques, des produits d’entretien de la maison, du lavage des surfaces et du lavage du linge. Compte tenu de leurs caractéristiques, les eaux grises brutes ne peuvent être réutilisées pour des usages domestiques sans un traitement préalable. Ainsi, la réutilisation des eaux grises nécessite des étapes de traitement, de transport et de stockage à maitriser.
Par ailleurs, l’utilisation d’eaux grises traitées dans l’habitat nécessite l’installation d’un réseau distinct du réseau de distribution d’eau destinée à la consommation humaine (EDCH) et les retours d’expériences mettent en évidence le fait que la présence d’un réseau d’eau non potable à l’intérieur de l’habitat constitue une source majeure de risque. En effet, l’interconnexion entre le réseau d’EDCH et celui véhiculant les eaux grises, peut entraîner une contamination du réseau public de distribution de l’EDCH, la rendant non conforme à la réglementation en vigueur et susceptible d’entraîner des effets sur la santé des consommateurs.

Les recommandations de l’Agence

L’Anses estime qu’une réutilisation des eaux grises dans l’habitat ne doit être envisagée que pour des usages strictement limités, dans des environnements géographiques affectés durablement et de façon répétée par des pénuries d’eau.
Sous réserve de la mise en œuvre d’un traitement et de mesures de gestion du risque appropriées, les eaux grises traitées peuvent être adaptées à trois usages en milieu domestique, si elles répondent à des critères de qualité précis au point d’usage :

  • l’alimentation de la chasse d’eau des toilettes,
  • l’arrosage des espaces verts (excluant potagers et usages agricoles),
  • le lavage des surfaces extérieures sans génération d’aérosols (sans utilisation de nettoyeur à haute pression). Toutefois, dans ce cas l’ajout de produits d’entretien dans les eaux grises traitées est déconseillé.

Dans ces conditions, un encadrement réglementaire des conditions de recueil, de stockage et de traitement des eaux grises brutes est nécessaire pour permettre de réduire les risques sanitaires pour les personnes exposées.
Au vu du manque de données nécessaires pour conduire une évaluation des risques sanitaires liés aux différents usages des eaux grises traitées, l’Anses recommande que chaque projet de réutilisation d’eaux grises brutes dans l’habitat fasse l’objet d’une démarche systématique d’analyse des risques, afin de s’assurer que les bénéfices sont supérieurs aux risques pour la santé des occupants et des travailleurs amenés à utiliser des eaux grises traitées dans l’habitat.
L’Agence recommande que les décideurs, particuliers, copropriétaires, élus, etc. soient informés des possibles impacts sanitaires, environnementaux et économiques de l’opération de réutilisation des eaux grises.
De surcroît, l’adjonction d’un réseau d’eaux grises peut également engendrer des risques sanitaires pour les utilisateurs et/ou les occupants des immeubles, qu’ils soient liés à l’installation, à l’exploitation et à l’entretien du réseau, ou liés à la qualité de l’eau transportée. La traçabilité est donc primordiale pour garantir la sécurité sanitaire au cours du temps et éviter toute dérive.
Par ailleurs, la population (résidents, professionnels, utilisateurs occasionnels) doit être informée de l’existence d’un système de réutilisation des eaux grises traitées et sur les risques sanitaires éventuels. Elle doit également être formée aux conditions d’utilisations nécessaires pour minimiser les risques associés à la présence d’un réseau d’eau non potable. L’Anses propose en outre une série de recommandations pratiques à destination des professionnels intervenant sur les installations de réutilisation d’eaux grises.
Dans un contexte de développement durable visant notamment à épargner la ressource et économiser l’eau, l’Agence rappelle que l’eau, quels que soient ses usages, doit être utilisée de façon raisonnée.

Autres travaux de l’Agence
L’Anses a déjà produit plusieurs avis concernant la réutilisation des eaux usées traitées.
Par ailleurs, elle a été récemment saisie d’une demande d’expertise relative à la réutilisation des eaux de pluie.  

Source : Anses

Et aussi dans les ressources documentaires :

Climat: face au réchauffement, l’agriculture doit se « diversifier » (expert)

La France doit « revoir sa copie » et s’orienter vers un « système de production beaucoup plus diversifié que dans notre agriculture industrielle », a déclaré le scientifique lors d’un débat organisé à Paris par le réseau Comité 21, axé sur le développement durable.

Au cours des dernières décennies, l’agriculture française a eu tendance à se spécialiser par région, afin de « rentabiliser » les gros investissements rendus nécessaires par une production intensive, a expliqué l’agronome, membre des comités scientifiques de la Fondation Nicolas Hulot et de l’Institut de recherche pour le développement (IRD).

Mais pour faire face aux migrations d’espèces végétales ou animales, ainsi qu’aux accidents climatiques provoqués par le réchauffement, il faut aller vers une « moindre spécialisation », par exemple en associant de nouveau agriculture et élevage sur les mêmes terres, et en diversifiant les plantes cultivées, estime M. Dufumier.

Non seulement cette diversification permettrait de mieux résister au changement climatique, mais elle éviterait d’aggraver la situation: renoncer aux labours pourrait ainsi permettre de stocker davantage de gaz carboniques dans les sols.

Augmenter la production de légumineuses (luzerne, féverole, lentilles, pois…) permettrait de réduire l’utilisation d’engrais azotés de synthèse, responsables des émissions de protoxyde d’azote, « 300 fois plus réchauffant que le CO³ », avance l’agronome.

Les légumineuses, naturellement riches en azote nécessaire à la croissance des plantes, fourniraient aussi une alternative au soja importé (en majorité OGM) pour nourrir le bétail, ainsi qu’à la viande pour l’alimentation humaine.

M. Dufumier estime qu’il faudrait pour cela « renoncer aux accords de libre-échange et imposer des droits de douane sur les importations de soja ». Il plaide pour des négociations climatiques et agricoles groupées, regrettant que ce n’ait pas été le cas lors de la conférence sur le climat de Copenhague en 2009.

En France, l’agriculture est à l’origine d’environ 20% des émissions de gaz à effet de serre, et plus de 35% en comptant l’industrie agroalimentaire, estime le chercheur.

Paris accueillera en décembre une nouvelle conférence mondiale sur le climat (COP 21).

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

L’Energie mondiale du Futur

Le problème

Les présentations usuelles relatives à l’Energie font référence à l’Energie Primaire (13 milliards de TEP/an en 2015, c’est-à-dire 150 000 TWh) ou à ce qu’on appelle à tort l’ « Energie Finale » (100 000 TWh/an). Elles additionnent l’Energie Réellement Utilisée (50.000 TWh en 2015) avec tout ou partie des énormes pertes d’énergie fossile (100 000 TWh) survenant dans les centrales électriques ou moteurs thermiques, chaudières, foyers ; comme ces pertes sont très variables suivant les sources d’énergie, les comparaisons sont peu compréhensibles pour les non spécialistes et pénalisent les énergies renouvelables.

Le problème réel peut être présenté simplement dans un tableau de l’Utilisation Réelle d’Energie excluant les pertes.

On admet généralement que de 2015 à 2050 le Produit Mondial doublera au moins mais que l’utilisation Réelle d’Energie augmentera seulement de 30 à 50 %. Le tableau ci-dessous compare donc l’utilisation des sources d’énergie à ces deux dates avec 40% d’augmentation des besoins.

 

  • 40.000 TWh proviennent en 2015 du pétrole, gaz et charbon dont l’utilisation doit être divisée par 2 en 2050 pour diviser par 2 l’émission de CO2.
  • 6.000 TWh proviennent en 2015 d’autres ressources limitées, principalement de l’uranium et du bois. Pour des raisons de coût, ressource et acceptation, leur contribution en 2050 semble limitée à 10.000 TWh.

Le problème est donc simple : en 2050 environ 40 000 TWh doivent provenir d’énergies réellement renouvelables : il s’agit essentiellement des Energies du soleil (solaire, éolien, hydroélectricité). Cette solution parait nécessaire ; est-elle réaliste ? 

La solution : Les Energies du Soleil

Plus de mille fois supérieures aux besoins, les Energie du soleil peuvent être utilisées essentiellement sous forme électrique. Pour tenir compte de pertes correspondantes entre production et utilisation, la production devra être de l’ordre de 50 000 TWh pour une utilisation réelle de 40 000 TWh. Quelle répartition réaliste peut-on prévoir entre solaire, éolien et hydroélectricité ?

  • Les progrès récents et remarquables de l’énergie solaire en font une solution miracle encore très sous estimée. Celle-ci bénéficiera d’un cout compétitif de l’ordre de 60 $/MWh, d’une mise en œuvre simple et rapide et d’une grande disponibilité en toutes saisons pour 6 Milliards d’habitants en 2050 à moins de 3 000 km de l’Equateur. Elle peut aussi être un appoint important pour l’Europe et la Chine, plus éloignées de l’Equateur.

  • L’Energie Eolienne peut être largement disponible à 70 $/MWh à terre et 100 $/MWh en mer, pour au moins 50% de la population mondiale, en particulier à plus de 3 000 km de l’Equateur.

  • L’Energie Hydraulique bénéficie d’un coût compétitif et d’une utilisation flexible. Sa production est limitée à 8 000 TWh/an (énergie marine incluse) mais elle est un atout essentiel pour stocker l’Electricité et assurer la qualité des réseaux électriques.

Les Energies du Soleil sont donc bien répartie mondialement, sauf dans quelques pays où uranium et bois auront plus d’importance. La production nécessaire réelle peut être assez différente de l’évaluation de 50 000 TWh, mais la solution est parfaitement adaptable à un besoin sensiblement différent. Il est peu probable qu’il soit très réduit, ce qui permet d’évaluer l’investissement minimal nécessaire.

L’intermittence du solaire et de l’éolien est un inconvénient qui n’est nullement prohibitif contrairement à des critiques parfois caricaturales. En effet cet inconvénient peut être compensé par la flexibilité de la production hydraulique, par les énergies fossiles conservées pour 20% de l’électricité et par le stockage, notamment avec la solution éprouvée du pompage entre deux lacs ; ce stockage est déjà disponible pour 5% de l’électricité actuelle et son importance peut décupler. Le surcout du solaire et de l’éolien lié à l’intermittence est inférieur à 20 $/MWh.

Les Energies du Soleil seront donc disponibles en 2050 pour produire 50 000 TWh et beaucoup plus si nécessaire, à un coût total inférieur à 100 $ / MWh. Ce coût par MWh, bien que supérieur au coût actuel, sera très acceptable parce que l’utilisation d’énergie augmentera d’ici 2050 beaucoup moins que le Produit Mondial, le poids de l’Energie dans l’Economie variant donc peu.

Un Accord Mondial souhaitable

Le cout des Energies du Soleil apparaissait très élevé il y a 10 ans mais en fait l’investissement nécessaire d’ici 2050 pour produire 50 000 TWh renouvelables est voisin de un pour cent du produit mondial brut ; c’est un peu supérieur au coût d’utilisation de gaz ou de charbon, qui est la solution de facilité dangereuse et à éviter. D’où la nécessité d’un engagement mondial commun de l’investissement nécessaire en énergies renouvelables et d’une répartition équitable du surcoût modéré correspondant ; il parait en effet difficile d’imposer un surcoût aux 4 Milliards d’habitants des pays qu’on peut appeler les Pays du Sud qui émettent actuellement en moyenne moins de CO2 que l’objectif de 2050, il est donc souhaitable de répartir le surcoût parmi les 3 Milliards d’habitants des Pays du Nord (OCDE, Chine, …) qui émettent 5 fois plus de CO2 que l’objectif et qui ont 80% de la richesse mondiale.

Un exemple d’Accord correspondant est esquissé ci-dessous :

Esquisse d’Accord mondial sur le changement climatique

  1. Chaque pays doit limiter en 2050 son émission de CO2 à 2 t par habitant. Dans ce but chaque pays consacrera d’ici là au moins 0,5% de son Produit Brut aux investissements locaux d’énergies renouvelables.

  2. Les pays émettant par habitant plus de CO2 que la moyenne mondiale consacreront environ  3 $ par t en excédent de cette moyenne à des investissements d’énergies renouvelables dans les pays émettant moins de CO2 que la moyenne. Et les pays ayant un Produit Brut par habitant supérieur à la moyenne mondiale consacreront environ 0,3% de leur part de Produit Brut supérieur à cette moyenne à des investissements d’énergies renouvelables dans les pays de Produit Brut inférieur à la moyenne. Ces aides peuvent se faire par coopérations entre deux pays.

  3. Cet accord s’appliquera à partir de 2018. Les chiffres suggérés ci-dessus peuvent être optimisés à la Conférence de 2015 et revus en 2030 et 2040.

 

Un tel accord peut compléter efficacement les Engagements à moyen terme déjà pris par des pays très émetteurs de CO2, engagements peu précis à court terme et probablement insuffisants. Il pourra être accepté par les pays du Sud peu émetteurs de CO2 et permettra leur développement par les Energies du Soleil et non par l’emploi moins couteux du charbon ou du gaz. Il sera efficace car les investissements renouvelables une fois réalisés sont peu coûteux d’exploitation et remplaceront surement gaz et charbon. Il est facilement contrôlable. Il peut s’adapter facilement en 2030 et 2040 aux besoins mieux précisés alors.

Un tel investissement est indispensable car un effort très important d’économies d’énergie ne changera pas l’ordre de grandeur des besoins évalués ci-dessus pour 2050.

Conclusion 

Un investissement mondial important en énergies renouvelables est la condition indispensable et suffisante du succès. Il a un surcoût modéré par rapport à l’utilisation excessive d’énergies fossiles. Il nécessite donc un accord mondial sur l’engagement commun de cet investissement et sur la répartition équitable de son surcoût en fonction des émissions de CO2 par habitant et de la richesse des différents pays.

Cet accord permet de garantir l’énergie nécessaire au progrès économique tout en réduisant la part de l’énergie fossile au niveau souhaitable :

  • Sans surcout pour les pays émettant peu de CO2
  • Avec pour les autres pays un surcoût équivalent à quelques heures de travail par an.

Par François Lempérière

 

 

 

 

 

 

 

 

Loi renseignement : des algorithmes de surveillance massive

La loi de surveillance actuellement examinée par le Sénat rendra légales des pratiques d’espionnage jusque là ignorées du grand public, comme l’installation, sur les équipements des opérateurs et des FAI, de “boites noires” permettant de sonder les données circulant sur les réseaux des acteurs du Net.

Ces appareils contiendront, selon le gouvernement, des algorithmes, qui devraient permettre de retrouver, dans une énorme masse de données transitant sur Internet, de possibles suspects – grâce au data mining

Il devrait s’agir d’un “traitement automatisé”, permettant de repérer des comportements (de communication) suspects, puis d’identifier les personnes – en principe, selon le principe de la surveillance ciblée, et non généralisée. Pourtant, difficile d’y croire.

Des faux positifs prévisibles

D’abord parce qu’un algorithme est une suite d’opérations, qu’un ordinateur se bornera à exécuter. Ces opérations sont définies par un être humain, afin qu’un comportement soit par exemple détecté comme suspect. Ainsi, l’algorithme reposera obligatoirement sur une liste de comportements définis comme atypiques, conçue par un être humain, par nature faillible.

Quid, donc, du risque d’erreurs et de faux positifs – autrement dit, quid du risque de surveillance d’un grand nombre d’internautes parfaitement innocents ? Tristan Nitot, membre du CNN (conseil national du numérique), interviewé par le Nouvel Obs, s’inquiète : “cette disposition conduira à punir 99% d’innocents souhaitant simplement s’informer”. 

En effet, le risque est grand que les filtres utilisés fassent remonter des internautes n’ayant rien à voir avec des terroristes, mais effectuant des recherches sur le sujet, comme les journalistes, les universitaires ou les sociologues.

Une surveillance massive incontournable

Difficile de croire à une surveillance ciblée, ensuite, puisque pour être efficaces, les algorithmes devront “tourner” dans un système observant le plus de monde possible. Qu’il s’agisse d’un ensemble de règles, qui combinées formeraient un profil suspect (se connecter à un site djihadiste, tout en utilisant régulièrement le mot “explosion” dans ses mails, par exemple), ou qu’il s’agisse de graphes, c’est-à-dire de “cartes” des relations des “3000 personnes engagées de près ou de loin dans la mouvance terroriste”, le procédé utilisé pour faire fonctionner l’édifice nécessitera obligatoirement de surveiller des millions d’internautes.

Afin de repérer un “profil suspect”, un algorithme aura ainsi besoin d’en scruter un très grand nombre. Et en établissant la cartographie des relations sociales de 3000 suspects, un algorithme finira par tisser une véritable toile, jusqu’à répertorier des milliers, voire des millions d’individus.

Des algorithmes probablement inefficaces

A noter que les algorithmes risquent d’être tout simplement inefficaces pour repérer une poignée de terroristes dans une galaxie d’internautes, puisque que les risques de faux positifs sont bien réels, et que les vrais suspects devraient inventer régulièrement des parades pour leurrer le système. 

Ainsi, les algorithmes devront-ils être régulièrement “mis à jour”, à la main, car un organisme, la CNCTR (commission nationale de contrôle des techniques de renseignement), contrôlera toute modification)… le temps pour les terroristes de disparaître des écrans radars.

Par Fabien Soyez

La Police nationale s’appuie sur la recherche informatique

Ce rapprochement entre la Police nationale, le CNRS et les universités a été concrétisé par la signature d’une convention le vendredi 19 juin par Hélène Martini, inspectrice générale et directrice de l’ENSP, et par Alain Fuchs, président du CNRS, co-tutelle de l’IRIT avec l’INP Toulouse, l’Université Toulouse 1 Capitole, l’Université Toulouse Jean Jaurès et l’Université Paul Sabatier. Cet accord témoigne de l’enrichissement croisé des connaissances indispensables à l’amélioration de la sécurité de la France et de l’importance de l’informatique dans les nouveaux moyens de lutte contre la criminalité.

Les acteurs de la sécurité, dont la Police nationale et l’ensemble des services de sécurité de l’État, sont incités à participer encore plus activement aux appels à projets de recherche proposés entre autres par l’ANR et l’Union Européenne, et cherchent aussi à renforcer en interne leur expertise et leurs compétences en technologies avancées. L’IRIT, l’un des rares acteurs de la recherche académique actif dans le réseau Recherche en Sécurité, apporte quant à lui des compétences dans des domaines variés, au service de la sécurité :

  • Acquisition (brute et fouille de données) et traitement des données multimédia (image, vidéo, son, voix)

  • Surveillance et identification des sources sur les réseaux sociaux, web, objets connectés, réseaux de capteurs, de caméras…

  • Traitement numérique et exploitation des données terrain : biométriques, images, vidéo, scans 3D…

  • Gestion et stockage des données, analyse sémantique des données (Big Data)

  • Aide à la décision, simulation (pour la formation et entraînement et pour l’opérationnel)

  • Sécurité des systèmes et des réseaux informatiques, cybersécurité

Avec 700 chercheurs, l’Institut de recherche en informatique de Toulouse (IRIT) est l’un des plus importants laboratoires du CNRS, et l’un des piliers de la recherche en Midi-Pyrénées. Son impact scientifique et ses interactions avec les autres domaines le positionne comme une des forces structurantes du paysage national de l’informatique et de ses applications dans le monde du numérique. L’École Nationale Supérieure de la Police (ENSP) assure la formation professionnelle des 12.000 commissaires et officiers de police. Elle met également en œuvre des projets de recherche au sein de son centre dédié. Cette double mission la positionne naturellement comme partenaire des laboratoires de recherche. La convention représente ainsi la concrétisation d’une collaboration qui dure depuis déjà deux ans.

La signature de cette convention entre l’IRIT et l’ENSP constitue la première étape d’une coopération souhaitée par le ministère de l’Intérieur et le ministère de l’Éducation nationale, de l’Enseignement supérieur et de la Recherche afin de répondre aux nouveaux défis scientifiques que rencontrent les services de sécurité. Cette collaboration pourra se développer au travers de projets de recherche à vocation opérationnelle conjoints et de formations diplômantes. L’ENSP, en sa qualité de co- animateur du réseau de recherche de la police nationale grâce à son centre de recherche, fera le lien entre les services opérationnels de la police nationale et les chercheurs. 

Source : CNRS

 

Et aussi dans les
ressources documentaires :

Les 6 cobayes ont survécu aux 8 mois de simulation de la vie sur Mars

C’est à Hawaï que s’est déroulé cette expérience unique visant à simuler la vie sur Mars. 6 individus, dont 3 hommes et 3 femmes, ont partagé 8 mois de leur quotidien, totalement isolés du monde extérieur. Leur demeure ? Un dôme de 120m² dont 93m² habitables basé à 2440m d’altitudes à flanc de volcan à Manau Loa. A l’intérieur, le rez-de-chaussée accueille une cuisine, une salle à manger, une salle de bain avec douche, un laboratoire et une salle de sport. A l’étage se trouvent les chambres. C’est la troisième mission du genre mais les deux premières n’avaient duré que 4 mois. La Hi-SEAS mission 1 s’était intéressée à la nourriture, à la thermique de l’habitat, à la robotique ainsi qu’aux vêtements. La Hi-SEAS mission 2 portait principalement sur une étude psychologique de l’équipage isolé. La française Lucie Poulet, chercheuse à l’Institut des systèmes spatiaux à Brême en faisait partie. Pour Hi-SEAS mission 3, c’est l’influence de l‘isolement qui est au cœur de l’étude. Les seules sorties autorisées devaient se faire dans une zone restreinte autour du dôme et avec le port d’une combinaison spécifique. Les scientifiques voulaient identifier comment les individus allaient gérer tout cela physiquement et psychologiquement.

Premier bilan positif : aucune bagarre ! Malgré la promiscuité, les 6 personnes ont réussi à vivre ensemble sans en venir aux mains. L’équipage avait à disposition dans sa salle de sport un tapis de course et un vélo, de quoi évacuer les tensions si besoins. Le plus difficile à vivre psychologiquement a été d’être isolé de leurs proches. D’autant que pour une simulation au plus près du réel, les communications se faisaient avec un décalage de 24mn, la durée que subiront les colons sur Mars. Enfin, la nourriture reste un point délicat, les scientifiques ont déclaré avoir souffert de l’absence de nourriture « normale ». 

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Comprendre les oscillations des naines blanches magnétiques

A la fin de sa vie, le Soleil aura épuisé toutes ses ressources nucléaires. Son cœur s’effondrera alors sous l’action de la gravité en un astre très dense ayant une masse proche de celle du Soleil mais dans un volume équivalent à celui d’une planète comme la Terre. Il deviendra alors une « naine blanche ». Actuellement, les chercheurs estiment que près de 10% des étoiles de la Galaxie se sont déjà transformées en « naines blanches ». Certaines d’entre elles sont très fortement magnétiques avec un champ magnétique plus de dix millions de fois plus intense que celui du Soleil.

Lorsqu’elles sont en orbite autour d’une autre étoile, les naines blanches magnétiques, aussi appelées « polars », aspirent la matière qui tombe en chute libre jusqu’à leurs pôles dans ce qui est appelé une « colonne d’accrétion », région cylindrique mesurant quelques centaines de kilomètres de rayon. Dans cette colonne, la matière en chute libre atteint des vitesses supersoniques de l’ordre de 1000 km/s créant un phénomène d’onde de choc, analogue au « bang » des avions supersoniques. Cette onde de compression ralentit brutalement la matière qui s’échauffe et peut alors rayonner autant d’énergie qu’au cœur d’une étoile, principalement sous forme de rayons X, ultraviolets et lumière visible.

Entre 1982 et 1997, des variations de luminosité rapides ont été découvertes dans la lumière visible de cinq de ces polars, suggérant l’existence d’instabilités. Les scientifiques ont voulu comprendre l’origine de ces instabilités présentes dans ces étoiles fortement magnétiques. Dans un premier temps, et en complément de travaux antérieurs, ils ont produit des simulations numériques très précises du processus physique complexe de l’onde de choc due au déplacement de la matière dans la colonne d’accrétion des polars. Dans la majorité des cas, ces simulations ont montré l’existence de fortes instabilités se traduisant par une oscillation importante de la hauteur du choc au-dessus de la naine blanche et donc de la luminosité en rayons X. Pour la première fois, les chercheurs ont pu mettre en évidence un choc dit « secondaire » qui est « réfléchi » par la surface de la naine blanche lorsque la matière percute l’étoile.

Dans un second temps, les mêmes équipes ont recherché la présence de ces oscillations rapides, dont les périodes peuvent varier de 0,1 à 10 secondes, dans un ensemble de polars observées en rayons X par le satellite européen XMM-Newton. Mais, parmi les 24 polars qui ont été étudiées, aucun n’a pu révéler des oscillations rapides.

Dans certains cas, un champ magnétique trop fort peut amortir les oscillations et les rendre indétectables. Mais, malgré l’incertitude sur certains paramètres (masse de la naine blanche, section de la colonne d’accrétion …), une partie au moins des polars observées par XMM aurait dû montrer des oscillations rapides dues aux variations du choc. L’obtention de ces nouveaux résultats et la découverte de l’absence de ces oscillations semblent aujourd’hui mettre en doute la validité des modèles standards sur le comportement des colonnes d’accrétion dont la physique est pourtant considérée comme bien maîtrisée. 

Pour obtenir de tels résultats, les scientifiques ont mis au point des simulations numériques du comportement du plasma. Par ailleurs, les progrès réalisés en physique des lasers et l’utilisation croissante des lasers à haute densité d’énergie rendent désormais possible la reproduction en laboratoire de conditions similaires à celles rencontrées dans certaines structures de l’Univers. Ainsi, dans le cadre du projet d’expérimentation astrophysique baptisé « POLAR », le même groupe de scientifiques a déjà réussi à reproduire en partie, en laboratoire, les phénomènes physiques présents dans les colonnes d’accrétion à la surface des naines blanches. La récente mise en fonctionnement du Laser Mégajoule (LMJ) permettra, dans un futur proche et dans le cadre des expériences d’ouverture avec LMJ-PETAL, de créer une réelle maquette de colonne d’accrétion, ouvrant ainsi la voie à une véritable étude en laboratoire des instabilités de chocs. 

Source : CNRS

Et aussi dans les
ressources documentaires :

Les réserves souterraines aquifères sont-elles en train de s’assécher ?

Pour tenter de déterminer le volume d’eau des plus importantes réserves connues, les scientifiques américains ont utilisé les informations du satellite GRACE (Gravity recovery and climate Experiment). Leur analyse est inquiétante car 8 des plus importantes réserves souterraines d’eau sur les 37 étudiées souffrent d’une reconstitution naturelle insuffisante, tandis que 5 autres sont en passe de connaître le même sort. En comparant les données du satellite aux estimations connues, les chercheurs de l’Union américaine de géophysique (AGU) ont mis à jour des incohérences, preuves que la communauté scientifique ne connait pas l’état d’épuisement réel des réserves souterraines.

Toutefois, grâce aux travaux menés par l’AGU, les réserves les plus exploitées ont été identifiées. Il s’agit notamment des systèmes aquifères arabique, indien et d’Afrique du nord.

La Californie, durement touchée par la sécheresse depuis plusieurs années n’est pas épargnée. Son réservoir en pleine vallée centrale est surexploité et peine à se reconstituer.

Ainsi, les auteurs du travail sur l’évaluation des réserves souterraines d’eau  soulignent le danger de mal connaitre l’état réel des réserves, surtout en plein réchauffement climatique. Il ne faudrait pas que ces réserves, nécessaires à de nombreuses populations, viennent à disparaitre brutalement sans que l’homme n’ait eu le temps de l’anticiper. 

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Un capteur de pollution à glisser dans la poche

Alors que la pollution atmosphérique est une préoccupation grandissante des citoyens comme des politiques, voilà un petit objet qui pourrait bien séduire les particuliers. Il s’agit d’un petit boitier connecté bardé de capteurs qui mesurent la quantité de polluants présents dans l’air ambiant, que l’on soit en intérieur ou en extérieur. L’innovation réside dans la miniaturisation des capteurs pour proposer un boitier qui tient dans la main et que l’on peut donc emmener partout facilement. En temps réel, le capteur Plume indique les taux de 4 particules chimiques polluantes les plus communes, à savoir l’ozone, l’oxyde d’azote, les particules fines et les composés organiques volatils (COV). La mesure est accessible sur son smartphone via une application. Plume est donc un outil pratique pour savoir si l’air que nous respirons est pollué, et si oui dans quelle proportion. Romain Lacombe et David Lissmyr, co-fondateurs de Plume Labs, espèrent commercialiser ce boitier dès 2016. Au-delà de l’information brute sur la pollution, Plume apportera des conseils adaptés à la pollution atmosphérique constatée, en indiquant par exemple si la qualité de l’air permet de faire du sport.

En attendant de pouvoir utiliser le boitier, il est possible de suivre en temps réel la pollution dans les grandes villes, françaises mais aussi étrangères comme Londres, New York, Istanbul ou Tokyo grâce au service lancé par Plume Labs baptisé Plume Air report. L’appli Plume Air collecte directement les informations sur la pollution via les capteurs déployés par les réseaux officiels, comme AirParif pour Paris, allant même jusqu’à prédire la qualité de l’air des prochaines 24h. Plume Air report indique même si oui ou non on peut aller courir, faire du vélo, sortir bébé ou rester en terrasse.

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Transport aérien: le gouvernement lance une mission sur le déploiement du « biokérosène »

« Je vous annonce que je lance, avec le ministre de l’Agriculture, Stéphane Le Foll, une mission sur le déploiement en France du biokérosène, en partenariat avec les industriels, pour établir une feuille de route pour mettre en place une filière française », a déclaré Mme Royal lors d’une conférence de presse consacrée à la prochaine conférence des Nations Unies sur le climat (COP-21), qui se tiendra en décembre au Bourget.

La solution retenue devra être « respectueuse de l’environnement, avec des procédés non consommateurs de terres dédiées à l’alimentation » et basée sur un modèle économique « qui ne déstabilise pas les équilibres financiers du transport aérien », a-t-elle ajouté.

Les inspections des deux ministères rendront leur rapport « à la fin de l’année 2015, ce qui nous permettra de mettre en place les outils d’incitation pour introduire et généraliser progressivement les carburants renouvelables dans l’aéronautique », a-t-elle ajouté.

Interrogée sur de possibles mesures fiscales, la ministre de l’Ecologie a indiqué à l’AFP que « le moment venu, il faudra une fiscalité incitative » et « qui tient compte des émissions de carbone ».

« Il faudra bien donner des avantages fiscaux aux carburants et aux énergies qui ne sont pas polluants », a-t-elle affirmé, précisant que « ça se passera à l’échelle européenne, parce que c’est là que les filières vont être développées ».

Les bio- ou agrocarburants, fabriqués à partir de végétaux, sont déjà identifiés par les avionneurs et les compagnies aériennes comme le principal levier pour réduire leurs émissions de gaz à effet de serre.

Le Groupement des industries françaises aéronautiques et spatiales (Gifas) s’est d’ailleurs engagé à « soutenir l’objectif de la Commission européenne d’une production de 2 millions de tonnes de biocarburants aéronautiques en 2020 », tandis que le groupe Air France-KLM entend « promouvoir la création d’une filière pour l’aviation en France et aux Pays-Bas », dans un manifeste signé en présence de Mme Royal et du ministre des Affaires étrangères, Laurent Fabius.

gbh/fka/fm

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Silence numérique : droit ou devoir ?

Selon un rapport du Credoc datant de novembre 2013, plus d’un cadre sur deux, ayant un niveau d’études supérieures ou égales à bac+2, utilise les technologies de l’information et de la communication (T.I.C.) à des fins professionnelles en dehors du cadre habituel de travail.

Ces cadres se déclarent plutôt satisfaits de cette possibilité car elle offre plus de souplesse dans la gestion de l’équilibre vie privée/vie professionnel. Enfin, seuls 25 % des actifs réclameraient l’instauration de chartes dans les entreprises pour limiter l’usage des T.I.C. en dehors des lieux et horaires de travail habituels.

La question qui se pose est donc la suivante :

Comment gérer l’usage des T.I.C.  en dehors des horaires de travail pour des motifs professionnels ? Qui doit agir en priorité ? Le cadre où l’entreprise… Ou les deux ?  Réponses.

Le cadre

1) le cadre est compétent dans la gestion de son temps

C’est-à-dire :

  • il utilise la planification

  • il se fixe et accomplit des objectifs journaliers

  • il sait mobiliser ses ressources avec pertinence

  • il sait optimiser, à court terme et à long terme, la valeur ajoutée produite

  • il sait faire le tri entre les tâches importantes

  • il sait résister à la séduction de l’urgent

  • il sait dire non

Ce profil de cadre n’a pas besoin de béquilles pour l’aider à avancer. Il fait un usage intelligent de son droit au silence.Toute tentative de réglementation de l’usage des T.I.C serait une mesure pénalisante car elle réduirait ses degrés de libertés… Et probablement sa productivité. Enfin pourquoi faudrait-il empêcher un cadre de faire en 1h30, à l’occasion d’une soirée dominicale par exemple, ce qu’il mettrait probablement plus 3 heures à faire en horaires habituels de travail ? (Rappel : dans son lieu de travail, un cadre est interrompu toutes les quatre minutes en moyenne)

2) Le cadre n’est pas compétent dans l’ingénierie de son temps de travail

C’est-à-dire :

  • Il est incapable de choisir entre liberté et responsabilité

  • Il est incapable de savoir quelles sont les tâches importantes

  • Il confond précision et performance

  • Il est incapable de résister à la séduction de l’urgent

  • Il est incapable de jeter des mails à la poubelle

Tout comme ceux qui se mettent à ralentir pour pouvoir mieux regarder une scène d’accident de la route, les témoins « malgré-eux » d’événements de leur milieu professionnel adoptent une attitude analogue : ils perdent leur temps (de déconnection). En effet, incapables de résister à la consultation régulière de leurs boites mail ou autres messages du répondeur professionnel ces témoins « fortuits » d’événements contingents, se trouvent ainsi piégés. Ils se sentent obligés de répondre pour résoudre des problèmes qui ne devraient pas les concerner pendant cette période.

Dans ce cas, toute charte, ou règlements supplémentaires, concernant l’usage des T.I.C. en dehors des lieux et horaires habituels de travail n’aura que très peu d’effet… Sauf peut-être celui de soulager le cadre distrait de la désolation stressante de devoir subir, impuissant, l’incessant remplissage de sa boite-tonneau-mail des Danaïdes.

L’entreprise et sa culture (d’après le modèle Circumplex Human Synergistics)

la culture d’entreprise est de forme agressive défensive

Dans ces entreprises, c’est la théorie X qui prévaut. La croyance sous-jacente (des dirigeants surtout) est que l’employé n’aime pas travailler. Il est improductif s’il n’est pas surveillé. Il ne travaille que sous la contrainte, voire la menace. Les tenants de la théorie X se concentrent essentiellement sur la tâche. Ils contraignent, contrôlent, menacent, s’opposent, se préoccupent de multiples détails, pour faire en sorte que les subordonnés fournissent les efforts nécessaires et suffisants à la réalisation des objectifs.

Si les T.I.C permettent de prolonger l’exercice professionnel en dehors des heures de travail habituel, il faut aussi savoir qu’elles sont utilisées à des fins personnelles pendant le temps de travail. Il serait surprenant que toute charte conçue dans ce genre d’organisation ne réclame pas de contrepartie produisant des contraintes supplémentaires. Avec ou sans charte, ce genre d’environnement n’est pas suffisamment bienveillant pour résoudre ce problème de l’usage des T.I.C.

1) La culture d’entreprise est de forme passive défensive

Dans ce genre d’entreprises, c’est surtout la théorie Y qui prime. La théorie Y repose sur le postulat inverse selon lequel l’employé aime travailler. Il a besoin d’autonomie, et sa créativité doit être libérée et suscitée. Mais que faut-il penser de ces entreprises qui prennent la décision de ne plus diriger les emails vers les smartphones d’un panel de 5000 salariés spécifiques entre 18 :00 et 07 :00 ?… Ou de celles qui mettent à disposition une application spécifique « effaceur d’emails » sur les postes informatiques de salariés en vacances (avec avis de l’émetteur l’invitant à s’adresser à un remplaçant)?

N’est-ce pas une manière de déresponsabiliser les salariés, d’affirmer que l’option individuelle de ne pas répondre à un email entre 18 :00 et 07 :00, ou d’effacer tout email reçu pendant la période des vacances, n’est pas une attitude acceptable? A-t-on droit au silence numérique dans une entreprise qui gère cette prérogative à votre place ?

Notons que même si elle se fonde sur de bons sentiments, la charte prend surtout dans ce cas, la forme d’une liste de conseils et autres grands principes dont l’impact sur les comportements est soumis à la discrétion de chacun.

2) La culture d’entreprise est constructive

Une culture constructive tient s’inspire à la fois de la théorie X et de la théorie Y en tirant les employés vers les besoins supérieurs de l’échelle des motivations, les fameux facteurs moteurs d’Herzberg. Ce genre de culture se focalise sur la responsabilité et l’efficacité. Au lieu de se laisser piéger par toute forme de réponse administrative,  l’entreprise constructive investit dans l’éducation des salariés. Au lieu de diluer les énergies dans une tentative inefficace d’éradication de ses symptômes, elle s’efforce d’identifier et de régler le problème de fond. Elle invite les collaborateurs concernés à se concerter pour résoudre eux-mêmes les problèmes liés à l’utilisation des T.I.C. et à trouver, par exemple, des réponses cohérentes aux questions suivantes :

  • Comment faire avec les e-mails quand un collaborateur est absent ?

  • Comment faire avec les e-mails lorsqu’un collaborateur ne répond pas ?

  • Un e-mail peut-il être un outil valable pour le traitement des urgences ?

  • Comment accéder à l’information utile au moment propice ?

  • Quel coefficient de performance associer au volume d’informations transmis par un collaborateur ?

Conclusion

Quelle que soit la culture, la meilleure garantie contre un usage néfaste des technologies de l’information et la communication repose sur la responsabilité et la compétence des utilisateurs en matière d’ingénierie du temps.

Il est plus simple de se boucher ses propres oreilles que d’exiger que les autres se taisent lorsqu’on ne désire pas écouter….Encore faut-il l’assumer. 

Par Dino Ragazzo

Et aussi dans les
ressources documentaires :

Embouteillages en orbite

Un danger aux multiples facettes

Imaginez une vie sans téléphones portables, sans télévisions, sans prévisions météo, sans systèmes de contrôle aérien et sans GPS. Un cauchemar qui pourrait devenir réalité, au vu des risques encourus par les satellites en orbite, dont dépendent toutes ces technologies si présentes dans notre vie quotidienne.

Les dangers susceptibles de ramener le monde aux années 1950 sont multiples et variés. Les satellites sont exposés à de nombreux risques naturels tels que les rayons cosmiques, les pluies de météorites ou les tempêtes solaires. A ces risques s’ajoutent des dangers d’origine humaine notamment les collisions entre plusieurs satellites opérationnels ou entre des satellites et des déchets gravitant autour de la Terre. Une telle collision accidentelle s’est notamment produite en 2009, entre le satellite russe Kosmos qui n’était plus en service, et un satellite américain commercial de la compagnie Iridium.

En temps de guerre, des dangers supplémentaires s’ajoutent à cette liste déjà longue: la prise de contrôle par des groupes terroristes de systèmes de contrôles à Terre ou la destruction directe de satellites par des missiles.

« Gravity », un scénario pas si fictif ?

Le trafic en orbite est de plus en plus dense : plus de 1100 satellites y opèrent actuellent, avec près de 120 nouveaux lancements par an. Et la miniaturisation croissante des satellites ne fait qu’accroître ce débit annuel déjà élevé.

D’après les données de l’Agence spatiale israélienne, près d’un demi-million de déchets artificiels de petite taille (un centimètre) gravitent actuellement autour de la Terre, à des vitesses approchant les 28.000 km/h. Comme dans le film « Gravity » d’Alfonso Cuaron (2013), ces déchets font encourir aux satellites en orbite un risque de détérioration important en cas d’impact.

A la recherche de solutions

Les agences spatiales du monde entier étudient les moyens pour réduire la concentration croissante d’objets en orbite. Aux moyens juridiques – le développement de règlementation et d’accord internationaux – s’ajoutent des solutions technologiques. Celles-ci visent à la fois à évacuer les satellites devenus non opérationnels et à un meilleur suivi des objets en orbite.

D’après le site de l’Agence spatiale israélienne, un nouveau projet international serait actuellement en développement pour traquer les déchets de petite taille et éviter qu’ils ne détruisent des satellites opérationnels. Cette technologie utilisera notamment un faisceau laser pour trouver les déchets.

L’industrie israélienne, leader mondial dans le domaine des satellites de petite taille et à faible coût, est susceptible de jouer un rôle important dans la résolution du problème de l’accumulation des déchets en orbite. Une start-up israélienne, à une étape avancée de dépôt de brevet, propose notamment une solution originale : un « mini-bulldozer » spatial, qui attrapera les déchets en orbites et les « jettera », non pas dans une benne à ordures, mais dans l’atmosphère, où ils se désintègreront sans causer de dégâts.

Source : bulletins-electroniques

Et aussi dans les
ressources documentaires :

Les Kangourous sont gauchers, selon une étude

Cette découverte apporte un nouvel éclairage sur un aspect unique de l’évolution des mammifères, estiment ces scientifiques.

« Nous avons découvert un degré prononcé de préférence pour l’usage d’une main en particulier comparable à notre espèce », indique le biologiste Yegor Malashichev de l’Université d’Etat de Saint Petersbourg en Russie, principal auteur de cette recherche.

« Dans toutes les actions étudiées chez les kangourous bipèdes nous avons constaté une forte préférence gauchère », précise-t-il. En revanche ce trait n’est pas apparent chez les kangourous arboricoles.

Ces chercheurs ont été surpris d’observer cette préférence d’usage d’une main chez les kangourous bipèdes et d’autres marsupiaux en raison de différences dans leur cerveau par rapport aux autres mammifères euthériens dont les primates.

Ils ne possèdent pas le même circuit neuronal qui relie les hémisphères gauche et droit du cerveau, précisent-ils.

Ils ont étudié deux espèces de kangourous bipèdes et une espèce de wallaby bipède, un membre plus petit de la famille des kangourous, en Australie continentale et dans l’île de Tasmanie au large de la côte sud australienne.

Les auteurs de l’étude ont également constaté que les kangourous gris de l’est du pays et les Kangourous rouges, sont gauchers naturellement dans toutes leurs tâches que ce soit pour soutenir leur corps dans certaines postures, faire leur toilette, ramasser une feuille ou plier la branche d’un arbre.

Quant aux wallabies à cou rouge, ils utilisent leur main gauche quand ils mangent les feuilles sur les branches des arbres qu’ils tiennent de la main droite comme les deux autres espèces de kangourous.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Des drones qui nous tombent sur la tête !

A la suite de son développement pour des raisons militaires, l’industrie du drone atteint le paysage civil avec un spectre d’applications important, décrit notamment dans un article de la revue Nature du 28 mai dernier, depuis le secours de victimes dans des environnements difficiles d’accès, jusqu’à la surveillance des champs agricoles afin d’augmenter les rendements, en passant par le vandalisme de rue, avec à titre d’exemple, le drone qui a peint un graffiti sur le plus grand panneau publicitaire de New-York. Un autre usage surprenant qui prendra forme dans un futur proche est la livraison de colis, en effet, Amazon développe son programme Prime Air afin d’envoyer des colis d’au moins quatre kilos à ses clients avec peu, voire pas de coûts.

L’augmentation du trafic aérien de ces objets volants nous mène à des situations inédites : le 26 mai dernier, à Marblehead dans le Massachusetts, un drone enregistrant une parade au cours de la fête nationale du « Memorial Day » s’est écrasé sur un spectateur, qui n’a finalement eu qu’une lésion mineure au cou. Même si l’incident n’a pas tourné au drame ce jour-là et que l’opérateur du drone s’en est sorti avec des excuses, le vide juridique et législatif quant à l’usage de ces objets autonomes, qui a été créé par le développement exponentiel de cette industrie, est mis en exergue.

Le Département du Transport américain (DOT ou Department of Transport) ainsi que l’Administration Fédérale de l’Aviation (FAA ou Federal Aviation Administration) ont néanmoins commencé à se pencher sur la question et ont proposé publiquement de nouvelles règles pour l’usage des drones, comprenant le vol de drones de jour uniquement par un opérateur placé à vue de l’engin piloté. D’autres propositions concernent des restrictions en termes de taille et de poids ainsi que l’idée d’une certification de l’opérateur, de même qu’un enregistrement de l’appareil auprès des pouvoirs publics. Le DOT et la FAA ont suggéré ces règles tout en essayant de ne pas décourager tout potentiel d’innovation technologique futur au sein de cette industrie florissante.

De manière intéressante, le Wyss Institute for Biologically Inspired Engineering de l’université Harvard développe les RoboBees, de minuscules robots autonomes inspirés des abeilles, de taille comparable à celle d’une phalange de doigt humain, qui seraient capables dans un futur proche d’être utiles à de nombreuses applications militaires et civiles, comme celles décrites en début d’article, tout en ne risquant pas de blesser qui que ce soit lors de regroupements festifs !

Source : bulletins-electroniques
 

Et aussi dans les
ressources documentaires :

Le patron de l’INRA défend la génomique comme un outil clé d’adaptation de l’agriculture au réchauffement

« Les ressources génétiques sont un moyen utile pour lutter et s’adapter au changement climatique » en exploitant le réservoir de diversité des traits génétiques chez les animaux et les plantes, a-t-il dit. Ainsi il est possible de développer des variétés de récoltes, du blé à la vigne, capables de mieux s’adapter à la chaleur ou à la sécheresse par exemple. Cela est vrai aussi pour le bétail.

« Il existe aujourd’hui de puissantes techniques de sélection génomique qui permettent d’accélérer les processus de sélection en faisant des corrélations très étendues entre ce que l’on sait sur les génomes des plantes et des animaux et les traits génétiques qu’on observe », a poursuivi ce scientifique notant que cette approche est sans risque pour l’environnement.

Dans la communauté scientifique on pense que « ces méthodes génomiques sont aussi efficaces sinon plus, pour agir sur les traits complexes comme le rendement d’une culture, que les techniques de type OGM », a-t-il souligné.

Le rendement d’une culture est contrôlé par un très grand nombre de gènes tout comme la résistance à la sécheresse et dans ces cas l’approche OGM, –bannie en France, ndlr– n’est pas adaptée.

Mais il peut aussi y avoir des traits particuliers qui sont contrôlés par un seul gène pour lequel il n’y a pas de moyen de faire de la sélection classique des caractéristiques génétiques et pour lequel « il peut être plus efficace d’utiliser la technique transgénique (OGM) », a expliqué M. Houllier.

« Le choix de l’approche devrait se faire en fonction des qualités que l’on cherche à obtenir » comme la résistance à la chaleur, à une maladie ou davantage de polyphénols, des anti-oxydants, a-t-il fait valoir.

La relation entre la changement climatique et l’agriculture est importante étant donné que cette activité contribue au réchauffement de la planète mais en subi aussi les effets néfastes, a dit le PDG de l’INRA.

Au niveau mondial, les émissions de gaz à effet de serre produits par l’agriculture dont le méthane émanant de la digestion du bétail et le dioxyde de carbone (CO2) résultant de l’exploitation agricole, représentent environ 24% du total, a-t-il précisé.

En France où se tiendra en décembre la conférence mondiale sur le climat, les dix mesures proposées il y a deux ans par le gouvernement permettraient de réduire de 30% (30 millions de tonnes) les émissions de gaz à effet de serre produites annuellement par l’Agriculture estimées à cent millions de tonnes, a indiqué M. Houllié.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »