Sharette simplifie le covoiturage urbain

Le RER A est l’une des lignes ferroviaire les plus utilisées en Europe avec un million de passagers par jour. Si durant l’été, la fréquentation est plus faible, l’interruption du trafic entre Auber et La Défense pour renouveler une partie des voies, nécessitera de réorienter plusieurs centaines de milliers de passager chaque jour. Pour ce faire, en plus des autres lignes de métro, de tramway et de bus, la RATP proposera à ses voyageurs, en partenariat avec la start-up Sharette, de faire une partie de leur trajet en covoiturage.

Sharette se développe depuis 2013 dans une communauté fermée regroupant aujourd’hui 3 500 inscrits. Depuis le 15 juin, l’inscription est ouverte à tous les franciliens et la start-up a déjà enregistré 900 nouveaux usagers. La possibilité de covoiturer pour ces nouveaux inscrits sera accessible dès le 15 juillet. Grâce à cette nouvelle visibilité apportée par la RATP, Sharette ambitionne de se développer rapidement et d’avoir 75 000 inscrits à la fin de l’été.

Le covoiturage urbain simplifié et bon marché

L’atout majeur de cette application est de combiner les trajets en voiture et les transports en commun dans une même recherche d’itinéraire. Pour le passager, le trajet peut être unimodal si un covoiturage est disponible pour l’ensemble de son parcours, sinon l’application lui proposera un trajet multimodal, combinant covoiturage, transport en commun et temps de marche à pied. Autre avantage : elle propose un tarif unique, quelle que soit la distance parcourue. Le trajet vous coûtera 2,36 euros : 2 euros vont au conducteur, et 0,36 euro à Sharette.
« L’application a été pensée pour les conducteurs. Elle ne leur fait pas faire de détour, ne leur impose aucune contrainte pour que le covoiturage entre facilement dans leur mode de vie, insiste Catherine Vallet, Responsable communication de Sharette. En tant que conducteur, vous allez entrer votre jour, heure et point de départ, ainsi que votre point d’arrivée ; l’application vous propose un itinéraire passant par un certain nombre de stations que vous pouvez ajouter ou non et elle calcule automatiquement votre horaire de passage aux stations souhaitées ».

Concrètement, une fois la réservation faite, le conducteur et le passager reçoivent leurs coordonnées mutuelles pour pouvoir se prévenir en cas de retard éventuel. Sharette propose une garantie d’attente de 5 minutes maximum ; en cas de retard supérieur, une des deux parties doit annuler la réservation via l’application avant l’heure initiale prévue pour le départ (plus la garantie d’attente de 5 min). Si le passager ne se présente pas au point de rendez-vous, sans prévenir, le trajet lui sera compté comme effectué. A l’inverse, si le conducteur ne présente pas au point de rendez-vous, le passager sera entièrement remboursé.

Un partenariat qui offre une large visibilité à Sharette

Grâce à ce rapprochement avec la RATP, Sharette va disposer d’une large visibilité. L’application mobile RATP, consultée par 2 millions d’utilisateurs chaque mois, va notemment être adaptée pour intégrer les trajets de covoiturage Sharette dans ses calculs d’itinéraires. Les usagers souhaitant réserver un covoiturage seront redirigés vers l’application Sharette où ils pourront réserver une voiture, de 48h jusqu’à 15 minutes avant le trajet à effectuer.

La RATP va également communiquer via ses différents canaux sur ce nouveau dispositif. Elle mènera notamment une campagne d’affichage dans les bus, en station et en gare, et des messages sur le site ratp.fr et les réseaux sociaux.

Le partenariat est pour l’instant expérimenté jusqu’en Décembre 2015. Il pourrait être renouvelé tous les étés sur toute la durée des travaux, soit 7 ans. L’application Sharette ne sera répertoriée dans l’application RATP que pendant la durée des travaux, mais la start-up continuera de se développer en Ile-de-France après, notamment pour mieux desservir les zones de banlieue mal desservies par les transports en commun ! Pour les prochaines années, elle envisage de se développer dans d’autres villes françaises et à l’étranger.

Si un conducteur prend quotidiennement un passager sur son chemin aller et retour, il pourra espérer gagner 20 € sur une semaine de travail. Pas de quoi devenir millionnaire, mais cela lui permettra tout de même de participer à ses frais d’essence, ce qui n’est pas négligeable. N’oublions pas que ce nouveau service réduit également l’autosolisme, la pollution et pourrait permettre de désengranger un peu les rues parisiennes !

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

Reach/CLP : toute l’actualité de juillet 2015

  • 03/07/2015
Autorisation – L’ECHA a publié sa sixième recommandation de substances SVHC à inscrire à l’annexe XIV, elle comporte 15 entrées. Ces substances ont été priorisées à partir de la liste candidate (ou liste des SVHC) car elles sont utilisées à de haut tonnages et pour des usages répandus. La décision finale d’inclure ou non ces substances à l’annexe XIV de REACH sera prise ultérieurement par la Commission Européenne. Consulter la 6 ème recommandation de l’ECHA.
  • 23/06/2015
Enregistrement – Soyez prêts pour la dernière échéance d’enregistrement des substances chimiques ! Toutes les substances chimiques produites ou importées dans des quantités comprises entre 1 et 100 tonnes par an doivent être enregistrées auprès de l’ECHA au plus tard le 31 mai 2018. Cette échéance sera la dernière pour les substances chimiques existantes, au titre de REACH. Pour accompagner les entreprises dans cette démarche d’enregistrement, l’ECHA lance une campagne de sensibilisation et d’appui aux entreprises via sa « feuille de route REACH 2018 » qui divise le processus en 7 phases et décrit les étapes clés de chaque phase ainsi que les activités d’assistance que l’ECHA prévoit de proposer aux déclarants.
 
L’ECHA lance la première phase de cette campagne « REACH 2018 », qui consiste à prendre connaissance de son portefeuille de substances: analyser les volumes de vente et de production, vérifier quelles sont ses obligations en vertu de REACH et définir un programme portant sur la manière de gérer leurs enregistrements pour la dernière échéance. A ce stade, l’identification des substances concernées est essentielle. Un webinar portant sur cette première phase est programmé le 24/06/15 à 10h (heure de Paris). Sur ce sujet, lire le Communiqué de presse de l’ECHA.
  • 16/06/2015
Dans le cadre de la formation professionelle de ses équipes, l’ECHA lance dans chaque pays un programme de visite auprès des PME (durée : 2 jours, entre Sept.et Nov. 2015) qui a pour objectif de leur apporter une expérience « terrain » au sein des entreprises ayant des obligations liées à REACH et CLP.  Si vous êtes disponible et intéressé pour participer à ce programme, basé sur le volontariat, veuillez contacter l’ECHA à l’adresse suivante : [email protected]
  • 15/06/2015
Autorisation et SVHC – La liste des substances candidates à autorisation (ou SVHC) a été mise à jour le 15 juin 2015. Elle comporte deux entrées supplémentaires ce qui porte à 163 le nombre total d’entrées sur cette liste. Les deux nouvelles entrées concernent :
  • un mélange de diesters d’alkyles: 1,2-benzenedicarboxylic acid, di-C6-10-alkyl esters; 1,2-benzenedicarboxylic acid, mélange de décyl, hexyl et octyl diesters (N° CE: 271-094-0), (N° CE: 272-013-1), identifé pour ses proriétés toxiques pour la reproduction, lorsqu’il contient une quantité supérieure ou égale à 0,3% de dihexyl phthalate (N° CE: 201-559-5).
  • 5-sec-butyl-2-(2,4-dimethylcyclohex-3-en-1-yl)-5-methyl-1,3-dioxane, 5-sec-butyl-2-(4,6-dimethylcyclohex-3-en-1-yl)-5-methyl-1,3-dioxane, ce groupe de substances couvre notamment le karanal, utilisé principalement comme parfum. Ce groupe de substances a été identifié pour ses propriétés très persistantes et très bioaccumulables.

Par Pierre Thouverez

Sources : 

Loi transition énergétique : lutter contre les gaspillages en tous genres

Il semble enfin disposer d’une certaine cohérence pour atteindre ses objectifs de meilleure gestion des déchets. Le texte vient d’être revu en commission au Sénat avant la seconde lecture au Sénat programmée les 9, 10, 15, 16 et 17 juillet prochains.

Le texte fait la part belle au développement de l’économie circulaire. Il promeut, par ordre de hiérarchie, « la prévention de la production de déchets, notamment par le réemploi des produits et, suivant la hiérarchie des modes de traitement des déchets, une réutilisation, un recyclage ou, à défaut une valorisation des déchets ». Avec pour objectif de réduction de 10 % des quantités de déchets ménagers et assimilés produits par habitant en 2020 par rapport à 2010, le texte comprend plusieurs dispositions : lutter contre l’obscolescence programmée – une peine de 2 ans d’emprisonnement et de 300 000 € d’amende est prévue en cas d’obsolescence programmée avérée de la part d’un constructeur, voire jusqu’à 5 % du chiffre d’affaires hors taxes le plus élevé réalisé en France en cas d’avantages avérés tirés par l’entreprise.

Le texte prévoit aussi de développer la deuxième vie des objets, « notamment des équipements électriques et électroniques, des textiles et des éléments d’ameublement » ; des objectifs seront définis ultérieurement pour chaque filière par les filières à responsabilité élargie des producteurs. 

Une gestion des déchets repensée

Une nouvelle filière de valorisation des déchets organiques verra le jour « en orientant vers ces filières de valorisation, respectivement, 55 % en 2020 et 65 % en 2025 des déchets non dangereux non inertes, mesurés en masse », de façon à ce que le tri à la source des déchets organiques, en vue de leur valorisation, soit généralisé « avant 2025 ». 

Suite aux résultats de l’expérimentation portant sur l’extension des consignes de tri à l’ensemble des emballages plastiques, cette extension devra être déployée sur tout le territoire « avant 2022 », en vue de leur recyclage prioritaire. Pour optimiser la compréhension du tri par les ménages, les consignes de tri et les couleurs des contenants associés devraient enfin être harmonisés. Cette transition se fera progressivement, au fur et à mesure du renouvellement naturel du parc de poubelles. L’objectif est une harmonisation nationale en 2025.

Les déchets issus d’une collecte séparée ou d’une opération de tri dans une installation dédiée qui ne seront pas recyclabes dans des conditions de rentabilité suffisantes devront être valorisés énergétiquement. Le réemploi, le recyclage et la collecte des biodéchets devant se développer, ainsi qu’à défaut, la valorisation énergétique, les objectifs de réduction de déchets enfouis sont ambitieux. Ils visent à réduire de 30 % les quantités de déchets non dangereux non inertes – les déchets qui peuvent brûler ou être valorisés sans présenter de caractère dangereux ou toxique vis-à-vis de l’environnement ou de la santé humaine – admis en installation de stockage en 2020 par rapport à 2010, et de 50 % en 2025. Pour aider un peu plus l’atteinte de cet objectif, le texte vise à « réduire de 50 % les quantités de produits manufacturés non recyclables mis sur le marché avant 2020 ».

Une filière de récupération des déchets dans le BTP devra se développer fortement d’ici 2020. En effet, le texte vise à valoriser sous forme de matière 70 % du secteur du bâtiment et des travaux publics en 2020, alors qu’aujourd’hui cette filière est quasiment inexistante. En 2020, 15 millions d’habitants devront être couverts par une tarification incitative en matière de déchets et 25 millions en 2025.

Diminution des déchets en matières plastique et de la vaisselle jetable

Certains articles de la loi apparaissent, puis disparaissent, avant d’être réamandés. Ainsi en est-il de l’interdiction de la vaisselle jetable en plastique. Le Sénat veut installer un tri des déchets à la source, l’Assemblée nationale préfère tout simplement l’interdire. En sortie de commission, le texte prévoit que, « au plus tard le 1er janvier 2018, les producteurs ou détenteurs de déchets d’ustensiles jetables de cuisine pour la table en matières plastiques, à l’exclusion des ménages, mettent en place un tri à la source de ces déchets et, lorsque ces déchets ne sont pas traités sur place, une collecte séparée de ces déchets.» De son côté, l’Assemblée nationale de son côté, préfère intedire au 1er janvier 2020, « la mise à disposition des gobelets, verres et assiettes jetables de cuisine pour la table en matière plastique, sauf ceux compostables en compostage domestique et constitués, pour tout ou partie, de matières biosourcées ». 

Les lobbies de l’industrie plastique sont à l’oeuvre pour essayer de supprimer l’interdiction des sacs plastiques en matières plastiques prévue par le texte. En vain, pour l’instant. Ainsi, l’ensemble des sacs en matières plastiques à usage unique destinés à l’emballage de marchandises, mis à disposition dans un lieu de vente seront progressivement interdits. Qu’ils soient gratuits ou payants ! A partir du 1er janvier 2016 pour les sacs de caisse et à compter du 1er janvier 2017 pour les autres. Après, seuls les « sacs compostables en compostage domestique et constitués, pour tout ou partie, de matières biosourcées » seront autorisés. Une disposition similaire concerne les emballages plastiques  pour l’envoi de la presse et de la publicité pour le 1er janvier 2017.

La fin des épaves sur la voie publique ou chez les privés

Trop d’épaves de véhicules sont abandonnées par leurs propriétaires sur la voie publique suite à une détérioration ou un vol. Cela sera enfin interdit. En effet, pour un véhicule laissé sur la voie publique ou sur le domaine public,  un maire pourra faire évacuer ce véhicule, aux frais du titulaire du certification d’immatriculation lorsqu’il est connu, soit vers un centre de véhicules hors d’usage agréé s’il est irréparable, soit vers une fourrière, si le véhicule est techniquement réparable.

De même, plusieurs épaves hors d’usage rouillent dans des jardins privés. Si « ce véhicule peut constituer une atteinte grave à la santé ou à la salubrité publiques, notamment en pouvant servir de gîte à des nuisibles susceptibles de générer une telle atteinte, peut contriber à la survenance d’un risque sanitaire grave ou peut constituer une atteinte grave à l’environnement », le maire dispose des mêmes pouvoirs. Simplement, dans ce cas, le délai d’attente avant intervention est de 15 jours, contre 10 jours pour le cas précédent, suite à la mise en demeure du propriétaire.

La fin du gaspillage alimentaire chez les enseignes ?

La pression citoyenne a été forte pour faire entrer la lutte contre le gaspillage alimentaire dans le texte. Grâce à une pétition qui a réuni plus de 210 000 signatures, cela a été chose faite avec un amendement voté par les députés et gardé, pour le moment, par la Commission du Sénat. 

Ainsi, les invendus propres à la consommation humaine devront désormais faire l’objet de don ou de transformation. Le reste devra être destiné à l’alimentation animale, utilisé en compost pour l’agriculture ou valorisé énergétiquement, notamment par méthanisation. La grande distribution ne pourra plus asperger ses invendus à l’eau de Javel pour les rendre impropres à la consommation ou à toute forme de valorisation. Ces dispositions entrent en application au 1er juillet 2016. D’ici là, les commerces dont la surface de vente est supérieur à 400 m2 (article 3 de la loi n°72-657 du 13 juillet 1972) devront avoir signé une convention avec une ou plusieurs associations pour leur fournir gratuitement les denrées alimentaires. Des contraventions de 3e classe (amende forfaitaire inférieure à 3000€) sont prévues en cas de manquement. 

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

Le business model d’Hyperloop se précise

Dirk Ahlborn prévoit un réseau supersonique qui reliera bientôt toutes les villes du monde. Hyperloop pourrait ainsi redessiner l’ensemble des territoires. Il sera possible d’habiter à plusieurs centaines de kilomètres de son travail et de faire son trajet domicile-travail en moins d’une heure. Grâce à Hyperloop, il serait, par exemple, possible de vivre à Marseille et d’aller travailler à Paris en moins de 40 minutes !

La question que tout le monde se pose est : le prix du billet ne sera-t-il pas prohibitif? Loin de  là, selon Dirk Ahlborn. La société travaille sur des business models innovants, à l’opposé de l’industrie ferroviaire classique qu’il qualifie de « dinosaures ». Hyperloop Transportation Technologies réfléchit à une tarification nouvelle, inspirée des compagnies aériennes low-cost, comme Ryan Air. « Les prix pourraient être fixés en fonction de la demande ; par exemple, payant pendant les périodes de pointe et gratuit le reste du temps », confie Dirk Ahlborn à BFM Business. L’entreprise se rémunérerait avec de la publicité, des contenus proposés aux passagers pendant leur trajet ou encore grâce à de nouvelles approches de services aux usagers. « Nous pourrons vous vendre des services en fonction de votre destination ou de votre profil de voyageur. Regardez RyanAir, dans l’aérien, qui a des coûts plus élevés que le prix de ses tickets et qui parvient à gagner de l’argent d’une manière plus intelligente», explique le PDG d’Hyperloop.

Hyperloop, en ville et à la campagne, jusqu’à 1220 km/h

Hyperloop prendra l’aspect de plusieurs capsules cylindriques pouvant accueillir 28 ou 40 personnes. Celles-ci se déplaceront dans un tube à très basse pression, qui reposera sur des coussins d’air pressurisés. En éliminant ainsi les frottements de l’air, les capsules pourront se déplacer jusqu’à 1220 km/h en ligne droite et en campagne. Les vitesses d’accélération seront progressives pour que les passagers ne soient pas soumis aux nausées ou malaises. 

Deux versions sont d’ores et déjà prévues : une version métro rapide en ville et une version « train » qui relierait les grandes villes en quelques dizaines de minutes. Voulu écologique, Hyperloop devrait être entièrement alimenté grâce à des panneaux solaires placés sur les tubes.

Hyperloop, c’est pour quand?

La construction de la première portion d’essai commencera dès 2016 sur une propriété privée à Quay Valley en Californie. Après plusieurs tests, la première capsule embarquera 2 ans plus  tard ses premiers passagers sur une distance d’environ 8 km. Pour des questions de réglementation,  Dirk Ahlborn prévient que les premiers trains longue distance seront ensuite sûrement construits « en Asie et au Moyen-Orient, où il est plus facile de faire naître des projets innovants ».

L’entreprise mise sur le crowdsourcing pour développer rapidement son concept. Environ 400 experts issus de 21 pays contribuent en proposant leurs idées en échange d’actions de la société. En se déplaçant plus vite qu’un avion pour des tarifs beaucoup moins élevés que le train, Hyperloop est promis à un bel avenir. Voici encore un projet très ambitieux que nous continuerons à suivre !

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

Les Pays-Bas sommés de lutter contre le réchauffement

C’est une première mondiale. Alors que le gouvernement néerlandais a abaissé ses objectifs de réduction de gaz à effet de serre, un recours collectif initié par la plateforme citoyenne Urgenda regroupant 886 plaignants, vient d’aboutir. Le collectif accusait directement le gouvernement : en ne respectant pas son engagement initial de réduction des émissions de gaz à effet de serre de 20% en 2020 par rapport à 1990, il mettait en péril l’avenir de ses citoyens et violait les droits humains dans le monde entier. Les Pays-Bas sont en effet directement menacés par la montée du niveau des océans causée par le réchauffement climatique.

Le tribunal de La Haye a rendu son jugement. Le pays ne pourra pas se contenter de sa nouvelle trajectoire, visant une réduction située entre 14 % et 17 % en 2020, par rapport à 1990, mais devra atteindre une réduction de 25 %. Sa cible actuelle est insuffisante pour contenir les effets du réchauffement climatique. Les plaignants demandaient un objectif de réduction situé « entre 25 et 40% ».« L’État ne devrait pas se cacher derrière l’argument selon lequel la solution au problème global du climat ne dépend pas seulement des efforts néerlandais. Toute réduction des émissions contribue à la prévention et en tant que pays développé, les Pays-Bas devraient être des chefs de file sur cette question.» affirment les 3 juges en charge de l’affaire. Ces derniers ont estimé que les preuves scientifiques apportées par le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) établissaient la réalité du réchauffement climatique et que le gouvernement devait « faire plus pour contrer le danger imminent causé par le changement climatique, étant donné son devoir de protection de l’environnement ». Le contrôle des émissions incombe au gouvernement, estiment les juges, soulignant que les coûts de ces réductions ne seraient pas « inconcevablement élevés ».

Le gouvernement a 3 mois pour faire appel de cette décision de justice. Il n’a pour l’instant pas réagi officiellement à cette décision. « Ça va donner lieu à des débats très intéressants, vers des positions morales, expique Marjan Minnesma, directrice d’Urgenda, à Libération. Alors que la science est univoque et que tout le monde sait à quel point le changement climatique est un problème, est-ce qu’un groupe politique va être capable de dire « je veux faire appel, je ne veux pas prendre soin de mes concitoyens »? »

Le premier procès d’une longue série ?

Ce jugement constitue une première qui pourrait bien donner des idées à d’autres citoyens du monde. C’est d’ailleurs l’objectif d’un groupe international de juristes qui a publié en mars « les Principes d’Oslo », présentant « les obligations essentielles des Etats et des entreprises pour éviter le niveau critique de réchauffement climatique ». Ces principes constituent une série d’arguments juridiques utilisables devant un tribunal pour attaquer un gouvernement ou une entreprise qui s’engagerait insuffisamment dans la lutte contre le réchauffement climatique. 

Dans le cadre de la conférence de Paris de Décembre 2015 (COP21), qui a pour ambition d’aboutir à un accord mondial contraignant visant à limiter la hausse des températures à 2°C en 2100, les plaignants mettent en garde. « Cela doit être pris en compte dans les engagements de réduction à Paris, parce que si les États ne le font pas, ils peuvent s’attendre à subir des pressions de leurs tribunaux », a déclaré au Guardian Dennis van Berkel, un des avocats du groupe Urgenda. Une action similaire est d’ores et déjà en cours en Belgique et une autre est en train de s’organiser en Norvège.

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

Lindane, DDT et 2,4-D : 3 pesticides sur la sellette

Le CIRC estime que les preuves scientifiques accumulées chez l’homme pour le lymphome non hodgkinien (LNH) permettent  de classer le lindane dans sa catégorie la plus dangereuse, celle des molécules chimiques qualifiées de « cancérogène pour l’homme » (groupe 1). Cette classification se base notamment sur de grandes études épidémiologiques, réalisées aux Etats-Unis et au Canada, portant sur les expositions en milieu agricole. Ces études ont montré une augmentation du risque de 60 % de LNH chez les personnes exposées au lindane. 

Le lindane a été largement utilisé pour lutter contre les insectes, dans l’agriculture et pour le traitement des poux et de la gale chez l’homme. Son utilisation est désormais interdite ou limitée dans la plupart des pays, dont la France depuis 1998. 

Le tristement célèbre DDT probablement cancérogène

Le CIRC qualifie désormais le DDT de « probablement cancérogène pour l’homme » (Groupe 2A). Les experts de l’agence de l’Organisation mondiale de la Santé spécialisée sur le cancer estiment que les indications sont « suffisantes » pour conclure que le DDT engendre le cancer chez les animaux de laboratoire, mais ils ne disposent que « d’indications limitées de sa cancérogénicité pour l’homme ». En détail, « les études épidémiologiques mettaient en évidence des associations positives entre l’exposition au DDT et le LNH, le cancer des testicules et le cancer du foie », signalent-ils. Il peut aussi affaiblir le système immunitaire et perturber les hormones sexuelles, mais n’a pas pu être associé au cancer du sein. 

Le DDT a été largement utilisé pour lutter contre les maladies vectorielles au cours de la Seconde guerre mondiale par les militaires, mais aussi par les civils, en agriculture, dans les maisons et contre des maladies vectorielles (paludisme, typhus…). La plupart des utilisations du DDT ont été interdites dans les années 1970, mais la molécule et ses sous-produits de dégradation sont très persistants dans l’environnement et continuent de le contaminer. A travers le monde, ils continuent de s’accumuler dans les tissus adipeux des animaux et des humains. L’exposition se fait principalement par l’alimentation. 

Le 2,4-D, un herbicide largement utilisé

L’herbicide 2,4-D, encore largement utilisé pour lutter contre les « mauvaises » herbes en agriculture, en foresterie, en ville ou chez les particuliers, est classé par les experts comme « peut-être cancérogène pour l’homme » (Groupe 2B). Il induirait un stress oxydatif possible chez l’homme et pourrait entraîner une immunodépression, selon des études in vivo et in vitro. « Cependant, les études épidémiologiques ne mettaient pas en évidence de hausses importantes ou uniformes du risque de LNH ou d’autres cancers par rapport à une exposition au 2,4-D », précise le CIRC. Tout un chacun peut être exposé par le biais de son alimentation, de l’eau, de la poussière ou d’applications résidentielles, et pendant la pulvérisation. 

Cette triple évaluation a été menée par un groupe de travail de 26 experts venus de 13 pays différents. Ils se sont basés sur une revue de la littérature scientifique disponible la plus récente. Si ces évaluations indiquent le degré des indices selon lesquels l’une de ces substances peut provoquer un cancer dans certaines circonstances, elles ne précisent pas le niveau de risque  associé à une exposition, c’est-à-dire la probabilité de développer un cancer. Ces niveaux de risques dépendent notamment du type ou de l’étendue de l’exposition et « sont très limités aux niveaux actuels d’exposition », selon le CIRC.

Lire aussi : Le CIRC classe le glyphosate « cancérigène probable »

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

Vidéo : les secrets de fabrication des moteurs-fusées

« Avant le décollage, tout se joue près de Vernon, à 75 km au nord-ouest de Paris sur le site du motoriste spatial français Snecma. C’est ici, à l’abri des regards, que les moteurs sont allumés pour la première fois dans un énorme nuage de vapeur. »

Cette vidéo réalisée par Euronews nous en apprend un peu plus sur le fonctionnement des moteurs-fusées :
 


 

Source : Euronews

Et aussi dans les
ressources documentaires :

Climat : la Chine confirme son engagement à plafonner ses émissions de CO2 à l’horizon 2030

Premier pollueur mondial, la Chine se fixe pour objectif « d' »atteindre le pic de ses émissions de CO2 autour de 2030 tout en s’efforçant de l’atteindre au plus tôt », a indiqué dans un communiqué la délégation accompagnant le chef du gouvernement, Li Keqiang.

Pékin entend aussi « porter la part des énergies non fossiles dans la consommation énergétique primaire à environ 20% ».

Toujours selon la délégation chinoise à Paris, la Chine projette d' »augmenter (son) stock forestier d’environ 4,5 milliards de mètres cube par rapport à 2005″.

La contribution dévoilée mardi reprend des objectifs déjà affichés par Pékin en novembre dernier, lors d’une annonce commune avec les Etats-Unis.

A l’époque, les autorités chinoises avaient été critiquées pour l’imprécision du terme « autour de 2030 » retenu pour le pic de ses émissions de gaz à effet de serre. Certains l’avaient interprété comme un droit que s’arrogerait Pékin de continuer d’accroître ses émissions pendant 16 ou 17 ans, voire davantage.

« Le Chine déploie le maximum d’efforts pour lutter contre les changements climatiques » et « assume sa responsabilité pour participer en profondeur à la gouvernance mondiale et promouvoir le développement partagé de l’humanité », a fait valoir au contraire mardi Li Keqiang, cité dans le communiqué.

Le Premier ministre chinois a également assuré le président français François Hollande de sa volonté de parvenir en décembre à Paris à « un accord global, équilibré et ambitieux » de réduction des émissions de gaz à effet de serre.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Perturbateurs endocriniens : comment nous mettent-ils en danger ?

Au cours des dernières décennies, diverses études scientifiques ont attiré l’attention sur des effets éventuels sur les organes ou la fonction de reproduction de substances chimiques présentes dans l’environnement. Des études épidémiologiques observent en particulier une évolution de la fréquence de pathologies diverses touchant notamment les organes de la reproduction ou encore des altérations de la fertilité pour lesquelles les chercheurs interrogent une relation possible avec des effets perturbateurs endocriniens. Ainsi, de fortes préoccupations sont exprimées par certains scientifiques, des organismes de recherche indépendants et des associations sur l’impact sanitaire éventuel de substances, présentes dans l’environnement ou dans des produits de consommation sur le système hormonal. La compréhension exacte du rôle joué par ces substances dites « perturbateurs endocriniens », leurs modalités d’action, comme la part attribuable de leur effet dans l’accroissement de ces pathologies fait l’objet de controverses scientifiques et sociétales .

L’Anses réalise des travaux d’évaluation du risque, de veille scientifique et de référence sur les perturbateurs endocriniens. Elle a notamment lancé un travail d’envergure visant une trentaine de substances identifiées comme préoccupantes au regard de leur action de perturbateur endocrinien. Elle soutient par ailleurs des travaux de recherche via son Programme national de recherche en environnement-santé-travail (PNR-EST).

Que sont les perturbateurs endocriniens ?

Diverses définitions existent au niveau international qui font l’objet de débat. La définition proposée par l’Organisation mondiale de la santé en 2002 est la plus communément admise :
« Un perturbateur endocrinien potentiel est une substance ou un mélange exogène, possédant des propriétés susceptibles d’induire une perturbation endocrinienne dans un organisme intact, chez ses descendants ou au sein de (sous)- populations. Cette catégorie est divisée en deux sous- catégories : la catégorie 2a pour les perturbateurs endocriniens suspectés et la catégorie 2b pour les perturbateurs endocriniens pour les substances possédant des indications de propriétés de perturbation endocrinienne. »
De manière générale, il s’agit de substances chimiques d’origine naturelle ou artificielle qui peuvent interférer avec le fonctionnement des glandes endocrines, organes responsables de la sécrétion des hormones. Cette action peut passer par différentes voies :

  • Le perturbateur endocrinien peut mimer l’action d’une hormone naturelle et entrainer ainsi la réponse due à cette hormone
  • La substance peut empêcher une hormone de se fixer à son récepteur et ainsi empêcher la transmission du signal hormonal
  • Enfin la substance peut perturber la production ou la régulation des hormones ou de leurs récepteurs.

Parmi les substances suspectées d’être des perturbateurs endocriniens : le bisphénol A,phtalates, composés bromés, …

D’où viennent les perturbateurs endocriniens ?

Les perturbateurs endocriniens peuvent être d’origine naturelle (hormones et phytoestrogènes) ou être une conséquence des activités humaines (produits issus de l’industrie chimique contenus dans des objets de consommation courante, produits de traitement des cultures, médicaments, cosmétiques, etc …). Ils peuvent ainsi être présents, de manière naturelle ou du fait d’une contamination, dans différents milieux (eaux, aliments, produits ou articles de consommation…).

In fine, en perturbant le système endocrinien, ces substances peuvent altérer différents processus tels que la production, l’utilisation et le stockage de l’énergie et plus largement la régulation du métabolisme et le développement. Certaines de ces substances peuvent par ailleurs avoir d’autres effets toxiques, notamment sur la reproduction, et nuire à la fertilité ou perturber le développement du foetus.

Quelles sont les particularités de ces substances ?

De nombreux effets attribués aux perturbateurs endocriniens sont observés dans des études expérimentales chez l’animal. Toutefois elles soulèvent dans de nombreux cas la question de l’extrapolation des résultats des effets à l’homme, notamment pour des expositions à des faibles concentrations. Il semble que les effets des perturbateurs endocriniens ne passent pas tous par des mécanismes de toxicité « classique » (dysfonctionnements ou mort cellulaire) mais soient liés à des phénomènes de signalisation et de régulation de l’organisme. Certains effets perturbateurs endocriniens n’apparaissant par ailleurs qu’à de très faibles niveaux de concentrations.

Les travaux réalisés montrent, en outre, que la sensibilité aux perturbateurs endocriniens peut varier selon les périodes de la vie. C’est notamment le cas de la période du développement foeto-embryonnaire, des nourrissons, et des jeunes enfants qui présentent une sensibilité accrue à ces substances. Il est ainsi nécessaire de prendre en compte la période d’exposition à ces substances dans l’analyse de leurs effets.

Enfin, divers composés suspectés d’être des perturbateurs endocriniens sont présents dans l’environnement à l’état de traces. L’individu se trouve, ainsi, exposé par de multiples voies (ingestion, inhalation, contact cutané) et de multiples milieux (eaux, aliments, produits ou articles de consommation, dispositifs médicaux,…) à des niveaux de concentration faibles de plusieurs composés dont les effets peuvent être variés et peuvent également être communs à d’autres causes.

La compréhension des effets des perturbateurs endocriniens demande ainsi d’adopter une vision intégrative en replaçant l’homme dans son environnement, mais également de prendre en compte l’exposition de l’individu à un mélange de substances et de comprendre leurs interactions au sein de l’organisme sur le long terme dès la période du développement foeto-embryonnaire et la vie in utero.

Face à cette complexité, la connaissance des effets des perturbateurs endocriniens aux doses rencontrées dans l’environnement se heurte actuellement aux limites de la toxicologie classique et des méthodes d’évaluation des risques. La question est donc d’en développer de nouvelles, adaptées aux spécificités de ces composés.

La communauté scientifique mobilisée

Selon la Commission européenne un perturbateur endocrinien est « une substance ou un mélange exogène, altérant les fonctions du système endocrinien et induisant de ce fait des effets néfastes sur la santé d’un organisme intact, de ses descendants ou de sous-populations ». A l’heure actuelle, il n’existe pas de définition et de critères communs à l’ensemble de la législation européenne.

Diverses instances européennes (l’Autorité européenne de sécurité des aliments –EFSA-, l’Agence européenne des produits chimiques –ECHA-, la Commission européenne) travaillent en lien avec les autorités des États membres pour tenter d’identifier les critères pertinents pour classer ces substances.

Au niveau international, l’OCDE (Organisation de coopération et de développement écologique) a défini des lignes directrices incluant des protocoles d’essais toxicologiques et écotoxicologiques afin de détecter des effets liés aux perturbateurs endocriniens et permettre ainsi d’identifier les substances responsables d’effets oestrogéniques. De même, l’Agence participe à des réflexions en cours sur la stratégie d’utilisation de ces différents tests afin d’accroître le niveau de connaissance des effets liés à ces substances chimiques. Aux États-Unis, le programme de recherche Tox 21 a été initié suite sur la base d’un rapport de la National Academy of Science . Son objectif est d’identifier les principales voies de toxicités activées par quelques milliers de composés afin, in fine, de pouvoir raisonner en terme de voies de toxicité activées (une vingtaine) et non plus de composés chimiques pris isolément (plus de 100 000 substances existantes).

Système hormonal et perturbateur endocrinien

Il existe plusieurs types de substances pouvant agir sur le système hormonal :

  • Les hormones naturelles produites dans le corps : œstrogènes, testostérone, hormones thyroïdiennes, insuline, etc. Les hormones naturelles fabriquées par des plantes : phytoestrogènes (effets de type oestrogénique ou anti-oestrogénique), isoflavones (soja) ou resvératrol (raisin et le vin).
  • Les substances chimiques produites pour leur effet hormonal (oestro-progestatifs des pilules contraceptives) de structure proche voire identique aux hormones naturelles.
  • Les substances chimiques employées dans l’industrie, l’agriculture et les biens de consommation, ou utilisées comme sous-produits, mais dont l’effet sur les hormones n’est pas intentionnel.

Le rôle de l’Anses

A la demande du ministère chargé de la santé, l’Agence mène depuis 2009 un travail d’expertise d’envergure sur une trentaine de substances identifiées comme reprotoxiques de catégorie 3 ou/et perturbateurs endocriniens pour la reproduction et la fertilité. S’étalant sur plusieurs années, ce travail illustre le rôle joué par l’Anses sur la connaissance des substances chimiques, de leurs dangers et des risques. L’Agence a pour mission de :

  • Caractériser les dangers des substances
  • Identifier les produits et articles de consommation grand public contenant des substances toxiques pour les fonctions de reproduction, ou susceptibles de l’être
  • Caractériser les expositions de la population générale à ces substances par ces articles ou produits. Cette expertise porte en particulier sur les populations vulnérables (période de gestation notamment) et les personnes exposées à ces substances dans un cadre professionnel
  • Evaluer les risques pour la santé
  • Identifier les substitutions possibles pour les produits ou substances pour lesquels un risque sanitaire aurait été mis en évidence.

Deux premiers rapports, publiés en septembre 2011, sont relatifs aux effets sur la santé et aux usages du bisphénol A. L’Agence identifie à cette occasion comme objectif prioritaire la prévention des expositions des populations les plus sensibles (nourrissons, jeunes enfants et femmes enceintes ou allaitantes). Elle recommande une réduction de ces expositions, notamment par sa substitution dans les matériaux au contact des denrées alimentaires. Le rapport final d’expertise sur l’évaluation des risques liés à l’exposition du bisphénol A, qui a été publié au mois d’avril 2013, confirme ces effets sanitaires, en particulier pour la femme enceinte au regard des risques potentiels pour l’enfant à naître. Il prend en compte, pour la première fois, une estimation des expositions réelles de la population au bisphénol A par voie alimentaire, mais aussi par inhalation (via l’air ambiant) et par voie cutanée (au contact de produits de consommation). Il met en évidence que l’alimentation contribue à plus de 80 % de l’exposition de la population.

Trois autres rapports ont également été publiés : un état des lieux des alternatives potentielles au bisphénol A, une évaluation des dangers d’autres composés de la famille des bisphénols et un rapport sur les incertitudes entourant les perturbateurs endocriniens. En outre, les travaux ont conduit à identifier d’autres situations d’exposition, notamment liées à la manipulation de papiers thermiques (tickets de caisse, reçus de cartes bancaires,…), en particulier dans un cadre professionnel.

Par ailleurs, ont été publiés en 2014 des rapports d’évaluation des risques et un avis relatifs à cinq substances considérées comme reprotoxiques de catégorie 2 et/ou perturbateurs endocriniens : méthyl tert-butyl éther (MTBE), toluène, n-hexane, cis-CTAC, O-phénylphénol (OPP). L’expertise des risques vise les expositions aux préparations (peintures, colles, parfums d’ambiance pour voiture, etc.) qui peuvent contenir ces substances.

Perfluorés, polybromés et phtalates font également l’objet d’expertises au sein de l’Agence, notamment sur les sources d’exposition, la contamination de différents milieux. L’Agence réalise aussi une synthèse des données récentes de toxicité relatives aux perfluorés et aux phtalates. Ces travaux ont servi de base à la priorisation des substances dans le cadre de la stratégie nationale sur les perturbateurs endocriniens.

Au-delà de ses travaux d’évaluation du risque, l’Anses exerce aussi des missions de veille, de recherche et de référence sur les perturbateurs endocriniens :

  • Observatoire des Résidus de Pesticides : collecte et analyse de données relatives à la présence de résidus de pesticides dans les milieux.
  • Deuxième Etude de l’Alimentation totale française (EAT2) publiée en 2011 : exposition des populations au-delà de l’âge de 3 ans à des substances d’intérêt dont certaines pouvant avoir une action de perturbateur endocrinien.
  • Etude de la présence de composés perfluorés dans les ressources en eau et dans l’eau potable par le laboratoire d’hydrologie de Nancy de l’Anses.
  • Programme « résidus médicamenteux et eaux » : hiérarchisation des substances à rechercher, développement de méthodes de détection et dosage dans l’eau.
  • Contribution à la mise en œuvre des règlements européens REACh (autorisation/restriction de substances chimiques) et CLP (classification harmonisée) : évaluation scientifique et technique dans son champ de compétence.
  • Laboratoire National de Référence pour les mycotoxines, contaminants (résidus de médicaments vétérinaires et colorants ; pesticides), contaminants physico-chimiques dans l’eau.

L’Anses participe aussi à la mise en place de coopérations internationales (notamment avec ses homologues allemands et nord américains), en vue de développer de nouvelles méthodologies d’évaluation des risques reconnues à l’international.

Source : Anses – Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail

En savoir plus sur :

 

Interview : Qu’est-ce qu’un ordinateur quantique et quelles possibilités laisse-t-il entrevoir ?

  • Techniques de l’Ingénieur : M. Saminadayar, vous êtes professeur à l’Université de Grenoble et chercheur à l’Institut Néel au département des nanosciences, c’est bien ça ? Quel est votre champ d’études ?

Laurent Saminadayar : Oui, je travaille depuis 15 ans sur ce qu’on appelle la physique mésoscopique, c’est un des champs dans lesquels ont émergé les ordinateurs quantiques et tout ce qui concerne la cohérence quantique.

  • Selon vous, qu’est-ce qui différencie un ordinateur quantique d’un ordinateur classique ?

C’est un problème fondamental. C’est tout l’intérêt de l’ordinateur quantique.

Avec un ordinateur classique, vous effectuez des opérations avec des bits qui seront 0 ou 1. L’ordinateur quantique s’inscrit quant à lui dans un système où le bit se trouve dans un état qui est une superposition de 0 ou 1. Donc au lieu d’avoir 0 ou 1, vous avez une proportion de 0 et de 1.

Quel est l’intérêt ? Ce n’est pas simplement un jeu d’écriture ! Quand votre système est une superposition d’états, c’est un petit peu comme si vous faisiez des calculs parallèles, donc vous allez beaucoup plus vite sur certains calculs. S’il n’y avait que cela, ce ne serait pas très intéressant.

Donc pourquoi est-ce que cela a suscité autant d’engouement ? Parce que cela vous donne la possibilité de changer complètement certains algorithmes, c’est-à-dire la façon-même d’effectuer certains calculs.

En informatique, il existe des problèmes dits « NP complets ». Comment se caractérisent-ils ? Imaginons que vous vouliez faire une opération sur un nombre, par exemple factoriser un nombre en produits de facteurs premiers. Ce problème peut paraître très simple, nous avons tous réalisé des exercices de ce type au collège. Pourtant, pour un ordinateur classique, ce problème est délicat. Pourquoi ? Simplement parce que le nombre d’opérations qu’il lui faudra faire va croître exponentiellement avec la taille du nombre à factoriser. Donc, pour factoriser un grand nombre, c’est long… Et c’est là le principe de la cryptographie, qui permet de coder nos échanges (numéros de cartes de crédit ou données encore plus sensibles…).

Supposons que je veuille vous envoyer un nombre a. Je le multiplie par un nombre premier b, et je vous envoie le résultat c. Mais vous, vous avez la clef, c’est à dire le nombre b ; quand vous recevez c, vous le divisez par b (votre clef), et voilà, vous avez le nombre a que je voulais vous transmettre en toute sécurité. Si je suis un pirate malveillant, j’intercepte le nombre c que vous envoyez ; mais comme je suis un pirate malveillant, je n’ai pas la clef, c’est à dire le nombre b. Donc e demande à mon ordinateur (classique) de factoriser c en produits de nombres premiers, pour récupérer a et b. Si a et b sont des nombres assez grands… je n’arriverai pas à casser le code en un temps… raisonnable.

La sécurité du cryptage est entièrement basée sur cet aspect du problème.

L’ordinateur quantique, lui, n’aurait besoin que de beaucoup moins d’opérations élémentaires pour factoriser mon nombre c en produit de facteurs premiers (en fait, guère plus qu’il ne vous en faudra à vous qui avez la clef, pour diviser le nombre c par votre clef, le nombre b). Là, ça devient très intéressant, car plus besoin de clef pour voir ce que vous avez voulu envoyer ! Donc, dit un peu brutalement :

« Quelqu’un qui sait créer un ordinateur quantique sait créer à peu près tous les codes qui existent actuellement »

  • On considère donc qu’il existe un seul modèle d’ordinateur quantique ? Ou plusieurs modèles sont possibles ?

Il y a des variantes autour des algorithmes mais la grande différence intervient au moment où vous passez des bits de 0 et 1 à cette superposition de 0 ou 1.

Il y a des problèmes que les ordinateurs ne peuvent pas résoudre, comme le fameux problème du « voyageur de commerce ». Je suis un voyageur de commerce, je dois passer pour mon travail par un certain nombre de villes. Je me demande donc comment passer par toutes ces villes mais en faisant un minimum de kilomètres ; c’est ce qu’on appelle un problème d’optimisation. C’est un problème difficile à résoudre pour un ordinateur classique car quand vous augmentez le nombre de villes, le nombre de calculs élémentaires nécessaires à la résolution du problème croît exponentiellement. Grossièrement, on peut dire qu’il essaie tous les chemins et qu’il regarde quel est le plus court, car il n’y a pas d’autre façon de faire.

Ce qui a vraiment motivé la communauté scientifique, c’est la factorisation en produits de nombres premiers. Des sommes d’argent énormes ont été investies par les industriels et l’armée qui s’y sont évidemment intéressés de très près car s’ils peuvent factoriser en produits de nombres premiers en un temps « polynomial », ils peuvent casser tous les codes. Au niveau de la cryptographie, si vous savez faire cela, il n’y a plus aucun code qui tient, vous pouvez casser tous les codes, tels qu’ils sont conçus actuellement en tout cas, il faudrait en concevoir d’autres. Actuellement, casser un code est une opération très longue à réaliser. Si vous la rendez beaucoup plus courte, c’est gagné.

Un autre aspect fondamental du problème repose sur la sécurité de la transmission de l’information elle-même. Si vous utilisez un système quantique pour coder et transmettre une information, on peut voir très facilement si votre transmission a été interceptée. C’est le principe même de la mécanique quantique : si je regarde un objet je le modifie, j’agis sur lui… Et je laisse donc ma signature !

  • Il n’y a aucun moyen de le voir sur un ordinateur classique ?

Non, si votre transmission est vue, vous ne le savez pas.

Avec l’ordinateur quantique si quelqu’un nous espionne, on le voit tout de suite ! C’est donc très intéressant au niveau de la sécurité des transmissions…

  • Que peut nous apporter un ordinateur quantique en dehors de la cryptographie ?

Pour nous, en tant que particuliers, je pense que cela ne nous apportera rien. Parce qu’on n’a aucun algorithme qu’on ne peut pas faire avec un ordinateur classique. En revanche, pour la communication et la cryptographie, c’est vital. Donc cela va plutôt intéresser les gros systèmes, comme l’armée et les banques.

  • Est-ce que cela pourrait remplacer des supercalculateurs ?

Pour la plupart des problèmes, un ordinateur quantique n’apporterait aucun avantage par rapport aux supercalculateurs actuels.

« La question importante est : qu’est-ce que vous ne savez pas faire avec un ordinateur classique et que vous pourriez faire avec un ordinateur quantique ? »

Pour les chercheurs, dans certains domaines très spécifiques, un ordinateur quantique peut se révéler intéressant : en effet, il existe certains systèmes physiques très compliqués à simuler avec des ordinateurs classiques, alors que ce serait beaucoup plus efficace avec des algorithmes quantiques.

Mais de façon générale, je pense que si des ordinateurs quantiques voient le jour, ce sera pour répondre à des besoins très spécifiques qui concerneront la recherche, l’armée, les banques, mais sans doute pas les particuliers…

  • Même s’il y a une plus grande puissance, une plus grande capacité de calcul ?

Pour faire des calculs classiques, il n’ira pas plus vite qu’un ordinateur classique. Il y a des problèmes qu’il sait résoudre qu’un ordinateur classique ne sait pas résoudre. Mais sur les problèmes standards qu’un ordinateur sait parfaitement bien gérer, il ne saura pas faire grand-chose de plus…

  • L’ordinateur quantique est basé sur un principe de probabilité, c’est bien ça ? Comment peut-on faire confiance à un ordinateur basé sur quelque chose de probable ?

On répète l’expérience. On le fait plusieurs fois en parallèle pour en en sortir les probabilités. Donc cela fonctionne bien, ce n’est pas un gros problème. Mais ce qui est important, c’est que le support de codage que vous utilisez, le fameux « bit quantique », ne soit pas altéré trop vite. Au départ, on crée une superposition de 0 et de 1. Mais malheureusement, ce genre d’objet quantique n’a qu’une envie, c’est de redevenir un bête 0 ou 1 : c’est ce qu’on appelle la décohérence. Il faut donc que notre superposition dure assez longtemps, que son « temps de cohérence » soit assez long, pour qu’on ait le temps de faire les calculs souhaités… et ça, c’est un problème très compliqué.

Il faut sans cesse vérifier que votre système reste dans le même état quantique, qu’il n’a pas été perturbé ! Parce que le problème, c’est qu’il faut qu’il reste dans cet état quantique suffisamment longtemps pour qu’on ait le temps de faire le calcul et c’est un énorme problème actuellement. On ne sait pas le faire.

  • Parce que cela bouge tout le temps ?

Disons que la moindre perturbation extérieure transforme votre superposition initiale en un simple 0 ou 1. Imaginons qu’on commence un calcul, tout se passe bien ; et puis, par exemple, votre q-bit va être heurté par un photon (une particule de lumière). Pour lui, c’est un grand coup sur la tête. Au beau milieu du jeu, votre superposition de 0 et de 1 devient un simple 0 ou un simple 1. Le carrosse se transforme en citrouille, le calcul ne peut plus se faire, c’est perdu.

C’est le problème contre lequel tout le monde lutte actuellement et que personne n’arrive à résoudre.

Pour être plus précis, il existe différentes sortes de q-bits. D’une part, vous avez des q-bits réalisés (presque) de la même façon que les circuits intégrés actuels. Donc, on sait en faire un très grand nombre sur une toute petite surface, et on peut aisément envisager de les utiliser dans un ordinateur. Mais voilà, ce sont aussi les plus sensibles aux perturbations extérieures, disons que leur temps de cohérence est de l’ordre de la micro-seconde, et il semble difficile de résoudre ce problème. Et puis il y a des systèmes plus « exotiques », comme des ions piégés dans des « pièges optiques ». Ces systèmes sont beaucoup moins sensibles aux perturbations extérieures, ce qui est un gros avantage. Mais voilà, le problème est qu’ils ne sont pas très pratiques à manipuler : mettre 5 q-bits ensemble prend une pièce entière, alors des millions… Bref, des deux côtés, l’affaire semble buter sur des problèmes sérieux…

  • Qu’est-ce que le temps de cohérence exactement ?

C’est simplement le temps où le système va rester dans un état de superposition entre 0 et 1. En général, vous n’avez pas le temps de finir votre opération qu’il va se mettre dans un bête état de 0 ou 1. Cela limite énormément les possibilités de ces systèmes-là.

  • Donc l’optique et le solide sont deux sortes d’ordinateurs quantiques ?

Oui tout à fait, mais « ordinateur », c’est un grand mot, là on parle de 3 ou 4 q-bits… Un ordinateur classique actuel, ce sont des millions de bits… Et dans le cas de l’ordinateur quantique, on a déjà du mal à faire marcher ces 3 ou 4 q-bits ensemble…

  • Et il en faudrait combien pour que cela fasse un ordinateur ?

Je dirais… des dizaines pour que cela commence à être intéressant. En tous cas, plus que 2…

  • Parce que là, avec 2 ou 3, les performances sont très limitées ?

Non… vous savez le mieux qui a été réalisé de mieux, avec des des q-bits faits d’ions piégés, a été de factoriser 15 en 3 x 5. C’est une preuve de principe, cela fonctionne. On peut dire que c’est un début…

Ce qui est intéressant en revanche, et très mystérieux, c’est ce qu’on appelle le projet D-Wave de Google. Ils prétendent que cela fonctionne. Le seul problème, c’est que personne n’a le droit de voir ce qu’il y a dedans. Ils n’apportent pas de preuve définitive qu’il s’agit bien d’un ordinateur quantique. Il y a des gens qui pensent que c’est uniquement une opération marketing. On vous montre une belle voiture, on vous dit que le moteur est révolutionnaire, mais on n’a pas le droit de soulever le capot pour voir ce qu’il y a dedans. Donc on peut avoir de très sérieux doutes. En laboratoire, on ne parvient pas à faire marcher 3 q-bits et eux prétendent en faire marcher 500 ? Soit ils ont réussi là où tout le monde a échoué, à savoir résoudre ce fameux problème de la décohérence, soit il s’agit d’une immense opération d’intox….

  • Ce sont les seuls qui sont en train de développer un ordinateur quantique actuellement ?

Oui, ce sont les seuls au niveau industriel. Sinon, c’est dans les laboratoires. Après, vous avez toujours des effets d’annonce. IBM avait annoncé qu’ils développaient un ordinateur quantique, on n’a encore jamais rien vu. C’est un peu du business, pour prendre position sur tel ou tel domaine.

  • Vous avez dit que cela avait surtout un intérêt pour les chercheurs et les banques, quel serait l’intérêt pour Google de développer un ordinateur quantique ?

S’ils sont les seuls à savoir le faire, on sera tous obligés de passer par eux.

« Celui qui sait créer un ordinateur quantique a tiré le jackpot. »

  • Pourrait-on un jour imaginer une application au niveau des particuliers ?

Non actuellement je ne connais personne qui imagine une application au niveau des particuliers. On reste au niveau des grands organismes, banque, armée… Le marché est énorme et comme, en plus,  il y a un aspect militaire c’est stratégique. C’est ce qui fait couler beaucoup d’encre… On a réalisé ce que cela représentait, même si la probabilité que cela marche est extrêmement faible. Mais si jamais cela marche, les conséquences sont énormes.

  • Mais qu’est-ce qui nous bloque actuellement ?

Le principal obstacle, c’est que ces systèmes de bits quantiques ne restent pas cohérents assez longtemps. Il y a 10 ans, les gens disaient : il n’y a aucune raison que cela ne dure pas plus longtemps. Ils ont raison sur le principe ! Mais dans la réalité personne n’y arrive, pourquoi ? On ne sait pas…

  • Ils sont trop perméables à ce qui se passe à l’extérieur ?

Oui ils sont trop perméables à l’environnement, donc on essaie de fabriquer un joli bit quantique, d’assurer la superposition de 0 et de 1 et puis, à un moment, vous avez quelque chose qui va rompre cet équilibre. Imaginez que vous faites un château de cartes : si quelqu’un ouvre la fenêtre et qu’il y a du vent, tout se casse la figure. C’est trop fragile. Ce sont des constructions qui ne sont pas stables. Et actuellement, elles tiennent debout seulement quelques microsecondes. Il y en a qui se sont lancés dans des calculs savants pour savoir le temps de cohérence minimal qu’il faudrait atteindre pour que le système soit utilisable, éventuellement en incluant des systèmes de corrections d’erreur etc.  Mais on est encore loin du compte !

  • Mais par quoi est-ce perturbé ?

Par la chaleur, le rayonnement électromagnétique, et aussi un facteur important qu’on ne sait pas trop quantifier : il y a des charges électrostatiques qui se promènent dans les puces. Il faut savoir qu’il y a toujours des petites charges qui bougent à la surface, ces charges créent un champ électrique qui perturbe énormément le système. Donc de nombreux chercheurs travaillent là-dessus dans le but d’éliminer toutes les charges en surface… C’est une des hypothèses pour expliquer que cela ne marche pas pour le moment.

  • On pourrait envisager un ordinateur quantique d’ici combien de temps ?

Je crois que maintenant plus personne ne fixe de délais… Nous sommes vraiment sur un os. Donc arriverons-nous à le surmonter ou pas ?

En fait, je comparerais un peu le système aux débuts de l’ordinateur. A l’origine, les ordinateurs étaient dans de grandes armoires qui prenaient énormément de place. Et un jour, on a créé le circuit intégré. Si on n’avait pas créé le circuit intégré, et qu’on n’avait pas eu la possibilité de graver tout cela sur une puce de 2 cm, on n’aurait jamais eu l’évolution qu’on connait car cela aurait été ingérable. Cela a vraiment été une révolution.

Pour l’instant, on en est à une preuve de principe. Tant qu’on n’aura pas trouvé la solution pour garder un temps de cohérence suffisamment long, cela n’ira pas plus loin. Actuellement, on ne connait pas la solution, mais peut être qu’elle sortira un jour…
Au niveau de la cryptographie, cela aurait des conséquences énormes car dans nos sociétés où tout est codé : communications bancaires, commerciales, mots de passe sur ordinateur, etc. si quelqu’un était capable d’intercepter tous les codes… Une armée qui communique à distance c’est toujours codé…

L’ordinateur quantique permettrait un énorme saut. Ce ne serait pas une amélioration, mais un saut !

Il faudra trouver une façon complètement différente de crypter. Pour le moment, on n’a aucune idée de la façon dont on pourrait crypter. Car tous les cryptages actuels sont plus ou moins compliqués mais ils sont tous basés sur le même principe. Si ce principe ne fonctionne plus, vous ne savez plus coder.

  • Donc l’ordinateur quantique pourrait être dangereux…

C’est justement pour cette raison que cela intéresse les gens…

Actuellement, si vous envoyez un code et qu’il faut dix jours pour le décoder, ce n’est pas forcément intéressant. S’il faut dix minutes, là c’est autre chose ! C’est ce qui est en jeu. Si on peut faire cela, cela changera énormément de choses au niveau mondial, militaire, etc.

Je pense que les milliards qui ont été engloutis là-dedans, ce n’est pas pour rien. Derrière, les enjeux sont faramineux. Et c’est pour ces enjeux que les gens sont prêts à payer énormément. Même s’il y a une chance infime que ça marche, comment passer à côté de cela ?

C’est vraiment stratégique au niveau de tous les domaines importants de notre société : défense et banques notamment. Actuellement, quand vous envoyez un ordre à une armée, le problème n’est pas tant d’intercepter le message mais plutôt de le décoder.

Le tournant de la guerre du Pacifique, cela a été le moment où les alliés ont réussi à décoder les messages des Allemands. C’était fini, on savait où étaient les sous-marins. Là nous sommes un petit peu dans le même enjeu.

« Si vous avez un ordinateur quantique, c’est comme si vous possédiez la machine Enigma, vous savez tout décoder. »

Actuellement, on sait décoder bien sûr, mais on se heurte toujours au même problème : c’est long, car factoriser en produits de nombres premiers est quelque chose d’intrinsèquement long, on ne sait pas faire autrement avec un ordinateur classique. Si vous avez un outil qui réalise cela beaucoup beaucoup vite, vous avez gagné. Et là c’est évident que ça intéresse tout le monde…

Propos recueillis par Iris Borel

Vos ondes cérébrales pourraient remplacer vos mots de passe

« Brainprint »(littéralement l’empreinte du cerveau) est une étude récemment publiée dans la revue académique Neurocomputing où des chercheurs américains ont observé les signaux cérébraux de 45 volontaires. Les données étaient enregistrées alors que les sujets lisaient une liste de 75 acronymes comme FBI, DVD…

94% de réussite

L’analyse des résultats a permis de classer les réactions pour chaque type de lettre prononcée, les associations faites entre la reconnaissance du mot et la lecture du mot… il en résulte qu’un ordinateur est capable d’identifier correctement chaque volontaire avec un taux de réussite de 94%.

Les résultats suggèrent que les ondes cérébrales pourraient  tout à fait être utilisées par les systèmes de sécurité pour vérifier l’identité d’une personne.

En bref, vous passez un scanner pour établir votre empreinte cérébrale. Vous vous asseyez ensuite avec un scanner au-dessus de votre tête, relié à votre ordinateur qui vous demande de prononcer quelques mots et en quelques millièmes de secondes vous avez accès à vos fichiers secrets… ou votre compte Facebook… ou rien !

Il est évident que 94% de précision n’est pas idéal, surtout s’il faut investir dans un scanner ! Mais ce n’est qu’un début, et des solutions techniques existent. Fait intéressant, ces « brainprints » sont aussi uniques que les empreintes digitales, mais les chercheurs les qualifient de « plus malléables ».

Si l’empreinte digitale de quelqu’un est volée, cette personne ne peut pas simplement se faire greffer un nouveau doigt pour remplacer l’empreinte compromise. C’est irrémédiable. On dit que les empreintes digitales sont non résiliables. Les « Branprints », elles, sont résiliables.

Réservé à la très haute sécurité ?

Ainsi, dans le cas peu probable où vous vous faites voler vos empreintes cérébrales, il vous sera possible de repasser un scanner et de recréer votre empreinte, différente de celle volée, unique et de nouveau fiable. Magique.

Serons-nous tous bientôt connectés à nos mots de passe à l’aide d’une sonde cérébrale ? Probablement pas. Mais cette technologie pourrait avoir des débouchés pour la très très haute sécurité… et pas pour votre compte Twitter, a priori.

Traduit par S.Luc

Source : techcrunch.com

Et aussi dans les
ressources documentaires :

Votre cerveau est plus gros le matin

Ceci a été démontré dans une étude basée sur une analyse poussée de près de 10 000 examens par IRM (étude publiée dans le magazine dans le magazine Neuroimage).

Kunio Nakamura et ses collègues de l’Institut neurologique de Montréal ont examiné 3269 scans issus de tests portant sur la sclérose en plaques et 6114 issus du projet de recherche sur la maladie d’Alzheimer (ADNI). Cela en fait la plus vaste étude en neurosciences jamais réalisée (l’étude date de 2012).

Les auteurs de l’étude y démontrent que le cerveau des patients est plus gros quand les scans sont effectués dans la matinée, par rapport à ceux de l’après-midi ou du soir pour ces mêmes patients.

Nakamura et son équipe définissent la taille du cerveau en termes de fractions du parenchyme cérébral (BPF), correspondant à la proportion du volume intracrânien qui est rempli avec le tissu cérébral. En résumé, le BPF fait référence à la part de votre crâne occupée par le cerveau.

Le BPF a chuté de 0,18% au cours de la journée dans les données issues de l’étude sur la sclérose en plaques, et de 0,44% dans l’ensemble des données de l’ADNI. Cela ne semble pas énorme, cependant à titre de comparaison c’est à peu près le même degré de rétrécissement que quelqu’un atteint de la maladie d’Alzheimer subirait au cours d’une année.

Voici une image montrant BPF par heure de la journée d’après les données de l’ADNI

Pourquoi la taille du cerveau rétrécit à mesure que la journée avance ? Nakamura et son équipe suggèrent que l’étude des fluides peut être la clé. Comme une éponge, le cerveau devient plus grand quand il est bien hydraté:

Un mécanisme possible pourrait être que la position couchée au cours de la nuit entraîne une redistribution des fluides corporels qui se sont accumulés dans les extrémités inférieures au long de la journée… Il est également possible que selon l’heure du jour nous connaissions différents états d’hydratation.

Les auteurs ont cependant averti les neuroscientifiques sur la nécessité d’étudier de près les effets du moment de la journée étudié dans les études futures :

En effet, l’analyse des résultats de l’étude suggère qu’un biais lié à la durée d’acquisition existe, et cela peut être particulièrement évident dans de petites études où le moment de l’acquisition de l’image peut ne pas être totalement aléatoire.

Par exemple, une tendance à acquérir des IRM de sujets sains dans la matinée et de groupe malade dans l’après-midi biaiserait les volumes du cerveau vers une différence de groupe plus important dans les études transversales.

Une étude récente avait déjà démontré des changements dans les propriétés fonctionnelles du cerveau à mesure que la journée avance.

Traduit par S.Luc

Source : blogs.discovermagazine

Et aussi dans les
ressources documentaires :

Comment notre cerveau se souvient-il des couleurs ?

Une étude récente a conclu que même si le cerveau humain peut faire la distinction entre des millions de couleurs, il a des difficultés notables à se souvenir des nuances spécifiques.

Par exemple, la plupart des gens peuvent facilement faire la différence entre l’azur, le marine et l’outremer. Mais quand on demande à ces sujets de se rappeler ces nuances, ils ont tendance à toutes les catégoriser dans la « catégorie des bleus ».

Cette tendance au regroupement explique pourquoi il est si difficile de compter uniquement sur sa mémoire visuelle quand on va acheter de la peinture pour repeindre un mur chez soi.

« De nombreuses cultures ont les mêmes catégories de couleurs et les mêmes mots pour ces couleurs », nous explique Jonathan Flombaum, chercheur en psychologie cognitive. « On débat d’ailleurs beaucoup sur la catégorisation universelle de ces couleurs et de son influence sur la perception que les gens ont des couleurs. »

Trouver les limites perçues entre les couleurs

Au cours de leur étude, Flombaum et ses collègues ont mené quatre expériences sur quatre différents groupes de personnes.

  • Dans la première expérience, ils ont demandé aux gens de regarder une roue de couleur composée de 180 teintes différentes. On leur a ensuite demandé de trouver le « meilleur exemple » pour chaque couleur. L’exercice a été conçu pour « trouver les limites perçues entre les couleurs », selon les chercheurs.
  • Dans une seconde expérience, les scientifiques ont montré à différentes personnes les mêmes couleurs, mais cette fois ils leur ont demandé de trouver le « meilleur exemple » pour chaque couleur générique.
  • Lors d’une troisième expérience, les chercheurs ont montré à différentes personnes des cartes de couleur en demandant aux participants de montrer sur la « roue des couleurs » la couleur correspondante, de mémoire.
  • Cette troisième expérience a donné lieu à la quatrième et dernière expérience. Les participants sont appelés à renouveler la troisième expérience, avec un délai supplémentaire de 90 millisecondes pour choisir la couleur correspondante sur la roue.

Les résultats ont révélé que la catégorisation des couleurs a un effet important dans la façon dont les gens identifient et se souviennent des couleurs.

Les participants appelés à nommer les couleurs sur la roue on trouvé 5 teintes différentes : bleu, jaune, rose, violet et vert.

« La plupart des couleurs ont été étiquetées uniformément par les participants, sauf certaines qu’on qualifiera d’« ambiguës ». Par exemple le vert et le bleu. Les zones où les réponses deviennent partagées sont les frontières entre les couleurs », précise Flombaum. « En outre, l’expérience a révélé que les participants avaient une tendance à choisir les mêmes teintes pour exprimer le « meilleur exemple » de couleur ».

Mais c’est l’expérience impliquant la mémoire visuelle qui a le plus stupéfié les chercheurs. Ces derniers prévoyaient une typologie de résultat qui, selon les chercheurs, « ferait une gentille courbe en cloche avec la bonne couleur eu sommet. Pas du tout. A la place, les résultats tendaient vers le « meilleur exemple » de la couleur » qu’ils avaient vu, pas vers la vraie couleur.

Le cerveau a tendance à aller « à l’essentiel »

Tous ces résultats suggèrent que notre cerveau se souvient des couleurs sous forme de catégories distinctes d’une part, et d’un continuum de nuances d’une autre part. Ensuite, un processus neuronal combine ces représentations pour produire un souvenir. Il pourrait y avoir plusieurs raisons à cela, mais la plus probable, comme souvent, reste l’efficacité : « La plupart du temps, ce qui nous préoccupe est simplement la catégorie de la couleur », résume Flombaum.

Cette tendance de notre cerveau à stocker des souvenirs par catégories ne concerne pas que la simple vision des couleurs. « En général, nous avons tendance à nous souvenir des choses d’une façon qui correspond d’une certaine manière à nos attentes, au détriment de la chose réelle », conclut Flombaum.

Traduit par S.Luc

Source : livescience

Et aussi dans les
ressources documentaires :

En vidéo : 4 choses étranges que nous savons sur le cerveau humain grâce à l’IRM

Depuis près de 25 ans, tout cela est étudié grâce aux millions de scanners pratiqués quotidiennement. Pour autant les nouvelles perspectives de découvertes sur ce qui se passe à l’intérieur de notre tête n’ont jamais été aussi nombreuses.

Vanessa Hill, l’animatrice de la chaîne YouTube « BrainCraft », relate certaines des expériences les plus étranges menées par des scientifiques sur nos cerveaux. Dieu merci, au début du 20è siècle, l’homme a inventé l’Imagerie à Résonance Magnétique ou IRM, point de départ d’une technologie appréciée des patients : le contrôle non destructif.

En 1991, la Société pour la résonance magnétique en médecine a dévoilé la première machine à imagerie par résonance magnétique fonctionnelle (IRMF) dans le monde, qui a permis aux chercheurs de démontrer la capacité du champ magnétique à révéler des changements dans l’activité cérébrale.

IRM Vs IRMF

Cette nouvelle machine a révolutionné la façon dont les humains ont expérimenté le cerveau, en donnant une vue « de l’intérieur », permettant de déceler n’importe quel changement consécutif au plus petit stimulus.

Depuis, les radiologues et les chercheurs ont été en mesure d’effectuer toutes sortes de tests, en utilisant les drogues, la peur, l’amour, le bruit, pour en savoir toujours plus sur la façon dont fonctionne notre cerveau.

« Nous avons utilisé l’IRMF pour apprendre des choses assez incroyables sur nos cerveaux », plaisante Vanessa Hill, qui nous explique comment l’Université de l’Illinois a utilisé une machine IRM pour visualiser le mouvement des muscles pendant qu’un patient chante. Mais, alors que l’IRM ne peut obtenir que des images sur ce qui se passe à l’intérieur, l’IRMF nous montre comment cela fonctionne réellement. Dans la vidéo de BrainCraft ci-dessus, vous visualiserez ainsi comment l’esprit des rappeurs travaille, ce qui se passe dans le cerveau quand les gens ont peur des serpents ou des araignées, et beaucoup d’autres activités cérébrales liées à des stimuli plus ou moins étranges !

Traduit par S.Luc

Source : medicaldaily

Et aussi dans les
ressources documentaires :

Comment notre cerveau nous permet d’y voir clair

Dieu merci, l’invention du stabilisateur d’image a permis de créer des appareils photos numériques garantissant l’obtention d’images proches de la perfection et de manière spontanée.

Mais nous possédons également notre propre stabilisateur, qui se trouve… dans notre œil, et nous permet de ne pas tout voir flou !

Composé de cellules nerveuses appelées axones minces, reliant l’œil au cerveau, il permet à l’œil de stabiliser l’image en déclenchant des mouvements oculaires minuscules qui stabilisent notre champ de vision.

Deux études complémentaires publiées le 7 mai 2015 dans la revue américaine Neuron (USA) se sont concentrées sur l’étude des cellules nerveuses qui corrigent les mouvements lents dans des directions spécifiques : un axe de recherche s’est donc porté sur la direction horizontale et l’autre sur la direction verticale.

Chaque fois que vous marchez, les images qui constituent votre champ de vision se meuvent à travers l’œil, selon Andrew Huberman, professeur adjoint de neurosciences à l’Université de Californie, San Diego et co-auteur de deux études sur le sujet. Contrairement aux images floues qui résultent de la prise d’images via les smartphones, votre cerveau réagit en déplaçant l’œil pour compenser ce glissement visuel, explique-t-il.

« Il s’agit d’un mouvement d’œil correctif : vous avancez, votre œil fait des micros mouvements de recul. Ces ajustements perpétuels et très rapides vous permettent de fixer un objet au loin pendant que vous avancez vers lui. »

Une correction quasi-simultanée

Le cerveau génère le mouvement des yeux après la détection de la lumière. Les ondes lumineuses se fraient un chemin dans l’air, rebondissent sur des objets et ricochent directement dans nos globes oculaires. Finalement, ils frappent une fine membrane à l’arrière de l’œil, la rétine. La rétine est composée de millions de cellules appelées photorécepteurs qui convertissent la lumière en messages électriques.

Les cellules nerveuses spéciales, appelées cellules ganglionnaires de la rétine (CGR), délivrent les messages à partir de la rétine, le long de longs axones minces, en direction des centres visuels du cerveau. Chez l’homme, des millions de ces axones sont emmitouflés au niveau du nerf optique. Ils bifurquent ensuite vers leur destination finale, les neurones.

Le cerveau interprète ces impulsions électriques comme une image et Eureka ! Nous pouvons voir.

« Différentes catégories de CGR sont accordées à des fonctions spécifiques d’un type particulier de composant d’image, comme la couleur ou le mouvement. Les chercheurs ont étudié une petite catégorie de détection de mouvements CGR qui aide nos yeux à compenser les mouvements lents dans les directions verticale et horizontale », comme le rappelle Alex Kolodkin, professeur de neurosciences et auteur principal de l’une des deux études. « Si par exemple vous faites un tour de grande roue, le champ visuel se déplace de haut en bas et votre cerveau opère essentiellement des corrections verticales.

Les scientifiques ont compris où les axones RGC se connectent dans le cerveau, mais pour l’instant nous savons très peu de choses sur la façon dont les axones s’y prennent pour cibler ces zones précises au cours du développement embryonnaire », précise Kolodkin.

Pour tenter de comprendre cela, les chercheurs ont testé leur hypothèse à l’aide de souris modifiées avec des gènes dont la particularité est d’entrainer un rayonnement des matériaux marqués, ceci afin de suivre des protéines colorées (en vert) sur les CGR verticale et horizontale. Cela a permis aux chercheurs de retracer le cheminement des neurones à travers le cerveau, a déclaré David Feldheim, qui ne participait pas directement à l’étude proprement dite.

Des protéines responsables du guidage des CGR

Les chercheurs ont ainsi pu  identifier le type de protéine qui guide les CGR à un emplacement exact du cerveau.

En développant une lignée de souris déficientes pour ces protéines spécifiques, les chercheurs ont pu tester les capacités des sujets à opérer les corrections visuelles classiques. En traquant les mouvements des yeux des souris alors qu’elles regardaient des lignes bouger verticalement, les chercheurs ont compris que les yeux des rongeurs étaient incapables de faire les ajustements nécessaires. L’équipe du professeur Huberman fit la même série de tests avec et sans les protéines spécifiques permettant les corrections horizontales et obtint les mêmes résultats.

Il s’agit de la première étude qui décrit les molécules responsables du guidage des axones de la rétine à travers le labyrinthe des neurones jusqu’à leur emplacement exact dans le cerveau, dit Feldheim.

Les scientifiques espèrent que leurs résultats aideront le traitement des troubles oculaires résultant de cellules nerveuses « mal câblées ».

« Vous pouvez imaginer un scénario dans lequel quelqu’un a un système visuel endommagé et devient aveugle petit à petit »,  témoigne Huberman. « La thérapie génique pourrait alors permettre d’activer le gêne spécifique pour « recâbler » la zone affectée et stimuler la production et la croissance de CGR vers la zone correcte du cerveau ».

Traduit par S.Luc

Source : insidescience

Et aussi dans les
ressources documentaires :

A l’instar des ordinateurs, le cerveau humain peut-il récupérer des souvenirs perdus ?

On a depuis longtemps comparé le cerveau humain à un ordinateur, puis à un smartphone…

Dans un article paru il y a cinq ans, la revue Scientific American avait questionné Paul Reber, professeur de psychologie à l’Université Northwestern, sur la capacité de stockage de la mémoire du cerveau humain, et sur l’existence d’une limite à la quantité de données qu’il peut conserver.

Le professeur Reber a expliqué que le cerveau humain est câblé pour stocker de très grandes quantités de souvenirs. Ce dernier est constitué d’environ un milliard de neurones, et ces cellules spécialisées sont interconnectées, formant ainsi environ un billion de connexions. Plus les neurones sont connectés entre eux, plus la capacité de stockage de mémoire du cerveau est augmentée, et selon Reber, un cerveau humain peut être capable de stocker environ 2,5 pétaoctets de « souvenirs ».

Si un cerveau humain est comme le flash d’un ordinateur ou d’un smartphone, est-il possible pour les scientifiques de restaurer des souvenirs considérés perdus chez des êtres humains ?

L’an dernier, des chercheurs d’UCLA ont publié leurs conclusions sur la restauration de la mémoire d’une personne atteinte de la maladie d’Alzheimer. Professeur à UCLA et auteur principal de l’étude, David Glanzman, a expliqué que la mémoire à long terme d’une personne n’est pas stockée dans la synapse, qui fait le lien entre deux neurones.

Alors que les humains constituent leurs souvenirs à long terme, le cerveau produit de nouvelles protéines qui sont impliquées dans la fabrication de nouvelles synapses. Si ce processus est perturbé par un accident ou de la maladie, les protéines ne peuvent pas être synthétisées, et les souvenirs à long terme ne seront pas mémorisés. Après avoir étudié un type d’escargot (aplysia) sur lequel il a mené des expériences sur le cerveau, Glanzman affirme qu’il est possible de restaurer les connexions synaptiques, et ainsi de restaurer la mémoire à long terme d’une personne.

L’équipe de recherche de Glanzman est arrivée à augmenter la mémoire à long terme de l’escargot en lui donnant plusieurs légers chocs électriques sur la queue. La restauration dure pendant quelques jours ; Glanzman explique que le choc électrique provoque la libération de l’hormone sérotonine  dans le système nerveux central de l’escargot. La sérotonine est un composant des plaquettes sanguines et du sérum qui resserre les vaisseaux sanguins, et joue ainsi le rôle de neurotransmetteur. Glanzman explique que la capacité du cerveau a stocker la mémoire à long terme est fonction de la croissance de nouvelles connexions synaptiques provoquées par la sérotonine.

Les chercheurs utilisent la lumière pour rétablir les « souvenirs perdus »

Parallèlement à la recherche menée par UCLA, une nouvelle étude publiée dans Science la semaine dernière a indiqué que des souvenirs dans le cerveau demeurent, mais que c’est simplement le processus de collecte de ces informations qui est perturbé par une maladie ou un accident.

Comme l’explique le co-auteur de l’étude, Susumu Tonegawa du MIT, l’amnésie est « un problème de perte de capacité de récupération » – et leur recherche a été en mesure de raviver des souvenirs perdus chez la souris, en utilisant la lumière, le choc électrique et les deux en même temps.

Le groupe de chercheurs dirigé par Tomas Ryan du MIT  a utilisé des impulsions de lumière bleue pour stimuler les neurones qu’ils appellent « engrammes de mémoire« , et qui sont impliqués dans la constitution de la mémoire. L’étude a expliqué que lors de la formation de la mémoire, les engrammes renforcent leurs synapses ; Pour déterminer si le fait de perturber le processus détruit la mémoire stockée, les rongeurs utilisés dans l’étude se sont vus injecter une protéine qui active les engrammes de mémoire en utilisant la lumière bleue.

Ensuite, les souris ont été entraînées à se rappeler l’action de « recevoir un choc électrique à l’intérieur d’une chambre ».

Les souris ont pu associer le sentiment de choc électrique avec la chambre, et elles ont développé une réponse qualifiée de « figée ».

Les chercheurs ont ensuite divisé le groupe de souris en deux ; un groupe a subi des injections d’un composé appelé anisomycine qui empêche le renforcement des synapses engrammes. Le groupe qui n’a pas reçu le composé a émis la même réponse « figée », tandis que le groupe l’ayant reçu n’a pas figé, ce qui indique qu’ils ont oublié le sentiment.

Ensuite, le groupe de souris ayant subi des injections du composé ont été « traitées » par l’impulsion de lumière bleue qui active les engrammes de mémoire. Après le traitement, le groupe a commencé à émettre de nouveau la même réponse figée, démontrant qu’elles étaient en mesure de récupérer les souvenirs perdus (concernant la chambre).

Bien que la recherche ait été effectuée uniquement sur des souris, leurs conclusions vont probablement inspirer d’autres scientifiques pour développer la recherche, enquêter sur d’autres indices, et mettre ainsi l’homme en mesure de trouver un moyen de récupérer des souvenirs perdus.

Traduit par S.Luc

Et aussi dans les
ressources documentaires :

Les scientifiques peuvent créer des cellules qui répliquent les processus du cerveau humain

Des chercheurs de l’Institut royal de technologie de Melbourne (RMIT) ont créé la première cellule de mémoire électronique au monde, capable de traiter tous les états de la mémoire, répliquant ainsi la capacité du cerveau à simultanément traiter et stocker plusieurs brins d’information.

Cette découverte révolutionnaire a été récemment publiée dans la revue scientifique Advanced Functional Materials.

Le dispositif, 10 000 fois plus petit qu’un cheveu humain est « une étape essentielle vers la création d’un cerveau bionique », ont expliqué les scientifiques.

« Ceci constitue notre plus grande avancée vers la création d’un système fonctionnant comme un cerveau muni de mémoire, traitant et stockant des informations de manière analogue et capable de récupérer rapidement cette information stockée », a déclaré pour sa part le chef de projet et co-leader des Matériaux Fonctionnels au RMIT, Dr Sharath Sriram.

Le principal auteur de l’étude, le Dr Hussein Nili, a déclaré que le dispositif constitue une étape majeure pour recréer le cerveau humain : « cette nouvelle découverte est importante car elle permet à la cellule « multifonction » de stocker et traiter des informations exactement de la même façon que le cerveau. A titre de comparaison, pensez à un vieil appareil photo qui pourrait seulement prendre des photos en noir et blanc. La même analogie s’applique ici, plutôt que des souvenirs en noir et blanc que nous avons maintenant des souvenirs en couleur avec des nuances d’ombre, de lumière et de texture, c’est fondamental.»

Le docteur Nili a expliqué que les dispositifs actuels ne sont capables de stocker les données uniquement en séquence binaire, mais la nouvelle nano-cellule en revanche peut stocker des informations sous différentes formes, de par son analogie avec les cellules biologiques.

« Car au-delà de la capacité de ces nouveaux appareils à stocker beaucoup plus d’informations que des mémoires numériques classiques (qui stockent seulement 0 et de 1), c’est bien leur habilité à se rappeler et à retenir des informations précédentes qui est excitant », a-t-il dit.

Le mécanisme du nouveau dispositif est basé sur une découverte antérieure faite par des chercheurs RMIT l’année dernière, quand ils ont créé une structure de mémoire nanométrique empilée en utilisant un film mince d’oxyde.

Trouver des remèdes pour différentes maladies neurologiques

« Nous avons maintenant introduit vices ou défauts contrôlés dans l’oxyde, ainsi que l’ajout d’atomes métalliques, ce qui libère le plein potentiel de l’effet « memristive », où le comportement de l’élément de mémoire est dépendant de ses expériences passées, a précisé le Dr Nili.

Il a aussi expliqué qu’une des finalités de la création d’un cerveau bionique est de permettre aux scientifiques de trouver des remèdes pour différentes maladies neurologiques.

« Si vous pouvez reproduire la structure d’un cerveau en dehors d’un corps humain, vous pouvez en apprendre davantage sur les fonctionnalités d’un cerveau de mammifère ou humain et notamment sur les types de troubles que les cerveaux humains développent, comme la maladie de Parkinson ou la maladie d’Alzheimer », a déclaré l’Australien Broadcasting Corporation (ABC) depuis.

Cette nouvelle cellule électronique pourrait également aider à créer une intelligence artificielle, a déclaré le co-auteur, le Dr Sumeet Walia.

« Une fois que nous sommes capables de stocker et de rappeler les événements passés, à partir de là nous pouvons réellement commencer à travailler sur le développement d’un composant de stockage pour des pans entiers de réseaux d’intelligence artificielle. Par exemple, les robots, ou même des ordinateurs qui se comportent comme un cerveau humain « , a déclaré le docteur Walia à ABC.

Traduit pas S.Luc

Et aussi dans les
ressources documentaires :

Les acides gras essentiels jouent un rôle crucial dans la croissance du cerveau humain et dans son fonctionnement

Une équipe co-dirigée par l’Université d’Exeter, en collaboration avec des experts à Singapour, a publié des résultats de recherche dans Nature Genetics qui montrent que des mutations dans la protéine Mfsd2a provoquent des déficiences touchant le développement du cerveau chez les humains. 

Mfsd2a est le transporteur dans le cerveau d’un type spécial de graisse appelée lysophosphatidylcholines (LPC). Ces graisses sont composées d’acides gras essentiels comme les oméga-3. Cela montre le rôle crucial de ces graisses dans la croissance du cerveau humain.

L’étude a été financée au Royaume-Uni par le Medical Research Council et la Fondation Newlife pour les enfants handicapés. Le Professeur Andrew Crosby, de l’Université de l’école médicale Exeter, qui a co-dirigé l’étude, a déclaré que « cette découverte excitante nous apprend beaucoup sur le rôle crucial que certaines graisses spéciales tiennent dans notre «  baguage » sanguin. L’étude montre quelles graisses sont importantes, comment elles sont absorbées par le cerveau par exemple. Bien que nous ayons découvert ce gène particulier dans des familles du Pakistan, il y a des gens ailleurs dans le monde qui souffrent aussi de cette déficience. Ces résultats nous donnent une nouvelle orientation pour le traitement potentiel de ces troubles neurologiques à l’avenir ».

L’équipe a travaillé avec les membres d’une grande famille d’un village dans le nord du Pakistan. Tous les membres du village descendent de la même lignée, et partagent des caractéristiques communes dans leur ADN.

Une mutation génétique au niveau du gène MFSD2A

Ainsi, beaucoup des sujets appartenant à cette famille ont hérité de la même mutation génétique au niveau du gène MFSD2A, provoquant des déficiences au niveau de la croissance du cerveau et de son fonctionnement. Mais la mutation ne bloque pas l’expression du gène, elle ne fait que l’altérer. Pour les individus ayant hérité de deux copies du gène muté, on observe une microcéphalie prononcée accompagnée d’une déficience intellectuelle progressive, une rigidité des membres et une absence de langage.  

Une conclusion importante de l’étude se situe dans la disponibilité des échantillons de plasma sanguin de patients, qui a permis des études biochimiques en étroite collaboration avec l’étude co-principale, dirigée à Singapour par le Dr David Silver de l’École de médecine Duke-NUS de Singapour. C’est cela qui a permis de définitivement identifier le rôle crucial de MFSD2A en tant que principal transporteur d’acides gras oméga vers le cerveau.

Traduit par S.L

Source : news-medical.net

Et aussi dans les
ressources documentaires :

Des vaisseaux sanguins découverts sous le crâne pourraient établir un lien le cerveau et le système immunitaire

Les scientifiques ont découvert un lien jusqu’ici inconnu entre le cerveau et le système immunitaire qui pourrait aider à expliquer les liens de cause à effet entre les troubles de santé physique et les troubles cérébraux chez les personnes atteintes de la maladie d’Alzheimer et de dépression.

La découverte de vaisseaux nichés juste sous le crâne révolutionne des décennies d’enseignement académique et pourrait ouvrir la voie à de nouvelles approches pour le traitement des maladies du cerveau. Les scientifiques à l’origine de la découverte n’ont pas caché leur surprise d’avoir découvert une structure anatomique majeure qui avaient été entièrement négligée jusqu’à présent !

« Ces vaisseaux n’étaient tout simplement pas censés être là »

« Ces vaisseaux n’étaient tout simplement pas censés être là d’après l’état actuel de nos connaissances », déclare Jonathan Kipnis, qui a dirigé le travail à l’Université de Virginie. « Je pensais que l’anatomie du corps humain avait été entièrement cartographiée et que de telles découvertes étaient révolues, et ce depuis au moins 50 ans ! Mais apparemment, cela n’est pas le cas. »

La découverte pourrait fournir un argument anatomique solide contribuant à renforcer l’idée grandissante selon laquelle la santé mentale et l’état du système immunitaire sont étroitement interconnectés.

Les personnes atteintes de diabète, qui est une maladie auto-immune, sont 65% plus susceptibles de développer une démence, d’après les conclusions d’une étude publiée en début d’année. D’autres recherches récentes ont montré que les patients atteints d’Alzheimer ayant subi des infections régulières, comme la toux et le rhume, ont vécu un déclin cérébral quatre fois plus important révélé lors des tests de mémoire effectués au cours d’une période de six mois que les patients avec les niveaux d’infection les plus bas.

Il n’a pas été clairement défini en revanche si ces résultats émanaient de fondements physiologiques profonds ou bien étaient simplement induits par le style de vie, comme l’alimentation et la sédentarité, qui dégradent la santé mentale et physique de façon indépendante.

« Nous sommes convaincus que pour chaque maladie neurologique dans laquelle un composant immunitaire est impliqué, ces vaisseaux peuvent jouer un rôle majeur », déclare Kipnis. « Dans la maladie d’Alzheimer, il existe une accumulation de gros morceaux de protéines dans le cerveau. Nous pensons qu’ils sont accumulés dans le cerveau parce qu’ils ne sont pas éliminés efficacement par ces vaisseaux. »

« Un état diabétique », ajoute-t-il, « qui affecte le système immunitaire dans tout l’organisme, pourrait aussi nuire à la capacité du cerveau à déblayer les protéines toxiques qui sont un des fondements de la maladie. Le rôle précis de ces vaisseaux n’est que spéculation à ce jour, d’après les scientifiques. Répondre à ces questions sera le thème de la prochaine phase de leur recherche. »

Quel est le rôle des méninges ?

La nouvelle anatomie révélée correspond donc une extension du système lymphatique, réseau de vaisseaux qui fonctionne en parallèle avec le système vasculaire du corps et véhiculant des cellules immunitaires, à la place du sang. L’étude a découvert que plutôt que de s’arrêter à la base du crâne, ces vaisseaux se prolongeaient à travers les méninges, une membrane qui enveloppe le cerveau et la moelle épinière. Ces vaisseaux n’ont sans doute pas été détectés, selon Kipnis, parce que les méninges sont souvent considérées comme une sorte d’emballage plastique du cerveau, plutôt que d’un pan de l’anatomie en tant que tel.

« Dans votre manuel d’instruction lorsque vous êtes étudiant, la première consigne est de « retirer les méninges », précise-t-il. «Les gens ne sont habituellement pas intéressés par cette région du cerveau. »

La découverte a été faite en montant les méninges d’une souris sur une seule lame afin qu’elles puissent être examinées dans leur ensemble. Après avoir remarqué au microscope la présence d’éléments ressemblant à des vaisseaux sur des cellules immunitaires présentes sur les diapositives, ils se sont lancés dans une série de tests qui ont démontré qu’il s’agissait de vaisseaux lymphatiques desservant le liquide céphalo-rachidien, le liquide qui sépare le cerveau et la moelle épinière.

Des expériences préliminaires suggèrent la même anatomie chez les êtres humains, selon l’étude publiée cette semaine dans la revue Nature.

« Nous sommes convaincus qu’ils existent aussi chez les humains », pronostique Kipnis.

Kevin Lee, un neuroscientifique de l’Université de Virginie et co-auteur de l’étude, raconte que  « la première fois que ces gars-là m’ont montré le résultat de leur étude, j’ai tout de suite pensé : il va falloir réécrire beaucoup de manuel scolaires ! Il n’a jamais été fait état d’un système lymphatique pour le système nerveux central, et ceci est cependant très clairement établi par cette observation singulière ».

La découverte d’un nouveau morceau de l’anatomie du cerveau a été accueillie avec enthousiasme par d’autres scientifiques, même si certains étaient plus prudents sur le rôle potentiel des vaisseaux dans les maladies.

Nick Fox, professeur de neurologie à l’University College de Londres, assure que la possible existence d’un lien entre les maladies du système immunitaire et la maladie d’Alzheimer est rapidement devenue un « sujet brûlant et très controversé ».

« Il s’agit d’être prudent quant aux résultats des études épidémiologiques lorsque vous ne pouvez pas être certain d’établir un lien de causalité et de corrélation, » prévient-il dit. « Et il convient de  noter que les essais de médicaments anti-inflammatoires [ciblant la réponse immunitaire] n’ont pas été concluants concernant la maladie d’Alzheimer, mais peut-être n’ont-ils pas été donnés aux patients assez tôt. »

La dernière phase de recherche pourrait, selon lui, aider à définir la véritable nature de ce lien.

James Nicoll, professeur de neuropathologie à l’Université de Southampton, perçoit les bénéfices possibles d’une telle découverte : « Ceci est susceptible d’être une découverte importante par rapport à la compréhension des maladies infectieuses et inflammatoires du cerveau à condition que les résultats soient confirmés par d’autres et chez l’être humain. »

Il déplore par ailleurs le fait que les auteurs n’aient pas vérifié de manière plus approfondie les conclusions sur les êtres humains : « toutes les expériences qu’ils ont faites ne pourraient être menées sur l’homme, mais suffisamment aurait pu l’être pour confirmer la présence de canaux similaires ».

Enfin, Roxana Carare, professeure agrégée sur le vieillissement vasculaire cérébral à l’Université de Southampton, comme la plupart de ses confrères, veut rester prudente : « Les connexions décrites prennent place entre la structure entourant le cerveau et le système immunitaire, plutôt que le cerveau lui-même et le système immunitaire. La méthodologie est très impressionnante, mais les résultats doivent être interprétés avec prudence en ce qui concerne les maladies affectant les tissus mêmes du cerveau ».

Traduit par S.L

Et aussi dans les
ressources documentaires :

Combien de temps faut-il au cerveau pour passer « en mode conscient » ?

Au cours de cet entretien, il dévoile entre autres choses les conditions d’entrée d’une image au cerveau. Plusieurs paramètres sont évoqués. Premièrement le temps d’affichage. S’il est inférieur à 50 millisecondes, l’être humain n’a pas conscience de l’avoir vue. L’image est subliminale. Il faut donc que l’oeil s’attarde au minimum 50 millisecondes pour que le cerveau l’enregistre de façon consciente. 

La deuxième chose est le traitement de l’information. Le cerveau est soumis constamment à un flot de signaux qu’il doit analyser, filtrer selon des critères propres à chaque individu (son histoire personnelle, l’intérêt ou l’objectif du moment). D’autres, sont universels: il s’agit par exemple des réflexes innés que tout individu possède. Dans l’interview, Stanislas Dehaene fait notamment référence à la réaction au bruit qui détourne automatiquement l’attention.

Dans un premier temps, toutes les images perçues sont subliminales. 

Ce n’est que par la suite, selon le traitement qu’en fait le cerveau, grosso modo si une image passe ou non dans le mode conscient, qu’elle dépasse ce statut. Dès que l’information arrive à la conscience, l’activité cérébrale s’amplifie considérablement à partir de 300 millisecondes. À ce moment, l’information circule dans de nombreuses régions du cerveau (ou plutôt l’envahit?). C’est ce que révèlent les clichés obtenus par le procédé d’imagerie par résonance magnétique fonctionnelle (IRMf). Cette application permet d’enregistrer les variations cérébrales locales quand certaines zones sont stimulées. 

Une autre méthode pour mesurer l’onde qui se propage lorsqu’une personne prend conscience d’une information consiste à poser des électrodes sur le haut du crâne 

Le cerveau est incapable de faire deux choses en même temps

Comme l’explique le docteur Dehaene, le cerveau n’absorbe qu’une information à la fois et tant que son traitement est en cours, il ne peut en assimiler d’autres. Il compare ce mécanisme de réception et d’apprentissage du cerveau à des portes qui bloqueraient l’entrée de nouvelles données tant que la précédente n’a pas été traitée. Ce n’est pas une question d’intelligence, c’est juste que l’être humain ne peut se concentrer que sur une chose à la fois.

Le vieil adage qui dit que les femmes contrairement aux hommes peuvent réaliser deux tâches simultanément serait donc erroné ? À cela, il rétorque que ce n’est pas tout à fait exact car il faut compter sur les tâches répétées tellement souvent qu’elles deviennent automatiques. À la longue, il est possible par exemple de conduire et d’écouter de la musique ou de discuter en même temps. Ces activités sont réalisées de manière non conscientes et n’occupent donc pas entièrement le cerveau.

Le monde d’aujourd’hui sème-t-il des embûches à notre conscience ? L’environnement actuel, fait d’innombrables sollicitations (publicités, smartphones…), a de quoi perturber le cerveau, engendrer des pertes de temps, qui cumulées, ralentissent notre progression dans ce que nous nous fixons comme objectif. La difficulté réside alors dans le fait de rester opaque à ce genre de distractions au moment opportun tout en laissant la porte ouverte à d’autres car il est également prouvé que ces stimulations favorisent le développement cérébral. Comme quoi, même si ces sollicitations peuvent parfois être stressantes, elles s’avèrent finalement bénéfiques.

Par Sébastien Tribot

Et aussi dans les
ressources documentaires :

« Le cerveau se répare de lui-même dans une certaine mesure »

Hugues Duffau, si vous ne le connaissez pas, est une pointure reconnue en neurochirurgie. Une célébrité que l’on dit modeste, cherchant à éviter le feu des projecteurs. Pourtant il peut se targuer d’avoir été un précurseur. C’est en effet le premier chirurgien français à avoir retiré des tumeurs sans endormir ses patients. Il a par la suite largement contribué à répandre dans de nombreux pays cette technique devenue aujourd’hui une référence.

Depuis sa première opération, qui remonte à 18 ans, – une infirmière de 25 ans, qui avait ensuite pu reprendre son activité – le neurochirurgien s’est occupé de plus de 500 personnes (dont 90 % sont encore en vie). Il dit avoir beaucoup pratiqué sur des tumeurs gliales, des tumeurs issues du tissu de soutien neuronal appelé glie.

Dans l’entretien accordé à L’Express, Hugues Duffau exposait sa technique. Il expliquait que la chirurgie éveillée était possible parce que le cerveau n’est pas sensible à la douleur. Pendant une opération, le patient ne ressent aucune gène, c’est ce qui lui permet d’être conscient. Il est tout de même anesthésié généralement afin d’ouvrir sa boîte crânienne, mais il est réveillé peu après. L’intervention se fait avec son concours. Dirigé par l’orthophoniste, il effectue des tests simples. Ce peut être des mouvements à réaliser ou des mots à prononcer. Dans le même temps, le neurochirurgien envoie de légères décharges électriques dans certaines zones à la surface du cerveau.

Le cerveau est capable de se recomposer

En fonction de la façon qu’à le patient de répondre aux demandes de l’orthophoniste (si sa parole se trouble ou si elle reste normale), le neurochirurgien peut cartographier les zones du cerveau à réparer/ôter en mettant des marqueurs. Encore maintenant, cette méthode reste la plus directe pour déterminer un plan du réseau anatomique du cerveau.

L’avantage étant de ne pas en enlever une quantité trop importante et de provoquer le moins de dégâts possibles. Car le risque de ce genre d’opération est bien là. En enlever trop, même un tout petit peu trop, et laisser des séquelles aux patients. C’est un risque de plus en plus réduit, mais qui existe malgré tout. Il révèle une anecdote particulièrement édifiante à ce sujet. Sachant l’opération d’une pianiste russe polyglotte trop longue, il s’était mis d’accord avec elle pour ne préserver que les langues qu’elle estimait essentielles. Un diagnostic précoce favoriserait bien entendu le traitement préventif. À ce titre, Hugues Duffau déclare qu’un dépistage par IRM au sein de la population permettrait cela.

C’est une chose extraordinaire. Le cerveau peut délocaliser ses fonctions d’une région à une autre, dans le même hémisphère ou dans l’autre. C’est la raison pour laquelle il déclare que « l’aire de broca n’est pas l’aire de la parole ». Les conclusions de Paul Broca, l’auteur de cette découverte en 1861, sont fausses parce qu’il n’existe pas de zone du cerveau dédiée à la parole à proprement parlé. Le neurochirurgien parle plutôt de « réseaux parallèles capables de se compenser les uns les autres », de connexions entre des nœuds. Et de fait, il donne un bon coup de botte à 150 ans d’histoire de la médecine.

Par Sébastien Tribot

Et aussi dans les ressources documentaires :

Les nanoparticules magnétiques permettront-elles de soigner des maladies du cerveau ?

La barrière hémato-encéphalique (BHE) est une barrière physiologique qui empêche naturellement les agents pathogènes, les toxines et les hormones de passer du sang au cerveau. Elle joue donc un rôle positif dans la conservation du cerveau, en le nettoyant de certains déchets par exemple. Toutefois, elle bloque presque tout, y compris les médicaments véhiculés par le sang. Ce qui n’est pas sans compliquer la tâche des médecins. 

 

Pour cette raison, une équipe de chercheurs de l’École Polytechnique de Montréal s’est ingéniée à duper la BHE de souris afin d’offrir un passage à certaines molécules actives avec comme but in fine : qu’elles puissent atteindre les régions du cerveau souhaitées en vue de les traiter. Pour y arriver, des nanoparticules magnétiques ont été placées à l’endroit voulu grâce à un dispositif d’Imagerie par Résonance Magnétique (IRM), puis faiblement chauffées par exposition à un champ de fréquence radio. Ce qui a permis d’ouvrir durant un court laps de temps la barrière. 

 

Il s’agit d’une progression significative dans la connaissance de ce réseau encore assez méconnu de microvaisseaux sanguins composé de cellules endothéliales qu’est la barrière hémato-encéphalique. Appliquer cette méthode sur l’homme pour administrer des remèdes directement dans le cerveau serait une avancée fantastique dans le traitement de certaines maladies neurologiques. Car à la différence de traitements comme la chimiothérapie, s’en prenant à tous les tissus, y compris les tissus sains, et donc extrêmement agressive pour le corps, ce procédé permettrait de cibler précisément les zones à soigner. 

 

Jusqu’à maintenant, lorsque l’on essaye de soigner les patients souffrant de maladies graves, les médecins passent par l’opération. Mais ces interventions chirurgicales sont toujours risquées, notamment quand il s’agit d’ôter une tumeur. Et parfois, l’opération est impossible si la partie du cerveau à traiter est située au mauvais endroit. La manipulation de la BHE (pour laisser passer les agents thérapeutiques et empêcher les cellules cancéreuses de traverser) et le guidage des nanoparticules pourraient donc tout changer. 

 

Du temps, des tests et de nombreuses réflexions sont encore nécessaires avant de pouvoir appliquer ce procédé novateur sur l’Homme, comme l’affirment les auteurs de l’étude – dont Anne-Sophie Carret. L’idée est certes validée et particulièrement prometteuse, mais le moment où le traitement de troubles psychiatriques, neurologiques ou issus de maladies dégénératives (Alzheimer) se fera par ce biais n’est à priori pas pour tout de suite. La gestion de l’ouverture de la barrière est trop délicate et imprécise. Encore un peu de patience donc.

 

Par Sébastien Tribot

Et aussi dans les
ressources documentaires :

Ryad et Koweït en discussions au sujet de leur différend pétrolier

« Un comité commun formé par les deux pays (…) a récemment tenu sa première réunion à Ryad », a expliqué mardi soir le ministre, Ali al-Omair, selon l’agence Kuna.

Il n’y a pas de calendrier pour les négociations, a-t-il indiqué, tout en disant s’attendre à une avancée rapide.

Le différend entre les deux pays a conduit à la fermeture des champs de Khafji et de Wafra, situés dans la zone neutre. Ces deux champs produisaient plus de 500.000 barils par jour que les deux pays se partageaient à parité.

Wafra a été fermé le 11 mai, initialement pour deux semaines pour maintenance mais il n’a pas rouvert depuis. Le gisement off-shore de Khafji avait lui été stoppé en octobre par l’Arabie saoudite, qui a fait état de craintes pour l’environnement.

Selon des sources industrielles, les autorités koweïtiennes sont mécontentes du fait que l’Arabie saoudite ait renouvelé en 2009, sans les consulter, un accord de 30 ans avec la Saudi Arabian Chevron, qui assure la production du champ pétrolier de Wafra.

Le Koweït a décidé, en représailles, de ne plus renouveler les permis de résidence des employés de cette compagnie.

L’arrêt de ces champs est un coup dur pour le Koweït, qui, contrairement à son voisin, grand producteur, a peu de capacités supplémentaires de production.

Ce différend survient alors que les prix du pétrole se sont effondrés l’an passé, avant de se redresser légèrement depuis janvier.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Vidéo : La lumière contre la pollution

Jean-Baptiste Renard, directeur de recherche au CNRS, explique comment ces instruments de mesure détectent la taille, la nature et la forme des particules. Le LOAC (Light optical aerosol counter), par exemple, est accroché au ballon du Parc André Citroën à Paris.

« Le LOAC mesure la concentration en poussière, c’est-à-dire le nombre de poussières que nous avons par unité de volume et va transmettre les informations en temps réel sur un écran où nous voyons l’évolution de la concentration en particules en fonction de l’altitude. Ceci nous montre ce que l’on va respirer à chaque fois que nous sommes en situation d’air pollué. »

 

Réalisation : Armand Bernardi

Production : Universcience, La Huit, Arte G.E.I.E., European Physical Society

Source : universcience

Et aussi dans les
ressources documentaires :

Les textiles électroniques

Cela permettrait aux industriels d’incorporer des appareils numériques dans le vêtement lui-même tels que, des téléphones, des lecteurs MP3, des GPS ou bien des outils de surveillance médicale. Les fruits de ces recherches à fait l’objet d’une publication dans la revue Scientific Reports du prestigieux groupe Nature en mai 2015.

Les textiles sont habituellement trop fragiles pour supporter les procédés de nanofabrication impliquant notamment, des températures élevées. Aussi la nature fibreuse des textiles rend difficile l’adhérence d’autres matériaux. Jusqu’à présent les techniques utilisées impliquaient de grandes couches de matériaux au détriment de la souplesse et de la transparence de tissus.

L’équipe d’Aveiro utilise le graphène en monocouche avec une croissance contrôlée en suspension dans une solution aqueuse puis transféré dans les fibres. Ce processus se déroule à température ambiante et un traitement de surface basé sur les ultraviolet-ozones irradiations augmente fortement l’adhésion aux fibres. Cette croissance contrôlée de graphène, comprenant une monocouche de graphite, a démontré de grands potentiels de conductivité et de mobilité d’électrons. Grâce à la transparence et la souplesse du graphène, le toucher, la malléabilité et la couleur des tissus restent intacts.

Cette étude est menée en partenariat avec des équipes de l’UA, l’Université d’Exeter (Royaume-Uni), l’Institut des Systèmes et d’Information pour les Microsystems et les Nanotechnologies (Portugal), l’Université de Lisbonne et le Centre Belge de Recherche Textile. Les recherches ont pu commencer grâce à une bourse de la Royal Society.

Source :  bulletins-electroniques

Et aussi dans les
ressources documentaires :

Sixième Extinction : 7% des espèces probablement déjà disparues

En utilisant deux approches, l’une fondée sur les avis d’experts naturalistes et l’autre issue des mathématiques probabilistes, ces chercheurs ont travaillé sur un échantillon d’espèces d’invertébrés et ont extrapolé leurs résultats à l’ensemble de la biodiversité terrestre. Leur étude offre un nouveau regard sur la mesure de la crise de la biodiversité, jusqu’ici focalisée sur les vertébrés, et en particulier les mammifères et les oiseaux.

Quels chiffres fondent la notion de 6ème extinction de masse ?

La Liste rouge de l’Union internationale pour la conservation de la nature (UICN) dresse chaque année la liste « officielle » des espèces éteintes ou en danger d’extinction. Elle recense environ 1000 espèces de plantes et d’animaux, éteintes au cours des quatre derniers siècles alors que dans le même temps les biologistes découvrent et décrivent en moyenne 18 000 nouvelles espèces par an, qui s’ajoutent aux deux millions déjà connues. Ce décalage entre les 1000 espèces recensées par l’UICN et les millions d’espèces existantes s’explique aisément. La mesure de la crise se base essentiellement sur les vertébrés supérieurs (oiseaux, mammifères), pour lesquels nous disposons de données robustes mais qui concentrent aussi l’essentiel des efforts de conservation.

Lorsque la Liste rouge recense « seulement » 1,3% d’extinctions chez les mammifères et les oiseaux, ce chiffre reflète, certes, la crise de la biodiversité (ce chiffre est en effet 100 à 200 fois supérieur au « bruit de fond » de l’extinction naturelle ; mais il reflète aussi le succès des actions de conservation : créations de réserves et aires protégées, plans de reproduction en captivité dont bénéficient la plupart des oiseaux et bon nombre de mammifères. Les invertébrés, au contraire, constituent le plus gros bataillon de la biodiversité (70% des espèces connues, la plupart petites et rares, difficiles à échantillonner et à identifier), mais souffrent à la fois d’un déficit de connaissances et d’un déficit d’attention en termes de stratégies de conservation. 

Une nouvelle approche de la crise de la biodiversité fondée sur les invertébrés 

Face à ce constat, une équipe de recherche pluridisciplinaire (systématique, biologie de la conservation, mathématique et bio-informatique) a remis en question les données sur lesquelles s’appuie la mesure de la Sixième Extinction en s’intéressant spécifiquement aux invertébrés. Ces chercheurs ont choisi comme modèle un groupe d’invertébrés pouvant paraître peu charismatiques : les mollusques terrestres (escargots et limaces). Pour 200 espèces tirées au sort, les chercheurs ont demandé à 35 experts du monde entier d’évaluer si elles étaient éteintes, encore vivantes ou s’ils ne pouvaient pas se prononcer.

En parallèle, toutes les informations existantes depuis deux siècles sur ces 200 espèces ont été rassemblées : données bibliographiques, mais aussi données issues de collections de plusieurs Muséums d’histoire naturelle, données d’amateurs et de collectionneurs, habituellement non utilisées pour construire ce genre de scénarii. Ces données ont alimenté un modèle de mathématique probabiliste pour mesurer les « chances » d’extinction de chacune des espèces.

Les résultats des deux approches, avis d’expert et modèle mathématique, totalement indépendants, sont remarquablement concordants. Extrapolés aux autres compartiments de la biodiversité, ces résultats permettent donc d’estimer que nous aurions déjà perdu, non pas 1,3 mais 7% de la biodiversité terrestre de la planète.

 

Source : CNRS

 

Et aussi dans les
ressources documentaires :

Réutilisation des eaux grises pour des usages domestiques : une pratique à encadrer

L’utilisation des eaux grises traitées, qui consiste à récupérer et à collecter les eaux provenant des douches, baignoires, lavabos, lave-linge, et éventuellement de la cuisine, puis à les utiliser après traitement, n’est pas autorisée en France pour des usages domestiques. En 2011, la Direction générale de la santé a saisi l’Anses afin qu’elle évalue les risques sanitaires potentiels liés à la réutilisation des eaux grises pour des usages domestiques. Dans les avis et rapport qu’elle publie ce jour, l’Agence estime que la pratique de réutilisation des eaux grises dans l’habitat doit être encadrée, et ne doit être envisagée que pour des usages strictement limités, dans des environnements géographiques affectés durablement et de façon répétée par des pénuries d’eau. Par ailleurs, la population (résidents, utilisateurs occasionnels, professionnels) doit être informée et formée aux conditions d’utilisations nécessaires pour minimiser les risques associés à la présence d’un réseau d’eau non potable dans le bâtiment.
Dans un contexte de développement durable, la réutilisation des eaux grises en milieu domestique est souvent évoquée afin d’épargner la ressource en eau et réduire la consommation d’eau potable. Depuis quelques années, l’intérêt porté à cette pratique s’est accru et certains pays comme l’Australie, les États-Unis, Israël et le Japon se sont tournés vers ces ressources complémentaires face à des situations de pénuries d’eau douce.
En 2011, l’Anses a été saisie par la Direction générale de la santé, pour évaluer les risques sanitaires liés à la réutilisation d’eaux grises pour des usages domestiques, pratique qui n’est actuellement pas autorisée en France. L’avis et le rapport d’expertise publiés ce jour définissent des critères de qualité microbiologiques et physico-chimiques des eaux grises traitées pour certains usages domestiques et recommandent des mesures de prévention à mettre en œuvre.

Risques sanitaires liés aux différents usages des eaux grises : chaque projet constitue un cas particulier

Les eaux grises (ou eaux ménagères) brutes sont des eaux issues des douches, des baignoires, des lavabos, des lave-linge, des éviers et des lave-vaisselle. Le travail mené par les experts de l’Anses montre qu’à ce jour, les données disponibles sont insuffisantes pour caractériser de manière rigoureuse et exhaustive les dangers liés aux différents contaminants physico-chimiques et microbiologiques des eaux grises, et les niveaux d’exposition liés aux différents usages, applicables à toutes les situations.
Les eaux grises contiennent des matières particulaires et organiques, et sont contaminées par des micro-organismes dont des pathogènes et des contaminants physico-chimiques issus notamment du lavage des mains, des produits d’hygiène corporelle et cosmétiques, des produits d’entretien de la maison, du lavage des surfaces et du lavage du linge. Compte tenu de leurs caractéristiques, les eaux grises brutes ne peuvent être réutilisées pour des usages domestiques sans un traitement préalable. Ainsi, la réutilisation des eaux grises nécessite des étapes de traitement, de transport et de stockage à maitriser.
Par ailleurs, l’utilisation d’eaux grises traitées dans l’habitat nécessite l’installation d’un réseau distinct du réseau de distribution d’eau destinée à la consommation humaine (EDCH) et les retours d’expériences mettent en évidence le fait que la présence d’un réseau d’eau non potable à l’intérieur de l’habitat constitue une source majeure de risque. En effet, l’interconnexion entre le réseau d’EDCH et celui véhiculant les eaux grises, peut entraîner une contamination du réseau public de distribution de l’EDCH, la rendant non conforme à la réglementation en vigueur et susceptible d’entraîner des effets sur la santé des consommateurs.

Les recommandations de l’Agence

L’Anses estime qu’une réutilisation des eaux grises dans l’habitat ne doit être envisagée que pour des usages strictement limités, dans des environnements géographiques affectés durablement et de façon répétée par des pénuries d’eau.
Sous réserve de la mise en œuvre d’un traitement et de mesures de gestion du risque appropriées, les eaux grises traitées peuvent être adaptées à trois usages en milieu domestique, si elles répondent à des critères de qualité précis au point d’usage :

  • l’alimentation de la chasse d’eau des toilettes,
  • l’arrosage des espaces verts (excluant potagers et usages agricoles),
  • le lavage des surfaces extérieures sans génération d’aérosols (sans utilisation de nettoyeur à haute pression). Toutefois, dans ce cas l’ajout de produits d’entretien dans les eaux grises traitées est déconseillé.

Dans ces conditions, un encadrement réglementaire des conditions de recueil, de stockage et de traitement des eaux grises brutes est nécessaire pour permettre de réduire les risques sanitaires pour les personnes exposées.
Au vu du manque de données nécessaires pour conduire une évaluation des risques sanitaires liés aux différents usages des eaux grises traitées, l’Anses recommande que chaque projet de réutilisation d’eaux grises brutes dans l’habitat fasse l’objet d’une démarche systématique d’analyse des risques, afin de s’assurer que les bénéfices sont supérieurs aux risques pour la santé des occupants et des travailleurs amenés à utiliser des eaux grises traitées dans l’habitat.
L’Agence recommande que les décideurs, particuliers, copropriétaires, élus, etc. soient informés des possibles impacts sanitaires, environnementaux et économiques de l’opération de réutilisation des eaux grises.
De surcroît, l’adjonction d’un réseau d’eaux grises peut également engendrer des risques sanitaires pour les utilisateurs et/ou les occupants des immeubles, qu’ils soient liés à l’installation, à l’exploitation et à l’entretien du réseau, ou liés à la qualité de l’eau transportée. La traçabilité est donc primordiale pour garantir la sécurité sanitaire au cours du temps et éviter toute dérive.
Par ailleurs, la population (résidents, professionnels, utilisateurs occasionnels) doit être informée de l’existence d’un système de réutilisation des eaux grises traitées et sur les risques sanitaires éventuels. Elle doit également être formée aux conditions d’utilisations nécessaires pour minimiser les risques associés à la présence d’un réseau d’eau non potable. L’Anses propose en outre une série de recommandations pratiques à destination des professionnels intervenant sur les installations de réutilisation d’eaux grises.
Dans un contexte de développement durable visant notamment à épargner la ressource et économiser l’eau, l’Agence rappelle que l’eau, quels que soient ses usages, doit être utilisée de façon raisonnée.

Autres travaux de l’Agence
L’Anses a déjà produit plusieurs avis concernant la réutilisation des eaux usées traitées.
Par ailleurs, elle a été récemment saisie d’une demande d’expertise relative à la réutilisation des eaux de pluie.  

Source : Anses

Et aussi dans les ressources documentaires :

Climat: face au réchauffement, l’agriculture doit se « diversifier » (expert)

La France doit « revoir sa copie » et s’orienter vers un « système de production beaucoup plus diversifié que dans notre agriculture industrielle », a déclaré le scientifique lors d’un débat organisé à Paris par le réseau Comité 21, axé sur le développement durable.

Au cours des dernières décennies, l’agriculture française a eu tendance à se spécialiser par région, afin de « rentabiliser » les gros investissements rendus nécessaires par une production intensive, a expliqué l’agronome, membre des comités scientifiques de la Fondation Nicolas Hulot et de l’Institut de recherche pour le développement (IRD).

Mais pour faire face aux migrations d’espèces végétales ou animales, ainsi qu’aux accidents climatiques provoqués par le réchauffement, il faut aller vers une « moindre spécialisation », par exemple en associant de nouveau agriculture et élevage sur les mêmes terres, et en diversifiant les plantes cultivées, estime M. Dufumier.

Non seulement cette diversification permettrait de mieux résister au changement climatique, mais elle éviterait d’aggraver la situation: renoncer aux labours pourrait ainsi permettre de stocker davantage de gaz carboniques dans les sols.

Augmenter la production de légumineuses (luzerne, féverole, lentilles, pois…) permettrait de réduire l’utilisation d’engrais azotés de synthèse, responsables des émissions de protoxyde d’azote, « 300 fois plus réchauffant que le CO³ », avance l’agronome.

Les légumineuses, naturellement riches en azote nécessaire à la croissance des plantes, fourniraient aussi une alternative au soja importé (en majorité OGM) pour nourrir le bétail, ainsi qu’à la viande pour l’alimentation humaine.

M. Dufumier estime qu’il faudrait pour cela « renoncer aux accords de libre-échange et imposer des droits de douane sur les importations de soja ». Il plaide pour des négociations climatiques et agricoles groupées, regrettant que ce n’ait pas été le cas lors de la conférence sur le climat de Copenhague en 2009.

En France, l’agriculture est à l’origine d’environ 20% des émissions de gaz à effet de serre, et plus de 35% en comptant l’industrie agroalimentaire, estime le chercheur.

Paris accueillera en décembre une nouvelle conférence mondiale sur le climat (COP 21).

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Comprendre les oscillations des naines blanches magnétiques

A la fin de sa vie, le Soleil aura épuisé toutes ses ressources nucléaires. Son cœur s’effondrera alors sous l’action de la gravité en un astre très dense ayant une masse proche de celle du Soleil mais dans un volume équivalent à celui d’une planète comme la Terre. Il deviendra alors une « naine blanche ». Actuellement, les chercheurs estiment que près de 10% des étoiles de la Galaxie se sont déjà transformées en « naines blanches ». Certaines d’entre elles sont très fortement magnétiques avec un champ magnétique plus de dix millions de fois plus intense que celui du Soleil.

Lorsqu’elles sont en orbite autour d’une autre étoile, les naines blanches magnétiques, aussi appelées « polars », aspirent la matière qui tombe en chute libre jusqu’à leurs pôles dans ce qui est appelé une « colonne d’accrétion », région cylindrique mesurant quelques centaines de kilomètres de rayon. Dans cette colonne, la matière en chute libre atteint des vitesses supersoniques de l’ordre de 1000 km/s créant un phénomène d’onde de choc, analogue au « bang » des avions supersoniques. Cette onde de compression ralentit brutalement la matière qui s’échauffe et peut alors rayonner autant d’énergie qu’au cœur d’une étoile, principalement sous forme de rayons X, ultraviolets et lumière visible.

Entre 1982 et 1997, des variations de luminosité rapides ont été découvertes dans la lumière visible de cinq de ces polars, suggérant l’existence d’instabilités. Les scientifiques ont voulu comprendre l’origine de ces instabilités présentes dans ces étoiles fortement magnétiques. Dans un premier temps, et en complément de travaux antérieurs, ils ont produit des simulations numériques très précises du processus physique complexe de l’onde de choc due au déplacement de la matière dans la colonne d’accrétion des polars. Dans la majorité des cas, ces simulations ont montré l’existence de fortes instabilités se traduisant par une oscillation importante de la hauteur du choc au-dessus de la naine blanche et donc de la luminosité en rayons X. Pour la première fois, les chercheurs ont pu mettre en évidence un choc dit « secondaire » qui est « réfléchi » par la surface de la naine blanche lorsque la matière percute l’étoile.

Dans un second temps, les mêmes équipes ont recherché la présence de ces oscillations rapides, dont les périodes peuvent varier de 0,1 à 10 secondes, dans un ensemble de polars observées en rayons X par le satellite européen XMM-Newton. Mais, parmi les 24 polars qui ont été étudiées, aucun n’a pu révéler des oscillations rapides.

Dans certains cas, un champ magnétique trop fort peut amortir les oscillations et les rendre indétectables. Mais, malgré l’incertitude sur certains paramètres (masse de la naine blanche, section de la colonne d’accrétion …), une partie au moins des polars observées par XMM aurait dû montrer des oscillations rapides dues aux variations du choc. L’obtention de ces nouveaux résultats et la découverte de l’absence de ces oscillations semblent aujourd’hui mettre en doute la validité des modèles standards sur le comportement des colonnes d’accrétion dont la physique est pourtant considérée comme bien maîtrisée. 

Pour obtenir de tels résultats, les scientifiques ont mis au point des simulations numériques du comportement du plasma. Par ailleurs, les progrès réalisés en physique des lasers et l’utilisation croissante des lasers à haute densité d’énergie rendent désormais possible la reproduction en laboratoire de conditions similaires à celles rencontrées dans certaines structures de l’Univers. Ainsi, dans le cadre du projet d’expérimentation astrophysique baptisé « POLAR », le même groupe de scientifiques a déjà réussi à reproduire en partie, en laboratoire, les phénomènes physiques présents dans les colonnes d’accrétion à la surface des naines blanches. La récente mise en fonctionnement du Laser Mégajoule (LMJ) permettra, dans un futur proche et dans le cadre des expériences d’ouverture avec LMJ-PETAL, de créer une réelle maquette de colonne d’accrétion, ouvrant ainsi la voie à une véritable étude en laboratoire des instabilités de chocs. 

Source : CNRS

Et aussi dans les
ressources documentaires :

Les réserves souterraines aquifères sont-elles en train de s’assécher ?

Pour tenter de déterminer le volume d’eau des plus importantes réserves connues, les scientifiques américains ont utilisé les informations du satellite GRACE (Gravity recovery and climate Experiment). Leur analyse est inquiétante car 8 des plus importantes réserves souterraines d’eau sur les 37 étudiées souffrent d’une reconstitution naturelle insuffisante, tandis que 5 autres sont en passe de connaître le même sort. En comparant les données du satellite aux estimations connues, les chercheurs de l’Union américaine de géophysique (AGU) ont mis à jour des incohérences, preuves que la communauté scientifique ne connait pas l’état d’épuisement réel des réserves souterraines.

Toutefois, grâce aux travaux menés par l’AGU, les réserves les plus exploitées ont été identifiées. Il s’agit notamment des systèmes aquifères arabique, indien et d’Afrique du nord.

La Californie, durement touchée par la sécheresse depuis plusieurs années n’est pas épargnée. Son réservoir en pleine vallée centrale est surexploité et peine à se reconstituer.

Ainsi, les auteurs du travail sur l’évaluation des réserves souterraines d’eau  soulignent le danger de mal connaitre l’état réel des réserves, surtout en plein réchauffement climatique. Il ne faudrait pas que ces réserves, nécessaires à de nombreuses populations, viennent à disparaitre brutalement sans que l’homme n’ait eu le temps de l’anticiper. 

Par Audrey Loubens

Et aussi dans les
ressources documentaires :