Des cellules souches embryonnaires ont permis de réparer le cerveau endommagé de souris

Les travaux sur les cellules souches sont en plein boom et les espoirs sont nombreux. Ce qu’ont réussi les scientifiques de l’Université de Poitiers avec ceux de l’Institut de recherche interdisciplinaire en biologie humaine et moléculaire de Bruxelles témoigne du potentiel incroyable de la thérapie cellulaire. A partir de cellules souches, ils sont parvenus à fabriquer des neurones corticaux correspondant à la partie du cortex lésée, puis à les implanter dans le cerveau.

Plus précisément, la partie du cerveau des souris abîmée correspondait au traitement de la vision. Or, pour favoriser la réparation du cortex, les neurones devaient impérativement être du même type que la lésion concernée. C’est là toute la difficulté car le cortex est de nature complexe, composé de centaines de types de neurones différents. Ayant réussi à créer exactement les bons neurones à partir de cellules souches embryonnaires, à savoir ceux de type visuel, les chercheurs ont pu les greffer dans le cerveau des souris. Au bout d’un an, 61% des greffes ont été un succès et les souris ont pu profiter à nouveau du bon fonctionnement de leur cortex visuel, et ont recouvert la vision. C’est « […] la 1ère fois que des cellules souches pluripotentes différenciées en neurones corticaux permettent de rétablir les circuits corticaux lésés adultes sur le plan neuroanatomique et fonctionnel » se félicite l’Inserm dans un communiqué.

 En revanche, des tumeurs et des amas de cellules non différenciés sont apparus lors des tentatives qui ont échoué. Ce n’est donc pas encore une solution miracle pour réparer les lésions du cerveau, mais à terme, c’est bien la guérison des AVC ou de maladies neuro-dégénératives qui est visée.

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Assis ou couché : dans quelle position étudier ?

Juin. Pour les lycéens, mois des stressés, mois des pressés. On passe le bac(calauréat), on se prépare à aller en fac(ulté) ou en classe prépa(ratoire). On cherche une coloc(ation) ou une place en cité u(niversitaire). Et pour remplir la chambrette, le mobilier classique de l’étudiant : le canapé-lit pour dormir, le bureau et la chaise pour travailler. Autant la première moitié du matériel peut être douillette, autant on vise le spartiate pour la seconde, comme si les leçons entraient mieux à coups de crampes ou que la concentration passait par la fesse calleuse. Ainsi, dans leur Manuel de l’étudiant, publié en 1965, Abraham Lass et Eugene Wilson expliquent qu’il faut privilégier « une chaise simple, robuste, à dossier droit et sans rembourrage. On étudie mieux quand on n’est pas trop à son aise ou pas trop décontracté. (…) Pour des raisons évidentes, évitez d’étudier dans un canapé, un fauteuil ou un lit. »

Des « raisons évidentes »… C’est vite dit. Quelles « raisons évidentes », se sont demandé deux psychologues américains de l’université de Californie, MM. Gifford et Sommer, tous deux Robert de leur prénom ? Quelles données scientifiques soutiennent ces recommandations ? À la Sorbonne ou à Assas, à Oxford ou à Cambridge, à Berkeley ou à Harvard, a-t-on jamais comparé les résultats des assis et des couchés ? Les chercheurs ont cherché, ils n’ont rien trouvé dans la littérature savante. D’où l’idée improbable, à défaut d’être évidente, d’aller sur le terrain, de faire une expérience en chambres estudiantines.

Tels Dupont et Dupond, Robert et Robert se sont mis à enquêter, à visiter les résidences universitaires après les heures de cours, pour noter si ces jeunes gens étudiaient vraiment et, si oui, où ils le faisaient. Toc, toc, toc, c’est pour un sondage : au bureau ou au pageot ? Les deux chercheurs n’ont pas inclus dans leurs statistiques les états intermédiaires (vautré(e) sur le canapé, allongé(e) à même le sol). Ils se sont introduits, en tout bien tout honneur et avec la bénédiction des autorités universitaires, dans plusieurs centaines de chambres réparties sur huit campus. Au total, 331 étudiants ont rempli les conditions de l’expérience et se sont répartis presque de manière égale dans les deux catégories.

Venait ensuite la partie la plus palpitante du travail : récupérer la moyenne générale de chacun, puis voir si sa position d’étude était ou non corrélée avec les notes obtenues. Les fourmis de bureau allaient-elles enfin toucher les dividendes de leurs souffrances par rapport aux cigales de matelas ? Eh bien… non. L’article conclut qu’il n’existe pas d’écart significatif entre les deux groupes. Même en poussant les choses plus loin, c’est-à-dire en se concentrant sur, d’un côté, les très bons élèves et, de l’autre, sur les très mauvais, les auteurs obtiennent « la même absence de différence ». « Il n’y a aucune preuve, écrivent-ils, que les étudiants-à-bureau obtiennent de meilleurs résultats que les étudiants-pas-à-bureau. »

Robert et Robert en tirent deux conclusions : primo, rien ne justifie qu’on oblige les nouveaux venus à passer un certain nombre d’heures scotchés à leur bureau pendant leurs six premiers mois d’études ; secundo, il serait bon de repenser l’architecture intérieure et l’ameublement des salles d’étude dans les écoles et les universités. Au feu les pupitres, je passe mon bac en hamac.

Précisons tout de même que cette étude est parue en… mai 1968.

Par Pierre Barthelemy
Extrait issu du livre « Improbablologie et au-delà » publié aux éditions Dunod

Comment fonctionne l’estomac d’un ogre ?
À quelle heure est-on le plus honnête ?
À quoi reconnaît-on un cochon heureux ?
À toutes ces questions apparemment saugrenues, des chercheurs ont pris le temps de donner une réponse, avec sérieux et méthode à l’appui !
Après le succès des Chroniques de science improbable, Pierre Barthélémy nous invite à un nouveau voyage en improbablologie.
Dans ses chroniques, il explore avec humour et délectation ces petits bijoux de la science improbable, la science qui fait sourire. Et ensuite réfléchir (ou pas…).

Et aussi dans les
ressources documentaires :

Une petite pieuvre tellement mignonne qu’elle pourrait s’appeler « Adorabilis »

De couleur rose pâle, cette petite pieuvre « de la taille d’un poing humain », vit dans une eau à 6-8 degrés celsius par 200 à 600 mètres de fond, explique Stephanie Bush, chercheuse à l’institut de l’aquarium de Monterey Bay.

C’est en cherchant de nouveaux animaux à présenter aux visiteurs de l’aquarium que Mme Bush a commencé à s’intéresser à cette espèce, observée par son laboratoire depuis la fin des années 1980, mais qu’elle n’a commencé à étudier que depuis l’an dernier.

« De nouvelles espèces sont découvertes tous les ans, mais elles ne sont pas toutes répertoriées, car ce processus peut prendre des années », explique la chercheuse.

De fait, il lui a fallu plusieurs mois pour mesurer et étudier la morphologie du petit céphalopode. Elle doit désormais soumettre un article à une revue scientifique, qui tranchera sur l’attribution du nom.

« Je ne suis pas encore sûre à 100% que j’opterai pour le nom Adorabilis », explique-t-elle.

« Mais je ne vois pas pourquoi un tel nom serait refusé, c’est facile à prononcer et très populaire », poursuit-elle, faisant remarquer que d’autres espèces, notamment une chez les colibris, portent le même nom.

Pour l’heure, on en sait très peu sur ces pieuvres, dont seulement 12 spécimens, uniquement des femelles, ont pu être étudiés par Stephanie Bush.

« Elles passent la plupart de leur temps assisses, mais parfois elles doivent se mouvoir pour manger ou se reproduire », raconte la chercheuse. De nouvelles données pourraient éclore grâce aux oeufs récoltés en laboratoire, mais dont l’incubation « très lente compte tenu de la température à laquelle vivent ces animaux », peut prendre encore deux à trois ans.

« Les animaux des fonds marins sont moins connus que ceux d’autres habitats », rappelle-t-elle. Malgré la difficulté d’accès à ces espaces immenses, le travail des scientifiques est crucial, car il permet d’en savoir plus sur « la production de nourriture ou d’oxygène », des sujets impactant la vie humaine, explique-t-elle.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Le patron de l’INRA défend la génomique comme un outil clé d’adaptation de l’agriculture au réchauffement

« Les ressources génétiques sont un moyen utile pour lutter et s’adapter au changement climatique » en exploitant le réservoir de diversité des traits génétiques chez les animaux et les plantes, a-t-il dit. Ainsi il est possible de développer des variétés de récoltes, du blé à la vigne, capables de mieux s’adapter à la chaleur ou à la sécheresse par exemple. Cela est vrai aussi pour le bétail.

« Il existe aujourd’hui de puissantes techniques de sélection génomique qui permettent d’accélérer les processus de sélection en faisant des corrélations très étendues entre ce que l’on sait sur les génomes des plantes et des animaux et les traits génétiques qu’on observe », a poursuivi ce scientifique notant que cette approche est sans risque pour l’environnement.

Dans la communauté scientifique on pense que « ces méthodes génomiques sont aussi efficaces sinon plus, pour agir sur les traits complexes comme le rendement d’une culture, que les techniques de type OGM », a-t-il souligné.

Le rendement d’une culture est contrôlé par un très grand nombre de gènes tout comme la résistance à la sécheresse et dans ces cas l’approche OGM, –bannie en France, ndlr– n’est pas adaptée.

Mais il peut aussi y avoir des traits particuliers qui sont contrôlés par un seul gène pour lequel il n’y a pas de moyen de faire de la sélection classique des caractéristiques génétiques et pour lequel « il peut être plus efficace d’utiliser la technique transgénique (OGM) », a expliqué M. Houllier.

« Le choix de l’approche devrait se faire en fonction des qualités que l’on cherche à obtenir » comme la résistance à la chaleur, à une maladie ou davantage de polyphénols, des anti-oxydants, a-t-il fait valoir.

La relation entre la changement climatique et l’agriculture est importante étant donné que cette activité contribue au réchauffement de la planète mais en subi aussi les effets néfastes, a dit le PDG de l’INRA.

Au niveau mondial, les émissions de gaz à effet de serre produits par l’agriculture dont le méthane émanant de la digestion du bétail et le dioxyde de carbone (CO2) résultant de l’exploitation agricole, représentent environ 24% du total, a-t-il précisé.

En France où se tiendra en décembre la conférence mondiale sur le climat, les dix mesures proposées il y a deux ans par le gouvernement permettraient de réduire de 30% (30 millions de tonnes) les émissions de gaz à effet de serre produites annuellement par l’Agriculture estimées à cent millions de tonnes, a indiqué M. Houllié.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

La piste du cuivre révèle la présence de soufre dans le noyau terrestre

De nombreuses mesures sismiques posent depuis longtemps une énigme aux scientifiques : le noyau terrestre semble trop léger pour être seulement composé de fer pur et de nickel. Des hypothèses postulent qu’un certain nombre d’éléments plus légers, tels que le carbone, l’oxygène, le silicium ou le soufre existent dans le noyau. Celui-ci étant situé à 2900 kilomètres sous la surface de la Terre, il est impossible d’avoir accès à des échantillons physiques. Alors comment déterminer sa composition ? En suivant, par exemple, les traces laissées par différents composés dans la chimie du manteau de la Terre lorsqu’ils ont migré au centre de notre planète pour former le noyau. Le soufre étant trop volatil – il passe facilement à un état gazeux – pour laisser ce type d’empreintes, les chercheurs ont utilisé le cuivre, un élément chimique chalcophile, c’est-à-dire qu’il se rencontre fréquemment en association avec le soufre, afin de retracer la destinée du soufre jusqu’au noyau terrestre.

Les chercheurs ont regroupé un grand nombre d’échantillons de laves issues du manteau et de roches de la croûte terrestre pour en déterminer la composition isotopique en cuivre et ainsi évaluer la composition du manteau terrestre. Ils ont ensuite comparé ces résultats à la composition isotopique des météorites. Ces dernières représentent la Terre dans son ensemble, comme si elle n’avait pas été différenciée en un manteau et en un noyau. Les chercheurs ont ainsi découvert que le manteau terrestre était appauvri en isotopes légers du cuivre par rapport aux météorites (qui représente donc la composition isotopique du manteau et du noyau). Ils interprètent ces résultats comme étant la conséquence de la séparation d’un liquide sulfuré (riche en isotopes légers du cuivre) des autres composants chimiques à la fin de la cristallisation du manteau terrestre. Ce liquide sulfuré, plus lourd que le reste du manteau, aurait plongé à la base du manteau et se serait ensuite mélangé avec le noyau terrestre. A partir de la différence de composition isotopique entre le manteau et le noyau, les chercheurs ont estimé que la quantité de liquide sulfuré qui s’est retiré du manteau représente 0,5% du noyau.

Afin de confirmer leurs résultats, les chercheurs ont réalisé une série d’expériences en laboratoire. Ils ont reconstitué la composition chimique de la Terre et l’ont soumise aux mêmes conditions de température et de pression que celles existant lors de la séparation du noyau et du manteau. L’analyse de la composition isotopique des matériaux (sulfures et silicate) produit lors de ces expériences valide l’hypothèse qu’un liquide sulfuré s’est bien séparé des composants du manteau de la Terre primitive.

Ces résultats, qui apportent une preuve de la présence de soufre dans le noyau terrestre, ont été obtenus grâce à cette méthode originale de suivi du cuivre que les chercheurs souhaitent pouvoir adapter à toutes sortes d’environnements, y compris d’autres planètes comme Mars, à partir du moment où des échantillons d’autres manteaux planétaires seront disponibles pour les comparaisons. 

Source : CNRS

Et aussi dans les
ressources documentaires :

Des moteurs qui marchent à l’eau (étude)

Une équipe de l’Université Columbia à New York et de l’Université Loyola de Chicago a fabriqué deux petits gadgets expérimentaux qui fonctionnent de manière autonome en présence d’humidité dans l’air.

La clé de l’expérience, publiée dans la revue Nature Communications, est l’utilisation d’inoffensives spores bactériennes — des petites unités sphériques qui se forment à l’intérieur d’une cellule bactérienne.

Les spores gonflent avec l’humidité et rétrécissent une fois sèches. Ce mouvement de gonflement/rétrécissement dégage de l’énergie.

« Jusqu’à présent, nous avons été en mesure de capter l’énergie de l’eau qui descend des nuages , nous voulons maintenant capter l’énergie de l’évaporation, de l’eau qui part dans l’air, dans l’atmosphère », explique Ozgur Sahin, de l’Université Columbia et coauteur de l’étude, dans une vidéo diffusée par Nature.

« Ce processus est très puissant, (mais) jusqu’à maintenant nous n’étions pas en mesure de capter cette énergie efficacement », confie-t-il.

L’équipe a construit de minuscules moteurs avec de minces bandes de ruban de plastique recouvertes des spores, qui alimentent une minivoiture et des diodes électroluminescentes (LED).

Exposés à l’humidité, les spores se dilatent et entraînent les bandes de plastique. Elles se contractent très vite lorsque la source d’humidité est enlevée. Ce mouvement de va-et-vient peut entraîner des roues et des pistons.

« Lorsque vous assemblez beaucoup, beaucoup de bandes ensemble, vous augmentez la force qu’elles produisent », déclare le chercheur.

Cette technique est encore au stade expérimental. Mais elle pourrait un jour être utilisée pour les prothèses ou les membres des robots, les batteries et les générateurs ou pour concevoir une tenue de sport qui réagit à la sueur: plus vous transpirerez, plus vous produirez de l’énergie.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Le glyphosate à nouveau dans la tourmente

La réponse n’aura pas traîné. Il aura fallu à peine 24h pour que Stéphane Le Foll, ministre de l’agriculture, réponde à l’association Consommation, Logement, Cadre de vie (CLCV) qui venait d’interpeller les « […] agences sanitaires  françaises et européennes […] au sujet de l’herbicide le plus utilisé en France, qui a été classé comme « probablement cancérigène ». » Et c’est non, le glyphosate ne sera pas interdit en France. Le ministre, interrogé sur Public-Sébat, argumente alors qu’il ne souhaite pas retirer un produit s’il n’est pas capable de proposer une alternative, précisant toutefois que « Le glyphosate est dangereux. Les précautions qui doivent être prises sont impératives. » Nous n’en saurons pas plus, mais apparemment le principe de précaution n’est pas à l’ordre du jour.

Le glyphosate est un herbicide non sélectif, commercialisé initialement par Monsanto dans son produit Rounup. Mais depuis que le brevet est tombé dans le public en 2000, le glyphosate a séduit d’autres marques et se retrouve dans près de 750 produits à destination de l’agriculture. C’est devenu l’herbicide le plus répandu dans le monde, une domination du marché que l’on retrouve en France où 8000 tonnes ont été répandues sur les sols en 2011, par les agriculteurs mais surtout par les particuliers qui représentent 60% des utilisations.

le principe de précaution n’est pas à l’ordre du jour

Le 20 mars, le Centre international de recherche sur le cancer (Circ) publie dans Lancet Oncology un travail mené par 17 chercheurs de 11 nations différentes indiquant que le glyphosate se classe « Cancérogène probable », de quoi alerter sur le risque pour la santé. D’autant plus que son caractère cancérigène est prouvé sur les animaux chez qui il provoque des tumeurs ou encore des modifications chromosomiques. Sur l’homme, des études in vitro on montré que le glyphosate endommageait l’ADN et augmentait le risque de développer certains cancers. Des preuves jugées insuffisantes pour qualifier le célèbre herbicide de « cancérogène certain ». En 1985, l’Agence de protection de l’environnement des Etats-Unis le classait déjà comme tel, avant de le rétrograder quelques années plus tard. En 2010, l’Agence pour la sécurité sanitaire de l’alimentation, de l’environnement et du travail pointait le glyphosate comme un des plus importants contaminants des eaux non potables.

Les populations les plus à risques sont les utilisateurs, à savoir les agriculteurs et les jardiniers. Ces derniers peuvent compter sur le soutien de Ségolène Royale qui, contrairement à son homologue du ministère de l’agriculture, a exprimé dimanche chez nos confrères de France 3 sa volonté d’en finir avec le Roundup, affirmant que « La France doit être à l’offensive sur l’arrêt des pesticides ». Pour l’instant, aucune législation ni échéance n’est fixée, mais le glyphosate est plus que jamais dans le viseur de la ministre de l’Ecologie.

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Une circulaire gouvernementale s’attaque au risque chimique associé aux conteneurs

Aujourd’hui, 90% des marchandises transportées par voie maritime le sont par conteneurs, et 80% du fret en général. Cela représente 13 millions de conteneurs dans le monde, soit 3 fois plus qu’en 2000. En Europe, ce sont près de 1 millions de conteneurs qui transitent chaque semaine. 

Pourtant, les conteneurs peuvent présenter un danger pour les hommes et femmes amenées à les manipuler à cause des émanations qui peuvent s’en échapper. Ces gaz ou nuages de particules proviennent soit de la fumigation soit directement des marchandises stockées.

D’après la circulaire publiée le 7 mai par le Ministère du travail, de l’emploi, de la formation professionnelle et du dialogue social, des polluants ont été clairement identifiés. Il s’agit de phosphine, de bromure de méthyle ou encore de dichlorométhane pour les gaz issus de fumigation, ainsi que de formaldéhyde, de toluène et de benzène pour les émanations de certaines marchandises. Autant d’agents chimiques connus pour leurs risques d’intoxication ou d’augmentation des risques de cancers ou encore de problèmes neurologiques. D’après la circulaire, « Plusieurs cas d’intoxications tout au long de la chaine de transport et de vente des marchandises 

ont été rapportés à bord des navires vraquiers et céréaliers, essentiellement en lien avec l’exposition à la phosphine (gaz de fumigation toxique par inhalation et extrêmement inflammable), en zone portuaire lors des interventions sur des conteneurs [et] dans les entrepôts de stockage, plateformes logistiques et entreprises marchandes lors des interventions sur des conteneurs et autres contenants de marchandises. » L’occasion de rappeler que le risque existe principalement lors des ouvertures des conteneurs, pendant des travaux de contrôle, les manœuvres chargement/déchargement et au cours des travaux de nettoyage et de dégazage. 

Pour s’assurer que toutes les mesures préventives sont prises, le gouvernement demande aux inspecteurs du travail de bien communiquer auprès des professionnels rencontrés et de faire remonter toute difficulté éventuelle à la Direction générale de travail.

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Le BTP, un secteur particulièrement exposé au risque chimique

Solvants, acides, bases, résines, huiles, produits de traitement… Les substances dangereuses sont légions dans le secteur du bâtiment. Les personnes y travaillant sont régulièrement exposés aux produits chimiques et donc potentiellement aux risques associés : contamination physique pouvant conduire à un problème de santé avec le développement de maladies à plus ou moins long terme, mise en danger face aux risques d’inflammabilité et/ou d’explosion, sans oublier la pollution de l’environnement. Les travailleurs du BTP doivent donc être particulièrement vigilants quand aux produits qu’ils manipulent, à la façon dont ils les utilisent et comment ils s’en protègent. 

La réglementation s’attache à protéger au mieux le secteur des risques chimiques en déployant tout un arsenal de mesures spécifiques qui vont plus loin que les principes généraux de prévention. Par exemple, depuis le 6 juin 2012 il est interdit d’utiliser des décapants de peinture avec un taux de dichlorométhane (DCM) supérieur à 0.1% en masse.

Malheureusement, une réglementation stricte n’est pas toujours suffisante et les acteurs du BTP doivent s’astreindre à plus de discipline. Si le port des équipements de protection individuels est bien intégré, l’utilisation du document unique (DU) n’est effective que pour 68% des industriels alors même qu’il est obligatoire ! Le professionnel doit transcrire par écrit l’évaluation des risques imposée par le code du travail. C’est un des fondements de la mise en place de plans d’actions de prévention adaptés et efficaces. 

Il est vrai que le risque chimique reste encore méconnu des acteurs du BTP. Pourtant, d’après l’enquête Sumer 2010 menée par la Direction du travail et la direction de l’animation de la recherche, des études et des statistiques (DARES), 61.5% des salariés du BTP sont exposés à au moins 1 produit chimique. Pire, un quart de ces travailleurs sont exposés pendant plus de 10h chaque semaine.

Pour aider les professionnels du secteur du bâtiment, l’Organisme professionnel de prévention du bâtiment et des travaux publics (OPPBTP) met à leur disposition un service d’évaluation du risque chimique. Cet outil entièrement gratuit est accessible en ligne: www.preventionbtp.fr

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

9 nouveaux pictogrammes illustrent désormais l’étiquetage des mélanges chimiques

Après les substances en 2010, c’est donc au tour des mélanges d’être touchés par la nouvelle réglementation classification, étiquetage et emballage n° 1272/2008 qui introduit de nouveaux pictogrammes de dangers. Le grand public va donc découvrir les dangers potentiels d’un produit grâce à des pictogrammes créés exprès pour cette réglementation CLP.

Ces visuels sont au nombre de 9 : Corrosif, Gaz sous pression, Nocif/Altération de la santé, Explosif, Toxique/mortel, Toxique/Nuisible pour la santé, Comburant, Inflammable, Dangereux pour l’environnement. Le dessin noir encadré d’un losange rouge supplante donc les anciens logos carrés sur fond jaune.

Si les nouveaux produits présentent d’office ces nouveaux pictogramme, les industriels ont 2 ans pour appliquer la nouvelle réglementation sur les produits déjà commercialisés, d’où une superposition des 2 systèmes d’affichage jusqu’à mai 2017.

Signification de chaque pictogramme

  • Dangers physique

Explosif : Le produit peut exploser au contact d’une flamme, d’une étincelle, d’électricité statique, sous l’effet de la chaleur, d’un choc ou de frottements 

Gaz sous pression : Le produit peut exploser sous l’effet de la chaleur (gaz comprimés, gaz liquéfiés et gaz dissous). Il peut causer des brûlures ou blessures liées au froid (gaz liquéfiés réfrigérés.

Inflammable : Le produit peut s’enflammer au contact d’une flamme, d’une étincelle, d’électricité statique, sous l’effet de la chaleur, de frottements, au contact de l’air ou au contact de l’eau en dégageant des gaz inflammables.

Comburant : Le produit peut provoquer ou aggraver un incendie. Il peut provoquer une explosion en présence de produits inflammables.

Corrosif : Le produit ronge. Il peut attaquer (ronger) ou détruire les métaux.

 

  • Dangers pour la santé

Dangereux pour la santé : Le produit peut empoisonner à forte dose. Il peut irriter la peau, les yeux, les voies respiratoires. Il peut provoquer des allergies cutanées. Il peut provoquer somnolence ou vertige.

Toxique ou mortel : Le produit peut tuer rapidement. Il empoisonne rapidement même à faible dose.

Corrosif : Le produit peut provoquer des brûlures de la peau et des lésions aux yeux en cas de contact ou de projection.

Très dangereux pour la santé : Le produit peut provoquer le cancer. Il peut modifier l’ADN. Il peut nuire à la fertilité ou au fœtus. Il peut altérer le fonctionnement de certains organes. Il peut être mortel en cas d’ingestion et de pénétration dans les voies respiratoires. Il peut provoquer des difficultés respiratoires ou des allergies respiratoires (ex. : asthme)

 

  • Dangers pour l’environnement

Dangereux pour l’environnement aquatique : Le produit pollue. Il provoque des effets néfastes (à court et/ou à long terme) sur les organismes du milieu aquatique.

Dangereux pour la couche d’ozone : Le produit détruit la couche d’ozone.

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Le séisme au Népal a déplacé le Mont Everest, selon une étude chinoise

Selon une étude de cette administration, l’Everest s’est élevé de 3 cm au cours des dix dernières années, à raison de 0,3 cm/an, tout en se déplaçant de 40 centimètres vers le nord-est, soit au rythme de 4 cm par an.

L’Everest « se déplace constamment vers le nord-est et le séisme lui a fait faire un petit bond dans la direction opposée », a déclaré le vice-directeur de l’Institut de géologie de l’administration chinoise chargée des séismes, Xu Xiwei, cité par le China Daily.

L’amplitude du mouvement est « normale », selon lui.

Situé à la frontière du Népal et de la Région autonome chinoise du Tibet, l’Everest constitue un bon point d’observation du mouvement des plaques tectoniques eurasienne et indienne, qui se rencontrent dans cette région hautement sismique, selon lui.

La deuxième séisme survenu au Népal le 12 mai, d’une magnitude de 7,5, n’a pas provoqué de déplacement particulier de l’Everest, selon l’étude, réalisée à l’aide d’instruments de mesure satellitaires.

Le double séisme a fait plus de 8.700 morts au Népal et a été particulièrement meurtrier pour les alpinistes dans l’Everest, avec au moins 18 morts sous des avalanches.

Des scientifiques ont établi que la vallée densément peuplée de Katmandou, située à quelque 80 kilomètres au sud-est de l’épicentre du séisme, a été déplacée d’environ deux mètres vers le sud sous le choc.

La ville-même de Katmandou, capitale du Népal, « a glissé de plus de 1,5 mètre en direction du sud et a été soulevée de près d’un mètre », a déclaré à l’AFP Madhu Sudan Adhikari, chef du département des études au ministère népalais de l’Administration territoriale.

« Nous avons étudié le coeur des zones affectées par le séisme et il y a eu un mouvement général (de déplacement) vers le sud », a-t-il indiqué.

La hauteur « officielle » de l’Everest est de 8.848 m, déterminée en 1954 par une étude indienne, mais elle peut varier de plusieurs mètres selon les critères retenus.

La Chine l’abaisse de quatre mètres en excluant la couche de glace et de neige du sommet, tandis que les Etats-Unis l’ont mesuré à 8.850 m en 1999 en utilisant une technologie GPS, une hauteur finalement retenue par la Société américaine de géographie.

La première mesure du Mont Everest remonte à 1856, près de 100 ans avant sa conquête en 1953 par le Sherpa Tenzing Norgay et l’alpiniste néo-zélandais Edmund Hillary.

La Chine et le Népal ont passé un compromis en 2010 sur la hauteur de l’Everest, le Népal le mesurant à 8.848 m en y incluant la couche neigeuse et la Chine à 8.844 m en excluant celle-ci.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Les pommes de la grande distribution produites à grand renfort de pesticides (rapport ONG)

L’ONG a analysé 85 échantillons –36 dans l’eau, 49 dans le sol–, prélevés dans les vergers de 12 pays européens parmi les plus gros producteurs de pommes, en ciblant ceux fournissant la grande distribution.

En moyenne, 75% des échantillons (78% pour le sol, 72% pour l’eau) « contenaient des résidus d’au moins un » des 53 pesticides identifiés.

« Au moins 70% des pesticides identifiés présentent une toxicité globale élevée pour la santé humaine et la faune sauvage », affirme Greenpeace, dénonçant ce « fardeau toxique » imposé par « la production industrielle ».

Le nombre de pesticides le plus élevé dans les sols a été détecté en Italie, en Belgique et en France.

Concernant l’eau, les pesticides sont les plus nombreux en Pologne, en Slovaquie et en Italie, selon le rapport.

Les pesticides les plus fréquemment retrouvés dans les sols sont le boscalid, « un fongicide présent dans 38% des échantillons », et le DDT (26% des échantillons).

Concernant les échantillon d’eau, les pesticides les plus fréquemment identifiés sont le boscalid (dans 40% des prélèvements) et le chlorantraniliprole, un insecticide lui aussi retrouvé dans 40% des échantillons.

Le rapport dénonce ce « cocktail de pesticides » et « montre la réalité de l’usage vraiment important, systématique et +multiproduits+ des pesticides dans la production agricole conventionnelle », a déclaré à l’AFP Anaïs Fourest, chargée de campagne agriculture à Greenpeace.

Greenpeace demande aux Etats membres de l’Union européenne de « mettre progressivement fin à l’utilisation des pesticides chimiques de synthèse dans l’agriculture » et de soutenir les « alternatives non chimiques pour lutter contre les parasites, en particulier les pratiques agricoles écologiques ».

La publication de ce rapport vise à « interpeller la grande distribution », comme la campagne « zéro pesticide » récemment lancée par l’ONG en France pour tenter de convaincre les six principales enseignes de la distribution française (Auchan, Carrefour, Casino, Leclerc, Intermarché, Magasins U) de soutenir les agriculteurs s’engageant à produire sans pesticides.

Des résidus de pesticides sont présents dans près de la moitié des denrées consommées en Europe, mais pour la plupart dans les limites légales et probablement sans effet sur la santé, a assuré en mars l’Autorité européenne de sécurité des aliments. Les pommes figurent parmi les fruits les plus chargés en résidus.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Reach/CLP : toute l’actualité de juin 2015

  • 15/06/2015

Autorisation et SVHC – La liste des substances candidates à autorisation (ou SVHC) a été mise à jour le 15 juin 2015. Elle comporte deux entrées supplémentaires ce qui porte à 163 le nombre total d’entrées sur cette liste. Les deux nouvelles entrées concernent :

– un mélange de diesters d’alkyles : 1,2-benzenedicarboxylic acid, di-C6-10-alkyl esters; 1,2-benzenedicarboxylic acid, mélange de décyl, hexyl et octyl diesters (N° CE: 271-094-0), (N° CE: 272-013-1), identifé pour ses proriétés toxiques pour la reproduction, lorsqu’il contient une quantité supérieure ou égale à 0,3% de dihexyl phthalate (N° CE: 201-559-5).

– 5-sec-butyl-2-(2,4-dimethylcyclohex-3-en-1-yl)-5-methyl-1,3-dioxane [1], 5-sec-butyl-2-(4,6-dimethylcyclohex-3-en-1-yl)-5-methyl-1,3-dioxane [2] [couvrant chaque stéréoisomères de [1] et [2] ou toute combinaison de ceux-ci], ce groupe de substances couvre notamment le karanal, utilisé principalement comme parfum. Ce groupe de substances a été identifié pour ses propriétés très persistantes et très bioaccumulables.

 

  • 09/06/2015

Restrictions – L’ECHA lance un appel à contribution sur les conclusions de deux rapports (dossiers annexe XV) indiquant qu’aucune restriction n’est requise pour le MDA (4,4’-diaminodiphénylméthane) et le musk xylène. Ceci fait suite à une évaluation menée sur ces deux substances qui remplissaient les conditions de l’article 69.2 de REACH (après la date d’expiration citée à l’article 58.c.i de REACH, l’ECHA examine si l’utilisation de cette substance dans des articles entraîne un risque qui n’est pas valablement maîtrisé).

 

  • 08/06/2015

Le règlement d’exécution n°864/2015 de la Commission est paru le 4 juin 2015. Il modifie le montant des redevances précédemment fixées par le règlement n°340/2008, modifié par le règlement n°254/2013, en application de REACH.

 

  • 01/06/2015

La Commission européenne a publié le 29 mai 2015 au Journal officiel de l’Union européenne, le règlement (UE) 2015/830, qui vient rappeler la mise en application à partir du 1er juin 2015 de l’annexe II du règlement 453/2010 (venu modifier l’annexe II de REACH).

Ce règlement précise également que les fiches de données de sécurité des substances et mélanges fournis avant le 1er juin 2015, ne doivent pas nécessairement être mises à jour à la date du 1er juin 2015.

Par Pierre Thouverez

Sources : 

La transition énergétique allemande met en péril le marché du carbone

Avec sa campagne nationale pour la transition énergétique, l’Allemagne espère devenir un leader mondial de la politique climatique. L’Allemagne veut donner l’exemple en fixant un objectif de réduction des émissions de CO2 de 40 % jusqu’en 2020, comparé au niveau de 1990.

« C’est une politique climatique extrêmement idiote », a estimé Joachim Weimann, professeur d’économie de l’environnement à l’Université de Magdeburg, lors d’une rencontre organisée par EurActiv le 11 juin à Berlin.

Un système d’échange de quotas d’émissions (ETS) existe déjà à échelle européenne, a-t-il rappelé, et c’est un moyen très rentable de réduire les gaz à effet de serre. L’objectif de 40 % du gouvernement est quant à lui accompagné d’un soutien considérable aux énergies renouvelables, a expliqué Joachim Weimann.

Un objectif de prévention national remet en cause le marché de quotas, ce qui n’a aucun sens, a-t-il insisté.

La promotion des énergies renouvelables n’a aucun effet sur la quantité actuelle des réductions de CO2, a expliqué Joachim Weimann. Elles ne font qu’augmenter le coût des réductions, déjà défini par la limite établie par le système d’échange de quotas d’émissions, a déclaré l’économiste de l’environnement. Au lieu de cela, le gouvernement allemand devrait créer de meilleures conditions pour l’ETS, a-t-il commenté, et se pencher davantage sur la recherche de nouvelles sources énergétiques. La transition énergétique n’aura pas lieu seulement avec les technologies existantes, a-t-il ajouté.

Étendre les centres ETS

L’Europe doit enfin prendre l’ETS au sérieux et faire face aux critiques infondées faites au système. « Lors du sommet pour le climat à Paris [COP21], l’Europe doit faire campagne pour un système d’échange de quotas d’émission international », a déclaré Joachim Weimann.

Des centres pourraient être mis en place là où ces systèmes existent déjà, a-t-il expliqué, comme en Europe. Puis, ces régions d’échanges de quotas d’émissions pourraient s’étendre graduellement pour inclure de nouveaux pays.

« Si l’Europe ne peut gérer cela, la COP21 échouera », a-t-il ajouté. L’objectif fixé par les pays du G7 lors du sommet de Schloss Elmau est « digne des travaux d’Hercule » pour les pays industrialisés.

La chancelière Angela Merkel a récemment douché les espoirs liés à un système mondial d’échange de quotas d’émission dans un avenir proche.

Étendre ce système au-delà de l’Europe serait « particulièrement efficace » pour créer « des conditions uniformes au niveau mondial », a-t-elle indiqué, mais cela a peu de chances d’arriver.

« La question du prix des émissions de CO2 sera surement discutée de façon théorique, mais j’ai bien peur qu’aucun accord ne soit conclu », a déclaré Angela Merkel.

« Les décisions du G7 sont un signal de départ pour une renaissance nucléaire ».

Lors de leur sommet en Bavière le 8 juin dernier, les chefs d’État et de gouvernement du G7 ont promis de remplir l’objectif des deux degrés. D’ici la fin du siècle, les pays industrialisés espèrent ramener leurs émissions de gaz à effet à zéro. D’ici à 2050, ils espèrent que leurs réductions d’émissions se trouveront dans la tranche haute des 40-70 %.

Le secteur industriel considère que ces objectifs sont utopiques et soulignent le fait que le processus de production comprend plusieurs étapes entrainant des émissions de CO2.

« Dans l’industrie des matériaux par exemple, il existe des procédés engendrant des émissions de CO2 que nous ne pouvons pas éliminer. Une décarbonisation totale signifierait une désindustrialisation », a martelé Franziska Erdle, PDG de l’Association de l’industrie du métal (WVM), qui comprend 660 entreprises de l’industrie du métal non ferreux.

Même si l’on envisage une décarbonisation de l’industrie énergétique, a-t-elle déclaré, une dépendance à l’énergie nucléaire finit par être nécessaire pour garantir un approvisionnement de base en électricité.

« Les décisions prises à Elmau sont le signal de départ pour une renaissance de l’énergie nucléaire », a-t-elle indiqué.

Pour la directrice de l’WVM, l’objectif national des 40 % est « irréaliste ». Selon elle, l’État investit des milliards d’euros dans les renouvelables et cela n’a qu’un effet marginal.

« Seuls 85 % des dépréciations dans l’industrie énergivore sont réinvesties. Si l’on continue ainsi, une partie de l’industrie quittera l’Allemagne. Pourtant, nous voulons participer activement à la transition énergétique », a-t-elle souligné.

Mêmes règles pour tous ?

Lors de la conférence climat à Paris, la communauté internationale doit s’accorder sur des objectifs contraignants pour tous les pays, a rappelé Franziska Erdle. « Ce dont nous avons besoin, c’est de règles communes à tous, et pas d’engagement en solo. »

Le gouvernement allemand s’accroche à son objectif de 40 %. En tant que leader de la politique climatique, il espère convaincre les pays nouvellement industrialisés et en développement de suivre l’exemple.

Les décisions prises par le G7 sont aussi importantes pour motiver la communauté scientifique et la sphère politique et économique à développer de nouvelles structures, a déclaré le ministre allemand de l’Environnement, Franzjosef Schafhausen.

« Il ne s’agit pas seulement de décarboniser, il faut aussi revoir les structures de production et de consommation », a-t-il expliqué.

« Nous essayons de faire en sorte que l’Allemagne conserve son industrie. À ce stade, il serait dommage que les entreprises jettent l’éponge maintenant car elles estiment qu’elles ne peuvent pas se plier aux objectifs climat au niveau national et européen », a affirmé le ministre

La protection du climat est une nécessité, a-t-il rappelé. « Aujourd’hui, nous avons le choix entre atteindre l’objectif des deux degrés ou accepter le coût de dégâts considérables », a-t-il souligné.

Source : Euractiv

Et aussi dans les
ressources documentaires :

  • Energie
  • Nouvelles technologies, énergies renouvelables et stockage

L’AIE prône la suppression des aides aux énergies fossiles d’ici 2030

L’Agence internationale de l’énergie (AIE) a publié des propositions concrètes permettant d’atteindre le pic des émissions liées à l’énergie dès 2020, dans une étude intitulée Energy and Climate Change.

Ce pic, auparavant envisagé pour 2030, serait un réel tournant dans la lutte contre le réchauffement climatique. Il pourrait être atteint sans sacrifier les perspectives économiques et de développement d’aucune région du monde, et son coût net serait inexistant, assure l’AIE.

Prendre les mesures nécessaires pour atteindre ce pic dix ans plus tôt que prévu constituerait un message fort lors de la Conférence de Paris (COP 21).

Pourtant, les contributions prévues déterminées au niveau national (CPDN) déjà annoncées ou pressenties, indiquent que les émissions liées à l’énergie devraient ralentir, sans pour autant atteindre leur maximum avant 2030. Un calcul facilement réalisable, puisque les pays responsables des deux tiers des émissions ont déjà annoncé officiellement leur contribution, ou au moins une estimation de celle-ci.

L’évaluation des CPDN par l’AIE montre ainsi que ces engagements vont dans le bon sens, mais n’atteignent pas le niveau nécessaire pour le « changement de cap majeur » qui doit avoir lieu pour limiter le réchauffement à deux degrés.

Cinq mesures

Pourtant, il suffirait aux gouvernements de prendre cinq mesures pour que le pic d’émissions soit atteint rapidement, pour que l’augmentation de la pollution au charbon et au pétrole ralentisse dans les cinq ans à venir et pour que les énergies renouvelables prennent plus d’importance :

  • la réduction progressive de l’utilisation des centrales énergétiques au charbon les moins efficaces et l’interdiction d’en construire de nouvelles ;
  • la suppression progressive des subventions aux énergies fossiles d’ici à 2030 ;
  • la réduction des émissions de méthane, un gaz à effet de serre plus dangereux que le dioxyde de carbone, dans la production de pétrole et de gaz ;
  • l’amélioration de l’efficacité énergétique dans l’industrie, la construction et le transport ;
  • l’augmentation des investissements dans les technologies renouvelables, qui doivent passer des 240 milliards d’euros de 2014 à 355 milliards d’ici 2030.

Si ces politiques étaient mises en œuvre, le pic du charbon serait atteint avant 2020 et le secteur déclinerait ensuite. La demande en pétrole augmenterait jusqu’en 2020 pour se stabiliser ensuite et les émissions de gaz à effet de serre liés à l’énergie dans leur ensemble atteindraient leur maximum vers 2020, estime l’AIE.

En outre, l’intensité énergique de l’économie mondiale et l’intensité de carbone de la génération d’électricité s’améliorerait de 40 % d’ici 2030. Le lien entre croissance économique et croissance des émissions en Chine serait rompu vers 2020, mais l’AIE prévoit que cette séparation aura lieu presque 30 % plus rapidement dans l’UE.

Cette rupture dépendra de l’amélioration des mesures sur l’efficacité énergétique, soulignent les spécialistes de l’AIE.

L’Union européenne a promis de réduire ses émissions de gaz à effet de serre d’au moins 40 % d’ici 2030, par rapport au niveau de 1990. Cette réduction permettrait un déclin des émissions de CO2 liées à la production d’énergie à un rythme presque deux fois plus rapide que celui que nous connaissons depuis 2000. Cela ferait de l’UE l’une des économies libérant le moins de CO2 au monde, selon les calculs de l’AIE.

Sans l’application des cinq mesures avancées, le lien entre la croissance économique mondiale et les émissions ne pourrait être rompu avant 2030, même s’il s’affaiblirait considérablement. L’économie mondiale devrait croître de 88 % entre 2013 et 2030, alors que les émissions de CO2 ne devraient augmenter que de 8 %.

En 2030, les renouvelables seraient la source d’électricité principale, mais le déclin des capacités de génération d’énergie au charbon serait insuffisant.

« Comme nous le montre à plusieurs reprise l’analyse de l’AIE, le coût et la difficulté liés à la réduction des gaz à effet de serre augmentent tous les ans, chaque minute est donc précieuse », estime Maria van der Hoeven, directrice exécutive de l’agence.

L’AIE a également fait quatre recommandations pour faire de la conférence de Paris une réussite à long terme. Pour ce faire, il faudrait :

  • fixer les conditions permettant d’atteindre rapidement le pic des émissions liées à l’énergie dans le monde ;
  • réviser les objectifs climatiques nationaux tous les cinq ans, afin d’encourager des mesures ambitieuses ;
  • traduire l’objectif climatique mondial en un objectif d’émissions sur le long terme ;
  • établir un processus d’évaluation des améliorations dans le secteur de l’énergie.

Les ONG demandent à la Commission de soutenir les renouvelables

Le Réseau action climat Europe (CAN), Greenpeace et WWF ont exhorté la Commission à proposer une séries de politiques fortes afin d’atteindre et de surpasser les objectifs de l’UE pour 2030 en matière d’énergies renouvelables.

Les ONG soutiennent l’établissement d’objectifs nationaux non-contraignants, avec des récompenses financières pour les pays allant au-delà des objectifs. Un tel système encouragerait les gouvernements à être plus efficaces en matière de renouvelables, soulignent-elles dans des recommandations fondées sur les recherches d’Ecofys.

« Le succès des renouvelables en Europe a été encouragé par des objectifs nationaux contraignants. Sans ces objectifs, il sera essentiel qu’un cadre applicable continue de promouvoir la croissance des énergies propres dans l’UE », souligne Imke Lübbeke, responsable des politiques sur les énergies renouvelables à WWF.

À l’heure actuelle, la Commission européenne tente de déterminer quelle serait la meilleure stratégie pour atteindre ses objectifs pour 2030 en la matière, dans le contexte de son nouveau cadre sur la gouvernance énergétique.

En octobre dernier, lors de l’accord sur les objectifs climatiques et énergétiques pour 2030, les dirigeants de l’UE ont accepté de supprimer les objectifs contraignants nationaux sur les énergies renouvelables et de les remplacer par un cadre de gouvernance. Selon cet accord, d’ici 2030, au moins 27 % de l’énergie dans l’Union proviendra de sources renouvelables.

Source : Euractiv

Et aussi dans les
ressources documentaires :

La désintégration qui confirme la théorie du modèle standard

Il n’aura pas fallu attendre longtemps après la remise en route, le 5 avril, du grand collisionneur de hadrons (Large Hadrons Collider – LHC) pour avoir de ses nouvelles. Quelques semaines en fait, avant que des chercheurs du CERN ne publient au sein de la revue Nature une étude décrivant leur observation de la désintégration d’un Méson B – une particule composite (entendre non élémentaire) – en deux muons.

Un phénomène qui ne se produit qu’exceptionnellement d’après les prédictions du modèle standard : quatre fois sur un milliard de désintégrations. 

C’est grâce à l’union des forces du CMS (Compact Muon Solenoid) et du LHCb (Large Hadron Collider Beauty) que cette désintégration très rare, a pu être observée pour la première fois après trois décennies d’efforts. Une étude publiée en 2013 relatait plus ou moins des résultats similaires, mais en dessous de la base des 5 sigmas pour obtenir le statut d’observation.

C’est désormais le cas puisque l’analyse conjointe des expériences CMS et LHCb atteint les 6,2 sigmas. Cette découverte, comme celle du Boson de Higgs, renforce donc le modèle standard, la théorie décrivant les interactions entre les particules élémentaires.

Vers une nouvelle physique

Les chercheurs espèrent grâce à ce genre de résultats ouvrir une voie « au-delà » du modèle standard et ainsi découvrir une nouvelle physique, telle que la supersymétrie, la théorie qui prédit une particule partenaire pour chacune des particules.

L’idée étant, comme le dit le CERN à propos de cette théorie, que « si nous nous posons encore toutes ces questions sur le fonctionnement interne de l’Univers, c’est peut-être parce que nous n’avons vu jusqu’à présent que la partie émergée de l’iceberg ».

Or, le but poursuivi par le LHC est justement de mieux comprendre l’Univers et ses nombreuses énigmes, notamment la nature de la matière noire. En ce sens, les futurs tests s’avéreront cruciaux!

Par Sébastien Tribot

Et aussi dans les
ressources documentaires :

Le Bourget: un Boeing 787 fait le spectacle avec un décollage quasi vertical

L’appareil, un 787-9 aux couleurs de Vietnam Airlines, a effacé une partie de la piste de décollage peu avant 15H30 avant de se cabrer dans une « chandelle » presque à angle droit et de grimper rapidement vers les nuages.

Cette figure, plus attendue d’un avion de chasse que d’un biréacteur long courrier, a provoqué des exclamations parmi le public –de professionnels– rassemblé pour cette 51e édition de la grande fête de l’aviation, au nord de Paris.

L’avionneur américain avait donné un avant-goût de cette démonstration en mettant en ligne sur YouTube une vidéo qui a été vue plus de 7,5 millions de fois en quatre jours.

Entré en service fin 2011, le 787 est un avion long courrier de nouvelle génération en matériaux composites, censé être plus économe en kérosène. Il a subi plusieurs revers au début de sa carrière, les plus sérieux en janvier 2013, avec deux cas graves de surchauffe de batteries lithium-ion. Les 50 exemplaires alors en circulation avaient été cloués au sol pendant plus de trois mois.

Le Dreamliner est toutefois un gros succès commercial pour Boeing, qui a enregistré 1.105 commandes fermes dont 283 ont été livrés. Les appareils sortent actuellement au rythme de 10 par mois des usines de l’avionneur, un chiffre qui devrait passer à 14 par mois à la fin de la décennie selon la firme aéronautique de Seattle.

tq/fka/it

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Japon: un robot humanoïde façon « Transformer » de 3,5 m de haut

Appelée « J-deite RIDE », cette créature, tout droit sortie de la science-fiction dont raffolent les Nippons, devrait être opérationnelle en 2017, ont annoncé les deux firmes tokyoïtes Brave Robotics et Asratec, une filiale du géant des télécoms SoftBank, qui a de grandes ambitions dans la robotique.

Un prototype avait déjà été présenté l’an passé au Japon.

« Il lui faudra moins de 10 secondes pour passer du statut d’humanoïde à celui d’automobile », assurent ses concepteurs,

J-deite RIDE sera capable de marcher à la vitesse de 10 km/h en mode bipède ou de rouler à 60 km/h en configuration véhicule dont la longueur sera de 3,8 mètres.

Cet engin de 700 kg pourra embarquer deux personnes et être piloté soit depuis le cockpit, soit depuis l’extérieur par télécommande sans fil.

Les Japonais ont une passion pour les robots en tout genre, qu’ont amplifiée les mangas et dessins animés avec des séries cultes comme Gundam, UFO Robot Grendizer (Goldorak) ou la série américaine Transformers qui a donné lieu à une collection de jouets homonymes.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

 

Royal demande aux jardineries de ne plus vendre en libre service le Roundup de Monsanto

« La France doit être à l’offensive sur l’arrêt des pesticides », a déclaré la ministre.

« Elle doit être aussi à l’offensive sur l’arrêt des pesticides dans les jardins et je vous annonce que j’ai demandé aux jardineries d’arrêter de mettre en vente libre le Roundup de Monsanto », le géant américain des semences et de l’agrochimie, a-t-elle dit.

Le Roundup avait été remis au centre de l’actualité après le classement en mars du glyphosate, son principe actif, comme cancérogène « probable chez l’homme », même si les « preuves sont limitées », par le Centre international de recherche sur le cancer (CIRC).

Dans un communiqué transmis à l’AFP, le groupe Monsanto explique ne pas avoir à ce stade « d’information réglementaire concernant une évolution de l’autorisation de mise sur le marché du désherbant Roundup ».

Il juge qu' »absolument aucune nouvelle donnée scientifique récente ne permet de remettre en cause cette autorisation » et estime que « dans les conditions recommandées d’utilisation figurant sur l’étiquette, le produit ne présente pas de risque particulier pour l’utilisateur ».

Monsanto précise enfin qu’il continue « à travailler activement avec les autorités compétentes pour assurer la ré-homologation décennale européenne du glyphosate ».

« Si l’interdiction de la vente aux particuliers des pesticides type Roundup était anticipée, par la loi ou par des accords volontaires, ce serait évidemment un bon signal », indique de son côté à l’AFP Matthie Orphelin, porte-parole de la Fondation Nicolas Hulot.

Quant à elle, la Fédération nationale des accidentés du travail et des handicapés (Fnath) a salué cette décision dans un communiqué, rappelant qu’elle «  »accompagne les victimes de ces produits ».

« S’il est évidemment indispensable de renforcer l’information dans les jardineries pour les amateurs, c’est également l’utilisation des pesticides en milieu professionnel sur lequel il convient de travailler pour éviter le développement de maladies professionnelles », écrit la Fnath.

Cette annonce de Ségolène Royal intervient alors que l’association de consommateurs CLCV avait interpellé en début de semaine les agences sanitaires françaises et européennes et le ministre de l’Agriculture sur le glyphosate, demandant notamment qu’il ne soit plus vendu en libre service aux jardiniers amateurs.

Dans la foulée, Ségolène Royal et le ministre de l’Agriculture Stéphane Le Foll avaient indiqué dans un communiqué jeudi qu’à compter du 1er janvier 2018, l’accès aux produits phytosanitaires pour les jardiniers amateurs ne pourra se faire que « par l’intermédiaire d’un vendeur certifié ».

« L’acheteur amateur bénéficiera ainsi d’un conseil renforcé systématique lors de la vente de ces produits avec une information sur les interdictions à venir et les alternatives », selon ce communiqué.

Stéphane Le Foll avait toutefois indiqué auparavant ne pas vouloir interdire le glyphosate, l’herbicide le plus utilisé en France.

jbo-sd/ei

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

USA: la voile solaire de Planetary Society s’est déployée avec succès

Ce succès, selon les organisateurs, ouvre la voie à une nouvelle expérience plus ambitieuse en 2016: le vol d’un engin propulsé uniquement par les vents solaires.

L’objectif de cette mission est de créer des voiles pouvant être poussées à travers l’espace par les rayonnements solaires, une façon économique mais lente de voyager dans l’espace.

« L’image de la caméra confirme que la voile s’est déployée, ce qui était la dernière étape de cette mission destinée à préparer le vol d’un engin propulsé par une voile solaire en 2016 », précise Jason Davis sur le site de la Planetary Society, co-fondée par le célèbre astronome Carl Sagan en 1980.

Financé par des membres de cette association, ce projet d’un coût de 4,3 millions de dollars a permis de tester des logiciels, des systèmes mécaniques et des équipements de communications ainsi qu’un matériau pour la voile, qui seront utilisés pour la propulsion de l’engin spatial.

La voile objet de ce test est formée de quatre panneaux dont la superficie totale est de 32 mètres. Epaisse de seulement 4,5 microns, elle est formée de plusieurs couches de Mylar, un polymère fin et très léger, qui réfléchit la lumière.

Des engins spatiaux propulsés par des voiles solaires pourraient être utilisés pour suivre des astéroïdes et des comètes ou faire des observations des tempêtes solaires, selon les astronomes.

Lightsail a été lancée le 20 mai à bord d’une fusée Atlas 5 depuis Cap Canaveral en Floride, qui transportait aussi l’avion spatial de l’US Air Force, un programme ultra secret.

Un dysfonctionnement du logiciel avait entraîné une perte de contact avec le satellite mais les communications ont pu être rétablies le 31 mai avant de retomber en panne pendant plusieurs jours. Une fois un problème de batterie réparé, la Planetary Society a pu transmettre la commande de déploiement de la voile, qui a été confirmée mercredi par les images d’une caméra.

LighSail, dont l’orbite se réduit graduellement, devrait retomber dans l’atmosphère ce week-end où elle sera détruite.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Les abeilles tombent en masse, mais pourquoi ?

Aux États-Unis, un rapport rédigé par l’organisme Bee Informed Partnership a fait état d’une situation accablante : entre avril 2014 et avril 2015, 42% des colonies présentes là-bas sont mortes, laissant bon nombre de ruches vides. La chose est d’autant plus grave qu’elle n’est pas nouvelle et que, comme chaque année depuis 2006, ces pertes sans précédent sont jugées trop importantes pour être récupérées. 

 

En cause, le syndrome d’effondrement des colonies d’abeilles, ce « phénomène inexpliqué de mortalité anormale et récurrente des colonies d’abeilles domestiques » un peu partout dans le monde. On ne l’explique pas tout à fait, mais il pourrait être l’effet combiné de maladies, de la pollution (de la terre et de l’air), des pesticides (particulièrement les néonicotinoïdes qui auraient pour effet de désorienter les abeilles), des parasites (comme l’acarien Varroa Destructor), des variations climatiques, des mites tueuses se nourrissant des foetus d’abeille… La mite asiatique serait particulièrement meurtrière. Ce qui commence à faire beaucoup d’ennemis pour ces pollinisateurs fragiles.

 

La disparition subite et somme toute brutale des abeilles sauvages – il n’en reste plus que 20 000 dans le monde et 1 000 en France si les chiffres sont encore justes – a de quoi inquiéter. Différents états ont décidé de mettre en place des actions pour endiguer ce phénomène mais tous n’optent pas pour les mêmes réglementations. Ainsi, les États-Unis utilisent encore trois grandes classes de pesticides néonicotinoïdes alors que l’Europe les a interdits. En France, la ministre de l’écologie Ségolène Royal a présenté récemment en conseil des ministres un plan national nommé « France, terre de pollinisateurs » qui prévoit entre autres mesures l’installation de 5 000 « gîtes » à insectes, sur les bords de routes notamment, de promouvoir les bonnes pratiques, de faucher tardivement les 12 000 kilomètres du réseau routier appartenant encore à l’état, de retrouver une biodiversité suffisante pour permettre aux abeilles de se nourrir convenablement et garder de bonnes défenses immunitaires…

 

Qu’arriverait-il si l’abeille venait à disparaître complètement ? « L’homme n’aurait-il plus que quatre années à vivre ? ». À cette fameuse question que l’on attribue semble-t-il injustement à Einstein, point de réponse sûre, mais il est admis que le danger encouru est grand tant les abeilles jouent un rôle capital. Entre 70 et 80 % des plantes à fleurs seraient pollinisées par cet insecte. La quantité et la qualité des fruits produits en découlent également. La fin du monde évoquée ici et là paraît donc bien exagérée. En revanche, leur disparition induirait clairement de gros changements dans notre consommation et donc notre mode de vie ainsi que sur le coût de certains produits alimentaires. Enfin, si les intérêts sont avant tout écologiques, il ne faut pourtant pas oublier la dimension économique qui rentre indéniablement en jeu. L’INRA a estimé la valeur économique de la pollinisation des abeilles, dans le monde, à 153 milliards d’euros. De fait, leur disparition vertigineuse implique un manque a gagner non négligeable.

 

Par Sébastien Tribot

Objets connectés : à quoi ressemblera le futur ?

Un bracelet, un frigo, une télévision, une voiture, des interrupteurs, une balance, des lampadaires, des poubelles, des feux rouges connectés… tous ces objets, autrefois creux, inertes, et désormais « intelligents » gardent encore un petit côté “gadget”.

Mais selon France Stratégie, ces appareils “communicants”, qui constituent ensemble “l’Internet des objets” (IdO ou IoT), et qui rendent votre maison ou votre ville intelligente, pourraient être au nombre de 80 milliards, dans le monde, en 2020, contre 15 milliards actuellement.

Rien qu’en France, selon Cisco, le nombre des objets connectés devrait passer de 3,1 millions en 2014, à 16,7 millions en 2019. “Il y a un écosystème très actif ici, avec des objets conçus dans le cadre de la “French Tech”, qu’il s’agisse de drones ou de balances connectées, voire de voitures intelligentes”, indique Lionel Janin, expert de l’IdO chez France Stratégie. Ainsi, des entreprises comme Netatmo, Parrot, Withings, ou Sigfox, ont déjà acquis une réputation internationale.

Selon l’expert de cette institution (aussi appelée Commissariat général à la stratégie et à la prospective) rattachée au Premier ministre, les voitures, “auront en interne de plus en plus de capteurs, pour renseigner sur l’état de la voiture, pour détecter l’environnement du véhicule, ou pour interagir avec le réseau”, les rendant “autonomes”, à l’instar des Google Cars (voitures sans conducteurs).

Ainsi, nos véhicules sont-ils de plus en plus connectés, et selon ABI Research, 60% des véhicules à travers le monde seront connectés à Internet en 2017, ce nombre devant augmenter de 11 % chaque année.

Villes intelligentes et objets de mesure

France Stratégie liste dans sa dernière étude, les applications de l’IdO. D’abord, dans l’espace public, avec des villes intelligentes (smart cities). Ainsi, “Plusieurs villes (Songdo en Corée du Sud ; I-City en Malaisie) déploient des technologies de l’Internet des objets pour répondre aux défis énergétiques et d’aménagement urbain.

Dans ces villes, l’éclairage, le trafic, la collecte des déchets, la qualité de l’air, la distribution des fluides sont analysés et optimisés en permanence”, écrit l’organisme. Et d’ajouter que “la gestion des services publics se conçoit de manière plus prédictive et automatisée”, et qu’ainsi, “les transports deviennent plus fluides, l’éclairage urbain optimisé et l’exposition à la pollution moindre.”

Mehdi Chouiten, data scientist chez Parkeon, une société qui conçoit des horodateurs connectés permettant de prédire l’emplacement de stationnement le plus proche qui “sera bientôt libre”, grâce à l’apprentissage automatique et à l’analyse de données, indique : “au delà, l’IdO devrait chambouler nos vies, dans d’autres secteurs comme celui de la santé, avec les bracelets, les podomètres ou les montres connectées, qui intéressent déjà les compagnies d’assurance, car elles permettront de mieux connaître nos habitudes et notre état de santé”.

Pour Lionel Janin, “il y a un effet de mode autour de ces objets, mais à terme, ils devraient faire comme le smartphone, en devenant indispensables”. En croisant les données, ces appareils de mesure finiront par en dire long sur nous. “Enormément de données sont captées au plus près de l’individu via l’IdO, et ces données devraient chambouler nos vies, de nos déplacements à notre santé”, remarque Lionel Janin.

“Donner à l’utilisateur un contrôle sur ses données”

Nombre de plateformes de services, comme Google Fit et Apple HealthKit, sont intéressées par la possibilité de monétiser ces données de santé et de bien-être, d’une grande valeur, et tentent à l’heure actuelle de les agréger pour les revendre à des publicitaires, à des chercheurs, voire à des laboratoires pharmaceutiques. “Ces services sont capables d’avoir une connaissance très fine des utilisateurs : en ayant accès à la courbe de pas, de poids, et aux activités sportives de l’individu sur plusieurs mois ou années, cela permet de connaître son mode de vie et son état de santé potentiel, actuel ou futur”, note Olivier Desbiey, chargé d’études prospectives à la CNIL.

Ainsi, l’Internet des Objets pose-t-il la question des risques liées à la circulation et à l’échange des données brassées. “Accumulées, ces nombreuses données anonymes permettent de vous identifier. C’est une question qui doit être prise en compte, pour que ce secteur se développe, car si les gens n’ont pas suffisamment confiance ds le contrôle qu’ils ont sur ces objets, peut être ne les adopteront-ils pas”, note Lionel Janin.

L’expert ajoute que “ce qui va jouer dans les années à venir, c’est la capacité des fabricants à donner aux utilisateurs un droit de regard et un contrôle sur leurs données.” Pour “accompagner la confiance du citoyen, des adaptations sont nécessaires”, conclut-il, incitant notamment les collectivités territoriales à “prendre des initiatives, notamment autour des données ouvertes”.

“Dépasser le développement en silo”

Ainsi, les pouvoirs publics ont-ils tout intérêt à développer dans l’avenir des “plateformes ouvertes”, où seraient “rassemblées et partagées les applications développées, et respectant des standards de protection des données personnelles”, explique l’étude de France Stratégie.

Conclusion de l’organisme : “les moyens financiers mis en oeuvre aux États-Unis ou en Chine sont considérables. De nombreuses actions ont déjà été engagées en France (plan “objets connectés”, pôles de compétitivité, meilleur accès des startups au financement, promotion du label FrenchTech), mais ces différentes actions doivent être amplifiées et coordonnées, pour dépasser les logiques de développement en silo”.

Objectif final : “assurer le développement d’un IdO ouvert, interopérable et répondant aux besoins en matière de protection des données personnelles et de sécurité.” En 2020, selon le cabinet IDC, l’Internet des objets (IdO ou IoT) devrait peser 1700 milliards de dollars. Soit une croissance annuelle moyenne de 16,9 %. En 2014, ce marché devrait représenter 655,8 milliards de dollars.

Par Fabien Soyez

Et aussi dans les ressources documentaires :

Le Prix de l’inventeur européen met à l’honneur des technologies innovantes

Un tandem franco-autrichien, une chercheuse néerlandaise, un chercheur français ainsi qu’une équipe japonaise et un scientifique suisse ont été distingués pour des travaux ayant « contribué au progrès technologique et social, ainsi qu’à la croissance économique ».

Les inventions primées ont fait l’objet d’un dépôt de brevet auprès de l’OEB, qui décerne depuis dix ans ce prix européen de la recherche et de l’innovation.

« Les brevets facilitent l’innovation, et l’innovation est le moteur de la compétitivité, du développement économique et, in fine, de la création d’emplois », a déclaré à l’AFP le président de l’OEB, Benoît Battistelli.

Mais c’est aussi « une source de solutions pour les grands problèmes sociaux auxquels nous sommes confrontés », a-t-il ajouté, en citant la santé, le changement climatique et l’environnement.

Le Prix de l’inventeur européen souhaite apporter de la visibilité à « des hommes et des femmes qui ont eu des idées, qui ont su les transformer en inventions et à partir de ces inventions, créer des activités, des solutions concrètes », a expliqué M. Battistelli

Plus de 400 dossiers ont été reçus cette année par l’OEB qui en avait présélectionné 15 pour les 5 différentes catégories.

Chercheur au CNRS, Ludwik Leibler, s’est imposé dans la catégorie « Recherche » pour l’invention du « vitrimère », un matériau façonnable à volonté, présenté comme révolutionnaire qui combine « la solidité de plastiques thermoformés à la malléabilité du verre chauffé » et qui « a suscité l’intérêt de nombreux secteurs », selon l’OEB.

Dans la catégorie « Industrie », le Français Philippe Maugars et l’Autrichien Franz Amtmann et leur équipe de la société néerlandaise NXP Semiconductors ont été récompensés pour leur contribution au développement de la « communication en champ proche » (Near Field Communication, NFC). Cette technologie permet le transfert de données entre deux unités mobiles.

La Néerlandaise Laura van’t Veer a été distinguée dans la catégorie « PME » pour un test génétique des tissus qui permet aux femmes atteintes d’un cancer du sein en stade précoce, d’obtenir un diagnostic fiable sur le risque de rechute ou les chances de guérison sans chimiothérapie. Plus de 40.000 femmes en ont déjà bénéficié.

Au titre des « Pays non européens », le Prix a été décerné aux Japonais Sumio Ijima, Akira Koshio et Masako Yudasaka pour le développement des nanotubes, une technologie qui rend les ordinateurs plus rapides et les pièces de l’aéronautique plus solides. Les nanotubes en carbone présentent un important potentiel industriel, selon l’OEB.

Le chercheur suisse Andres Manz, qui a inventé de « laboratoire sur puce », un procédé permettant de réaliser des « travaux de laboratoire en miniature avec des résultats en quelques secondes » a été couronné au titre de la catégorie « Oeuvre d’une vie ».

Enfin, l’Australien Ian Frazer et son collègue chinois Jian Zhou, décédé en 1999, ont remporté le Prix « populaire », pour le développement du premier vaccin contre le cancer du col de l’utérus. Ce prix, créé il y a 3 ans, est décerné par les internautes et a réuni cette année 47.000 votants, deux fois plus que l’an dernier.

« Chaque année, nous essayons d’accroître la visibilité » du Prix de l’inventeur européen et « si je force un peu les choses, je dirais que notre objectif ce serait d’être le Nobel de l’innovation », a ajouté Benoît Battistelli.

sbo/fpo/jag

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Pourquoi l’atmosphère du Soleil est beaucoup plus chaude que sa surface

Une couche située sous la surface du Soleil, qui se comporte comme une casserole en ébullition, créerait un champ magnétique à petite échelle comme réserve d’énergie qui, une fois sorti de l’étoile, chaufferait les couches successives de l’atmosphère solaire via des réseaux de racines et de branches magnétiques1, telle une mangrove. Ce chauffage de l’atmosphère, impliqué dans la création du vent solaire qui remplit l’héliosphère, concernerait de nombreuses autres étoiles. Ce résultat parait dans la revue Nature du 11 juin 2015.

La température du Soleil, qui atteint environ 15 millions de degrés en son cœur, décroit progressivement pour chuter à 6000 degrés à sa « surface ». Elle devrait alors logiquement continuer à décroitre dans l’atmosphère. Pourtant, elle atteint environ 10 000 degrés dans la chromosphère et plus d’un million de degrés  dans la couronne. Quelle est la source d’énergie capable de fournir et de maintenir l’atmosphère à  de telles températures ? Une question qui représente un des grands problèmes de l’astrophysique depuis environ un siècle, d’autant plus importante qu’elle est associée à la source du vent solaire qui parvient jusqu’à  la Terre. 

S’il paraissait acquis qu’une partie de l’énergie de l’intérieur du Soleil parvenait à atteindre ces couches externes, le mécanisme restait mystérieux. Ces chercheurs se sont concentrés sur  le champ magnétique à  petite échelle, d’aspect  « poivre et sel » en dehors des taches.

Des modèles numériques performants et les calculateurs du Centre de physique théorique (CNRS/École polytechnique) et de l’Idris du CNRS ont permis d’effectuer une simulation pendant quelques heures à partir d’un modèle constitué de plusieurs couches, l’une interne et les autres atmosphériques. Les chercheurs ont  alors constaté que la fine couche sous la surface du Soleil se comporte en fait comme une « casserole » de petite épaisseur contenant un plasma2 en ébullition, chauffée par le bas et formant des « bulles » associées à  des granules. Ce potage de plasma en ébullition est alors responsable d’un phénomène  dynamo qui amplifie et maintient le champ magnétique : ce dernier, en sortant vers la surface, prend une apparence poivre et sel et forme des concentrations moins nombreuses, de plus grosse taille, de durée de vie plus longue et baptisées « méso-taches » solaires, le tout concordant avec les observations.

Les scientifiques ont également découvert qu’une organisation semblable à une mangrove apparait autour des méso-taches solaires : des « racines chromosphériques » enchevêtrées plongent entre les granules, entourant des « troncs d’arbres magnétiques » qui s’élèvent dans la couronne  et sont associés au champ magnétique à plus grande échelle.

Leurs calculs ont montré que, dans la chromosphère, le chauffage de l’atmosphère est assuré par de multiples micro-éruptions survenant dans les racines de la mangrove porteuses de courant électriques très importants,  au rythme des « bulles » issues du plasma en ébullition. Ils ont également découvert que des évènements éruptifs plus importants et moins nombreux existent au voisinage des méso-taches mais ne permettent pas de chauffer la couronne plus haute et à  plus grande échelle.

Cette dynamique éruptive engendre alors des ondes « magnétiques » le long des troncs  un peu comme un son sur une corde pincée, en se propageant le long de celle-ci. Ces ondes transportent alors l’énergie vers la couronne plus haute et leur dissipation progressive chauffe celle-ci. Leurs calculs montrent aussi qu’en retombant vers la surface, la matière éjectée  forme des tornades, elles-mêmes observées. Des  jets de plasma fins, proches de ces arbres, sont également produits et représentent les spicules3 découverts récemment. Autant de phénomènes, observés jusqu’ici individuellement et non expliqués, qui sont divers canaux d’énergie issus du plasma bouillonnant, et non la source unique invoquée.

Les chercheurs ont constaté que le flux d’énergie de leurs mécanismes correspond  à celui requis  par  toutes les études pour maintenir le plasma de l’atmosphère solaire à sa température : 4 500 W/m2 dans la chromosphère et 300 W/m2 dans la couronne.

 

© Tahar Amari / Centre de physique théorique et S. Habbal / M. Druckmüller.
La surface solaire et son champ magnétique majoritairement « poivre et sel », en dehors des régions des grandes taches solaires, à partir des données du satellite SDO de la NASA

© Tahar Amari / Centre de physique théorique.
Modèle complet illustrant la fine casserole de plasma en ébullition, proche de la surface solaire, responsable de la génération du champ magnétique poivre et sel en surface (bleu-rouge), qui en émergeant crée toute une « végétation » rappelant une mangrove, et permettant le chauffage des divers couches de l’atmosphère solaire.
 
 
© Tahar Amari / Centre de physique théorique
Zoom sur une petite portion de la surface du Soleil modélisée et illustrant la température des cellules de granulation obtenue à la surface de la fine casserole de plasma en ébullition (chaud/clair au centre des cellules et froid/sombre au bord) située sous la surface du soleil et responsable de la création du champ magnétique de petite échelle en surface.
 
Source : CNRS

 

Et aussi dans les
ressources documentaires :

Forte présence de substances chimiques dans l’air des logements

Ces substances chimiques, appelées composés organiques semi-volatils, sont suspectées d’avoir des effets sur les systèmes nerveux, immunitaire et hormonal, mais les travaux pour établir les niveaux de concentration qui seraient toxiques sont toujours en cours.

La campagne de mesures menée « apporte des premiers éléments utiles pour évaluer les risques sanitaires potentiels liés à ces substances », selon l’OQAI, qui indique que ces composés sont « omniprésents » avec « des concentrations très variables selon les substances ».

Les composés organiques semi-volatils sont issus d’objets contenant des plastiques (revêtements de sol, ordinateurs, câbles, meubles, textiles, etc.), de produits d’entretien (lessive, détergents) et cosmétiques (parfums, hygiène corporelle), d’insecticides (traitement des plantes, anti-parasitaires pour les animaux) ou encore de résidus de combustion (tabac, encens, chauffage au bois).

Dans les poussières au sol, 32 composés sur 48 substances recherchées ont été détectés dans plus d’un logement sur deux (67%).

Dans l’air, 35 des 66 substances recherchées étaient présentes dans plus d’un logement sur deux (53%).

« Certains de ces composés organiques semi-volatils, notamment les phtalates (plastiques souples) et les hydrocarbures aromatiques polycycliques (résidus de combustion), sont détectés dans quasiment tous les logements, à la fois dans l’air et dans les poussières », précise l’OQAI.

Si l’ensemble de la population est confrontée à ces substances chimiques, également présentes dans les bureaux et les lieux publics, « les jeunes enfants, qui portent fréquemment leurs mains à la bouche, y sont particulièrement exposés », souligne l’OQAI.

D’ailleurs l’Observatoire conduit actuellement une campagne de mesures similaires dans les écoles.

L’Agence nationale de sécurité sanitaire (Anses) travaille de son côté à l’établissement d’une liste des composés les plus nocifs.

Face à ces concentrations potentiellement dangereuses de substances chimiques dans les logements, les professionnels de santé rappellent qu’il est essentiel d’aérer quotidiennement pour renouveler l’air.

L’aération des logements, mais aussi des bureaux ou de tout lieu fermé, est d’autant plus essentielle qu’une majorité de la population passe l’essentiel de son temps à l’intérieur.

Selon l’OQAI, des travaux spécifiques sont en cours sur les relations entre les concentrations de substances chimiques dans les logements et le taux de renouvellement de l’air, ainsi que les caractéristiques des constructions, les habitudes des occupants ou les niveaux socio-économiques des ménages.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Futur en Seine 2015 : la foire à l’innovation

Pour son sixième anniversaire, le festival du numérique Futur en Seine s’apprête à réinvestir le quartier parisien des Arts et Métiers (un symbole qui ne doit rien au hasard), pour y implanter son désormais célèbre et très couru « Village des Innovations », un salon où seront exposés près de 150 innovations numériques françaises et internationales, ainsi que de nombreux projets et prototypes, alliant le plus souvent technologies, services et design. Le festival, dont l’ambition avouée est de « montrer qu’il existe véritablement une économie innovante active et ancrée dans la réalité avec des applications au service de chacun », a su s’imposer d’année en année comme un événement absolument incontournable pour les professionnels du numérique, comme pour le grand public.

Quittant pour la seconde fois la nef douillette du CENTQUATRE, c’est le CNAM (Conservatoire National des Arts et Métiers, seul établissement d’enseignement supérieur français entièrement dédié à la formation des adultes), le musée des Arts et Métiers et la très hype Gaîté-Lyrique qui reprennent cette année encore le flambeau en accueillant du 11 au 14 juin, ce fameux Village des Innovations. Les projets exposés seront répartis selon neuf thématiques : villes ingénieuses, santé connectée, maison autonome, savoirs partagés, nouveau tourisme, commerce augmenté, expériences immersives, outils créatifs et quotidien responsable.

Les jeux vidéos seront également à l’honneur, avec la présentation à la Gaîté-Lyrique du Cnam-Enjmin, première école du jeu vidéo dans l’hexagone.

Petit tour d’horizon – non exhaustif – des forces en présence dans ce véritable « village ».

Mother, la domotique ludique (CNAM)

Nouveau joujou du père de Nabaztag (le fameux lapin connecté), la « Sen.se Mother » permet de vivre la vie connectée que l’on désire, aidée dans sa mission par la ribambelle de « Motion cookies », un jeu de quatre petits capteurs polyvalents et paramétrables. Que l’on désire se concentrer sur la santé, le confort ou encore la sécurité du foyer, la « Sen.se Mother » peut constituer un appui non négligeable, et un premier pas ludique dans l’univers de la domotique, pour 290 euros.

Petits bémols néanmoins : le protocole propriétaire, le prix des quatre cookies supplémentaires (155 euros) ainsi que l’échec de Nabaztag, pourront en refroidir quelques uns.

Deepki, moteur d’audits énergétiques virtuels (CNAM)

Deepki est un moteur d’audits énergétiques virtuels permettant de valoriser les informations déjà à disposition (données patrimoniales, énergétiques et d’activité existantes des parcs de bâtiments) afin de piloter une transition énergétique en douceur sur les grands parcs immobiliers. Les gestionnaires de ces grands parcs doivent en effet faire face à un casse-tête : la difficulté de mener à bien un projet d’efficacité énergétique sur un vaste ensemble de bâtiments existants, avec l’obligation de réaliser un audit énergétique.

Deepki propose une solution à distance et à moindre coût, grâce à ses algorithmes de consolidation des données (« Data-Integration »), ses algorithmes purement statistiques (« Data-Analytics »), son système expert et prédictif (« Predictive Engine ») qui viennent puiser, allègrement, dans le Big Data. Le modèle de ce moteur d’audits n’est pour le moment pertinent qu’au sein de l’Union Européenne.

« Bike assistant », le tableau de bord idéal (CNAM)

Le projet Asphalt Lab se propose de servir d’intermédiaire intelligent entre le cycliste et son smartphone : avoir un accès aisé à ses données de course (vitesse, distance, durée du trajet), conserver Google Maps à portée de main, ainsi que les fonctionnalités primaires d’un téléphone (SMS et appels, si l’on ne désire pas débrancher). Le « Bike Assistant » permet d’utiliser son smartphone à la carte, et pourrait bien s’inscrire dans une tendance lourde chez les trentenaires citadins : profiter de la technologie, sans qu’elle n’en devienne envahissante pour autant.

Simple et intuitive, la navigation au pouce permet de jongler sans douleur entre les informations, mais uniquement en cas de besoin. Les concepteurs (Grégoire Lanaud, Frédéric Martin et Raphaël Chabaud) l’ont voulu facile à clipser grâce à son support magnétique, mais également non intrusive et assez peu énergivore puisqu’il s’appuie sur la technique de transmission « Bluetooth Low Energy », consommant dix fois moins tout en offrant un débit équivalent au Bluetooth standard.

Busit, la plate-forme d’interconnexion domotique (Gaîté-Lyrique)

Faciliter la communication entre nos objets connectés, certains services Internet et des applications Web : telle est la mission de la plate-forme Busit, qui offre la possibilité d’élaborer des scénarios domestiques en utilisant de manière optimale les objets connectés et les services associés existants, afin d’être accompagné de manière idoine tout au long de sa journée, simplifiant ainsi notre quotidien. Les informations circulant sur cette plate-forme d’interconnexion sont protégées – elles sont chiffrées, mais également signées par une clé spécifique à chaque utilisation.

Biobots : imprimer en 3D avec des cellules vivantes

Présentée comme étant le futur de la médecine régénérative, Biobots est une « bio-imprimante » 3D capable de réaliser des tissus vivants fonctionnels et à l’envi. L’encre utilisée par Biobots peut contenir n’importe quel type de bio-matériaux, avec en tête des cellules vivantes, et permettrait de créer de toute pièce des échantillons tissulaires. Ces échantillons pourraient servir, dans un premier temps, de matière première idéale destinée aux tests cliniques habituellement réalisés sur des animaux. A partir des cellules appartenant à un individu particulier, des tests spécifiques de tolérance pourront également être conduits, afin de mettre en place un traitement personnalisé sans faire courir le moindre risque au patient.

Bionic bird, le drone marseillais plébiscité (CNAM)

Dernier de cette petite liste, la superstar des drones biomimétiques tricolores, le Bionic Bird. Digne héritier d’une famille à qui l’on doit déjà le fameux Tim Bird (succès des années 60… à nos jours, où il continue à bien se vendre en Chine), l’ingénieur marseillais Edwin Van Ruymbeke a conçu ce drone ultra-léger capable de voler à près de 20 kilomètres heure. Pilotable à l’aide d’un smartphone (après avoir téléchargé l’application dédiée) de manière très intuitive, il suffit d’incliner le téléphone à droite ou à gauche pour voir le petit bolide de 9,3 grammes emprunter cette même direction, avec une portée d’une centaine de mètres. Silencieux, il dispose d’une autonomie relativement faible (à peine 8 minutes…), mais peut se recharger en seulement 12 minutes, une fois posé sur son chargeur nomade en forme… d’œuf, évidemment.

  • Petit clin d’œil : le vol du Bionic Bird semble suffisamment réaliste pour aller jusqu’à leurrer un oiseau de proie, qui décide de le prendre en chasse.

Le Village des Innovations, du 11 au 14 juin au CNAM, au Musée des Arts et Métiers et à la Gaîté-Lyrique, dans le cadre du festival Futur en Seine.

Par Moonzur Rahman

Et aussi dans les
ressources documentaires :

Curiosity : réparations à (très grande) distance des instruments ChemCam et SAM

L’instrument ChemCam récupère sa fonction de mise au point rapide. Il y a six mois, les équipes en charge des opérations impliquant le JPL et le LANL  mais aussi les équipes françaises du CNES, du CNRS et des universités UPMC et Paris-Sud (3), s’étaient retrouvées confrontées à la défaillance d’un composant. Elles avaient alors dû se résoudre à basculer temporairement d’un mode de mise au point automatique à un mode manuel beaucoup plus lent, afin de poursuivre les analyses avec ChemCam. Mais en parallèle, elles s’employaient à développer une solution plus satisfaisante qui vient d’être installée à bord avec succès. Il s’agissait de réécrire intégralement le système d’exploitation de l’instrument afin d’utiliser les images prises par ChemCam pour déterminer automatiquement la mise au point pour la focalisation du laser. Le 5 mai dernier, le nouveau code a été chargé à 350 millions de kilomètres de la Terre. Le 11 mai, l’analyse des premières données a révélé que la réparation était un remarquable succès ; l’instrument ChemCam est redevenu pleinement opérationnel, comme au premier jour. Il totalise déjà près de 250 000 tirs laser sur la planète rouge. 

L’instrument SAM a lui aussi connu quelques mésaventures en ce début d’année, en raison de la répétition des analyses et du vieillissement naturel de ses composants. La colonne de chromatographie numéro 5, la plus utilisée à la surface de Mars (27 analyses), a vu son débit de gaz anormalement changer, menant à la perte partielle de données d’une analyse de sol de Mars. Les scientifiques et ingénieurs de l’équipe française de SAM, en collaboration avec le centre GSFC de la NASA, ont déployé leur savoir-faire pour préparer des séquences de diagnostic et de résolution d’anomalie, et les mettre en œuvre sur Mars avec succès. Les données reçues de Curiosity le 11 mai dernier montrent que l’expérience SAM est à nouveau pleinement opérationnelle. 

Pendant ce temps, l’exploration scientifique du site d’atterrissage de Curiosity a continué. Le rover a passé huit mois dans la région de Parhump Hills qui marque la transition entre les plaines du cratère dans lequel il s’est posé et les contreforts du Mont Sharp, sa destination finale. Cette région révèle également des preuves d’activités aqueuses passées, mais dans des conditions environnementales différentes que ce que le rover avait vues jusque-là. La composition des roches suggère en effet une chimie plus acide: ainsi ChemCam et SAM, avec les autres instruments de Curiosity, continuent d’établir le catalogue de la diversité des sédiments qui forment ces roches. Curiosity vient de reprendre sa route vers les strates du Mont Sharp à travers une série de canyons qui exposent des affleurements intéressants. Il a maintenant parcouru plus de 10 km à la surface de Mars. Une pause forcée de trois semaines a débuté le 7 juin car Mars se situe de l’autre côté du Soleil, empêchant toute communication avec la Terre. 

Source : CNRS

Et aussi dans les
ressources documentaires :

Areva demande une négociation « équitable » avec EDF

Le dirigeant a fixé « trois conditions au succès » de la reprise par EDF de la majorité de la division réacteurs d’Areva, baptisée Areva NP, lors de son audition devant la commission des Affaires économiques de l’Assemblée nationale.

« Une négociation équitable avec EDF sur la valorisation d’Areva NP, une négociation équitable sur les contrats concernant les activités de retraitement et de conversion (et) des solutions à trouver sur le partage du risque du chantier finlandais, épée de Damoclès qui pèse depuis 2003 sur le groupe et qui compromet tout scénario d’avenir », a-t-il détaillé.

Sur ce dernier point, il fait référence aux déboires subis par le chantier d’Olkiluoto 3, dont Areva et son client finlandais TVO se rejettent la responsabilité. Cet EPR devrait entrer en service en 2018, avec neuf ans de retard sur le calendrier initial. L’ardoise totale provisionnée pour pertes liées au chantier par Areva s’élève à 3,9 milliards d’euros, soit plus que le prix du réacteur, vendu 3 milliards en décembre 2003, et explique en partie la perte nette record de près de 5 milliards d’euros enregistrée l’an dernier par le spécialiste du nucléaire.

« Il est normal qu’il y ait des points de vue différents », a-t-il répondu au député écologiste Denis Baupin, qui l’interrogeait sur l’écart entre la valorisation d’Areva NP (la division réacteurs du groupe) estimée par EDF et par Areva (environ 2 milliards et environ 3,5 milliards respectivement), selon des informations de presse.

Un comité ad hoc a été formé chez Areva « pour apprécier ce qu’est la valeur acceptable pour Areva », a ajouté M. Varin.

Le gouvernement a tranché il y a une semaine en faveur d’une reprise par EDF de la majorité du capital d’Areva NP, donnant un mois aux deux groupes pour négocier les détails de la transaction et conclure un partenariat stratégique.

Compte tenu de la complexité de l’intégration à venir et du fait que le dossier sera examiné par la Commission européenne, « il faut anticiper un +closing+ (une finalisation, ndlr) de l’opération plutôt dans la seconde moitié de 2016 », a souligné le dirigeant.

Il a indiqué qu’il aurait préféré limiter le rôle d’EDF à une prise de participation minoritaire dans Areva NP.

M. Varin a par ailleurs confirmé que les besoins de financement d’Areva pour les prochaines années atteignaient 6 milliards à 7 milliards d’euros.

« Les montants évoqués dans la presse ne sont pas très éloignés de la réalité », a-t-il déclaré.

Il a également laissé entendre que le « nouvel Areva » devrait céder ses actifs dans les énergies renouvelables, après son plan d’économies d’un milliard d’euros d’ici à 2017 qui devrait se traduire par la suppression de 6.000 postes, dont 3.000 à 4.000 en France.

« Restera dans le périmètre l’ensemble des activité du cycle (du combustible) et une participation minoritaire dans Areva NP », a-t-il déclaré, rappelant que le groupe confirmerait fin juillet, lors de la présentation de ses résultats semestriels, « les quelques actifs périphériques qui vont être cédés ».

Il a aussi défendu le réacteur nucléaire de troisième génération EPR, affirmant n’avoir « pas de doute » sur les besoins dans le monde pour un tel modèle et estimant que « la sûreté de l’équipement n’est pas mise en doute », malgré les problèmes rencontrés dans la construction à Flamanville (Manche) et en Finlande.

M. Varin a en revanche averti que se posaient des « questions sur sa compétitivité ». « Il ne faut pas sous-estimer l’enjeu. La réduction des coûts doit être très significative, il en va de l’avenir du nucléaire », a-t-il ajouté.

abb/fka/gf

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Le ministre de l’Agriculture ne va pas interdire le glyphosate

« Non! si je l’interdisais, mais que je n’ai pas d’alternative, que me diraient les agriculteurs ? On viendra me dire vous êtes en train de détruire la production agricole », a-t-il déclaré, en réponse à la question : « Allez-vous interdire le glyphosate ? ».

« Le glyphosate est dangereux. Les précautions qui doivent être prises sont impératives. Il faut que tout le monde fasse très attention », a-t-il toutefois indiqué.

Au « jardinier du dimanche qui a la main lourde », le ministre a également recommandé « d’arrêter, un peu d’herbe ça n’a jamais fait de mal à personne ».

« On s’aperçoit, et j’ai les premiers éléments de retour des Américains, qu’aujourd’hui le glyphosate connaît des résistances. Ils sont donc obligés de revenir à des organochlorés, ce qui est encore pire. Moi je dis stop, on a une autre stratégie à mettre en place », a ajouté le ministre.

L’association de consommateurs CLCV a interpellé lundi les agences sanitaires françaises et européennes et le ministre de l’Agriculture concernant le glyphosate, demandant notamment qu’il ne soit plus vendu en libre service aux jardiniers amateurs.

Le glyphosate, présent notamment dans le Roundup (Monsanto), et les insecticides malathion et diazinon ont été classés en mars cancérogènes « probables chez l’homme », même si les « preuves sont limitées », selon le Centre international de recherche sur le cancer (CIRC).

« L’avis du CIRC est un rapport préliminaire et non définitif. Les différentes autorités sanitaires européennes dont l’Anses (Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail) sont dans l’attente de la publication des monographies correspondantes, attendues dans les prochains mois », souligne la Plateforme glyphosate France, qui réunit la plupart des entreprises commercialisant des produits phytosanitaires à base de glyphosate.

etr/fka/sd

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

COP21 : résultats du débat citoyen planétaire

29 pays en Afrique, 15 pays en Amérique, 18 pays en Asie-Océanie et 13 pays en Europe, dont 13 îles, ont pris part aux 96 débats organisés lors de la journée du 6 juin. « Il est remarquable de constater que le nombre de pays le plus important est en Afrique, et que des débats ont pu être organisés en Afghanistan, en Iran, au Malin, mais aussi au Burundi ou au Népal, malgré les évènements récents », insistent les organisateurs dans un communiqué.

Les organiseurs concluent de la remontée des débat que « les citoyens sont très concernés, critiques et volontaristes ». 79 % des citoyens du monde se disent être « très concernés par le changement climatique » (contre 81 % en France), 19 % être « moyennement concernés » (18 % en France) et attendent beaucoup de la COP21. 73 % des citoyens du monde et des Français estiment que l’accord devra comporter des objectifs nationaux juridiquement contraignants pour tous les pays.

Malgré ces attentes, les citoyens jugent sévèrement les résultats des négocations des Nations Unies depuis 1992. Ils sont 71 % au niveau mondial à avoir un avis « très négatif » et même 88 % en France. Mais le dernier espoir porté par la conférence de Paris semble porter ses fruits en France où 76 % des citoyens pensent que « tout doit être fait à Paris pour limiter le réchauffement de la température à 2°C ». Au niveau mondial, un accord au rabais à tout prix ne semblerait néanmoins pas être une solution acceptable, ils ne sont que 64 % à considérer que « tout doit être fait » pour y parvenir.

Comment lutter efficacement contre le réchauffement climatique ?

Si 69 % des citoyens du monde estiment que la lutte contre le changement climatique est « avant tout » une responsabilité mondiale (72 % en France), ils sont quand même 48 % à estimer que c’est « essentiellement » une responsabilité des citoyens (56 % en France). Les citoyens pensent majoritairement que les solutions les plus effices pour lutter contre le réchauffement climatique restent les solutions appliquées au niveau mondial (60 % en France et 59 % dans le monde). Ils pensent que les outils les plus adaptés à la réduction des émissions sont les programmes éducatifs destinés au grand public (76 % en France et 78 % dans le monde), et la protection des forêts tropicales (50 % en France et 42 % dans le monde). Les résultats sont identiques concernant les efforts mondiaux qui devraient se concentrer de manière égale sur l’adaptation et l’atténuation (64 %). Plus de 80 % des citoyens du monde et 85% des Français pensent que leur pays doit réduire les émissions de gaz à effet de serre, même si les autres n’agissent pas Ils pensent même majoritairement que tous les pays devraient publier leurs émissions et les progrès réalisés (95 % en France et 91 % au niveau mondial).

Pour les citoyens, quelle serait la meilleure façon de fixer l’ambition des contributions nationales dans la luttre contre le réchauffement ? Cette question divise grandement les politiques, mais un peu moins les citoyens. Selon eux, les contributions devraient donc se baser sur les émissions actuelles ou anticipées (39 % dans le monde, 41 % en France) et les capacités économiques actuelles ou futures (38 % en France, 33 % dans le monde). Après 2020, 79 % des citoyens du monde considèrent que les pays à haut revenu devraient payer plus que les 100 milliards de dollars annuels, prévus par le fonds vert. En France, un pays directement concerné, les citoyens partagent évidemment un peu moins cet avis (62 %). Trois quarts des citoyens du monde estiment que les efforts des pays en développement devront dépendre du soutien financier des pays développés.

Des différences culturelles qui ressortent

Le débat fait remonter des différences culturelles plus importantes. Seulement 25 % des Français estiment que le changement climatique est une priorité nationale, contre 44 % à l’échelle mondiale. 65 % des Français pensent que cette lutte devrait le devenir, contre 46 % des citoyens du monde. Car 81 % des Français estiment que le changement climatique est une opportunité, alors qu’au niveau mondial, seulement 66 % des citoyens sont aussi optimistes. Importance du nucléaire oblige, seulement 47 % des Français estiment que les subventions aux énergies renouvelables doivent être priorisées pour diminuer les émissions de gaz à effet de serre ; les citoyens sont 57 % à considérer cette option dans le monde. Egalement 61 % des Français estiment que chaque pays devrait avoir le droit d’inspecter les autres sur leurs efforts, alors qu’ils ne sont que 50 % au niveau mondial.

La dernière grande différence porte certainement sur l’utilité du débat citoyen planétaire dans le processus de décision de la COP21. 84 % des citoyens du monde estiment que ce processus est « utile ou tout à fait utile », lorsque les Français, désabusés, ne sont que 65 % à avoir cette opinion.

Les citoyens ont débattu et voté selon la méthode établie par le Danish Board of Technology. L’objectif d’un tel débat était de faire remonter la vision du réchauffement climatique par les citoyens à l’échelle mondiale, ainsi que leurs préoccupations et attentes dans la perspective de la COP21. Ce débat a été co-initié par le Secrétariat de la Convention Cadre des Nations Unies sur les Changement Climatique (CCNUCC), la Commission nationale du débat public (CNDP), la Danish Board of Technology Foundation (DBT) et Missions Publiques. 60 pays en développement ont reçu une aide financière du Ministère de l’Ecologie, du Développement Durable et de l’Energie (MEDDE) pour l’organisation des débats.

Par Matthieu Combe

Et aussi dans les
ressources documentaires :