La Police nationale s’appuie sur la recherche informatique

Ce rapprochement entre la Police nationale, le CNRS et les universités a été concrétisé par la signature d’une convention le vendredi 19 juin par Hélène Martini, inspectrice générale et directrice de l’ENSP, et par Alain Fuchs, président du CNRS, co-tutelle de l’IRIT avec l’INP Toulouse, l’Université Toulouse 1 Capitole, l’Université Toulouse Jean Jaurès et l’Université Paul Sabatier. Cet accord témoigne de l’enrichissement croisé des connaissances indispensables à l’amélioration de la sécurité de la France et de l’importance de l’informatique dans les nouveaux moyens de lutte contre la criminalité.

Les acteurs de la sécurité, dont la Police nationale et l’ensemble des services de sécurité de l’État, sont incités à participer encore plus activement aux appels à projets de recherche proposés entre autres par l’ANR et l’Union Européenne, et cherchent aussi à renforcer en interne leur expertise et leurs compétences en technologies avancées. L’IRIT, l’un des rares acteurs de la recherche académique actif dans le réseau Recherche en Sécurité, apporte quant à lui des compétences dans des domaines variés, au service de la sécurité :

  • Acquisition (brute et fouille de données) et traitement des données multimédia (image, vidéo, son, voix)

  • Surveillance et identification des sources sur les réseaux sociaux, web, objets connectés, réseaux de capteurs, de caméras…

  • Traitement numérique et exploitation des données terrain : biométriques, images, vidéo, scans 3D…

  • Gestion et stockage des données, analyse sémantique des données (Big Data)

  • Aide à la décision, simulation (pour la formation et entraînement et pour l’opérationnel)

  • Sécurité des systèmes et des réseaux informatiques, cybersécurité

Avec 700 chercheurs, l’Institut de recherche en informatique de Toulouse (IRIT) est l’un des plus importants laboratoires du CNRS, et l’un des piliers de la recherche en Midi-Pyrénées. Son impact scientifique et ses interactions avec les autres domaines le positionne comme une des forces structurantes du paysage national de l’informatique et de ses applications dans le monde du numérique. L’École Nationale Supérieure de la Police (ENSP) assure la formation professionnelle des 12.000 commissaires et officiers de police. Elle met également en œuvre des projets de recherche au sein de son centre dédié. Cette double mission la positionne naturellement comme partenaire des laboratoires de recherche. La convention représente ainsi la concrétisation d’une collaboration qui dure depuis déjà deux ans.

La signature de cette convention entre l’IRIT et l’ENSP constitue la première étape d’une coopération souhaitée par le ministère de l’Intérieur et le ministère de l’Éducation nationale, de l’Enseignement supérieur et de la Recherche afin de répondre aux nouveaux défis scientifiques que rencontrent les services de sécurité. Cette collaboration pourra se développer au travers de projets de recherche à vocation opérationnelle conjoints et de formations diplômantes. L’ENSP, en sa qualité de co- animateur du réseau de recherche de la police nationale grâce à son centre de recherche, fera le lien entre les services opérationnels de la police nationale et les chercheurs. 

Source : CNRS

 

Et aussi dans les
ressources documentaires :

Les 6 cobayes ont survécu aux 8 mois de simulation de la vie sur Mars

C’est à Hawaï que s’est déroulé cette expérience unique visant à simuler la vie sur Mars. 6 individus, dont 3 hommes et 3 femmes, ont partagé 8 mois de leur quotidien, totalement isolés du monde extérieur. Leur demeure ? Un dôme de 120m² dont 93m² habitables basé à 2440m d’altitudes à flanc de volcan à Manau Loa. A l’intérieur, le rez-de-chaussée accueille une cuisine, une salle à manger, une salle de bain avec douche, un laboratoire et une salle de sport. A l’étage se trouvent les chambres. C’est la troisième mission du genre mais les deux premières n’avaient duré que 4 mois. La Hi-SEAS mission 1 s’était intéressée à la nourriture, à la thermique de l’habitat, à la robotique ainsi qu’aux vêtements. La Hi-SEAS mission 2 portait principalement sur une étude psychologique de l’équipage isolé. La française Lucie Poulet, chercheuse à l’Institut des systèmes spatiaux à Brême en faisait partie. Pour Hi-SEAS mission 3, c’est l’influence de l‘isolement qui est au cœur de l’étude. Les seules sorties autorisées devaient se faire dans une zone restreinte autour du dôme et avec le port d’une combinaison spécifique. Les scientifiques voulaient identifier comment les individus allaient gérer tout cela physiquement et psychologiquement.

Premier bilan positif : aucune bagarre ! Malgré la promiscuité, les 6 personnes ont réussi à vivre ensemble sans en venir aux mains. L’équipage avait à disposition dans sa salle de sport un tapis de course et un vélo, de quoi évacuer les tensions si besoins. Le plus difficile à vivre psychologiquement a été d’être isolé de leurs proches. D’autant que pour une simulation au plus près du réel, les communications se faisaient avec un décalage de 24mn, la durée que subiront les colons sur Mars. Enfin, la nourriture reste un point délicat, les scientifiques ont déclaré avoir souffert de l’absence de nourriture « normale ». 

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Comprendre les oscillations des naines blanches magnétiques

A la fin de sa vie, le Soleil aura épuisé toutes ses ressources nucléaires. Son cœur s’effondrera alors sous l’action de la gravité en un astre très dense ayant une masse proche de celle du Soleil mais dans un volume équivalent à celui d’une planète comme la Terre. Il deviendra alors une « naine blanche ». Actuellement, les chercheurs estiment que près de 10% des étoiles de la Galaxie se sont déjà transformées en « naines blanches ». Certaines d’entre elles sont très fortement magnétiques avec un champ magnétique plus de dix millions de fois plus intense que celui du Soleil.

Lorsqu’elles sont en orbite autour d’une autre étoile, les naines blanches magnétiques, aussi appelées « polars », aspirent la matière qui tombe en chute libre jusqu’à leurs pôles dans ce qui est appelé une « colonne d’accrétion », région cylindrique mesurant quelques centaines de kilomètres de rayon. Dans cette colonne, la matière en chute libre atteint des vitesses supersoniques de l’ordre de 1000 km/s créant un phénomène d’onde de choc, analogue au « bang » des avions supersoniques. Cette onde de compression ralentit brutalement la matière qui s’échauffe et peut alors rayonner autant d’énergie qu’au cœur d’une étoile, principalement sous forme de rayons X, ultraviolets et lumière visible.

Entre 1982 et 1997, des variations de luminosité rapides ont été découvertes dans la lumière visible de cinq de ces polars, suggérant l’existence d’instabilités. Les scientifiques ont voulu comprendre l’origine de ces instabilités présentes dans ces étoiles fortement magnétiques. Dans un premier temps, et en complément de travaux antérieurs, ils ont produit des simulations numériques très précises du processus physique complexe de l’onde de choc due au déplacement de la matière dans la colonne d’accrétion des polars. Dans la majorité des cas, ces simulations ont montré l’existence de fortes instabilités se traduisant par une oscillation importante de la hauteur du choc au-dessus de la naine blanche et donc de la luminosité en rayons X. Pour la première fois, les chercheurs ont pu mettre en évidence un choc dit « secondaire » qui est « réfléchi » par la surface de la naine blanche lorsque la matière percute l’étoile.

Dans un second temps, les mêmes équipes ont recherché la présence de ces oscillations rapides, dont les périodes peuvent varier de 0,1 à 10 secondes, dans un ensemble de polars observées en rayons X par le satellite européen XMM-Newton. Mais, parmi les 24 polars qui ont été étudiées, aucun n’a pu révéler des oscillations rapides.

Dans certains cas, un champ magnétique trop fort peut amortir les oscillations et les rendre indétectables. Mais, malgré l’incertitude sur certains paramètres (masse de la naine blanche, section de la colonne d’accrétion …), une partie au moins des polars observées par XMM aurait dû montrer des oscillations rapides dues aux variations du choc. L’obtention de ces nouveaux résultats et la découverte de l’absence de ces oscillations semblent aujourd’hui mettre en doute la validité des modèles standards sur le comportement des colonnes d’accrétion dont la physique est pourtant considérée comme bien maîtrisée. 

Pour obtenir de tels résultats, les scientifiques ont mis au point des simulations numériques du comportement du plasma. Par ailleurs, les progrès réalisés en physique des lasers et l’utilisation croissante des lasers à haute densité d’énergie rendent désormais possible la reproduction en laboratoire de conditions similaires à celles rencontrées dans certaines structures de l’Univers. Ainsi, dans le cadre du projet d’expérimentation astrophysique baptisé « POLAR », le même groupe de scientifiques a déjà réussi à reproduire en partie, en laboratoire, les phénomènes physiques présents dans les colonnes d’accrétion à la surface des naines blanches. La récente mise en fonctionnement du Laser Mégajoule (LMJ) permettra, dans un futur proche et dans le cadre des expériences d’ouverture avec LMJ-PETAL, de créer une réelle maquette de colonne d’accrétion, ouvrant ainsi la voie à une véritable étude en laboratoire des instabilités de chocs. 

Source : CNRS

Et aussi dans les
ressources documentaires :

Les réserves souterraines aquifères sont-elles en train de s’assécher ?

Pour tenter de déterminer le volume d’eau des plus importantes réserves connues, les scientifiques américains ont utilisé les informations du satellite GRACE (Gravity recovery and climate Experiment). Leur analyse est inquiétante car 8 des plus importantes réserves souterraines d’eau sur les 37 étudiées souffrent d’une reconstitution naturelle insuffisante, tandis que 5 autres sont en passe de connaître le même sort. En comparant les données du satellite aux estimations connues, les chercheurs de l’Union américaine de géophysique (AGU) ont mis à jour des incohérences, preuves que la communauté scientifique ne connait pas l’état d’épuisement réel des réserves souterraines.

Toutefois, grâce aux travaux menés par l’AGU, les réserves les plus exploitées ont été identifiées. Il s’agit notamment des systèmes aquifères arabique, indien et d’Afrique du nord.

La Californie, durement touchée par la sécheresse depuis plusieurs années n’est pas épargnée. Son réservoir en pleine vallée centrale est surexploité et peine à se reconstituer.

Ainsi, les auteurs du travail sur l’évaluation des réserves souterraines d’eau  soulignent le danger de mal connaitre l’état réel des réserves, surtout en plein réchauffement climatique. Il ne faudrait pas que ces réserves, nécessaires à de nombreuses populations, viennent à disparaitre brutalement sans que l’homme n’ait eu le temps de l’anticiper. 

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Un capteur de pollution à glisser dans la poche

Alors que la pollution atmosphérique est une préoccupation grandissante des citoyens comme des politiques, voilà un petit objet qui pourrait bien séduire les particuliers. Il s’agit d’un petit boitier connecté bardé de capteurs qui mesurent la quantité de polluants présents dans l’air ambiant, que l’on soit en intérieur ou en extérieur. L’innovation réside dans la miniaturisation des capteurs pour proposer un boitier qui tient dans la main et que l’on peut donc emmener partout facilement. En temps réel, le capteur Plume indique les taux de 4 particules chimiques polluantes les plus communes, à savoir l’ozone, l’oxyde d’azote, les particules fines et les composés organiques volatils (COV). La mesure est accessible sur son smartphone via une application. Plume est donc un outil pratique pour savoir si l’air que nous respirons est pollué, et si oui dans quelle proportion. Romain Lacombe et David Lissmyr, co-fondateurs de Plume Labs, espèrent commercialiser ce boitier dès 2016. Au-delà de l’information brute sur la pollution, Plume apportera des conseils adaptés à la pollution atmosphérique constatée, en indiquant par exemple si la qualité de l’air permet de faire du sport.

En attendant de pouvoir utiliser le boitier, il est possible de suivre en temps réel la pollution dans les grandes villes, françaises mais aussi étrangères comme Londres, New York, Istanbul ou Tokyo grâce au service lancé par Plume Labs baptisé Plume Air report. L’appli Plume Air collecte directement les informations sur la pollution via les capteurs déployés par les réseaux officiels, comme AirParif pour Paris, allant même jusqu’à prédire la qualité de l’air des prochaines 24h. Plume Air report indique même si oui ou non on peut aller courir, faire du vélo, sortir bébé ou rester en terrasse.

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Transport aérien: le gouvernement lance une mission sur le déploiement du « biokérosène »

« Je vous annonce que je lance, avec le ministre de l’Agriculture, Stéphane Le Foll, une mission sur le déploiement en France du biokérosène, en partenariat avec les industriels, pour établir une feuille de route pour mettre en place une filière française », a déclaré Mme Royal lors d’une conférence de presse consacrée à la prochaine conférence des Nations Unies sur le climat (COP-21), qui se tiendra en décembre au Bourget.

La solution retenue devra être « respectueuse de l’environnement, avec des procédés non consommateurs de terres dédiées à l’alimentation » et basée sur un modèle économique « qui ne déstabilise pas les équilibres financiers du transport aérien », a-t-elle ajouté.

Les inspections des deux ministères rendront leur rapport « à la fin de l’année 2015, ce qui nous permettra de mettre en place les outils d’incitation pour introduire et généraliser progressivement les carburants renouvelables dans l’aéronautique », a-t-elle ajouté.

Interrogée sur de possibles mesures fiscales, la ministre de l’Ecologie a indiqué à l’AFP que « le moment venu, il faudra une fiscalité incitative » et « qui tient compte des émissions de carbone ».

« Il faudra bien donner des avantages fiscaux aux carburants et aux énergies qui ne sont pas polluants », a-t-elle affirmé, précisant que « ça se passera à l’échelle européenne, parce que c’est là que les filières vont être développées ».

Les bio- ou agrocarburants, fabriqués à partir de végétaux, sont déjà identifiés par les avionneurs et les compagnies aériennes comme le principal levier pour réduire leurs émissions de gaz à effet de serre.

Le Groupement des industries françaises aéronautiques et spatiales (Gifas) s’est d’ailleurs engagé à « soutenir l’objectif de la Commission européenne d’une production de 2 millions de tonnes de biocarburants aéronautiques en 2020 », tandis que le groupe Air France-KLM entend « promouvoir la création d’une filière pour l’aviation en France et aux Pays-Bas », dans un manifeste signé en présence de Mme Royal et du ministre des Affaires étrangères, Laurent Fabius.

gbh/fka/fm

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Silence numérique : droit ou devoir ?

Selon un rapport du Credoc datant de novembre 2013, plus d’un cadre sur deux, ayant un niveau d’études supérieures ou égales à bac+2, utilise les technologies de l’information et de la communication (T.I.C.) à des fins professionnelles en dehors du cadre habituel de travail.

Ces cadres se déclarent plutôt satisfaits de cette possibilité car elle offre plus de souplesse dans la gestion de l’équilibre vie privée/vie professionnel. Enfin, seuls 25 % des actifs réclameraient l’instauration de chartes dans les entreprises pour limiter l’usage des T.I.C. en dehors des lieux et horaires de travail habituels.

La question qui se pose est donc la suivante :

Comment gérer l’usage des T.I.C.  en dehors des horaires de travail pour des motifs professionnels ? Qui doit agir en priorité ? Le cadre où l’entreprise… Ou les deux ?  Réponses.

Le cadre

1) le cadre est compétent dans la gestion de son temps

C’est-à-dire :

  • il utilise la planification

  • il se fixe et accomplit des objectifs journaliers

  • il sait mobiliser ses ressources avec pertinence

  • il sait optimiser, à court terme et à long terme, la valeur ajoutée produite

  • il sait faire le tri entre les tâches importantes

  • il sait résister à la séduction de l’urgent

  • il sait dire non

Ce profil de cadre n’a pas besoin de béquilles pour l’aider à avancer. Il fait un usage intelligent de son droit au silence.Toute tentative de réglementation de l’usage des T.I.C serait une mesure pénalisante car elle réduirait ses degrés de libertés… Et probablement sa productivité. Enfin pourquoi faudrait-il empêcher un cadre de faire en 1h30, à l’occasion d’une soirée dominicale par exemple, ce qu’il mettrait probablement plus 3 heures à faire en horaires habituels de travail ? (Rappel : dans son lieu de travail, un cadre est interrompu toutes les quatre minutes en moyenne)

2) Le cadre n’est pas compétent dans l’ingénierie de son temps de travail

C’est-à-dire :

  • Il est incapable de choisir entre liberté et responsabilité

  • Il est incapable de savoir quelles sont les tâches importantes

  • Il confond précision et performance

  • Il est incapable de résister à la séduction de l’urgent

  • Il est incapable de jeter des mails à la poubelle

Tout comme ceux qui se mettent à ralentir pour pouvoir mieux regarder une scène d’accident de la route, les témoins « malgré-eux » d’événements de leur milieu professionnel adoptent une attitude analogue : ils perdent leur temps (de déconnection). En effet, incapables de résister à la consultation régulière de leurs boites mail ou autres messages du répondeur professionnel ces témoins « fortuits » d’événements contingents, se trouvent ainsi piégés. Ils se sentent obligés de répondre pour résoudre des problèmes qui ne devraient pas les concerner pendant cette période.

Dans ce cas, toute charte, ou règlements supplémentaires, concernant l’usage des T.I.C. en dehors des lieux et horaires habituels de travail n’aura que très peu d’effet… Sauf peut-être celui de soulager le cadre distrait de la désolation stressante de devoir subir, impuissant, l’incessant remplissage de sa boite-tonneau-mail des Danaïdes.

L’entreprise et sa culture (d’après le modèle Circumplex Human Synergistics)

la culture d’entreprise est de forme agressive défensive

Dans ces entreprises, c’est la théorie X qui prévaut. La croyance sous-jacente (des dirigeants surtout) est que l’employé n’aime pas travailler. Il est improductif s’il n’est pas surveillé. Il ne travaille que sous la contrainte, voire la menace. Les tenants de la théorie X se concentrent essentiellement sur la tâche. Ils contraignent, contrôlent, menacent, s’opposent, se préoccupent de multiples détails, pour faire en sorte que les subordonnés fournissent les efforts nécessaires et suffisants à la réalisation des objectifs.

Si les T.I.C permettent de prolonger l’exercice professionnel en dehors des heures de travail habituel, il faut aussi savoir qu’elles sont utilisées à des fins personnelles pendant le temps de travail. Il serait surprenant que toute charte conçue dans ce genre d’organisation ne réclame pas de contrepartie produisant des contraintes supplémentaires. Avec ou sans charte, ce genre d’environnement n’est pas suffisamment bienveillant pour résoudre ce problème de l’usage des T.I.C.

1) La culture d’entreprise est de forme passive défensive

Dans ce genre d’entreprises, c’est surtout la théorie Y qui prime. La théorie Y repose sur le postulat inverse selon lequel l’employé aime travailler. Il a besoin d’autonomie, et sa créativité doit être libérée et suscitée. Mais que faut-il penser de ces entreprises qui prennent la décision de ne plus diriger les emails vers les smartphones d’un panel de 5000 salariés spécifiques entre 18 :00 et 07 :00 ?… Ou de celles qui mettent à disposition une application spécifique « effaceur d’emails » sur les postes informatiques de salariés en vacances (avec avis de l’émetteur l’invitant à s’adresser à un remplaçant)?

N’est-ce pas une manière de déresponsabiliser les salariés, d’affirmer que l’option individuelle de ne pas répondre à un email entre 18 :00 et 07 :00, ou d’effacer tout email reçu pendant la période des vacances, n’est pas une attitude acceptable? A-t-on droit au silence numérique dans une entreprise qui gère cette prérogative à votre place ?

Notons que même si elle se fonde sur de bons sentiments, la charte prend surtout dans ce cas, la forme d’une liste de conseils et autres grands principes dont l’impact sur les comportements est soumis à la discrétion de chacun.

2) La culture d’entreprise est constructive

Une culture constructive tient s’inspire à la fois de la théorie X et de la théorie Y en tirant les employés vers les besoins supérieurs de l’échelle des motivations, les fameux facteurs moteurs d’Herzberg. Ce genre de culture se focalise sur la responsabilité et l’efficacité. Au lieu de se laisser piéger par toute forme de réponse administrative,  l’entreprise constructive investit dans l’éducation des salariés. Au lieu de diluer les énergies dans une tentative inefficace d’éradication de ses symptômes, elle s’efforce d’identifier et de régler le problème de fond. Elle invite les collaborateurs concernés à se concerter pour résoudre eux-mêmes les problèmes liés à l’utilisation des T.I.C. et à trouver, par exemple, des réponses cohérentes aux questions suivantes :

  • Comment faire avec les e-mails quand un collaborateur est absent ?

  • Comment faire avec les e-mails lorsqu’un collaborateur ne répond pas ?

  • Un e-mail peut-il être un outil valable pour le traitement des urgences ?

  • Comment accéder à l’information utile au moment propice ?

  • Quel coefficient de performance associer au volume d’informations transmis par un collaborateur ?

Conclusion

Quelle que soit la culture, la meilleure garantie contre un usage néfaste des technologies de l’information et la communication repose sur la responsabilité et la compétence des utilisateurs en matière d’ingénierie du temps.

Il est plus simple de se boucher ses propres oreilles que d’exiger que les autres se taisent lorsqu’on ne désire pas écouter….Encore faut-il l’assumer. 

Par Dino Ragazzo

Et aussi dans les
ressources documentaires :

Embouteillages en orbite

Un danger aux multiples facettes

Imaginez une vie sans téléphones portables, sans télévisions, sans prévisions météo, sans systèmes de contrôle aérien et sans GPS. Un cauchemar qui pourrait devenir réalité, au vu des risques encourus par les satellites en orbite, dont dépendent toutes ces technologies si présentes dans notre vie quotidienne.

Les dangers susceptibles de ramener le monde aux années 1950 sont multiples et variés. Les satellites sont exposés à de nombreux risques naturels tels que les rayons cosmiques, les pluies de météorites ou les tempêtes solaires. A ces risques s’ajoutent des dangers d’origine humaine notamment les collisions entre plusieurs satellites opérationnels ou entre des satellites et des déchets gravitant autour de la Terre. Une telle collision accidentelle s’est notamment produite en 2009, entre le satellite russe Kosmos qui n’était plus en service, et un satellite américain commercial de la compagnie Iridium.

En temps de guerre, des dangers supplémentaires s’ajoutent à cette liste déjà longue: la prise de contrôle par des groupes terroristes de systèmes de contrôles à Terre ou la destruction directe de satellites par des missiles.

« Gravity », un scénario pas si fictif ?

Le trafic en orbite est de plus en plus dense : plus de 1100 satellites y opèrent actuellent, avec près de 120 nouveaux lancements par an. Et la miniaturisation croissante des satellites ne fait qu’accroître ce débit annuel déjà élevé.

D’après les données de l’Agence spatiale israélienne, près d’un demi-million de déchets artificiels de petite taille (un centimètre) gravitent actuellement autour de la Terre, à des vitesses approchant les 28.000 km/h. Comme dans le film « Gravity » d’Alfonso Cuaron (2013), ces déchets font encourir aux satellites en orbite un risque de détérioration important en cas d’impact.

A la recherche de solutions

Les agences spatiales du monde entier étudient les moyens pour réduire la concentration croissante d’objets en orbite. Aux moyens juridiques – le développement de règlementation et d’accord internationaux – s’ajoutent des solutions technologiques. Celles-ci visent à la fois à évacuer les satellites devenus non opérationnels et à un meilleur suivi des objets en orbite.

D’après le site de l’Agence spatiale israélienne, un nouveau projet international serait actuellement en développement pour traquer les déchets de petite taille et éviter qu’ils ne détruisent des satellites opérationnels. Cette technologie utilisera notamment un faisceau laser pour trouver les déchets.

L’industrie israélienne, leader mondial dans le domaine des satellites de petite taille et à faible coût, est susceptible de jouer un rôle important dans la résolution du problème de l’accumulation des déchets en orbite. Une start-up israélienne, à une étape avancée de dépôt de brevet, propose notamment une solution originale : un « mini-bulldozer » spatial, qui attrapera les déchets en orbites et les « jettera », non pas dans une benne à ordures, mais dans l’atmosphère, où ils se désintègreront sans causer de dégâts.

Source : bulletins-electroniques

Et aussi dans les
ressources documentaires :

Les Kangourous sont gauchers, selon une étude

Cette découverte apporte un nouvel éclairage sur un aspect unique de l’évolution des mammifères, estiment ces scientifiques.

« Nous avons découvert un degré prononcé de préférence pour l’usage d’une main en particulier comparable à notre espèce », indique le biologiste Yegor Malashichev de l’Université d’Etat de Saint Petersbourg en Russie, principal auteur de cette recherche.

« Dans toutes les actions étudiées chez les kangourous bipèdes nous avons constaté une forte préférence gauchère », précise-t-il. En revanche ce trait n’est pas apparent chez les kangourous arboricoles.

Ces chercheurs ont été surpris d’observer cette préférence d’usage d’une main chez les kangourous bipèdes et d’autres marsupiaux en raison de différences dans leur cerveau par rapport aux autres mammifères euthériens dont les primates.

Ils ne possèdent pas le même circuit neuronal qui relie les hémisphères gauche et droit du cerveau, précisent-ils.

Ils ont étudié deux espèces de kangourous bipèdes et une espèce de wallaby bipède, un membre plus petit de la famille des kangourous, en Australie continentale et dans l’île de Tasmanie au large de la côte sud australienne.

Les auteurs de l’étude ont également constaté que les kangourous gris de l’est du pays et les Kangourous rouges, sont gauchers naturellement dans toutes leurs tâches que ce soit pour soutenir leur corps dans certaines postures, faire leur toilette, ramasser une feuille ou plier la branche d’un arbre.

Quant aux wallabies à cou rouge, ils utilisent leur main gauche quand ils mangent les feuilles sur les branches des arbres qu’ils tiennent de la main droite comme les deux autres espèces de kangourous.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Des drones qui nous tombent sur la tête !

A la suite de son développement pour des raisons militaires, l’industrie du drone atteint le paysage civil avec un spectre d’applications important, décrit notamment dans un article de la revue Nature du 28 mai dernier, depuis le secours de victimes dans des environnements difficiles d’accès, jusqu’à la surveillance des champs agricoles afin d’augmenter les rendements, en passant par le vandalisme de rue, avec à titre d’exemple, le drone qui a peint un graffiti sur le plus grand panneau publicitaire de New-York. Un autre usage surprenant qui prendra forme dans un futur proche est la livraison de colis, en effet, Amazon développe son programme Prime Air afin d’envoyer des colis d’au moins quatre kilos à ses clients avec peu, voire pas de coûts.

L’augmentation du trafic aérien de ces objets volants nous mène à des situations inédites : le 26 mai dernier, à Marblehead dans le Massachusetts, un drone enregistrant une parade au cours de la fête nationale du « Memorial Day » s’est écrasé sur un spectateur, qui n’a finalement eu qu’une lésion mineure au cou. Même si l’incident n’a pas tourné au drame ce jour-là et que l’opérateur du drone s’en est sorti avec des excuses, le vide juridique et législatif quant à l’usage de ces objets autonomes, qui a été créé par le développement exponentiel de cette industrie, est mis en exergue.

Le Département du Transport américain (DOT ou Department of Transport) ainsi que l’Administration Fédérale de l’Aviation (FAA ou Federal Aviation Administration) ont néanmoins commencé à se pencher sur la question et ont proposé publiquement de nouvelles règles pour l’usage des drones, comprenant le vol de drones de jour uniquement par un opérateur placé à vue de l’engin piloté. D’autres propositions concernent des restrictions en termes de taille et de poids ainsi que l’idée d’une certification de l’opérateur, de même qu’un enregistrement de l’appareil auprès des pouvoirs publics. Le DOT et la FAA ont suggéré ces règles tout en essayant de ne pas décourager tout potentiel d’innovation technologique futur au sein de cette industrie florissante.

De manière intéressante, le Wyss Institute for Biologically Inspired Engineering de l’université Harvard développe les RoboBees, de minuscules robots autonomes inspirés des abeilles, de taille comparable à celle d’une phalange de doigt humain, qui seraient capables dans un futur proche d’être utiles à de nombreuses applications militaires et civiles, comme celles décrites en début d’article, tout en ne risquant pas de blesser qui que ce soit lors de regroupements festifs !

Source : bulletins-electroniques
 

Et aussi dans les
ressources documentaires :

Ces métiers qui dopent notre cerveau

Voilà une question que l’on se pose rarement lorsqu’on postule à un poste : est-il bon pour mon cerveau ? Pourtant, selon la nature du travail ou le niveau hiérarchique, les capacités intellectuelles comme la mémoire et la vitesse de réaction vont être impactés, au point de pouvoir lutter contre le vieillissement du cerveau. En étudiant 1091 personnes soumises à un même test à 11 ans puis à 70 ans, les scientifiques de l’Université écossaise Hériot-Watt ont réussi à relier l’exercice d’un métier aux capacités cognitives en fin de vie.

Leurs résultats publiés dans la revue Neurology expliquent comment la complexité d’un métier peut être classée suivant 3 domaines. Concernant le travail sur les données, comparer et copier sont les tâches les moins compliquées comparativement à l’analyse, la coordination et la synthèse. Le travail avec les objets le plus stimulant concerne la mise en place ou les opérations de contrôle, au contraire de la manutention. Enfin, le rapport avec autrui influence aussi nos compétences cérébrales, les plus positives étant les actions de négocier et de conseiller, alors qu’obéir à un ordre est jugé plutôt pauvre.

Alors quelles professions regroupent les meilleures tâches pour notre cerveau ? Avocat, ingénieur, architecte, chirurgien mais aussi musicien et graphiste assurent une bonne stimulation du cerveau, bénéfique sur le long terme. En revanche, les métiers d’ouvrier, de peintre, de maçon, de chauffeur de bus ou de serveur de cantine n’exploitent pas assez le cerveau et ne permettent pas de lutter contre le déclin cognitif.

Les chercheurs souhaitent maintenant pondérer ces résultats en intégrant d’autres paramètres comme l’investissement personnel de chaque individu et les conditions de travail.

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Des cellules souches embryonnaires ont permis de réparer le cerveau endommagé de souris

Les travaux sur les cellules souches sont en plein boom et les espoirs sont nombreux. Ce qu’ont réussi les scientifiques de l’Université de Poitiers avec ceux de l’Institut de recherche interdisciplinaire en biologie humaine et moléculaire de Bruxelles témoigne du potentiel incroyable de la thérapie cellulaire. A partir de cellules souches, ils sont parvenus à fabriquer des neurones corticaux correspondant à la partie du cortex lésée, puis à les implanter dans le cerveau.

Plus précisément, la partie du cerveau des souris abîmée correspondait au traitement de la vision. Or, pour favoriser la réparation du cortex, les neurones devaient impérativement être du même type que la lésion concernée. C’est là toute la difficulté car le cortex est de nature complexe, composé de centaines de types de neurones différents. Ayant réussi à créer exactement les bons neurones à partir de cellules souches embryonnaires, à savoir ceux de type visuel, les chercheurs ont pu les greffer dans le cerveau des souris. Au bout d’un an, 61% des greffes ont été un succès et les souris ont pu profiter à nouveau du bon fonctionnement de leur cortex visuel, et ont recouvert la vision. C’est « […] la 1ère fois que des cellules souches pluripotentes différenciées en neurones corticaux permettent de rétablir les circuits corticaux lésés adultes sur le plan neuroanatomique et fonctionnel » se félicite l’Inserm dans un communiqué.

 En revanche, des tumeurs et des amas de cellules non différenciés sont apparus lors des tentatives qui ont échoué. Ce n’est donc pas encore une solution miracle pour réparer les lésions du cerveau, mais à terme, c’est bien la guérison des AVC ou de maladies neuro-dégénératives qui est visée.

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Assis ou couché : dans quelle position étudier ?

Juin. Pour les lycéens, mois des stressés, mois des pressés. On passe le bac(calauréat), on se prépare à aller en fac(ulté) ou en classe prépa(ratoire). On cherche une coloc(ation) ou une place en cité u(niversitaire). Et pour remplir la chambrette, le mobilier classique de l’étudiant : le canapé-lit pour dormir, le bureau et la chaise pour travailler. Autant la première moitié du matériel peut être douillette, autant on vise le spartiate pour la seconde, comme si les leçons entraient mieux à coups de crampes ou que la concentration passait par la fesse calleuse. Ainsi, dans leur Manuel de l’étudiant, publié en 1965, Abraham Lass et Eugene Wilson expliquent qu’il faut privilégier « une chaise simple, robuste, à dossier droit et sans rembourrage. On étudie mieux quand on n’est pas trop à son aise ou pas trop décontracté. (…) Pour des raisons évidentes, évitez d’étudier dans un canapé, un fauteuil ou un lit. »

Des « raisons évidentes »… C’est vite dit. Quelles « raisons évidentes », se sont demandé deux psychologues américains de l’université de Californie, MM. Gifford et Sommer, tous deux Robert de leur prénom ? Quelles données scientifiques soutiennent ces recommandations ? À la Sorbonne ou à Assas, à Oxford ou à Cambridge, à Berkeley ou à Harvard, a-t-on jamais comparé les résultats des assis et des couchés ? Les chercheurs ont cherché, ils n’ont rien trouvé dans la littérature savante. D’où l’idée improbable, à défaut d’être évidente, d’aller sur le terrain, de faire une expérience en chambres estudiantines.

Tels Dupont et Dupond, Robert et Robert se sont mis à enquêter, à visiter les résidences universitaires après les heures de cours, pour noter si ces jeunes gens étudiaient vraiment et, si oui, où ils le faisaient. Toc, toc, toc, c’est pour un sondage : au bureau ou au pageot ? Les deux chercheurs n’ont pas inclus dans leurs statistiques les états intermédiaires (vautré(e) sur le canapé, allongé(e) à même le sol). Ils se sont introduits, en tout bien tout honneur et avec la bénédiction des autorités universitaires, dans plusieurs centaines de chambres réparties sur huit campus. Au total, 331 étudiants ont rempli les conditions de l’expérience et se sont répartis presque de manière égale dans les deux catégories.

Venait ensuite la partie la plus palpitante du travail : récupérer la moyenne générale de chacun, puis voir si sa position d’étude était ou non corrélée avec les notes obtenues. Les fourmis de bureau allaient-elles enfin toucher les dividendes de leurs souffrances par rapport aux cigales de matelas ? Eh bien… non. L’article conclut qu’il n’existe pas d’écart significatif entre les deux groupes. Même en poussant les choses plus loin, c’est-à-dire en se concentrant sur, d’un côté, les très bons élèves et, de l’autre, sur les très mauvais, les auteurs obtiennent « la même absence de différence ». « Il n’y a aucune preuve, écrivent-ils, que les étudiants-à-bureau obtiennent de meilleurs résultats que les étudiants-pas-à-bureau. »

Robert et Robert en tirent deux conclusions : primo, rien ne justifie qu’on oblige les nouveaux venus à passer un certain nombre d’heures scotchés à leur bureau pendant leurs six premiers mois d’études ; secundo, il serait bon de repenser l’architecture intérieure et l’ameublement des salles d’étude dans les écoles et les universités. Au feu les pupitres, je passe mon bac en hamac.

Précisons tout de même que cette étude est parue en… mai 1968.

Par Pierre Barthelemy
Extrait issu du livre « Improbablologie et au-delà » publié aux éditions Dunod

Comment fonctionne l’estomac d’un ogre ?
À quelle heure est-on le plus honnête ?
À quoi reconnaît-on un cochon heureux ?
À toutes ces questions apparemment saugrenues, des chercheurs ont pris le temps de donner une réponse, avec sérieux et méthode à l’appui !
Après le succès des Chroniques de science improbable, Pierre Barthélémy nous invite à un nouveau voyage en improbablologie.
Dans ses chroniques, il explore avec humour et délectation ces petits bijoux de la science improbable, la science qui fait sourire. Et ensuite réfléchir (ou pas…).

Et aussi dans les
ressources documentaires :

Une petite pieuvre tellement mignonne qu’elle pourrait s’appeler « Adorabilis »

De couleur rose pâle, cette petite pieuvre « de la taille d’un poing humain », vit dans une eau à 6-8 degrés celsius par 200 à 600 mètres de fond, explique Stephanie Bush, chercheuse à l’institut de l’aquarium de Monterey Bay.

C’est en cherchant de nouveaux animaux à présenter aux visiteurs de l’aquarium que Mme Bush a commencé à s’intéresser à cette espèce, observée par son laboratoire depuis la fin des années 1980, mais qu’elle n’a commencé à étudier que depuis l’an dernier.

« De nouvelles espèces sont découvertes tous les ans, mais elles ne sont pas toutes répertoriées, car ce processus peut prendre des années », explique la chercheuse.

De fait, il lui a fallu plusieurs mois pour mesurer et étudier la morphologie du petit céphalopode. Elle doit désormais soumettre un article à une revue scientifique, qui tranchera sur l’attribution du nom.

« Je ne suis pas encore sûre à 100% que j’opterai pour le nom Adorabilis », explique-t-elle.

« Mais je ne vois pas pourquoi un tel nom serait refusé, c’est facile à prononcer et très populaire », poursuit-elle, faisant remarquer que d’autres espèces, notamment une chez les colibris, portent le même nom.

Pour l’heure, on en sait très peu sur ces pieuvres, dont seulement 12 spécimens, uniquement des femelles, ont pu être étudiés par Stephanie Bush.

« Elles passent la plupart de leur temps assisses, mais parfois elles doivent se mouvoir pour manger ou se reproduire », raconte la chercheuse. De nouvelles données pourraient éclore grâce aux oeufs récoltés en laboratoire, mais dont l’incubation « très lente compte tenu de la température à laquelle vivent ces animaux », peut prendre encore deux à trois ans.

« Les animaux des fonds marins sont moins connus que ceux d’autres habitats », rappelle-t-elle. Malgré la difficulté d’accès à ces espaces immenses, le travail des scientifiques est crucial, car il permet d’en savoir plus sur « la production de nourriture ou d’oxygène », des sujets impactant la vie humaine, explique-t-elle.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Le patron de l’INRA défend la génomique comme un outil clé d’adaptation de l’agriculture au réchauffement

« Les ressources génétiques sont un moyen utile pour lutter et s’adapter au changement climatique » en exploitant le réservoir de diversité des traits génétiques chez les animaux et les plantes, a-t-il dit. Ainsi il est possible de développer des variétés de récoltes, du blé à la vigne, capables de mieux s’adapter à la chaleur ou à la sécheresse par exemple. Cela est vrai aussi pour le bétail.

« Il existe aujourd’hui de puissantes techniques de sélection génomique qui permettent d’accélérer les processus de sélection en faisant des corrélations très étendues entre ce que l’on sait sur les génomes des plantes et des animaux et les traits génétiques qu’on observe », a poursuivi ce scientifique notant que cette approche est sans risque pour l’environnement.

Dans la communauté scientifique on pense que « ces méthodes génomiques sont aussi efficaces sinon plus, pour agir sur les traits complexes comme le rendement d’une culture, que les techniques de type OGM », a-t-il souligné.

Le rendement d’une culture est contrôlé par un très grand nombre de gènes tout comme la résistance à la sécheresse et dans ces cas l’approche OGM, –bannie en France, ndlr– n’est pas adaptée.

Mais il peut aussi y avoir des traits particuliers qui sont contrôlés par un seul gène pour lequel il n’y a pas de moyen de faire de la sélection classique des caractéristiques génétiques et pour lequel « il peut être plus efficace d’utiliser la technique transgénique (OGM) », a expliqué M. Houllier.

« Le choix de l’approche devrait se faire en fonction des qualités que l’on cherche à obtenir » comme la résistance à la chaleur, à une maladie ou davantage de polyphénols, des anti-oxydants, a-t-il fait valoir.

La relation entre la changement climatique et l’agriculture est importante étant donné que cette activité contribue au réchauffement de la planète mais en subi aussi les effets néfastes, a dit le PDG de l’INRA.

Au niveau mondial, les émissions de gaz à effet de serre produits par l’agriculture dont le méthane émanant de la digestion du bétail et le dioxyde de carbone (CO2) résultant de l’exploitation agricole, représentent environ 24% du total, a-t-il précisé.

En France où se tiendra en décembre la conférence mondiale sur le climat, les dix mesures proposées il y a deux ans par le gouvernement permettraient de réduire de 30% (30 millions de tonnes) les émissions de gaz à effet de serre produites annuellement par l’Agriculture estimées à cent millions de tonnes, a indiqué M. Houllié.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

La piste du cuivre révèle la présence de soufre dans le noyau terrestre

De nombreuses mesures sismiques posent depuis longtemps une énigme aux scientifiques : le noyau terrestre semble trop léger pour être seulement composé de fer pur et de nickel. Des hypothèses postulent qu’un certain nombre d’éléments plus légers, tels que le carbone, l’oxygène, le silicium ou le soufre existent dans le noyau. Celui-ci étant situé à 2900 kilomètres sous la surface de la Terre, il est impossible d’avoir accès à des échantillons physiques. Alors comment déterminer sa composition ? En suivant, par exemple, les traces laissées par différents composés dans la chimie du manteau de la Terre lorsqu’ils ont migré au centre de notre planète pour former le noyau. Le soufre étant trop volatil – il passe facilement à un état gazeux – pour laisser ce type d’empreintes, les chercheurs ont utilisé le cuivre, un élément chimique chalcophile, c’est-à-dire qu’il se rencontre fréquemment en association avec le soufre, afin de retracer la destinée du soufre jusqu’au noyau terrestre.

Les chercheurs ont regroupé un grand nombre d’échantillons de laves issues du manteau et de roches de la croûte terrestre pour en déterminer la composition isotopique en cuivre et ainsi évaluer la composition du manteau terrestre. Ils ont ensuite comparé ces résultats à la composition isotopique des météorites. Ces dernières représentent la Terre dans son ensemble, comme si elle n’avait pas été différenciée en un manteau et en un noyau. Les chercheurs ont ainsi découvert que le manteau terrestre était appauvri en isotopes légers du cuivre par rapport aux météorites (qui représente donc la composition isotopique du manteau et du noyau). Ils interprètent ces résultats comme étant la conséquence de la séparation d’un liquide sulfuré (riche en isotopes légers du cuivre) des autres composants chimiques à la fin de la cristallisation du manteau terrestre. Ce liquide sulfuré, plus lourd que le reste du manteau, aurait plongé à la base du manteau et se serait ensuite mélangé avec le noyau terrestre. A partir de la différence de composition isotopique entre le manteau et le noyau, les chercheurs ont estimé que la quantité de liquide sulfuré qui s’est retiré du manteau représente 0,5% du noyau.

Afin de confirmer leurs résultats, les chercheurs ont réalisé une série d’expériences en laboratoire. Ils ont reconstitué la composition chimique de la Terre et l’ont soumise aux mêmes conditions de température et de pression que celles existant lors de la séparation du noyau et du manteau. L’analyse de la composition isotopique des matériaux (sulfures et silicate) produit lors de ces expériences valide l’hypothèse qu’un liquide sulfuré s’est bien séparé des composants du manteau de la Terre primitive.

Ces résultats, qui apportent une preuve de la présence de soufre dans le noyau terrestre, ont été obtenus grâce à cette méthode originale de suivi du cuivre que les chercheurs souhaitent pouvoir adapter à toutes sortes d’environnements, y compris d’autres planètes comme Mars, à partir du moment où des échantillons d’autres manteaux planétaires seront disponibles pour les comparaisons. 

Source : CNRS

Et aussi dans les
ressources documentaires :

Des moteurs qui marchent à l’eau (étude)

Une équipe de l’Université Columbia à New York et de l’Université Loyola de Chicago a fabriqué deux petits gadgets expérimentaux qui fonctionnent de manière autonome en présence d’humidité dans l’air.

La clé de l’expérience, publiée dans la revue Nature Communications, est l’utilisation d’inoffensives spores bactériennes — des petites unités sphériques qui se forment à l’intérieur d’une cellule bactérienne.

Les spores gonflent avec l’humidité et rétrécissent une fois sèches. Ce mouvement de gonflement/rétrécissement dégage de l’énergie.

« Jusqu’à présent, nous avons été en mesure de capter l’énergie de l’eau qui descend des nuages , nous voulons maintenant capter l’énergie de l’évaporation, de l’eau qui part dans l’air, dans l’atmosphère », explique Ozgur Sahin, de l’Université Columbia et coauteur de l’étude, dans une vidéo diffusée par Nature.

« Ce processus est très puissant, (mais) jusqu’à maintenant nous n’étions pas en mesure de capter cette énergie efficacement », confie-t-il.

L’équipe a construit de minuscules moteurs avec de minces bandes de ruban de plastique recouvertes des spores, qui alimentent une minivoiture et des diodes électroluminescentes (LED).

Exposés à l’humidité, les spores se dilatent et entraînent les bandes de plastique. Elles se contractent très vite lorsque la source d’humidité est enlevée. Ce mouvement de va-et-vient peut entraîner des roues et des pistons.

« Lorsque vous assemblez beaucoup, beaucoup de bandes ensemble, vous augmentez la force qu’elles produisent », déclare le chercheur.

Cette technique est encore au stade expérimental. Mais elle pourrait un jour être utilisée pour les prothèses ou les membres des robots, les batteries et les générateurs ou pour concevoir une tenue de sport qui réagit à la sueur: plus vous transpirerez, plus vous produirez de l’énergie.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Le glyphosate à nouveau dans la tourmente

La réponse n’aura pas traîné. Il aura fallu à peine 24h pour que Stéphane Le Foll, ministre de l’agriculture, réponde à l’association Consommation, Logement, Cadre de vie (CLCV) qui venait d’interpeller les « […] agences sanitaires  françaises et européennes […] au sujet de l’herbicide le plus utilisé en France, qui a été classé comme « probablement cancérigène ». » Et c’est non, le glyphosate ne sera pas interdit en France. Le ministre, interrogé sur Public-Sébat, argumente alors qu’il ne souhaite pas retirer un produit s’il n’est pas capable de proposer une alternative, précisant toutefois que « Le glyphosate est dangereux. Les précautions qui doivent être prises sont impératives. » Nous n’en saurons pas plus, mais apparemment le principe de précaution n’est pas à l’ordre du jour.

Le glyphosate est un herbicide non sélectif, commercialisé initialement par Monsanto dans son produit Rounup. Mais depuis que le brevet est tombé dans le public en 2000, le glyphosate a séduit d’autres marques et se retrouve dans près de 750 produits à destination de l’agriculture. C’est devenu l’herbicide le plus répandu dans le monde, une domination du marché que l’on retrouve en France où 8000 tonnes ont été répandues sur les sols en 2011, par les agriculteurs mais surtout par les particuliers qui représentent 60% des utilisations.

le principe de précaution n’est pas à l’ordre du jour

Le 20 mars, le Centre international de recherche sur le cancer (Circ) publie dans Lancet Oncology un travail mené par 17 chercheurs de 11 nations différentes indiquant que le glyphosate se classe « Cancérogène probable », de quoi alerter sur le risque pour la santé. D’autant plus que son caractère cancérigène est prouvé sur les animaux chez qui il provoque des tumeurs ou encore des modifications chromosomiques. Sur l’homme, des études in vitro on montré que le glyphosate endommageait l’ADN et augmentait le risque de développer certains cancers. Des preuves jugées insuffisantes pour qualifier le célèbre herbicide de « cancérogène certain ». En 1985, l’Agence de protection de l’environnement des Etats-Unis le classait déjà comme tel, avant de le rétrograder quelques années plus tard. En 2010, l’Agence pour la sécurité sanitaire de l’alimentation, de l’environnement et du travail pointait le glyphosate comme un des plus importants contaminants des eaux non potables.

Les populations les plus à risques sont les utilisateurs, à savoir les agriculteurs et les jardiniers. Ces derniers peuvent compter sur le soutien de Ségolène Royale qui, contrairement à son homologue du ministère de l’agriculture, a exprimé dimanche chez nos confrères de France 3 sa volonté d’en finir avec le Roundup, affirmant que « La France doit être à l’offensive sur l’arrêt des pesticides ». Pour l’instant, aucune législation ni échéance n’est fixée, mais le glyphosate est plus que jamais dans le viseur de la ministre de l’Ecologie.

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Une circulaire gouvernementale s’attaque au risque chimique associé aux conteneurs

Aujourd’hui, 90% des marchandises transportées par voie maritime le sont par conteneurs, et 80% du fret en général. Cela représente 13 millions de conteneurs dans le monde, soit 3 fois plus qu’en 2000. En Europe, ce sont près de 1 millions de conteneurs qui transitent chaque semaine. 

Pourtant, les conteneurs peuvent présenter un danger pour les hommes et femmes amenées à les manipuler à cause des émanations qui peuvent s’en échapper. Ces gaz ou nuages de particules proviennent soit de la fumigation soit directement des marchandises stockées.

D’après la circulaire publiée le 7 mai par le Ministère du travail, de l’emploi, de la formation professionnelle et du dialogue social, des polluants ont été clairement identifiés. Il s’agit de phosphine, de bromure de méthyle ou encore de dichlorométhane pour les gaz issus de fumigation, ainsi que de formaldéhyde, de toluène et de benzène pour les émanations de certaines marchandises. Autant d’agents chimiques connus pour leurs risques d’intoxication ou d’augmentation des risques de cancers ou encore de problèmes neurologiques. D’après la circulaire, « Plusieurs cas d’intoxications tout au long de la chaine de transport et de vente des marchandises 

ont été rapportés à bord des navires vraquiers et céréaliers, essentiellement en lien avec l’exposition à la phosphine (gaz de fumigation toxique par inhalation et extrêmement inflammable), en zone portuaire lors des interventions sur des conteneurs [et] dans les entrepôts de stockage, plateformes logistiques et entreprises marchandes lors des interventions sur des conteneurs et autres contenants de marchandises. » L’occasion de rappeler que le risque existe principalement lors des ouvertures des conteneurs, pendant des travaux de contrôle, les manœuvres chargement/déchargement et au cours des travaux de nettoyage et de dégazage. 

Pour s’assurer que toutes les mesures préventives sont prises, le gouvernement demande aux inspecteurs du travail de bien communiquer auprès des professionnels rencontrés et de faire remonter toute difficulté éventuelle à la Direction générale de travail.

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Le BTP, un secteur particulièrement exposé au risque chimique

Solvants, acides, bases, résines, huiles, produits de traitement… Les substances dangereuses sont légions dans le secteur du bâtiment. Les personnes y travaillant sont régulièrement exposés aux produits chimiques et donc potentiellement aux risques associés : contamination physique pouvant conduire à un problème de santé avec le développement de maladies à plus ou moins long terme, mise en danger face aux risques d’inflammabilité et/ou d’explosion, sans oublier la pollution de l’environnement. Les travailleurs du BTP doivent donc être particulièrement vigilants quand aux produits qu’ils manipulent, à la façon dont ils les utilisent et comment ils s’en protègent. 

La réglementation s’attache à protéger au mieux le secteur des risques chimiques en déployant tout un arsenal de mesures spécifiques qui vont plus loin que les principes généraux de prévention. Par exemple, depuis le 6 juin 2012 il est interdit d’utiliser des décapants de peinture avec un taux de dichlorométhane (DCM) supérieur à 0.1% en masse.

Malheureusement, une réglementation stricte n’est pas toujours suffisante et les acteurs du BTP doivent s’astreindre à plus de discipline. Si le port des équipements de protection individuels est bien intégré, l’utilisation du document unique (DU) n’est effective que pour 68% des industriels alors même qu’il est obligatoire ! Le professionnel doit transcrire par écrit l’évaluation des risques imposée par le code du travail. C’est un des fondements de la mise en place de plans d’actions de prévention adaptés et efficaces. 

Il est vrai que le risque chimique reste encore méconnu des acteurs du BTP. Pourtant, d’après l’enquête Sumer 2010 menée par la Direction du travail et la direction de l’animation de la recherche, des études et des statistiques (DARES), 61.5% des salariés du BTP sont exposés à au moins 1 produit chimique. Pire, un quart de ces travailleurs sont exposés pendant plus de 10h chaque semaine.

Pour aider les professionnels du secteur du bâtiment, l’Organisme professionnel de prévention du bâtiment et des travaux publics (OPPBTP) met à leur disposition un service d’évaluation du risque chimique. Cet outil entièrement gratuit est accessible en ligne: www.preventionbtp.fr

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

9 nouveaux pictogrammes illustrent désormais l’étiquetage des mélanges chimiques

Après les substances en 2010, c’est donc au tour des mélanges d’être touchés par la nouvelle réglementation classification, étiquetage et emballage n° 1272/2008 qui introduit de nouveaux pictogrammes de dangers. Le grand public va donc découvrir les dangers potentiels d’un produit grâce à des pictogrammes créés exprès pour cette réglementation CLP.

Ces visuels sont au nombre de 9 : Corrosif, Gaz sous pression, Nocif/Altération de la santé, Explosif, Toxique/mortel, Toxique/Nuisible pour la santé, Comburant, Inflammable, Dangereux pour l’environnement. Le dessin noir encadré d’un losange rouge supplante donc les anciens logos carrés sur fond jaune.

Si les nouveaux produits présentent d’office ces nouveaux pictogramme, les industriels ont 2 ans pour appliquer la nouvelle réglementation sur les produits déjà commercialisés, d’où une superposition des 2 systèmes d’affichage jusqu’à mai 2017.

Signification de chaque pictogramme

  • Dangers physique

Explosif : Le produit peut exploser au contact d’une flamme, d’une étincelle, d’électricité statique, sous l’effet de la chaleur, d’un choc ou de frottements 

Gaz sous pression : Le produit peut exploser sous l’effet de la chaleur (gaz comprimés, gaz liquéfiés et gaz dissous). Il peut causer des brûlures ou blessures liées au froid (gaz liquéfiés réfrigérés.

Inflammable : Le produit peut s’enflammer au contact d’une flamme, d’une étincelle, d’électricité statique, sous l’effet de la chaleur, de frottements, au contact de l’air ou au contact de l’eau en dégageant des gaz inflammables.

Comburant : Le produit peut provoquer ou aggraver un incendie. Il peut provoquer une explosion en présence de produits inflammables.

Corrosif : Le produit ronge. Il peut attaquer (ronger) ou détruire les métaux.

 

  • Dangers pour la santé

Dangereux pour la santé : Le produit peut empoisonner à forte dose. Il peut irriter la peau, les yeux, les voies respiratoires. Il peut provoquer des allergies cutanées. Il peut provoquer somnolence ou vertige.

Toxique ou mortel : Le produit peut tuer rapidement. Il empoisonne rapidement même à faible dose.

Corrosif : Le produit peut provoquer des brûlures de la peau et des lésions aux yeux en cas de contact ou de projection.

Très dangereux pour la santé : Le produit peut provoquer le cancer. Il peut modifier l’ADN. Il peut nuire à la fertilité ou au fœtus. Il peut altérer le fonctionnement de certains organes. Il peut être mortel en cas d’ingestion et de pénétration dans les voies respiratoires. Il peut provoquer des difficultés respiratoires ou des allergies respiratoires (ex. : asthme)

 

  • Dangers pour l’environnement

Dangereux pour l’environnement aquatique : Le produit pollue. Il provoque des effets néfastes (à court et/ou à long terme) sur les organismes du milieu aquatique.

Dangereux pour la couche d’ozone : Le produit détruit la couche d’ozone.

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Le séisme au Népal a déplacé le Mont Everest, selon une étude chinoise

Selon une étude de cette administration, l’Everest s’est élevé de 3 cm au cours des dix dernières années, à raison de 0,3 cm/an, tout en se déplaçant de 40 centimètres vers le nord-est, soit au rythme de 4 cm par an.

L’Everest « se déplace constamment vers le nord-est et le séisme lui a fait faire un petit bond dans la direction opposée », a déclaré le vice-directeur de l’Institut de géologie de l’administration chinoise chargée des séismes, Xu Xiwei, cité par le China Daily.

L’amplitude du mouvement est « normale », selon lui.

Situé à la frontière du Népal et de la Région autonome chinoise du Tibet, l’Everest constitue un bon point d’observation du mouvement des plaques tectoniques eurasienne et indienne, qui se rencontrent dans cette région hautement sismique, selon lui.

La deuxième séisme survenu au Népal le 12 mai, d’une magnitude de 7,5, n’a pas provoqué de déplacement particulier de l’Everest, selon l’étude, réalisée à l’aide d’instruments de mesure satellitaires.

Le double séisme a fait plus de 8.700 morts au Népal et a été particulièrement meurtrier pour les alpinistes dans l’Everest, avec au moins 18 morts sous des avalanches.

Des scientifiques ont établi que la vallée densément peuplée de Katmandou, située à quelque 80 kilomètres au sud-est de l’épicentre du séisme, a été déplacée d’environ deux mètres vers le sud sous le choc.

La ville-même de Katmandou, capitale du Népal, « a glissé de plus de 1,5 mètre en direction du sud et a été soulevée de près d’un mètre », a déclaré à l’AFP Madhu Sudan Adhikari, chef du département des études au ministère népalais de l’Administration territoriale.

« Nous avons étudié le coeur des zones affectées par le séisme et il y a eu un mouvement général (de déplacement) vers le sud », a-t-il indiqué.

La hauteur « officielle » de l’Everest est de 8.848 m, déterminée en 1954 par une étude indienne, mais elle peut varier de plusieurs mètres selon les critères retenus.

La Chine l’abaisse de quatre mètres en excluant la couche de glace et de neige du sommet, tandis que les Etats-Unis l’ont mesuré à 8.850 m en 1999 en utilisant une technologie GPS, une hauteur finalement retenue par la Société américaine de géographie.

La première mesure du Mont Everest remonte à 1856, près de 100 ans avant sa conquête en 1953 par le Sherpa Tenzing Norgay et l’alpiniste néo-zélandais Edmund Hillary.

La Chine et le Népal ont passé un compromis en 2010 sur la hauteur de l’Everest, le Népal le mesurant à 8.848 m en y incluant la couche neigeuse et la Chine à 8.844 m en excluant celle-ci.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Les pommes de la grande distribution produites à grand renfort de pesticides (rapport ONG)

L’ONG a analysé 85 échantillons –36 dans l’eau, 49 dans le sol–, prélevés dans les vergers de 12 pays européens parmi les plus gros producteurs de pommes, en ciblant ceux fournissant la grande distribution.

En moyenne, 75% des échantillons (78% pour le sol, 72% pour l’eau) « contenaient des résidus d’au moins un » des 53 pesticides identifiés.

« Au moins 70% des pesticides identifiés présentent une toxicité globale élevée pour la santé humaine et la faune sauvage », affirme Greenpeace, dénonçant ce « fardeau toxique » imposé par « la production industrielle ».

Le nombre de pesticides le plus élevé dans les sols a été détecté en Italie, en Belgique et en France.

Concernant l’eau, les pesticides sont les plus nombreux en Pologne, en Slovaquie et en Italie, selon le rapport.

Les pesticides les plus fréquemment retrouvés dans les sols sont le boscalid, « un fongicide présent dans 38% des échantillons », et le DDT (26% des échantillons).

Concernant les échantillon d’eau, les pesticides les plus fréquemment identifiés sont le boscalid (dans 40% des prélèvements) et le chlorantraniliprole, un insecticide lui aussi retrouvé dans 40% des échantillons.

Le rapport dénonce ce « cocktail de pesticides » et « montre la réalité de l’usage vraiment important, systématique et +multiproduits+ des pesticides dans la production agricole conventionnelle », a déclaré à l’AFP Anaïs Fourest, chargée de campagne agriculture à Greenpeace.

Greenpeace demande aux Etats membres de l’Union européenne de « mettre progressivement fin à l’utilisation des pesticides chimiques de synthèse dans l’agriculture » et de soutenir les « alternatives non chimiques pour lutter contre les parasites, en particulier les pratiques agricoles écologiques ».

La publication de ce rapport vise à « interpeller la grande distribution », comme la campagne « zéro pesticide » récemment lancée par l’ONG en France pour tenter de convaincre les six principales enseignes de la distribution française (Auchan, Carrefour, Casino, Leclerc, Intermarché, Magasins U) de soutenir les agriculteurs s’engageant à produire sans pesticides.

Des résidus de pesticides sont présents dans près de la moitié des denrées consommées en Europe, mais pour la plupart dans les limites légales et probablement sans effet sur la santé, a assuré en mars l’Autorité européenne de sécurité des aliments. Les pommes figurent parmi les fruits les plus chargés en résidus.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Reach/CLP : toute l’actualité de juin 2015

  • 15/06/2015

Autorisation et SVHC – La liste des substances candidates à autorisation (ou SVHC) a été mise à jour le 15 juin 2015. Elle comporte deux entrées supplémentaires ce qui porte à 163 le nombre total d’entrées sur cette liste. Les deux nouvelles entrées concernent :

– un mélange de diesters d’alkyles : 1,2-benzenedicarboxylic acid, di-C6-10-alkyl esters; 1,2-benzenedicarboxylic acid, mélange de décyl, hexyl et octyl diesters (N° CE: 271-094-0), (N° CE: 272-013-1), identifé pour ses proriétés toxiques pour la reproduction, lorsqu’il contient une quantité supérieure ou égale à 0,3% de dihexyl phthalate (N° CE: 201-559-5).

– 5-sec-butyl-2-(2,4-dimethylcyclohex-3-en-1-yl)-5-methyl-1,3-dioxane [1], 5-sec-butyl-2-(4,6-dimethylcyclohex-3-en-1-yl)-5-methyl-1,3-dioxane [2] [couvrant chaque stéréoisomères de [1] et [2] ou toute combinaison de ceux-ci], ce groupe de substances couvre notamment le karanal, utilisé principalement comme parfum. Ce groupe de substances a été identifié pour ses propriétés très persistantes et très bioaccumulables.

 

  • 09/06/2015

Restrictions – L’ECHA lance un appel à contribution sur les conclusions de deux rapports (dossiers annexe XV) indiquant qu’aucune restriction n’est requise pour le MDA (4,4’-diaminodiphénylméthane) et le musk xylène. Ceci fait suite à une évaluation menée sur ces deux substances qui remplissaient les conditions de l’article 69.2 de REACH (après la date d’expiration citée à l’article 58.c.i de REACH, l’ECHA examine si l’utilisation de cette substance dans des articles entraîne un risque qui n’est pas valablement maîtrisé).

 

  • 08/06/2015

Le règlement d’exécution n°864/2015 de la Commission est paru le 4 juin 2015. Il modifie le montant des redevances précédemment fixées par le règlement n°340/2008, modifié par le règlement n°254/2013, en application de REACH.

 

  • 01/06/2015

La Commission européenne a publié le 29 mai 2015 au Journal officiel de l’Union européenne, le règlement (UE) 2015/830, qui vient rappeler la mise en application à partir du 1er juin 2015 de l’annexe II du règlement 453/2010 (venu modifier l’annexe II de REACH).

Ce règlement précise également que les fiches de données de sécurité des substances et mélanges fournis avant le 1er juin 2015, ne doivent pas nécessairement être mises à jour à la date du 1er juin 2015.

Par Pierre Thouverez

Sources : 

La transition énergétique allemande met en péril le marché du carbone

Avec sa campagne nationale pour la transition énergétique, l’Allemagne espère devenir un leader mondial de la politique climatique. L’Allemagne veut donner l’exemple en fixant un objectif de réduction des émissions de CO2 de 40 % jusqu’en 2020, comparé au niveau de 1990.

« C’est une politique climatique extrêmement idiote », a estimé Joachim Weimann, professeur d’économie de l’environnement à l’Université de Magdeburg, lors d’une rencontre organisée par EurActiv le 11 juin à Berlin.

Un système d’échange de quotas d’émissions (ETS) existe déjà à échelle européenne, a-t-il rappelé, et c’est un moyen très rentable de réduire les gaz à effet de serre. L’objectif de 40 % du gouvernement est quant à lui accompagné d’un soutien considérable aux énergies renouvelables, a expliqué Joachim Weimann.

Un objectif de prévention national remet en cause le marché de quotas, ce qui n’a aucun sens, a-t-il insisté.

La promotion des énergies renouvelables n’a aucun effet sur la quantité actuelle des réductions de CO2, a expliqué Joachim Weimann. Elles ne font qu’augmenter le coût des réductions, déjà défini par la limite établie par le système d’échange de quotas d’émissions, a déclaré l’économiste de l’environnement. Au lieu de cela, le gouvernement allemand devrait créer de meilleures conditions pour l’ETS, a-t-il commenté, et se pencher davantage sur la recherche de nouvelles sources énergétiques. La transition énergétique n’aura pas lieu seulement avec les technologies existantes, a-t-il ajouté.

Étendre les centres ETS

L’Europe doit enfin prendre l’ETS au sérieux et faire face aux critiques infondées faites au système. « Lors du sommet pour le climat à Paris [COP21], l’Europe doit faire campagne pour un système d’échange de quotas d’émission international », a déclaré Joachim Weimann.

Des centres pourraient être mis en place là où ces systèmes existent déjà, a-t-il expliqué, comme en Europe. Puis, ces régions d’échanges de quotas d’émissions pourraient s’étendre graduellement pour inclure de nouveaux pays.

« Si l’Europe ne peut gérer cela, la COP21 échouera », a-t-il ajouté. L’objectif fixé par les pays du G7 lors du sommet de Schloss Elmau est « digne des travaux d’Hercule » pour les pays industrialisés.

La chancelière Angela Merkel a récemment douché les espoirs liés à un système mondial d’échange de quotas d’émission dans un avenir proche.

Étendre ce système au-delà de l’Europe serait « particulièrement efficace » pour créer « des conditions uniformes au niveau mondial », a-t-elle indiqué, mais cela a peu de chances d’arriver.

« La question du prix des émissions de CO2 sera surement discutée de façon théorique, mais j’ai bien peur qu’aucun accord ne soit conclu », a déclaré Angela Merkel.

« Les décisions du G7 sont un signal de départ pour une renaissance nucléaire ».

Lors de leur sommet en Bavière le 8 juin dernier, les chefs d’État et de gouvernement du G7 ont promis de remplir l’objectif des deux degrés. D’ici la fin du siècle, les pays industrialisés espèrent ramener leurs émissions de gaz à effet à zéro. D’ici à 2050, ils espèrent que leurs réductions d’émissions se trouveront dans la tranche haute des 40-70 %.

Le secteur industriel considère que ces objectifs sont utopiques et soulignent le fait que le processus de production comprend plusieurs étapes entrainant des émissions de CO2.

« Dans l’industrie des matériaux par exemple, il existe des procédés engendrant des émissions de CO2 que nous ne pouvons pas éliminer. Une décarbonisation totale signifierait une désindustrialisation », a martelé Franziska Erdle, PDG de l’Association de l’industrie du métal (WVM), qui comprend 660 entreprises de l’industrie du métal non ferreux.

Même si l’on envisage une décarbonisation de l’industrie énergétique, a-t-elle déclaré, une dépendance à l’énergie nucléaire finit par être nécessaire pour garantir un approvisionnement de base en électricité.

« Les décisions prises à Elmau sont le signal de départ pour une renaissance de l’énergie nucléaire », a-t-elle indiqué.

Pour la directrice de l’WVM, l’objectif national des 40 % est « irréaliste ». Selon elle, l’État investit des milliards d’euros dans les renouvelables et cela n’a qu’un effet marginal.

« Seuls 85 % des dépréciations dans l’industrie énergivore sont réinvesties. Si l’on continue ainsi, une partie de l’industrie quittera l’Allemagne. Pourtant, nous voulons participer activement à la transition énergétique », a-t-elle souligné.

Mêmes règles pour tous ?

Lors de la conférence climat à Paris, la communauté internationale doit s’accorder sur des objectifs contraignants pour tous les pays, a rappelé Franziska Erdle. « Ce dont nous avons besoin, c’est de règles communes à tous, et pas d’engagement en solo. »

Le gouvernement allemand s’accroche à son objectif de 40 %. En tant que leader de la politique climatique, il espère convaincre les pays nouvellement industrialisés et en développement de suivre l’exemple.

Les décisions prises par le G7 sont aussi importantes pour motiver la communauté scientifique et la sphère politique et économique à développer de nouvelles structures, a déclaré le ministre allemand de l’Environnement, Franzjosef Schafhausen.

« Il ne s’agit pas seulement de décarboniser, il faut aussi revoir les structures de production et de consommation », a-t-il expliqué.

« Nous essayons de faire en sorte que l’Allemagne conserve son industrie. À ce stade, il serait dommage que les entreprises jettent l’éponge maintenant car elles estiment qu’elles ne peuvent pas se plier aux objectifs climat au niveau national et européen », a affirmé le ministre

La protection du climat est une nécessité, a-t-il rappelé. « Aujourd’hui, nous avons le choix entre atteindre l’objectif des deux degrés ou accepter le coût de dégâts considérables », a-t-il souligné.

Source : Euractiv

Et aussi dans les
ressources documentaires :

  • Energie
  • Nouvelles technologies, énergies renouvelables et stockage

L’AIE prône la suppression des aides aux énergies fossiles d’ici 2030

L’Agence internationale de l’énergie (AIE) a publié des propositions concrètes permettant d’atteindre le pic des émissions liées à l’énergie dès 2020, dans une étude intitulée Energy and Climate Change.

Ce pic, auparavant envisagé pour 2030, serait un réel tournant dans la lutte contre le réchauffement climatique. Il pourrait être atteint sans sacrifier les perspectives économiques et de développement d’aucune région du monde, et son coût net serait inexistant, assure l’AIE.

Prendre les mesures nécessaires pour atteindre ce pic dix ans plus tôt que prévu constituerait un message fort lors de la Conférence de Paris (COP 21).

Pourtant, les contributions prévues déterminées au niveau national (CPDN) déjà annoncées ou pressenties, indiquent que les émissions liées à l’énergie devraient ralentir, sans pour autant atteindre leur maximum avant 2030. Un calcul facilement réalisable, puisque les pays responsables des deux tiers des émissions ont déjà annoncé officiellement leur contribution, ou au moins une estimation de celle-ci.

L’évaluation des CPDN par l’AIE montre ainsi que ces engagements vont dans le bon sens, mais n’atteignent pas le niveau nécessaire pour le « changement de cap majeur » qui doit avoir lieu pour limiter le réchauffement à deux degrés.

Cinq mesures

Pourtant, il suffirait aux gouvernements de prendre cinq mesures pour que le pic d’émissions soit atteint rapidement, pour que l’augmentation de la pollution au charbon et au pétrole ralentisse dans les cinq ans à venir et pour que les énergies renouvelables prennent plus d’importance :

  • la réduction progressive de l’utilisation des centrales énergétiques au charbon les moins efficaces et l’interdiction d’en construire de nouvelles ;
  • la suppression progressive des subventions aux énergies fossiles d’ici à 2030 ;
  • la réduction des émissions de méthane, un gaz à effet de serre plus dangereux que le dioxyde de carbone, dans la production de pétrole et de gaz ;
  • l’amélioration de l’efficacité énergétique dans l’industrie, la construction et le transport ;
  • l’augmentation des investissements dans les technologies renouvelables, qui doivent passer des 240 milliards d’euros de 2014 à 355 milliards d’ici 2030.

Si ces politiques étaient mises en œuvre, le pic du charbon serait atteint avant 2020 et le secteur déclinerait ensuite. La demande en pétrole augmenterait jusqu’en 2020 pour se stabiliser ensuite et les émissions de gaz à effet de serre liés à l’énergie dans leur ensemble atteindraient leur maximum vers 2020, estime l’AIE.

En outre, l’intensité énergique de l’économie mondiale et l’intensité de carbone de la génération d’électricité s’améliorerait de 40 % d’ici 2030. Le lien entre croissance économique et croissance des émissions en Chine serait rompu vers 2020, mais l’AIE prévoit que cette séparation aura lieu presque 30 % plus rapidement dans l’UE.

Cette rupture dépendra de l’amélioration des mesures sur l’efficacité énergétique, soulignent les spécialistes de l’AIE.

L’Union européenne a promis de réduire ses émissions de gaz à effet de serre d’au moins 40 % d’ici 2030, par rapport au niveau de 1990. Cette réduction permettrait un déclin des émissions de CO2 liées à la production d’énergie à un rythme presque deux fois plus rapide que celui que nous connaissons depuis 2000. Cela ferait de l’UE l’une des économies libérant le moins de CO2 au monde, selon les calculs de l’AIE.

Sans l’application des cinq mesures avancées, le lien entre la croissance économique mondiale et les émissions ne pourrait être rompu avant 2030, même s’il s’affaiblirait considérablement. L’économie mondiale devrait croître de 88 % entre 2013 et 2030, alors que les émissions de CO2 ne devraient augmenter que de 8 %.

En 2030, les renouvelables seraient la source d’électricité principale, mais le déclin des capacités de génération d’énergie au charbon serait insuffisant.

« Comme nous le montre à plusieurs reprise l’analyse de l’AIE, le coût et la difficulté liés à la réduction des gaz à effet de serre augmentent tous les ans, chaque minute est donc précieuse », estime Maria van der Hoeven, directrice exécutive de l’agence.

L’AIE a également fait quatre recommandations pour faire de la conférence de Paris une réussite à long terme. Pour ce faire, il faudrait :

  • fixer les conditions permettant d’atteindre rapidement le pic des émissions liées à l’énergie dans le monde ;
  • réviser les objectifs climatiques nationaux tous les cinq ans, afin d’encourager des mesures ambitieuses ;
  • traduire l’objectif climatique mondial en un objectif d’émissions sur le long terme ;
  • établir un processus d’évaluation des améliorations dans le secteur de l’énergie.

Les ONG demandent à la Commission de soutenir les renouvelables

Le Réseau action climat Europe (CAN), Greenpeace et WWF ont exhorté la Commission à proposer une séries de politiques fortes afin d’atteindre et de surpasser les objectifs de l’UE pour 2030 en matière d’énergies renouvelables.

Les ONG soutiennent l’établissement d’objectifs nationaux non-contraignants, avec des récompenses financières pour les pays allant au-delà des objectifs. Un tel système encouragerait les gouvernements à être plus efficaces en matière de renouvelables, soulignent-elles dans des recommandations fondées sur les recherches d’Ecofys.

« Le succès des renouvelables en Europe a été encouragé par des objectifs nationaux contraignants. Sans ces objectifs, il sera essentiel qu’un cadre applicable continue de promouvoir la croissance des énergies propres dans l’UE », souligne Imke Lübbeke, responsable des politiques sur les énergies renouvelables à WWF.

À l’heure actuelle, la Commission européenne tente de déterminer quelle serait la meilleure stratégie pour atteindre ses objectifs pour 2030 en la matière, dans le contexte de son nouveau cadre sur la gouvernance énergétique.

En octobre dernier, lors de l’accord sur les objectifs climatiques et énergétiques pour 2030, les dirigeants de l’UE ont accepté de supprimer les objectifs contraignants nationaux sur les énergies renouvelables et de les remplacer par un cadre de gouvernance. Selon cet accord, d’ici 2030, au moins 27 % de l’énergie dans l’Union proviendra de sources renouvelables.

Source : Euractiv

Et aussi dans les
ressources documentaires :

La désintégration qui confirme la théorie du modèle standard

Il n’aura pas fallu attendre longtemps après la remise en route, le 5 avril, du grand collisionneur de hadrons (Large Hadrons Collider – LHC) pour avoir de ses nouvelles. Quelques semaines en fait, avant que des chercheurs du CERN ne publient au sein de la revue Nature une étude décrivant leur observation de la désintégration d’un Méson B – une particule composite (entendre non élémentaire) – en deux muons.

Un phénomène qui ne se produit qu’exceptionnellement d’après les prédictions du modèle standard : quatre fois sur un milliard de désintégrations. 

C’est grâce à l’union des forces du CMS (Compact Muon Solenoid) et du LHCb (Large Hadron Collider Beauty) que cette désintégration très rare, a pu être observée pour la première fois après trois décennies d’efforts. Une étude publiée en 2013 relatait plus ou moins des résultats similaires, mais en dessous de la base des 5 sigmas pour obtenir le statut d’observation.

C’est désormais le cas puisque l’analyse conjointe des expériences CMS et LHCb atteint les 6,2 sigmas. Cette découverte, comme celle du Boson de Higgs, renforce donc le modèle standard, la théorie décrivant les interactions entre les particules élémentaires.

Vers une nouvelle physique

Les chercheurs espèrent grâce à ce genre de résultats ouvrir une voie « au-delà » du modèle standard et ainsi découvrir une nouvelle physique, telle que la supersymétrie, la théorie qui prédit une particule partenaire pour chacune des particules.

L’idée étant, comme le dit le CERN à propos de cette théorie, que « si nous nous posons encore toutes ces questions sur le fonctionnement interne de l’Univers, c’est peut-être parce que nous n’avons vu jusqu’à présent que la partie émergée de l’iceberg ».

Or, le but poursuivi par le LHC est justement de mieux comprendre l’Univers et ses nombreuses énigmes, notamment la nature de la matière noire. En ce sens, les futurs tests s’avéreront cruciaux!

Par Sébastien Tribot

Et aussi dans les
ressources documentaires :

Le Bourget: un Boeing 787 fait le spectacle avec un décollage quasi vertical

L’appareil, un 787-9 aux couleurs de Vietnam Airlines, a effacé une partie de la piste de décollage peu avant 15H30 avant de se cabrer dans une « chandelle » presque à angle droit et de grimper rapidement vers les nuages.

Cette figure, plus attendue d’un avion de chasse que d’un biréacteur long courrier, a provoqué des exclamations parmi le public –de professionnels– rassemblé pour cette 51e édition de la grande fête de l’aviation, au nord de Paris.

L’avionneur américain avait donné un avant-goût de cette démonstration en mettant en ligne sur YouTube une vidéo qui a été vue plus de 7,5 millions de fois en quatre jours.

Entré en service fin 2011, le 787 est un avion long courrier de nouvelle génération en matériaux composites, censé être plus économe en kérosène. Il a subi plusieurs revers au début de sa carrière, les plus sérieux en janvier 2013, avec deux cas graves de surchauffe de batteries lithium-ion. Les 50 exemplaires alors en circulation avaient été cloués au sol pendant plus de trois mois.

Le Dreamliner est toutefois un gros succès commercial pour Boeing, qui a enregistré 1.105 commandes fermes dont 283 ont été livrés. Les appareils sortent actuellement au rythme de 10 par mois des usines de l’avionneur, un chiffre qui devrait passer à 14 par mois à la fin de la décennie selon la firme aéronautique de Seattle.

tq/fka/it

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Japon: un robot humanoïde façon « Transformer » de 3,5 m de haut

Appelée « J-deite RIDE », cette créature, tout droit sortie de la science-fiction dont raffolent les Nippons, devrait être opérationnelle en 2017, ont annoncé les deux firmes tokyoïtes Brave Robotics et Asratec, une filiale du géant des télécoms SoftBank, qui a de grandes ambitions dans la robotique.

Un prototype avait déjà été présenté l’an passé au Japon.

« Il lui faudra moins de 10 secondes pour passer du statut d’humanoïde à celui d’automobile », assurent ses concepteurs,

J-deite RIDE sera capable de marcher à la vitesse de 10 km/h en mode bipède ou de rouler à 60 km/h en configuration véhicule dont la longueur sera de 3,8 mètres.

Cet engin de 700 kg pourra embarquer deux personnes et être piloté soit depuis le cockpit, soit depuis l’extérieur par télécommande sans fil.

Les Japonais ont une passion pour les robots en tout genre, qu’ont amplifiée les mangas et dessins animés avec des séries cultes comme Gundam, UFO Robot Grendizer (Goldorak) ou la série américaine Transformers qui a donné lieu à une collection de jouets homonymes.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

 

Royal demande aux jardineries de ne plus vendre en libre service le Roundup de Monsanto

« La France doit être à l’offensive sur l’arrêt des pesticides », a déclaré la ministre.

« Elle doit être aussi à l’offensive sur l’arrêt des pesticides dans les jardins et je vous annonce que j’ai demandé aux jardineries d’arrêter de mettre en vente libre le Roundup de Monsanto », le géant américain des semences et de l’agrochimie, a-t-elle dit.

Le Roundup avait été remis au centre de l’actualité après le classement en mars du glyphosate, son principe actif, comme cancérogène « probable chez l’homme », même si les « preuves sont limitées », par le Centre international de recherche sur le cancer (CIRC).

Dans un communiqué transmis à l’AFP, le groupe Monsanto explique ne pas avoir à ce stade « d’information réglementaire concernant une évolution de l’autorisation de mise sur le marché du désherbant Roundup ».

Il juge qu' »absolument aucune nouvelle donnée scientifique récente ne permet de remettre en cause cette autorisation » et estime que « dans les conditions recommandées d’utilisation figurant sur l’étiquette, le produit ne présente pas de risque particulier pour l’utilisateur ».

Monsanto précise enfin qu’il continue « à travailler activement avec les autorités compétentes pour assurer la ré-homologation décennale européenne du glyphosate ».

« Si l’interdiction de la vente aux particuliers des pesticides type Roundup était anticipée, par la loi ou par des accords volontaires, ce serait évidemment un bon signal », indique de son côté à l’AFP Matthie Orphelin, porte-parole de la Fondation Nicolas Hulot.

Quant à elle, la Fédération nationale des accidentés du travail et des handicapés (Fnath) a salué cette décision dans un communiqué, rappelant qu’elle «  »accompagne les victimes de ces produits ».

« S’il est évidemment indispensable de renforcer l’information dans les jardineries pour les amateurs, c’est également l’utilisation des pesticides en milieu professionnel sur lequel il convient de travailler pour éviter le développement de maladies professionnelles », écrit la Fnath.

Cette annonce de Ségolène Royal intervient alors que l’association de consommateurs CLCV avait interpellé en début de semaine les agences sanitaires françaises et européennes et le ministre de l’Agriculture sur le glyphosate, demandant notamment qu’il ne soit plus vendu en libre service aux jardiniers amateurs.

Dans la foulée, Ségolène Royal et le ministre de l’Agriculture Stéphane Le Foll avaient indiqué dans un communiqué jeudi qu’à compter du 1er janvier 2018, l’accès aux produits phytosanitaires pour les jardiniers amateurs ne pourra se faire que « par l’intermédiaire d’un vendeur certifié ».

« L’acheteur amateur bénéficiera ainsi d’un conseil renforcé systématique lors de la vente de ces produits avec une information sur les interdictions à venir et les alternatives », selon ce communiqué.

Stéphane Le Foll avait toutefois indiqué auparavant ne pas vouloir interdire le glyphosate, l’herbicide le plus utilisé en France.

jbo-sd/ei

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »