L’homme est un martien comme les autres

C’est lors de la conférence internationale Goldschmidt, tenue cette fois-ci à Florence, et consacrée à la géochimie que Steven Brenner, professeur à l’institut Westheimer pour la Science et la Technologie de Gainesville, a fait cette surprenante annonce. La vie – ou plutôt les ingrédients nécessaires à la vie – est arrivée de l’espace à bord d’un rocher, à l’époque ou la Terre était régulièrement bombardée. D’après Mr Brenner, l’ingrédient s’avère être du molybdène, un métal de transition généralement employé comme agent d’alliage et introduit sur Terre sous une forme oxydée. Ce dernier trait est capital car seule une forte oxydation du molybdène permet d’instaurer un état propice à la création de la vie. Vinciane Debaille, géochimiste et spécialiste des météorites qui a assisté à la conférence le précise : « les molécules oxydées peuvent servir de catalyseur à la vie ».

Brenner a bâti sa théorie sur les observations récentes résultant de l’analyse d’une météorite sur laquelle les chercheurs ont trouvé du molybdène justement ainsi qu’un métalloïde trivalent nommé bore. Il est ensuite parti du principe qu’il y a près de 3,8 milliards d’années, la Terre ne disposait pas d’oxygène. Or, dans le même temps, Mars était soumis à des bombardements constants de météorites. Donc le molybdène oxydé est apparu suite à l’un de ces bombardements, capturé par la gravité terrestre pour permettre enfin aux molécules indispensables à la vie de s’associer.

C’est un fait, dès qu’il s’agit de donner une explication aux origines de la vie, chacun y va de son interprétation ; des hypothèses plus ou moins étranges fleurissent. L’annonce du chercheur Brenner, relayée par l’AFP, a clairement suscité un emballement médiatique. Toutefois, comme le rapporte le site du Nouvel Obs, cette théorie a de fortes raisons d’être mise en doute. Premièrement, parce que l’institut Weistheimer est un institut privé créé par Mr Brenner qui n’a d’autre légitimité que celle qu’il s’est donnée. Mais surtout parce que les détails sur lesquels il s’appuie sont invérifiables. Il ne tient donc qu’à vous de décider si vous voulez y croire…

Par Sébastien Tribot

Evalexper : Nouvelle solution d’évaluation et de gestion du risque chimique

Les règles de prévention du risque chimique s’appliquent à tous les secteurs d’activité dans lesquels les travailleurs sont exposés à des produits chimiques dangereux.

Chef d’entreprise, responsable santé sécurité, infirmière du travail… De nombreux professionnels doivent évaluer et contrôler l’exposition de leurs salariés aux produits chimiques utilisés dans l’entreprise.

Pour être parfaitement en conformité avec les exigences du Code du travail en matière de risques professionnels, les éditions Techniques de l’Ingénieur vous accompagnent et mettent à votre disposition la Solution d’évaluation et de gestion du risque chimique Evalexpert, pour vous aider à :

  • identifier et caractériser les dangers liés aux produits, agents ou substances chimiques ;
  • mettre en place les mesures de protection adaptées ;
  • communiquer avec vos fournisseurs, distributeurs, clients ;
  • vérifier la conformité des usages et des scénarios d’exposition ;
  • faire évoluer les documents de communication (dont étiquetage) ;
  • rester en veille sur les modifications entraînées par REACH et CLP : annexe XIV, VLEP, étiquetages…

Cet accompagnement s’articule autour de :

  • Une journée de formation : synthèse de la démarche et prise en main de l’outil logiciel d’évaluation et de gestion du risque chimique. A partir d’un cas fil rouge, l’utilisateur s’entraînera aux différentes étapes de l’évaluation du risque chimique : recueil des informations sur les agents chimiques, inventaire des situations d’exposition, édition des documents de référence (inventaires, DU…), gestion de la traçabilité des expositions… Une seconde journée de formation en option, permettra notamment de découvrir les fonctions expertes du logiciel.
  • Les outils logiciels et documentaires : cette solution complète inclut également les licences d’utilisation d’outils performants :
  1. Le logiciel Toxev ;
  2. Des fiches et modèles prêts à l’emploi ;
  3. Des outils de calcul et de conversion.
  • Une veille réglementaire et normative : un abonnement de deux années aux fiches pratiques « Evaluer et maîtriser le risque chimique » en version web : 100 fiches « action », outils et modèles de documents prêts à l’emploi réalisés par des professionnels.

Nouvelle version du logiciel Toxev

Toxev, le logiciel d’évaluation du risque chimique, permet de réaliser l’inventaire et le repérage des CMR et sensibilisants, la hiérarchisation des dangers santé et incendie, l’évaluation des situations d’exposition et la traçabilité des expositions professionnelles (édition des fiches d’exposition pour chaque salarié).

Ce logiciel contient des bases de données de référence qui sont mises à jour à chaque évolution réglementaire. La dernière en date est par exemple un nouveau règlement en date du 10 août dernier qui apporte de nombreuses corrections de la liste des substances du règlement CLP (étiquetage).  Ses fonctionnalités logicielles évoluent également régulièrement.

La nouvelle version du logiciel d’évaluation du risque chimique, qui sera disponible au mois d’octobre, comprend notamment un tout nouveau tableau de bord dynamique et personnalisé qui permet dès l’ouverture du logiciel de suivre le travail d’évaluation du risque chimique : en un coup d’œil, l’utilisateur voit ses actions récentes, ses actions arrivées à échéance, les principales données qu’il a entrées dans le logiciel, les informations concernant la licence…

Enfin, Toxev donne accès à des outils complémentaires et la possibilité d’aller directement depuis ce tableau de bord à l’inventaire ou à la partie traçabilité des expositions.

Autre nouvelle fonctionnalité intéressante : lors de l’enregistrement d’un produit à l’inventaire avec les substances qui le composent, le logiciel coche à présent automatiquement les phrases de risque correspondantes pour les substances utilisées pures, notamment en laboratoire, à partir du numéro CAS, à condition bien sûr que la substance figure dans la liste harmonisée du CLP.

  • En savoir plus sur la Solution d’évaluation et de gestion du risque chimique des Editions Techniques de l’Ingénieur

Infos TI, ou quand Techniques de l’Ingénieur se livre à ses clients

Que vous nous fassiez confiance depuis de nombreuses années ou soyez nouveaux clients, quel que soit votre profil et votre domaine d’activité, vous avez un point commun : vous vous appuyez sur Techniques de l’Ingénieur.

Via nos ressources documentaires, nos formations, ou notre activité de conseil, c’est avec fierté et reconnaissance que nous et nos experts sommes à vos côtés. Alors, afin de renforcer cette relation de confiance, Techniques de l’Ingénieur lance en cette fin 2013 Infos TI, sa lettre d’information à destination de ses clients. Sur support papier, à parution trimestrielle, Infos TI ne sera pas un simple support publicataire pour nos produits, mais une communication sur ce qu’est Techniques de l’Ingénieur : quels sont nos processus, nos experts, nos personnels qui, dans l’ombre, participent aux produits qui vous ont séduits.

Mais parce que vous, clients, faîtes également partie intégrante de la sphère Techniques de l’Ingénieur, Infos TI sera également votre espace de parole, où présenter votre relation à Techniques de l’Ingénieur : comment l’accompagnement d’un de nos experts vous a permis de résoudre un problème majeur dans vos process, comment la participation à l’une de nos formations vous a rendu plus efficace au travail, comment la consultation de nos articles répond à vos interrogations au quotidien.

En espérant que apprécierez apprendre ainsi un peu mieux à nous connaitre, toute l’équipe Techniques de l’Ingénieur vous souhaite une très bonne lecture.

REACH : l’actualité du mois de septembre (1/2)

Mise à jour du registre d’intention pour des classifications et étiquetages harmonisés

Le registre d’intention pour des classifications et étiquetages harmonisés a été mis à jour en août avec l’ajout de deux nouvelles substances. Les soumissions sont à soumettre avant le 30 septembre 2013.

Entrée en vigueur du règlement Biocides

01/09/2013

Le règlement n°528/2012 sur les biocides, adopté le 22 mai 2012, est entré en vigueur le 1er septembre 2013. Il abroge et remplace la directive 98/8/CE, qui encadrait jusque-là ce type de produits. Le nouveau règlement vise à renforcer la sécurité liée à la mise sur le marché de biocides.

A terme, seuls pourront être autorisés les produits biocides efficaces et sans risques pour la santé et l’environnement. Le nouveau règlement améliore également la procédure d’autorisation en créant une procédure à l’échelle européenne alors que jusque-là, les autorisations étaient délivrées à l’échelle nationale avec un système de reconnaissance mutuelle entre Etats membres.

Proposition pour identifier de nouvelles substances SVHC (substances extrêmement préoccupantes)

02/09/2013

Sur demande de la commission européenne, l’ECHA lance une consultation publique pour l’identification de 7 nouvelles substances SVHC (substances extrêmement préoccupantes).

Les substances concernées sont :

  • Cadmium sulphide  (N° CAS : 1306-23-6 et N° CE : 215-147-8)
  • Dihexyl phthalate (N° CAS : 84-75-3 et N° CE : 201-559-5)
  • Disodium 3,3′-[[1,1′-biphenyl]-4,4′-diylbis(azo)]bis(4-aminonaphthalene-1-sulphonate) (C.I. Direct Red 28) (N° CAS : 573-58-0 et N° CE : 209-358-4)
  • Disodium 4-amino-3-[[4′-[(2,4-diaminophenyl)azo][1,1′-biphenyl]-4-yl]azo] -5-hydroxy-6-(phenylazo)naphthalene-2,7-disulphonate (C.I. Direct Black 38) (N° CAS : 1937-37-7  et N° CE : 217-710-3)
  • Imidazolidine-2-thione; 2-imidazoline-2-thiol (N° CAS : 96-45-7 et N° CE : 202-506-9)
  • Lead di(acetate) (N° CAS : 301-04-2 et N° CE : 206-104-4)
  • Trixylyl phosphate (N° CAS : 25155-23-1 et N° CE : 246-677-8)

Les commentaires sont à soumettre jusqu’au 17 octobre 2013.

Nouvelle consultation pour éviter les tests sur les animaux

03/09/2013

L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. Deux consultations sont lancées. Les informations relatives à ces substances sont à soumettre pour le 18 octobre prochain.

Publication du rapport final du 2nd projet d’application de REACH

04/09/2013

Le second projet d’application initié par le forum d’application de l’ECHA a porté sur les obligations des utilisateurs en aval dans le cadre de REACH et du CLP. Sur un total de 1 181 entreprises inspectées, 67% ne sont pas conformes à une ou plusieurs dispositions de ces règlements.

Consultation publique pour des classifications et étiquetages harmonisés

06/09/2013

L’ECHA a lancé deux nouvelles consultations pour l’harmonisation et l’étiquetage harmonisé du Flumioxazin (ISO) / N-(7-fluoro-3,4-dihydro-3-oxo-4-prop-2-ynyl-2H-1,4-benzoxazin-6-yl)cyclohex-1-ene-1,2-dicarboxamide et du propylene oxide / 1,2-epoxypropane; methyloxirane.

Les parties intéressées sont invitées à soumettre leur commentaire sur le site de l’ECHA, et ce avant le 21 octobre 2013.

Nouvelle consultation pour éviter les tests sur les animaux

09/09/2013

L’ECHA a lancé un appel visant à collecter des informations sur une nouvelle substance pour éviter les tests sur les animaux. La substance concernée est l’allylamine. Les informations relatives à ces substances sont à soumettre pour le 18 octobre prochain.

Enregistrement REACH 2013

10/09/2013

9030 numéros d’enregistrement ont été délivrés aux dossiers d’enregistrements soumis lors de l’échéance REACH de juin 2013. Ceux-ci correspondent à 2 998 substances supplémentaires inscrites en vertu de REACH. Les informations non confidentielles sur ces substances sont publiées par l’ECHA sur son site internet.

IUCLID 5.5.1 est disponible

12/09/2013

La 1ère mise à jour de IUCLID 5.5 a été publiée sur le site internet de IUCLID. Cette nouvelle version offre de nouvelles opportunités et notamment la possibilité d’utiliser le modèle Chesar pour exporter des informations présentes dans IUCLID, nécessaires à la préparation des évaluations de la sécurité chimique dans Chesar.

Par Céline GABORIAUD NECTOUX, Ingénieur Environnement aux Ateliers d’Orval

 

 

 

Pour aller plus loin :

Découvrez les fiches pratiques de Techniques de l’Ingénieur :

Participez aux formations Techniques de l’Ingénieur :

Les risques liés aux nanotechnologies trop souvent étouffés

La presse serait-elle trop complaisante ? D’après une analyse des articles scientifiques publiés sur le sujet des nanotechnologies, il ressort clairement que oui. Qu’il s’agisse d’articles professionnels, de publications scientifiques ou d’écrits d’une presse grand public, le thème des nanotechnologies est présenté de façon positive, sans débattre des éventuels points négatifs ni même des incertitudes liées à l’impact environnemental.

Comme le relèvent Ilona Heidmann et Jutta Milde dans leur analyse ninliographique, les nanoparticules ont envahi notre quotidien, que ce soit dans les cosmétiques, les produits d’entretien ou encore  les peintures. Cette invasion a été encouragée par les médias, focalisés sur les bienfaits et les progrès apportés. Pourtant, la communauté scientifique ne dispose pas ou très peu de recul nécessaire et encore moins suffisant pour s’assurer de la non toxicité des nanotechnologies. Cette absence de connaissance sur les dangers potentiels en termes de santé sur l’homme ou de pollution environnementale est pourtant rarement débattue.

D’après cette revue de presse, les publications scientifiques relatant des travaux de recherche dans des revues scientifiques à comité de relecture tiennent compte des incertitudes et des incidences environnementales à 85%. Le point le plus souvent abordé concerne la difficulté de transposer les résultats obtenus en laboratoire à un contexte réel. En revanche, l’incertitude concernant le vieillissement des nanoparticules dans la nature n’est pas évoquée. La principale raison étant qu’on n’en sait rien ! A ce jour, il s’avère très délicat de séparer  et caractériser les nanoparticules une fois dans l’environnement. Cette difficulté s’applique aux tests de toxicité dont la validité se limite aux conditions de laboratoire.

La presse grand public s’intéresse principalement aux avancés technologiques et aux bienfaits des nanotechnologies. La vulgarisation se concentre donc sur le progrès, sans aborder les aspects négatifs qui pourraient brouiller le message vis-à-vis du lecteur. De plus, les sujets les plus traités concernent les avancés dans les domaines de la santé (21%), des technologies de la communication  (14%) et l’énergie (11%). Les journaux sont à peine 6% à mentionner les risques.

Pourtant, il arrive que les dangers ou incertitudes liées aux nanotechnologies soit évoqué de front. Par la voix des politiques. Les publications relayant des discours politiques  sont 94% à pointer du doigt les risques, s’appuyant sur le fait que les nanoparticules peuvent pénétrer à l’intérieur du corps humain.

Cette étude du traitement des nanotechnologies dans la presse prouve que le nano a la cote. Il est néanmoins dommage que les journalistes omettent de rappeler les éventuels dangers, laissant croire aux lecteurs non érudits que les nanoparticules sont sûres à 100%. Un traitement de faveur qui doit faire des envieux…

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Le permis de conduire électronique européen délivré à partir d’aujourd’hui !

Ca y est, le nouveau permis de conduire, identique pour tous les pays de l’Union Européenne, est entré en vigueur le 16 septembre !

Les nouveaux détenteurs du permis disposeront automatiquement de ce nouveau format.  En revanche, pour tous ceux dont les permis ont été délivrés entre le 19 janvier et le 16 septembre 2013,  il est possible et nécessaire de procéder à un échange dès 2014. A noter que le permis de conduire actuel restera valable jusqu’en 2033, soit durant 19 ans. Près de 38 millions d’utilisateurs sont concernés. 

Comparable au format de la carte de crédit, le nouveau permis devrait s’insérer plus aisément dans nos portefeuilles. Plastifié, il résistera davantage à l’usure de la vie quotidienne. Mais la véritable innovation est bien sûr la puce électronique dont il est doté. Elle contient des informations personnelles, sans toutefois détenir de données relatives au nombre de points. Elle répond à plusieurs objectifs dont celui de réduire les risques de falsification ou encore de faciliter la circulation entre pays. Il faut dire que se prémunir contre les fraudes semblait être une priorité pour le gouvernement. Logique si l’on songe qu’il s’agit d’un des documents officiels les plus falsifiés. Il circulerait près de trois millions de faux permis de conduire en France !

Pour autant, inutile de se ruer vers votre préfecture dès aujourd’hui, ces dernières communiqueront les modalités d’échange aux personnes concernées.

Par Sébastien Tribot

Créer des skyrmions à l’envi

Ne seraient-ils pas un peu magiciens ? Ces chercheurs de l’université de Hambourg sont capables d’engendrer ou de faire disparaitre un skyrmion à volonté. Cette particule originale, découverte en 2009 n’est pas une particule comme les autres. Il s’agit d’un tourbillon de spins, c’est-à-dire que les spins ne sont pas droits, vers le haut ou vers le bas par exemple, mais tous enroulés les uns autour des autres, formant une sorte de vortex. De plus, cette configuration d’états de spins est stable. Les skyrmions présentent donc deux avantages majeurs : leur petite taille, de l’ordre de quelques atomes, et leur grande stabilité. De quoi aiguiser l’ambition des scientifiques qui y voient l’opportunité de fabriquer des machines de stockage avec des densités encore inégalées.

« Dans un disque dur, une tête de lecture se déplace mécaniquement au-dessus d’une surface pour lire les informations magnétiques. Les skyrmions défileraient, eux, devant une tête fixe. Un stockage d’informations purement électronique, sans dispositif mécanique, aurait beaucoup d’avantages » a déclaré Albert Fert, prix Nobel de physique 2007, au journal Le Monde.

Mais avant d’imaginer une production en grandes séries des solutions de stockage à base de skyrmions, les chercheurs ont encore quelques réglages à faire. Pour  détruire les skyrmions, l’équipe allemande utilise la pointe d’un microscope à effet tunnel et tout en faisant passer un fort courant électrique.  Quand à leur fabrication, elle requiert des couches d’atomes de fer pas plus épaisses qu’un atome. Sans parler des autres contraintes expérimentales comme de très basses températures et des champs magnétiques importants. 

Pourtant, Albert Fert annonce une publication prochaine présentant des simulations de couches d’atomes de fer plus épaisses contenant des skyrmions. Le Prix Nobel en est certain : « les skyrmions peuvent représenter l’entité ultime d’information magnétique manipulable. L’excitation actuelle devrait durer ».

Par Audrey Loubens

Le volume de la banquise arctique a augmenté de 1400 km3 entre août 2012 et août 2013

Selon les données PIOMAS (Pan-Arctic Ice Ocean Modeling and Assimilation System), le volume de la banquise arctique en août 2013 (5800 km3 , 1 km3 = 1 milliard de mètres-cubes) est supérieur de 1400 km(+31%) à celui de 2012 (4400 km3). Il est également supérieur de 700 km3 à celui de 2011 (5100 km3)  et supérieur de 200 km3 à celui de 2010 (5600 km3).  Et l’écart est en train de se creuser davantage en ce premier tiers de septembre, c’est à dire à quelques jours du point minimal de l’année, selon le Polar Science Center (PSC) basé au sein de l’Université de Washington aux Etats-Unis. La banquise arctique se porte donc mieux cet été que les trois dernières années.

Les 5800 km3 d’août 2013 restent néanmoins 66% inférieurs à ceux de la moyenne des trois dernières décennies. Autrement dit, et pour imager, sur trois glaçons flottant dans un verre d’eau sur cette période, il n’en reste plus qu’un cette année. On ne peut donc pas conclure, malheureusement, que la banquise arctique va bien.

La banquise arctique  a perdu en moyenne 3200 km3 par décennie depuis 30 ans, ce qui est équivalent à une perte totale de 9600 km3 durant ce presque tiers de siècle, ou encore de 320 km3 par an en moyenne.

Selon les scientifiques du PSC, « le volume de la glace est un important indicateur climatique. Il dépend à la fois de l’épaisseur de la banquise et de sa surface, et ainsi renseigne mieux sur les forçages climatiques que la surface seule ».  La surface de la glace d’été, qui a également augmenté considérablement dans l’arctique entre 2012 et 2013, constitue cependant le paramètre-clé sur le plan de l’albédo, le rapport de l’énergie solaire réfléchie par une surface à l’énergie solaire incidente. Plus la surface de glace claire est importante comparativement à la surface d’eau de mer sombre, plus l’énergie solaire est réfléchie. Les variations d’albédo constituent un exemple de rétroaction lors d’un changement de la température.

Il est trop tôt pour parler d’une inversion de tendance

Le sursaut ponctuel du volume et de la surface de la banquise arctique durant l’été 2013 est-il annonciateur du début d’une voie de rétablissement pour Madame la banquise ? Certains journalistes britanniques se sont empressés de répondre par l’affirmative. Comme par exemple David Rose du Daily Mail selon qui tout va très bien pour elle. Non sans une évidente provocation, il vient de signer le 7 septembre un article où il affirme que la croissance  observée de 60% de la surface arctique entre août 2012 et 2013 annonce l’arrivée d’une période de « refroidissement climatique ». Cet article a provoqué un véritable buzz dans les médias anglophones. Et de violentes réponses de la part de certains militants écologistes dont l’esprit s’est mis à chauffer.

Mais il est trop tôt pour pouvoir répondre scientifiquement à cette question. Même si, à l’autre extrémité du globe, la tendance claire à l’augmentation de la surface de la banquise antarctique, avec un record historique atteint cette année, invite à la réflexion. De même que la pause (ou « hiatus ») claire et nette du réchauffement à l’échelle globale depuis une décennie et demi, pause qui n’a pas fini d’agiter le débat climatique entre les scientifiques. Notamment à propos de ses implications au niveau de la sensibilité climatique, c’est à dire quelle hausse de température on peut envisager si on double la concentration atmosphérique en gaz carbonique.

175 millions de milliards de glaçons, et moi et moi… émoi !

Un fait est certain: les émissions anthropiques de gaz à effet de serre et de carbone-suie ne font qu’augmenter, ce qui, sur le long terme, et en dépit des fluctuations à court ou moyen terme, ne pourra que pousser à la poursuite du réchauffement observé à l’échelle séculaire. Comme le dit l’adage populaire, « mieux vaut prévenir que guérir ».

En attendant, 1400 km3 de volume supplémentaire entre août 2012 et août 2013, ce n’est  pas moins de 175 millions de milliards de glaçons (de 8 cm3 l’unité) pour le pastis ! Deux explorateurs français n’en ont effectivement pas manqué cet été pour rafraîchir leurs boissons…et compromettre la clarté du message qu’ils voulaient faire passer. Sébastien Roubinet et Vincent Berthet, qui voulaient tenter l’exploit de traverser le Pôle Nord à bord d’un petit catamaran non équipé de moteur baptisé « Babouchka », ont en effet été bloqués par la glace et n’ont pas eu d’autre choix que d’appeler au secours.

La banquise (eau de mer congelée) s’est répandue si rapidement qu’elle les a littéralement piégé: « le piège s’est refermé plus rapidement que prévu ». Les deux aventuriers écologistes ont peut-être été influencés et induits en erreur par une étude scientifique de 2007, dont les médias ont largement fait écho, étude qui annonçait la disparition intégrale de la banquise arctique d’été dès 2013. Ils avaient l’ambition de rejoindre le Spitzberg en franchissant le Pôle Nord géographique, d’observer la fonte des glaces de l’arctique « pour tenter d’expliquer l’accélération de ce processus ces dernières années », accélération « que les modèles actuels sont incapables d’expliquer », de « mettre la banquise sous surveillance étroite et directe » grâce à leur catamaran des glaces, et sensibiliser le monde entier sur cette thématique.

Comme le chantait Jacques Dutronc, « c’est la vie, c’est la vie ». Ces deux lanceurs d’alerte ont été au final secourus par un brise-glace russe,  « l’Amiral Makarov », alourdissant ainsi le bilan carbone de cette mission polaire qu’ils n’oublieront pas.

Par Olivier Daniélo

En savoir plus :

> A propos du volume de la banquise arctique (Polar Science Center, Université de Washington):
> A propos de la surface de la banquise arctique (National Snow and Ice Data Center, Université du Colorado):
> A propos des causes possibles de la pause du réchauffement climatique (un excellent dossier, Yale Climate Forum / Berkeley Earth Project)

Des volontaires prêts à coloniser Mars en 2022

Fin juillet, une quarantaine d’américains et de canadiens se sont retrouvés à Washington pour assister à la présentation par Bas Lansdcorp, à la fois cofondateur et PDG de Mars One, du projet de colonisation de Mars pour 2022. Tous sont volontaires, conscients des risques et prêts à quitter la Terre pour toujours. Selon Bas Lansdcorp, Mars est  « la prochaine étape la plus logique » et doit être comparée aux précédentes explorations notables en ce sens ou quitter ses proches est un facteur auquel il est malheureusement impossible d’échapper.

Malgré ce petit inconvénient, l’appel à candidatures avait récolté plus de 78 000 demandes émanant de 120 pays, deux semaines seulement après son lancement. Un succès toutefois relatif puisque l’objectif poursuivi est d’obtenir 500 000 candidatures d’ici à la fin août. C’est à ce moment que s’entameront les sélections.

Et elles seront draconiennes. Pour le premier voyage, l’équipage ne sera composé que de quatre volontaires. Autant dire qu’un minimum de compatibilité sera indispensable étant donné la durée du trajet estimé à sept mois. Cependant, de nouveaux volontaires viendront compléter l’équipage par la suite à intervalles réguliers; tous les deux ans selon le PDG de Mars One. 

Les premiers préparatifs ont commencé. Notamment en ce qui concerne le système de maintien en vie et les combinaisons. Car entre autres embêtements qu’auront à gérer les futurs habitants de la planète rouge, il faut noter l’absence d’oxygène, de ressources comestibles et une température très élevée : 63 degrés en moyenne. Oui, Mars n’est pas ce qui se fait de mieux en matière de planète accueillante. 

L’aller simple sur Mars présente donc de nombreux défis. À commencer par le moyen de transport. Pour le moment aucune fusée suffisamment puissante n’a été construite. Sans compter le budget nécessaire à une telle mission. D’après estimation, il faudrait au moins 5 milliards d’euros pour assurer son bon déroulement, or il manque encore des fonds. Un montant secret que Bas Lansdcorp ne tient pas à révéler. 

La construction d’un camp d’entraînement, réplique de la colonie martienne, est prévu dans les mois à venir. Les conditions de vie se rapprocheront certainement de l’environnement de Mars de sorte que les futurs astronautes s’habituent et se préparent à ce milieu hostile. 

Par Sébastien Tribot

Retournez à l’université à l’occasion des Journées Européennes du Patrimoine 2013 !

Site de Jussieu :

  • Paris vu d’en haut : venez admirer Paris et ses monuments depuis le 24e étage de la tour Zamansky, située au coeur du campus de Jussieu, ouverte exceptionnellement au public de 14h à 18h ;
  • Jussieu d’hier à aujourd’hui : pour tout savoir sur le campus Jussieu, des visites guidées vous seront proposées à 15h30 et 17h pour les adultes et à 16h15 et 17h15 pour des visites en famille ;
  • 1001 couleurs de minéraux : des plus communs aux plus rares, les éléments présentés dans la collection des minéraux de l’UPMC, au sol-sol du campus Jussieu, sauront vous émerveiller par leurs couleurs et leur qualité, que vous pourrez admirer entre 14h et 18h.

Site des Cordeliers :

  • l’anatomie pathologique, entre science et histoire : déconseillé aux personnes sensibles, le musée Dupuytren possède des modèles anatomiques d’une grande rareté, tant par les pathologies représentées que par la diversité de spécimens d’origine humaine que vous pourrez découvrir lors des visites guidées de 15h et de 18h. L’entrée se fait par le cloître des Cordeliers ;
  • des moines aux universitaires, il n’y a que quelques siècles : comment plusieurs siècles d’histoire ont transformé un cloître monastique, le Cloître des Cordeliers, en un lieu de recherche et d’enseignement universitaire ? Comment cohabitent aujourd’hui le passé et le présent ? Quelques éléments de réponse vous seront apportés lors d’une visite guidée à 14h mais vous pourrez également découvrir le lieu par vous-même entre 15h et 18h.

Sans oublier le concours photo « Patrimoine en contraste » proposé par l’UPMC pour mettre en avant la richesse du patrimoine scientifique et architectural des lieux.

Par Céline Chartier

Google Glass fait son entrée au bloc opératoire

Ce n’était qu’une question de temps pour que les « Google Glass » parviennent à se faufiler dans un bloc opératoire afin de permettre la retransmission en direct d’une opération, et c’est maintenant chose faite : un chirurgien américain de l’université d’Ohio State a retransmis en live via les Google Glass qu’il avait sur le nez, une opération du genou qu’il a réalisée la semaine dernière. La vidéo, en vue subjective, a pu faire « le bonheur » d’un petit groupe d’étudiants en médecine ainsi que d’un collègue du chirurgien, qui se trouvaient alors de l’autre côté de la ville de Boulder.

« Je commence tout juste à apprécier cette nouvelle connectivité qu’elles m’ont donnée », raconte le docteur Christopher Kaeding à propos de ses « Google Glass ». Pendant l’opération, le docteur Kaeding s’est entretenu avec son collègue chirurgien à travers le casque audio intégré au dispositif, ce qui en fait la première collaboration en temps réel lors d’une opération via les lunettes connectées de Google, d’après l’université d’Ohio State.

Révolutionner les techniques d’enseignement et la collaboration en temps réel

Le chirurgien américain était en train de mener une opération somme toute assez classique visant à réparer les ligaments croisés antérieurs d’une femme qui s’est blessée au genou en jouant au softball (un jeu similaire au baseball particulièrement populaire chez la gente féminine, de l’autre côté de l’Atlantique). A entendre le docteur Kaeding, les « Google Glass » n’ont en rien entravé ses performances ou sa concentration en tant que chirurgien : « Pour être tout à fait honnête, une fois l’acte chirurgical entamé, j’oubliais régulièrement que je portais les lunettes », explique-t-il.

L’université d’Ohio State est désormais en train d’étudier différents moyens d’utiliser de manière optimale le dispositif mis au point par le géant californien, notamment afin de renforcer la collaboration entre professionnels de la médecine, ainsi que pour révolutionner les techniques d’enseignement au sein même de l’établissement – la chirurgie dans un premier temps, puis quelque soit le cursus suivi. Le docteur Clay Marsh, responsable du pôle innovation du centre médical, déclare même être très excité à l’idée de « toutes les futures opportunités que le dispositif pourrait bien offrir ». Créer du contenu vidéo placé sous le point de vue subjectif du chirurgien pourrait fournir aux étudiants en médecine – avides de pouvoir suivre un professionnel en plein travail – un niveau de détails encore jamais égalé.

Deux précédents durant l’été

Ce n’est pas la première fois que des chirurgiens s’intéressent au potentiel des Google Glass : un Espagnol et un Américain avaient déjà opéré durant l’été en portant les fameuses lunettes, un moyen pour eux de partager leur expérience en filmant une opération en vue subjective, avec la différence majeure que les opérations n’étaient alors pas retransmises en direct. L’Américain avait réalisé la pose d’une sonde gastrique par endoscopie, tandis que l’Espagnol avait pratiqué une greffe de cartilage sur un patient de 49 ans.

Par Moonzur Rahman

Keynote Apple septembre 2013 : et voici l’iPhone « low cost » et l’iPhone 5s !

Mardi 10 septembre, 19h, toute la planète high tech est présente à la grande cérémonie Apple se tenant à Berlin. Les fuites dans la presse ont un peu amoindri l’effet de surprise : Tim Cook n’a pas réussi à maintenir le secret comme savait si bien le faire son illustre prédécesseur Steve Jobs. Mais l’attente reste considérable. Apple doit dévoiler les nouveaux iPhone 5.

La véritable surprise de la soirée ? l’iPhone « low cost » tant attendu ne sera pas si bon marché… Proposé en blanc, rose, jaune, bleu et vert, plus lourd que l’iPhone 5 (132 grammes contre 112), l’iPhone 5c de 16 Go sera vendu 599 euros sans abonnement et environ 99 euros avec un abonnement de deux ans aux Etats-Unis.

Et l’iPhone 5s : peu d’innovation, excepté le bouton principal qui abrite un détecteur d’empreinte digitale. Cette technologie permettra de verrouiller/déverrouiller et de valider un paiement sur iTunes.

Côté photos, son capteur plus puissant réalisera des clichés un peu plus précis. La vidéo gagne une fonction « slo mo » pour filmer des scènes d’action au ralenti. En version noir, blanc et or, l’iPhone 5s de 16 Go sera disponible au prix de 699 euros sans abonnement.

Par Iris Trahin

Quand les biocarburants dopent les prix de l’alimentation

La mise à contribution des huiles alimentaires dans la fabrication de biocarburants influence sérieusement les prix des denrées alimentaires.

En effet, si les huiles de palme et de soja sont utilisées dans la production de biocarburants, elles sont moins disponibles pour l’alimentation, ce qui entraîne une hausse des prix selon le CCR, qui est le laboratoire de recherche scientifique et technique de la Commission européenne. Si la réglementation n’était pas modifiée, l’Europe consacrerait la moitié des huiles végétales qu’elle consomme à fabriquer des biocarburants d’ici 2020. Le moindre recul dans sa production de biodiesel se répercutera donc fortement sur le marché, indiquent les auteurs du rapport.

L’UE envisage de limiter le recours aux biocarburants de première génération. Dans ce contexte, le recours aux huiles alimentaires pour la production de biodiesel serait 28 % inférieur par rapport à un scénario classique. En l’absence de soutien des politiques européennes, la chute de la part des huiles alimentaires dans le biodiesel serait encore plus draconienne : elle atteindrait – 75 %.

Et le recul des prix alimentaires en Europe serait beaucoup plus important que dans le reste du monde, car à l’échelle mondiale, seules 17 % des huiles alimentaires sont utilisées dans la production de biocarburants.

Le rapport a été publié le 5 septembre alors que le Parlement européen se prépare à un vote décisif en séance plénière le 11 septembre. Ce vote pourrait limiter la quantité de biocarburants de première génération autorisée dans le mix énergétique des transports pour 2020. Et introduire des facteurs d’affectation des sols pour différencier les biocarburants néfastes ou non pour l’environnement.

Si l’UE poursuit sa politique actuelle, sans limitation de la production ou changement d’affection des sols indirect (CASI), les auteurs du rapport estiment que les prix alimentaires mondiaux resteront sensiblement identiques. Si le plafond de l’UE est introduit, les prix mondiaux devraient chuter d’environ 8 %. Et de 15 % sans politique en faveur des biocarburants.

Cette politique est importante, car sans objectif en faveur de l’utilisation des biocarburants, la récolte mondiale en 2020 diminuerait de « près de 6 millions d’hectares (0,7 % de la surface mondiale) de céréales, de graines oléagineuses, de cultures sucrières et d’huile de palme », peut-on lire dans le rapport.

La demande de terres agricoles serait aussi réduite. Les répercussions sur la déforestation et le déplacement de terres agricoles seraient positives.

Le CASI en action

« L’objectif affiché de l’UE est de décarboniser nos carburants pour le transport, mais c’est tout simplement impossible si nous ne tenons pas compte de toute la quantité de carbone émise lorsque de nouvelles terres sont transformées pour cultiver du carburant », explique à EurActiv Nuša Urbančič, directrice de programme pour le groupe de réflexion Transport & Environment.

« C’est le CASI en action », ajoute-t-elle. « Nous demandons au Parlement de voter l’introduction des facteurs du CASI la semaine prochaine. »

Mais une étude du cabinet-conseil Ecofys pour ePURE, l’association européenne des producteurs d’éthanol renouvelable, publiée le même jour que le rapport du CCR, en contredit catégoriquement les conclusions principales. Ecofys estime que l’éthanol n’augmente pas actuellement les prix alimentaires.

« Nul ne sait si l’éthanol produit dans l’UE augmente ou diminue les prix alimentaires au niveau mondial», indiquent les auteurs d’Ecofys. « L’éthanol a eu quelques incidences mineures sur les prix mondiaux de matières premières, comme l’amidon et le sucre. Les conséquences historiques de la demande de l’UE en biocarburants jusqu’en 2010 ont fait grimper les prix des céréales d’environ 1 à 2 %, sans limitation de la production de biocarburants d’origine agricole, et pourraient donner lieu à une nouvelle hausse de 1 % d’ici 2020.

Après un examen préliminaire de la nouvelle étude du CCR, Emmanuel Desplechin, directeur du département énergie d’ePURE, estime que cette dernière va dans le même sens que le rapport d’Ecofys en ce qui concerne l’éthanol. Il refuse en revanche de commenter la question du prix des huiles végétales.

Le prix de l’éthanol

Il affirme cependant qu’avec ces études sur les biocarburants, « vous [établissez] exactement ce que vous voulez étudier, et vous obtenez les résultats que vous voulez. Des documents de la Commission européenne prouvent que nous avons raison. »

Il fait notamment référence à un rapport de suivi de la DG Énergie de la Commission en mars 2013. Les auteurs avaient également estimé que l’utilisation de céréales dans la production de bioéthanol ne se répercutait que légèrement sur les prix mondiaux des céréales.

D’autres études, telles que la « révision des données » de l’Institut pour une politique européenne de l’environnement en 2012, déduit des études disponibles des augmentations des prix substantiellement plus élevées de 13 % pour les cultures servant à produire de l’éthanol, comme le blé, et 21 % pour la canne à sucre/la betterave.

En avril, le rapporteur spécial des Nations unies sur le droit à l’alimentation s’est dit « très inquiet » des conséquences négatives de la politique européenne relative aux biocarburants sur la sécurité alimentaire dans les pays en développement.

L’Institut de prospective technologique du Centre commun de recherche de la DG Agriculture de la Commission a réalisé cette étude en utilisant la modélisation agroéconomique.

L’institut a prévu les changements dans l’affectation des sols et dans les prix alimentaires en fonction de scénarii de référence qui tenaient compte des variations des objectifs actuels de l’UE.

Le CCR devrait bientôt se pencher sur des thèmes abordant les conséquences historiques du CASI sur la déforestation, un autre effet pervers des biocarburants.

Source : euractiv

Et aussi dans les
ressources documentaires :

La Nasa veut attraper un astéroïde

Décidément, les astéroïdes ont la cote. Objet de nombreuses convoitises de part leur composition riche en matériaux, voilà que la NASA a établi un stratagème pour en attraper un dans ses filets, au sens propre comme au sens figuré. 

Le plan consiste en effet à envoyer dans l’espace un vaisseau muni d’un sac géant qui sera enroulé autour de l’astéroïde. Deux astronautes, expédiés dans une capsule baptisée Orion, un chasseur géant de la mythologie grecque, pourront alors partir à l’assaut du captif, s’ouvrir une brèche dans le sac et ainsi accéder à la surface de l’astéroïde pour effectuer de précieux prélèvements mais aussi prendre des photos. La fin de la mission « Asteroid Redirect Mission » consiste simplement à faire revenir l’équipage sur Terre. Evidemment, la cible devra mesurer quelques mètres de diamètre maximum et peser pas plus de quelques centaines de tonnes. 

Quid de l’astéroïde ? Mystère. Il pourrait être placé en orbite autour de la Lune ou quelque part autour de la Terre.  Un tel safari spatial ne prendrait qu’une dizaine de jours et pourrait devenir réalité dès 2025. 

Découvrez comment la NASA compte capturer un astéroïde :

Par Audrey Loubens, journaliste scientifique

Hemisphere, la nouvelle affaire d’écoute téléphonique après PRISM !

Cette petite bombe est parue sur le site du New York Times sous la forme d’un Powerpoint prouvant que l’opérateur de télécoms AT&T et le département de la défense américaine avaient passé un accord rémunéré. Un accord mettant les employés d’AT&T ainsi que les archives téléphoniques de l’opérateur à disposition de la Drug Enforcement Administration. Il s’agit d’un partenariat de longue durée puisque cela fait six années que le projet Hemisphere a été mis en place. De cette manière, 4 000 milliards de conversations seraient ajoutées tous les jours à la base de données déjà conséquente dont disposent les équipes de lutte anti-drogue.

Cette affaire intervient peu de temps après le scandale de l’affaire PRISM, le programme de l’Agence nationale de sécurité américaine (NSA) dédié à l’espionnage des communications au travers de grands réseaux sociaux. On se souvient du témoignage d’Edward Snowden, cet ancien technicien de la CIA, contraint de s’extrader à Hong Kong suite à la révélation de ce programme de surveillance des communications. Snowden révélait au Washington et à The Guardian la face cachée du gouvernement américain concernant l’espionnage d’étrangers et de ses propres concitoyens en expliquant que son « unique objectif est d’informer les gens de ce qui est fait en leur nom et de ce qui est fait contre eux ». La fuite de ce secret a divisé l’opinion des américains en obtenant 56% d’avis favorables quant à la surveillance téléphonique. Une partie de la population estime en effet ce moyen de lutte contre le terrorisme nécessaire tandis que d’autres qualifie le comportement de Snowden « d’héroïque »

C’est dire si la révélation du projet Hemisphere tombe mal; pile à l’heure du grand questionnement sur la surveillance gouvernementale. D’autant que d’un point de vue constitutionnel, la légitimité d’un tel dispositif peut être mise en question, notamment au niveau du quatrième amendement. Amendement censé garantir aux citoyens américains une protection contre les fouilles de domiciles ou perquisitions abusives. Or, il est bien question ici de limites que peut s’octroyer ou non un gouvernement sur la vie de ses citoyens. De l’avis des bureaucrates, il est important de se concentrer sur l’aspect judiciaire. L’exemple le plus frappant reste la saisie de 136 kilos de cocaïne et de 2,2 millions de dollars à Seattle en 2011. Une prise rendue possible grâce au programme de surveillance téléphonique.

Par Sébastien Tribot

Et aussi dans les
ressources documentaires :

Sécurité des systèmes d’information

Votre atout sécurité pour garantir l’intégrité de vos systèmes

Et aussi en
formation :

Synthèse technique en téléphonie, réseaux fixes et mobiles

Quelles évolutions en cours et à prévoir ?

Objectifs

  • Suivre de près les évolutions des technologies réseaux modernes : IPV6, fibres optiques…
  • Identifier les évolutions vers la téléphonie sur IP et la convergence avec le WEB
  • Définir et comprendre les caractéristiques du réseau de mobiles 4G

L’e-cigarette ne serait pas si inoffensive…

Les Français seraient près d’un million à vapoter. Entendez : à aspirer les vapeurs d’une cigarette électronique. Un engouement massif lié en partie au fait que ces fausses cigarettes sont considérées comme sans danger, et présentent une alternative très tendance aux vraies cigarettes. Mais cette mode pourrait bien s’essouffler devant l’enquête dévoilée fin août par 60 millions de consommateurs.

Le magazine n’hésite pas à tirer la sonnette d’alarme et à rappeler que si les cigarettes électroniques sont effectivement moins dangereuses pour la santé que le tabac, elles n’en demeurent pas moins un objet à risque !

Pour preuves, les journalistes ont analysé la vapeur émise par les e-cig. Un système spécifique de machine à fumer a été conçu. Sa tubulure très courte permet d’éviter que des dépôts par condensation viennent minorer les dosages. Des aspirations de 3 secondes, espacées de 30 secondes, simulaient un vapotage moyen.

Les analyses révèlent plusieurs problèmes. Tout d’abord, un décalage parfois fort entre les quantités des substances indiquées sur les étiquettes et la réalité. Surtout, la présence de certaines substances toxiques n’est pas toujours signalée, certaines étant pourtant cancérigènes. Voilà par exemple ce que l’on peut retrouver dans certaines de ces cigarettes (mesures pour 15 bouffées):

  • formaldéhyde : 0,2 à 11,3 microgrammes, selon la marque
  • acétaldéhyde : 0,1 à 13,5 microgrammes, selon la marque
  • acroléine : 0,1 à 4,4 microgrammes, selon la marque
  • nickel : 0,2 à 12 nanogrammes, selon la marque
  • chrome : 1 à 6,7 nanogrammes, selon la marque

[source 60 millions de consommateurs]

 Pas très sain, en effet. Sans compter que certaines e-cig contiennent de la nicotine. C’est même un des arguments utilisés pour la présenter comme une technique de sevrage du tabac. Mais la nicotine est une substance toxique, on aurait tendance à l’oublier.

Le magazine Que Choisir s’est lui aussi intéressé au phénomène des cigarettes électroniques, révélant que deux marques (Alphaliquid et D’lice) présentaient dans le liquide un taux supérieur au seuil de 20 mg/ml qui font basculer ces e-cig du côté des médicaments. Problème aussi pour les Conceptarôme dont le liquide affiché sans nicotine en contient 0.95 mg/ml tandis que celui censé en avoir 19mg/ml en était dépourvu.

Les mesures des deux magazines concordent donc en termes de constat d’étiquetage douteux. Néanmoins, Que Choisir n’a pas constaté la présence de substances cancérigènes en sus des substances attendus que sont le propylène glycol, de la glycérine végétale, de l’alcool ainsi que des arômes.  « Que Choisir n’a pas analysé les vapeurs issues des cigarettes électroniques. C’est bien dans les vapeurs que nous avons décelé des composés potentiellement cancérogènes » explique 60 millions de consommateurs. Que choisir s’est tout de même intéressé à l’existence ou non d’un rejet en monoxyde de carbone. Leur conclusion valide le fait que les e-cig n’en émettent pas.

Pour ceux qui ont été épargnés par la déferlante des e-cig, voici comment cela fonctionne. Les cigarettes électroniques ont l’apparence d’une vraie cigarette. Le réservoir de liquide est positionné au plus près de la bouche du fumeur. Un capteur détecte l’aspiration et déclenche la mise en route de l’atomiseur, une résistance qui crée la vapeur. Une batterie située à l’autre extrémité permet d’alimenter le dispositif. Enfin, une led au bout de l’e-cig rappelle la combustion d’une cigarette standard.

Ces cigarettes sont Made in China, et leur composition il y a quelques années était assez mystérieuse. Aujourd’hui, il semble que la fabrication soit passée entre les mains d’usines pharmaceutiques, garantissant le respect des normes.

Derrière un objet devenu un accessoire de mode, se cache pourtant un produit complexe et potentiellement toxique.  Même si on est bien loin des près de 4000 substance toxiques d’une vraie cigarette… Une moindre toxicité ne doit pas empêcher un encadrement des e-cig. Parmi les recommandations du rapport rendu par un comité d’expert à la ministre de la santé Marisol Touraine, figure entre autres l’interdiction dans les zones non-fumeurs, à cause du « vapotage passif ».

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

Sécurité des systèmes d’information

Risques chimiques – Toxicologie et écotoxicologie

 

Objectifs

  • Acquérir les bases de la toxicologie et de l’écotoxicologie appliquées à l’hygiène industrielle
  • Décrypter les résumés toxicologiques et écotoxicologiques dans une FDS
  • Exploiter les données pour la prévention des risques : VLEP*, IBE*, VTR*, impacts sur la santé et l’environnement

L’existence du Ununpentium confirmée !

115. C’est le nombre de protons de ce nouvel élément baptisé temporairement le Ununpentium. Découvert en 2004 par une équipe russe, cet élément à 115 protons n’a pas encore d’existence officielle. Pour cela, il faudra attendre que l’Union internationale de chimie pure appliquée le reconnaisse. Le Ununpentium pourra alors avoir un vrai nom et apparaitre dans le tableau périodique des éléments dans la case 115 encore vacante. 

L’observation des scientifiques de l’Université de Lund en Suède devrait accélérer le processus.  En exposant une fine couche d’américium à des ions calcium, ils ont réussi à synthétiser un élément nouveau. La  mesure de l’énergie des photons émis lors de sa désintégration permet de déterminer que son atome comptabilise bel et bien  115 protons. Le Uup se décompose en 90 millisecondes. Il s’agit d’un élément très lourd et radioactif, tout comme l’américium.

Publiés dans la revue Physical Review Letters, ces travaux sont les seuls à confirmer la découverte de l’équipe russe datant pourtant  de 9 ans.

Le tableau périodique des éléments devrait donc bientôt accueillir un nouvel arrivant. Les éléments 114,116 et 117, eux-mêmes découverts très récemment en 2010 et 2011, pourront profiter d’un nouveau voisin.

Pour l’anecdote, bien que sans existence officielle, le Uup a déjà inspiré les auteurs du célèbre jeu vidéo Call of Duty dans lequel le Uup, appelé élément 115, est une substance pathogène utilisée pour fabriquer transformer des êtres vivants en… zombies !

Par Audrey Loubens, journaliste scientifique

Le dauphin a une mémoire d’éléphant

Le 7 août dernier paraissait l’étude de Jason Bruck, de l’Université de Chicago, à propos de la mémoire sociale des dauphins. Il y était fait un parallèle avec la mémoire des éléphants, réputée exceptionnelle malgré le caractère anecdotique des preuves obtenues à ce sujet. Ici, le biologiste s’est attaché à déterminer, au travers d’expériences auditives, combien de temps les dauphins pouvaient garder en mémoire le sifflement d’un de leurs congénères. Car le sifflement chez un dauphin est unique, il fait office de signature et permet à ses semblables de l’identifier.  

En effet, à la différence des hommes qui utilisent principalement leur vue pour reconnaître leurs pairs, les dauphins ont une mémoire auditive. Ainsi Jason Bruck a testé 43 dauphins provenant de six parcs zoologiques ou aquatiques en tenant compte du fait qu’il y avait eu échange de dauphins entre chaque parc. Cela signifiant que certains dauphins se connaissaient mais pas tous. Ensuite, il leur a fait écouter l’enregistrement de sifflements de congénères et s’est aperçu qu’ils réagissaient davantage au sifflement de dauphins qu’ils avaient côtoyés au moins une fois. « Lorsqu’ils entendent un dauphin qu’ils connaissent, ils s’approchent souvent rapidement du haut-parleur », a indiqué Jason Bruck cité par l’AFP. « Parfois ils tournent autour, sifflent, essaient d’obtenir une réponse ». L’expérience a prouvé par ce biais qu’ils se rappellent du sifflement d’un de leur congénère, rencontré jusqu’à vingt ans auparavant. Le scientifique a pris en exemple Allie et Bailey, deux dauphins ayant été en contact respectivement à l’âge de 2 et 4 ans, dans un bassin au Dolphin Connection en Floride. Il s’avère, vingt ans et six mois plus tard, que Bailey reconnaît l’enregistrement d’Allie.

Sa capacité mémorielle sociale se rapproche de celle de l’homme. Elle pourrait être d’ailleurs plus durable selon le chercheur. Oui car contrairement au visage de l’homme qui évolue au gré du temps et du vécu, le sifflement du dauphin demeure identique, facilitant ainsi la reconnaissance.

Par Sébastien Tribot

Liars and outliers : pourquoi faisons-nous confiance aux autres ?

Le livre commence par un épisode de la vie courante : un inconnu sonne à la porte de Schneier en disant qu’il est plombier. Schneier le fait entrer et le laisse un moment à la cuisine, où le gars farfouille sous l’évier puis dit que ça fera tant. Sans même vérifier que la fuite est réparée, Schneier lui tend un chèque que le plombier empoche sans même le regarder et sort. Schneier n’a ni vérifié le diplôme du plombier, ni appelé son employeur pour vérifier qu’il n’était pas un cambrioleur déguisé. Et le plombier n’a pas appelé la banque pour savoir si le chèque de Schneier était en bois ou pas.

La confiance est à la base de toute société, qu’elle soit une petite famille ou la société planétaire que nous sommes en train de construire.

Si aucun de ces deux protagonistes n’a menti ou n’est sorti de la norme (je n’ai pas de meilleure traduction de « outlier » …), c’est parce son avantage sur le long terme à collaborer à divers groupes humains (voisins, entreprise de plomberie, clients de la banque, justiciables etc.) est supérieur à son avantage court terme de trahir la confiance de l’autre.

Pourtant il y a des escrocs, de voleurs, des parasites, des meurtriers. Le but premier des sociétés étant d’offrir une sécurité et un bien-être supérieur à celui que les individus pourraient atteindre, elles exercent un certain nombre de pressions sociales (morale, réputation, institutionnelle, systèmes de sécurité) sur leurs membres pour les pousser à suivre les règles du groupe.

Mais ces pressions ont un coût pour toute la société, qui doit donc trouver un optimum entre une anarchie où le nombre d' »outliers » explose et ruine les bénéfices de la confiance, et l’état policier autoritaire où les coûts du système excèdent ceux qu’auraient causés les « outliers ». Dans une société optimale, il y aura toujours des menteurs et des marginaux (voilà j’ai trouvé une meilleure traduction).

Schneier s’appuie sur de nombreux travaux de recherche pour construire un « modèle de la confiance » pouvant s’appliquer à des groupes très divers. Il commence par montrer que l’être humain est particulièrement doué pour gérer la collaboration dans un groupe, évaluer les avantages ou les risques de trahir le groupe pour en tirer un plus gros avantage, évaluer le degré de fiabilité des membres de son groupe, et se souvenir des trahisons.

Tout ceci fonctionne bien dans des groupes humains de taille inférieure au Nombre de Dunbar environ 150 personnes, où le dilemme du prisonnier est encore assez simple à résoudre.

Le livre traite ensuite de la confiance au sein d’organisations au sens large, puis dans

les (grandes) entreprises en montrant que les pressions sociales habituelles ne sont pas suffisantes pour empêcher quelques personnes de réaliser des profits personnels colossaux en risquant l’existence même de l’entreprise qui les paie.

Selon Schneier, notre comportement naturellement confiant n’est pas adapté aux plus grosses organisations comme les entreprises et peut devenir un piège au niveau national ou international, où des milliers d’escrocs ont désormais les moyens techniques d’abuser de notre confiance à distance. Il illustre son propos avec de nombreux « dilemmes sociaux » présentés comme des extensions du dilemme du prisonnier, allant du respect des limitations de vitesse à la fraude fiscale en passant par la triche aux examens. Il traite également d’un certain nombre de tragédies des biens communs comme la surpêche par exemple.

Enfin, Schneier traite de la confiance et de la sécurité dans un monde évoluant rapidement grâce à la technologie. Il explique que de nouvelles pressions sociales, mais aussi de nouveaux systèmes de sécurité sont nécessaires simplement par l’hypothèse de la reine rouge (« tu dois courir aussi vite que tu peux pour rester à la même place. ») pour maintenir l’écart face aux techniques des tricheurs, par exemple dans le dopage, la criminalité économique ou la sécurité informatique. Cependant, il insiste aussi sur le fait que la sécurité absolue est une illusion coûteuse, et aussi que certains « marginaux » sont indispensables à l’évolution de la société. Certains dissidents politiques, traîtres ou terroristes finissent par recevoir le Prix Nobel de la Paix …

Ce livre n’est hélas pas (encore) traduit en français, mais ses 248 pages se lisent facilement, « comme un roman ». Il y a aussi 100 pages de Notes avec de nombreuses références, citations et anecdotes qui satisferont le chercheur et montrent le sérieux avec lequel Schneier s’est documenté sur ce vaste et passionnant sujet.

 Bruce Schneier « Liars and Outliers : Enabling the Trust that Society Needs to Thrive » (2012)

Par Philippe Guglielmetti dit « Dr Goulu »

Blog Pourquoi Comment Combien

La téléportation, c’est pour bientôt ?

Cela fait une quinzaine d’années que les chercheurs étudient le phénomène de la téléportation quantique. Aujourd’hui, la collaboration de chercheurs allemands et japonais a donné des résultats encourageants puisque des photons ont été correctement transférés d’un émetteur à un receveur.

L’équipe japonaise s’est servie de deux machines placées dans un état quantique intriqué. Cela signifie qu’Alice et Bob, ainsi prénommées, sont certes séparés spatialement mais font partie d’un seul et même système. Par conséquent, les particules qui les composent – dans le cas présent, les photons – évoluent pareillement. De cette manière, les photons intriqués ont pu être transféré d’Alice vers Bob avec une précision de 80 %.

Toutefois, la téléportation humaine n’est pas pour tout de suite. Il faudrait même des millions de milliards d’années afin de téléporter une personne. Un temps qu’aucun homme ne dispose. Alors si vous songiez user de la téléportation pour vous rendre au bout du monde en un claquement de secondes, il est préférable d’attendre, voire d’abandonner l’idée.

La raison principale tient au fait que la densité d’information contenue dans un corps humain est trop importante. Un génome humain contient 6×10 puissance 9 bits, une cellule 1,2×10 puissance 10 bits. Ce qui fait énormément de données à déplacer. Or, il n’existe pas de bande passante assez puissante. Et la transformation du cerveau en information est la partie la plus complexe ; en effet « la quantité maximale de données pour recréer le cerveau humain est d’environ 2.6×10 puissance 42 bits ». Sans compter les risques inhérents à la téléportation. Car un objet transféré n’est pas exactement le même à son point d’arrivée qu’à son point de départ. Et bien que les recherches tendent à augmenter le degré de précision d’un transfert, cela reste inenvisageable à l’heure actuelle.

Le risque d’erreur lors du transfert de données pourrait être mortel. C’est en tout cas la conclusion d’un article écrit par D. Roberts, J. Nelms, D. Starkey et S. Thomas et publié au sein de la revue Journal of Special Physics Topics. 

Par Sébastien Tribot

Et aussi dans les
ressources documentaires :

Pour comprendre les recherches et développements en physique et chimie

Ce pack est composé des bases documentaires suivantes :

  • Recherche et innovation en physique-chimie
  • Structure de la matière
  • Etats de la physique
  • Chimie des milieux complexes

L’influence des puits de carbone modélisée à l’échelle locale

Pour la première fois, l’évolution des émissions de CO2 a été simulée en tenant compte des puits de carbone existants. Publiée sur le site de la revue Nature Climat Change, cette modélisation permet de tracer le CO2 au niveau des régions et de connaître plus précisément la capacité des puits à les absorber. 

La modélisation présentée prend en compte le rôle modérateur des écosystèmes régionaux, par exemple les forêts tropicales d’Asie, d’Afrique, d’Amérique du sud. C’est la première fois qu’un calcul ne se limite pas aux émissions mais inclut les puits de carbone présents dans les océans et les écosystèmes. 

Cette étude permet de pister le CO2 provenant des émissions fossiles et de la déforestation, quantifiant ainsi leur impact quand à la croissance du CO2 dans l’atmosphère. Cette étude confirme que les pays développés sont responsables de plus de 80% de l’augmentation du taux de CO2 dans l’atmosphère et que la contribution des pays émergents est en pleine augmentation.

Mais les émissions de dioxyde de carbone ont permis la création de nouveaux puits depuis 1850, notamment du fait de l’effet fertilisant du CO2 sur les sols. L’apparition de nouveaux puits a aidé à contenir l’augmentation du CO2 dans l’atmosphère. De façon générale, on estime qu’en l’absence de puits, cette augmentation serait deux fois plus rapide. 

« Nous constatons que plus de la moitié des émissions des pays africains et latino-américains depuis 1850 a été compensée par leurs propres puits de carbone, essentiellement les forêts. » précise Philippe Ciais, auteur de l’étude. Plus précisément, d’après cette simulation, les émissions de CO2 dans les pays industrialisés ont créé des puits de carbone dans les régions tropicales équivalents à 13 années de leurs émissions actuelles.

Si cette étude ne prend en compte comme gaz à effet de serre que le CO2, elle suggère que les puits de carbone pourraient être une solution pour limiter le réchauffement climatique. De là à ce que les pays industrialisés sollicitent les pays en voie de développement pour qu’ils compensent leurs émissions, il n’y a qu’un pas. 

Par Audrey Loubens, journaliste scientifique

Et aussi en
formation :

Formation Bilan COV

Établir son diagnostic et réduire ses émissions

  • Identifier les exigences réglementaires liées aux émissions de COV
  • Détailler les étapes du diagnostic COV
  • Elaborer un Plan de Gestion des Solvants et un Schéma de Maîtrise des Emissions
  • Appréhender les principales techniques de traitement des COV

Thermoptim : Téléchargement et formation en ligne

Cette page vous propose d’une part un module de formation en ligne contenant des séances sonorisées de présentation de Thermoptim et des exercices de prise en mains du progiciel, et d’autre part un lien vous permettant de télécharger sa version de démonstration.

 

:. Contenu du module

Objectif

L’objectif de ces séances est de permettre de découvrir Thermoptim et de se familiariser avec son utilisation en construisant des modèles des exemples de systèmes énergétiques simples (turbine à gaz, centrale à vapeur, machine frigorifique à compression).

Connaissances préalables

Les exercices demandent quelques notions préalables de thermodynamique, de mécanique et de thermique, ainsi qu’une connaissance minimale des technologies mises en jeu. On pourra si nécessaire se référer au cours d’autoformation.

 

 Le module contient les séances ci-dessous :

Présentation de Thermoptim

Présentation de Thermoptim et de ses différentes fonctionnalités

Turbine à gaz (gaz idéal)

Turbine à gaz simple construite en deux temps : gaz idéal puis combustion

Turbine à gaz (combustion)

Construction directe d’une turbine à gaz simple avec combustion

Centrale à vapeur

Cycles à vapeur simple, à resurchauffe et prélèvement, bilans exergétiques

Machine de réfrigération

Cycles de réfrigération à compression, bilans exergétiques

Aller au module de formation en ligne 

 

                                                                                    

 :. Manuel

Le manuel utilisé comme référence principale pour les séances est constitué des deux premiers  tomes du livre Systèmes Energétiques :

[1] GICQUEL, R. Systèmes Energétiques, Tome 1 : méthodologie d’analyse, bases de thermodynamique, Thermoptim, Presses de l’Ecole des Mines de Paris, 2009,
[2] GICQUEL, R. Systèmes Energétiques, Tome 2 : applications, Presses de l’Ecole des Mines de Paris, 2009.

 

:. Supports multimédia

Ce module de formation à distance DIAPASON (Diaporamas Pédagogiques Animés et Sonorisés) est structuré en parcours, séances et étapes. Chaque parcours comprend plusieurs séances, et chaque séance plusieurs étapes, essentiellement composées d’écrans sonorisés. Les leçons sont des parcours d’un type particulier.

Un support multimédia a été développé sous Flash. Il se présente comme un visualisateur d’étapes qui vous permet de sélectionner un des parcours, puis une séance, et de faire défiler les différentes étapes de la séance. Vous pouvez à tout moment changer de parcours, de séance ou d’étape à partir des listes situées à gauche de l’écran.

Ce module fait partie d’une série de cursus, dont la liste peut être consultée à partir de ce lien, où vous trouverez aussi une présentation générale du visualisateur et des modules.

 

 :. Compléments d’information

 Si vous désirez d’autres informations sur Thermoptim, reportez-vous aux pages du portail Thermoptim-UNIT qui présentent sa documentation.

L’Art et la Chimie : rendez-vous jeudi 5 septembre

Entre l’atelier de l’artiste et le laboratoire du chimiste, il y a des ressemblances, même si le peintre n’a pas toujours recours à des théories complexes pour réaliser le liant qui lui permet d’appliquer la couleur dont il rêve. L’histoire de l’art l’a prouvé : dans leurs pratiques artistiques, les créateurs ont souvent inventé des moyens sophistiqués pour parvenir à leurs fins. Pour autant, avec le temps, il n’est pas toujours facile de reconstituer leurs cheminements et les différentes étapes de leurs réalisations. Aujourd’hui, plusieurs spécialités scientifiques permettent d’étonnantes investigations dans ces ateliers de la création.

Depuis l’invention de la chimie proprement dite, au XVIIIe siècle, la science n’a cessé d’apporter à l’historien de l’art comme à l’archéologue des outils pour mieux décrypter les œuvres, les authentifier, et aider aussi l’artiste à trouver de nouvelles matières. Des peintures pariétales de Lascaux à celles de Léonard de Vinci, sans oublier les fards de l’ancienne Égypte, qui alliaient le divin et le médical, les investigations scientifiques les plus modernes nous révèlent aujourd’hui l’invisible.

Ainsi, la composition chimique de certains blancs permet de dénoncer le faussaire maladroit ou malchanceux. Du Paléolithique aux années 2000, voyage au cœur d’un dialogue essentiel entre la Science et l’Art. Avec Philippe Walter, directeur de recherche au CNRS, directeur du laboratoire d’archéologie moléculaire et structurale (CNRS-UPMC) et François Cardinali, journaliste, auteurs de L’Art-Chimie. Rencontre animée par Daniel Fiévet, journaliste scientifique et producteur à France Inter.

Jeudi 5 septembre 2013, de 18h30 à 20h – Musée des arts et métiers60 rue Réaumur – 75003 ParisMétro : Réaumur-Sébastopol ou Arts et Métiers – Bus : 20, 38, 39, 47.

En savoir plus : www.arts-et-metiers.net

En partenariat avec l’Association française pour l’avancement des sciences.

Pour aller plus loin :

Par C.C

De l’ozone pour dépolluer les eaux

OPOPOP. C’est l’acronyme joyeux du projet très sérieux d’utiliser de l’ozone pour dépolluer les eaux, signifiant Optimisation des paramètres d’ozonation en phase liquide des polluants multiples de sites pollués. Pour y arriver, l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe) s’est associée à l’Institut polytechnique LaSalle de Beauvais. Lancé en 2010, ce projet aura consisté à mettre en place une unité pilote sur le campus même de l’Institut. Un choix géographique évident puisqu’ il existait déjà un générateur d’ozone. 

L’ozone est un dépolluant bien connu et très efficace. Malheureusement, l’utiliser nécessite de nombreuses précautions liées au fait qu’il s’agit d’un gaz. Le principe de la technique travaillée par les deux partenaires n’est d’ailleurs pas similaire aux autres techniques et ne consiste pas en un traitement in situ de nappes. Il s’agit au contraire de remplacer certaines étapes du traitement séquentiel des eaux pompées. Le dispositif consiste en une colonne de sept mètres de haut à l’intérieur de laquelle sont injectées les eaux polluées. L’ozone, produit sur place à partir de l’oxygène de l’air,  est injecté à contre-flux en circuit fermé. Le dispositif peut traiter 400 litres d’eau en dix minutes.

Le projet OPOPOP arrivant à son terme, l’heure est au bilan. Celui-ci est très positif puisque les équipes ont prouvé être capables de maîtriser tout le processus, sans aucun rejet d’O3 et en toute sécurité. De plus, de nombreux polluants sont traités efficacement : les phénols sont dégradés, les solvants chlorés déchlorés, les solvants polaires dépollués… « Le système a été optimisé pour traiter simultanément jusqu’à 25 molécules différentes », a précisé Olivier Pourret, enseignant-chercheur en géochimie à LaSalle-Beauvais à nos confrères du Monde.fr. 

Valider cette technique de dépollution en eau pompée à base d’ozone a coûté 600 000€, assumés à parts égales entre l’Institut LaSalle et l’Ademe. Une étude économique est actuellement en cours pour  valider la viabilité de cette approche. « Nous maitrisons un processus qui peut remplacer une ou deux séquences de la dépollution en eau pompée. Bien que plus coûteux, avec un  rendement épuratoire supérieur à certaines étapes standards, en remplacer plusieurs devient économiquement avantageux » précise Roland Marion, en charge des recherches sur les traitements d’eau à l’Ademe.

Les acteurs ne cachent pas leur volonté d’aller plus loin. Les prochaines étapes seraient par exemple de créer un dispositif mobile, ou encore de s’attaquer à la dépollution des terres.

Par Audrey Loubens, journaliste scientifique

Et aussi en
formation :

FORMATION Loi sur l’eau : quelles exigences pour être en conformité ?

La réglementation, les régimes d’autorisation et de déclaration, les responsabilités

  • Maîtriser les obligations et les sanctions en matière de gestion de l’eau.
  • Identifier le régime auquel l’entreprise est soumise : autorisation, déclaration
  • Appréhender les responsabilités pour l’entreprise

Les transpalettes chinois taxés à la frontière

La mise en place par l’Union européenne d’une loi visant à limiter le dumping sur ces appareils de manutention impactera fortement le marché français. Le document joint illustre les longues tractations inhérentes à la mise en œuvre de ce type de décision en discussion depuis 2005.

Les premières retombées  ne se sont pas fait attendre chez les importateurs et distributeurs pour lesquels une telle hausse est impossible à absorber en regard des marges habituelles.

Monsieur Patrick Liegaut, distributeur français de ce type de matériel nous confie : « Sur ces produits, nos prix d’achat actuels sont maintenant supérieurs à nos précédents prix de vente ».

Les matériels fabriqués en Europe sont aujourd’hui à des prix quasi équivalents au matériel chinois.

Mais les fabricants chinois ont très rapidement réagi pour baisser à nouveau leurs tarifs et réduire les effets de cette loi anti dumping. On constate donc à nouveau un écart de prix  d’environ 20 % pour les appareils les moins sophistiqués.

En revanche le niveau de qualité peut facilement être comparé au travers des durées de garanties proposées : un an en moyenne pour un transpalette en provenance de République populaire de Chine, contre 2 à 10 ans pour les fabricants italiens ou allemand.

Erling Pedersen, PDG d’une entreprise danoise fabricante, insiste d’ailleurs sur la durée de vie de ses produits en précisant que la pompe d’élévation de ceux-ci supporte facilement plus de 50 000 utilisations contre des possibilités très largement inférieures pour les produits en provenance de Chine.

Notons que la loi qui vient d’être votée ne concerne que les transpalettes manuels, mais pas les produits à plus haute valeur ajoutée tels que le transpalette électrique (ou gerbeur) ou transpalette haute levé voire chariot élévateur.

Les lois anti dumping, continuent d’attiser les tensions. En juillet 2013, la Chine ouvrait une enquête anti-dumping sur les vins en provenance de l’Union européenne,  un comportement jugé comme des représailles face aux désaccords sur les panneaux solaires.

A suivre.

Publié par la Rédaction

En savoir plus sur les transpalettes : http://www.websilor.com/content/6-choisir-son-transpalette

Ariane 6, pas encore construite et déjà en soldes

Sous la pression des concurrents américains et russes, l’Europe doit baisser le prix des ses lancements. Cet effort financier doit aboutir à un tarif de 70 millions d’euros le lancement, pour une capacité d’emport d’environ 6 tonnes. Pour rappel, un lancement utilisant Ariane 5 se chiffre à 100 millions. Mais l’exploitation de l’actuel lanceur européen présente un déficit de 120 millions d’euros. Certes, nous sommes en temps de crise, mais cela souligne un décalage entre l’offre Ariane 5 et le marché des satellites commerciaux.  Conscient de tarifs trop élevés qui font perdre des parts de marché, l’Europe a donc décidé de rogner les coûts !

Opérationnelle dès 2021, Ariane 6 sera dotée de 4 propulseurs à propergol liquide, trois  au premier étage et un seul au deuxième étage. Le dernier niveau, un étage cryogénique réallumable,  sera quand à lui propulsé par un moteur Vinci. C’est donc la solution PPH qui a finalement été retenue au détriment de la propulsion liquide, performante mais jugé trop couteuse. «La solution PPH n’est pas tombée du ciel. Elle a été choisie parmi une “short list” de 130 versions différentes. Si on veut réduire le coût d’exploitation d’Ariane 6, c’est elle qui tient la corde d’assez loin.» explique Jean-Yves Le Gall, président du Centre national d’études spatiales (CNES)

En termes de dimensions, Ariane 6 ressemblera beaucoup à sa petite sœur puisqu’elle mesurera 50.6m de haut contre 53m pour Ariane 5, et sera plus légère de 120t pour un poids total de 660t. Autre changement de taille, Ariane 6, sonne la fin des lancements doubles devenus inutiles.

Astrium sera le maître d’œuvre de ce projet estimé entre 2.5 et 3.5 milliards d’euros, Safran sera le motoriste.

Pour réussir à rester leader du marché, il faudra être capable de construire un lanceur « […] suffisamment compétitif pour faire quinze à seize lancements par an au lieu de six actuellement avec Ariane 5 » prévient Alain Charmeau, le président d’Astrium Space Transportation. 

Par Audrey Loubens, journaliste scientifique

Véhicules hybrides : fin du partenariat entre Ford et Toyota

Ils n’auront pu fêter que des noces de cuir : le constructeur automobile américain Ford et son concurrent japonais Toyota ont décidé de suivre des routes différentes après deux ans de collaboration visant à développer des véhicules hybrides. Ford avait annoncé en août 2011 le début d’un partenariat avec Toyota, qui faisait figure de référence en matière de technologies hybrides, afin de développer des variantes hybrides de types pick-up et SUV dont la consommation et les émissions de gaz à effet de serre seraient fortement réduites. L’autre but affiché de cette collaboration était de diminuer substantiellement les coûts de fabrication tout en réalisant une économie d’échelle – accroître la quantité de production pour faire baisser le coût unitaire d’un produit.

Si l’on en croit les déclarations officielles, la séparation ne se fait pas dans la douleur, loin s’en faut, et les deux constructeurs estiment que ces deux années de collaboration leur ont été bénéfiques. « Les deux partenaires ont chacun apporté une contribution significative au projet » a lancé Raj Nair, en charge du développement des produits chez le constructeur américain, précisant encore que « Toyota et Ford sont satisfaits de la possibilité d’avancer séparément ». Ford se retrouve donc seul aux manettes de la version plus « verte » de son pick-up le plus populaire sur le continent américain, le F-150.

Cette séparation ne sonne par contre pas le glas de leur collaboration au développement de nouveaux standards dans le domaine de la téléphonie et des systèmes embarqués.

Par Moonzur Rahman

Un Plan d’Investissements d’Avenir à 12 milliards d’euros

12 milliards d’euros. C’est la somme décidée par l’Etat pour remodeler la France en moins de dix ans. Ce Plan d’Investissement d’Avenir (PIA)  a donc pour ambition de moderniser l’Hexagone, en avançant dans plusieurs directions à la fois. Alors, à quoi vont servir ces 12 milliards ?

Le PIA se décline suivant 7 priorités qui sont, dans le désordre, la « mobilité », « innover pour une industrie durable », l’« économie numérique », « université et recherche », la « santé », « jeunesse, formation et modernisation de l’Etat», et enfin la « transition énergétique, rénovation thermique et ville de demain ».  Le gouvernement brosse les universitaires dans le sens du poil en leur allouant le plus gros financement avec 3.65 milliards d’euros  pour une recherche  d’excellence. Deuxième axe favorisé, la transition énergétique, une volonté gouvernementale assumée avec 2.3 milliards. Le domaine de la santé profitera de 1.7 milliards, celui de l’excellence technologique des industries de défense recevra 1.5 milliards, les 2.85 milliards restant sont répartis entre les 3 autres secteurs.

Jean-Marc Ayrault a bien précisé que le financement des projets sera soumis à des critères environnementaux, baptisant cela l’éco-conditionnalité.

En pratique, un des premiers chantiers est celui du renouvellement intégral de l’ensemble des rames Intercités entre 2015 et 2025, une première commande de 500 millions d’euros étant en préparation. En revanche, aucune nouvelle ligne à grande vitesse ne sera lancée, ces projets étant beaucoup trop coûteux en ces temps de restriction budgétaire.

Les hôpitaux seront modernisés, de nouveaux campus vont être crées, le cadre urbain des villes sera amélioré, 100% du territoire sera relié au haut débit, 200km de métro vont être construit d’ici 2030 dans le cadre du projet « Grand Paris »,  et près de 35 millions de compteurs électriques Linky seront installés d’ici 2020. Ceci devrait d’ailleurs être pris en charge intégralement par EDF, ce qui lui en coûtera près de 5 milliards. On comprend mieux les augmentations astronomiques du tarif de l‘électricité tous les ans…

Car quid du financement ? La façon dont l’Etat va sortir ces 12 milliards reste mystérieuse. Le Premier ministre avançait un début d’explication en annonçant des cessions de participations, comme cela a été fait auprès d’EADS ou encore Safran : « Les recettes issues de cessions de participations de l’Etat contribueront à son financement, grâce une gestion active et responsable du patrimoine de l’Etat ». Autre piste, des prêts et des dotations viendraient alimenter progressivement le PIA.

Par Audrey Loubens, journaliste scientifique

 

Et aussi dans les
ressources documentaires :

Découvrez le pack : Ingénierie innovante et durable

Pour maîtriser les outils et les pratiques de l’innovation, de l’écoconception et de la veille scientifique

Découvrez le pack
Ingénierie innovante et durable 

Pour maîtriser les outils et les pratiques de l’innovation, de l’écoconception et de la veille scientifique

L’horloge atomique la plus précise du monde

1 seconde tous les 13.8 milliards d’années. C’est la dérive de cette horloge à la précision unique au monde. Une prouesse réalisée par des chercheurs américains, qui ont eu l’idée d’utiliser des atomes d’ytterbium. Ces quelques 10 000 atomes sont refroidis à une température proche du zéro absolu, 10 microKelvin, et piégés dans des puits optiques grâce à des rayons laser. Un laser sert à provoquer la transition énergétique nécessaire au maintien de la fréquence de vibration, avec une régularité encore plus grande que dans le cas d’atomes de césium. 

Pour rappel, dans le cas d’horloges atomiques standards, c’est la fréquence du césium qui définit la seconde atomique, soit 9 192 631 770 Hz. Ces horloges, qui servent à définir le Temps atomique international, sont  la base de la chronologie universelle mais aussi des technologies GPS.

Cette horloge expérimentale, construite dans les laboratoires de l’Institut national des sciences et de la technologie (NIST) dans le Colorado, serait 100 fois plus stable que les horloges atomiques au césium. Andrew Ludlow, coauteur des travaux, ne doute pas que « Cette avancée spectaculaire aura des implications significatifs non seulement sur la précision du chronométrage, mais également sur le GPS et un ensemble de capteurs qui mesurent des forces minuscules comme la gravité, les champs magnétiques et la température »

De là à redéfinir la seconde…

Par Audrey Loubens, journaliste scientifique

La recherche sur les cellules souches embryonnaires légalisée

L’Assemblée nationale a autorisé  la recherche sur les cellules souches embryonnaires, remettant la France dans la course. En effet, depuis 2004, les scientifiques français se heurtent à l’interdiction d’effectuer la moindre recherche sur les embryons. Cette décision prise lors de la révision de la loi de bioéthique de l’époque avait été reconduit lors des débats de 2011. 

Néanmoins, une porte avait été laissée ouverte via l’Agence de biomédecine, seul organisme autorisé à délivrer une autorisation exceptionnelle.  Depuis 2005, seuls 70 projets ont pu bénéficier de telles dérogations. Pas de quoi rivaliser avec les chercheurs du monde entier. Une situation dommageable tant le champ d’application concernant les cellules souches embryonnaires est important.

Pour rappel, les cellules souches embryonnaires (CSE) utilisées sont des cellules souches pluripotentes, c’est-à-dire capables de se différencier en cellules matures, comme des neurones, des cellules de la peau ou des  cellules du foie par exemple. Les CSE proviennent  des embryons surnuméraires de la procréation médicale assistée. 

Travailler à partir de cellules prélevées sur des embryons fait grincer des dents les conservateurs et autres lobbys chrétiens. Simple amas de cellules ou être vivant, le statut de l’embryon est sujet à  des débats enflammés. Les opposant à la recherche sur des cellules issus d’embryon avancent notamment l’existence de cellules adultes pluripotentes. Ces dernières ont été inventées par Shinya Yamanake en 2007, prix Nobel de médecine 2012 et peuvent être reprogrammées pour redevenir des cellules embryonnaires. Une méthode très délicate à mettre en œuvre, avec un taux de réussite inférieur à 5%. Les cellules embryonnaires ainsi obtenues ne sont pas non plus l’exacte copie de CSE.

Bref, rien ne vaut l’original !

Marc Peschanski, spécialiste des cellules souches à l’Inserm, se félicite de l’autorisation de la recherche sur les CSE, rappelant que la nécessité d’obtenir une dérogation nuisait aux financements, décourageant les investisseurs : « On pénètre dans le domaine de la recherche clinique avec de premiers programmes de thérapie cellulaire et de recherche pharmacologique. Nous sommes donc confrontés à des collaborations avec des responsables hospitaliers ou industriels pour lesquels la loi actuelle est incompréhensible. Elle ne permet pas de justifier les investissements importants. Et fait craindre les attaques en justice des groupes intégristes».

Les espoirs en thérapie régénérative sont forts. Imaginez. On pourra remplacer des cellules déficientes ou mortes par des cellules : greffe d’épiderme pour les grands brûlés, greffe de cellules musculaires dans un cœur abîmé par un infarctus, greffe de cellules pancréatiques pour rétablir le taux d’insuline des diabétiques, greffe de neurones pour des patients atteints de maladies dégénératives. De quoi redonner espoir à de nombreux malades.

Par Audrey Loubens, journaliste scientifique

 

Découvrez la base documentaire
Bioprocédés dans les domaines de la santé, de l’agroalimentaire et de la chimie