Chimie verte : un plastique entièrement biodégradable mis au point par Carbios

Carbios a obtenu, grâce à son procédé innovant, un matériau plastique entièrement biodégradable dans des conditions domestiques. Ce matériau produit à partir d’un polymère industriel d’origine fossile et d’une enzyme se caractérise par une perte de masse de 50% en 15 jours et une biodégradation complète en moins de 3 mois. Avec ce résultat, Carbios démontre que sa technologie est une réponse industrielle pertinente aux évolutions réglementaires relatives à la maîtrise de la fin de vie des matières plastiques à usage unique et courte durée de vie.

Avec son partenaire historique VALAGRO, titulaire avec le CNRS de la demande de brevet WO 2013/093355 A1 intitulée « Procédé de préparation d’alliage polymère/entités biologiques » concédée à Carbios sous forme de licence exclusive mondiale, Carbios continue avec succès le développement de son procédé de biodégradation contrôlée des plastiques souples à usage unique.

Rappelons que fin 2013, Carbios avait réussi à préserver l’activité catalytique des enzymes après les avoir incluses dans un matériau plastique et soumises à des températures d’extrusion de 170°C.

Ce nouveau franchissement d’étape permet à Carbios d’envisager d’avoir accès, au niveau mondial, à des applications commerciales de ce matériau, en particulier dans le domaine de l’agriculture avec les films de paillage mais aussi des marchés de l’emballage et notamment de l’emballage alimentaire à usage unique, autre marché stratégique visé par Carbios.

« Nous sommes fiers de cette nouvelle étape franchie qui souligne la synergie avec nos partenaires académiques ainsi que l’efficacité de notre approche et va aussi permettre à Carbios d’initier sa montée en puissance vers l’industrialisation. Cette avancée significative souligne que l’on peut ambitionner un élargissement de l’amendement Royal sans compromettre les ambitions de la France en matière d’environnement ni celles des industriels de la plasturgie », dit Jean Claude Lumaret, Directeur Général de Carbios.

Introduire des technologies de rupture pour conjuguer chimie verte et réalité industrielle

Carbios, Jeune Entreprise Innovante (JEI), a pour mission de concevoir et développer des bioprocédés industriels performants et compétitifs visant à améliorer le cycle de vie des polymères. Grâce à l’expertise de la société sur les enzymes – catalyseurs biologiques -, les bioprocédés développés par Carbios offriront une véritable technologie de rupture permettant de produire, transformer et recycler un très grand nombre de polymères (plastiques, textiles, alimentaires, etc.) tout en améliorant les propriétés techniques requises en fonction de l’usage.

L’ambition de Carbios est d’accélérer la révolution de la chimie mondiale vers une industrie verte en associant les trois grands défis de performance à l’Innovation :

  • Performance environnementale, en valorisant la biomasse en amont et en améliorant le cycle de vie des produits ;
  • Performance technique, en garantissant une haute technicité industrielle ;
  • Performance économique, en rendant les polymères biosourcés compétitifs pour accélérer leur pénétration sur le marché et apporter une alternative durable aux polymères fossiles.

CARBIOS s’appuie sur des équipes internes expérimentées et construit progressivement un réseau de compétences regroupant deux pôles complémentaires de partenaires : un réseau académique de très haut niveau permettant de démultiplier la capacité d’innovation et un réseau d’industriels offrant une proximité directe avec le marché. Cette démarche originale d’associer des industriels dès le stade de la recherche permet de maximiser le potentiel de création de valeur industrielle.

Carbios vise des marchés hautement stratégiques et a choisi l’industrie de la plasturgie pour conduire son premier segment applicatif. D’autres secteurs sont déjà à l’étude.

Un premier marché hautement stratégique : la plasturgie

On compte dans le monde plus de 280 millions de tonnes de plastiques produites. Le premier marché cible de Carbios, l’emballage, en représente près de 40% pour une valeur estimée à 196 Milliards $ (2), ce qui ouvre des perspectives considérables pour valoriser le cycle de vie des polymères, par des bioprocédés compétitifs, liés à la biodégradabilité et au recyclage des déchets. On estime pour l’heure que la biodégradabilité concerne plus de 10% des volumes d’emballages plastiques produits et que, par ailleurs, moins de 10% des déchets plastiques collectés sont effectivement recyclés dans le monde.

Ces enjeux de valorisation des déchets plastiques constituent les premières orientations de la recherche de Carbios, et ce dans trois domaines d’applications :

  • Une nouvelle génération de plastiques biodégradables, compétitifs et à durée de vie contrôlée pour l’usage ;
  • Des polymères compétitifs issus du recyclage : pouvoir recycler un très grand nombre de plastiques sans nécessiter un tri sophistiqué;
  • Une nouvelle technologie de production de bio-polymères : valoriser la biomasse pour accroître la compétitivité des procédés de production de polymères bio-sourcés.

Source : Carbios

 

Et aussi dans les
ressources documentaires :

Le cannabis contenant du THC favorise la paranoïa

Pour en savoir plus sur cet effet minoritaire mais qui touche certains consommateurs, des chercheurs ont testé leur capacité à traiter des données habituelles par rapport à des stimuli inhabituels, en fonction des taux de THC (Téteahydroncanabinol) et de CBD (Cannabidiol) consommés, deux substances présentes à des concentrations très variables dans le cannabis.  Ils ont donc montré aux volontaires des images avec des flèches dessinées. Certaines pointaient vers la droite, d’autres vers la gauche, mais la grande majorité gardait la même direction horizontale, à l’exception de certaines flèches légèrement inclinées. Les participants ayant consommé du CBD ont repéré immédiatement les flèches inclinées. Mais ceux qui avaient pris du THC ont montré plus d’intérêt pour les flèches horizontales. Normalement, toute personne qui n’est pas sous l’emprise d’une drogue repère les flèches inclinées, la répétition étant jugée inintéressante tandis que le changement est remarquable. Sous l’emprise de THC, les individus ont manifesté un intérêt élevé pour les flèches horizontales, se désintéressant des flèches inclinées. Autrement dit, le THC parasite notre capacité à dissocier la banal de l’exceptionnel, donnant une dimension exceptionnelle à ce qui ne l’est pas. Ceci peut expliquer un comportement  paranoïaque si le cannabis contient un fort taux de THC.

Le problème est que le cannabis contient de plus en plus de THC. Dans les années 60-70, un joint contenait 10 mg de THC. Or ce taux peut s’élever  jusqu’à 150mg dans les pétards du nouveau millénaire. Les effets psychoactifs sont donc bien plus importants aujourd’hui, d’autant qu’ils ne sont pas forcément contre-balancés par le cannabidiol, aux effets sédatifs.  

Par Audrey Loubens, journaliste scientifique

Les aliments anti-cholestérol n’apportent pas de bénéfice santé avéré

Voilà qui ne va pas faire plaisir aux acteurs du marché des aliments anti-cholestérol. Non seulement leurs produits ne seraient pas efficaces, mais en plus ils pourraient présenter un danger de santé ! Ce sont en tout cas les conclusions de l’Anses, dont l’avis vient d’être publié. L’action anti-cholestérol vantée pour ces aliments, principalement des margarines, des yaourts et des vinaigrettes, provient de la présence de phytostérols. Il s’agit de composés naturellement présents dans les plantes telles que les graines et les oléagineux, concurrents direct du cholestérol au niveau de l’absorption intestinale. Ceux-ci contribuent donc à ce que le corps absorbe moins de cholestérol, une action à première vue bénéfique. D’ailleurs, les études montrent qu’ils permettent d’abaisser le taux de cholestérol de 10% sur plusieurs semaines voire plus d’un an. Malheureusement, 30% de la population ne serait pas apte à en profiter du fait d’une capacité de synthèse de cholestérol trop élevée. Quoi qu’il arrive et quelles que soient les quantités de phytostérols présentes, ces personnes assimileront toujours autant de cholestérol. L’Anses enfonce le clou en ajoutant que la baisse du taux de mauvais cholestérol n’entraîne pas à elle seule une diminution des risques cardiovasculaires.

Non seulement les aliments anti-cholestérols sont inefficaces pour lutter contre les maladies cardiovasculaires, mais en plus ils seraient néfastes pour certaines populations fragiles comme les femmes enceintes et allaitantes. En cause la diminution de b-carotène en parallèle d’une augmentation du taux de phytostérols pourrait augmenter les risques cardiovasculaires ! Un comble.

L’Anses en profite pour rappeler que diminuer le risque cardiovasculaire passe par l’arrêt du tabac, la pratique d’une activité sportive et une alimentation équilibrée. 

Par Audrey Loubens, journaliste scientifique

4 Conseils pour un chef de projet débutant

1er conseil :  Lutter contre l’isolement et marquer ses repères…

Dès les prémices du projet, le chef de projet qu’il soit jeune ou nouveau dans le métier agira comme un manager chevronné et consacrera le temps nécessaire à marquer ses repères auprès de l’équipe de réalisation dont il a la charge. Selon sa personnalité, cela risque de consommer une bonne part de son temps et de son énergie.

Un relationnel quelquefois un peu complexe …

Pour certains novices, la complexité du relationnel sera en effet difficile à vivre. Malheureusement il en existera toujours pour ne pas comprendre qu’il ne tient qu’à eux d’instaurer de sains rapports humains. Ils préféreront se réfugier derrière un dirigisme froid et procédurier en se contentant de suivre exclusivement les plannings et les indicateurs d’avancement.

Cette tendance à l’isolement peut sembler un certain confort dans un premier temps. Elle n’en est pas moins un facteur d’échec assuré. Ce comportement peut être qualifié de non professionnel. Il conduit généralement à la rupture entre le manager, l’équipe et tous les « autres », les parties prenantes directes et indirectes : clients, donneurs d’ordre, utilisateurs et les observateurs…

L’accompagnement du changement commence dès le l ancement du projet.  Prendre le temps d’initier une communication efficace et profitable avec toutes les parties est un préalable. C’est aussi ainsi que l’on prévient les conflits potentiels.

2e conseil :  Préparer son projet

L’écoute des « non-dits »

L’avant projet est une phase essentielle. Il s’agit en effet de définir et de préciser la cible ainsi que la feuille de route balisant point par point le déroulement. Sous un autre angle de vue, il s’agit de bien comprendre comment chacune des parties prenantes perçoit le projet.

Dans le cadre d’un projet complexe, les personnes concernées directement ou indirectement ont leur propre vision de la réalité. Ce n’est pas gênant en soi à partir du moment où chacun des acteurs majeurs a bien compris les enjeux et les phases du dérou l ement. Mais cela demande beaucoup de communication : Informer bien sûr, mais aussi beaucoup écouter. L’expert spécialisera son oreille dans les « non-dits ». Ils sont généralement beaucoup plus riches de sens.

3e conseil : Communiquer pour mieux anticiper

Si le bon chef de projet est un communicant, il sait aussi anticiper. Grâce aux échanges fréquents, il se forge une perception toujours plus fine du projet dans toutes ses dimensions afin de l’intégrer du mieux possible. Percevoir les impacts du projet sur les plans organisationnel, technologique et culturel est une des règles du succès.

4e conseil  : Vendre son projet

De toute façon et dans tous les cas, un projet se vend. Le bon chef de projet est aussi un « expert en marketing ». Bien sûr il faut prendre soin d’étudier avec les responsables concernés leur vision propre du projet. Mais il s’agit aussi de présenter les enjeux sous leurs plus beaux atours. C’est le seul moyen d’établir les alliances nécessaires à la réussite

Source : piloter.org/livres-blancs-pdf/bonnes-pratiques.pdf
Alain Fernandez « Le chef de projet efficace 2003-2014 » © Edition Eyrolles

Et aussi dans les
ressources documentaires :

Reach/CLP : toute l’actualité de juillet (1/2)

Directive relative à la sécurité des jouets, en ce qui concerne le nickel

01/07/2014

La directive 2014/84/UE de la Commission du 30 juin 2014 modifie l’annexe II, appendice A, de la directive 2009/48/CE du Parlement européen et du Conseil relative à la sécurité des jouets, en ce qui concerne le nickel. Cette directive du 30/06/2014 a été publiée au Journal Officiel le 1er juillet 2014. Le texte est disponible sur :

http://eur-lex.europa.eu/legal-content/FR/TXT/HTML/?uri=OJ:JOL_2014_192_R_0009&from=FR

Consultation publique pour de potentielles substances candidates à la substitution

02/07/2014

L’Institut national de l’environnement industriel et des risques (Ineris) a présenté le 2 juillet les résultats du projet Predimol pour « Prédiction des propriétés physico-chimiques des produits par modélisation moléculaire ». Projet financé par l’Agence nationale de la Recherche, impliquant des partenaires publics et privés et piloté par l’Ineris, il associe IFP Energies Nouvelles, Chimie Paris Tech, le Laboratoire de chimie-physique de l’Université Paris-Sud XI, Materials Design et Arkema. Les conclusions de Predimol ? Les méthodes prédictives sont une alternative crédible à l’expérimentation de laboratoire dans le cadre de la mise en œuvre du règlement Reach.

Consultation publique pour de potentielles substances candidates à la substitution

04/07/2014

L’ECHA a lancé une consultation publique pour une nouvelle substances dont la substitution est envisageable. La substance concernée est le Carbendazim. Les commentaires sont à soumettre pour le 2 septembre 2014.Plus d’information sur :

http://echa.europa.eu/addressing-chemicals-of-concern/biocidal-products-regulation/public-consultation-on-potential-candidates-for-substitution

Nouvelle proposition de classification et d’étiquetage harmonisé

08/07/2014

L’ECHA a lancé une consultation pour l’harmonisation et l’étiquetage harmonisé de trois nouvelles substances :

–        carbetamide (ISO); (2R)-1-(ethylamino)-1-oxopropan-2-yl phenylcarbamate (N° CE : 240-286-6 – N° CAS : 16118-49-3)

–        Fenpyrazamine (ISO); S-allyl 5-amino-2,3-dihydro-2-isopropyl-3-oxo-4-(o-tolyl)pyrazole-1-carbothioate (N° CAS : 473798-59-3)

–        Spiroxamine (ISO); 8-tert-butyl-1,4-dioxaspiro[4.5]decan-2-ylmethyl(ethyl)(propyl)amine (N° CAS : 118134-30-8).

Les parties intéressées sont invitées à soumettre leur commentaire sur le site de l’ECHA, et ce avant le 22 août 2014. Plus d’informations sur :

http://echa.europa.eu/harmonised-classification-and-labelling-consultation

Nouvelle consultation pour éviter les tests sur les animaux

15/07/2014

L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. 65 propositions sont concernées. Les informations relatives à ces substances sont à soumettre pour le 29 août 2014. Plus d’information sur :

http://echa.europa.eu/information-on-chemicals/testing-proposals/current

Par Céline GABORIAUD, Ingénieur Environnement aux Ateliers d’Orval

Et aussi dans les
ressources documentaires :

Astuce du Web #11 : Comment utiliser Slingshot, la nouvelle application de Facebook ?

Cela ressemble à Snapchat, l’application de partage de photos et vidéos développée par des étudiants californiens que Facebook avait désespérément tenté d’acquérir fin 2013. Cette appli introduisait la notion d’éphémère puisque les fichiers envoyés ne sont visibles que quelques secondes. Les ados ont adoré, tant et si bien que Facebook lance un concurrent très sérieux baptisé Slingshot. Ce faisant, Facebook adhère au fameux adage  « On n’est jamais mieux servi que par soi-même », et n’hésite pas à développer l’appli qu’il n’avait pas réussi à acheter.

Voilà comment utiliser Slingshot.

  • 1      Tout d’abord vous devez vous inscrire en indiquant un numéro de téléphone et un pseudo.
  • 2      Prendre une photo ou une vidéo en appuyant sur le bouton de capture de façon brève ou longue. Une touche « selfie » permet les autoportraits en activant directement la caméra frontale du téléphone.
  • 3      Ajouter du texte. Ou pas.
  • 4      Choisir le destinataire parmi vos contacts Facebook ou ceux de votre téléphone.
  • 5      Envoyer !

Votre destinataire reçoit une notification affichant votre pseudo et l’image pixélisée. La nouveauté par rapport à Snapchat réside dans le fait que pour visualiser votre fichier média dans son intégralité, votre destinataire devra vous répondre. Une démarche à double tranchant car cela dynamise les échanges mais risque d’être un frein à la diffusion des photos. Enfin, votre « shot » s’autodétruira quand votre contact décidera de le fermer.

Slingshot est disponible sur l’Appstore et Play Store.

Par Audrey Loubens, journaliste scientifique

L’ingénieur geek #3 : Vessyl, le verre connecté qui suit votre consommation de liquide

Vessyl vous dira tout de ce que vous buvez, même ce que vous ne voulez pas savoir. En effet, Vessyl est capable d’analyser la composition de n’importe quel liquide que vous y aurez versé. Taux de sucre, alcool, parfum, saveur, caféine ou encore calories, aucune boisson n’aura plus de secret pour vous.  Coca-Cola est prévenu !

Mais au-delà de l’analyse brute, Vessyl s’intéresse aussi aux habitudes de consommation, mesurant le volume d’eau bu au cours du temps, les calories consommées, les quantités d’ingrédients assimilées. Vessyl dresse ainsi un bilan complet de vos habitudes. Connecté à votre Smartphone via une application, Vessyl est aussi capable de vous aider en cas de régime ou d’alimentation surveillée, en vous alertant par exemple sur un manque de vitamines. Ce verre du futur devrait être commercialisé prochainement et est déjà en précommande au tarif de 73€.

Découvrez Vessyl en vidéo :

 

Par Audrey Loubens, journaliste scientifique

Les milles usages du quantum dot

Au moment où les premières applications commerciales grand public arrivent sur le marché, il était temps pour la communauté scientifique qui explore ce nouveau monde de regarder avec un peu de recul ces trente années foisonnantes, de faire le point sur cette aventure, d’en esquisser l’histoire… et de célébrer le 30ème anniversaire de cette découverte.

Les quantum dots (QDs), ou boîtes quantiques, sont des structures matérielles solides de très petite taille, dotées de propriétés remarquables du fait essentiellement de cette petite taille. Leurs dimensions se mesurent en nanomètres, c’est-à-dire en milliardièmes de mètre et ils rassemblent un petit nombre d’atomes, de l’ordre de cent à cent mille. Les QDs peuvent avoir une structure plus ou moins complexe. Les plus simples sont juste des nanocristaux, c’est-à-dire un assemblage régulier d’atomes arrangés selon un motif géométrique précis. Comme des cristaux ordinaires, mais de dimensions extrêmement réduites. Les matériaux les plus étudiés sont des semi-conducteurs, en particulier des composés à base de cadmium, comme le séléniure de cadmium.

Les lois de la physique impliquent que ces dimensions réduites modifient profondément le comportement des électrons gravitant autour des noyaux de ces atomes. Leur confinement impose de nouvelles règles du jeu qui se traduisent par des propriétés électriques et optiques inédites très intéressantes. Par certains côtés, expliquent les chercheurs, un QD se comporte comme un gros atome artificiel.

Des propriétés exceptionnelles

La propriété la plus étudiée et exploitée des QDs est leur fluorescence. La communauté scientifique a découvert qu’un quantum dot, excité par une lumière incidente, émet de la lumière sur une fréquence très précise qui ne dépend que de sa taille. Lorsqu’on a su contrôler la taille des QDs, à partir de 1993, les chercheurs ont commencé à produire à volonté des QDs émettant de la lumière de n’importe quelle couleur, depuis l’ultraviolet jusqu’à l’infrarouge proche et lointain, en passant évidemment par le spectre visible. Une forme de QD plus complexe comporte en plus d’un nanocristal une « coque » constituée d’un second matériau, qui d’une certaine façon protège et donc renforce les propriétés du « cœur » qu’elle renferme. On peut encore attacher à cette coque des molécules, généralement des chaînes carbonées que l’on appelle « ligands », qui permettront notamment au QD de s’attacher à certains sites.

Du simple nanocristal, la recherche a ainsi mené au quantum dot « fonctionnalisé », capable notamment de se fixer sur des cellules présentant certaines caractéristiques, par exemple cancéreuses, et de permettre leur

localisation grâce à la fluorescence. D’autres travaux ont permis de contrôler également la forme des QDs. Des équipes ont ainsi publié des solutions pour réaliser des cylindres, des tétrapodes, des plaquettes. Ces nouvelles formes confèrent à ces QDs des propriétés insoupçonnées. Les premiers QDs étaient réalisés essentiellement à partir de composés du cadmium, un métal lourd, impliquant donc des précautions. De nombreux travaux de recherche ont progressivement démontré qu’il était possible d’utiliser d’autres matériaux, y compris des éléments chimiques moins nocifs et plus répandus.

Les milles usages du quantum dot

Les propriétés remarquables des quantum dots les destinent à un large spectre d’applications. Parmi les plus clairement identifiées, citons la réalisation d’écrans plats, de dispositifs d’éclairage, de panneaux photovoltaïques, de batteries et supercondensateurs, de lasers et de toutes sortes de dispositifs électroniques. Enfin, les qds seront à l’origine de nouvelles techniques d’imagerie par fluorescence et de bien d’autres progrès en médecine et biologie

ÉCRANS

C’est dans le domaine des écrans que les quantum dots ont fait leur percée la plus spectaculaire. On peut même les voir à l’œuvre depuis 2013, d’une part sur des téléviseurs grand format de la gamme Triluminos chez Sony, et d’autre part sur les dernières tablettes d’Amazon, les Kindle Fire HDX. La liste devrait s’allonger au cours de l’année 2014. En particulier, si l’on en croit des rumeurs persistantes, le premier smartphone doté d’un écran à quantum dots pourrait être… le prochain smartphone d’Apple. Pourquoi cet emballement ? Les fabricants d’écrans à cristaux liquides se ruent sur les quantum dots parce qu’ils promettent beaucoup. Notamment une gamme de couleurs bien plus étendue que celle qu’offrent les écrans LCD classiques. Actuellement, l’écran d’une tablette typique est capable de restituer environ 20% des nuances de couleurs qu’un œil humain peut distinguer, tandis que celui d’un téléviseur haute définition peut offrir quelque 35% de cette palette idéale. Les nouveaux écrans incorporant des quantum dots font un grand pas dans ce domaine en atteignant le chiffre de 55%.

SPECTRE DE COULEURS VISIBLE PAR L’OEIL

Cette première génération d’écrans faisant appel aux QDs utilise ces derniers au niveau du rétro-éclairage, où ils permettent de produire une lumière blanche optimisée. Typiquement, un éclairage LED primaire bleu excite deux sortes de QDs qui absorbent ce bleu pour émettre du vert et du rouge. Pas n’importe quel vert ou rouge, mais dans chaque cas une lumière d’une longueur d’onde très précise, ce qui est facile à réaliser à l’aide de QD puisque ceux-ci émettent sur une fréquence qui dépend essentiellement de leur taille, que l’on sait contrôler. La lumière blanche ainsi produite (bleu initial plus vert plus rouge) permet au système de filtres dichroïques de l’écran de produire un maximum de nuances de couleurs. QD Vision (Lexington, Massachusetts), une société créée par des chercheurs du MIT, propose ainsi sa solution Color IQ, qui a été choisie par Sony. De son côté, le pionnier californien Nanosys (Milpitas), spin-off de l’Université de Berkeley, produit en partenariat avec 3M une solution dénommée Quantum Dot Enhancement Film (QDEF) permettant de réaliser des écrans hauts en couleurs comme ceux des dernières tablettes Kindle Fire HDX d’Amazon. Les écrans des téléviseurs Sony Triluminos et les Kindle Fire HDX ne se contentent pas d’offrir un bouquet de couleurs inégalé. Les QDs permettent également de renforcer l’intensité lumineuse tout en réduisant la consommation électrique. Mais ce n’est pas fini. Les QDs devraient être utilisés demain dans une nouvelle génération d’écrans où ils joueront un rôle encore plus déterminant. Au lieu d’aider à produire une meilleure lumière blanche, ils émettront directement les compgosantes rouges, vertes et bleues de chaque pixel On parle de QDLED. Samsung a déjà présenté en 2010 un prototype de 10 cm de diagonale reposant sur ce principe.

ÉCLAIRAGE

Capables d’émettre à la longueur d’onde désirée, simplement en contrôlant leur taille, les QDs offrent ainsi en principe une solution simple pour fabriquer par synthèse additive tout type de lumière blanche adaptée à l’éclairage de nos intérieurs ou de lieux publics. Les ampoules àQD devraient donc prochainement concurrencer les modèles LED existants, dès que les industriels auront trouvé les solutions pour passer de la théorie à l’industrialisation. Ainsi le choix des matériaux utilisés n’est pas anodin. Or les QDs que l’on maîtrise le mieux à l’heure actuelle contiennent du cadmium, un élément chimique toxique que l’on ne peut employer dans un produit qui se retrouvera distribué en énormes quantités, facilement démontable et dont la fin de vie est difficilement contrôlable. C’est dans cette logique que se situent les recherches menées par une équipe du laboratoire Liten du CEA à Grenoble, en collaboration avec l’équipe de Peter Reiss, dans le cadre du projet Luminosurf. Ils ont abouti à la mise au point de quantum dots adaptés à la production de lumière, à fort rendement, mais reposant sur des matériaux non toxiques, ne contenant ni cadmium ni aucune « terre rare » (cette fameuse catégorie d’éléments chimiques disponibles en quantité limitée sur Terre et dont la Chine contrôle actuellement prés de 95% du marché). Le partenaire industriel du projet Luminosurf n’est autre que Philips, un acteur majeur du secteur de l’éclairage.

PHOTOVOLTAÏQUE

Un meilleur rendement à moindre coût, c’est ce que promettent les quantum dots dans le domaine des panneaux solaires photovoltaïques. La raison principale tient autant à des propriétés très complexes que nous nous garderons d’expliquer, qu’à des techniques de production drastiquement simplifiées par rapport aux lourds investissements requis pour les technologies actuelles à base de silicium amorphes ou de cristallin. De nombreuses équipes sont dans la course mais jusqu’à présent les meilleurs rendements obtenus en laboratoire tournentautour de 8,5%, alors que les panneaux du commerce offrent jusqu’à 20% et que le record en laboratoire pour une cellule multicouche est de 44,7%. Mais le jeu en vaut la chandelle puisque la théorie fixe à 87% le rendement maximum d’une cellule à QD. On estime que des rendements de l’ordre de 60% sont atteignables. Ainsi une équipe du MIT a publié l’année dernière dans Advanced Materials sur un nouveau type de cellule solaire utilisant des QDs de PbS et des nanofils d’oxyde de zinc. Un rendement de 4,9% a ainsi été obtenu.

En décembre dernier, une équipe du Los Alamos National Laboratory a publié dans Nature Communications des travaux portant sur une cellule photovoltaïque incluant des QDs CuInSeS, réalisés essentiellement à partir de cuivre, du coup non toxique et promettant un faible prix de revient. Le rendement obtenu dépassait les 5%. De son côté, le laboratoire de Edward Sargent, à l’Université de Toronto au Canada, a publié dans la revue ACS Nano un article annonçant un nouveau record avec un rendement de 8,5 %.

STOCKAGE DE L’ÉLECTRICITÉ

Les quantum dots devraient également trouver leur place dans le domaine du stockage de l’énergie électrique. Des travaux portent actuellement sur des batteries, de supercondensateurs et de dispositifs mixtes, à la fois batteries et supercondensateurs.

Rappelons que les batteries stockent l’énergie par le biais d’une réaction chimique réversible tandis que les supercondensateurs, qui ne sont rien d’autre que de très gros condensateurs, se contentent de stocker des charges électriques. Chez les premières, le procédé est électrochimique, chez les seconds il est électrostatique. Les batteries stockent beaucoup plus d’énergie par kilo que les supercondensateurs, mais ces derniers leurs sont supérieurs en termes de puissance : ils absorbent et délivrent l’énergie en des temps beaucoup plus brefs.

Pourquoi des quantum dots dans ce contexte ? C’est très compliqué, mais disons que l’on est ici à la recherche de surface et que les dimensions infimes des QDs apportent justement cela : un excellent rapport surface sur volume. Les recherches avancent, les produits ne devraient pas tarder

LASERS, CAPTEURS, ÉLECTRONIQUE, INFORMATIQUE…

On peut encore ajouter bien des choses dans la liste des applications des quantum dots. De nouveaux lasers ont ainsi déjà vu le jour. De nouveaux capteurs de lumière, reposant sur les QDs, devraient également trouver de multiples usages. Mais des bouleversements bien plus lourds sont possibles. Ainsi, certains imaginent que c’est une nouvelle ère de l’électronique qui pourrait s’ouvrir. Au moment où l’industrie électronique a poussé la miniaturisation des puces si loin que certains dispositifs ne fonctionnent plus selon les lois habituelles, elle pourrait enfourcher un nouveau cheval avec ces minuscules QDs dotés d’intéressantes propriétés. Enfin, notons que l’une des voies empruntée par l’informatique quantique, qui nous promet de ridiculiser les ordinateurs actuels, est le quantum dot.

MÉDECINE, BIOLOGIE

Les quantum dots sont porteurs de grands espoirs en médecine. Leurs propriétés de fluorescence les a rapidement désignés comme potentiels biomarqueurs mais on leur a depuis trouvé encore d’autres emplois, y compris dans le champ de la thérapeutique. Non seulement leur fluorescence est puissante et stable, mais en plus il est possible de choisir la fréquence d’émission, donc la couleur, simplement en contrôlant la taille des QDs, ce que l’on sait très bien faire. La bande d’émission est étroite, ce qui ouvre la perspective d’utiliser de nombreux QDs de couleurs différentes en même temps… Restait à fixer sur ces QDs des molécules « ligands » capables de s’attacher à leur tour aux sites que l’on veut repérer dans un contexte biologique, cellules ou tissus in vitro, ou organisme vivant. Deux équipes, Paul Alivisatos à l’Université de Berkeley et Shuming Nie à l’Université de l’Indiana, démontrent en 1998 la viabilité de cette approche. Depuis lors, les expérimentations de ce type se multiplient.

Une première catégorie de techniques médicales reposant sur les quantum dots consiste à détecter, quantifier, localiser des molécules biologiques sur des prélèvements effectués sur un patient. On parle de diagnostic in vitro. Dans ce type d’applications, les QDs ne sont pas injectés dans le corps du patient et sont manipulés par un personnel qualifié. Les QDs contenant des métaux toxiques comme le cadmium ou le plomb peuvent donc être utilisés dans ce contexte. Ce sont ceux que l’on connaît le mieux et dont on sait aujourd’hui tirer le maximum. Une seconde catégorie d’applications des QDs en médecine relève du diagnostic in vivo. Ainsi, dès 2004, Sungjee Kim au MIT fait appel à des QDs émettant dans le proche infrarouge pour guider la main du chirurgien recherchant chez la souris et le porc un « ganglion lymphatique sentinelle » signalant le début d’une propagation d’un cancer par métastases. D’autres équipes ont depuis développé toutes sortes de techniques d’imagerie reposant sur ce principe, permettant de visualiser directement, in vivo, en temps réel pendant l’intervention,

les limites d’une tumeur ou plus généralement de tissus porteurs de molécules signalant par exemple un état pathologique. Pour ce type d’application, la question de la toxicité des QDs devient cruciale. C’est pourquoi de nombreuses équipes cherchent à remplacer le cadmium et les autres métaux toxiques par des éléments chimiques mieux tolérés par l’organisme.

La liste des applications potentielles des QDs dans le domaine médical et plus généralement en biologie est déjà longue. On sait de mieux en mieux fabriquer des QDs capables de s’attacher à toutes sortes de molécules biologiques, des plus simples à l’ADN en passant par des protéines impliquées dans toutes sortes de processus biologiques. Les QDs ont donc vocation à se retrouver employés dans de nombreuses démarches médicales, de la détection d’agents infectieux, de gènes, protéines ou autres à l’imagerie en cours d’intervention chirurgicale. Aux dernières nouvelles, applications thérapeutiques sont envisageables, le QD servant de véhicule pour une molécule active. Mieux, les QDs se révèlent utiles dans la recherche de nouveaux médicaments.

LES PRÉVISIONS DE CROISSANCE

Une étude de marché publiée en janvier 2014 par la firme Markets and Markets (M&M) estime le marché des quantum dots à 108 millions de dollars (78,5 M€) en 2013 et pronostique un volume de 3,4 milliards de dollars (2,47 milliards d’euros) pour 2020. Le taux de croissance annuel moyen serait de 71%. De son côté, une autre étude de marché sortie en avril 2014 et réalisée par BCC Research annonce un marché des QDs de 121 M$ (87,4 M€) en 2013 et prévoit un chiffre d’affaires de 1100 M$ (795 M€) dès 2016 et de 3100 M$ (2240 M€) en 2018. Ce qui représente une croissance annuelle moyenne de 91%. Ces deux sources envisagent donc une évolution explosive du marché des QDs, qui dépasserait donc les 3 milliards de dollars dès 2020 ou même dès 2018.

LES MARCHÉS D’AVENIR

Les deux études sont d’accord sur un point, le secteur d’applications dominant sera, du moins à court terme, celui des écrans (téléviseurs, ordinateurs, tablettes, portables). M&M prévoit ainsi un chiffre d’affaires de 2,46 milliards de dollars (1,78 milliard d’euros) pour ce secteur en 2020. Ajoutons que QD Vision, qui connaît bien le sujet puisqu’elle fournit Sony, prévoit de son côté un marché de 2 milliards de dollars dès 2014. Ces perspectives ont déjà suscité quelques vocations. Parmi les success stories du quantum dot, il faut d’abord citer celle de QD Corporation. Fondée en 1998 pour industrialiser les QDs mis au point dans l’équipe de Paul Alivisatos au Lawrence Berkeley National Laboratory, QD Corp. trouve rapidement 37,5 M$ de fonds et commercialise en 2002 le premier biomarqueur à QD. Indice de l’intérêt que porte l’industrie à cette percée technologique, le pionnier QD Corp. est racheté dès 2005 par Invitrogen, qui est lui même marié en 2008 à Applied Biosystems pour devenir Life Technologies, à son tour racheté en 2013 par Thermo Fisher Scientific, leader mondial des instruments et réactifs médicaux et scientifiques, qui réalise 17 milliards de dollars (12 milliards d’euros) de chiffre d’affaires. Autre success story édifiante, celle de QD Vision (Lexington, MA), créée par des chercheurs du MIT en 2001.

Elle lève en tout 75 M$ et présente en 2006 le premier écran à quantum dot, et se retrouve dès 2013 fournisseur de Sony pour équiper de la technologie Color IQ ses modèles haut de gamme Triluminos. De son côté, Nanosys (Milpitas, CA) a été créée également en 2001 par des chercheurs de l’Université de Berkeley, dont Paul Alivisatos. Elle a levé depuis quelque 150 M$ de fonds. Sa technologie QDEF est aujourd’hui incorporée dans un produit grand public, la dernière génération de tablettes Kindle Fire HDX d’Amazon.

Pour compléter le tableau, citons une aventure européenne. Nanoco (Manchester, GB) est issue d’équipes de chercheurs de l’Université de Manchester et de l’Imperial College de Londres. Depuis sa création en 2001 elle a levé 25 M$. Nanoco s’intéresse notamment aux QDs sans cadmium, pour lesquels elle a signé un accord de licence exclusif avec le géant de la chimie Dow Chemical. Ses produits visent les marchés des écrans, de l’éclairage et de l’énergie solaire.

L’EQUIPE DE L’ESPCI PARISTECH

En 2002, Benoît Dubertret obtient un poste CNRS à l’École Supérieure de Physique et de Chimie Industrielles de la Ville de Paris (ESPCI ParisTech). Il vient de finir un post-doc de quatre ans et demi à l’Université Rockefeller (NY, NY) auprès d’Albert Libchaber, l’un des spécialistes des quantum dots, encore peu nombreux à cette époque. Benoît Dubertret en est persuadé, les quantum dots représentent un sujet promis à un avenir radieux. Les applications sont innombrables, les débouchés représentent des milliards. Il vient lui-même de réaliser un petit exploit en publiant10 la première utilisation biologique de QD in vivo. En France, les QDs n’ont pas encore suscité beaucoup de vocations. On ne compte guère que les équipes de Peter Reiss au CEA de Grenoble, et de Maxime Dahan à l’École Normale Supérieure de la rue d’Ulm (Paris), les deux depuis 2000. L’ESPCI ParisTech accueille favorablement la proposition de Benoît Dubertret de créer de toutes pièces une nouvelle équipe autour du thème des quantum dots, au sein du Laboratoire de Physique et Études des Matériaux (LPEM). Benoît Dubertret construit brique après brique à partir de 2002 l’équipe qui deviendra connue sous ce nom qui fait irrésistiblement penser à un groupe de rock : les Parisian Quantum Dots.

Pour en savoir plus : blog.espci.fr/qdots 

Le Concordia flotte à nouveau !

Débutée ce lundi matin, l’opération de renflouement du Costa Concordia dont la première phase vient d’être réussie doit se dérouler tout au long de cette semaine. Son maître d’œuvre, Nick Sloane, a orchestré une fois encore une grande première technique. C’est lui qui avait déjà été chargé de rendre possible le redressement du paquebot échoué au large de l’île du Giglio. L’expert avait relevé le défi avec brio. Mais cette précédente étape qui avait été réalisée en septembre 2013 n’était que le début. Le Costa Concordia doit être ramené à la surface pour être déplacé et être acheminé vers le port de Gênes où il sera démantelé.

Mais comment déplacer ce monstre d’acier ? Impossible de le tracter tant qu’il repose au fond de l’eau. Il fallait absolument le faire flotter à la surface de l’eau. Deuxième défi pour Nick Sloane qui a avoué une certaine nervosité au début des opérations de renflouement : « Nerveux ? Un peu. Aujourd’hui, nous allons découvrir si nos calculs étaient exacts ou si nos données se révéleront être loin de nos attentes. Le temps est bon. ».

En effet, le plan du sud-américain s’est parfaitement déroulé. En injectant de l’air à l’intérieur des 30 caissons positionnés autour de l’épave, les équipes ont pu soulever le navire tout en l’attirant 30 mètre plus à l’est. A peine 5 heures après le début des opérations, le Costa Concordia s’était déjà détaché de la plateforme sous-marine de plus d’un mètre sur les deux prévus. Le géant de 114 000 tonnes pour 290 mètres de long a bien tenu le choc.

Maintenant que le tristement célèbre paquebot dont le naufrage s’était soldé par la mort de 32 personnes est à flot, les équipes vont le stabiliser et maintenir les ponts 3 à 6 émergés. Il restera tout de même 18,5mètres de la hauteur totale du navire sous l’eau.

Du fait de la bonne avancée du renflouement, le départ du Concordia reste prévu pour le 21 juillet. Cette opération pour remettre à flot un navire aussi énorme aura coûté la bagatelle de 1,5 milliards d’euros !

Revivez la première phase des opérations en accéléré :

Par Audrey Loubens

Place aux SMS odorants avec l’oPhone

L’innovation a de quoi surprendre par son aspect extraordinaire et avouons le aussi, un peu saugrenu.

Pourtant, envoyer et recevoir des odeurs grâce à son téléphone n’a jamais été aussi prêt de se réaliser qu’aujourd’hui.

Cela grâce au travail de ses créateurs : David Edwards, professeur de génie biomédical à l’Université d’Harvard et fondateur du Laboratoire à Paris et l’une de ses élèves. Ensemble, ils ont mis au point ce dispositif particulier qui se présente comme un petit boîtier tubulaire blanc posé sur un socle et qui expulse de brefs jets de vapeurs odorantes en fonction de la demande.

Le mode d’emploi

Pour envoyer et recevoir des odeurs, procédez comme suit. Vous disposez d’un iPhone et avez téléchargé l’application gratuite oSnap. Vous pointez l’objectif de votre appareil photo sur l’objet de votre choix (un arbre, une plage, un café…) puis vous composez la senteur que vous souhaitez associer à la photo. Vous avez la possibilité de combiner jusqu’à 8 arômes sur un panel de 32 disponibles pour le moment. Ce qui permettrait apparemment de créer 300 000 odeurs différentes.

Voilà, vous avez créé une oNote. Ne vous reste plus qu’à envoyer l’odeur à l’une de vos connaissances et que celle-ci connecte son iPhone à l’oPhone. Au préalable, l’utilisateur devra charger des mini-capsules, les oChips, pour sentir quelque chose. Ces capsules contiennent les particules essentielles. À ce jour, David Edwards et sa co-équipière ont ciblé deux domaines : « celui du café, et plus largement celui de l’alimentaire ».

Fantastique sur le papier mais…

Plusieurs tests ont d’ores et déjà été effectués. Ils indiquent que l’usage du dispositif n’est pas aussi simple qu’énoncé. Tout d’abord, l’expérience montre qu’il ne suffit pas de disposer d’un téléphone pour recevoir les odeurs, mais bel et bien d’un ensemble de choses (le terminal mobile, l’application et l’oPphone). Qui plus est, le poids de l’oPhone fait qu’il ne peut être déplacé. Problème qui pourrait se résoudre avec sa miniaturisation future défend David Edwards. Bon, mais même une fois ces conditions réunies, reconstituer une odeur correspondant parfaitement à notre ressenti s’avère ardu. En effet, imaginez-vous reproduire le fumet d’un bon plat, la fragrance délicate d’un parfum… Cela demande du doigté et un nez d’expert comme celui d’un œnologue ou d’un cuisinier.

Et puis il faut se rendre à l’évidence, il y aura clairement des odeurs que l’on ne souhaitera pas recevoir. Jus de chaussettes, linge moisi… je vous laisse libre de dresser un petit tableau de ces odeurs fétides. Pour ce genre de raisons, les septiques ne seront certainement pas rares.

L’oPhone s’adresse-t-il vraiment aux particuliers ?

Ou, est-ce que chaque foyer disposera de son oPhone ? S’il est impossible d’apporter une réponse à cette question, on peut au moins en douter, quand bien même l’idée est « de créer un usage créatif et social ». À priori, le secteur de la vente en ligne semble plus indiqué à son développement.

De nombreuses marques dans le domaine de la cosmétique, de l’alimentaire et du cinéma auraient d’ailleurs montré leur intérêt. La mise en vente de l’oPhone se fera dès 2015 au prix de 199 euros auquel il faudra ajouter 20 dollars pour se prémunir de quatre oChips. Le marché devrait d’ailleurs se tourner principalement autour de la vente des mini-capsules. Nous verrons à ce moment si cela changera notre manière de communiquer comme le certifiait David Edwards à l’AFP !

Par Sébastien Tribot

La biodiversité des poissons marins tropicaux porte la trace des récifs coralliens du passé

Des chercheurs du laboratoire Ecologie des systèmes marins côtiers (ECOSYM – CNRS/IRD/Universités Montpellier 1 et 2/Ifremer) et du laboratoire CoRéUs 2 (IRD) ont démontré que la répartition actuelle de la biodiversité marine tropicale est principalement due à la persistance de ces zones durant les périodes de glaciation au Quaternaire. L’empreinte laissée par l’histoire a ainsi une influence plus forte sur la biodiversité des poissons tropicaux que les facteurs environnementaux contemporains tels que la température des eaux et la surface des récifs. Ces travaux, réalisés en collaboration avec plusieurs équipes internationales, montrent la nécessité de protéger certains habitats irremplaçables qui permettent aux espèces de persister durant les épisodes de changement climatique. Ils sont publiés dans la revue Science du 30 mai 2014.

Les scientifiques ont toujours été fascinés par le pic de biodiversité marine situé autour de l’Indonésie et des Philippines, dans ce que l’on appelle le Triangle de corail. On y trouve environ trois mille espèces de poissons liés aux récifs coralliens, soit dix fois plus que dans l’est du Pacifique et de l’Atlantique pour une même latitude et pour ce même habitat. Ce gradient de biodiversité est encore mal expliqué. De nombreuses hypothèses ont été avancées mais la plupart se focalisent sur l’impact de variables actuelles telles que la surface des récifs ou la température de l’eau.

Les habitats coralliens se développent dans des conditions de température et de lumière très spécifiques. En se basant sur la température des eaux reconstruite pour le Quaternaire, les auteurs de cette étude ont pu reconstituer une cartographie des récifs et ainsi suivre leur évolution durant 2,6 millions d’années. En comparant l’actuelle distribution globale des poissons marins tropicaux à celle de ces paléo-récifs, les chercheurs ont pu tester pour la première fois le rôle clé des habitats qui ont persisté pendant les nombreuses périodes glaciaires et qui ont ainsi pu servir de refuges pour la biodiversité.

Les chercheurs ont démontré que le degré d’isolement d’un récif actuel par rapport aux zones refuges du quaternaire constitue le facteur le plus important pour expliquer la distribution des poissons marins tropicaux observée de nos jours. Plus un récif a été proche d’une de ces régions stables au cours du temps, plus la biodiversité y est forte aujourd’hui. Ce résultat suggère à la fois la persistance des espèces dans ces zones, des extinctions massives en dehors et la capacité des habitats refuges à être des « sources » de colonisation permettant de peupler de nouveaux récifs coralliens apparus aux périodes plus chaudes.

Si les poissons ont investi de nouvelles régions à partir des zones refuges, la biodiversité contemporaine devrait également dépendre de l’aptitude à recoloniser de chaque espèce. Pour tester cette hypothèse, les chercheurs se sont intéressés à trois familles de poissons caractéristiques des habitats coralliens et ayant des capacités de dispersion distinctes. Les poissons demoiselles sont de moins bons colonisateurs que les poissons papillons et les labres. Résultat, dans ce groupe la diversité des espèces chute bien plus rapidement que pour les deux autres familles lorsqu’on s’éloigne des refuges. L’histoire très ancienne des récifs a donc une influence majeure sur l’actuelle distribution de la biodiversité mais aussi sur la composition en espèces et en lignées phylogénétiques des communautés de poissons tropicaux.

En étudiant l’âge des différentes espèces au sein de ces trois familles de poissons, les chercheurs ont aussi observé que les plus anciennes et les plus récentes ne sont présentes que sur les habitats coralliens proches des zones refuges. Ces récifs qui ont persisté au cours du temps ont donc assuré le double rôle de musée et de berceau : ils ont permis la sauvegarde des espèces anciennes et ont aussi favorisé l’apparition de nouvelles espèces (spéciation). Les fluctuations climatiques du quaternaire ont ainsi laissé une marque indélébile sur la distribution globale de la biodiversité corallienne. Ce message du passé souligne la nécessité de préserver des habitats refuges : ce sont ces zones stables associées à des corridors favorables à la recolonisation qui permettent le maintien de la biodiversité à large échelle. Dans le contexte actuel des changements globaux qui provoquent des événements climatiques extrêmes affectant les habitats, ce message possède encore plus de résonnance.

Source : cnrs

Echy met la lumière naturelle à portée de tous

6 m² de panneaux de capteurs suffisent à éclairer 100 m². Cette performance, seule la Start-up française Echy y parvient, ses concurrents travaillant avec des panneaux d’1 m² maximum pour éclairer une pièce de 10m².

Les frenchies voient donc plus grand. La Banque publique d’investissement est convaincue, mais pour séduire le plus grand nombre comme ils le souhaitent, il leur reste à optimiser la technologie et plus particulièrement à en abaisser le coût, condition sine qua non au déploiement de masse d’Echy.

Le système est connu depuis plusieurs années. Il consiste à collecter la lumière du soleil via des lentilles, puis à transporter les photons au travers de fibres optiques. Ces dernières restituent la lumière naturelle et permettent ainsi d’éclairer des pièces sans ouverture de façon naturelle. Les infrarouges et les ultraviolets sont filtrés. La nuit ou lorsque les nuages dissimulent le soleil, un dispositif de LED alimenté électriquement prend le relai. Echy est donc un système hybride capable d’apporter un éclairage constant dans de vastes pièces.

Les deux associés à l’origine d’Echy en ont eut l’idée pendant leur cursus scolaire. L’absurdité d’éclairer de façon artificielle des salles de cours sans fenêtre en plein jour les a inspiré, et ils ont décidé de mettre au point un produit capable d’apporter la lumière du soleil même dans des pièces fermées telles que des sous-sols, des caves, des entrepôts… Ils n’hésitent pas à parler de luminothérapie et a rappeler l’impact bénéfique de la lumière naturelle sur la santé et l’humeur. Mais ce système permet aussi de substantielles économies d’énergie en remplaçant l’éclairage électrique, et permet de se rapprocher un peu plus des bâtiments à énergie positive de demain. EDF ne s’y est pas trompé et leur a décerné le prix Habitat EDF Pulse.

Les deux associés espèrent proposer sur le marché un produit fini et à un prix abordable dès la fin de l’année.

Par Audrey Loubens

Angleterre : la cigarette interdite aux personnes nées après 2000 ?

Aux grands maux les grands moyens. L’influente British Medical Association (BMA) a émis fermement sa volonté d’éradiquer le tabac en soutenant lors de leur assemblée annuelle cette proposition. L’étape suivante est de faire pression sur le Parlement pour la faire passer. Si cela devait un jour devenir une loi, cela permettrait d’enrayer définitivement la consommation de tabac en créant des générations sans fumeur.

Après tout, pour ne pas fumer, il suffit de ne jamais commencer. Pour Tim Crocker-Buque, spécialiste « Public Health Medicine » au NHS, fumer n’a rien de rationnel. C’est le résultat d’une pression sociale irrésistible, surtout lorsque l’on est adolescent. Or, c’est précisément à cet âge que les risques de cancer sont le plus élevé : « les fumeurs qui commencent à fumer à 15 ans sont trois fois plus susceptibles de mourir d’un cancer lié au tabac que celles qui commencent dix ans plus tard. »

Une idée qui divise.

Au sein même du corps médical, la proposition fait débat. Ce, pour plusieurs raisons. Certains arguent le fait qu’elle ne ferait que générer un marché noir nocif. Le risque pour les fumeurs de consommer un tabac fabriqué par des contrebandiers serait bien pire. C’est également le point de vue du lobby du tabac qui considère de toute manière que « la prohibition ne fonctionne pas. »

L’association Forest qui milite pour les droits des fumeurs, défend pour sa part un point de vue éthique : « le tabac est toujours un produit légal et on ne pourra permettre à certains adultes d’acheter des cigarettes et nier ce droit à d’autres ».

Sans compter le problème de l’application de cette potentielle future loi… Car il faudrait contrôler l’identité d’un grand nombre de jeunes fumeurs.

Quoi qu’il en soit, la BMA reste très influente et ses propositions sont écoutées avec attention et souvent suivies par le gouvernement. En 2002 par exemple, elle était parvenue à proscrire le tabac des immeubles publics. En 2011 encore, elle interdisait les conducteurs de fumer en présence d’enfant dans leur véhicule.

Par Sébastien Tribot

La consommation mondiale d’aluminium, un indicateur du dynamisme de l’économie mondiale

C’est aussi un constituant privilégié des constructions d’habitations modernes et ses qualités de métal conducteur en font un substitut apprécié du cuivre devenu trop onéreux dans l’industrie des câbles. Comme de nombreux autres métaux, il donne lieu à une économie active de recyclage qui a assuré près de la moitié de la demande française d’aluminium en 2011 (l’économie circulaire, concept à la mode, dont se gargarisent certains, a été imaginée et mise en place il ya bien des décennies avec la récupération des batteries au plomb par exemple, elle donne toute sa mesure dans la production d’aluminium recyclé).

Le panel très large des cas d’utilisation font de ce métal un indicateur privilégié de la marche de l’économie mondiale. C’est ainsi qu’Alcoa, acteur mondial important dans la purification de l’alumine et l’électrolyse d’aluminium de première fusion, prévoit encore pour 2014 une croissance soutenue (+7%) de la demande de ce métal dans le monde tirée par la demande chinoise (+10%). Cette croissance porte la demande mondiale d’aluminium de première fusion , en 2014, vers les 52,8 millions de tonnes (fig.1) dont près des deux tiers est localisée en Asie.

Figure 1 : répartition géographique de la demande en Aluminium de première fusion en 2014 (Alcoa)

La production, dont plus de la moitié est réalisée en Chine en raison de la demande locale, du dumping énergétique de ce pays, dumping assis sur la combustion de charbon local ou importé et de faibles contraintes environnementales pour ce procédé d’électrolyse polluant. Il en résulte, depuis quelques années, un accroissement  continu des prix de ce métal sur l’ensemble du marché international (fig.2).

Figure 2 : Evolution des prix de l’aluminium de première fusion depuis 4 ans sur divers marchés mondiaux (Alcoa d’après Platts)

Les industriels des pays de l’OCDE, dont des pays européens, peuvent devant cette situation opter pour diverses options :

  • soit abandonner à l’industrie chinoise le soin de produire, à bas coûts et sans contraintes environnementales, l’essentiel de l’aluminium nécessaire à la bonne marche de l’économie mondiale ;
  • soit essayer par des méthodes innovantes et les moins polluantes possibles de maintenir ou de développer les productions occidentales de ce métal, ce qui suppose le maintient de prix de l’énergie incitatifs, énergie électrique nécessaire à la production de soude utilisée dans la purification de l’alumine et à l’électrolyse en sel fondu de la production d’aluminium. La production à bas coûts d’électricité à partir des gaz non conventionnels aux Etats-Unis est une opportunité pour maintenir localement ces productions. Quand à l’Europe, sorte de Sisyphe volontaire et exemplaire de la réduction des émissions de CO2, il lui faudra, peut-être, un jour, faire preuve d’un peu plus de réalisme, face aux milliards de tonnes de CO2 relargués tous les ans, en toute impunité, par la Chine et qui conduisent tout ses efforts à l’échec, par leur inefficacité, face au problème mondial de l’accumulation programmée de ce gaz dans l’atmosphère et dans les océans.

Par Raymond Bonnaterre

Et aussi dans les
ressources documentaires :

Maîtrise des émissions de CO2 et équation de Kaya

Dans une publication du mois de Mai 2014, le Docteur Goulu a bien voulu nous rappeler l’équation toute simple de Kaya qui présente la particularité de ramener les émissions de CO2 d’un pays ou d’une région du monde, au produit de 4 termes :

  1. L’intensité des émissions de CO2 par unité d’énergie produite ou consommée: CO2/TEP qui peut être exprimée en MT de CO2 générées par MTEP produite ou consommée. C’est un indicateur du caractère polluant de la  production locale d’énergie qui dépend des ressources disponibles ou importées d’énergies primaires et des choix préalables technologiques et politiques réalisés. Par exemple, l’équipement de la France en centrales électronucléaire a été un choix politique et technologique majeur. Celui de la Chine de brûler sans compter du charbon est un choix politique d’une impérieuse volonté de compétitivité énergétique, aux dépens du cadre de vie. Celui de l’Allemagne de se désengager du nucléaire, sans consulter ses voisins, fut un choix éminemment politique de recherche de cohésion nationale. Les conséquences économiques négatives pour l’Europe de ce choix allemand devront  être évaluées.
  2. L’intensité énergétique du PIB : TEP/PIB dont l’unité courante est le MTEP par milliards de dollars de PIB. Ce paramètre, avec le mouvement général de  tertiarisation de l’économie mondiale, est appelé à décroitre. Il intègre tous les progrès dans l’efficacité énergétique des processus d’extraction, de transformation et de transport des matières mais aussi ceux réalisés dans le transport des hommes, acteurs de la vie économique.
  3. Le PIB par habitant : PIB/POP qui est l’indicateur global de développement économique et de  productivité d’une nation ou d’une région du monde. Il va dépendre du niveau global de connaissance des acteurs et des investissements déjà réalisés dans les outils de production et les infrastructures. Il dépend des gains de productivité globaux  associés aux activités générales de production et de logistique.
  4. Et enfin le terme POP qui quantifie la population, active ou non, de ce pays ou de cette région. C’est une donnée qui varie avec le temps et les politiques migratoires et familiales.

Cette décomposition en quatre termes permet de segmenter l’équation globale en concepts un peu moins complexes à appréhender…bien que ceci ne soit pas toujours évident.

A titres d’exemples, je vous propose d’examiner deux termes du produit: le premier CO2/TEP et le dernier POP.

La publication récente par le pétrolier BP de sa « Statistical Review of World Energy 2014 » permet simplement, à partir du dossier Excel, sur plusieurs années et par pays d’accéder aux valeurs des intensités des émissions de CO2 rapportées aux consommations d’énergies (Figure 1).

Figure 1

En examinant sur plusieurs années ce premier terme de l’équation de Kaya il apparaît qu’il peut être très différent d’une nation à l’autre. D’après les données de BP 2014, il était en 2013 pour la Chine de 3,34 MT de CO2 par MTEP consommés (dernier point, courbe rouge). Et il affichait une valeur de 1,55 MT de CO2 par MTEP pour la France (dernier point, courbe bleue). Rapport de plus du simple au double. L’Allemagne (courbe verte) et les Etats-Unis non représentés ici, mais très proches de l’Allemagne sur ce critère, présentent des valeurs intermédiaires et voisines de celles du monde qui affiche en 2013 un rapport moyen égal à 2,76 MT de CO2 par MTEP.

Par contre les évolutions de ces valeurs au cours du temps sont très lentes (-9% pour la France en 13 ans, -4% pour l’Allemagne, +1,4% pour la moyenne mondiale), ce qui illustre la viscosité des choix énergétiques des nations, phénomène en totale opposition avec certains propos parlant de « virages » ou de « transition » qui nous sont, tous les jours, assénés par les propagandes étatiques . Une fois de plus, répétons que la France malgré son addiction aux carburants importés issus du pétrole, affiche  une excellente performance sur ce critère, grâce à son modèle énergétique électrique basé sur l’hydroélectricité et l’électronucléaire.

Pour lutter efficacement contre les émissions mondiales de CO2, il faut demander poliment à la Chine de bâtir un plan énergétique se rapprochant de celui de la France, abandonnant le charbon, avec pour objectif de réduire en une décennie le flux unitaire de ses émissions de CO2 de 30% pour passer au-dessous des 2 MTCO2/MTEP, en adoptant un mix électrique composé presque exclusivement  de centrales électronucléaires et d’hydroélectricité.

L’Inde qui affiche un coefficient de 3,25 MTCO2/MTEP en 2013, l’Indonésie à 3,11 et bien d’autres pays d’Asie devraient également adopter des mesures de restriction d’utilisation du charbon.

Sur la base de cet ambitieux, hypothétique, objectif chinois et compte tenu d’une croissance moyenne de consommation énergétique de 4% par an (ou 50% en une décennie), les émissions de CO2 de la Chine seraient alors globalement stabilisées autour des 11 milliards de tonnes par an. Sinon, en l’absence de mesures chinoises radicales, elles vont poursuivre leur croissance, tout simplement.

Quant au terme POP, la population mondiale qui est, d’après les prévisions médianes des Nations Unies, appelé à croitre pour atteindre vers 2050  les 9,5 milliards d’humains. Je vous invite à prendre cette donnée prospective avec beaucoup de philosophie et de consulter  la récente présentation au Collège de France de l’excellent Hervé Le Bras de l’Ined sur la faible fiabilité des prévisions dans le domaine démographique et sur les biais politiques et idéologiques attachés aux publications des Nations Unies. La croissance de la population mondiale prévue est liée dans ces projections à celle de l’Afrique et plus précisément à celle des pays du Sahel et du Nigéria, dans un contexte de bilan migratoire supposé nul. Allez-savoir ce qu’il pourra se passer dans ces pays politiquement et religieusement agités d’ici là ?

En conclusion, il apparaît sur la base de données historiques récentes que les flux unitaires d’émissions de CO2 ramenés aux consommations d’énergies (premier terme de l’équation de Kaya) sont très dépendants des choix énergétiques des Nations et qu’ils sont très différents d’une nation à l’autre. Faire le choix du charbon ou du nucléaire pour produire son électricité n’a pas les mêmes effets en termes d’émissions de gaz carbonique. Une approche quantitative pour chacune des nations sur ce terme est indispensable pour  préciser les objectifs.

Par Raymond Bonnaterre

L’impression 3D au service de la reconstruction faciale

Voilà une façon de préparer les implants originale. Si un hôpital n’a pas le droit de fabriquer ses propres biomatériaux, rien ne lui interdit de s’aider de maquettes plastiques pour les modeler précisément aux caractéristiques physiques du patient.  Et quoi de mieux pour réaliser ces maquettes qu’une imprimante 3D ? 

Le docteur Benoît-Luc Wajszczak de l’hôpital du Bocage à Dijon se félicite de l’acquisition d’une telle imprimante. Cet investissement d’un montant compris entre 3000 et 4000€ permet aux chirurgiens de reproduire le crâne d’un patient préalablement scanné. L’imprimante 3D, alimenté avec un plastique aux propriétés proches de la densité osseuse humaine, recrée alors tout ou partie du crâne couche par couche. Cela peut prendre entre 8 et quarante heures. Mais une fois accomplie, les chirurgiens disposent d’une représentation en plastique parfaite sur laquelle ils vont pouvoir ajuster les plaques de titane qui seront implantées sur le vrai crâne du patient. 

Une nouvelle façon de faire qui permet des implants d’une plus grande précision car « […] on a un accès plus facile aux structures osseuses et on peut modeler très facilement les plaques en titane sans être gêné par les tissus mous » précise le médecin sur France3 Bourgogne. En effet, jusque là, les plaques de titane étaient travaillées pendant l’opération, au bloc opératoire. Le fait de les avoir préparés avant  permet à l’équipe de chirurgie de raccourcir le temps d’opération d’une demi-heure, un gain conséquent pour une durée habituelle  d’une heure et demie. A cela s’ajoute la diminution des risques anesthésiques et de développer une infection.

Depuis son acquisition en décembre 2013, le service de chirurgie utilise son tout nouvel équipement environ une fois par mois, principalement sur des fractures de l’orbite, ce service traitant majoritairement des patients défigurés suite à un cancer ou une tentative suicide par arme à feu.

L’utilisation de l’imprimante 3D est jugée tellement concluante que l’hôpital prévoit d’en acquérir une deuxième, destinée cette fois à des pièces de plus grandes dimensions que les plaques en titane, suivant les besoins d’autres services comme en orthopédie par exemple.

Par Audrey Loubens, journaliste scientifique

Un engin propulsé par l’énergie solaire lancé dans l’espace en 2016

Le LightSail (Voile légère, en anglais) de la Planetary Society ressemble à un cube et doit être emmené dans l’espace à l’aide d’une fusée Falcon Heavy de la société SpaceX.

Une fois lancé, le LightSail pourra voyager à travers le cosmos grâce à la seule énergie solaire captée par ses voiles d’une surface totale de 32 mètres carrés.

Le projet est financé par des fonds privés et des membres de la Planetary Society, un organisme de promotion de l’exploration spatiale, co-fondé par l’astronome légendaire Carl Sagan en 1980.

LightSail doit dépasser l’orbite terrestre basse, là où gravite la Station spatiale internationale (ISS), pour rejoindre l’orbite terrestre moyenne, plus éloignée.

« Les ailes solaires vont nous donner accès à des données scientifiques cruciales sur la Terre », a déclaré Jennifer Vaughn, une responsable de la Planetary Society.

Selon son patron, Bill Nye, un vol d’essai avec une fusée plus petite et à une orbite plus basse doit avoir lieu l’an prochain.

De son côté, l’agence spatiale américaine doit lancer sa propre voile solaire, Sunjammer, d’ici à la fin de l’année.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Apprendre à démanteler une installation nucléaire

Voilà une formation à laquelle Tepco va inscrire tous ses employés ! Disponible à l’Institut national des sciences et techniques nucléaires, un établissement au sein du CEA, le logiciel DEMplus permet d’apprendre aux opérateurs à simuler différentes opérations de démantèlement nucléaire. Grâce à un avatar, l’utilisateur évolue sur la scène créée à partir d’un modèle CAO, de façon à mener différentes actions comme une découpe, une soudure ou encore une décontamination. Toutes les informations sont visibles à l’écran, des doses cumulées au coût de la tâche en passant par le descriptif des déchets.

Développé par Oreka Sud, ce logiciel sert à simuler intégralement le démantèlement d’une centrale nucléaire, traitant des aspects techniques et financiers. D’après le concepteur, son logiciel permet d’abaisser les coûts de 20%, une économie très importante au vu des sommes mises en jeu, le démantèlement d’une centrale étant estimé  entre 350 millions et 13 milliards d’euros selon les calculs. Des écarts importants liés à la difficulté de chiffrer précisément les dépenses, le sujet faisant toujours débat. A titre de comparaison, le démantèlement du site de la Hague atteignait les 4 milliards.

Compte tenu des multiples démantèlements à venir, l’importance de parfaitement préparer les opérations et de tester différents scénarii est évidente : « L’association des technologies 3D et la gestion globale de tous les paramètres offre des possibilités de simulations performantes pour déterminer le meilleur scénario sur un plan technique, financier, délais et déchets… » résume Luc Ardellier, Directeur général d’Oreka Sud.

Oreka Sud est associé au CEA, lui mettant à disposition le logiciel en échange de la mise à disposition des salles informatiques  pour dispenser ses formations aux futurs utilisateurs.

Découvrir DEMplus  en vidéo :

Par Audrey Loubens

Un rapport parlementaire dégage des pistes pour accélérer la transition énergétique

Rendu public mercredi et cosigné par le député Jean-Yves Le Déaut et le sénateur Marcel Deneux, ce rapport sur « Les freins réglementaires à l’innovation en matière d’économies d’énergie dans le bâtiment », émane de l’Office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST).

Il contient 20 recommandations que ses auteurs espèrent voir reprises dans la future loi sur la transition énergétique.

« La France a tous les atouts pour relever le défi de la transition énergétique », y lit-on. « Il faut pour cela simplifier, +débureaucratiser+, rendre le système plus transparent, soutenir la formation de tous les acteurs (…), ouvrir le système vers les universités, organiser l’audit et l’expertise et évaluer a posteriori les techniques mises en oeuvre », estiment les parlementaires, selon lesquels 300.000 emplois pourraient ainsi être créés dans le bâtiment.

Parmi les propositions avancées, ils préconisent de « soutenir la qualité au sein des filières industrielles du bâtiment, par une commande publique exemplaire et un renforcement de l’effort de recherche ».

Les appels d’offres de l’Etat comme ceux des collectivités publiques devraient notamment considérer « non le prix d’achat, mais le coût cumulé sur la totalité du cycle de vie », maintenance comprise, des produits.

Les parlementaires proposent aussi d’articuler la réglementation française avec des labels européens exigeants tels que « Passivhaus » et « Minergie Plus », conçus pour certifier des bâtiments à la consommation d’énergie faible ou nulle.

Aussi il convient de simplifier la « jungle désordonnée des aides », jugent les auteurs du rapport, en « globalisant » celles-ci et en les « orientant par priorité vers les projets de rénovation les plus structurés ».

L’accès aux aides serait conditionné à l’établissement préalable d’un plan global de rénovation, et il serait mis fin progressivement aux aides accordées « au coup par coup, pour de nouveaux équipements ».

Autre recommandation: renforcer la formation à la performance énergétique dans les lycées professionnels et créer une nouvelle filière universitaire de « conseillers à la rénovation ».

Le rapport préconise enfin de « mettre fin à la situation de prescripteur prestataire » du Centre scientifique et technique du bâtiment (CSTB), en recentrant celui-ci sur ses activités d’évaluation technique des produits innovants et en transférant ses activités de recherche à une nouvelle entité.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Les Etats-Unis sont dès à présents de grands producteurs mondiaux de pétrole

Je voudrais ici, rappeler que dès à présent les Etats-Unis sont le troisième producteur mondial de pétrole et qu’ils ne sont qu’à quelques encablures de la première place détenue par l’Arabie Saoudite (avec 9,5 millions de barils/jour), elle-même talonnée par la Russie. 

 Cependant, affirme l’EIA, compte tenu de la part des condensats de gaz de schistes dans les productions  de pétroles américains, c’est la part des pétroles légers qui s’accroit, alors que les productions de pétroles lourds ou moyens restent sensiblement constantes (FIigure 1).

  • Figure 1

Compte tenu de cette segmentation des productions, deux hypothèses d’évolution du marché américain du pétrole sont possibles :

  1. Soit, comme c’est le cas aujourd’hui, les producteurs américains n’ont pas le droit d’exporter  de pétrole brut (sinon sous dérogation à leurs voisins du Nafta) et dans ce cas les raffineurs vont poursuivre les importations de  pétroles lourds complémentaires pour assurer les productions de gazole dans les raffineries locales et exporter de plus en plus de produits raffinés bien valorisés;
  2. Soit, l’Administration Américaine autorise certaines exportations de pétrole léger, en particulier vers l’Asie qui viendraient pour une part se confronter aux fournitures russes ou en provenance du Moyen-Orient.

Dans tous les cas, les importations nettes américaines de pétrole et produits pétroliers vont  baisser.

Le monde ne souffre pas d’un manque de stock naturel de pétrole et d’autres ressources énergétiques, par contre il doit investir pour maintenir des flux croissants de fournitures qui se stabiliseront, un jour, que sous l’impact des prix croissants. Ce n’est pas encore le cas.

Cela veut dire, en l’absence de signal prix et en présence d’une demande croissante, tirée par l’Asie, que les cours du pétrole disposent encore d’un boulevard pour se valoriser.

Par Raymond Bonnaterre

Les Chinois vont bientôt pouvoir voyager à près de 3000 km/h

Voilà un projet chinois aux allures pharaoniques : construire un train capable de rouler à 2900 km/h.

Ce super Maglev fonctionnerait comme les trains à sustentation, dont certains sont déjà en circulation en Chine, au Japon et en Corée du sud. Mais contrairement à ces exemples roulant  « seulement »  à une vitesse maximale de 581 km/h, le train évoqué par le docteur Deng Zigang, directeur du projet, approcherait les 3000 km/h. Une prouesse dont le secret résiderait dans le fait de faire circuler ce train dans un tunnel, profitant ainsi d’une pression dix fois inférieure à celle du niveau de la mer.

La diminution de la résistance de l’air engendrée suffirait pour décupler la vitesse du super Maglev. Deng Zigang en est persuadé et l’assure à nos confrères du Daily Mail, «Au-delà de 400km/h, plus de 83% de l’énergie de traction est dissipée par la résistance de l’air. ».

Pour l’instant, ces vitesses incroyables restent de l’ordre du fantasme. L’équipe du Docteur Deng Zigang ont bien réalisé une maquette testée sur la plate-forme abritée dans un hangar. Mais le long de ce cercle de 12 mètres de diamètre, la locomotive atteint une vitesse de point de 50 km/h, bien loin des 2900 km/h annoncés.  Cependant, le chercheur chinois de l’université de Jiaotong, à Chengdu, est convaincu qu’un équipement plus grand permettra de réaliser ce train qui mettrait Moscou à une heure de Paris !

Reste à savoir quelles dimensions seront nécessaires…

Par Audrey Loubens

Transition énergétique: le pétrole, grand oublié de la loi selon les électriciens

Selon Jean-François Raux, le délégué général de l’UFE, si le « bon côté » du texte est sa « stratégie bas carbone », « il doit traiter du pétrole au même titre que les autres énergies ».

Le projet de loi sur la transition énergétique fixe également comme objectif une réduction de 30% de la consommation d’énergies fossiles (pétrole, gaz, charbon), sans objectif pour chaque type d’énergie.

« On met toutes les énergies fossiles dans le même sac, alors qu’il nous parait important de hiérarchiser le pétrole et le gaz », a insisté M. Raux, précisant que le gaz émet beaucoup moins de CO2.

Pour cela, il plaide pour une mobilisation plus forte sur la problématique des transports, qui représentent 38% des émissions de CO2 du pays, et notamment sur une « diversification des solutions alternatives au pétrole », comme le GNL, des moteurs plus performants, l’utilisation de l’hydrogène, technologie sur laquelle « l’Allemagne a quelques années d’avance » sur la France.

Plus globalement, l’UFE s’inquiète de l’absence de prise en compte de « l’impact de la loi sur la compétitivité des entreprises dans une économie ouverte et mondialisée ».

Jean-François Raux, qui plaide pour « une transition énergétique au moindre coût » étant donné la situation financière du pays, pointe également le fait que le financement de la loi « a été traité jusqu’ici de manière marginale ».

Ainsi, sur le volet électricité de la loi, l’UFE estime que le choix d’une substitution du nucléaire par les énergies renouvelables n’est pas « rationnel » dans la mesure où cela nécessiterait des investissements « colossaux » (210 milliards d’euros pour remplacer 20 gigawatts selon ses chiffres) pour un gain en émission de CO2 nul.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Vous avez servi de cobaye à Facebook

Cette étude de grande envergure a concerné près de 700 000 utilisateurs sur une semaine. Concrètement, les scientifiques ont modifié l’algorithme de Facebook pour contrôler la qualité des post publiés dans le fil d’actualité. Ainsi, certaines personnes se sont vu infliger des messages négatifs, les messages positifs ayant été bloqués, tandis que d’autres ont pu lire principalement des messages positifs, ceux à caractère négatif n’étant pas visibles. Puis, les chercheurs se sont intéressés aux messages exprimés par ces utilisateurs, plus particulièrement leur aspect positif ou négatif. Les résultats sont sans appel : les personnes exposées aux messages négatifs postaient sur un ton lui aussi négatif, quand celles ayant lu des messages positifs exprimaient des avis eux-aussi positifs. Ainsi, la contagion des émotions passe bien par Facebook, et plus largement par les réseaux sociaux.

Les résultats publiés dans la revue Proceedings of the National Academy of Sciences of America (PNAS) étaient attendus, puisque l’on sait déjà que les émotions sont contagieuses. Si vous devez supporter toute la journée un collègue plaintif ou déprimé, vous risquez fort de finir la journée de bien mauvaise humeur. A l’inverse, partager son quotidien avec quelqu’un d’enjoué, d’optimiste et gai vous donnera le sourire.

En revanche, le déroulé de l’étude pose de sérieux problèmes éthiques. Si Facebook était informé de l’expérience, les utilisateurs, quant à eux, ne l’étaient pas ! C’est donc sans leur aval que 700 000 personnes ont été soumises à ce test psychologique. Ceci confirme l’ouverture du réseau social au domaine de la recherche en sciences sociales ou aux analystes de données pour qui Facebook est une véritable mine d’or.

Cette façon de faire assez contestable étant parfaitement légale, il y a fort à parier que d’autres tests psychologiques soient menés via Facebook. Alors si vous constatez des changements dans votre fil d’actualité, pas de panique, c’est juste une petite expérimentation…

Par Audrey Loubens, journaliste scientifique

Et si l’espace-temps était un superfluide ?

Entre autres réflexions sur l’Univers (avec celles du Big Bang, du Boson de Higgs…), la définition de la notion d’espace-temps a toujours soulevé son lot de questions, et bien souvent fasciné les romanciers/scénaristes toujours prêts à offrir une vision romantique de la chose. Car s’il a fallu attendre 1905 et la théorie de la Relativité Restreinte d’Einstein pour unifier l’espace et le temps en un espace-temps quadri-dimensionnel et par là même rajeunir la conception de la réalité physique, sa définition conserve malgré tout quelques inconnus.

Présentement, les physiciens Stefano Liberati et Luca Maccione ont émis l’hypothèse que l’espace-temps pourrait se comporter de la même manière qu’un fluide – précisément un superfluide. Le superfluide se caractérise par une viscosité nulle, c’est-à-dire la non-résistance à l’écoulement d’un fluide. L’hélium liquide fait partie de cette catégorie de fluide dénué de viscosité.

Leurs travaux, relatés dans un article pour la revue Physical Review Letters en avril dernier, supputent qu’une analogie entre la Relativité Générale et la mécanique des fluides est envisageable. Chose étrange, la similitude se situe au niveau de la compréhension que les scientifiques ont de ces deux théories. Ainsi, la Relativité Générale décrit « l’influence sur le mouvement des astres de la présence de matière, et plus généralement d’énergie » et donc le fonctionnement de l’Univers et ses interactions à grande échelle. Ce qui est également le cas de la mécanique des fluides qui est l’étude du comportement des fluides à l’échelle macroscopique.

Partant de là, les deux physiciens se sont dit que la comparaison espace-temps/fluide pouvait se révéler intéressante. Qui plus est, si l’intuition s’avère juste, cela expliquerait bien des choses et tendrait à accorder la théorie de la Relativité Générale d’Einstein avec celle de la mécanique quantique qui s’attache à comprendre les interactions fondamentales. Ce qui est d’une importance extrême puisque les scientifiques se démènent en vain à trouver une compatibilité entre ces deux grandes théories du XXe siècle. Il s’agit d’ailleurs d’un des grands défis de la physique actuelle. 

Par Sébastien Tribot

Rencontre avec Thierry Lemoine, expert pour « Imagerie Médicale »

Pourquoi une base documentaire sur l’imagerie médicale ?

lemoine

Thierry Lemoine. Elle a vocation de remplir un grand vide : l’imagerie médicale, ce sont des modalités qui ont explosé ces dernières années, notamment le scanner, l’IRM. Aujourd’hui il y a une très forte littérature en anglais, mais en français il n’y a pratiquement aucun document, aucun article, aucun livre, donc il m’a semblé important de combler cette lacune avec une base en français.

A quel besoin répond-elle ?

Thierry Lemoine. Le souhait des auteurs et des éditeurs est de répondre aux besoins des utilisateurs, aussi bien des équipements que des systèmes de visualisation de l’imagerie. Mais également aux besoins des concepteurs de nouveaux systèmes, et, pourquoi pas, aussi à ceux des jeunes chercheurs et étudiants dans le domaine de l’imagerie médicale.

Quels thèmes sont abordés ?

Thierry Lemoine. C’est une collection qui se veut très ambitieuse dans le spectre des domaines couverts, puisque notre volonté est d’aborder toutes les modalités, les cinq principales aujourd’hui , à savoir les rayons X, les scanners, l’IRM, les ultrasons et la médecine nucléaire, et les domaines plus émergents, dans l’imagerie optique notamment. Et ceci en partant des modalités, en passant par les équipements eux-mêmes, les systèmes de détection, et toutes les technologies de traitement d’image associées.

Qui en sont les auteurs ?

Thierry Lemoine. Nos auteurs sont choisis pour beaucoup dans le milieu universitaire. Donc ce sont des gens qui se tiennent à la fois au courant des techniques d’imagerie, mais aussi beaucoup des  applications thérapeutiques ou diagnostics qui peuvent être tirées de cette technique. Nous avons choisi des auteurs qui ont cette double vision, à la fois technique, et de ce que demande le médecin ou le radiologue.

La stabilisation des puissances éoliennes en Espagne préfigure-t-elle le futur du réseau ouest-européen ?

Cette attitude, assez  nouvelle en Espagne, de bon sens économique pourrait, dans certaines conditions, se généraliser à l’ensemble du réseau ouest-européen.

La vie industrielle nous apprend qu’un investissement de capacité, dans le cadre d’une expansion d’activité, constitue une excellente opportunité pour réaliser à peu de frais de puissants progrès techniques et de bienvenus gains de productivité.

En effet l’investissement est immédiatement rentabilisé par la croissance du chiffre d’affaire et apporte, en prime, ce que les économistes classent sous la rubrique « productivité globale des facteurs » qui quantifie globalement les gains de productivité ou de rentabilité naturellement induits par la croissance de l’activité économique et l’intelligence des hommes. En d’autres termes simples, il n’y a là que la traduction économique des progrès continus techniques et technologiques.

Dans le cas de la production d’électricité en Espagne, et selon l’électricien local Red Electrica, en raison de difficultés économiques de ce pays, nous assistons à une décroissance continue des consommations dans la péninsule et donc des productions qui perdaient en cumulé depuis le début de l’année à fin Mai 2014,  2,7% par rapport aux valeurs enregistrées durant la même période en 2013 qui elles-mêmes avaient décru de 4,4% par rapport à la même base en 2012.

Cette décroissance des appels espagnols de puissance électrique entraîne tout naturellement un arrêt des investissements de capacité et une stabilisation depuis 2012 des puissances installées autour des 102GW (Fig.1). Bien sûr les puissances éoliennes installées, elles aussi, depuis la même date, se stabilisent au-dessous des 23 GW nous informe Red Electrica.

Figure 1 : Puissances électriques installées en fin d’année dans la péninsule espagnole et à fin Mai pour 2014 (Red Electrica)

Il apparait donc, de façon tout à fait logique, que la baisse des appels d’énergie sur le réseau entraîne, afin d’éviter les excès de capacité de production, l’arrêt des nouvelles installations d’éoliennes en Espagne. Les seuls enjeux de réductions de coûts ou de progrès techniques ne peuvent pas justifier à eux seuls la pertinence de nouveaux investissements dans ce domaine.

Figure 2 : Consommations annuelles d’énergie électrique sur le réseau ouest européen (ENTSO-E)

Je ne vois pas pourquoi ce phénomène, économiquement raisonnable, à l’échelle de la péninsule ne se répèterait-il pas à l’échelle du continent ouest-européen dont les consommations d’électricité, tout comme en Espagne, décroissent (Fig.2) et dont les excès d’équipements de génération sont notoires et entraînent une baisse continue des prix de gros du MWh (Fig.3) ce qui décourage tout investissement de capacité non subventionné et entraîne, même, la mise sous cocon de centrales à gaz à cycle combiné les plus modernes (GDF-Suez) ?

Figure 3 : Prix de gros, en euros 2010,  du MWh électrique sur la plateforme EEX (Fraunhofer)

Même si la rumeur institutionnelle entretenue, en vigueur en Europe, annonce pour les années à venir, un accroissement rapide de la part des énergies renouvelables dans le mix électrique, la raison économique nous indiquerait plutôt que ces investissements dans de nouveaux moyens de génération, dont les éoliennes et les modules photovoltaïques, devraient décroitre et tendre progressivement vers zéro.

Bien sûr des décisions politiques de maintient des subventions tarifaires aux énergies intermittentes ou d’arrêt de centrales nucléaires existantes sont de nature à contrecarrer cette prévision de bon sens. Dans cette hypothèse il faut s’attendre à un accroissement continu des prix de détail de l’électricité qui intègrent les subventions tarifaires en vigueur.

C’est ce dont nous menacent certains volets de la soi-disant « transition énergétique » annoncée en France, à moins que la poursuite ou  l’accélération de la dégradation économique de notre pays ne stoppe net ce processus de surinvestissement, éminemment politique et annoncé en fanfare. Un mode de gestion plus rigoureux et plus économe des finances de notre pays devrait revenir un jour en vogue.

Par Raymond Bonnaterre

Les GPS perturbés par de terribles éruptions solaires

La NASA a observé deux grosses éruptions solaires en 48h. Celles-ci, compte-tenu de leur puissance, ont été classées X, le plus haut niveau d’intensité.

Observée par le satellite Solar Dynamics Observatory, la première éruption a eu lieu le 10 juin, suivie à peine une heure après d’une deuxième éruption, de moindre intensité.

Ces éruptions solaires de classe X ont provoqué l’éjection dans l’espace d’une importante quantité de plasma. Le nuage de particules magnétiques projetées s’est dirigé vers les planètes alentours, dont la Terre. Si ces particules sont inoffensives pour l’homme, il n’en est pas de même pour les composants électroniques. Plus particulièrement, les satellites et donc les systèmes GPS sont sensibles au passage de telles particules.

Le nuage issu des intenses éruptions solaires a traversé la Terre aux alentours du vendredi 13 juin. Si vos appareils, Smartphones et autres, ont semblé mal fonctionner, c’était peut-être qu’ils étaient en train de se faire traverser par tout un tas de particules magnétiques  chatouilleuses ! Cette activité du soleil coïncide avec un basculement du champ magnétique solaire. Depuis quelques mois, le Soleil tend vers le maximum de son cycle, et son activité ne devrait pas diminuer avant 2015.

Il est à noter que ce cycle solaire est l’un des moins intenses parmi ceux connus. Ceci ne préserve pas d’une super tempête solaire, qui pourrait avoir des conséquences sur le matériel électronique désastreuses au point d’impacter l’économie à l’échelle mondiale. En attendant que le Soleil nous tombe sur la tête, vous pouvez admirer ces éruptions solaires remarquables grâce à la vidéo de la NASA :

Par Audrey Loubens

Un robot filme le cœur de Fukushima

L’eau. C’est l’obsession des exploitants de Fukushima.

Or, celle-ci ne cesse de s’accumuler et son stockage nécessite la fabrication en continu de réservoirs pour éviter qu’elle ne se déverse dans l’océan. Alors même que le projet de Tepco de bâtir un mur de glace pour empêcher l’eau provenant des collines environnantes de passer sous la centrale  vient d’être accepté, limitant ainsi le volume d’eau contaminée à stocker, les ingénieurs japonais détiennent enfin toutes les informations sur l’existence de fuites d’eau, leur cause, leur débit…

En effet, Tepco s‘est rendu compte que de l’eau s’échappait, soupçonnant des dégradations au niveau du circuit d’eau.  Problème : les vannes sont situées au cœur du réacteur n°1, à l’intérieur duquel règne une radioactivité mortelle. Impossible d’y envoyer des hommes. C’est donc un petit robot qui s’est faufilé pour accomplir cette mission d’exploration. Après l’échec  de l’envoi d’un bateau télécommandé, ce petit robot construit par Hitachi et General Electric portait sur ses métalliques épaules l’espoir de Tepco. Il lui aura fallu trois jours pour inspecter la totalité des circuits d’eau.

Son excursion est un succès puisqu’il a mis à jour une importante fuite au niveau d’une vanne reliée à la cuve de confinement. D’après les images, se sont entre 0.75 et 1.5 tonnes d’eau qui s’écoulent chaque heure ! Tout ça à cause d’un joint ayant subi une importante corrosion. Reste aux équipes de Tepco à réparer pour endiguer au plus vite cette fuite colossale et limiter les quantités d’eau accumulées sur le site.

Regardez ce reportage pour découvrir l’origine de la fuite :

Par Audrey Loubens

La première étoile avec une étoile à neutron à la place du cœur vient d’être détectée

Les astronomes savaient que cela existait, mais personne n’en avait encore jamais vu. La théorie prédisant des supergéantes rouges hébergeant en plein cœur une étoile à neutron date de 1975, dans un article co-écrit par Kip Thorne et Anna Zytkow. Ces étoiles agonisantes sont tout naturellement appelées les objets de Thorne-Zytkow, mais jusqu’à ce jour, aucune mesure ni observation n’avaient validé la réalité de telles étoiles.

Une équipe d’astronomes américains vient probablement d’en dénicher une. L’équipe d’Emily Levesque a scruté le ciel et plus précisément la zone du Petit Nuage de Magellan. Ils y ont découvert une supergéante rouge, mais avec des propriétés particulières. L’étoile baptisée HV 2112 présente des quantités de lithium très importantes, ainsi que des taux de rubidium et de molybdène eux aussi très élevés. La présence de ces éléments en de telles proportions serait la preuve de la présence d’une étoile à neutron. Cette dernière se serait nichée dans la supergéante rouge suite à l’explosion d’une étoile appartenant à un système d’étoiles binaires, soit un ensemble de deux étoiles gravitant autour du même centre de gravité. Quand l’une des deux étoiles explose, elle donne naissance à une étoile à neutron plus petite, qui est alors littéralement avalée par la supergéante rouge.

Les observations des scientifiques américaines sont publiées dans Monthly Notices of the Royal Astronomical Society Letters.

Par Audrey Loubens

Et aussi dans les
ressources documentaires :