News Digest, le nouvel Albert Londres de Yahoo !

Alors que la presse écrite est en déclin suite à l’apparition d’Internet, voilà que Yahoo! pourrait bien porter le coup fatal aux journalistes. Son dernier bijou technologique, baptisé News Digest, est un programme capable de fouiner sur la toile, de sélectionner puis d’agglomérer des contenus de multiples origines de façon à fabriquer un ensemble d’articles postés directement sans validation humaine préalable. De quoi alimenter une chronique ou les pages actualités de façon automatique.

L’objectif est clair : se débarrasser des équipes chargées de la veille et pouvoir se passer des employés dont l’activité est de trier et sélectionner les sujets intéressants et correctement traités.  Si cette tâche peut être automatisée, pourquoi s‘en priver ?

News Digest est l’amélioration de l’application Summly, rachetée pour 30 millions de dollars au très jeune et talentueux Nick d’Alosio, âgé aujourd’hui de 18 ans. A l’époque, ce rachat avait fait grand bruit, notamment du fait du jeune âge de ce tout nouveau millionnaire.

Mais News Digest ne se contente pas de sélectionner les articles et de les assembler pour créer un contenu, l’application est capable de rédiger un résumé de l’article sélectionné ! Ainsi, l’actualité est proposée sous  une forme jugée plus « digeste », un best of d’actus light en quelque sorte. « Nous pensons que les gens veulent consommer plus de contenus lorsque ceux-ci sont réduits à leur portion la plus essentielle » justifie Nick d’Alosio. 

Le slogan est tout trouvé : « Toute l’information que vous devez connaître ». News Digest propose deux fois par jour un résumé de l’actualité sous formes de blocs. Ceux-ci sont évidemment tirés de sites partenaires de Yahoo !, et peuvent prendre la forme de texte, d’image ou même d’infographie.

Avec cette application, pour l’instant disponible seulement sur iPhone, Yahoo! espère doper son offre d’informations et rallier un grand nombre de lecteurs, et donc de revenus publicitaires. 

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

Quand l’art rencontre la science… Réflexions sur le temps par l’artiste russe Olga Kisseleva

Connue pour son approche scientifique de l’art et son intérêt pour les nouvelles technologies, Olga Kisseleva propose ici une réflexion sur la relativité du temps et sur sa perception, différente selon l’individu et son environnement. Elle évoque également l’emprise du temps sur l’Homme et dénonce les rythmes contraignants qui lui sont imposés.

C’est le cas de l’œuvre It’s time (photo ci-dessus) qui offre au visiteur la possibilité de s’affranchir de la dictature de la montre et d’écouter sa propre horloge biologique. Celui-ci doit poser sa main sur un capteur biométrique qui mesure ses pulsations cardiaques et la température de son corps. L’horloge s’adapte alors à son rythme, en ralentissant ou en accélérant l’affichage des secondes, et annonce en lettres rouges l’attitude à adopter en fonction de son état de nervosité : “sois cool”, “baille un peu”, “prends ton temps”, etc.

Comme à son habitude, l’artiste a collaboré avec des scientifiques, et notamment avec le physicien Sylvain Reynal (1) qui a élaboré le calcul permettant la modulation de l’heure en fonction des paramètres mesurés.

Dans CrossWorlds (photo ci-dessus), les deux empires autrefois antagonistes, l’USA et l’URSS, sont représentés sous les traits des deux icônes de leur pays respectif, Marilyn Monroe et Lioubov Orlova. Le visiteur doit flasher avec son téléphone les QR codes superposés aux visages souriants des deux actrices pour obtenir deux messages étrangement proches malgré la dualité idéologique des deux univers : « The dreams of the people come true » et « What the people believe is true ».

L’avertissement d’Olga Kisseleva est clair : la propagande utilise les outils de son temps quelle que soit l’époque. A travers son œuvre, l’artiste nous met en garde contre les images subliminales et nous incite à rester vigilants face à la manipulation politique.

Par C.C

Un anneau de matière noire autour de la Terre ?

La Terre aussi pourrait bien avoir son anneau. Mais pas n’importe lequel.

D’après les conclusions d’un certain Ben Harris, chercheur américain, la troisième planète du système solaire pourrait bien être entourée de matière noire.

De quoi faire pâlir de jalousie Saturne et ses vulgaires anneaux de glace et de poussière ! Pour en arriver à cette proposition plutôt originale, Ben Harris s’appuie sur des mesures de la masse terrestre.  Spécialiste des systèmes de géolocalisaton GPS, Ben Harris a tout naturellement eu l’idée de s’en servir pour peser la Terre. C’est alors qu’il fut confronté à un résultat inattendu : la Terre serait plus lourde que prévu, de quelques 300 à 480 millions de milliards de tonnes tout de même. Soit entre 0.005 et 0.008 %. 

De trois choses l’une. Soit  les mesures sont fausses, soit  la Terre a grossi, soit un anneau de matière noire entoure la Terre. En effet, la présence d’un tel anneau justifierait que les instruments sur-pèsent la planète.

Bien qu’il s’agisse de l’hypothèse la moins probable, elle n’est pas non plus si farfelue. D’autant qu’il existe des précédents. En 1990, la sonde Galileo alors en route pour Jupiter, s’est déplacé plus vite qu’elle n’aurait dû. Un phénomène observé à nouveau en 1998 puis en 2005 avec deux autres sondes. Ceci pourrait pourtant s’expliquer par a présence d’un anneau de matière noire. C’est ce qu’avait tenté de démontré Stephen Adler en 2009.

Les scientifiques cherchent cette fameuse matière noire, de la matière invisible mais dont l’existence permettrait de valider les modèles actuels et validerait les calculs de masse et de densité des objets cosmiques. La présence de cette matière n’est pour l’instant détectable que de façon indirecte grâce aux lentilles gravitationnelles. 

Finalement, il n’est peut être pas nécessaire de scruter le fond de l’espace pour la trouver cette matière  noire, elle pourrait bien être plus près que l’on ne pense, juste au dessus de nos têtes…

Par Audrey Loubens, journaliste scientifique

Un laser femtoseconde pour transporter des qbits

Des physiciens du laboratoire Kastler Brossel – LKB (CNRS / UPMC / ENS) ont réussi à déplacer plusieurs qbits, l’état quantique qui représente la plus petite unité de stockage, via des photons de fréquence différentes.

Ces photons sont émis par un laser à impulsions ultra-brèves. Dans cette expérience, le faisceau laser utilisé est une succession d’impulsions de 150 femtosecondes. Le faisceau traverse une cavité optique avec un cristal non linéaire SPOPOs (Synchronously PumpedOPOs).

Ce dernier permet de diviser chaque photon incident en deux jumeaux, c’est-à-dire que les propriétés de l’un dépendent de celles de l’autre. A la sortie, l’état quantique est mesuré à l’aide d’un laser de référence. L’équipe a ainsi réussi à sonder dix modes différents, seuls ou par paire.

Publiée dans Nature Photonics, cette expérience s’accompagne de mesures prouvant qu’il s’agissait bien de dix modes quantiques indépendants, capables de porter chacun un qbit.

L’intérêt de cette approche est de pouvoir transporter de l’information sans être limité par la taille du support du système.

En revanche, c’est la finesse du système de détection qui est critique. Désormais, ces chercheurs travaillent à atteindre un système quantique d’une cinquantaine de modes, ce qui serait une première.

Par Audrey Loubens ,journaliste scientifique

Et aussi dans les
ressources documentaires :

L’iPhone 5S s’apprête à conquérir le marché chinois

Le directeur général d’Apple, Tim Cook, a quelques raisons de se montrer optimiste : le lancement des iPhone 5S et 5C par le plus grand opérateur de téléphonie mobile au monde, China Mobile, prévu ce vendredi 17 janvier, marque un tournant dans la stratégie de conquête du marché chinois par la marque à la pomme. Fort de ces 760 millions d’abonnés, le réseau du mastodonte chinois laisse entrevoir un avenir radieux pour la société californienne, confirmé par les 1,4 million d’iPhone 5S livrés à China Mobile par le principal sous-traitant d’Apple, le fabricant taïwanais Foxconn – un chiffre qui ne tient pas compte des livraisons d’iPhone 5C. Le PDG de China Mobile, Xi Guohua, a même annoncé que « plusieurs millions » d’iPhone auraient d’ores et déjà été précommandés à l’approche du lancement du smartphone d’Apple.

Le marché chinois est devenu une priorité pour Tim Cook, n’hésitant pas à souligner que « la Chine est un marché extrêmement important pour Apple et notre partenariat avec China Mobile nous donne l’opportunité d’apporter l’iPhone aux consommateurs du plus grand réseau [mobile] du monde ». Le rapprochement entre le géant américain et le premier opérateur chinois devrait faire exploser les ventes des terminaux mobiles d’Apple, qui ne compte pourtant pas s’arrêter en si bon chemin, un accord ayant également été trouvé avec le deuxième et le troisième plus grand opérateur de la république populaire. Comme semble le dire si bien Tim Cook, « aujourd’hui est un commencement ».

Par Moonzur Rahman

REACH : les news de janvier 2014 (1/2)

Premier avis adopté pour l’autorisation d’une substance extrêmement préoccupante (SVHC)

03/01/2014

Les Comités scientifiques de l’ECHA pour l’évaluation des risques (RAC) et pour l’analyse socio- économique (SEAC) ont adopté leur avis sur une demande d’autorisation pour utiliser une substance extrêmement préoccupante (SVHC). Cette demande a été déposé par Rolls- Royce plc, et concerne les usages spécifiques de DEHP (Bis(2-ethylhexyl)phthalate) dans la fabrication de moteurs d’avions . Il s’agit de la première demande d’autorisation pour utiliser un SVHC à être traitées par l’ECHA.

Dans leurs avis, les comités concluent qu’un contrôle adéquat a été démontré pour l’usage spécifique demandé. Compte tenu des risques posés par l’utilisation de cette substance et l’analyse des solutions de remplacement et du plan de substitution fournis par le demandeur, les comités proposent de réviser l’autorisation dans un délai de sept ans. La Commission Européenne prendra la décision finale sur cette demande d’autorisation, sur la base des avis de l’ECHA.

En 2013, l’ECHA a reçu un total de huit demandes d’autorisation pour utiliser des SVHC, couvrant deux phtalates et 17 utilisations spécifiques différentes. En 2014, l’Agence s’attend à des demandes, en particulier pour les substances contenant du chrome et le trichloréthylène.

  • Plus d’information sur :

http://echa.europa.eu/view-article/-/journal_content/title/authorisation-to-use-a-substance-of-very-high-concern-first-opinions-adopted

  • Avis adoptés suite au demande d’autorisation :

http://echa.europa.eu/addressing-chemicals-of-concern/authorisation/applications-for-authorisation-previous-consultations

Restriction dans le cadre de REACH

L’ECHA a lancé des consultations sur trois projets de restriction dans le cadre du règlement REACH. Les consultations sont ouvertes jusqu’au 18 mars 2014 et 17 juin 2014. La première restriction concerne la 1-méthyl-2-pyrrolidone (NMP). Cette substance est utilisée principalement comme solvant et comme agent de nettoyage dans les secteurs de la pétrochimie, de l’agriculture, de la pharmacie, de l’électronique et de l’industrie textile.

La seconde restriction concerne les nonylphénols (NP) et les éthoxylates de nonylphénol (NPE). Ces derniers sont utilisés comme détergents dans la fabrication de produits textiles, en dehors de l’Union européenne essentiellement. La 3ème restriction concerne le cadmium et ses composés (dans les peintures). Les commentaires sont à soumettre avant 18 mars 2014 pour les deux premières restrictions et le 17 juin 2014 pour la seconde.

 

A quel point les pesticides sont-ils biodégradables ?

A l’échelle globale, environ 5.000 pesticides différents sont utilisés régulièrement en agriculture. Ceux-ci ont mauvaise presse, en grande partie du fait d’une utilisation inappropriée qui nuit à l’environnement (impact négatif sur la biodiversité, pollution des sols,…). De plus, ils sont susceptibles de porter atteinte à la santé des personnes exposées. Cependant, tous les pesticides n’ont pas un impact néfaste. Par exemple, certains pesticides sont décomposés rapidement dans l’environnement, d’autres plus lentement. Des scientifiques du Centre Helmholtz pour la recherche environnementale (UFZ) [1] et de l’Université technique de Rhénanie-Westphalie (RWTH) ont développé une nouvelle méthode de détection des pesticides dans le sol. Cette technique permet également de savoir si les résidus de pesticides sont biodégradables ou non. Ainsi, les effets à long terme des pesticides pourront être mieux évalués.

Après avoir marqué les pesticides par un isotope de carbone 13C non radioactif, les scientifiques ont suivi l’évolution des produits dans plusieurs échantillons de sols grâce à la spectrométrie de masse. De cette façon, les chercheurs ont pu déterminer les zones de dégradation dans le sol et classer les produits en trois catégories principales:

Pour le type 1, le pesticide et/ou ses produits dégradés sont combinés à la matière organique du sol (humus) mais peuvent être libérés à tout moment. Si la liaison chimique est forte, le relargage sera plus difficile et les résidus sont catégorisés en type 2. Dans les deux cas, types 1 et 2, les résidus présentent une certaine toxicologie car ils n’ont pas été biodégradés sur une courte échelle de temps. Les résidus de type 3 sont ceux qui ont été décomposés par l’activité bactérienne. Le carbone 13C est alors retrouvé dans la biomasse microbienne. Les risques toxicologiques sont alors moindres.

Les scientifiques ont également utilisé leurs travaux pour modéliser le comportement d’autres pesticides dans l’environnement. La méthode et les résultats de l’étude sont détaillés dans la revue Critical Reviews in Environmental Science and Technology [2]. Les scientifiques souhaitent désormais que la méthode 13C soit incluse dans la procédure d’autorisation d’utilisation, qui sera évaluée par l’Agence fédérale de protection de l’environnement.

Le Centre Helmholtz pour la recherche environnementale (UFZ) a été créé en 1991. Il compte plus de 1.000 employés répartis entre Leipzig (Saxe), Halle et Magdeburg (Saxe-Anhalt). Ceux-ci étudient les interactions complexes entre l’Homme et l’environnement..

 

 

 

 

Source : bulletins-electroniques

Des pesticides interdits, mais encore utilisés !

Les pesticides les plus toxiques ont une fâcheuse tendance à ne pas se dégrader. Ils peuvent donc persister durant plusieurs décennies dans les sols et empoisonnent les organismes qui y vivent. Cette pollution aurait toutefois tendance à s’amenuiser dans le temps si certains agriculteurs ne les utilisaient pas encore de manière frauduleuse. C’est notamment le cas de 4 herbicides : le carbofuran, l’endosulfan, le carbosulfan, 3 insecticides et du terbuthylazine, un herbicide.

Si le carbofuran est interdit en France depuis 2008, il a été détecté en 2012 dans le Tarn. L’enquête a révélé un trafic avec l’Espagne. En 2013, un test mené par Générations futures a retrouvé de l’endosulfan et du carbosulfan dans des barquettes de fraises vendues en grandes surfaces en Picardie et en Haute-Normandie. Ces deux insecticides sont pourtant interdits en Europe, respectivement depuis 2008 et 2007. Enfin, le rapport annuel de l’agence de l’eau Rhône-Méditerranée a relevé la présence de terbuthylazine dans deux stations de pompage (Aude et Pyrénées-Orientales) en 2011. Les concentrations relevées dépassaient  le seuil permettant d’utiliser la ressource pour produire de l’eau potable.

Des réglementations mal harmonisées

Si certains agriculteurs écoulent toujours leurs stocks malgré les interdictions, c’est avant tout le manque d’harmonisation au niveau européen et la contrefaçon qui favorisent les usages illicites. En effet, l’autorisation de commercialisation accordée aux substances actives se fait au niveau européen. En revanche, chaque pays décide ensuite d’accorder ou non des autorisations de mise sur le marché aux produits commercialisés. Par exemple, le terbuthylazine est interdit en France, mais est autorisé en Belgique, en Italie, en Espagne et au Luxembourg.

Dans les zones frontalières, les agriculteurs peuvent donc aller s’approvisionner de l’autre côté de la frontière, là où certains produits interdits en France sont autorisés. Ce trafic est notamment important avec l’Espagne. A en croire les propos de Jean Sabench, en charge du dossier pesticides à la Confédération paysanne, et repris par l’AFP, « les responsables régionaux du plan Ecophyto ont dit que jusqu’à 25% des pesticides utilisés en Languedoc-Roussillon étaient achetés en Espagne ». « Une bonne partie d’entre eux sont interdits ». Ces produits peuvent aussi être achetés sur Internet.

Les contrefaçons jouent également un rôle important dans cette pollution des sols. Dans les produits contrefaits, les contenus ne sont pas forcément fidèles aux produits mentionnés sur l’étiquette ! Selon Europol, il existe un vrai trafic de pesticides contrefaits. Il représenterait tout de même 5 à 10 % du marché européen qui totalise environ 10 milliards d’euros par an. Selon les dires de l’Union nationale des industries phytosanitaires (UIPP) cités par l’AFP, si un prix est inférieur à plus de 10 % du prix moyen du marché « c’est suspect ». C’est justement le prix qui motive les contrevenants à acheter ces produits. 

Selon l’UIPP, les pesticides représentent environ 9 % des coûts d’une production agricole. Faire baisser les tarifs permet donc de faire des économies substantielles. Les trafics restent possibles dans la mesure où il y a trop peu de contrôles, peu de poursuites et des sanctions faibles. En 2012, sur 5 972 inspections d’exploitations, la Direction générale de l’alimentation (DGAL) n’a réalisé que 620 inspections au stade de la distribution et 675 prélèvements à la récolte pour l’utilisation des pesticides.

La plupart des acteurs du secteur agricole, fabricants de pesticides compris, demandent des sanctions plus sévères pour les utilisateurs de produits contrefaits. Les sanctions appliquées (amendes allant de 500 à 5.000 euros) sont en effet bien loin des six mois d’emprisonnement et des 30 000 euros d’amende prévus par la loi « pour l’utilisation et la détention de produits sans autorisation de mise sur le marché ».

« Pour une minorité d’agriculteurs, il est difficile d’accepter que ces produits sont dangereux alors qu’ils les ont utilisés pendant des années », relève Jean Sabench repris par l’AFP.

Le travail réalisé depuis 2008 dans le cadre du plan Ecophyto contribue cependant à changer les mentalités même si l’objectif de réduction de 50 % de la consommation nationale d’ici 2018 ne sera sûrement pas atteint. 

Par Matthieu Combe, journaliste scientifique

Le téléphone Teorem de Thales plus que jamais à la mode ?

Rappelez-vous, c’était en septembre dernier, une note de Matignon imposait aux ministres l’usage du Teorem de Thales pour les communications sensibles. Pourtant, depuis cette annonce, peu s’étaient exécutés, jugeant le téléphone peu pratique, voire ringard. Le mauvais exemple était même véhiculé par les plus hautes sphères de l’état (il n’était pas rare de voir Nicolas Sarkozy avec un Blackerry ou encore François Hollande utiliser un iPhone 4). 

Ce qui nuit le plus au Teorem c’est qu’il n’est pas un ersatz des iPhones et autres Blackberry pourrait-on presque résumer. 

Devant l’insuccès du téléphone de sécurisation, force est de constater que sur quelques points, il ne tient pas la comparaison avec ses homologues. Esthétiquement parlant d’une part, le Teorem nous ramène à l’âge d’or des appareils à clapet, autant dire, à la préhistoire des mobiles. 

D’un point de vue pratique, ce n’est guère mieux : il serait très lent au démarrage, complexe d’utilisation, dépourvu d’applications et pire encore, il ne disposerait pas de répertoire! Donc à moins d’avoir une mémoire d’éléphant, votre annuaire deviendra votre meilleur ami. Mais pas sûr que son transport quotidien soit agréable… Et avouons qu’à l’heure actuelle, retourner à un portable sans application paraît bien triste, voire inconcevable. 

Pour couronner le tout, il serait très onéreux. D’après une estimation du journal Le Canard Enchaîné paru le 30 octobre, la Direction Générale de l’armement française (DGA) aurait commandé 14 000 terminaux (comprenez Teorem) pour une facture de 30 millions d’euros. Ce qui, après calcul, reviendrait à 2 142,85 euros… l’unité. Toutefois d’autres sources affirment que cette estimation serait faiblarde et situerait son prix vers 4 500 euros.

Quoi qu’il en soit, le gouvernement semble s’être rappelé que les histoires d’espionnage étaient une affaire sérieuse et a raffermit sa position sur le sujet. Surtout depuis le témoignage d’Edward Snowden.

« Les téléphones sécurisés se démocratisent »

C’est au tour de la société française Bull de développer son portable sécurisé : le Hoox m2. Il proposerait une alternative plus séduisante que le Teorem pour chiffrer les communications car basé sur le système d’exploitation Android, son utilisation serait plus familière.

Fabriqué en France, le Hoox m2 est doté de plusieurs atouts de sécurisation qui devraient ravir plus d’un homme d’affaires. Le mobile est en effet muni d’un capteur biométrique afin d’authentifier l’utilisateur – outre le code d’accès – et d’une puce de chiffrement fonctionnant avec l’algorithme AES 256 bits (standard de chiffrement avancé). Les ports de communications sont également conçu pour écarter les risques d’intrusion.

L’appareil ne concurrence pas pour autant le Teorem; les deux mobiles ne jouant pas dans la même gamme. Le Hoox m2 se destine principalement aux administrations, aux hommes d’affaires fortunés, banquiers et grandes entreprises. Mais si vous souhaitez acquérir ledit téléphone pour votre usage personnel, c’est possible, il vous faudra débourser dans les 2 000 euros.

Par Sébastien Tribot

L’origine de la Lune encore et toujours un mystère

Quelques théories élaborées par les scientifiques

L’un des cas de figure pourrait être que la Lune et la Terre se sont constituées à partir d’une source de poussière similaire, et ce plus ou moins au même moment. Cela expliquerait les ressemblances entre la Terre et la Lune.

Une autre thèse, moins probable, s’appuie sur la possibilité que la Lune ait été attiré par le champ de gravité de la Terre à un moment. Toutefois, la suite de circonstances qui permettrait à cette théorie d’être validée semble inimaginable et entraîne d’autres problématiques tout autant impossibles à résoudre que celle de son origine. Quel voyage, par exemple, la Lune aurait-elle entrepris pour parvenir jusqu’au champ gravitationnel de la Terre ?

Troisième hypothèse : la Terre a pu avoir une vitesse de rotation bien plus grande qu’aujourd’hui (de deux à trois heures pour tourner sur elle-même) de telle sorte qu’une partie du manteau terrestre s’est éjecté, complétant ainsi la composition de la Lune.

S’il existe divers scénarios, il y en a un qui paraît plus plausible

Il s’agit de celui de la collision entre deux protoplanètes (embryons de planète) : la Terre alors âgée entre 50 et 200 millions d’années et Théia de la taille de Mars. Du choc colossal, une grande quantité de matière se serait répandu dans l’orbite terrestre avant de s’agglomérer et donner naissance à la Lune.

Cette dernière théorie permettrait d’expliquer les similitudes que partagent la Terre et la Lune, notamment au niveau des signatures isotopiques de tungstène, d’oxygène, de silicium, de titane ou encore du chrome.

Vous l’avez compris, les scientifiques ne disposent pas encore de toutes les clés pour comprendre précisément la formation du satellite naturel de la Terre. Ainsi, bien que les connaissances à son sujet aient beau s’étoffer, à travers son observation et l’analyse de ses roches rapportées du temps du programme Apollo, la Lune reste un mystère. 

Par Sébastien Tribot

Évolutions dans le domaine du photovoltaïque : une question de matériaux ?

Parmi les différentes ressources d’énergies renouvelables disponibles, l’énergie solaire a le potentiel énergétique le plus important : la quantité d’énergie solaire que la terre reçoit en une heure était en 2002 supérieure à la consommation annuelle mondiale. Cependant, aujourd’hui, l’énergie solaire représente moins de 1% de la production mondiale d’énergie contrairement aux énergies fossiles qui en constituent à elles seules 85%. Différents facteurs expliquent cette divergence : le faible rendement et le coût de production élevé des cellules solaires mais également la nécessité de stocker cette énergie intermittente.

Toutefois, plus que jamais la production de masse d’électricité à partir des cellules photovoltaïques semble à portée de main comme en témoignent de plusieurs rapports récents traitant des technologies solaires les plus prometteuses ou de l’utilisation des nanotechnologies dans les cellules photovoltaïques publié par l’un des leaders mondial pour la recherche sur les marchés internationaux et sur les données de marché. De plus, en juin 2013, le US Photovoltaic Manufacturing Consortium (PVMC), consortium industrie-universités-gouvernement pour la R&D et piloté par le secteur privé, a défini la première feuille de route sur le photovoltaïque dans le but de diminuer de 75% le coût total des dispositifs photovoltaïques au cours de la prochaine décennie. Il est intéressant de noter ici que le plan de 2011 « SunShot iniative » du Département de l’Energie (« US Department of Energy » ou DoE) a été l’un des initiateurs du PVMC.

Ainsi, la R&D sur les cellules solaires et les systèmes de stockage associés est très active aux Etats-Unis, pays leader en recherche avec près de 22% des publications mondiales dans le domaine. Cette effervescence est soutenue par des investissements privés mais également fédéraux en particulier au travers du DoE. Deux exemples de financement marquants sur l’année 2013 peuvent être cités : le « College of Nanoscale Science and Engineering Photovoltaic Manufacturing and Technology Development Facility » (CNSE MDF), Université d’Etat de New York (SUNY), à Rochester dont l’objectif est le développement de nouvelles technologies autour du silicium cristallin et le « Kavli Energy NanoSciences Institute », Université de Berkeley, Californie, dont l’objectif est l’intégration des nanotechnologies dans le domaine de l’énergie solaire.

De nombreux défis restent à relever

Les cellules photovoltaïques sont des dispositifs qui convertissent l’énergie lumineuse du soleil en électricité. Les cellules actuelles sont généralement constituées d’un empilement de fines couches de matériaux semi-conducteurs tels que le silicium, le sulfure de cadmium, ou le tellure de cadmium. Le matériau le plus utilisé reste cependant le silicium.

Lorsqu’un photon provenant du soleil rentre en contact avec une cellule photovoltaïque, il existe une certaine probabilité pour que celui-ci soit absorbé par un atome d’une couche semi-conductrice expulsant un électron de l’atome et laissant derrière un « trou. » Les électrons expulsés sont alors dirigés vers une électrode alors que les « trous », se comportant pratiquement comme une charge positive, se dirigent vers une seconde électrode. On a ainsi créé une différence de potentiel entre les deux électrodes à la manière d’une pile. Le taux de conversion de l’énergie solaire en énergie électrique des cellules photovoltaïques est toutefois relativement faible : environ 15% pour les cellules commerciales.

Le silicium, bien qu’abondant dans la nature, est un matériau coûteux à exploiter et à purifier ce qui justifie le prix élevé des panneaux photovoltaïques. De plus, le taux de conversion maximum théorique des cellules photovoltaïques à base de silicium est de 31% ce qui reste trop faible d’un point de vue économique [1]. Pour améliorer leurs rendements et réduire leurs coûts de production, il est possible d’agir sur différents facteurs. En particulier, parmi les chercheurs, il existe un certain consensus autour de l’idée que les grandes avancées dans le domaine photovoltaïque reposeront sur l’utilisation de nouveaux matériaux ou sur l’association de différents matériaux sous formes de multicouches.

Nouveaux matériaux pour les cellules photovoltaïques

Bien que le coût des panneaux photovoltaïques ait baissé de 70% au cours des 3 dernières années, la réduction du coût de production des cellules reste l’un des enjeux majeurs pour une utilisation massive des cellules solaires [6]. Ainsi, de nombreux laboratoires de recherche américains travaillent spécifiquement dans cette optique en mettant au point de nouveaux matériaux pour constituer les cellules photovoltaïques. De manière assez arbitraire, il est possible de classer ces matériaux en 3 grandes catégories : les matériaux inorganiques, les matériaux organiques et les matériaux à base de carbone.

Matériaux inorganiques

La vaste majorité des architectures des cellules photovoltaïques commerciales repose sur les propriétés des matériaux inorganiques et plus particulièrement sur les matériaux semi-conducteurs tels que le silicium ou des alliages de semi-conducteurs (tellure de cadmium, nitrure de gallium-indium…). La R&D dans ce domaine, souvent issue d’un partenariat public-privé, est importante et concerne à la fois l’amélioration de l’efficacité et/ou de la réduction des coûts de fabrication des cellules solaires. Par exemple, Bandgap Engineering, Inc. en association avec l’Institut de Technologie de Géorgie (Georgia Tech) ont annoncé en août dernier avoir amélioré le processus de fabrication des cellules solaires à base de silicium polycristallin de telle sorte que non seulement les coûts de fabrication ont été réduits mais que l’efficacité des cellules a été augmentée de 0,3% pour atteindre 16,7% (vs. 16,4% en moyenne pour des cellules commerciales). Cette performance est d’autant plus remarquable que le nouveau processus utilise des techniques d’élaboration conventionnelles. Du point de vue technologique, l’amélioration du processus provient principalement d’une réduction du coefficient de réflexion du wafer de silicium polycristallin quelle que soit l’orientation des grains de silicium et cela avec une faible diminution de l’épaisseur du wafer de silicium (moins de 1 micron).

Concernant l’élaboration des cellules photovoltaïques inorganiques, des articles récents semblent indiquer l’avènement du contrôle à l’échelle atomique dans des processus de synthèses. On peut citer, par exemple, les travaux issus de l’association de chercheurs de l’Université d’Etat de l’Arizona (ASU) et de l’Institut de Technologie de Géorgie (Georgia Tech). Les chercheurs ont développé une nouvelle approche pour faire croître des cristaux de nitrure de gallium-indium (InGaN). La méthode, développée à Georgia Tech, est appelée épitaxie modulée de métaux (« metal-modulated epitaxy ») et permet une croissance cristalline par dépôts successifs de couches atomiques. Dans le cas de la croissance cristalline de InGaN, les chercheurs ont observé une amélioration de l’uniformité en composition chimique et une réduction des tensions au sein du matériau et aux interfaces avec le substrat. Ces résultats sont très positifs car ces défauts de structure réduisent fortement l’efficacité globale des cellules solaires. Ainsi, d’après le groupe de chercheur cette technique devrait mener à moyen terme à de nouveaux records d’efficacité.

Si l’amélioration de l’efficacité des cellules solaires passe majoritairement par des efforts concernant les matériaux constituant les cellules photovoltaïques, d’autres canaux de perfectionnement sont également étudiées. L’un des canaux les plus prometteurs concerne les cellules solaires dites thermophotovoltaïques ou TPV. Les cellules solaires classiques ne peuvent convertir en électricité au mieux que 30% de l’énergie émise par le soleil (rendement maximum théorique) car seule une portion du spectre électromagnétique est absorbée par le matériau semi-conducteur de la cellule solaire. Les dispositifs thermophotovoltaïques permettent de s’affranchir de la barrière des 30% de rendement maximum théorique et de l’accroître jusqu’à 80%. Une cellule solaire TPV est constituée d’un dispositif absorbeur/émetteur et d’une cellule photovoltaïque dont le spectre d’absorption est centré dans le domaine de l’infrarouge. Le dispositif absorbeur/émetteur est constitué d’une partie, l’absorbeur, qui absorbe les rayons du soleil et les transforment en chaleur, et d’une autre partie, l’émetteur, qui sous l’effet de la chaleur produite par l’absorbeur (>1000°C) est capable d’émettre un spectre électromagnétique dans l’infrarouge. Pour le moment, les cellules solaires TPV démontrent un rendement décevant d’environ 8% dû en grande partie à la faible capacité du matériau émetteur, généralement à base de tungstène, à supporter des hautes températures sur de longues durées. Toutefois, une coopération entre des équipes de l’Université de Stanford et de l’Université de l’Illinois semble avoir fait récemment des progrès significatifs. Cette coopération a permis la création d’un émetteur amélioré constitué d’une nanostructure en 3 dimensions très poreuse à base de tungstène sur laquelle une nanocouche de céramique, le dioxyde d’hafnium, a été déposée. L’enrobage de céramique permet ainsi de conserver l’intégrité de la structure poreuse de tungstène lorsque celle-ci est chauffée à 1400°C et cela pendant une heure. De plus, l’émetteur amélioré conserve sa capacité à produire de la lumière infrarouge. Selon les chercheurs, la prochaine étape sera de tester quels sont les dépôts de céramique les mieux adaptés à une utilisation pour des cellules solaires TPV.

Matériaux organiques

Afin de diminuer les coûts de production des cellules photovoltaïques, la R&D s’est récemment dirigée vers une autre catégorie de matériaux : les matériaux organiques. Au-delà de la réduction des coûts, les cellules organiques apportent des propriétés nouvelles de transparence et de flexibilité aux panneaux photovoltaïques ce qui ouvre le champ des possibilités concernant leurs utilisations telles que sur les fenêtres ou en façade d’immeubles. Les meilleurs taux de conversion des cellules solaires organiques (6-7%) sont obtenus en utilisant des polymères. Or, un rendement minimum de 10% est nécessaire pour que les cellules solaires organiques puissent trouver leur place sur le marché.

En mars dernier, Magnolia Solar Corporation a annoncé que le PVMC a développé et produit une cellule photovoltaïque flexible avec un taux de conversion de 13%, ce qui est assez comparable aux cellules traditionnelles. Ce résultat est le fruit d’une collaboration entre Magnolia Solar, PVMC et CNSE. Leur objectif est de continuer à rendre l’énergie solaire compétitive par rapport aux autres sources d’énergie. Pour cela, Magnolia Solar poursuit ses recherches sur des technologies de revêtements antireflets pour les cellules photovoltaïques.

L’amélioration des taux de conversion pourrait également venir d’ajouts de nanoparticules métalliques au sein des cellules solaires organiques afin d’en exploiter les propriétés d’absorption plasmoniques comme en témoigne une analyse sur le domaine publiée en mai 2013 par un consortium de chercheurs américains. Les auteurs discutent de l’apport des nanostructures plasmoniques aux cellules photovoltaïques organiques du point de vue de leurs performances, notamment concernant l’élargissement de la bande d’absorption des photons et l’absorption omnidirectionnelle, mais aussi du point de vue de leur intégration dans les dispositifs finaux. Les performances sont ainsi exacerbées par l’utilisation des nanoparticules métalliques, utilisées en partie en raison de leur facilité de synthèse. De plus, il a été observé que les nanoparticules de taille inférieure à 20 nm agissent comme des antennes qui accroissent la gamme d’absorption des longueurs d’ondes de la lumière alors que les particules ayant un diamètre supérieur à 40 nm permettent d’allonger le chemin optique de la lumière à travers les couches de la cellule. D’après les auteurs, en intégrant des nanostructures plasmoniques à l’avant et à l’arrière des électrodes métalliques, il serait alors possible d’améliorer les propriétés des cellules photovoltaïques organiques mais également de franchir la barre des 10% en rendement.

Matériaux à base de carbone

Du fait de leurs propriétés physico-chimiques parfois étonnantes, le graphène et les nanotubes de carbone reçoivent une attention toute particulière dans les différentes branches de la recherche scientifique. Cela est également vrai dans la recherche concernant les cellules photovoltaïques. Plusieurs équipes américaines ont publié cette année des articles traitant de l’utilisation de ces matériaux afin d’améliorer les rendements des cellules solaires ou alors encore afin de diminuer leurs coûts de production.

A l’Université Technologique du Michigan, l’équipe du Professeur Yun Hang Hu a trouvé un moyen de diminuer les coûts de production des cellules à pigments photosensibles (cellules de Gratzel). Ils ont eu l’idée de remplacer le platine, matériau rare donc très cher, par une structure en 3 dimensions à base de graphène. Les cellules de Gratzel sont des cellules photoelectrochimiques dont le principe est basé sur la photosynthèse végétale. Elles produisent de l’énergie grâce à un pigment photosensible présent dans l’électrolyte, excité par le rayonnement solaire. Ces cellules présentent l’avantage d’être 2 fois moins chères que leurs analogues classiques à base de silicium, d’être faciles à produire, souples, transparentes mais surtout elles produisent de l’énergie même en l’absence d’ensoleillement direct. Bien que la majorité des matériaux qui composent ces cellules soient bon marchés, il est, en général difficile de se passer des matériaux précieux tels que le platine. C’est la prouesse qu’a réussi à réaliser l’équipe du Dr. Hu sans pour autant affecter le rendement du système. Pour obtenir leur graphène 3D sous forme de nid d’abeille, ils ont développé une nouvelle approche de synthèse en faisant réagir l’oxyde de lithium avec le monoxyde de carbone pour former le carbonate de lithium et le graphène sous forme de nid d’abeille 3D:

Li2 + CO à Li2CO3 + graphène 3D

Dans cette réaction, les particules de carbonate de lithium permettent la formation et la séparation les unes des autres des différentes feuilles de graphène afin d’éviter qu’elles s’agrègent. Le carbonate de lithium est ensuite éliminé facilement en présence d’acide, formant ainsi le graphène nid d’abeille 3D.

Etant donné la conductivité et la forte capacité catalytique de ce graphène 3D, les chercheurs l’ont intégré dans une cellule de Gratzel en remplacement de la contre électrode en platine et ont mesuré la quantité d’électricité produite en présence de soleil. Une conversion de 7,8% de l’énergie solaire a été observée ; taux comparable à celui obtenu par leur analogue contenant du platine. Cette découverte constitue une avancée importante dans la réduction des coûts de production des cellules de Gratzel, le graphène nid d’abeille 3D étant facile à synthétiser et peu coûteux.

De son côté, l’équipe du Professeur Ramaraja Ramasamy à l’Université de Géorgie, s’est inspiré de la nature pour mettre au point une technologie capable d’utiliser les plantes pour générer de l’électricité à partir du soleil. En effet, au cours de la photosynthèse, la plupart des plantes convertissent un photon reçu en un électron (taux de 100%). L’équipe a développé un moyen d’interrompre cette photosynthèse juste après la production des électrons. Pour cela ils ont isolé les thylacoïdes, structures des plantes responsables du stockage des électrons et donc de l’énergie, et ils ont modifié les protéines qui les constituent. Les thylacoïdes modifiés sont ensuite immobilisés sur des nanotubes de carbone qui capturent les électrons et les font circuler le long d’un fil.

Leurs premiers essais ont montré la production d’un courant 100 fois plus important que dans des systèmes similaires. L’équipe travaille aujourd’hui sur la stabilité de leur système et ils espèrent que cette technologie pourra, à terme, être appliquée à de petits dispositifs électroniques qui nécessitent peu de puissance ; et pourquoi pas concurrencer les panneaux solaires traditionnels.

Une démonstration de faisabilité de cellules solaires à base de nanotubes de carbone ultrafins et de fullerène à faibles coûts de production a été également faite par l’équipe du Dr. Michael Arnold à l’Université du Wisconsin-Madison. Cette démonstration a présenté un taux de conversion de 1% mais les auteurs pensent qu’en augmentant l’épaisseur de la couche de nanotubes de carbone de 5 nm à 100 nm, ils devraient atteindre des taux de conversion semblables à ceux des panneaux solaires à base de silicium.

De nouveaux designs de dispositifs photovoltaïques pour stocker l’électricité produite

L’utilisation d’énergie produite par les cellules solaires 24/24h et 7/7j passera par l’amélioration des dispositifs photovoltaïques permettant simultanément de créer de l’électricité et de la stocker pour pouvoir l’utiliser en l’absence de soleil. Cela revient à coupler ou intégrer un système de stockage aux cellules photovoltaïques. C’est dans cette optique que l’équipe du Professeur Cary L. Pint, à l’Université de Vanderbilt, a développé le premier supercondensateur en silicium qui peut être intégré directement sur les zones silicium non exploitées ou au dos des cellules photovoltaiques représentant ainsi une vraie économie. Le stockage se fait sous forme d’assemblages d’ions à la surface du matériau poreux permettant ainsi des charges et décharges du condensateur très rapides mais également un nombre de cycles de l’ordre de quelques millions. Ce supercondensateur se comporte comme une batterie de petite taille ce qui permet d’envisager son intégration à de petits dispositifs électroniques tels que les téléphones portables.

Afin d’accroître la capacité de stockage des supercondensateurs, la recherche s’est tournée vers des nanomatériaux, comme le graphène, capable de stocker les charges à la surface d’électrodes à forte surface spécifique. Le principal challenge ici est d’assembler les différents éléments à l’échelle nanométrique. Pour pallier à ce problème, l’équipe du Professeur Pint a fait le choix d’une approche différente en utilisant du silicium poreux nanostructuré et dont la fabrication est facilement reproductible. Pour s’affranchir de la réactivité du silicium avec certains éléments chimiques présents dans les électrolytes, ils ont recouvert le supercondensateur en silicium avec du carbone avant de le chauffer à faible température, 600-700°C. Ils ont observé la formation de graphène, ce qui était inattendu pour cette température étant donné que ce dernier croît normalement à 1400°C. Cet habillage de graphène a stabilisé chimiquement la surface du silicium évitant ainsi sa dégradation avec les électrolytes et préservant sa structure. De plus, il a permis d’augmenter la densité énergétique de stockage par un facteur 100 par rapport à l’analogue sans graphène, et de manière significative par rapport aux supercondensateurs commerciaux. Ces dispositifs semblent capables de stocker l’excès d’électricité produit durant la journée et de le relâcher lorsque cela est nécessaire, permettant ainsi d’augmenter le rendement énergétique.

De son côté, à l’Université du Wisconsin-Madison, l’équipe du Professeur Jiang a développé un nouveau design de panneaux photovoltaïques capables de produire et de stocker l’électricité dans une même cellule [19]. Ils ont été même plus loin puisse qu’ils ont également conçu une cellule pouvant être intégrée à d’autres dispositifs comme les lentilles de vue par exemple. Pour cela, ils ont proposé un nouveau design de panneaux solaires avec, en dessous de la photo-électrode traditionnelle, des nanofils d’oxyde de zinc recouverts d’une couche de polymère polyvinylidène fluoré (PVDF). Lors de la conversion de la lumière en électrons, une partie des électrons sert à alimenter un dispositif électrique et une autre partie est absorbée par le PVDF. En effet, ce polymère a une constante diélectrique suffisamment importante pour permettre le stockage de l’électricité et de la redistribuer lorsque cela est nécessaire. Le dispositif final permet à une cellule solaire standard de produire et de stocker l’électricité dans le même temps.

Leur prototype a mis en évidence un taux de conversion de 4% d’énergie solaire en électricité, ce qui reste bien inférieur aux cellules photovoltaïques commercialisées. Cependant, le Dr. Jiang pense pouvoir accroître les taux de conversion et de stockage en affinant le design de la cellule photovoltaïque.

Ces nouveaux modèles de panneaux solaires pourraient être intégrés sur les façades d’immeubles ou dans des zones avec des éclairages commandés à distance.

Source : bulletins-electroniques

Un véhicule urbain peut-il rouler en toute liberté et de façon autonome grâce à des panneaux solaires sur le toit ?

D’une part, un véhicule urbain (léger) à moteur électrique, équipé d’un dispositif de récupération d’énergie au freinage, consomme aujourd’hui entre 10 et 15 kWh d’énergie électrique aux cent kilomètres. C’est l’énergie nécessaire pour faire acquérir l’énergie cinétique nécessaire à l’engin, pour  lutter contre la réaction de pénétration dans l’air, pour assurer les déperditions par frottement tout au long de la chaîne de traction et celles de frottement et de déformation des pneumatiques au contact de la chaussée. Une part importante de l’énergie cinétique sera récupérée dans la batterie, plus tard, durant le freinage. Les modèles i-Miev de Mitsubishi Motors par exemple sont présentés avec des consommations, selon les normes japonaises, de 11 kWh aux cent kilomètres. Un prototype japonais (SIM DRIVE) équipé de moteurs « dans la roue » affiche cette consommation optimale de 10 kWh aux cent kilomètres.

D’autre part, un panneau solaire en plein soleil à midi, qui présenterait un excellent rendement de conversion proche de 23% (un très bon standard est aujourd’hui de 20%), devrait pouvoir produire près de  230 W/m2 d’électricité.

Il résulte donc que pour parcourir 100 km en une heure en plein soleil, il faudrait disposer d’une puissance électrique d’au moins 10 000 Watts pour alimenter le moteur électrique, ce qui nécessiterait donc un module solaire sur le toit du véhicule de 44 m2, sacrée voilure, qu’il faudrait traîner au moins en remorque.

Heureusement les batteries sont là pour emmagasiner l’énergie avant le départ, ce que Ford propose sur son véhicule rechargeable hybride, soit  à  l’aide d’un chargeur classique connecté au réseau électrique, soit au moyen d’un concentrateur de rayons solaires (8X) par lentille de Fresnel, sorte de catafalque sous lequel se déplace lentement et automatiquement le véhicule pour que le module solaire soit toujours dans le champ du concentrateur, quelle que soit l’inclinaison du soleil sur l’horizon.

Compte tenu du module SUNPOWER de 1,5 m2 de surface, installé sur le toit du véhicule FORD et capable de produire une puissance électrique de 300 Watts, il est possible de calculer qu’en une heure d’ensoleillement naturel,  le véhicule pourra parcourir en mode électrique entre 2 ou 3  kilomètres, selon sa consommation d’énergie aux cents kilomètres affichée. C’est toujours ça de gagné aurait dit ma Grand-Mère. Placé sous le concentrateur, en plein soleil, cette autonomie du véhicule après une charge d’une heure devrait être au moins doublée ou quintuplée. Il faudrait pour plus de précision connaître la courbe de rendement de conversion du module SUNPOWER en fonction de la puissance du flux lumineux. De toute façon, cette autonomie en mode purement électrique est limitée par la taille de la batterie installée, à 33 kilomètres affirme le constructeur. Cette faible autonomie est normale pour un véhicule hybride rechargeable qui est défini pour parcourir les petits trajets urbains en mode électrique et finir les grands trajets en mode hybride conventionnel.

  • Lire et voir l’information sur Green Car Congress, un des meilleurs sites d’information technique dans le domaine des transports.

Par Raymond Bonnaterre

Et aussi dans les
ressources documentaires :

Et pourtant, pendant ce temps, le niveau de vie moyen des terriens s’améliore

Les convictions locales que traduit  de façon la plus pertinente ce pessimisme de rigueur, semblent provenir d’un mode de pensée scientiste, proche de l’écologisme ambiant, et qui voudrait régir le mode de vie de nos contemporains à partir du concept de  finitude du monde  et d’épuisement imminent affirmé de ses ressources naturelles.

Un exemple schématique peut illustrer ce mode de pensée, c’est le concept de peak-oil vérifié à l’échelle des champs de pétrole californiens les plus anciennement exploités et qui a été improprement généralisé par certains à l’ensemble du monde, assimilé à une vaste Californie, tentant d’extraire les dernières gouttes d’hydrocarbure à l’aide de vieux derricks poussifs.

Cette vision simpliste et restrictive des ressources énergétiques de la planète, passant par zéro l’exploitation des gaz et des huiles de schistes, hostile aux biocarburants, ignorant les possibilités de substituabilité des sources d’énergie entre elles et de synthèse de combustibles liquides à partir de gaz naturel, de charbon, de biomasse ou même de CO2 (mais oui) est exemplaire de ce mouvement dirigé, malgré les apparences, plus par l’émotion que par la raison.

La ruée quasi mystique de certains pays européens (Espagne, Allemagne) vers les énergies renouvelables intermittentes subventionnées par dizaines de milliards d’euros, comme l’éolien ou le photovoltaïque, au mépris des contraintes de gestion financière des deniers de l’Etat les plus élémentaires et des règles communes de maintien d’une saine concurrence, au sein d’une économie de marché en place, illustre le caractère émotionnel de certaines décisions politiques dans ce domaine. A cela s’ajoute, dans le cas de l’Allemagne, la peur du nucléaire, ressource énergétique encore largement mise en œuvre mais qui devrait être un jour bannie de ce pays, tout en restant largement tolérée dans les pays voisins (France, Tchéquie, Suède), fournisseurs d’énergie électrique à bon-marché.

Mais à côté de ces angoisses et de ces comportements un tant-soit-peu schizophréniques, il existe une large part du monde, plutôt située autour du Pacifique, qui avance à grands pas, sans se soucier des soi-disant limites angoissantes des ressources naturelles, persuadée  qu’elle va modifier en sa faveur l’équation économique qui la concerne. Je voudrais ici présenter quelques indicateurs  qui illustrent l’avance de ce monde, très éloigné des frissons européens.

Le premier indicateur pertinent est démographique. Les projections des Nations Unies sur l’évolution des populations durant ce XXIème siècle montrent une population européenne qui se stabilise puis se contracte (FIG.I). De  740 millions de pingouins en 2010 elle devrait se retrouver vers les 640 millions à la fin du siècle dont un tiers aurait plus de 60 ans. Population vieillissante, effarée par l’évolution du monde, tombée sous le charme des théories apparemment bienveillantes du repli sur soi, de la frugalité et de la précaution. Dans un mouvement d’ensemble de pensée, où tout va de pair, du « précautionnisme » de droite au  retour vers la frugalité écologique, aux racines altermondialistes.

Les populations européennes se recroquevillent sur leurs dernières idéologies à la mode, avec bonne conscience, sans que nul ne dénonce cet air du temps de plus en plus proche de la sénilité collective. Elles ont peur de manquer mais est-ce de ressources ou d’idées ? Emotions incontrôlables de personnes âgées (aisées) qui ne comprennent plus le monde. Rappelons cependant que le Cuivre peut-être avantageusement remplacé par de l’Aluminium dans ses applications électriques courantes, que les abondantes ressources de Lithium dans le monde permettront de produire plus d’un milliard de batteries recyclables pour véhicules électriques, que les minerais des 14 terres rares sont largement répandus sur terre, mais associés à des éléments radioactifs ce qui explique leur origine aujourd’hui presque exclusivement chinoise. Le monde ne manque de rien, le ciel ne lui tombera pas sur la tête, même si l’arrangement génétique (ou épi génétique) des connexions de nos neurones d’occidentaux aisés nous persuade du contraire.

populations mondiales par grands continents depuis 1950 et projection jusqu’en 2100

figure.1 : populations mondiales par grands continents depuis 1950 et projection jusqu’en 2100

En face de cette crispation collective européenne, l’Asie connait en ce moment un profond essor économique et démographique, avec ses mauvais côtés de pollution des fleuves et de l’air qu’il faudra corriger. Le Fogg de Londres dans les années cinquante valait bien celui de Pékin d’aujourd’hui. La décision de mettre fin à la politique de l’enfant unique en Chine illustre cet optimisme ambiant et cette volonté de devenir le plus puissant pays du monde. Les grands pays asiatiques atteindront  rapidement, en quelques décennies,  un statut de pays hautement développé et se mettront, peut-être, alors, à douter à leur tour. C’est l’Afrique, forte de ses hommes et femmes et de ses ressources agricoles et intellectuelles qui devrait prendre le relai du développement mondial durant la deuxième moitié du siècle. Une condition nécessaire à cet essor africain, cependant, que les dirigeants  africains par certains excès, ne fassent pas fuir les détenteurs étrangers de  technologies et de capitaux désirant s’investir dans leur pays.

Un autre indicateur de la progression du niveau de vie moyen dans le monde me semble être la consommation d’huiles végétales, servant à l’élaboration sophistiquée et répandue, de divers plats cuisinés familiaux ou industriels.

Les productions d’huiles végétales, selon la FAO, ont atteint les 160 millions de tonnes en 2012. Ces masses ont été multipliées par huit en 50 ans grâce, entre autres,  au développement des plantations de palmier à huile. Rapportées à la population mondiale, chaque terrien consomme aujourd’hui en moyenne 25  litres d’huile par an, soit quatre fois plus qu’en 1961. (FIG.II). Bien sûr, nombreux de nos contemporains locaux abhorrent  l’huile de palme, disqualifiée par son rapide développement incompréhensible pour eux et par un marketing commercial négatif de basse moralité.

Productions mondiales moyennes annuelles d’huiles végétales en litres par habitant

figure.2 : Productions mondiales moyennes annuelles d’huiles végétales en litres par habitant

Un autre indicateur pertinent de l’accroissement du niveau de vie mondial concerne la consommation de produits dérivés du pétrole, associée aux transports individuels et collectifs, à la pétrochimie et plus largement au développement industriel.

Consommations mondiales de produits raffinés de pétrole et de biocarburants

figure 3 : Consommations mondiales de produits raffinés de pétrole et de biocarburants

La consommation mondiale de liquides dérivés du pétrole et de biocarburants, tirée par l’Asie, progresse annuellement d’un million de barils par jour. Les projections des grands organismes en charge du suivi des questions énergétiques telles que l’EIA américaine ou l’IEA de l’OCDE confirment le maintien de cette tendance pour les années à venir.

            Cette progression des consommations des produits dérivés du pétrole et de leurs ersatz explique pour une part le maintien des prix mondiaux du pétrole brut, malgré les opinions de multiples prévisionnistes qui incitent, sans succès, à jouer ces cours à la baisse. Ne croyez, surtout pas, à une baisse imminente des cours mondiaux du pétrole, même si certains boursicoteurs vous l’affirment! Le développement du monde,  la fugacité relative de la ressource qu’il faut inlassablement renouveler (en investissant pour contrer une « déplétion » annuelle de 4 à 5 millions de barils par jour), ses prix de transport onéreux, nécessitent des cours à plus de 100 dollars le baril pour en assurer une saine exploitation, surtout  pour les nappes ou les formes marginales les plus ingrates qui déterminent les cours.

            Un autre paramètre d’importance, relié au précédent,  permet d’apprécier la croissance du niveau de vie mondial. C’est l’ampleur du parc de véhicules routiers. Sur la base d’une croissance annuelle de ce parc estimée à  40 millions de véhicules en 2012 et à  41,5 millions en 2013, le parc mondial de véhicules routiers en fin  2013 peut être estimé voisin de 1, 18  milliard de véhicules. L’Asie, l’Océanie et le Moyen-Orient doivent héberger le tiers environ du total. (FIG.IV).

Pour l’IEE japonaise, le parc mondial de véhicules à moteur sur la base d’une croissance annuelle de 2,3% par an devrait atteindre les 2 milliards d’exemplaires en 2040. Cette croissance moyenne entre 2005 et 2011 ayant atteint les 3,5% selon l’OICA, il est fort probable que les deux milliards d’exemplaires seront atteints bien avant 2040.

Evolution du parc mondial de véhicules routiers (OICA) en milliard d’unités

figure.4 : Evolution du parc mondial de véhicules routiers (OICA) en milliard d’unités

 

En conclusion, les quelques exemples choisis ici de consommations d’huiles végétales, de produits pétroliers et d’évolution de l’ampleur du parc automobile mondial montrent que l’histoire du monde se poursuit (malgré sa fin annoncée hâtivement) avec un formidable basculement en cours du leadership des nations de  l’occident transatlantique de l’après-guerre vers celles des rives du Pacifique. Le monde vu du Pacifique représente très mal les peuplades européennes éloignées tout à fait en haut à gauche de la carte. C’est ainsi qu’il faut voir le monde de demain, ce qui ne peut que renforcer notre pessimisme local.

 

Portrait d’expert : Stéphane Sarrade, expert en chimie verte appliquée

Diplômé de l’ISIM, aujourd’hui Polytech Montpellier, Stéphane Sarrade a fait sa thèse en génie des procédés au Commissariat à l’énergie atomique (CEA) entre 1991 et 1994 sur les fluides supercritiques et membranes, domaine dans lequel il a réalisé la quasi-totalité de sa carrière. « Deux éléments fondamentaux de la chimie verte », explique-t-il.

Il obtient son habilitation à diriger des recherches (HDR) en 2000, et devient chef de département au CEA en 2009 puis directeur de recherche en chimie verte en 2011. « La chimie verte se définit par une conception de la chimie vue dans sa globalité, depuis le choix de la matière première jusqu’aux impacts de la réaction chimique, et non uniquement à travers celle-ci. Cette conception est au cœur des activités du CEA depuis ses origines : quelles énergies choisir, comment gérer les déchets, comment pour un maximum de matière première, avoir un minimum de contact avec les personnels ? Autant de questions concernant les radionucléides », affirme-t-il.

Depuis quatre ans, Stéphane Sarrade collabore avec Techniques de l’Ingénieur comme conseiller scientifique, recrutant des auteurs de qualité, repérant les articles à rédiger, mais aussi en formation, puisqu’il est à l’origine de la formation fluides supercritiques, proposée chez Techniques de l’Ingénieur depuis 2011.

Il est également l’auteur d’ouvrages grand public tels La chimie est-elle réellement dangereuse ? (2010, Editions le Pommier), La chimie d’une planète durable (2011, Editions le Pommier), ou encore Quelles sont les ressources de la chimie verte ? (2008, Editions EDP Sciences).

Bientôt des Français sur Mars

Coloniser Mars. Tel est l’audacieux projet de la société Mars One. Pour y arriver, l’entreprise néerlandaise doit œuvrer sur deux fronts. Le premier est évidemment technique avec la construction de l’engin qui emmènera les humains sur la planète rouge, ainsi que la mise en place des outils sur place tels que les habitats, les serres et du matériel pour fabriquer de l’eau ou de l’oxygène… Mais tout ceci resterait du seul ordre de l’exploit technique s’il n’y avait les colons. Mais y a t-il des gens assez fous pour être prêts à s’engager dans un voyage sans retour ? Car Mars One n’en fait pas un secret. Ceux qui partiront ne reviendront pas.

Aussi stupéfiant que cela puisse paraitre, ce projet de colonisation martien a séduit près de 200 000 personnes. Issues de 140 nationalités différentes, elles ont toutes répondu oui à l’appel de l’espace. Mais seules 24 d’entre elles seront retenues. Pour les sélectionner, Mars One s’intéresse à leurs capacités physiques bien sûr, psychologiques mais aussi à leur réelle motivation.  « Le défi avec 200.000 inscrits est de séparer ceux que nous pensons être capables, mentalement et physiquement, de devenir les ambassadeurs humains sur Mars, de ceux qui prennent la mission moins au sérieux »  précise Bas Lansdorp, cofondateur et PDG de Mars One.

A l’issue d’une première phase de test, il reste en lice plus d’un millier de candidats, dont vingt-deux français. Parmi eux, Florence Porcel, parfaitement lucide sur le défi qu’elle souhaite relever : « On va quand même quitter la Terre définitivement, ce qui n’a jamais été fait. Il faudra vivre en milieu clos jusqu’à notre mort, entouré de quelques dizaines de personnes. C’est un voyage sans retour, on y va pour s’installer ». Cette férue d’espace explique qu’elle se « […] sent un peu à l’étroit sur Terre depuis toujours ». Sur sa page de présentation, elle cite même Tsiolkovski : « la Terre est le berceau de l’humanité, mais on ne passe pas toute sa vie dans un berceau ».

Avant de quitter définitivement le berceau, elle devra encore se soumettre à plusieurs phases de tests pour peut-être réaliser son rêve et devenir une des premières femmes à fouler le sol de Mars. Un premier vol à vide est programmé en 2018 avant le vrai départ prévu en 2025. 

Par Audrey Loubens, journaliste scientifique

Faut-il investir dans le Bitcoin ?

Impossible de passer à côté des bitcoins. Cette monnaie virtuelle suscite un intérêt grandissant à tel point que sa valeur a été multipliée par plus de 90 en moins d’un an ! Un engouement qui alerte les banques puisque cette monnaie virtuelle n’est soumise à aucune banque centrale. Alors comment ça marche ? Les bitcoins ont été inventés par un mystérieux Satoshi Nakamoto, prétendument japonais mais dont l’identité reste secrète. Personne ne sait d’ailleurs si ce pseudonyme n’abrite pas plusieurs individus. Lancé en 2009 à l’aide d’un logiciel développé en C++ par Nakamoto, le bitcoin se veut une monnaie virtuelle indépendante de tout organisme de gestion.  Les bitcoins ont la particularité de s’auto-réguler puisque la bonne santé du système repose sur une totale transparence concernant les transactions. Tout le monde peut vérifier le nombre de bitcoins en circulation, la quantité figurant sur tel ou tel compte, ainsi que les transactions elles-mêmes. Le bitcoin est donc une monnaie publique et indépendante. La quantité totale de bitcoins en circulation est d’ailleurs limitée par son créateur à 21 millions d’unités. 

Une monnaie virtuelle pour des achats réels

Les bitcoins permettent d’acheter des produits comme n’importe quelle monnaie. Pour en obtenir, il faut passer par une plateforme de change qui convertit l’argent en bitcoins, ou vendre un bien à un détenteur de bitcoins.  Les bitcoins se « matérialisent » par une suite de chiffres et de lettres. Une fois vos bitcoins en poche, ou plutôt dans votre porte-monnaie virtuel, vous pourrez vous-même utiliser cet argent pour divers achats. De nombreux sites internet acceptent les bitcoins, des enseignes de matériel informatique, de vêtements, de cosmétiques ou encore de jouets. Ebay réfléchit actuellement à autoriser le paiement en bitcoins. Preuve supplémentaire de l’essor des bitcoins, la première borne physique de change a été installée au Canada et une université chypriote a annoncé accepter que les frais de scolarité soient réglés en bitcoins.

Les bitcoins soupçonnés de blanchir de l’argent

Si les transactions en bitcoins sont accessibles à tous, l’identité des acteurs reste confidentielle. Une discrétion séduisante pour des gens malhonnêtes. Les bitcoins seraient ainsi devenus une façon de blanchir de l’argent sale. De plus, il s’agit d’une monnaie spéculative. Certains avancent que la moitié des bitcoins serait détenue par moins de mille individus.

Une monnaie volatile

Le bitcoin n’est décidément pas une monnaie banale. Sa valeur est variable et dépend de l’usage économique qui en est fait. Son cours est totalement libre. En février 2011, un bitcoin valait 4.15€. En décembre 2013, sa valeur atteint 355€ ! L’explosion du cours et ses brusques variations témoignent d’une très grande volatilité. Dernier bouleversement en date, un mini-krach mi-décembre 2013 qui a vu dévisser la valeur du bitcoin de 50% en quelques heures. En cause, des mesures visant à empêcher les transactions avec cette monnaie en Chine, premier marché mondial du bitcoin. De son côté, la Banque de France  alerte les usagers face aux dangers du bitcoin, dénonçant le fait que «  La valeur du bitcoin n’est adossée à aucune activité réelle». Une inquiétude partagée par la Réserve fédérale américaine qualifiant l’essor du bitcoin de « bulle ».

Pour en savoir plus sur les bitcoins : bitcoin.fr

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

Polynésie française : 50% d’électricité d’origine renouvelable dès 2020

Peuplée de 268 000 habitants, la Polynésie française est composée de cinq archipels totalisant 118 îles, et est séparée de l’Australie par 6000 kilomètres d’océan et du continent américain par 7500 kilomètres. L’électricité est aujourd’hui aux trois quarts d’origine thermique, et compte-tenu de l’éloignement géographique, importer des hydrocarbures pour alimenter les petites unités de production électrique réparties sur les 67 îles habitées coûte cher. Le prix de l’électricité en Polynésie peut monter jusqu’à 50 centimes le kWh.  Dans ce contexte, s’orienter vers l’exploitation du large potentiel éoliensolairehydroélectrique et houlomoteur de ces îles a non seulement du sens d’un point de vue environnemental mais aussi économique.

Le Président de cette collectivité d’outre-mer, Gaston Flosse, a promulgué le 23 décembre 2013 à Papeete, chef-lieu de la Polynésie sur l’île de Tahiti, la loi relative aux principes directeurs de la politique énergétique de la Polynésie française.  « La présente loi du pays vise à favoriser un approvisionnement énergétique de la Polynésie française suffisant, diversifié, sûr, économique et compatible avec les impératifs de la protection de l’environnement. » 

L’Autonomie énergétique comme fil conducteur

Cette Loi a comme objectif « de contribuer à l’autonomie énergétique de la Polynésie française » et  « d’encourager le recours aux énergies renouvelables ». Mais aussi « de favoriser une plus grande transparence des coûts de l’énergie » et « de permettre le pluralisme des opérateurs dans le secteur de l’énergie ». 

L’engagement en faveur des énergies vraiment renouvelables est sans ambigüité : « Il est fixé un objectif minimum de 50 % de production électrique issue de l’exploitation des énergies renouvelables à échéance 2020 sur l’ensemble de la Polynésie française ». Les énergies fossiles deviennent hors-la-Loi, étant donné que « tout projet de construction d’une nouvelle installation recourant aux énergies fossiles est interdit sauf à démontrer que le recours à une installation productrice d’énergie renouvelable est impossible dans des conditions économiques ou techniques soutenables. »

Une technologie innovante de climatisation à base d’eau de mer 

En milieu tropical le poste climatisation s’élève à environ 40 % sur la facture électrique globale. Afin de réduire ce coût un système innovant a été testé avec succès en Polynésie, le « Sea water air conditioning » (SWAC),  ou climatisation à l’eau de mer naturellement froide. Afin qu’elle soit bien fraîche, l’eau de mer est pompée à plus de 900 mètres de profondeur. 

Il s’agit d’une première à l’échelle mondiale. Installé à l’hôtel Intercontinental de Bora Bora en 2006, et un second SWAC est actuellement en phase de finalisation à l’hôtel Brando de Tetiaroa. Le système permet de réaliser entre 70 et 90% d’économie sur la facture climatisation.  Un projet de SWAC est actuellement en cours pour climatiser le Centre Hospitalier de Polynésie Française (500 lits). 

La Polynésie montre ainsi que réduire la consommation électrique sans sacrifier le niveau de confort est possible.

Une dynamique qui prend de l’ampleur

La Polynésie n’est pas la seule collectivité territoriale française insulaire à s’engager en faveur d’un avenir énergétique durable. Suivant l’exemple de l’île japonaise d’Okinawa, EDF SEI (Systèmes Electriques Insulaires) installe actuellement en Guadeloupe, dans les Antilles françaises, une station de pompage-turbinage (STEP) à eau de mer qui permettra de gérer la nature fluctuante de l’éolien et du solaire.  

Le tiers  de l’électricité de l’île de la Réunion, dans l’océan indien, provient dès à présent des énergies renouvelables. Une méga-batterie sodium-soufre d’1 MW a été installée sur l’île volcanique en 2010 par EDF SEI. Les installations hydroélectriques modulables ont également été renforcées. Tout comme la Polynésie française, La Réunion pourrait atteindre l’indépendance électrique dès 2030. 

Olivier Daniélo 

Comment quintupler la durée de vie ?

Le premier mécanisme étudié concerne la cible de la rapamycine (mTOR), une enzyme impliquée dans la vie des cellules, leur prolifération, leur croissance, leur mobilité mais aussi leur survie. En imposant une mutation génétique dans la voie métabolique de cette enzyme, l’espérance de vie du ver de terre a été accrue de 30%. Un résultat déjà très encourageant.

Le deuxième mécanisme analysé par les scientifiques californiens touche à la sécrétion d’insuline. En modifiant ce mécanisme, la durée de vie des Caenorhabditis elegans a augmenté de 100% ! Encore mieux que la modification de la voie métabolique de la mTOR.

 Mais le plus étonnant a été lorsque l’équipe Buck Institute of Age Research a combiné les deux approches. « Les deux mutations génétiques ont créé une boucle bénéfique au sein de tissus spécifiques, amplifiant l’espérance de vie. » s’enthousiasme le Docteur Pankaj Kapahi, co-auteur de l’étude. Ces vers de seulement un millimètre d’épaisseur ont alors vu leur espérance de vie multipliée par cinq. Le fait que ces deux mécanismes se combinent ainsi tend à expliquer que l’espérance de vie dépend de nombreux facteurs. Ces derniers semblent donc avoir  la capacité de s’amplifier les uns les autres ou, pourquoi pas, de s’annihiler.  « Il est très probable que les interactions entre ces gènes soient très actives chez les personnes assez chanceuses pour vivre une longue vie en bonne santé », résume Pankaj Kapahi. 

Ces résultats sont-ils le prélude à des hommes vivant jusqu’à 500 ans ? Le casse-tête du système de retraite n’est pas prêt d’être résolu… 

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

REACH : les news du mois de décembre 2/2

Nouvelles substances extrêmement préoccupantes (SVHC)

16/12/2013

La liste des substances extrêmement préoccupantes a été mise à jour avec l’ajout de 7 nouvelles substances : 

  • Cadmium sulphide (N° CAS : 1306-23-6 et N° CE : 215-147-8)
  • Disodium 3,3′-[[1,1′-biphenyl]-4,4′-diylbis(azo)]bis(4-aminonaphthalene-1-sulphonate) (C.I. Direct Red 28) (N° CAS : 573-58-0et N° CE : 209-358-4)
  • Disodium 4-amino-3-[[4′-[(2,4-diaminophenyl)azo][1,1′-biphenyl]-4-yl]azo] -5-hydroxy-6-(phenylazo)naphthalene-2,7-disulphonate (C.I. Direct Black 38) (N° CAS : 1937-37-7 et N° CE : 217-710-3)
  • Dihexylphthalate(N° CAS : 84-75-3 et N° CE : 201-559-5)
  • Imidazolidine-2-thione (2-imidazoline-2-thiol) (N° CAS : 96-45-7 et N° CE : 202-506-9)
  • Lead di(acetate) (N° CAS : 301-04-2 et N° CE : 206-104-4)
  • Trixylyl phosphate (N° CAS : 25155-23-1 et N° CE : 246-677-8)

Les producteurs et les importateurs d’articles contenant l’une de ces sept substances ont six mois pour notifier à l’Echa si la substance est présente dans des articles dans des quantités supérieures à une tonne par an et dans une concentration supérieure à 0,1%.

 

 

Nouveau document sur les biocides

17/12/2013

L’ECHA a publié un nouveau document sur les biocides. Ce guide fournit des conseils techniques sur la façon d’effectuer l’évaluation des risques et de l’exposition et la caractérisation des risques pour les substances actives et les produits biocides.

Nouvelle proposition de restriction et consultation sur un avis du SEAC

17/12/2013

L’ECHA a lancé une proposition de restriction pour le cadmium et ses composés (dans la peinture) (N° CAS : 7440-43-9 et N° CE : 231-152-8). Les commentaires sont à soumettre avant le 17 juin 2014. 

Le SEAC (Comité des analyses socio-économiques) a rendu un avis sur une proposition de restriction du plomb et de ses composés (N° CAS : 7439-92-1 et N° CE : 231-100-4). Les commentaires sur cet avis sont à soumettre avant le 14 février 2014.

Plus d’informations sur : http://www.echa.europa.eu/restrictions-under-consideration

Consultation publique pour une nouvelle proposition de substitution de substance

17/12/2013

L’ECHA a lancé une consultation publique pour une nouvelle proposition de substitution de substance dans le cadre du règlement REACH. La substance concernée est le Glutaraldehyde (N° CAS : 111-30-8 et N° CE : 203-856-5). Les commentaires sont à soumettre avant le 15 février 2014.

Une autre proposition avait été lancée pour le Dinotefuran  (N° CAS : 165252-70-0). Les commentaires sont à soumettre avant le 28 janvier 2014.

Consultation publique pour des classifications et étiquetages harmonisés

18/12/2013

L’ECHA a lancé une consultation pour l’harmonisation et l’étiquetage harmonisé 10 nouvelles substances. Les parties intéressées sont invitées à soumettre leur commentaire sur le site de l’ECHA, et ce avant le 3 février 2014.

Nouvelle consultation pour éviter les tests sur les animaux

19/12/2013

L’ECHA a lancé un appel visant à collecter des informations sur une nouvelle substance pour éviter les tests inutiles sur les animaux. Les informations relatives à la réaction du butane-2 ,2-diyle et du dihydroperoxyde de di-sec-butylhexaoxidane sont à soumettre pour le 3 février 2014.

Nouvelle fiche sur la notion de sous-traitant

19/12/2013

Une nouvelle fiche (en anglais) de l’ECHA vient de paraître. Elle explique le concept de sous-traitant et ses responsabilités selon le règlement REACH.

Cette notion était préalablement traitée en français dans un document rédigé par les autorités compétentes en 2008 (http://www.ineris.fr/reach-admin/file_upload/File/pdf/FAQ/REACH_procedures%20ecritesV1.pdf).

Sentir le danger, au sens propre comme au figuré

« Sentir le danger »… est-il possible que, derrière l’expression populaire, se cache une certaine forme de vérité scientifique ? Il était jusqu’à présent communément admis que l’on pouvait être effrayé par une odeur – comme celle, caractéristique, du tétrahydrothiophène, pour déceler d’éventuelles fuites de gaz – uniquement après que l’information soit traitée par notre cerveau. Pourtant, un groupe de scientifiques de l’université Rutgers, dans le New-Jersey, a fait une découverte pour le moins surprenante : en étudiant le fonctionnement du système olfactif d’un panel de souris, les chercheurs se sont rendus compte que la réaction de peur pouvait arriver au niveau sensoriel, au tout début de la chaîne de perception, avant même que le cerveau n’ait l’opportunité d’associer odeur… et danger potentiel.

L’étude, publiée dans le magazine Science, laisse entendre que « l’apprentissage de la peur » n’impliquerait pas uniquement certaines zones du cerveau, mais que le système nerveux pouvait être extrêmement sensible aux stimuli menaçants, et que cet apprentissage pouvait « affecter les signaux allant des organes sensoriels aux aires du cerveau concernées », selon John McGann, professeur en neurobiologie comportementale et en neurobiologie des systèmes à l’université Rutgers.

John McGann, épaulés par Marley Kass et Michelle Rosenthal, toutes deux étudiantes, sont parvenus à leurs fins en conditionnant un premier groupe de souris, associant systématiquement une odeur spécifique à un choc électrique à la patte. À la grande surprise des neurobiologistes, cette odeur pouvait engendrer chez les individus du groupe de souris conditionnées une réponse jusqu’à quatre fois plus intense des neurones olfactifs, avant même que le message ne soit acheminé aux neurones du cortex cérébral.

L’observation fut rendue possible en se ménageant un minuscule hublot d’observation percé… dans le crane des petits rongeurs, sous anesthésie. Les souris étaient génétiquement modifiées, afin de permettre aux neurones olfactifs de synthétiser un composé nommé synapto-pHluorine, ayant la propriété de s’accrocher aux vésicules renfermant les neurotransmetteurs et de devenir fluorescent lorsqu’il est relâché dans une synapse, comme l’explique le journaliste Guillaume Jacquemont. « Ainsi, plus les neurones olfactifs envoient d’influx, plus le nombre de neurotransmetteurs relâchés est grand et plus la fluorescence observée dans le bulbe olfactif est importante », ajoute-t-il.

Cette étude nous donne quelques pistes sur l’influence des souvenirs traumatisants sur nos sens, souvenirs allant jusqu’à modifier le fonctionnement des neurones sensoriels, décloisonnant ainsi le siège de la peur du seul cerveau. Elle pourrait également nous aider à mieux comprendre les mécanismes impliqués dans certains troubles de l’anxiété, comme les stress post-traumatiques, où le sentiment de peur et d’appréhension subsiste bien que le danger ne soit plus présent. En première ligne, ces stress post-traumatiques vécus par certains soldats de retour de mission, qui peuvent être déclenchés par le bruit pétaradant ou l’odeur d’un pot d’échappement.

Prochaine étape : déterminer si le processus de conditionnement rendant les souris hypersensibles à certaines odeurs « menaçantes » peut être inversé, ce qui pourrait constituer un premier pas vers de nouveaux traitements thérapeutiques de la peur et des troubles de l’anxiété.

Par Moonzur Rahman

Entretien avec Daniel Hubert, auteur de Transmission de puissance pneumatique, chez Techniques de l’Ingénieur.

daniel hubertTechniques de l’Ingénieur : Daniel Hubert, vous venez de rédiger l’article Transmission de puissance pneumatique : Caractérisation en débit des composants pneumatiques, chez Techniques de l’Ingénieur. A quel besoin répond-il ?

Daniel Hubert : Il accompagne la lecture et aide à la compréhension de la nouvelle série de  normes ISO 6368 dont les première et seconde parties sont entrée en vigueur à l’été 2013, et dont la troisième partie doit suivre à l’été 2014, en un langage plus accessible, et un rappel des définitions de base, les normalisateurs n’étant pas particulièrement didactiques. L’objectif de cet article est donc de replacer cette nouvelle norme dans son contexte théorique.

Techniques de l’Ingénieur : Que change cette norme ISO 6368 ?

Daniel Hubert : Elle met en accord les mesures de caractérisation en débit des composants avec les lois de la thermodynamique et les lois d’écoulements des fluides compressibles.

Ce n’était pas le cas jusqu’alors, et était problématique, puisque nous avions des références métrologiques variables selon que l’on parle de pression totale ou de pression statique.

Techniques de l’Ingénieur : Concrètement, quelles nouveautés intègre la norme ISO 6368 et donc l’article ? Et à qui s’adresse-t-il ?

Daniel Hubert : Des nouvelles méthodes de mesure y sont proposées. Auparavant, la méthode utilisée était celle de la caractérisation « continue », qui prenait entre deux et quatre heures, et consommait beaucoup d’air comprimée. Aujourd’hui, via cette norme, sont proposées des méthodes dite de caractérisation dynamiques, c’est-à-dire par charge et décharge de capacité isotherme, qui non seulement consomme beaucoup moins d’air comprimé, mais ne prennent que 20 minutes environ.

En outre cette norme propose un modèle de caractérisation des composants beaucoup plus complet, l’article explique et valide donc les origines de ce modèle enrichi, au travers d’exemples de mesures concrets, et démontre l’importance des références métrologiques adoptées.

Ces norme et article permettent donc un meilleur choix des composants pneumatiques, et un dimensionnement au plus juste de ceux-ci. Mais aussi d’alimenter des bases de données de caractéristiques normalisées, pour une simulation des circuits précise et plus juste.

En un mot ils participent à l’optimisation de la consommation énergétique pneumatique.

L’article s’adresse donc en premier lieu  aux fabricants de composants pneumatiques ou de vannes pour fluides compressibles, mais également aux utilisateurs de ces produits, autant dire quasiment à toutes les industries.

L’onde de choc des gaz de schistes américains se répercute jusqu’en Russie

Il est bien connu aujourd’hui que le pétrolier français Total et le russe Gazprom, partenaires du projet Shtokman destiné à exploiter un très grand champ gazier offshore situé en Mer de Barents, au large de Mourmansk, se posent des questions sur la rentabilité et la viabilité du projet.

Le projet en question devait initialement desservir le réseau de gazoduc russe prolongé vers l’Europe (vers l’Allemagne puis, plus-tard,  au-delà,  vers la Grande-Bretagne) par la branche NordStream passant sous la Mer Baltique (FIG.I) mais il devait aussi, grâce à une unité de liquéfaction du gaz, située sur la côte russe, livrer en GNL (gaz naturel liquéfié) les ports d’accueil des Etats-Unis. 

La profusion de gaz de schistes découverts et exploités depuis sur le Continent Nord-Américain rend bien entendu, cette deuxième part du  projet russe, faute de demande, complètement caduque. Devant les difficultés rencontrées, après le départ de Statoil,  les autorités russes posent même publiquement la question de la pérennité de l’adhésion du pétrolier français Total à ce projet.

 

Situation du projet Shtokman dans le réseau de gazoduc russe et nord-européen 

 

Mais je voudrais montrer ici que cet évènement énergétique majeur que constitue  la découverte des gaz de schistes américains se répercute également sur le commerce russe de pétrole.

En effet, l’afflux de condensats légers de gaz de schistes américains vers les raffineries du Golfe du Mexique a fortement réduit durant ces derniers mois (FIG.II) les importations américaines en pétrole léger provenant d’Afrique du Nord (Algérie, Lybie) ou de l’Ouest (Nigeria, Angola, etc.).

Ces importations en 2013 qui s’élèvent autour des 700 mille barils par jour, ont été divisées par trois par rapport à celles qui prévalaient en 2006, 2007 et 2008.  

Remarque : contrairement aux idées en vogue de soi-disant « indépendance énergétique », les Etats-Unis importent toujours la moitié du pétrole brut qui alimente leurs raffineries, en particulier en fractions lourdes de pétrole en provenance, entre-autres, des champs d’huiles lourdes de l’Orénoque ou des sables bitumineux canadiens. Ces produits sont indispensables aux raffineries américaines pour produire du bon gazole qu’elles exportent à bon prix (pour elles) vers l’Europe et le marché mondial.

 

 Importations par les Etats-Unis de pétrole et autres produits pétroliers en provenance de l’Afrique du Nord et de l’Ouest 

 

Ce  pétrole léger africain, maintenant dédaigné par les Etats-Unis, doit être exporté vers d’autres contrées asiatiques (Chine, Inde) mais aussi vers l’Europe comme en attestent les statistiques des Douanes françaises. 

Sous la rubrique 27090090, « huiles brutes de pétroles ou de produits bitumineux (à l’exclusion des condensats de gaz naturel) » les douanes nous indiquent que les importations françaises en provenance de l’Afrique sont passées respectivement entre 2012 et les douze derniers mois à Octobre 2013 de 19,9 millions de tonnes à 21,1 millions de tonnes (+5,7%) alors que celles en provenance de Russie ont fortement  régressé de 24% avec passage durant les mêmes périodes de 8,2 millions de tonnes à 6,2 millions de tonnes,  tout ceci à importations totales de la France légèrement décroissantes de 1,1% entre les deux périodes (56,9 millions de tonnes en 2012 et 56,3 millions de tonnes sur les 12 derniers mois). 

Durant ces derniers mois, les baisses significatives des importations de pétrole et produits pétroliers en provenance de Russie ont assuré la légère décroissance des importations françaises et surtout l’embellie des importations en provenance d’Afrique.

Par un jeu à plusieurs bandes dans lequel il faudrait aussi impliquer, en toute rigueur, les produits raffinés tels que le gazole, il semblerait que la saturation en pétrole, issus des gaz de schistes, des raffineries du Golfe du Mexique entraîne une baisse des exportations de pétrole russe vers certains pays européens.

 Rappelons que, pour en préciser les enjeux économiques,  la France a importé sur les douze derniers mois à Octobre 2013 pour 35 milliards d’euros de pétrole brut, 17 milliards de produits raffinés du pétrole et 15 milliards de gaz naturel. 

C’est un très bon client, constant dans ses consommations énergétiques,  pour certains grands pays producteurs. 

Il y a là de toute évidence un point de faiblesse majeur récurrent pour la santé économique de la France qui ne sait pas faire revenir tous les pétrodollars dépensés et ainsi équilibrer les échanges commerciaux par des ventes en retour de biens ou de services, ce dont les médias parlent peu. 

Un des objectifs de cette rubrique est d’attirer l’attention de nos contemporains sur ce problème trivial qui altère la compétitivité de l’économie française qui consomme trop et ne produit pas assez. 

C’est dans ce cadre objectif là qu’il faudrait, à tout prix, placer les débats sur les grands choix énergétiques de notre pays que sont le développement industriel des biocarburants, des biotechnologies ou l’exploration des gaz de schistes par exemple. L’objectivité du débat public afficherait alors sa primauté sur les passions, les peurs et autres arcanes politiques.

Par Raymond Bonnaterre

Et aussi dans les
ressources documentaires :

News environnement : décembre 2013

Comment limiter les vibrations des éoliennes

Les vibrations malmènent particulièrement les installations éoliennes, ce qui peut poser des problèmes de sécurité. A l’aide d’expériences sur une éolienne de taille réduite, l’Institut Fraunhofer de durabilité des structures et de fiabilité des systèmes (LBF) de Darmstadt (Hesse) a lancé un nouveau projet. Celui-ci vise à rendre la fabrication des éoliennes plus sûre. Pour cela, les vibrations d’une installation vont être analysées pour déterminer les solutions pouvant les réduire de la façon la plus efficace possible. Une des mesures étudiées introduira, à l’aide d’un actionneur, des forces supplémentaires pour compenser la présence des vibrations dans une structure. Ces mesures pourraient prolonger la durée de vie des éoliennes. Un objectif déclaré supplémentaire est l’augmentation des intervalles d’inspection et d’entretien, ce qui pourrait conduire en particulier pour les parcs éoliens offshore à d’importantes économies de coûts.

Afin de continuer à développer les technologies de minimisation active et passive des vibrations déjà mises en oeuvre dans ce nouveau domaine de l’éolien, l’Institut Fraunhofer LBF a installé une petite éolienne sur l’un de ses bâtiments. Dans une première étape du projet, les scientifiques vont mener une analyse modale expérimentale (EMA) sur l’éolienne. Celle-ci sera munie de 20 capteurs tridimensionnels et sera mise en vibration par une force déterminée dans diverses positions. L’interprétation des résultats à l’aide d’un modèle numérique permettra de connaître le comportement dynamique de l’éolienne soumise à une charge prédéterminée.

Dans un deuxième temps, un capteur d’accélération va être placé au sommet du mât afin de mesurer l’amplitude des vibrations du mât sur une longue durée pendant le fonctionnement. De là, l’excitation due au vent sera déterminée à différentes vitesses de vent et de rotor. A partir de ces résultats, les chercheurs pourront tirer des conclusions sur la façon dont un actionneur doit être dimensionné afin d’introduire suffisamment de force corrective pour réduire les vibrations dans la structure. L’objectif est de construire et tester un tel actionneur.

Les vibrations ayant lieu dans les éoliennes agissent également sur l’environnement sous forme acoustique. Avec l’aide d’un système auxiliaire, on pourrait réduire considérablement ces vibrations indésirables, espèrent les chercheurs. A long terme, les connaissances acquises grâce à cette petite éolienne pourraient ainsi fournir des informations utiles pour l’utilisation de ces systèmes dans les grandes éoliennes.

Source : bulletins-electroniques

 

 

Ecouter les icebergs pour suivre leur dérive

Ecouter les sons émis par des icebergs pour suivre leur déplacement, c’est l’idée originale développée par des chercheurs de l’université de Delft et publiée dans la revue scientifique Geophysical Research Letters

Avec les séismes, les volcans sous-marins et les chants de baleines, les océans sont loin d’être des espaces silencieux. Le travail du Dr. Laslo Evers de l’université technologique de Delft (faculté d’ingénierie civile et de géosciences) et de l’institut royal néerlandais de météorologie (Koninklijk Nederlands Meteorologisch Instituut, KNMI) [3], consiste à déterminer d’où proviennent ces sons sous-marins et notamment l’application du Traité d’Interdiction Complète des Essais Nucléaires (TICEN ou CTBT en anglais, Comprehensive Test Ban Treaty). C’est en écoutant les sons enregistrés par un vaste réseau de stations hydroacoustiques disséminées dans l’océan Indien pendant les douze dernières années, Laslo Evers et sa collègue Mirjam Snellen de l’université de Delft, ainsi que deux autres scientifiques anglais et australien ont découvert des sons émis par des objets mobiles de grande taille. En croisant ces données avec des images satellites, ils se sont rendus compte qu’ils écoutaient en fait le bruit d’icebergs craquer et se désintégrer au fur et à mesure de leur migration dans les eaux plus chaudes du nord-est de l’océan Indien.

C’est lorsque l’équipe de chercheurs a décidé de suivre deux de ces icebergs (surnommés C20 et B17B) qu’ils se sont aperçus qu’en les « écoutant », ils étaient capables de suivre leurs trajectoires de façon plus précise que ne le peuvent les satellites. D’autre part, ils ont également pu identifier et suivre la piste des morceaux d’icebergs qui s’étaient détachés ; ces derniers étant trop petits pour pouvoir être suivis par satellite mais encore assez gros pour être une menace pour les bateaux.

Suite à la publication des ses travaux, le Dr. Evers souhaite désormais développer et améliorer cette nouvelle méthode. « Avec l’hydroacoustique, nous ne sommes jamais gênés par les nuages ou les tempêtes contrairement à l’imagerie satellite », déclare-t-il. « Désormais, nous voulons savoir s’il est possible de déterminer précisément la taille des icebergs en fonction des sons qu’ils émettent. Il serait aussi intéressant d’enregistrer les sons produit par les nappes de glace qui entourent l’Antarctique pour déterminer si elles fondent d’années en années. Evidemment, ces phénomènes sont déjà suivis par satellite, mais il serait bon d’effectuer une évaluation indépendante. »

Source : bulletins-electroniques

Efficacité des cellules photovoltaïques en pérovskite, un comportement enfin disséqué et expliqué

L’énergie photovoltaïque est une des énergies renouvelables d’avenir dont l’utilisation grand public est déjà effective, mais dont la rentabilité reste toujours un frein au développement. Parmi les axes d’évolution pour remédier à ce problème, on peut augmenter le rendement énergétique ou utiliser des matériaux ou procédés de fabrication moins coûteux. Une alternative, au silicium notamment, est d’utiliser du pérovskite qui est reconnu comme un matériau remarquable pour son rendement lors de la conversion photovoltaïque. Mais jusqu’à maintenant, les raisons de son efficacité restaient inconnues : ce n’est plus le cas grâce aux recherches menées à NTU, notamment grâce au Dr. Nripan Mathews, supporté dès 2006 par le programme « PHC Merlion PhD » du service de coopération scientifique de l’Ambassade de France.

Un haut rendement expliqué

Suite à la découverte de ce haut rendement du pérovskite, une course s’est engagée entre plusieurs unités de recherche afin de découvrir le mécanisme derrière ce phénomène. Une équipe de huit chercheurs menée par Sum Tze Chien et Nripan Mathews de la NTU – School of Physical and Mathematical Sciences a travaillé durant six mois pour mettre à jour le phénomène physique derrière le rendement du pérovskite, et le publier le 18 octobre 2013 dans Science. Ce travail a été effectué en collaboration étroite avec Michael Gratzel, co-auteur, visiting professor à NTU et basé à l’Ecole Polytechnique Fédérale de Lausanne. Ce dernier détient le record du plus haut rendement de cellules photovoltaïques composées de pérovskite : 15%, à comparer avec un rendement autour de 20% sur le marché public actuel.

Selon Sum Tze Chien, cette découverte n’a été possible que grâce aux équipements de pointe dont dispose NTU : « Lors de nos recherches, nous avons utilisé des lasers ultrarapides pour étudier les matériaux pérovskites. Nous avons pu suivre la vitesse à laquelle ces matériaux réagissent à la lumière sur un quadrillion de seconde (environ 100 milliards de fois plus vite qu’un flash de l’appareil) ». « Nous avons découvert que dans ces matériaux pérovskites, les électrons générés dans la matière par la lumière du soleil peuvent se déplacer assez loin. Cela va nous permettre de faire des cellules photovoltaïques plus épaisses qui absorbent plus de lumière et donc qui produisent plus d’électricité. « 

Un coût divisé par cinq à exploiter

L’objectif est désormais d’utiliser ces nouvelles connaissances pour améliorer le rendement et ainsi d’atteindre le même que celui des cellules sur le marché, voire de le dépasser. Les chercheurs travaillent désormais avec les scientifiques de ERI@N, en collaboration avec l’entreprise australienne Dyesol [5], afin de fabriquer des prototypes de cellules à base de pérovskite.

En effet, le grand intérêt pour l’industrie est la prédisposition du pérovskite à se cristaller, ce qui permet l’utilisation de procédés de fabrication simples et donc une estimation du coût de fabrication divisé par cinq de ce type de cellules ! De plus, son intégration dans l’urbanisme moderne est très prometteuse comme l’explique le Dr Subodh Mhaisalkar, Directeur exécutif de ERI@N : « Les cellules photovoltaïques à base de pérovskite ont le potentiel d’atteindre l’efficacité des cellules solaires de 20%, et un autre grand avantage de ces matériaux est la capacité à obtenir différentes couleurs translucides, comme le rouge, le jaune ou le brun. Avoir un tel verre coloré et photovoltaïque créera de nouvelles possibilités pour la conception architecturale ».

Une fois encore, ce travail prouve l’efficacité de Singapour à accompagner la recherche puisque le projet a été financé par NTU et la National Research Foundation, et est déjà dans le processus de transfert technologique. Selon Dr. Nripan Mathews, que l’Institut Français de Singapour (IFS) a récemment rencontré, c’est un bel exemple de la manière dont l’investissement dans la recherche fondamentale permet les avancées significatives dans les sciences appliquées. Ce dernier est désormais directeur de recherche du Singapore-Berkeley Research Initiative for Sustainable Energy NRF CREATE programme et remercie chaleureusement l’IFS pour la bourse PHC – Merlion PhD 2006 [8] qui avait financé ses études entre Singapour et la France au sein de l’Institut Parisien de Chimie Moléculaire.

Source : bulletins-electroniques

News Informatique : décembre 2013

Vers des ordinateurs qui fonctionnent comme le cerveau humain ?

Des équipes de chercheurs travaillent sur une future génération d’ordinateurs fonctionnant comme notre cerveau. Il faudra attendre encore plusieurs dizaines d’années avant de voir apparaître des prototypes mais les chercheurs ont déjà développé un neurone artificiel.

Une équipe de chercheurs du Tokyo’s Institute of Industrial Science travaille au développement d’un concept appelé neuro-computer : un ordinateur basé sur le fonctionnement des cellules du cerveau humain. Cette équipe a récemment créé des circuits électriques qui fonctionnent comme des neurones du cerveau et a réussi à simuler les battements du coeur d’une sangsue en connectant deux de ces circuits. Cette simulation ne requière qu’une simple structure de neurones mais ceci n’est que la première étape de l’objectif de l’équipe : créer un ordinateur fonctionnant comme le cerveau et capable d’apprendre par lui-même.

Le cerveau humain d’un adulte est composé d’une centaine de milliards de neurones. Ces neurones traitent la mémoire et les fonctions cognitives en se transmettant des signaux à l’aide de millions de connections. L’équipe de chercheurs a pour objectif de créer des fonctions semblables à celles du cerveau en connectant plusieurs circuits électriques pour former un réseau de neurones. Le professeur Takashi Kohno, qui dirige l’équipe, ajoute que si leurs travaux aboutissent comme ils l’espèrent, cela permettra d’avancer sur la compréhension des mécanismes du cerveau et, ainsi, comprendre les émotions et pouvoir traiter les maladies comme la dépression.

La puce électronique développée mesure 2cm carré et son coeur contient un circuit intégré, créé spécialement par l’équipe, composé de transistors, de capacités et de circuits analogiques. Contrairement aux circuits digitaux traitant les signaux électriques comme des états 0 ou 1, les circuits analogiques traitent les signaux électriques en continu selon leur puissance. L’amplitude du signal de sortie de la puce électronique peut varier en fonction de l’entrée. Ces circuits permettent ainsi un traitement du signal se rapprochant de celui effectué par les neurones dans notre cerveau.

L’équipe planifie de connecter plusieurs de ces circuits pour créer un réseau de neurones artificiels. L’objectif est d’atteindre 100 circuits interconnectés sur une puce de 1cm carré dans les 5 années à venir, puis 100,000 circuits dans 10 ans.

Source : bulletins-electroniques

Un appareil de détection des attaques électromagnétiques

La conférence sur la sécurité du futur qui s’est tenue en septembre 2013 à Berlin [1] a mis en évidence les attaques électromagnétiques comme étant un danger réel pour les entreprises et les institutions publiques. Les victimes sont potentiellement tous les circuits électroniques, qui peuvent être endommagés voire détruits par des champs électromagnétiques intenses. A cette occasion, l’Institut Fraunhofer sur l’analyse des tendances technologiques d’Euskirchen (INT – Rhénanie du Nord-Westphalie) avait présenté un appareil de détection de champs magnétiques.

Présentation du système, constitué de quatre antennes, d’un module de mesure à haute-fréquence et d’un ordinateur

Crédits : Fraunhofer

Les attaques électromagnétiques ont pour conséquence de modifier la tension dans les régulateurs, les commutateurs et les cartes de circuits dans les équipements électroniques, sans que l’on puisse facilement détecter son origine. L’appareil développé par l’Institut Fraunhofer INT permet de mesurer l’intensité, la fréquence et l’orientation des champs magnétiques. Les exigences techniques sont fortes : le détecteur doit mesurer des champs magnétiques intenses à partir d’impulsions très courtes, et ce sans être détruit ou endommagé.

Le dispositif est composé de quatre antennes, chacune couvrant un angle de détection de 90°. Un module à haute-fréquence conditionne le signal pour une mesure et détermine à quel moment l’impulsion électromagnétique a démarré et s’est arrêtée. Un ordinateur situé dans une station de surveillance, relié au module par conducteur optique, caractérise alors le signal. Les informations peuvent alors être utilisées pour mettre rapidement en place des mesures de protection appropriées.

Source : bulletins-electroniques

Vers des disques durs boostés au graphène ?

Le Graphene Research Center (GRC) [1] de la National University of Singapore (NUS) [2] et Fuji Electric (Malaisie) [3] travaillent ensemble sur un projet visant à augmenter la capacité des disques durs grâce au graphène. Le résultat attendu est de pouvoir créer des disques durs plus petits, plus rapides et vieillissant mieux. Le but n’est pas de créer une nouvelle technologie de stockage mais bien d’améliorer les technologies actuellement en application.

Le graphène est une forme cristalline du carbone qui se compose d’une couche unique d’atome. Une des caractéristiques du graphène est sa capacité à être utilisé comme une couche de protection et donc de permettre à la tête de lecture et d’écriture de s’approcher plus près du disque dur. C’est cette innovation qui devrait permettre d’augmenter sensiblement la capacité de stockage de nos disques durs.

Ce projet conjoint est dirigé par le professeur Antonio Castro Neto, le professeur adjoint Barbaros Ozyilmaz du GRC et Mme Laurence Ng Wah de Fuji Electric. Le rôle du GRC au sein de cette collaboration est d’intégrer les couches de graphène à des disques durs classiques grâce à un procédé breveté. De son coté, Fuji Electric évaluera la durabilité et la résistance des disques durs pour une éventuelle commercialisation. Le professeur Castro Neto, directeur du GRC, a déclaré que ce centre de recherche tente d’amener les découvertes scientifiques dans la vie de tous les jours et d’avoir un impact sur l’économie singapourienne. Il a également indiqué « La collaboration avec Fuji Electric ouvrira des portes sur une nouvelle technologie qui pourra avoir des conséquences à long terme sur la science et l’industrie « .

Mr Matsuo Sota de Fuji Electric (Malaisie) a déclaré : « La réduction de l’espace entre la tête de lecture et le disque est l’un des défis les plus importants pour garder plus de 20% d’augmentation annuelle de la capacité de stockage des disques durs « .

Source : bulletins-electroniques

La programmation, latin du futur ?

Selon certains comme Bernard Stiegler, les enfants du numérique ont une « expérience rusée » du fonctionnement des machines, mais leur approche intuitive approche vite ses limites et ne leur permet pas de dominer la machine. Or cette domination est nécessaire pour contrôler notre monde, de plus en plus automatisé, numérique et interconnecté. On le voir avec l’affaire PRISM : contrôler La Machine, c’est avoir le pouvoir sur ses utilisateurs…

Des précurseurs comme Seymour Papert (élève de Jean Piaget) se sont intéressés dès les années 1960 à la pédagogie de l’informatique et inventé des outils comme le langage Logo pour initier à l’algorithmique et à la programmation procédurale dès l’enfance. Pourtant, 50 ans plus tard, aucun pays n’intègre la programmation au cursus scolaire primaire, et peu le font au niveau secondaire, et la branche y est rarement obligatoire.

En Grande-Bretagne, suite à un rapport de la Royal Society intitulé « Shut down or restart » qui jugeait l’enseignement de l’informatique tellement insatisfaisant qu’il aurait mieux valu ne rien faire, la décision a été prise d’initier les enfants dès 5 ans à la programmation dès la rentrée 2014 et que la programmation devienne une branche obligatoire du baccalauréat au même titre que la physique ou la chimie.

En France aussi, un récent rapport de l’Académie des Sciences vient de recommander d’aller plus loin que la récente (ré)introduction de la spécialité « informatique et sciences du numérique » en terminale S, en incluant « une initiation aux concepts de l’informatique » dès l’école primaire , puis « un véritable enseignement d’informatique, qui ne soit pas noyé dans les autres enseignements scientifiques et techniques, mais développe des coopérations avec ceux-ci dans une volonté d’interdisciplinarité » au collège, puis « proposer un enseignement obligatoire d’informatique en seconde » au lycée.

Plusieurs initiatives se développement également  en Suisse, notamment :

  • le Prof. Juraj Hromkovic avec son module « programmer dans les écoles primaires », adopté dans une trentaine d’établissements en Suisse alémanique
  • Jürg Kohlas, qui promeut l’enseignement de l’informatique comme discipline fondamentale au gymnase (=lycée) dans un livre tout récent, en recommandant de commencer par former les professeurs, un problème qui semble général…
  • Manuela Barraud et Olivier Jorand proposent des ateliers de « philobotique » combinant programmation et robotique ludique dans la continuation de la « philosphie Logo », mais ils forment aussi des enseignants à leur approche. Outre Logo, ils utilisent le langage semi graphique Scratch développé au MIT pour les enfants dès 7 ans.

Pour ma part, voici les quelques leçons que je tire de ma maigre expérience de l’enseignement de la programmation des deux côtés de la barrière:

  • Pas facile d’être prof. quand certains élèves maîtrisent mieux le sujet. Il faut une formation en béton, et si possible conserver le choix des armes…
  • La robotique est très motivante pour les jeunes. Avec juste une boucle et quelques tests on peut faire bouger quelque chose de concret alors que sur un écran il faut beaucoup plus de code pour faire quelque chose d’un tant soit peu excitant.
  • Mais les robots c’est cher et délicat, alors les environnements virtuels en 3D sont un bon compromis : ils conservent un rapport résultat visuel/code élevé tout en ouvrant des possibilités amusantes comme écraser des poulets sans que la SPA ne proteste (Alice), ou monter un canon sur un robot sans occasionner trop de dégâts (Ceebot, testé avec succès au Festival de Robotique de l’EPFL )
  • L’âge minimum pour s’intéresser à la programmation est celui où l’enfant est capable de comprendre la notion de variable. Je dirais expérimentalement vers 10 ans. Les boucles, les tests, même les sous-programmes et les fonctions peuvent encore passer plus tôt avec des choses comme « POUR CARRE : REPETE 4 [AV 100 TD 90] : FIN », mais c’est peut-être justement une raison de l’échec de la programmation au primaire : sans la capacité d’abstraction nécessaire pour associer une information (nombre, texte etc…) à un symbole, on est très vite limité. Or cette même notion en mathématiques n’est introduite, sauf erreur, que vers 10-12 ans, et n’est pas assimilée facilement par tous. Imaginez alors la pagaille dans les esprits si le prof de maths dit que « x=2*x-1 a pour solution x=1 » et l’heure d’après celui d’informatique dit que « x=x+1 incrémente la valeur de x » …
  • Il est très difficile de découpler l’enseignement de la programmation de celui des maths. En particulier pour la robotique ludique (réelle ou virtuelle) on a très rapidement besoin des vecteurs, de la trigonométrie, voire de notions d’intégration et dérivation pour passer des vitesses aux positions ou vice-versa.

Donc je ne crois pas à l’introduction de la programmation au primaire. Et sans programmation, pour quoi « faire de l’informatique » ? Et plus tard, au collège et au lycée, à quoi bon enseigner la programmation si on ne veut pas former des armées de programmeurs ?

La programmation, latin du futur ?

C’est un paragraphe de l’article qui a particulièrement retenu mon attention :

L’idée n’est donc pas de former de futurs programmeurs, mais d’initier les enfants à un langage programmatique simple pour les familiariser avec la logique informatique. Les adeptes de cet enseignement ne tarissent pas d’éloges sur ses vertus pédagogiques. La programmation apprend à penser un problème jusqu’au bout, à construire des processus qui marchent en apprenant de ses erreurs. (…)

Et encore: le langage informatique enseigne à penser logiquement et systématiquement. «Peu de disciplines nécessitent une telle rigueur mentale», observe Jürg Kohlas. Bien sûr, les langues programmatiques** sont multiples et mouvantes. Mais quand on en a appris une, il est facile de se familiariser avec les suivantes.

Ça ne vous rappelle rien? Ne croirait-on pas entendre parler du latin? «La programmation est bel et bien un langage avec un vocabulaire, une grammaire, une syntaxe, acquiesce Juraj Hromkovic. Mais il y a une grosse différence avec les langues naturelles: la plupart des gens ne savent même pas qu’ils ont affaire à un langage.»

Dans mon esprit de lycéen des années 1980, la programmation n’avait rien, mais alors RIEN à voir avec la langue morte infligée aux fils d’avocats par des curés nostalgiques. Mais avec le recul, je partage le point de vue gens qui connaissent le latin et la programmation comme Tyler Plack,

Ecrire en latin ou programmer un ordinateur requièrent tous deux une compréhension qui dépasse la pensée humaine complexe et la simplifie. De tels processus sont ce qui nous permet de penser clairement; ils font de nous qui nous sommes.

Donc oui, il faut enseigner la programmation aux lycéens, même si « ça ne sert à rien », comme le latin. Faut-il en faire une branche obligatoire du bac ? Certainement, au moins pour ceux qui ne font pas de latin.

Parce que combiner les deux peut donner des idées trop bizarres. Damian Conway par exemple en a été perturbé au point d’écrire un module perl définissant des alias latins pour tous les éléments du langage, ce qui permet de rendre ce code :

use Lingua::Romana::Perligata;

maximum inquementum tum biguttam egresso scribe.

meo maximo vestibulo perlegamentum da.

da duo tum maximum conscribementa meis listis.

dum listis decapitamentum damentum nexto

    fac sic

        nextum tum novumversum scribe egresso.

        lista sic hoc recidementum nextum cis vannementa da listis.

cis.

parfaitement valide et absolument équivalent à celui-ci:

 

print STDOUT ‘maximum:’;

my $maxim = ;

my (@list) = (2..$maxim);

while ($next = shift @list)

  {

    print STDOUT $next, « n »;

    @list = grep {$_ % $next} @list;

 

  }

Et si après Astérix,  la programmation permettait de moderniser l’enseignement du latin ?

Par Philippe Guglielmetti dit « Dr Goulu »
Blog Pourquoi Comment Combien

Découvrez la base documentaire : Langages de programmation

Reportage vidéo – Imagerie acoustique d’une fissure

C’est à l’oreille que les chercheurs Daniel Bonamy (CEA) et Davy Dalmas (CNRS) détectent le micro-endommagement d’un matériau en écoutant l’émission acoustique émise et en la modélisant. Leur objectif est d’essayer d’anticiper sa rupture finale, ce qui pourrait contribuer à l’amélioration des performances des matériaux (aéronautique, sismologie, BTP…). 

 

Vidéo réalisée par Universcience.tv

Réalisation : David Bento
Production : Universcience
 

Comment faire mousser sa bière au maximum ?

Les étudiants adorent trinquer en tapant sur le dessus de leur bouteille de bière. Une blague potache puisque s’ensuit inévitablement un débordement de mousse, suscitant l’hilarité générale. Pour réussir cet afflux brutal et massif de bulles, le blagueur s’appuie sur un phénomène scientifique récemment percé à jour. Des chercheurs français se sont associés à leurs homologues espagnols pour comprendre comment l’onde de choc imposée à la bière est source de mousse. 

Après une étude très attentive du phénomène, ces scientifiques assoiffés de savoir, ont découvert que le choc induit une onde qui rebondit sur les parois de la bouteille. Ceci crée des grosses bulles, appelées bulles-mères. En effet, ces bulles vont ensuite donner naissance à une multitude de minuscules bulles, des bulles-filles. Ces dernières sont capables de remonter à la surface à la vitesse de l’éclair, entraînant le débordement de mousse. L’étude ne précise pas s’il y a un angle optimal pour frapper le goulot et optimiser l’apparition de bulles.

La formation des bulles mères prends entre 0.1 et 1 milliseconde, les bulles filles sont générées en 1 à 10 ms, et l’expansion de ces petites bulles explose en 0.1 à 1 seconde. Un phénomène ultra-rapide que le coauteur de l’étude Dr Rodriguez assimile « aux champignons observés après de puissantes explosions ».

Voilà un des plus grands mystères de la science résolu !

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

7 réponses aux défis scientifiques du 21ème siècle

La fin de l’année 2013 approche petit à petit avec son lot de bilans, de best of et autres bêtisiers…

Les éditions Techniques de l’Ingénieur sont elles-aussi en pleine rétrospective, puisque la rédaction de la Veille Actualités planche sur sa newsletter de décembre qui compilera les meilleurs articles de l’année en cours. Premier volet de cette rétrospective, le livre blanc « 7 réponses aux défis scientifiques du 21 siècle », une sélection qui regroupe des articles des bases documentaires et de la Veille Actualités sur le thème « Recherche et Innovation ».

Récupération de l’énergie des gouttes de pluie, robot-anguille, valorisation industrielle des micros-algues, nanotechnologies… La rédaction a choisi de vous présenter des innovations spectaculaires – ceux qui ont vu le robot-anguille en démonstration ne diront pas le contraire – qui répondent également aux grands défis scientifiques de ce siècle.

Et ils sont nombreux. L’énergie, d’abord et toujours. Tout le monde en convient, le futur de l’énergie réside dans une production infinie et neutre pour l’environnement. C’est possible mais complexe. La récupération de l’énergie des gouttes de pluie va dans ce sens. La pollution de la planète est égamlement un enjeu considérable de ce siècle, notamment au niveau marin.

La mise au point de robots capables de détecter toute pollution marine et de guider les bancs de poissons pour les protéger est une innovation incroyable qui montre aussi que la robotique offre des perspectives inouïes aux chercheurs.

Autres enjeux moins spectaculaires, mais tout aussi importants, l’identification et l’authentification : que ce soit pour découvrir les secrets des peintures des plus grands maîtres – le sumato de Léonard De Vinci n’aura plus de secrets pour vous – ou pour authentifier des bouteilles de vin, le contrôle non destructif ou la biométrie offrent des perspectives inimaginables il y a encore peu de temps.

Enfin, pour terminer en beauté, place aux nanotechnologies. S’il y a bien une révolution couronnée de succès ces dernières années, c’est bien celles liée aux propriétés extraordinaires – au sens propre – des nanomatériaux. Ces derniers trouvent des usages dans tous les secteurs de l’industrieet donc de la recherche et notamment, c’est ce qui nous intéresse ici, en médecine.

Nous espérons que vous prendrez autant de plaisir à découvrir ces innovations que nous en avons eu à compiler les articles qui composent ce livre blanc, et qui montrent que même en des temps incertains, la recherche et par-delà l’innovation n’ont pas d’autres limites que celles de notre imagination.

Par Pierre Thouverez

Une grande quantité d’eau se cache dans des réservoirs sous-marins naturels

Le sous-sol sous-marin abriterait 500 000 km3 d’eau très peu salée. Une quantité d’eau exploitable bien plus vaste qu’on ne le pensait. Publiée dans Nature, l’étude menée pour quantifier ces réserves a été menée par une équipe internationale de chercheurs australiens, néerlandais, américains et anglais. Tous ont épluché la littérature scientifique, plus particulièrement les données concernant les forages pétroliers. Leurs calculs révèlent la présence d’aquifères répartis sur la globalité de la surface terrestre.

Ces réservoirs sous-marins se présentent sous la forme de roches ou de sédiments suffisamment poreux pour capter et retenir des nappes d’eau. Plusieurs phénomènes contribuent à la formation de ces réserves d’eau sous-marines. Lors des périodes glaciaires, le niveau des mers s’est abaissé, dégageant des plateaux continentaux à  l’intérieur desquels l’eau de pluie a pu s’infiltrer. Deuxièmement, ces nappes d’eau s’écoulent les unes vers les autres. Les auteurs de l’étude précisent que ces décharges peuvent s’effectuer sur de longues distances, jusqu’à 100 kilomètres. Enfin, la fonte des glaces pourrait aussi contribuer à la présence d’eau douce.

Cette eau est salée, mais bien moins que l’eau de mer. Elle pourrait facilement alimenter des usines de dessalement avec un rendement plus grand qu’une usine traitant de l‘eau de mer. Les scientifiques prennent toutefois des précautions quand au chiffrage de la quantité d’eau potentiellement existante, précisant que leur évaluation souffre d’un manque de données et reste donc très incertaine.

La découverte de ces réserves suscite l’espoir de contrer les pénuries d’eau frappant certaines régions. Une réponse temporaire certes, mais une réponse quand même à une crise de l’eau qui ne fait que commencer.

Par Audrey Loubens, journaliste scientifique

Google va créer ses propres robots

Google serait-il devenu accro aux robots ? C’est ce qu’on pourrait croire avec cette huitième acquisition d’une société spécialisée dans la robotique. Dernière en date, Boston Dynamics travaille étroitement avec le gouvernement américain pour fabriquer des robots-animaux capables d’évoluer sur des terrains inaccessibles à l’homme. 

Fondée en 1992, Boston Dynamics finance ses recherches grâce à l’Agence gouvernementale américaine des programmes de recherche avancée de défense (DARPA). A son actif, la société compte le BigDog, un robot-chien capable de se déplacer sur un sol difficile pour des véhicules motorisés, d’embarquer une centaine de kilos de matériel et même de marcher sur la glace. Dans l’arche de Boston dynamics on découvre aussi un robot-guépard, le Sheetah, à la vitesse de pointe théorique de 46 km/h. Mais un des projets les plus ambitieux de Boston Dynamics concerne le robot humanoïde Atlas. Dans le futur, celui-ci pourrait se substituer aux soldats ou à des travailleurs censés intervenir dans des environnements toxiques, radioactifs… 

Pour l’instant, Google n’a pas officiellement révélé ses objectifs avec cette acquisition. Mais d’après le New York Times,  la rumeur court que le géant américain travaille au développement de robots manutentionnaires, capables de gérer toute la logistique de ses usines, livraisons comprises. Il est vrai que Google accumule les investissements dans ce sens. En à peine six mois, Google s’est offert Schaft, spécialiste des robots humanoïdes, Industrial Perception, société qui développe des bras de robots appliqués au chargement/déchargement de camions, Meka, fabricant de robots humanoïdes, Redwood Robotics qui développe des bras de robot, Bot & Dolly qui fabrique des caméras robotiques, Holomni spécialiste des roues high-tech. 

Mais comme l’a annoncé Andy Rubin, chargé de la robotique chez Google, il faudra attendre encore plusieurs années avant de découvrir les « robots Google ».

En attendant, découvrez ces robots-animaux en pleine action :

BigDog :

Sheetah : 

Par Audrey Loubens, journaliste scientifique