La fin d’internet pourrait survenir en 2023

Revêtez une toge blanche, munissez-vous d’un gong et partez dans la rue hurler « à l’apocalypse », comme dans Tintin et l’étoile mystérieuse parce qu’Internet risque de s’effondrer en 2023. Ce qui est presque synonyme de fin du monde. Enfin, ça, c’est si l’on accorde du crédit à la théorie d’Andrew Ellis.

Le britannique estime que d’ici six à huit ans, à cause de notre utilisation massive d’internet, le flux de données atteindra un niveau critique. Avec l’essor des smartphones, des services et applications liées, l’accumulation exponentielle des données et leurs échanges incessants, nous risquons de connaître un engorgement des « conduits », d’arriver à la limite d’internet : le « capacity crunch ».

Actuellement, les fournisseurs d’accès internet (FAI) ne réfléchissent pas véritablement à la question et envoient toujours plus de données par la fibre. Mais cette situation ne peut, à priori, pas durer éternellement; la demande va rattraper l’offre un jour ou l’autre. 

Une des solutions évidentes pour palier au problème de saturation serait de doubler le nombre de câbles de fibres optiques. Une entreprise qui s’avérerait coûteuse, autant pour les FAI que pour les utilisateurs car elle s’accompagnerait automatiquement d’une hausse du prix de l’abonnement.

Autre effet collatéral : les dépenses énergétiques liées à internet augmenteraient largement, elles aussi à un rythme soutenu. Quand on sait qu’elles connaissent déjà une hausse chaque année. À titre d’exemple, d’après le Daily Mail, « 16% de l’énergie consommée en Grande-Bretagne provient d’internet » alors que ce chiffre n’était pas si élevé par le passé.

Faut-il y croire ?

Le scénario d’Andrew Ellis est certes alarmiste, mais ne faisons pas de conclusion hâtive. Nombreux sont ceux invitant à la prudence dans la croyance de ses prédictions, incitant à relativiser, en regardant le passé et en ayant foi en l’avenir. Ce n’est pas la première fois que l’on assure qu’internet est arrivé dans sa zone de rupture (souvenez-vous, le Bug de l’an 2000, ou plus récemment encore, les inquiétudes au sujet de l’ère de l’internet mobile). Pourtant internet est encore là.

Des solutions existent. Et si elles n’ont pas encore été inventées, elles le seront. Ayons confiance en la loi de Moore, cette loi exprimée en 1965 qui prédit, pour l’heure assez justement, que les capacités technologiques doublent tous les deux ans (1,96 pour être exact). Laurent Lefèvre, chercheur à l’Institut National de Recherche en Informatique et en Automatique (INRIA) se veut bien plus optimiste que le professeur britannique : « on pourrait avoir en 2020 un réseau qui consomme 90 % de moins qu’en 2010, même avec l’explosion du trafic ». La logique actuelle tend vers l’optimisation. Que ce soit des logiciels, des applications, ou bien de la consommation des datacenters, très voraces en électricité.

Au vu des intérêts des consommateurs, des opérateurs et des fournisseurs de contenu (le trio magique), il semble peu probable que nous assistions sans rien faire à l’effondrement d’internet.

Par Sébastien Tribot

Et aussi dans
les bases documentaires :

Les ingénieurs sont devenus adeptes du télétravail

66% des ingénieurs télétravaillent. C’est donc une très forte majorité qui « profite » de son ordinateur portable ou de son smartphone pour réaliser des tâches d’ordre professionnel en dehors de son lieu de travail. Pourtant, cette nouvelle tendance n’est pas réservée aux cadres en déplacement ou qui passent une grande partie de leur temps à l’extérieur de leur bureau : 78.5% des adeptes du télétravail passent plus des trois-quarts du temps au boulot. Car c’est là que le bât blesse. Ce télétravail n’est pas un remplacement du travail qui pourrait se faire au bureau mais bien des heures supplémentaires ! 

En y regardant de plus près, on comprend pourquoi les ingénieurs font du rab’ alors que leur hiérarchie ne le leur demande pas : c’est plus efficace. 88% des sondés considèrent le télétravail comme une liberté, 92% estiment être plus productif ainsi et 31% déclarent que cela diminue leur stress. Un tel plébiscite invite à se demander si les conditions de travail actuelles des ingénieurs sont optimales. Les open space invitent à l’échange mais retirent toute tranquillité, les réunions  sont chronophages pour un bénéfice trop souvent contesté, des conditions de travail dont préfèrent parfois s’extraire les cadres. Le télétravail leur offre ces moments en tête-à-tête avec leur boulot, une intimité appréciée quitte à travailler plus. 

Quand on regarde la liste des 10 jobs en télétravail les mieux payés établie par le magazine Forbes, on constate que l’ingénieur informatique est en 2eme place avec une rémunération annuelle moyenne de 62k€. Pas mal. A noter qu’il s’agit là de métiers exercés à 100% en télétravail. Le télétravail aurait-il toutes les vertus ? Pas si sûr car ce surcroît d’activité n’intervient pas que lors des déplacements au cours desquels il n’est pas choquant de rentabiliser le temps passé dans le train ou l’avion par exemple. Les ingénieurs télétravaillent 89% du temps… à la maison. La petite famille appréciera.

Par Audrey Loubens

Et aussi dans
les bases documentaires :

Le Conseil constitutionnel valide la loi sur la transition énergétique

Le Conseil constitutionnel a toutefois censuré trois articles, dont ceux sur la rénovation énergétique des bâtiments et la réduction des gaz à effet de serre dans la grande distribution, et plusieurs dispositions relatives au gaspillage alimentaire, a-t-il détaillé dans un communiqué.

L’institution se prononçait après la saisine de plus de soixante députés et autant de sénateurs sur un texte emblématique du quinquennat de François Hollande reprenant des thèmes longuement débattus lors du débat national sur la transition énergétique.

Plusieurs objectifs de long terme ont été fixés: part du nucléaire dans la production d’électricité passant de 75 à 50% à l’horizon 2025, part des énergies renouvelables dans la consommation finale de 32% en 2030 et, par rapport à 2012, réduction de la consommation énergétique finale de 50% en 2050 et réduction de la consommation des énergies fossiles de 30% en 2030.

Les émissions de gaz à effet de serre devront baisser de 40% en 2030 par rapport à 1990 et le principe d’une augmentation progressive du prix du carbone a été inscrit dans le texte (de 22 euros la tonne de CO2 en 2016 à 100 euros en 2030). Il devra être confirmé dans la loi de finances.

La capacité du parc nucléaire est désormais plafonnée à 63,2 gigawatts, soit la puissance actuelle.

Pour atteindre les objectifs fixés, des articles prévoient des actions dans les secteurs du logement (rénovation, compteurs électriques intelligents, etc.), des transports (installation de 7 millions de bornes de charge pour voitures électriques, prime à la conversion, etc.), les énergies renouvelables (fonds chaleur, méthanisation, etc.), le recyclage des déchets (interdiction des sacs plastiques à usage unique, réduction des volumes mis en décharge, etc.).

Pour des raisons de procédure, le Conseil constitutionnel a censuré des paragraphes concernant le gaspillage alimentaire, qui prévoyaient que les grandes surfaces n’auraient plus le droit de jeter de la nourriture.

L’article portant sur la rénovation énergétique des bâtiments a été censuré au motif que le législateur « n’avait pas suffisamment défini les conditions et les modalités de l’atteinte » possible au droit de propriété.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

La loi de transition énergétique bientôt annulée ?

60 sénateurs du parti Les Républicains dénoncent la façon dont s’est tenue la commission mixte paritaire en mars dernier. Selon eux, elle n’est pas conforme aux règles constitutionnelles. « Le constat d’échec a été, en effet, imposé par son président, M. François BROTTES, Député, président de la commission des affaires économiques, sans vote ni même consultation des membres de la commission mixte paritaire », dénoncent-ils dans leur saisine. Ainsi, les sénateurs accusent la « décision unilatérale du président de la commission mixte paritaire de mettre un terme aux travaux de cette commission avant tout vote» et une absence de dialogue au sein de la commission mixte paritaire ».

Si un vote avait eu lieu, les sénateurs républicains estiment que le texte aurait penché vers la version des sénateurs, celle proposant une part du nucléaire abaissée à 50 % du mix électrique national « à terme » et non « en 2025 », ainsi qu’une capacité nucléaire plafonnée à 64,85 gigawatts (GW) au lieu de 63,2 GW. « L’échec de la commission mixte paritaire sans avoir à procéder à un vote a modifié le résultat qui aurait été obtenu s’il avait laissé ses membres procéder à un tel scrutin », affirment-ils.

Si le Conseil constitutionnel juge la procédure non conforme, la loi sera annulée. Une situation difficilement envisageable au regard de la portée politique du texte et le poids de cette loi dans les préparations de la conférence sur le climat à la fin de l’année à Paris.

Les députés du parti Les Républicains en remettent une couche

Les députés républicains n’ont pas tardé à rejoindre leurs collègues sénateurs. Le 28 juillet, ils saisissaient le Conseil constitutionnel pour plusieurs articles qu’ils jugent méconnaître « des dispositions et principes de valeur constitutionnelle ». Ces articles pourraient être abrogés, vidant la loi d’une grande partie de sa portée.

Les articles dénoncés portent, entre autres, sur les objectifs globaux de la loi, l’obligation de rénovation des bâtiments privés résidentiels à l’occasion d’une mutation à partir de 2030, l’obligation pour la grande distribution de définir un programme d’actions pour limiter les émissions de gaz à effet de serre et de polluants atmosphériques d’ici fin 2016 et l’interdiction, à compter du 1er janvier 2020, de la mise à disposition des gobelets, verres et assiettes jetables de cuisine en matière plastique. L’Assemblée nationale a finalement voté une distance minimale d’éloignement entre les éoliennes et les habitations de 500 m. Les républicains voulaient une distance minimale de 1000 mètre ; ils dénoncent aussi la constitutionnalité de cette disposition.

Les députés signalent une contradiction entre les objectifs définis par loi et les moyens mis en oeuvre pour les atteindre. Par exemple, pour eux, réduire la part du nucléaire est un moyen qui ne parviendra pas à réaliser les objectifs poursuivis : diminuer les émissions de gaz à effet de serre, maîtriser les dépenses en énergie des consommateurs, assurer la sécurité d’approvisionnement et diminuer les importations. Ils dénoncent aussi un « préjudice exorbitant subi par AREVA, ses salariés et ses actionnaires, sans indemnisation prévue et organisée ».

Par Matthieu Combe, journaliste scientifique
 

La comète Tchouri « bien active » lors de son rendez-vous avec le Soleil

A 2h03 UTC (GMT) soit 4h03 heure de Paris, Tchouri a atteint son périhélie, c’est-à-dire le point sur son orbite qui est le plus proche du Soleil. La comète 67P/Tchourioumov-Guérassimenko était alors à 186 millions de km du Soleil et à 265 millions de km de la Terre.

La sonde européenne Rosetta se trouvait aux premières loges pour assister à la rencontre. Quant au robot Philae, installé sur la comète depuis neuf mois, il était suffisamment à l’ombre pour ne pas avoir trop chaud.

Selon des images prises par la caméra de navigation NavCam de la sonde, la comète s’est montrée « bien active » cette nuit, a indiqué Sylvain Lodiot, responsable des opérations de Rosetta à l’ESOC (Centre européen d’opérations spatiales) en Allemagne. « Il y a des jets de gaz et de poussières un peu de partout », a-t-il dit.

Rosetta a observé le spectacle à une distance prudente de 330 km afin que ses capteurs d’étoiles, qui lui permettent de s’orienter, ne soient pas perturbés par les poussières.

« La sonde est en parfait état de marche », a souligné M. Lodiot. « Elle continue son périple » avec la comète qui s’éloigne dorénavant du Soleil.

« Comme il y a un effet retard, le maximum d’activité de la comète aura lieu probablement un peu après le passage au périhélie », a déclaré Jean-Yves Le Gall, président du CNES, l’agence spatiale française, interrogé par l’AFP.

« Rosetta est aux aguets. Nous recevons des données extraordinaires. La moisson continue », a-t-il ajouté.

Les résultats seront publiés dans les jours, dans les semaines et dans les mois qui viennent.

« Il y aura encore dans dix ans des publications sur les résultats scientifiques de Rosetta et de Philae », a considéré M. Le Gall.

L’aventure de Rosetta, qui voyage depuis plus de onze ans dans l’espace, devrait se terminer en septembre 2016. A cette date, l’ESA a prévu de la faire se « poser » le moins rudement possible sur Tchouri où elle retrouvera Philae qui sera alors endormi depuis longtemps.

« C’est absolument extraordinaire d’être allés sur une comète. Nous sommes sidérés par ce que nous trouvons », a souligné M. Le Gall.

« En général, ce genre de découvertes, ce sont les Etats-Unis qui les font. Là, c’est l’Europe, et notamment la France, qui est en première ligne », a-t-il précisé.

« Pour le spatial européen, les années 2014-2015 seront à jamais frappées du sceau du succès de Philae et de Rosetta », a-t-il dit.

pcm/fmi/as

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Gaz de schiste: le gouvernement britannique veut faciliter la délivrance de permis

Le ministre des communautés et du gouvernement local pourra ainsi se saisir directement des dossiers, a-t-il annoncé dans un communiqué commun avec le ministère de l’Énergie et du changement climatique.

Il cherchera en particulier à identifier les autorités locales qui ne donnent pas de réponse aux demandes de permis dans le délai légal de 16 semaines, afin d’accélérer le processus.

Le gouvernement pourra aussi se saisir des dossiers en appel quand une demande de permis a été rejetée mais que la décision est contestée par l’entreprise qui veut réaliser des forages.

Le gouvernement du Premier ministre conservateur David Cameron est un soutien très enthousiaste du développement du gaz de schiste, y voyant potentiellement une source d’énergie bon marché et abondante. Mais ses ambitions se heurtent à l’opposition de collectivités locales, chargées jusqu’à présent de délivrer les permis.

Fin juin, les autorités du comté du Lancashire, dans le nord-ouest de l’Angleterre, avaient ainsi rejeté des demandes de permis pour un projet d’exploration de gaz de schiste, évoquant les risques de pollution visuelle et sonore pour les riverains, inquiets par les nuisances causées par la technique de la fracturation hydraulique.

« Le gouvernement a clairement affirmé que le gaz de schiste représente une priorité nationale, qui doit aider le Royaume-Uni à devenir une économie à faibles émissions de gaz carbonique. Mais nous voulons nous assurer que les demandes de permis ne se retrouvent pas confrontées à une situation frustrante, avec des décisions de collectivités locales lentes et confuses », a expliqué Greg Clark, le ministre des Communautés.

Il veut ainsi empêcher que le processus d’autorisation dure des mois voire des années, empêchant le développement du gaz de schiste dans le pays.

UK Onshore Oil and Gas (UKOOG), représentant les entreprises du secteur, s’est réjoui de l’annonce, soulignant que « la durée d’instruction des demandes de permis a bondi de trois mois à plus d’un an, générant des retards et des coûts qui ne sont pas dans l’intérêt des habitants, des entreprises ou des Britanniques dans leur ensemble ».

Les associations environnementalistes ont en revanche critiqué le nouveau dispositif.

« Les autorités locales ont respecté les règles. Ces changements sont introduits parce que le gouvernement est en désaccord avec leurs décisions démocratiques », a jugé Naomi Luhde-Thompson, de l’association Les amis de la Terre.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

L’être humain va devoir repenser sa consommation alimentaire

Nourrir une population mondiale qui atteint bientôt les 10 milliards d’individus est un défi majeur. Alors que certaines populations peinent à se nourrir, l’opulence des nations développées propose un contraste saisissant. Mais cette facilité des pays riches pourrait bien être remise en question par l’impact de l’agriculture intensive sur les ressources, les sols et l’environnement. En théorie la quantité de sols cultivables et exploitables suffit à couvrir les besoins de tous les humains. L’agriculture utilise 5 milliards d’hectares, dont 1/3 est cultivé, le reste étant des pâturages. Suffisant pour fournir 2800 kCal en moyenne par habitant, plus que les 2500 kCal nécessaires. Pourtant, la surexploitation des sols et l’activité humaines dégradent les sols plus vite qu’ils ne se régénèrent. Une problématique que l’on retrouve dans le domaine de l’élevage de bétail.

La FAO, Organisation des Nations Unies pour l’agriculture et l’alimentation, prévoit une explosion de la demande de viande, notamment les volailles et le porc. En cause, l’élévation du niveau de richesse des pays en voie de développement qui fait exploser la consommation de viande. A titre d’exemple, un Chinois qui mangeait seulement 13.7kg de viande par an en 1980 en consomme aujourd’hui 59.5 kg ! D’après le rapport de la FAO, la production de viande va devoir doubler pour atteindre 463 millions de tonnes. De quoi impacter l’environnement de façon majeure car d’un point de vue alimentaire, la production de protéines d’origine animale nécessite « trop » de protéines végétales : il faut 1 calorie végétale pour produire une calorie de poulet, 7 calories végétales pour en produire une de cochon et 9 pour une protéine bovine. A ce déficit s’ajoutent une dégradation de l’environnement du fait notamment d’’importantes émissions de gaz  à effet de serre et d’une importante consommation d’eau. D’après le World Ressource Institute, plus d’un tiers des céréales sert à nourrir du bétail. 70% du maïs produit sera consommé par les animaux d’élevage. De quoi faire bondir quand on sait que des populations entières ne mangent pas à leur faim.

Le constat est tout aussi alarmant du côté mer. La surpêche menace des espèces et vide les océans de ses ressources, quand l’aquaculture surconsomme en utilisant 4kg de sardines pour produire 1 kg de saumon.

Pour répondre à la demande, le rapport préconise de travailler sur le rendement des productions céréalières plutôt que sur l’augmentation des surfaces agricoles. 

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Bientôt 10 milliards d’humains sur Terre

La croissance démographique continue à un rythme effréné et le nombre d’humains sur Terre devrait atteindre les 9.7 milliards en 2050 et 11.2 milliards en 2100. Actuellement, ce sont 7.3 milliards d’humains qui peuplent la planète, l’évolution démographique attendue pourrait modifier les équilibres géopolitiques actuels. En effet, cette croissance est très inégale selon les continents. L’Afrique connaitra le plus grand bond en avant avec le plus fort taux de croissance, de quoi représenter à elle seule la moitié de l’accroissement mondial. Symbole de cette explosion démographique, le Nigéria pourrait devenir le 3è pays le plus peuplé en 2035 avec 398 millions d’habitants. D’après le rapport « Perspectives démographiques mondiales : révisions 2015 », 6 pays compteront plus de 300 millions d’habitants en 2050: l’Inde, la Chine, le Nigéria, les Etats-Unis, le Pakistan et l’Indonésie. Aujourd’hui, seules la Chine et l’Inde ont plus de 1 milliard d’habitant, ce qui en représente 19% et 18% de la population mondiale ! Parallèlement, l’Europe verra sa population vieillir et devra compter avec 34% de plus de 60 ans.

En 2050, l’ONU prévoit que l’Inde dépasse la Chine avec respectivement 1.705 milliards d’habitants contre 1.348 pour la Chine. De quoi justifier la demande de l’Inde de devenir un membre permanent du conseil de sécurité de l’ONU. Car le poids démographique pèse dans les relations internationales, les évolutions de population influeront forcément. La plus grande interrogation porte sur l’Afrique dont la population de 28 pays va doubler d’ici 2050. « La concentration de la croissance de la population mondiale dans les pays les plus pauvres présente un ensemble de défis et rend plus difficile la lutte contre la pauvreté et l’inégalité, l’éradication de la faim et de la malnutrition, et l’amélioration de la scolarisation et des systèmes de santé, qui sont tous essentiels à la réussite du nouveau programme de développement durable », s’est inquiété John Wilmoth, Directeur de la division de la population de l’ONU.

Ces prévisions proposent des chiffres plus importants que prévus. Ceci est lié aux progrès faits dans la lutte contre le sida et contre la mortalité infantile. Mais l’évolution de la population mondiale devrait se stabiliser dans les décennies à venir. En Afrique, le taux de fécondité est de 4.7 enfants par femme, il devrait baisser à 3.1 d’ici 2050 et 2.2 en 2100. Car bien que tous ces chiffres soient impressionnants, ils traduisent un tassement de la croissance démographique qui est passé de 1.84% à 1.18% en 10 ans.

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Quel est l’impact socio-économique des mathématiques en France ?

Récemment, des rapports ont fait état des impacts très significatifs des mathématiques en termes d’emploi et de valeur ajoutée. Une étude sur le Royaume-Uni 6 estime à 2,8 millions le nombre d’emplois qui utilisent des compétences mathématiques, soit 9% de l’emploi total, et à 208 milliards de livres leur contribution à la valeur ajoutée, soit 16% du Produit Intérieur Brut (PIB). Dans ce contexte, l’Agence pour les mathématiques en interaction avec l’entreprise et la société (AMIES), en partenariat avec la Fondation Sciences Mathématiques de Paris (FSMP) et la Fondation Mathématique Jacques Hadamard (FMJH) et en association avec les Labex de mathématiques, a confié au cabinet de conseil en stratégie CMI l’étude de l’impact socioéconomique des mathématiques en France. Cette étude, qui a été conduite de janvier à mai 2015, vise trois objectifs principaux :

  • Mesurer l’impact socio-économique des mathématiques en France et mettre en évidence la contribution économique actuelle des mathématiques au développement industriel et à l’innovation – l’impact socio-économique étant entendu à la fois comme l’impact direct (volume d’emplois, part du PIB sectoriel et global) et indirect (développements technologiques majeurs facilités par l’appui sur des compétences mathématiques) ;
  • Analyser les liens entre entreprises et expertises en mathématiques pour éclairer les responsables des programmes de recherche et du management dans les entreprises dans leurs stratégies de développement et d’intégration des compétences mathématiques
  • Préciser les domaines thématiques ainsi que les outils qui devraient être développés pour une meilleure synergie entre mathématiques et entreprises.

 

Premiers résultats scientifiques de Philae : Tchouri se révèle… différente

La mission de rendez-vous cométaire Rosetta a offert, grâce à l’atterrissage du module Philae, une opportunité exceptionnelle : celle de l’étude in situ d’un noyau cométaire (de sa surface à sa structure interne), 67P/Tchourioumov-Guérassimenko (aliasTchouri). Elle est susceptible de faire progresser la compréhension de ces petits corps célestes témoins des origines du système solaire. Les mesures réalisées du 12 au 14 novembre 2014 (pendant les 63 heures qui ont suivi sa séparation d’avec Rosetta) par les dix instruments de l’atterrisseur Philae ont complété les observations effectuées par l’orbiteur Rosetta1. Et son arrivée mouvementée sur la comète a même été source d’informations supplémentaires.

Des molécules organiques inédites

Vingt-cinq minutes après le contact initial de Philae avec le noyau de la comète, COSAC (Cometary sampling and composition experiment) a réalisé une première analyse chimique, en mode « renifleur », c’est-à-dire en examinant les particules entrées passivement dans l’appareil. Ces particules proviennent vraisemblablement du nuage de poussière produit par le premier contact de Philae avec le sol. Seize composés ont pu être identifiés, répartis en six classes de molécules organiques (alcools, carbonyles, amines, nitriles, amides et isocyanates). Parmi eux, quatre sont détectés pour la première fois sur une comète (l’isocyanate de méthyle, l’acétone, le propionaldéhyde et l’acétamide).

Ces molécules sont des précurseurs de molécules importantes pour la vie (sucres, acides aminés, bases de l’ADN…). Mais la présence éventuelle de ces composés plus complexes n’a pas pu être identifiée sans ambigüité dans cette première analyse. Par ailleurs, quasiment toutes les molécules détectées sont des précurseurs potentiels, produits, assemblages, ou sous-produits les uns des autres, ce qui donne un aperçu des processus chimiques à l’œuvre dans un noyau cométaire et même dans le nuage protosolaire en effondrement, aux premiers temps du système solaire.

Des amas de matière organique dès l’origine

Les caméras de l’expérience CIVA (Comet infrared and visible analyser) ont révélé que les terrains proches du site d’atterrissage final de Philae sont dominés par des agglomérats sombres qui sont vraisemblablement de gros grains de molécules organiques. Les matériaux des comètes ayant été très peu modifiés depuis leurs origines, cela signifie qu’aux premiers temps du système solaire, les composés organiques étaient déjà agglomérés sous forme de grains, et pas uniquement sous forme de petites molécules piégées dans la glace comme on le pensait jusqu’à présent. Ce sont de tels grains qui, introduits dans des océans planétaires, auraient pu y favoriser l’émergence du vivant.

Des terrains variés cachant un intérieur plutôt homogène

COSAC a identifié un grand nombre de composés azotés, mais aucun composé soufré, contrairement à ce qu’avait observé l’instrument ROSINA, à bord de Rosetta. Cela pourrait indiquer que la composition chimique diffère selon l’endroit échantillonné.

Par ailleurs, les propriétés mécaniques des terrains ont pu être déduites de l’« accométage » à rebondissements de Philae. L’atterrisseur a d’abord touché la surface à un endroit baptisé Agilkia, et a ensuite rebondi plusieurs fois avant d’atteindre le site nommé Abydos. La trajectoire de Philae et les données enregistrées par ses instruments montrent qu’Agilkia est composé de matériaux granuleux sur une vingtaine de centimètres, tandis qu’Abydos a une surface dure.

Au contraire, l’intérieur de la comète parait plus homogène que prévu par les modèles. L’expérience radar CONSERT (Comet nucleus sounding experiment by radio transmission) donne, pour la première fois, accès à la structure interne d’un noyau cométaire. Le temps de propagation et l’amplitude des signaux ayant traversé la partie supérieure de la « tête » (le plus petit des deux lobes de Tchouri) montrent que cette portion du noyau est globalement homogène, à l’échelle de dizaines de mètres. Ces données confirment aussi que la porosité est forte (75 à 85%), et indiquent que les propriétés électriques des poussières sont analogues à celles de chondrites carbonées.

Une surface tourmentée

L’expérience CIVA-P (P pour panorama), composée de sept microcaméras, a pris une image panoramique (360°) du site d’atterrissage final de Philae. Elle révèle que les fractures déjà repérées aux grandes échelles par Rosetta se retrouvent aussi jusqu’à l’échelle millimétrique. Ces fractures sont formées par choc thermique, en raison des grands écarts de température que connait la comète lors de sa course autour du soleil.

Des précisions sur la localisation et l’orientation de Philae

Cette image panoramique où apparait par endroits un pied ou une antenne, a aussi révélé la position de Philae. Il repose dans un trou de sa propre taille, couché sur le côté (avec seulement deux pieds sur trois au contact du sol), et entouré de parois qui compliquent son alimentation en énergie solaire et ses communications avec Rosetta.

L’instrument CONSERT a quant à lui déterminé, avec trois périodes d’observations en visibilité directe entre la sonde Rosetta et Philae, la zone (150 mètres par 15 mètres) où se trouve Philae. Cela a facilité la reconstitution de la trajectoire de Philae entre le premier site de contact, Agilkia, et le site d’atterrissage final, Abydos. Puis, en utilisant les signaux qui ont traversé l’intérieur de la comète, CONSERT a réduit l’incertitude sur la localisation de Philae (au bord de la région dénommée Hatmehit) à une bande de 21 mètres par 34 mètres.

Avec les quatre autres articles publiés (portant par exemple sur les propriétés magnétiques et thermiques de Tchouri), ces premières mesures à la surface d’une comète renouvellent l’image que l’on avait de ces petits corps du système solaire.

Références :

  • 67P/Churyumov-Gerasimenko surface properties, as derived from the first CIVA-P in situ panoramic images, J-P. Bibring et al., Science, 31 juillet 2015. DOI : 10.1126/science.aab0671
  • Properties of the 67P/Churyumov-Gerasimenko interior revealed by CONSERT radar, W. Kofman et al., Science, 31 juillet 2015. DOI : 10.1126/science.aab0639
  • Organic compounds on comet 67P/Churyumov-Gerasimenko revealed by COSAC mass spectrometry, F. Goesmann et al., Science, 31 juillet 2015. DOI : 10.1126/science.aab0689
  • The landing(s) of Philae and inferences about comet surface mechanical properties, J. Biele et al., Science, 31 juillet 2015. DOI : 10.1126/science.aaa9816

Source : CNRS

Et aussi dans les ressources documentaires :

L’Univers se meurt à petit feu (étude)

Les chercheurs ont procédé aux mesures les plus précises d’énergie jamais réalisées dans une partie assez vaste de l’espace. L’énergie produite a été divisée par deux et diminue sans cesse, ont-ils découvert.

« A partir de maintenant, l’Univers est voué au déclin, comme une vieillesse qui durerait pour toujours », a expliqué Simon Driver, membre du Centre international de recherches radioastronomiques (Icrar) de l’Etat d’Australie occidentale qui a participé au projet.

« L’Univers s’est écroulé sur son sofa, a ramené la couverture à lui et s’apprête à dormir d’un sommeil éternel », selon lui.

Les chercheurs ont utilisé sept des télescopes les plus puissants de la planète pour observer pendant huit ans des galaxies dans 21 longueurs d’onde différentes, comme l’infrarouge ou l’utraviolet, dans le cadre de l’étude Gama (Galaxy and mass assembly).

Deux télescopes spatiaux de la Nasa, un télescope spatial de l’Agence spatiale européenne (ESA) et le Télescope anglo-australien de Nouvelle-Galles du Sud ont en particulier été mis à contribution pour cette étude, fruit d’une collaboration entre une centaine de scientifiques issus de plus de 30 universités australiennes, européennes et américaines.

« Nous avons utilisé autant de télescopes terrestres et spatiaux que possible afin de mesurer la production d’énergie générée par plus de 200.000 galaxies dans des longueurs d’onde aussi variées que possible », a déclaré Simon Driver, qui devait présenter lundi à Hawaï les résultats du projet à l’Union internationale astronomique.

Une bonne partie de l’énergie qui circule dans l’Univers a été générée après le Big Bang mais de l’énergie nouvelle est constamment libérée lors de la fusion thermonucléaire dans les étoiles.

Andrew Hopkins, de l’Observatoire astronomique australien, explique que les chercheurs savent depuis un moment que le rythme de création d’étoiles dans l’Univers est en déclin. Mais cette étude montre que le taux de production d’énergie diminue de manière semblable dans les différentes longueurs d’onde, souligne-t-il.

« Peu importe les longueurs d’onde utilisées, la production d’énergie ralentit de la même manière », a expliqué M. Hopkins à l’AFP.

Les chercheurs espèrent aussi que les données recueillies permettront de mieux comprendre le processus de formation des galaxies. Ils veulent également élargir leurs études pour documenter la production d’énergie tout au long de l’histoire de l’Univers.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Des astronautes vont goûter les premières salades cultivées dans l’espace

La Nasa espère que cela permettra de fournir une source durable d’alimentation pour les astronautes qui effectueront de longues missions dans l’espace.

L’astronaute américain Scott Kelly et d’autres membres de l’équipage de l’avant-poste orbital devaient consommer les premières feuilles de laitue « spatiale » entre 15:15 et 16:00 GMT.

« Il y a des indications que des fruits et légumes frais comme les tomates, les myrtilles et des laitues romaines sont de bonnes sources d’antioxydants », a souligné dans un communiqué Ray Wheeler, le responsable du programme de la Nasa pour le développement de techniques permettant d’assurer le maintien des conditions de la vie dans l’espace.

« Le fait de disposer d’aliments frais dans l’espace peut aussi avoir un impact psychologique favorable sur les astronautes et pourrait aussi fournir une certaine protection contre les radiations cosmiques », a-t-il ajouté.

« Je pense que les systèmes de culture de plantes en microgravité deviendront des éléments importants de tous les futurs voyages de longue durée dans l’espace », a estimé Gioia Massa, une scientifique de l’agence spatiale américaine qui travaille sur ces recherches au Centre Spatial Kennedy en Floride.

« Plus loin et plus longtemps les humains s’éloigneront de la Terre, plus grand sera le besoin de pouvoir faire pousser des plantes pour se nourrir et pour le recyclage de l’atmosphère ainsi que pour le confort psychologique », a-t-elle dit.

Ces salades produites dans l’espace ont été approuvées pour la consommation humaine après que la première récolte « Veg-01 » eut été ramenée sur la Terre l’an dernier pour des analyses afin de s’assurer qu’elles pouvaient être consommées, a précisé la Nasa.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Perturbateurs endocriniens : sommes-nous tous contaminés ?

Air, vêtements, objets, eau, cosmétiques, produits d’entretien… Les perturbateurs endocriniens sont invisibles mais présents partout autour de nous. Pire, ils ne se contenteraient pas de contaminer notre environnement, ils affecteraient directement notre organisme en s’attaquant aux organes responsables de la sécrétion des hormones, en altérant la régulation du métabolisme mais aussi en nuisant à la fertilité ou en perturbant fortement le développement du foetus. Ils favoriseraient également : cancers, diabète, obésité, pubertés précoces… C’est dire s’ils ont mauvaise réputation.

chimie

Pour les trouver, nous n’aurions pas à aller chercher très loin. Selon certaines études, nous serions tous déjà porteurs de ces molécules nocives puisque nous les rencontrons au quotidien. Quelles sont ces substances toxiques ? Comment fonctionnent-elles ? Quelle est la réglementation ?

La rédaction de Techniques de l’Ingénieur vous propose de faire le point sur ce qui ressemble de plus en plus à une bombe sanitaire à retardement.

La plateforme collaborative GitHub lève 250 millions de dollars

GitHub, le récit d’un succès

Depuis son lancement le 10 avril 2008 par Chris Wanstrath, PJ Hyett et Tom Preston-Werner, le site a atteint la barre des 10 millions d’inscrits et attire chaque mois près de 33 millions d’utilisateurs pouvant collaborer sur plus de 25 millions de projets.

 

GitHub a su devenir incontournable au fil des années. Le site répond aujourd’hui aux besoins d’un grand nombre d’entreprises. Pour les codeurs du monde entier, c’est une référence en matière de gestion et développement de logiciels, d’applications et de sites web. Les étudiants qui ont appris a s’en servir, conservent cette habitude une fois en entreprise. Une manière de pérenniser le réseau social.

 

Par la force des choses de grands noms s’y sont mis, d’IBM à Google en passant par Apple. Même Microsoft aurait tendance à délaisser sa propre plateforme interne CodePlex au profit de GitHub.

 

Il faut dire que le principe même de GitHub a de quoi attirer les développeurs du monde entier. Le crédo « Build software better, together  » résume très bien sa philosophie. Car GitHub est avant tout un outil communautaire permettant de déposer un projet (peu importe sa taille) pour le faire avancer. Chaque utilisateur est libre d’apporter sa contribution en proposant des corrections, des améliorations ou simplement des annotations. C’est ce que l’on appelle le fork. L’aspect collaboratif vous simplifie la vie en cas de doute ou lorsqu’il faut valider des étapes et vous fait gagner du temps. 

 

Cela va même plus loin puisque l’audacieuse plateforme attirerait dans son giron quelques particuliers avides de faire progresser les choses. Et ce dans tous les domaines. Comme en avril dernier, lorsque le développeur Steeve Morin a mis le code civil afin de pouvoir observer comme, il le dit, « la loi à un instant T, et ses évolutions ». Toutefois, qu’il n’y ait pas de méprise, GitHub demeure paradoxalement peu connu du grand public.

 

Par Sébastien Tribot

Et aussi dans les
ressources documentaires :

Perturbateurs endocriniens : sommes-nous tous contaminés ?

Air, vêtements, objets, eau, cosmétiques, produits d’entretien… Les perturbateurs endocriniens sont invisibles mais présents partout autour de nous. Pire, ils ne se contenteraient pas de contaminer notre environnement, ils affecteraient directement notre organisme en s’attaquant aux organes responsables de la sécrétion des hormones, en altérant la régulation du métabolisme mais aussi en nuisant à la fertilité ou en perturbant fortement le développement du foetus. Ils favoriseraient également : cancers, diabète, obésité, pubertés précoces… C’est dire s’ils ont mauvaise réputation.

Pour les trouver, nous n’aurions pas à aller chercher très loin. Selon certaines études, nous serions tous déjà porteurs de ces molécules nocives puisque nous les rencontrons au quotidien. Quelles sont ces substances toxiques ? Comment fonctionnent-elles ? Quelle est la réglementation ?

La rédaction de Techniques de l’Ingénieur vous propose de faire le point sur ce qui ressemble de plus en plus à une bombe sanitaire à retardement.

Un écran à cristaux liquides à base de nanofibrilles de cellulose capable de s’alimenter par simple touché

Il suffit de toucher sa surface pour produire de l’électricité. La surface de quoi ? D’un écran souple construit comme un sandwich.

Une première couche est une simple feuille de papier à base de nanofibrilles de cellulose (NFC) recouverte de nanotubes de carbones. Une couche de polyéthylène est déposée dessus afin de pouvoir la charger. Une deuxième feuille de papier est ensuite posée par-dessus la face avec le polyéthylène, un vide d’air est laissé entre les 2 feuilles devenues des électrodes. Dès lors, une simple pression rapproche les deux feuilles de papier, générant un courant qui se propage le long du papier. D’après les travaux publiés dans ACS Nano, ce dispositif a fonctionné pendant 54 000 cycles (pression/relâchement) et permis de faire fonctionner un écran à cristaux liquides sans aucune autre source d’énergie.

Un tel système présente l’avantage d’être dégradable et pourrait donc servir à alimenter les nouveaux produits électroniques eux-mêmes issus de NFC. Depuis quelques années certains se penchent sur la fabrication de composants moins polluants que ceux à base de silicium et les NFC  sont une solution alternative prometteuse. En attendant un tel couplage, ce petit système transparent pourrait servir d’antivol : apposé sur un objet (carton, œuvre d’art…), il déclencherait une alarme si un voleur venait à le toucher. Les chercheurs pensent aussi à s’en servir pour des livres jetables.

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Des nanofils de niobium comme source d’énergie des vêtements connectés

Un mariage réussit ? En couplant un super-condensateur à une batterie classique, les scientifiques en Ingénierie mécanique au MIT pensent avoir trouvé la bonne combinaison pour apporter de l’énergie pour tout type de technologie embarquée. En effet, la batterie comble les besoins en énergie de faible intensité mais sur de longues périodes quand le super-condensateur pallie aux pics ponctuels de consommation. Pour assurer cette dernière fonction, les nanofils de niobium présentent de nombreux avantages, à tel point qu’ils pourraient supplanter les nanofils de carbones pour plusieurs applications. 

Le niobium est un métal de transition couramment utilisé en production d’acier mais aussi pour des applications de super-conductivité comme la fabrication d’alliage Nb3Ge. Principal atout des fils de niobium : ils sont 100 fois plus conducteurs que leur équivalent à base de nanofils de carbone ! Ils sont aussi capables de stocker cinq fois plus d’énergie. De plus, le niobium s’intègre facilement, dans des tissus grâce à sa flexibilité, ce qui ouvre la voie à toutes les applications liées aux vêtements connectés. Enfin, les fils mesurant seulement 140 nm de diamètre, les chercheurs indiquent pouvoir réduire de 30% la taille des objets utilisant cette technologie.

Le niobium est un minerai déjà exploité et dont l’extraction minière est maîtrisée. De quoi assurer un coût  suffisamment compétitif du niobium pour envisager des applications à l’échelle industrielle. Les chercheurs du MIT ont d’ailleurs indiqué travailler à passer de produit fabriqué en labo à un produit commercialisable à grande échelle.

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Le boom du solaire dans le monde

Selon l’Agence internationale de l’énergie (AIE), en 2014, 177 gigawatts (GW) de panneaux solaires étaient installés dans le monde, 38,7 GW ayant été installés sur cette seule année. Cela démontre l’intérêt grandissant des investisseurs envers cette technologie. Cette même année, la Chine a installé à elle-seule 10,6 GW de photovoltaïque, le Japon 9,7 GW et les Etats-Unis 6,2 GW.

Des investissements en net augmentation

En 2014, les énergies renouvelables ont représenté près de la moitié des nouvelles capacités installées dans le monde. L’hydraulique représente toujours la première source d’énergie renouvelable, suivie par l’éolien et la biomasse. Mais c’est l’énergie solaire qui progresse le plus rapidement. 

En 2014, les investissements mondiaux dans les énergies renouvelables ont progressé de 16 % pour atteindre un montant total de 310 milliards de dollars selon Bloomberg New Energy Finance (BNEF). Si la Chine reste le premier consommateur de charbon du monde, elle est aussi devenue le premier investisseur dans les énergies renouvelables, avec 89,5 milliards de dollars d’investissements sur l’année. Soit une hausse de 32 % sur un an ! La Chine se situe largement en tête de se classement, suivie par les États-Unis, (51,8 milliards de dollars), le Japon (41,3 milliards de dollars) et l’Allemagne (15,3 milliards de dollars).

Si l’Inde n’a investi « que » 7,9 milliards de dollars en 2014 dans les énergies renouvelables, le pays a récemment annoncé miser fortement sur le développement de l’énergie solaire. Cela pourrait changer la donne pour les 40 % d’habitants qui n’ont toujours pas accès à l’électricité. Le Gouvernement indien a ainsi annoncé vouloir porter à 100 GW sa capacité de production d’énergie solaire d’ici à 2022. Pour cela, il investira 100 milliards de dollars sur les sept prochaines années. Le solaire fournissant aujourd’hui moins de 1 % de l’électricité nationale devrait atteindre 10 % à cet horizon.

La Chine, leader mondial du solaire fin 2015 ?

La Chine a développé au premier trimestre 2015 autant de capacité de production d’électricité solaire que toute la capacité existante de la France, soit 5,04 GW. La Chine a prévu d’ajouter encore 18 GW de plus à la capacité existante de 33 GW.

Si l’Allemagne demeure en tête des capacités photovoltaïques installées, avec ses 38,2 GW, la Chine devrait devenir le leader mondial fin 2015. Selon ses objectifs, le solaire et l’éolien devraient représenter 20% de la production totale d’énergie chinoise d’ici à 2030 

La Chine est déjà de loin le leader mondial du solaire thermique. Selon les statistiques de l’AIE, le pays possède déjà 180 GW de capacités installés, soit les deux-tiers de la capacité solaire thermique mondiale. Avec 16 GW d’installés, les États-Unis sont deuxième.

Des pays plus discrets qui se démarquent

Certains pays se font plus discrets, mais ont une part déjà assez élevée d’électricité fournie par le photovoltaïque. Selon l’AIE, c’est notamment le cas de l’Italie où le photovoltaïque représente déjà 7,9 % de la production électrique. C’est le pays qui produit la plus grande part de son électricité à partir du solaire, au monde. L’Italie est suivie de la Grèce, avec une part de production de 7,6 % d’électricité d’origine solaire. 

De son côté, l’Espagne est le leader mondial du solaire à concentration. Les Etats-Unis sont deuxième, suivis par les Emirats-Arabes Unis, l’Inde et l’Algérie. 

L’énergie solaire devrait devenir la première énergie renouvelable dans le monde d’ici 2030 et pourrait même être la première source d’énergie, toutes sources confondues, en 2050.

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

L’Arabie saoudite mise sur les énergies renouvelables

L’Arabie saoudite, deuxième producteur mondial de pétrole après les Etats-Unis, veut utiliser la manne pétrolière pour rester une grande puissance mondiale. Par la voie de son ministre du pétrole, Ali al-Naimi, le pays a annoncé vouloir diminuer l’utilisation des énergies fossiles sur son territoire et devenir un leader mondial des énergies renouvelables (éolien et solaire) d’ici 2040. « L’Arabie saoudite reconnaît qu’un jour le monde n’aura plus besoin d’hydrocarbures. Je ne sais pas quand cela arrivera, probablement en 2040, 2050 ou plus tard. Nous nous sommes donc engagés dans un programme pour développer l’énergie solaire », a-t-il indiqué, lors du Business and Climate Summit de Paris à la fin du mois de mai.

Le pays du tout pétrole

Avec ses 30 millions d’habitants, le pays est le plus grand consommateur de brut au Moyen-Orient, et le sixième au monde. Il consomme environ le quart du pétrole qu’il produit (3 millions de barils sur une production journalière de 11,5 millions en 2014), ce qui le classe au sixième rang mondial des plus gros consommateurs de pétrole. Sa consommation intérieure a encore augmenté de 7 % en 2014. En cause notamment, le développement constant des climatiseurs dans ce pays où les températures moyennes estivales tournent autour de 45°C. L’enjeu principal pour les saoudiens, c’est donc de diminuer leur consommation intérieure de pétrole. 

Les capacités de production électrique de l’Arabie saoudite sont d’environ 30 gigawatts (GW). Son parc électrique est presque exclusivement constitué de centrales thermiques à fioul et à gaz. Le pays a décidé de miser sur les énergies renouvelables et le nucléaire. Il ambitionne de construire 16 réacteurs nucléaire d’ici 2030, pour une capacité totale de 17 GW, et d’installer 41 GW de panneaux photovoltaïques d’ici 2040. En 2012, le plan de développement solaire était annoncé pour 2032 ; il a été repoussé de 8 ans. D’ici 2040, le pays devrait également installer 21 GW de production géothermale et éolienne. De quoi assurer presque la totalité de la production électrique à partir de sources renouvelables et du nucléaire, alors qu’actuellement, celles-ci ne couvrent que 1 % de la production.

Diminuer sa consommation de pétrole pour mieux exporter

La réalité est là : si l’Arabie saoudite diminuait sa consommation intérieure et exportait les barils économisés, cela pourrait lui rapporter 180 millions de dollars par jour (à 60 dollars le baril). En attendant, les barils utilisés dans le pays ne rapportent pas grand chose à l’Etat. En effet, lorsqu’il s’agit d’usages domestiques, carburant ou production électrique, Saudi Aramco, la compagnie nationale d’hydrocarbures et détenue à 100 % par l’Etat, doit vendre ses barils au prix de 5 dollars. Une manne de revenue considérable perdue, en somme.

Bien que le pays dispose des deuxièmes plus grandes réserves de pétrole prouvées au monde (derrière le Venezuela) avec 267 milliards de barils, il sait que ses réserves ne sont pas infinies. A production constante, ses puits seront taris dans environ 60 ans. Si sa consommation énergétique reste entièrement dépendante du pétrole et continue d’augmenter, pourra-t-il continuer à exporter autant de pétrole ? Lorsque les pays auront bien entamé leurs transitions énergétiques, continueront-ils à importer autant de pétrole ? Face à ces incertitudes, le royaume cherche d’autres sources pour compléter ses revenus. Il espère ainsi exporter des gigawattheures d’électricité dans le Golfe, en parallèle de ses exportations de pétrole et de gaz.

Le choix est stratégique. En diminuant fortement l’utilisation des énergies fossiles dans sa consommation intérieure, les saoudiens pourront continuer leurs exportations. Ils ne peuvent pas faire sans pour le moment : les exportations de pétrole représentent environ 75 % des recettes du pays.

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

Google mesure la pollution de l’air avec les véhicules de Street View

Durant un mois, 3 voitures de Google Street View ont silloné les rues de Denver, en Arizona. Cela a permis de collecter 150 millions de points de données, notamment sur la concentration atmosphérique en dioxyde d’azote, oxyde nitrique, ozone, monoxyde de carbone, dioxyde de carbone, méthane, noir de carbone, particules et composés organiques volatils (COV). Ces polluants de l’air peuvent affecter la santé humaine et jouent un rôle dans le changement climatique.

« La qualité de l’air extérieure est un problème qui touche tout le monde, spécialement les personnes qui vivent dans de grandes villes, rappelle Kari Tuxen-Bettman, Gestionnaire de Programme à Google Earth Solidarité. Nous espérons que ces informations permettront à plus de personnes de comprendre comment nos villes vivent et respirent, et qu’elles rejoindront le dialogue pour améliorer la qualité de l’air. »

Renforcer le contrôle de la qualité de l’air

Pour vérifier si la qualité de l’air répond aux normes de santé publique, l’Agence américaine de protection de l’environnement (EPA) dispose d’un vaste réseau de stations de mesures, placées dans les zones urbaines. En France, le système est similaire et ce sont des associations qui mesurent et fournissent les données sur la qualité de l’air. Ces réseaux de surveillance ne donnent pas une image détaillée de la pollution dans un quartier. Les habitants ne peuvent donc pas connaître la qualité de l’air dans leur environnement immédiat. Ces nouvelles mesures permettent de la connaître au niveau de la rue.

« Notre partenariat de recherche avec Aclima nous aide à comprendre les polluants atmosphériques au niveau local et communautaire, et comment ils se déplacent dans une zone urbaine au niveau du sol, prévient Dan Costa, directeur du programme national au Bureau de recherche et développement de l’EPA. De nouvelles mesures mobiles de l’air peuvent compléter les stations de mesures fixes existantes pour une image plus détaillée de la qualité de l’air personnelle et communautaire.»

Cartographier pour mieux agir

Ces données pourront être fournies aux scientifiques et aux collectivités locales afin de les aider à mieux comprendre la pollution urbaine. Pour chaque ville, des cartes avec les lieux les plus pollués pourraient être proposées. Savoir où la pollution est la plus concentrée permettrait ainsi d’agir localement plus efficacement. «Nous savons que les arbres absorbent la pollution, le dioxyde d’azote notamment. Si nous savons où se situent les points les plus problématiques en ville, nous saurons où placer des espaces verts.», soutient  Davida Herzl, fondatrice d’Aclima.

À l’automne, Google et Aclima étendront leurs tests à la baie de San Francisco. Pour la suite, rien n’est encore annoncé, mais  Aclima fait savoir rien qu’il serait techniquement possible d’équiper toutes les voitures de Google Street View.

Ce partenariat étend celui déjà établi entre les deux entreprises pour mesurer la qualité de l’air intérieure de 21 bureaux de Google à travers le monde. Le système traite 500 millions de points de données chaque jour sur la qualité de l’environnement intérieur, comme des mesures de température, d’humidité, de bruit et de lumière,ou de concentrations en polluants atmosphériques.

  • Carte d’Aclima localisant précisément la concentration en ozone dans les rues de Denver à 9h

  • Vidéo du projet (en anglais)

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

L’ordinateur quantique est-il l’avenir de l’informatique ?

Il fait rêver bien des scientifiques. Plus rapide, plus performant, il pourrait réaliser des opérations jusqu’à présent impossibles et dépasser les plus puissants supercalculateurs.

Oui, mais il reste des obstacles non négligeables à franchir : les qubits sont capricieux, ils ne cessent de bouger !

Les industriels rivalisent d’ingéniosité pour s’emparer du premier spécimen viable. Google a monté une équipe de chercheurs entièrement dédiée à ce projet. Créer le tout premier ordinateur quantique lui confèrerait non seulement une aura indescriptible mais lui assurerait surtout une place de choix dans le monde technologique de demain.

Les applications ne manquent pas : chimie moléculaire, big data, machine learning, cryptographie… Celui qui posséderait l’ordinateur quantique serait à même de déchiffrer tous les codes. La rédaction de Techniques de l’Ingénieur vous propose de partir à la découverte de ce mystérieux ordinateur…

Le data design vu par deux artistes belges

On l’avait laissé en 2012 à Nantes, à Stéréolux. Elle avait ensuite continué son tour du monde, s’arrêtant à Bruxelles ou encore au Japon. Voilà qu’elle investit aujourd’hui Rome et son musée d’art contemporain jusqu’en septembre 2015. L’installation visuelle créée par Frédéric Penelle et Yannick Jacquet, baptisée Mécaniques discursives n’est donc pas morte. Bien au contraire. Celle que l’on décrit comme une sorte de cadavre exquis surréaliste, ou absurde et poésie se côtoient, semble plus que jamais d’actualité.

Parce que ce qu’offrent à voir les deux artistes, de manière volontairement complexe et décousue, c’est une vision du monde dans lequel nous évoluons tous les jours. Une société où la technologie nous précipite de plus en plus vers un futur où l’être humain est enseveli sous un tas d’informations et de chiffres parfois absurdes. Or, pour donner du sens aux données, on les expose sous forme de représentations, souvent sophistiquées, on crée un langage visuel, bref on fait du data design. Pas moyen d’y échapper. Pour nous, cela paraît banal aujourd’hui, de résumer des vies, des concepts, des statistiques en graphiques.

Peut-être est-ce la raison pour laquelle l’installation s’attache à montrer cette facette de nos vies de manière loufoque et amusante. Car tout est fait pour désorienter le spectateur : des images elles-mêmes au parcours de « cette infernale machinerie ». Sur les murs s’affichent un réseau de gravures étranges liées entre elles par un fil, formant une sorte de schéma où vivent une collection d’objets tirés de l’imaginaire des deux bruxellois. Tout est mélangé, réapproprié, détourné, mal assorti. Des représentations, au bazar bigarré d’objets, aux codes du data design…

En mêlant deux technologies opposées, la gravure et la projection vidéo, Mécaniques discursives, sort forcément du carcan traditionnel. Frédéric Penelle et Yannick Jacquet ne s’y sont pas trompés.

Par Sébastien Tribot

Sources :

Et aussi dans les
ressources documentaires :

Etre introverti n’est pas un frein à la carrière

« Replié sur soi-même, centré sur sa vie intérieure », les introvertis ne sont pas a priori très compatibles avec les modes de fonctionnements actuels des entreprises. Alors que la mode est aux opens spaces, au reporting à outrance, les introvertis apparaissent en décalage. Leur besoin d’isolement, leur tendance à peu s’exprimer en font des individus en retrait, ce qui pourrait nuire à leur évolution professionnelle.

Depuis quelques années, l’introvertie Susan Cain prêche la bonne parole à travers le monde grâce notamment à son livre La force des discrets. L’avocate explique le fonctionnement des introvertis, leur besoin de solitude, leur plus grande efficacité quand ils sont au calme. Un discours appuyé par une étude publiée dans le magazine Frontiers in Human Neuroscience en 2013 qui expliquait les différences de fonctionnement du cerveau et notamment au niveau de la zone de gratification : les extravertis profitent d’une augmentation du taux de dopamine lorsqu’ils sont soumis à des stimuli externes, phénomène absent de la tête des introvertis.

Malgré un environnement propice à l’épanouissement des extravertis, les personnalités introverties peuvent parfaitement évoluer et s’imposer. A condition d’avoir conscience des différences et des besoins de chacun. Par exemple, alors qu’un extraverti va se nourrir et être stimulé par les interactions avec autrui, un introverti va s’épuiser dans ces échanges. Il aura donc besoin de pouvoir se ressourcer au calme. Cette composante commence à être prise en compte comme par exemple chez Google qui intègre dans ses locaux des espaces favorisant la tranquillité et permettant à ceux qui le souhaitent de s’isoler et de travailler en solitaire.

D’après Susan Cain, les introvertis représenteraient entre 30 % et 50 % des effectifs. Autant profiter de leurs atouts, nombreux ! En effet, être introverti implique une grande capacité d’écoute et de réflexion avant toute action. Des qualités essentielles qui ont fait le succès de ces introvertis devenus célèbres : Bill Gates, Gandhi, Einstein ou encore Obama.

Par Audrey Loubens

Et aussi dans les ressources documentaires :

Les fleuves africains réchauffent la planète

Cette étude était d’envergure. Elle a porté sur les émissions de 12 fleuves africains entre 2006 et 2014 et regroupé une équipe internationale de chercheurs belges, français et kényans. Les chercheurs ont mesuré les concentrations de dioxyde de carbone, de méthane et d’oxyde nitreux, les trois principaux gaz à effet de serre contenues dans les eaux intérieures africaines, puis calculé les flux qui s’opèrent vers l’amosphère. Les climats, végétations et topographies associés à chacun de ces fleuves étaient variés : climat humide avec forêt tropicale pour le fleuve Congo, semi-aride avec savane pour le Trana (Kenya), bassins au relief très pentu pour le Rianila (Madagascar)…

Selon les résultats, les émissions de gaz à effet de serre par les fleuves et leurs affluents sont d’environ 0,4 pétagrammes de carbone (PgC) par an, ce qui équivaut aux deux tiers des puits de carbone (0,6 PgC) continental supposés jusqu’ici pour le continent africain. En incluant les émissions des zones humides du Congo, ces émissions dépassent le puits de carbone continental et atteignent 0,9 Pg de carbone. Cette valeur équivaut à environ un quart des puits de carbone terrestres et océaniques africains réunis.

Cette étude bouleverse totalement la connaissance du bilan total en carbone à l’échelle du continent. Le puits de carbone continental d’Afrique semble avoir été surestimé. En relâchant de grandes quantités de gaz à effet de serre dans l’atmosphère, les grands fleuves contrebalancent la capacité des forêts et de la végétation à fixer durablement le carbone : ces puits de carbone supposés pour le continent africain devront donc être revus à la baisse. Jusqu’ici ces évaluations reposaient uniquement sur des études menées au Brésil sur l’Amazone, aucune mesure étandue n’avait été réalisée sur le continent africain.

Comment se forment ces gaz à effet de serre ?

Ces émissions ne sont pas produites dans les rivières a proprement parlé, mais sont issues de la dégradation de la matière organique de la végétation terrestre et de la végétation des zones humides. « Ces zones humides sont caractérisées par une forte photosynthèse « aérienne » (par la végétation émergée) mais la matière organique produite est tôt ou tard transférée dans l’eau. Cette matière organique dans l’eau accroît la production et l’émission de CO2 et de CH4 », explique l’Institut de recherche pour le développement (IRD) qui a participé à l’étude. « Les émissions de carbone (CO2 et CH4) associées aux zones humides sont énormes car les surfaces occupées le sont aussi. Rien que pour le bassin du Congo, les zones humides (principalement des forêts inondées) occupent 360 000 km2, soit la superficie de l’Allemagne » précise-t-il.

Ces émissions naturelles ne peuvent pas être limitées.Mais les modifications de l’hydrologie, de l’occupation des sols et la mise en place de barrages les modifieront. « On sait que la population de la République démocratique du Congo va doubler, passant d’environ 65 à 130 millions d’habitants en 25 ans, note Alberto Borges, spécialiste dans l’émission de gaz à effet de serre des milieux aquatiques vers l’atmosphère à Université de Liège et auteur de l’étude. Ce saut aura inévitablement un impact sur le fonctionnement du fleuve Congo, probablement en lien avec une déforestation accrue, et peut-être une évolution vers l’agriculture intensive, alors qu’elle est actuellement principalement traditionnelle. Il est envisageable que le nombre de barrages hydroélectriques augmente, le potentiel hydroélectrique en Afrique restant largement sous-exploité. De même, le détournement d’eau pour l’irrigation va augmenter. Tout ceci aura des conséquences sur les émissions de gaz à effet de serre par les fleuves ».

Par Matthieu Combe

Et aussi dans les ressources documentaires :

La pollution de l’air coûte cher aux bâtiments

La pollution de l’air détériore les façades des bâtiments. Plus fragiles, les monuments du patrimoine sont les plus touchés. Les particules engendrent principalement des dégradations esthétiques, par encrassement ou dépôts noirâtres. Des suies noires peuvent recouvrir tous les matériaux : la pierre, le ciment, le béton, la brique, la céramique ou encore le bois. L’acide nitrique (NO2), le dioxyde de soufre (SO2), le dioxyde d’azote (NO2) et le dioxyde de carbone (CO2) érodent principalement les matériaux, par sulfatation ou carbonation.

Selon l’association de surveillance de la qualité de l’air en Ile-de-France, Airparif, plusieurs mécanismes entrent en jeu : la perte de masse des calcaires exposés à  une pluie acide, et un air contenant du SO2 et du NO2 ; la perte de transparence du verre en fonction de la teneur de l’air en suies, en SO2 et en NO2 et la perte superficielle des vitraux anciens en potassium et calcium suivant l’humidité relative de l’air et sa teneur en SO2 et NO2. L’impact d’autres types de polluants comme ceux émis par les transports routiers, notamment les oxydes d’azote et les particules fines demeure mal évalué. Notons que selon ce rapport, d’ici la fin du siècle, l’augmentation des concentrations atmosphériques en CO2 deviendra certainement le facteur principal d’érosion des façades des bâtiments en calcaire.

Comment estimer les coûts de la pollution de l’air sur les bâtiments ?

Concernant les coûts associés à l’impact de la pollution de l’air sur les bâtiments, il y a un coût facile à évaluer (dit « coût tangible ») : il s’agit de celui lié à la rénovation périodique des façades du fait de leur encrassement et de leur érosion. Mais il existe également un coût beaucoup plus difficile à estimer (dit « coût non tangible »), c’est celui lié à la dégradation esthétique des bâtiments, en particulier des bâtiments patrimoniaux. Peu d’études portent sur ce dernier, mais quelques chiffrages laissent supposer qu’ils est « loin d’être négligeable », selon les enquêteurs.

Pour chiffrer les coûts liés à la rénovation des façades, la commission d’enquête sénatoriale s’est appuyée sur deux études européennes. La première, l’étude Cafe, « relève tout d’abord un certain nombre d’effets néfastes, comme la corrosion des pierres, de métaux et des peintures, la corrosion du patrimoine culturel, les dommages provoqués par l’ozone sur les matériaux polymères ou encore la salissure des bâtiments », rappelle le rapport d’enquête. Elle estime le coût total de ces dégradations à 1,1 milliard d’euros pour l’ensemble des 25 pays européens étudiés.

La deuxième étude a été menée en 2000 et réactualisée en 2014 par l’Institut de recherche et de conseil Infras et l’Institut für Witschaftspolitik und Wirtschaftsforschung (IWW). Elle a évalué le coût représenté par la dégradation des bâtiments dus aux transports, pour la Suisse à 337 millions d’euros par an. En extrapolant ces résultats sur les autres pays européens, elle a conclu qu’ « environ 18 % des coûts associés à la pollution de l’air due aux transports était lié aux dommages des bâtiments (contre 81 % pour les coûts sanitaires et 1 % du fait des pertes de rendement agricole) », rapporte la Commission d’enquête. « Pour la France, l’étude retient un coût global associé à la pollution de l’air due aux transports de 19 milliards d’euros par an, et donc un coût lié aux dommages des bâtiments d’environ 3,4 milliards d’euros en 2000 », précise-t-elle.

Enfin, le Plan régional de la qualité de l’air d’Ile-de-France élaboré en 2000 évaluait pour sa part le coût de rénovation des bâtiments publics d’Ile-de-France entre 1,5 et 7 milliards de francs. Si l’on retient l’estimation haute, cela revient à plus d’1 milliard d’euros par an.

La pollution passée, un lourd héritage

Si la pollution de l’air actuelle continue d’agresser les bâtiments, la pollution incrustée par le passé sur les façades des bâtiments a également un coût. C’est notamment le cas de la pollution due aux particules de plomb, issue d’années d’utilisation de ce métal dans l’essence. « Des particules de plomb piégées dans les bâtiments anciens sont libérées lors des travaux de rénovation et provoquent une pollution importante, qui met en danger la santé des travailleurs qui y sont directement exposés, précise le rapport. Des mesures de protection des travailleurs doivent ainsi être mises en place lors des réfections, avec un coût élevé ». C’est ainsi que, par exemple, coût de la rénovation du Panthéon est passé d’un budget initial de 89 000 euros à environ 890 000 euros.

Le 15 juillet dernier, la ministre de l’Ecologie Ségolène Royal a promis d’annoncer « la semaine prochaine » des « mesures extrêtement fermes » pour lutter contre la pollution de l’air. Lors du dernier conseil des ministres du 31 juillet avant la trêve estivale, ce plan n’avait toujours pas été annoncé. Il faudra donc attendre la rentrée pour voir comment la ministre compte réagir à ces nouvelles données.

Par Matthieu Combe, journaliste scientifique

Et aussi dans les ressources documentaires :

Des nanoparticules pour piéger les polluants

Une nouvelle étude démontre l’efficacité de nanoparticules pour dépolluer l’eau et les sols. Celles-ci éliminent des pesticides, des hormones, des phtalates, le bisphénol A et les hydrocarbures aromatiques polycycliques… Les résultats de ces travaux sont publiés dans la revue Nature CommuLes pesticides, perturbateurs endocriniens et autres molécules toxiques polluent l’air, l’eau et les sols. Les techniques habituelles pour les éléminer sont coûteuses, fastidieuses, voire peu efficaces. Mais des chercheurs du Massachusetts Institute of Technology (MIT) et de la Federal University of Goiás (Brésil) viennent de découvrir une nouvelle méthode efficace, simple, rapide et économique pour décontaminer les eaux et les sols. En ligne de mire : les polluants hydrophobes, tels que les pesticides apolaires, les hydrocarbures aromatiques polycycliques et certains perturbateurs endocriniens comme le bisphénol A et les phtaltes.

Des nanoparticules piégeant des polluants

Les chercheurs ont synthétisé des nanoparticules de 45 à 120 nm à base polyéthylène glycol (PEG) et d’acide polylactique (PLA), des polymères biodégradables sensibles à la lumière. « Des microparticules et nanoparticules préparées à partir de ces polymères sont utilisées dans des applications biomédicales depuis 20 ans », insistent les chercheurs dans leur étude. Ils ne risquent donc pas de contaminer l’environnement et les organismes vivant dans le milieu traité. « Certains polymères, tels que le PEG, PLA ou PLGA, sont généralement reconnus comme sûrs pour une utilisation dans des cellules, des animaux et des humains. Ils sont utilisés comme additifs alimentaires ainsi qu’en tant qu’excipients dans divers médicaments et produits cosmétiques approuvés par la Food and Drug Administration des États-Unis. », rappellent-ils.

Ces nanoparticules précipitent rapidement lorsqu’elles sont exposées au rayonnement ultra-violet. Les agrégats formés sont enrichis en polluants et peuvent être facilement séparés par sédimentation et décantation, centrifugation ou filtration. La décontamination serait efficace pour 22 types de polluants hydrophobes de l’eau et des sols et une seule opération suffirait donc à éliminer l’ensemble de ces polluants. Grâce à un rapport surface/volume important, ces nanoparticules permettent de limiter la quantité de produit à utiliser pour éliminer les polluants à grande échelle.

L’étude a par ailleurs démontré la faisabilité de la dépollution par le biais de trois projets pilotes pour éliminer des phtalates d’eaux usées, extraire du bisphénol A de papier termique et des hydrocarbures aromatiques polycycliques de sols. Cette technique pourrait ainsi être utilisée pour de nombreuses applications industrielles, dont la décontamination des sols et la réhabilitation de l’environnement à la suite de déversements chimiques.

Par Matthieu Combe, journaliste scientifique

Source : Nature Communications

Et aussi dans les ressources documentaires :

Un microphone à base de graphène

« Les chauves-souris peuvent le faire. Les dauphins peuvent le faire. Maintenant, les hommes aussi. » Voici un teaser digne de Marvel. Pourtant, c’est le titre de l’article du journal de Berkeley annonçant les travaux de leurs chercheurs à propos d’un nouveau dispositif à base de graphène. Son superpouvoir ? Une extra-sensibilité.

En effet, le système mis au point permet d’émettre et de recevoir sur une gamme de fréquence particulièrement étendue dans les domaines du subsonique comme les chauves-souris et ultrasonique comme les dauphins: en dessous de 20 Hz et au-delà de 500 000Hz !

Publié dans la revue Proceedings of the National Academy of Sciences, ce travail s’appuie sur les propriétés physiques hors-normes du graphène, ce matériau bidimensionnel cristallin de carbone qui valut le prix Nobel de Physique à son découvreur Andre Geim en 2010. 

Deux ans plus tôt, cette équipe menée par Qin Zhou avait déjà réussit à fabriquer un haut-parleur avec un diaphragme en graphene. C’est donc très logiquement qu’ils ont voulu utiliser cette même technologie pour un microphone. Les appareils mis au point utilisent un diaphragme en graphène, ce qui lui confère la meilleure combinaison entre rigidité, résistance et légèreté pour être sensible aux très basses et très hautes fréquences. Plus particulièrement la fine épaisseur de la feuille d’atome lui donne une légèreté unique permettant une sensibilité aux impulsions électriques bien supérieure aux systèmes piézo-électriques actuels

« Notre membrane est si légère qu’elle a une réponse en fréquence extrêmement large. Elle est en mesure de générer des impulsions  et mesurer des distances avec beaucoup plus de précision que les méthodes traditionnelles » se  félicite Zhou.

Autre avantage, ce système micro/haut-parleur convertit 99% de l’énergie en son contre seulement 8% pour les systèmes standards.

Sur les conseils de sa femme, le physicien a utilisé ce prototype pour écouter le chant des chauves-souris. Emballé, Qin Zhou part dans le parc de Livermore capturer ce son inaudible à l’oreille humaine. Ce n’est qu’une fois ralenti en laboratoire qu’il put s’émerveiller du  « bat langage ». 

Un tel dispositif peut servir pour les communications sous-marines bien sûr, mais surtout pour communiquer via des matériaux comme l’acier, inaccessibles aux systèmes électromagnétiques.

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Bientôt de nouvelles crèmes solaires au gadusol ?

La gadusol, c’est le nom de ces petites molécules qui absorbent les rayonements ultra-violets. Les chercheurs pensaient jusqu’à présent que le gadusol ne pouvait être synthétisé que par les microbes et que les animaux organismes marins supérieurs obtenaient le gadusol grâce à leur alimentation. Mais cette découverte change la donne

Les chercheurs ont identifié le gène codant les protéines permettant la synthèse du gadusol dans le poisson zèbre. Ils ont ensuite recherché ce gène dans d’autres espèces. Quelle ne fût pas leur surprise de découvrir un gène similaire dans des oiseaux, des reptiles, des poissons et des amphibiens… Malheureusement, les humains et autres mammifères ne disposent pas du gène nécessaire à sa synthèse. Ce gène aurait été transféré par une algue à un ancêtre commun au cours de l’évolution, à un moment, il y a plusieurs millions d’années. Mais la disparition de ce gène dans certaines branches de l’évolution demeure une énigme pour les scientifiques.

Ceci est d’autant plus étrange que le gadusol offre de nombreux avantages. « La capacité de synthétiser du gadusol, d’abord découverte dans des œufs de poissons [zèbre], a clairement une valeur évolutive pour se retrouver dans tant d’espèces, estime Taifo Mahmud, professeur à l’Université de l’Etat d’Oregon et auteur de la recherche. Nous savons qu’il offre une protection UV-B, ce qui  fait un très bon écran solaire. Mais il peut aussi jouer un rôle d’antioxydant, en réponse au stress, dans le développement embryonnaire et encore d’autres fonctions ».

Les chercheurs ont également découvert un moyen de produire du gadusol, de façon naturelle et en grandes quantités, à partir de levure. Ces travaux ouvrent la voie à de nouvelles recherches pour développer le gadusol comme ingrédient de différentes protection solaire, de cosmétiques ou de produits pharmaceutiques. Taifo Mahmud imagine même qu’il serait possible de développer un écran solaire sous forme de pillule de gadusol, et ne plus avoir besoin de se recouvrir le corps entier de crème pour profiter du soleil !

Par Matthieu Combe

Et aussi dans les
ressources documentaires :

Première détection de lithium dans les restes d’une nova

Le lithium est un élément chimique léger dont la création, au même titre que celle d’autres éléments, remonterait au Big Bang, soit à 13,8 milliards d’années. Pour autant, la compréhension des quantités de lithium détectées au sein des étoiles de l’Univers contemporain s’est avérée constituer un véritable casse-tête pour les astronomes. Les étoiles plus âgées renferment moins de lithium que prévu en effet [1], tandis que quelques autres, plus jeunes, peuvent en contenir dix fois plus [2].

Dans les années 1970, les astronomes ont envisagé la possibilité que la surabondance de lithium observée dans les jeunes étoiles résulte de novae – soit de l’explosion d’étoiles qui expulsent de la matière dans l’espace interstellaire, et contribuent par là-même à la création d’une nouvelle génération d’étoiles. Mais aucune étude poussée de plusieurs novae n’a jusqu’à présent permis de confirmer ou infirmer cette hypothèse.

Une équipe menée par Luca Izzo (Université La Sapienza de Rome et ICRANet, Pescara, Italie) a utilisé l’instrument FEROS qui équipe le télescope MPG/ESO de 2,2 mètres à l’Observatoire de La Silla de l’ESO, ainsi que le spectrographe PUCHEROS installé sur le télescope de 0,5 mètre de l’ESO à l’Observatoire de l’Université Catholique Pontificale du Chili à Santa Marina près de Santiago, dans le but d’étudier la nova Centauri 2013 (V1369 Centauri). Cette étoile, située non loin de la très brillante Beta Centauri dans le ciel austral, a explosé en décembre 2013. Elle est à ce jour la nova la plus brillante de ce siècle et est facilement observable à l’œil nu [3].

Très détaillées, les données nouvellement acquises ont révélé la signature claire de lithium expulsé de la nova à quelque deux millions de kilomètres par heure [4]. Il s’agit là de la première détection à ce jour de cet élément au sein de la matière éjectée par une nova.

Massimo Della Valle (INAF-Observatoire Astronomique de Capodimonte, Naples, et ICRANet, Pescara, Italie), co-auteur de l’étude, explique toute l’importance de cette découverte : “Il s’agit d’une réelle avancée. Si nous nous figurons l’histoire de l’évolution chimique de la Voie Lactée sous l’aspect d’un puzzle, alors le lithium en provenance des novae en constituait l’une des plus importantes et des plus énigmatiques pièces manquantes. En outre, tout modèle de Big Bang est susceptible d’être remis en question tant que l’énigme du lithium n’est pas résolue.”

La masse du lithium éjecté de la Nova Centauri 2013 semble faible – elle représenterait moins d’un milliardième de la masse du Soleil. Mais le fait que plusieurs milliards d’étoiles se soient changées en novae au cours de l’histoire de la Voie Lactée, suffit à rendre compte de la présence inattendue de vastes quantités de lithium au sein de notre galaxie.

Les co-auteurs Luca Pasquini (ESO, Garching, Allemagne) et Massimo Della Valle ont recherché des preuves de l’existence de lithium au sein des novae durant plus d’un quart de siècle. Leurs efforts se trouvent enfin récompensés. Pour le jeune scientifique qu’est Luca Izzo, auteur principal de cette étude, le plaisir est tout autre : “Il est très excitant de faire la découverte d’une chose prévue bien avant ma naissance et de l’observer pour la toute première fois le jour de mon anniversaire en 2013 !”

Notes

  • [1] La sous-abondance de lithium dans les étoiles plus âgées constitue une énigme de longue date. Cette problématique a été abordée au sein des Communiqués de Presse suivants : eso1428, eso1235 et eso1132.
  • [2] Les qualificatifs “plus jeunes” et “plus âgées” s’appliquent aux étoiles que les astronomes classent, respectivement, parmi celles de Population I et de Population II. Au sein de la Population I figure le Soleil – plus généralement, les étoiles riches en éléments chimiques lourds qui constituent le disque de la Voie Lactée. Les étoiles de Population II, plus âgées, renferment moins d’éléments lourds, peuplent le bulbe et le halo de la Voie Lactée ainsi que les amas globulaires. Notons que les étoiles de la Population I, quoique “plus jeunes”, peuvent être déjà âgées de quelques milliards d’années !
  • [3] Ces télescopes de dimensions relativement faibles, équipés de spectrographes appropriés, constituent de puissants outils pour ce type de recherche. Ainsi donc, même à l’ère des télescopes extrêmement grands, les télescopes plus petits, dédiés à des tâches spécifiques, sont susceptibles d’offrir de précieux services.
  • [4] Cette vitesse élevée, de la nova vers la Terre, se traduit par un décalage significatif, vers l’extrémité bleue du spectre, de la raie en absorption témoignant de la présence de lithium.

Plus d’informations
Ce travail de recherche a fait l’objet d’un article intitulé “Early optical spectra of Nova V1369 Cen show presence of lithium”, par L. Izzo et al., et publié dans l’édition en ligne de la revue Astrophysical Journal Letters.

Source : eso.org

Et aussi dans les
ressources documentaires :

Enfouissement des déchets nucléaires : Bercy annonce une proposition de loi en 2016

« L’expérimentation de l’enfouissement des déchets nucléaires (Cigéo) devrait faire l’objet d’une proposition de loi au premier semestre 2016 », indique Bercy dans un communiqué prenant acte de la décision du Conseil.

Ce dernier a censuré la disposition en faveur de Cigéo jugeant qu’il s’agissait d’un « cavalier législatif », c’est-à-dire un article n’ayant rien à voir avec l’objet du projet de loi pour la croissance et l’activité.

Les écologistes, qui faute de 60 députés ou 60 sénateurs, n’avaient pas pu saisir formellement le Conseil constitutionnel, lui avaient écrit pour soulever des motifs éventuels d’inconstitutionnalité sur cet article, qualifiant son introduction dans la loi de « coup de force ».

Le député écologiste Denis Baupin s’est félicité jeudi d’une « belle victoire » et d’un « échec pour le lobby nucléaire ».

Le projet Cigéo, piloté par l’Agence nationale pour la gestion des déchets nucléaires (Andra), doit accueillir les déchets les plus radioactifs (3% du total des déchets nucléaires) à 500 mètres sous terre à Bure, ainsi que ceux ayant la durée de vie la plus longue.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »