Samsung dévoile ses nouveaux « phablets », smartphones grand format

Samsung tenait un événement spécial pour présenter en grande pompe ses nouveaux produits, avant l’ouverture officielle vendredi de l’édition 2014 de l’IFA, la grand messe de l’électronique européenne.

Le groupe a notamment dévoilé la quatrième version de son Galaxy Note, le fameux « phablet » qu’il avait lancé pour la première fois en 2011 à Berlin. Depuis, ces téléphones voisins d’une tablette, dont la diagonale d’écran fait plus de 13 cm ont conquis de nombreux acheteurs, notamment en Asie.

Le Galaxy Note 4 est « plus agréable et plus efficient » que ses prédécesseurs, a assuré DJ Lee, directeur des ventes et du marketing du groupe.

Le nouveau téléphone bénéficie notamment d’un nouveau design avec un cadre en métal, et d’un écran plus résistant dont la résolution est plus importante grâce à la technolgie « Quad HD ».

L’appareil photo, le micro et la batterie ont également été améliorés.

Le téléphone s’utilise avec un stylet perfectionné, qui permet d’afficher plusieurs applications simultanément, ou de sélectionner plusieurs photos et de les glisser toutes en même temps où l’utilisateur le souhaite.

Samsung a également dévoilé une autre version de son téléphone géant, le Note « Edge ». Cet appareil est doté d’un écran incurvé sur le côté droit, qui se fond progressivement dans l’écran principal. Il permet d’afficher des infos séparées, par exemple de visionner une vidéo en plein écran tout en conservant les commandes sur le côté.

Malgré ces innovations, « il devient plus difficile pour Samsung de différencier le Note, parce que les smartphones les plus connus augmentent en taille », estime Ian Fogg, un analyste du cabinet spécialisé IHS.

Cette année, le salon IFA se déroule notamment dans l’ombre d’Apple. La marque à la pomme organise un « événement » le 9 septembre, au cours duquel la majorité des analystes s’attendent à découvrir un iPhone 6 à l’écran élargi.

La firme californienne signerait ainsi son entrée sur le marché des « phablets ». De nombreuses rumeurs courent également sur une possible iWatch, sa version de la montre intelligente.

Samsung avait été le pionnier de cette tendance en 2013, et a présenté mercredi une nouvelle version de sa montre, la Galaxy Gear S. Sous pression, il en avait dévoilé les premiers aspects la semaine dernière.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Quelques vérités sur l’exploitation des terres rares

Dans un papier récent, l’AFP vient de nous apprendre que l’Inde, en collaboration avec une maison commerciale japonaise du Groupe Toyota venait de rejoindre le cercle restreint des nations qui comme la Chine, le Kazakhstan ou la Malaisie acceptent d’isoler, à faibles coûts, le mischmétal (alliage de terres rares) des actinides radioactifs  comme l’Uranium ou le Thorium avec lesquels les minerais sont associés.

Les terres rares apparaissent bien souvent comme un sous-produit, de plus en plus valorisable, de l’exploitation de certains gisements d’Uranium ou de Thorium. Les temps lointains où le mischmétal servait essentiellement à la production de pierres à briquet sont révolus. De nos jours, les accumulateurs Nickel-Métal hydrure (Ni-MH) aux électrodes négatives (anodes) de type hydrures de LaNi5, les aimants permanents de types Néodyme Fer Bore ou Samarium Cobalt utilisés dans les moteurs électriques ou les génératrices d’éoliennes, les diverses LED (« phosphor ») font appel à divers mélanges savants de terres rares  et autres métaux dans leur réalisation.

Les gisements de terres rares sont abondants sur Terre, mais sont en nombres beaucoup plus restreints, les contrées qui veulent bien à moindres frais se lancer dans la purification de ces terres rares, créant ainsi un monopole de fait qui pourrait être démantelé par les Nations plus avancées clientes. Mais il faudrait pour cela qu’elles créent une industrie peu populaire qui manipulerait, en amont, des minerais présentant une certaine radioactivité.

Un exemple schématique de ces intérêts contradictoires nous est fourni par le Groupe australien Lynas, grand propriétaire de gisements australiens (gisement du Mount Weld) et qui  après avoir essuyé un refus poli de la part des industriels chinois, sous-traite la valorisation de ses minerais en Malaisie. Il s’était heurté en 2011 à un fort mouvement local d’opposition.

Il y a dans cette industrie très écologique, à la base du succès des véhicules hybrides, des éoliennes les plus puissantes, des LED aux rendements lumineux sans égal, une industrie amont peu séduisante qui pousse les pays les plus avancés à localiser cette étape au sein de pays peu exigeants. La Chine, le Kazakhstan, la Malaisie et maintenant l’Inde font partie de ces nations qui acceptent de purifier, sans trop barguigner, ces lanthanides précieux.

Cet exemple illustre parfaitement les limites du concept de « Green-Business » qui n’est souvent fait que d’activités qui mettent en lumière les parts les plus vertueuses et laissent pudiquement dans l’ombre les fractions essentielles plus traditionnelles et polluantes de leurs activités ou de celles de leurs fournisseurs. C’est tout le génie du Marketing du moment.

Par Raymond Bonnaterre

Google réfléchit à utiliser les objets connectés comme de nouveaux supports publicitaires

99% des revenus de Google proviennent de la publicité sur internet. Véritable leader du marché mondial de la pub très loin devant Facebook et Yahoo !, le géant américain imagine les nouveaux canaux de demain.

Dans une lettre adressée à la Securities and Exchange Commission, organisme chargé de la réglementation et du contrôle des marchés financiers aux Etats-Unis lui demandant des précisions sur ses revenus provenant de son activité mobile, Google philosophe sur le terme même « mobile » : « Nous pensons que la notion même de « mobile » va évoluer à mesure que les dispositifs « intelligents » vont gagner du terrain sur le marché.

Par exemple, d’ici quelques années, nous et d’autres sociétés pourrions fournir des publicités et d’autres contenus sur des réfrigérateurs, des tableaux de bords de voitures, des thermostats, des lunettes et des montres pour ne citer que quelques possibilités ».

Google prévoit clairement d’utiliser les objets connectés pour diffuser de la publicité. De quoi ouvrir de nouveaux horizons au géant américain et lui garantir de confortables revenus. Et si Google y travaillait déjà ? En effet, certains tableaux de bords fonctionnent déjà sous Android, idem pour les montres connectées. Sans oublier les Google Glass, ces lunettes qui affichent des informations sur les verres.

La publicité n’a pas fini d’envahir notre univers, et Google de faire fructifier le sien…

Par Audrey Loubens

Fukushima: vers la construction de deux sites de stockage temporaires de détritus radioactifs

« C’est une lourde charge pour la région, mais nous avons pris la décision douloureuse d’accepter la construction de ces lieux d’entreposage », a déclaré le gouverneur de Fukushima, Yuhei Sato, aux ministres japonais de l’Environnement et de la Reconstruction, lors d’une réunion lundi matin.

L’Etat nippon cherche depuis des mois à convaincre les élus locaux et la population qu’il faut absolument construire ces sites de stockage dans des localités contaminées près du complexe atomique et qu’il y a urgence.

Toutefois, les intéressés s’étaient montrés très réticents, craignant que le temporaire ne devienne permanent et que leurs villes ne soient définitivement rendues inhabitables.

Finalement, les municipalités de Futaba et Okuma se sont dites prêtes à accepter sous conditions. La centrale Fukushima Daiichi se trouve à cheval sur ces deux localités.

« Les sites de stockage temporaire sont des installations cruciales pour la décontamination et la reconstruction de la région », avait plaidé M. Sato, lors d’une réunion samedi avec les maires des deux villes concernées ainsi que ceux de six municipalités voisines.

Les responsables de Futaba et Okuma souhaitent cependant que le gouvernement explique clairement aux citoyens concernés ses intentions.

« Je remercie sincèrement les élus d’avoir pris cette difficile décision. A partir de maintenant, le gouvernement va faire tous les efforts requis pour s’occuper de ces installations », a assuré devant les caméras le ministre de l’Environnement, Nobuteru Ishihara.

Le gouvernement prévoit d’acheter les terrains nécessaires et serait amené pour cela à négocier avec quelque 2.000 propriétaires, selon les chiffres des médias locaux.

Pour garantir qu’il ne s’agira pas de sites permanents, une loi doit préciser que dans les 30 ans à venir, les détritus (terre, feuillages, herbes, etc.) seront pris en charge hors de la préfecture.

Selon le porte-parole du gouvernement, Yoshihide Suga, les élus des villes concernées ainsi que le gouverneur de Fukushima devaient encore rencontrer lundi après-midi le Premier ministre, Shinzo Abe, pour lui faire part de leur décision.

L’entreposage des détritus radioactifs issus de la décontamination des localités polluées par la catastrophe atomique de mars 2011 constitue un gros problème depuis des mois. Pour le moment, d’énormes sacs sont empilés dans des champs en différents endroits de la zone contaminée et évacuée, soit à 20 kilomètres à la ronde, ainsi que quelques autres villes plus éloignées.

kap/anb/cgu

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Les neutrinos témoins directs de la production d’énergie au coeur du Soleil

Ces résultats obtenus par la collaboration Borexino1, à laquelle participe le laboratoire Astroparticule et cosmologie (CNRS/CEA/Université Paris Diderot/Observatoire de Paris), sont publiés le 28 août 2014 dans la revue Nature.

L’énergie du Soleil provient, pour plus de 99%, de la fusion de noyaux d’hydrogène (des protons) au cœur de l’étoile. Cette réaction primordiale transforme deux protons en un noyau de deutérium en émettant un positron et un neutrino de basse énergie appelé neutrino pp. Le détecteur Borexino, installé dans le laboratoire souterrain du Gran Sasso, en Italie, a réussi la première mesure directe du flux de ces neutrinos pp.

Une fois produits, les neutrinos franchissent en quelques secondes le plasma solaire et arrivent sur Terre huit minutes plus tard. Au contraire, l’énergie produite par la réaction en même temps que les neutrinos est transportée sous forme de photons et va mettre une ou deux centaines de milliers d’années à traverser la matière dense du Soleil, avant de gagner notre planète. Les neutrinos observés au cours de cette étude sont donc les témoins directs de ce qui se passe au cœur de l’étoile aujourd’hui, alors que l’énergie solaire qui nous réchauffe a été produite il y a longtemps.

L’expérience a permis de mesurer un flux de neutrinos de 6,6 × 1010 neutrinos par cm2 par seconde. Cela équivaut à une puissance du Soleil de 3,98 × 1026 watts, une valeur équivalente aux chiffres obtenus lorsqu’on mesure l’énergie solaire à partir des radiations qui illuminent et chauffent la Terre (3,84 × 1026watts). La confrontation de ces deux mesures montre que le Soleil est en complet équilibre thermodynamique : son activité n’a pratiquement pas changé depuis plus de cent mille ans. Ces résultats confortent les connaissances actuelles sur la dynamique du soleil et confirment que notre étoile continuera à fonctionner de manière analogue pendant cent mille ans au moins.

Cette nouvelle mesure permet à l’expérience Borexino de compléter la spectroscopie des neutrinos solaires et de réaliser une performance unique. Ce détecteur est en effet le seul au monde à avoir mesuré le flux des neutrinos pp, les plus nombreux, mais les plus difficiles à détecter. De façon générale, les neutrinos, qui n’interagissent que par interaction faible, ne s’observent pas facilement et, pour la mesure effectuée cette fois-ci, la difficulté supplémentaire est due à l’énergie extrêmement faible des neutrinos pp. Le détecteur Borexino est particulièrement performant pour éliminer les bruits de fond qui perturbent les mesures à basse énergie. Il est abrité sous 1400 mètres de roches qui absorbent les rayons cosmiques et la haute technologie développée par l’expérience permet de supprimer les traces de radioactivité à un niveau encore jamais atteint (dix milliards de fois moins de radioactivité que dans un verre d’eau). Ce sont ces caractéristiques uniques qui ont permis cette première mondiale. 

L’expérience Borexino est le fruit d’une collaboration entre plusieurs pays européens (Italie, Allemagne, France, Pologne), les Etats-Unis et la Russie, qui regroupe plus de 100 physiciens, ingénieurs et techniciens. En France, les chercheurs du laboratoire Astroparticule et cosmologie (CNRS/CEA/Université Paris Diderot/Observatoire de Paris) ont rejoint la collaboration en 2000. Ils ont reçu le soutien de l’IN2P3, de l’Université Paris Diderot, du labex UnivEarthS et du laboratoire APC.

Source : CNRS

Des panneaux solaires dans des écrans et des vitres !

Transformer n’importe quel support en une micro-centrale électrique solaire : voici le rôle de la technologie Wysips (pour « What You See Is Photovoltaic Surface »), brevetée par la société Sunpartner Technologies. Pour ce faire, les chercheurs ont créé un film transparent et intégrable à toutes sortes de produits. Lorsqu’on y regarde de plus prêt, ce composant assemble une couche mince de cellules photovoltaïques avec un réseau de micro-lentilles qui rend les cellules photovoltaïques invisibles à l’œil nu.

Tout ce qui comporte un écran, du smartphone à la liseuse électronique, en passant par la montre ou un objet connecté, mais aussi les vitres et les surfaces opaques peuvent fonctionner, grâce à Wysips, en toute indépendance vis-à-vis des réseaux électriques. Résultat : ils contiennent des batteries beaucoup plus légères, voire aucune ! Wysips pourrait ainsi permettre d’atteindre l’autonomie énergétique de tous les objets et équipements électroniques exposés à la lumière naturelle ou artificielle. 

Comment rendre des cellules solaires invisibles ?

La technologie Wysips repose sur un procédé optique : elle superpose une couche de lentilles semi-cylindriques et des cellules photovoltaïques. « L’effet optique généré permet de camoufler les cellules photovoltaïques et de produire de l’électricité grâce à la lumière. Ainsi, quelle que soit la position de l’œil, la cellule photovoltaïque est invisible », détaille Ludovic Deblois, président et co-fondateur de Sunpartner Technologies. C’est le principe des images lenticulaires. 

Le composant de base est constitué d’un verre ultra-fin dont l’épaisseur est inférieure ou égale à 0,5 mm. « Actuellement, les solutions Wysips sont basées sur du silicium amorphe, mais notre procédé peut intégrer n’importe quelles cellules photovoltaïques : silicium polymorphe, organiques… », explique Ludovic Deblois. « Au fur et à mesure que les performances de ces cellules augmenteront, la performance du procédé Wysips augmentera en conséquence », prévient-il.

Trois technologies déjà matures

Trois technologies sont déjà développées. La première, Wysips Crystal, s’intègre à toutes les technologies d’écrans et produits nomades (téléphones mobiles, tablettes, objets connectés, étiquettes électroniques…). Les deux autres, Wysips Glass et Wysips Cameleon, permettent respectivement de générer de l’électricité avec des vitrages et des surfaces opaques.
Intégré lors du processus de fabrication, en-dessous ou au-dessus de n’importe quel technologie d’écran tactile, le film Wysips Crystal est connecté à une puce électronique qui convertit et transmet l’électricité à la batterie. Avec un taux de transparence allant jusqu’à 92 %, il préserve la qualité visuelle et la fonctionnalité de l’écran. Cet écran connecté se décline aussi en version Wysips Connect, permettant en plus d’être receveur/transmetteur de données via la lumière, grâce à la technologie LiFi-Light Fidelity. Le rendement de ce film varie entre 2,5 mW/cm2 et 5 mW/cm2, selon la taille de l’écran, les cellules solaires utilisées et le taux de transparence voulu.
Intégré dans une vitre, Wysips Glass permet quant à lui d’alimenter les équipements électriques reliés. On peut ainsi imaginer que les surfaces vitrées des bâtiments, des voitures, trains, avions ou de tout autre moyen de transport alimentent n’importe quel type d’appareil élecrique. Selon la transparence, variant entre 70 % et 90 % en fonction des besoins, la production énergétique sera évidemment plus ou moins élevée. Le premier prototype du composant Wysips Glass offre une transparence de 70 % pour une puissance de 30 W/m2.
Enfin, basé sur le même principe que Wysips Crystal, les films Wysips Cameleon diffèrent par leurs applications qui concernent tous les types de surfaces communicantes statiques et opaques, hors écrans animés. Wysips Cameleon permet ainsi de développer des panneaux d’affichage autonomes en énergie fonctionnant indépendamment de tout branchement au réseau électrique : affichages publicitaires, signalétique…. Sa surface autodéroulante peut aller de 2 à 20 m2. Ces films sont issus du partenariat entre Sunpartner Technologies et l’industriel Prismaflex International.

Quand verra-t-on cette technologie sur le marché ?

Plusieurs partenariats sont en cours d’élaboration, notamment dans le secteur du bâtiment, de la téléphonie et des équipements high tech. Mais quelques produits arrivent déjà sur le marché. Ainsi, le premier téléphone portable à réserve de marche perpétuelle intégrant la technologie Wysips Crystal sera commercialisé dès octobre 2014 ! Il s’agit du téléphone TAG Heuer MERIDIIST INFINITE, créé par Atelier Haute Communication, et qui sera disponible en édition limitée de 1911 pièces numérotées.

« Sunpartner Technologies conçoit actuellement des prototypes de smartphones équipés de sa technologie Wysips Crystal pour quatre géants mondiaux de la téléphonie, dont TCL Communication, 7ème fabricant mondial de smartphones, qui conçoit et commercialise notamment les téléphones Alcatel one Touch et TAG Heuer », annonce Ludovic Deblois.

Dans le secteur du transport et de l’aéronautique, un prototype fonctionnel a été développé en partenariat avec l’équipementier aéronautique Vision Systems. Il s’agit du premier hublot dynamique obscurcissant totalement autonome grâce à Wysips Glass. « Concrètement, il s’agit d’un vitrage auto-obscurcissant intégrant une protection solaire totalement autonome du circuit électrique de l’avion et vise l’alimentation locale des smartphones, tablettes tactiles et autres équipements électroniques des passagers », précise le président de Sunpartner Technologies. Ce produit baptisé  » Energia de Vision Systems » sera finalisé et certifié fin 2014.

Dans le secteur de l’affichage urbain, les premiers panneaux d’affichages publicitaires déroulants autonomes en énergie dans le monde ont été présentés en 2013. Pourvus de la technologie Wysips Cameleon, ils devraient être commercialisés en 2015.

Des textiles phovoltaïques pour demain ?

Sunpartner Technologies travaille aussi sur le développement de textiles photovoltaïques. Elle coordonne pour cela le projet Soltex, mené avec un consortium d’industriels et de chercheurs. Celui-ci vise le développement d’un fil photovoltaïque permettant de créer des textiles intelligents, qui produisent de l’énergie à partir de la lumière.

« Ce fil photovoltaïque intégré au tissu d’un sac à dos ou d’un T-shirt pourrait assurer la charge d’instruments électroniques portables tels qu’un téléphone mobile, GPS, balise de détresse », assure Ludovic Deblois. »Intégré au tissu d’un store ou d’une bâche, il pourrait alimenter en énergie des fonctions de proximité. Par exemple, l’énergie lumineuse emmagasinée dans le store pourrait lui permettre de fonctionner de façon autonome sans être raccordé au réseau électrique de la maison », poursuit-il. Le rendement escompté de cette nouvelle technologie textile photovoltaïque est de l’ordre de 10 W/m2. Résultat des courses en 2019 !

Par Matthieu Combe, journaliste scientifique

L’expansion des énergies renouvelables dans le monde pénalisée par les incertitudes réglementaires

« La production mondiale d’électricité issue des renouvelables devrait croitre de 45% et atteindre près de 26% de la production totale d’électricité d’ici 2020 », contre 22% en 2013, selon l’AIE.

Cette croissance sera surtout portée par l’hydroélectricité et l’éolien terrestre.

Mais l’Agence prévoit que la croissance annuelle des renouvelables va « ralentir et se stabiliser après 2014 », entrainant un « risque de ne pas atteindre les niveaux de production nécessaires pour réaliser les objectifs mondiaux sur le changement climatique ».

« Juste au moment où les renouvelables deviennent, pour plusieurs d’entre elles, une option compétitive, l’incertitude politique et réglementaire augmente dans plusieurs marchés clés », a regretté Maria van der Hoeven, directrice exécutive de l’AIE.

La Chine souffre par exemple de l’absence de mesures pour intégrer les sources d’énergies renouvelables au réseau électrique et de difficultés de financement.

L’Union européenne tarde elle à définir son cadre énergétique après 2020 et la mise en place de l’interconnexion des réseaux de ses pays membres.

Dans les pays développés appartenant à l’OCDE, les énergies renouvelables représentent tout de même 80% des nouvelles capacités de production électrique installées. Mais leur croissance devient moins dynamique à cause de « la faiblesse de la demande d’électricité et des risques politiques croissants » dans certains pays, juge l’AIE.

Hors OCDE, les besoins importants pour diversifier les sources d’énergie et l’inquiétude croissante sur la qualité de l’air, comme en Chine, font que les renouvelables devraient représenter « la première source de capacités additionnelles d’ici 2020 ».

Le secteur reste très porteur et les investissements devraient s’établir à 230 milliards de dollars (175,5 milliards d’euros) par an jusqu’en 2020 pour l’installation de nouvelles capacités renouvelables.

Un chiffre qui reste néanmoins inférieur aux 250 milliards de dollars (189,7 milliards d’euros) investis en 2013, notamment à cause de la baisse structurelle des coûts d’investissement.

La destination de ces investissements varie selon les pays, le Brésil connaissant par exemple une forte demande dans l’éolien terrestre et le Chili dans le solaire.

Les biocarburants et l’utilisation de la biomasse pour produire de la chaleur devraient aussi continuer leur croissance, mais à un rythme « moins important que l’électricité renouvelable », selon l’AIE, à cause, encore, « des incertitudes sur le renforcement des politiques de soutien dans l’UE et aux Etats-Unis ».

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Atteindrons-nous les étoiles ?

Unisciel, l’Université des Sciences en Ligne, et l’Université Lille 1 ont surfé sur la vague des MOOC (Massive Open Online Course) et ont lancé leur propre dispositif intitulé : EUREKA ! dont l’objectif est de faire le tour d’horizon des phénomènes de notre quotidien et plus largement comprendre le monde qui nous entoure.

Le MOOC EUREKA ! s’est organisé autour de ressources choisies d’Unisciel et notamment de la série qu’elle produit Kézako ? Enrichie de nombreux compléments, ce MOOC encourageait l’échange autour de 9 thématiques étalées sur 9 semaines. Le principe du MOOC EUREKA ! reposait sur la génération du savoir par les apprenants placés dans une démarche de tutorat entre pairs. 

Cette conférence présentée par l’astrophysicien Roland Lehoucq est consacrée au voyage dans l’espace.

Le voyage interstellaire est-il envisageable ?

Que dire aussi des films de science fiction comme Star Wars ou Avatar ? Est ce possible ? 

Source : kezako.unisciel.fr/live

Sur la Lune, on peut marcher sur l’eau

Il serait injuste – et pour tout dire criminel – de ne pas évoquer l’étude qui, dans la catégorie « Physique », a reçu, jeudi 12 septembre 2013, la récompense suprême de la science improbable, à savoir un prix Ig Nobel. Publié en 2012 par PLoS ONE, ce travail d’une équipe italienne concentre en effet la quintessence de l’improbablologie : une question saugrenue, traitée avec le plus grand sérieux scientifique mais aussi une giclée d’humour potache et, surtout, une expérience qui fera se réconcilier avec la science tous ceux qui en ont été dégoûtés lors de leurs études.

Ladite question n’est pas loin de fêter ses deux mille ans : l’homme peut-il oui ou non marcher sur l’eau ? Si l’on met de côté les canulars d’Internet, un tel événement est, selon de rares témoignages écrits, arrivé une fois et une seule, sur le lac de Tibériade au début de notre ère. Difficile à croire, selon certains, car l’on sait que cet exploit n’est à la portée que de très peu d’animaux. Les plus connus sont les gerris, ces insectes improprement appelés « araignées d’eau », qui patinent gracieusement à la surface des étangs et des rivières. Mais ces bestioles trichent car, dotées de poils hydrophobes, elles profitent d’un phénomène connu sous le nom de « tension superficielle de l’eau », que ne peuvent pas exploiter des animaux plus massifs et à deux pattes.

Si l’on cherche un véritable exemple de bipède marchant sur l’eau, il faut se tourner vers le basilic commun. Ce petit reptile a obtenu de haute lutte le surnom de lézard Jésus, grâce à sa capacité à se redresser, sur ses pattes arrière et à sprinter sur l’eau barbe au vent… euh non, pardon, crête au vent. L’ennui, c’est qu’aucun humain n’a le coup de jarret de cet iguane, capable d’enchaîner huit foulées à la seconde. Homo sapiens est un balourd faiblard face à Jésus le lézard. Prenons le plus rapide d’entre nous, Usain Bolt : pour cavaler sur l’eau, l’athlète jamaïcain devrait ou bien multiplier sa vitesse par trois et dépasser les 100 km/h – difficile même avec les progrès constants de la pharmacopée sportive – ou bien se laisser pousser les pieds pour qu’ils totalisent une surface d’un mètre carré.

Fichu ? Heureusement non. La science a réponse à tout. Si l’on ne peut faire accélérerUsain Bolt ni lui greffer des pieds de canard géant, on n’a qu’à réduire son poids en baissant la gravité. L’équipe italienne primée par l’Ig Nobel a calculé qu’en divisant la gravité par cinq, il deviendrait possible de le faire marcher sur l’eau. Aussitôt dit, aussitôt fait. Grâce à un harnais relié par un câble à un astucieux système pneumatique délestant les participants d’une grande partie de leur poids, grâce aussi à une petite paire de palmes vert pomme, on a pu vérifier si, dans une ridicule piscine gonflable, la pratique rejoignait la théorie.

Et la réponse fut un oui magistral. Lorsque la gravité ne dépasse pas 22 % de la gravité terrestre, un humain peut sprinter sur l’eau sans couler. Pour y parvenir, le coureur est obligé de lever bien haut les genoux, ce qui donne l’impression grotesque qu’il pédale dans la soupe. Les chercheurs en ont conclu que, sur des astres relativement légers comme la Lune, Pluton ou les principaux satellites de Jupiter, l’homme pourrait bien, le jour où les voyages interplanétaires seront monnaie courante, jouer aux prophètes. À condition de trouver là-bas de l’eau sous forme liquide. Ce qui, pour le coup, tiendrait du miracle.

Improbablologie et au-delà – Nouvelles chroniques de science improbable – Par Pierre Barthelemy
Editions Dunod
 

Google aurait travaillé sur un ascenseur spatial

Au sein des laboratoires Google X fermentent une multitude de projets secrets. Il y en aurait une centaine selon le New York Times (parmi lesquels certains ne sont plus secrets du tout : voitures automates, réseau de neurones artificiel, le projet avorté d’Hoverboard…). L’un d’entre eux, assez extraordinaire, propose d’atteindre l’espace ou tout du moins une station en orbite en prenant l’ascenseur. Un moyen de transport insolite au premier abord, mais qui n’a semble-t-il pas paru si insensé à la firme américaine qui aurait un temps envisagé sérieusement le projet.

Un temps, car le défi est irréalisable à l’heure actuelle. En effet, l’ascenseur spatial comme il a été imaginé, à savoir sous la forme d’un long câble, ne peut être construit avec les moyens des scientifiques mis à leur disposition. Pour tracter les cabines, il faudrait que le câble soit cent fois plus résistant que l’acier le plus résistant présent sur Terre. Une robustesse nécessaire pour tenir vis-à-vis des forces exercées sur chaque partie du câble (l’attraction gravitationnelle terrestre et la force centrifuge).

Afin de résoudre ces difficultés, les scientifiques ont examiné la possibilité de faire usage des nanotubes de carbone, l’un des matériaux les plus durs à ce jour. Sauf que… Un câble en nanotubes de carbone suffisamment solide n’existe pas aux dimensions voulues. On en est même très loin. Alors si on additionne cet obstacle au risque de collision avec des débris spatiaux ainsi qu’à la problématique autrement plus terre à terre consistant à se procurer un apport de fonds colossal, le projet n’avait d’avance aucune chance d’aboutir.

Manifestement, tant que ce projet n’est pas soutenu internationalement, l’idée relève de la science-fiction. Toutefois, cela ne l’empêche pas d’être une belle idée. Et qui sait si, dans un futur plus ou moins lointain, lorsque les progrès technologiques le permettront, l’ascenseur spatial se concrétisera.

Par Sébastien Tribot

Guerre Froide : et si on bombardait la lune ?

L’URSS lance Spoutnik 1, le premier satellite en orbite autour de la Terre le 4 octobre 1957. Pour ne pas se laisser distancer dans la conquête de l’espace, les Etats-Unis créent la NASA en 1958. Mais celle-ci peine à concurrencer les grandes premières spatiales de l’URSSS : premier satellitte en 1957, premier homme dans l’espace le 12 avril 1961… L’opinion publique américaine craint la suprématie des soviétiques dans l’espace.

Bombarder la lune ?

En 1958, le gouvernement américain lance donc un projet secret pour faire exploser une bombe nucléaire sur la lune ou dans son voisinage. Visible depuis la Terre, la déflagration aurait montré la force de frappe américaine, impressionnant les Soviétiques et la population américaine. 

Les scientifiques prévoyaient de viser la face cachée de la Lune, pour que la poussière projetée par la détonation soit éclairée par le soleil, et soit ainsi visible depuis la Terre. « La motivation d’une telle détonation présente clairement un triple objectif: scientifique, militaire et politique », peut-on lire dans le rapport d’étude rendu par le physicien Léonard Reiffel en juin 1959. « Des effets positifs spécifiques reviendraient à la première nation exécutant un tel exploit, comme une démonstration de sa capacité technologique de pointe », précise-t-il.

Mais le plan est abandonné en janvier 1959, car l’armée estime que les risques sont trop importants, comparés aux avantages. Les militaires craignent notamment les risques liés à la radioctivité résiduelle à la surface de la lune ou en cas d’explosion au lancement.

Installer une base militaire lunaire ?

L’armée amériaine a étudié entre 1959 et 1961 la possibilité d’établir une base militaire sur la lune. Le nom de code de l’opération : Projet Horizon. Cette base aurait servi de plate-forme pour développer des techniques de surveillance de la terre et de l’espace, mener des opérations à la surface de la lune, installer une base de lancement pour bombarder la Terre ou encore installer des relais de communications. L’étude s’intéresse aux techniques de construction de la base, aux communications, aux véhicules lunaires et aux transports nécessaires, mais aussi aux aspects politiques, économiques et juridiques.

« Etre deuxième, après l’Union soviétique à établir un avant-poste sur la lune, serait désastreux pour le prestige de notre pays et pour notre philosophie démocratique. Bien que cela soit contraire à la politique des États-Unis, si l’Union soviétique établissait la première base permanente, elle pourrait réclamer la lune ou des zones critiques de celle-ci », indique le premier volume du rapport du Projet Horizon.

D’autres documents s’intéressent à l’installation d’un observatoire de renseignements basé sur la lune. La lune aurait ainsi servi de relais pour les communications de Washington vers les bases militaires d’Hawaii ou vers les navires espions américains. Cette base aurait également servi à surveiller l’Union Soviétique.

L’ensemble de ces projets montre à quel point les responsables militaires de l’époque étaient obnubilés à l’idée de prouver leur supériorité sur le camp soviétique. Pendant la Guerre Froide, la lune a donc eu bien chaud !

Par Matthieu Combe, journaliste scientifique

Le tourisme spatial, c’est maintenant !

L’aventure du tourisme spatial sub-orbital a réellement commencé grâce à l’entreprise Scaled Composites qui a remporté le Prix Ansari X et ses 10 millions de dollars en 2004. Il y a 10 ans, la société parvenait à envoyer, deux fois en 15 jours, l’avion spatial SpaceShip One à 100  km d’altitude, avec deux passagers et un pilote à son bord.

Virgin Galactic en tête d’affiche

Depuis, Virgin Galactic a développé Spaceship Two. L’avion spatial devrait emmener 6 passagers et 2 pilotes à environ 110 kilomètres d’altitude. Le principe est simple : l’avion spatial est lâché à environ 14 km d’altitude par un avion porteur (WhiteKnightTwo). Il entame alors une ascension verticale propulsé par son moteur-fusée jusqu’à 110 km d’altitude. Sa vitesse devient alors nulle et il commence à retomber, sans se maintenir en orbite. Sa chute, en quasi absence d’atmosphère et faible vitesse n’est pas freinée. Les passagers se trouvent alors en situation d’apesanteur pendant environ 5 minutes. Lorsque la densité d’air est suffisante, il achève son vol à la manière d’un planeur.

Le premier vol expérimental de Spaceship Two a eu lieu le 10 octobre 2010. Des vols expérimentaux sont encore en cours et 5  avions spatiaux de ce type devraient emmener les touristes à l’avenir. Mais pour l’instant, SpaceShip Two n’a pas réussi à  voler au-delà de 21 640 mètres, record atteint en janvier 2014. Selon le site parabolicarc,  ce vaisseau ne pourra atteindre qu’une altitude située autour de 80 km au lieu des 110 km initialement annoncés. Il ne reste donc plus qu’à attendre les prochains tests pour connaître ses performances réelles.

Néanmoins, Virgin Galactic  se rapproche du  premier vol commercial dans l’espace. En mai 2014, l’Agence fédérale américaine de l’aviation (FAA) lui a en effet donné son feu vert pour débuter les vols spatiaux depuis la base américaine de Virgin Galactic dans le Nouveau Mexique. Ce premier accord sur le contrôle aérien couvrant les vols spatiaux permettra de faire cohabiter le trafic aérien habituel avec ces vols vers l’espace.

Virgin Galactic aurait déjà vendu près de 700 billets pour des voyages dans l’espace, à 250 000 dollars l’unité.

XCORE Aerospace également dans la course

La société californienne XCORE Aerospace propose des voyages sub-orbitaux d’une heure dont 5 minutes en apesanteur. Elle utilise pour ce faire deux modèles de navettes à deux places : le pilote astronaute et un passager unique. Deux versions sont prévues : le « Lynx Mark I » devrait atteindre une altitude de 61 km et le « Lynx Mark II » une altitude de 103 km. Les vols avec la première navette, vendus au prix de 95 000 dollars, sont prévus pour le quatrième trimestre 2015. Les passagers ayant choisi un vol dans la seconde navette devront débourser 100 000 dolars et attendre 2016.

Observer la courbure de la Terre ?

Dès 2016, World View Experience propose d’observer la courbure de la Terre à bord d’une nacelle emmenée par un ballon. La nacelle emportera 6 passagers et 2 pilotes . L’ascension devrait durer plus de deux heures jusqu’à 36 km d’altitude. La capsule se détachera ensuite du ballon et entamera une descente de 20 à 40 minutes. Vous pouvez déjà réserver votre billet pour 75 000 dollars.

Avec zero2infinity et son ballon « bloon », l’idée est également d’observer la courbure terrestre pour une croisière de deux heures. Vous pouvez déjà réserver votre billet pour 110 000 dollars.

Aller plus loin ?

Rêvons un peu plus.

  • Le milliardaire Robert Bigelow veut proposer de vrais séjours dans l’espace à travers sa société Bigelow Aerospace. Cette dernière développe des modules gonfables habitables pour des séjours de plusieurs semaines. Elle développe même sa propre station spatiale : la Bigelow Next-Generation Commercial Space Station. Les premièrs composants pourraient être lancés dès cette année.

  • Space Adventures  et l’Agence spatiale russe Roscosmos prévoient une mission habitée qui s’approchera à 100 km de la Lune. Le départ est prévu pour 2017. L’équipage est complet avec deux touristes et un cosmonaute russe comme pilote. Le prix du billet ? 150 millions de dollars.

Enfin, le millionnaire américain Dennis Tito projette le décollage le 5 janvier 2018, d’une mission habitée autour de Mars, sans atterir. Un alignement spécial des planètes permettra alors de faire le voyage aller/retour en 501 jours. Sa fondation « Inspiration Mars » prévoit de recruter un homme et une femme pour effectuer ce voyage.

Par Matthieu Combe, journaliste scientifique

La NASA expérimente un potager dans l’espace

Le 10 juin 2014, l’astronaute Steve Swanson terminait la récolte des premières salades de l’espace ! Cela achève l’expérimentation Veg-01, la première expérience du genre utilisant la  plateforme « Vegetable Production System » ou « Veggie ». « Notre objectif final est la production alimentaire, et Veggie est notre première étape pour que la NASA soit en mesure de réaliser des systèmes de production alimentaire pour l’espace », explique Gioia Massa, scientifique chargée du projet, sur le site de la Nasa. 

Le 18 avril dernier, la capsule Dragon transportant l’appareil et de la nourriture s’était envolée depuis Cap Canaveral, en Floride. Il s’agissait du troisième lancement de capsule Dragon réalisé par la société privée SpaceX pour le compte de la NASA. Veggie avait été intégré début mai au laboratoire européen Columbus de l’ISS.

Une première expérience

L’expérience s’est déroulée dans la chambre de croissance Veggie, sous des LED rouges, bleues et vertes pendant 33 jours. Cette première étude dans l’espace s’est concentrée l’efficacité du matériel Veggie pour faire pousser six plants de laitue romaine rouge dans un environnement de vol spatial. Pour ce faire,  tous les besoins des plantes sont contrôlés et suivis.: aération, chauffage, éclairage, engrais, irrigation…

La culture a été effectuée en apesanteur, ce qui ne semble pas, à première vue, avoir freiné le développement des plantes. Mais la NASA craint que les salades soient un nid propice au développement des microbes présents dans l’espace. Cette fois-ci, les laitues ne seront donc pas consommées par les membres d’équipage. Elles seront congelées à -80°C, en attendant d’être envoyées sur terre à l’automne. Les échantillons seront récupérés lors du quaitrème vol de réapprovisionnement de SpaceX.

Quelles suites pour Veggie?

Le système de croissance Veggie est désormais disponible pour d’autres expériences : plusieurs projets sont actuellement en cours d’évaluation. « Nous avons une liste d’autres cultures qui pourraient bien pousser dans Veggie selon nous », prévient Gioia Massa. « Nous sommes même en train de faire quelques recherches sur les pruniers nains pour voir s’ils pourraient se développer dans Veggie », précise-t-elle.

La prochaine expérience est d’ores et déjà prévue après le cinquième réapprovisionnement de SpaceX. Elle utilisera Veggie pour faire pousser des arabidopsis, des petites plantes à fleurs ressemblant à la moutarde et au chou. L’arabidopsis est d’un intérêt particulier pour les biologistes car son génome est entièrement connu depuis 2000. Toute modification dans son génome à cause de l’environnement spatial serait donc facilement observable.

Veggie pourra ensuite également être utilisé par les astronautes pour des activités de jardinage de loisirs pendant les missions spatiales de longue durée.

Que mangent les astronautes actuellement?

Durant plusieurs mois, les astronautes ne mangent que de la viande lyophilisée et des fruits et légumes en boîte, ce qui ne participe pas au bon moral des troupes… L’équipage reçoit bien quelques fruits et légumes frais lorque les missions de ravitaillement arrivent à l’ISS, mais les quantités sont limités et les réserves sont consommées rapidement.

Les aliments autorisés par la NASA dans l’espace comprennent les produits déshydratés, les produits thermostabilisés en boîtes ou les plats préparés, les aliments à humidité intermédiaire (fruits ou viande séchés), les aliments sous leur forme naturelle (noix, céréales), les viandes ionisées (steaks, fajitas, saucisses…), les condiments (ketchup, mayonnaise, moutarde, sel, poivre…) et diverses boissons (sodas, jus de fruits, café, thé…). Des fruits et des légumes fraîchement cueillis ne seront donc pas de refus !

Par Matthieu Combe, journaliste scientifique

Une ceinture solaire autour de la lune en 2035 ?

Une « ceinture » de 10 920 kilomètres

Un réseau de cellules solaires mesurant jusqu’à 40 kms entourerait l’équateur lunaire. L’énergie produite à partir de ces cellules serait transférée aux stations terrestres de réception grâce à des antennes de 20 kms de diamètre. Cette transmission serait assurée par une balise de guidage.

La construction de Luna Ring

La majorité des ressources nécessaires à la construction de la ceinture solaire serait fournie par la lune elle-même. L’eau et le ciment seraient produits à partir d’éléments constitutifs du sol lunaire quand  l’hydrogène serait importé. Quant aux ouvriers, ils seraient embauchés sur Terre. Mais inutile de poser votre candidature : seuls des robots télé-opérés sont envisagés.

Voir la vidéo du projet Luna Ring

Une production d’énergie illimitée

Contrairement aux panneaux photovoltaïques classiques installés sur Terre, la quantité d’énergie produite par les cellules solaires disposées autour de la lune ne dépendrait pas des variations météorologiques. Luna Ring pourrait fournir de l’énergie solaire, partout dans le monde, 24h/24 !

Est-ce possible ?

Oui, en théorie. Mais cette idée exceptionnelle pourrait rappeler d’autres projets, finalement avortés, de cette même compagnie. Par le passé, Shimizu a déjà imaginé : une cité botanique autosuffisante flottante, un réseau urbain sous-terrain, la création d’un lac au beau milieu d’un désert, un hôtel dans l’espace…  
Véritables projets ou doux rêves ?

Cité botanique autosuffisante flottante

 

Un hôtel dans l’espace

 

Des lacs dans le désert

 

Réseau urbain sous-terrain

 

 

Par Iris.T

Et aussi dans les
ressources documentaires :

Les scénarios à l’étude pour capturer ou dévier un astéroïde

Évidemment, on y songe pour ainsi dire jamais, à ce risque qui plane au-dessus de nos têtes, ce risque que le ciel nous tombe sur la tête – pour reprendre la fameuse citation des Gaulois. Bien sûr, il est normal que cela ne rentre pas dans nos préoccupations quotidiennes car il y a vraisemblablement peu de chances qu’une chute d’astéroïdes se produise, sans crier gare, sans que les astronomes s’en aperçoivent. La Nasa surveillerait plus d’un millier de gros astéroïdes (ceux de plus de 1 kilomètre de diamètre seraient en grande partie recensés).

La plupart du temps, les géocroiseurs, ces astéroïdes ou météorites qui frôlent l’orbite terrestre, ne sont pas dangereux. Heureusement car les astronomes en dénombrent environ 9 000. S’ils ne dépassent pas les 20 mètres de diamètre, ils se désagrègent généralement dans l’atmosphère en une flopée d’étoiles filantes. Mais parfois, il arrive tout de même qu’ils parviennent jusqu’à la Terre comme ce fut le cas en février 2013. Des fragments de météorite avaient atteint la région de Tcheliabinsk en Russie et avaient fait un millier de blessés, résultat des vibrations liées aux explosions dans les basses couches de l’atmosphère.

À peu près à la même période, la Nasa surveillait au grain le passage de l’astéroïde Apophis tout près de la Terre (à environ 30 000 kilomètres). Il faut dire que son gabarit donne des raisons de s’inquiéter puisque ses 325 mètres de diamètre pèsent environ 50 millions de tonnes. Sa chute pourrait avoir des conséquences désastreuses et engendrer une hécatombe : de 5 à 100 millions de morts. Il est censé revenir en avril de l’année 2029 ainsi qu’en 2036 mais selon toute probabilité, il n’entrera pas en collision avec la Terre à ce moment-là. Ce qui nous est profitable, la chute libérerait 25 000 fois plus d’énergie que la bombe lancée à Hiroshima le 6 août 1945.

Le rythme des impacts est discutable. D’après la fondation américaine B612, composée d’anciens astronautes, la météorite TCB (Tunguska Cosmic Body) qui ravagea les forêts de Sibérie en 1908 est un incident susceptible de se produire une fois tous les cent ans. Une donnée dont nous ne pouvons pas être certain. L’intervalle entre les impacts variant selon les spécialistes. Rusty Schweickart, qui est également un ancien astronaute, estime plutôt que « ce type d’impact se produit une fois tous les 250 ou 300 ans ». Quoi qu’il en soit, le risque existe et c’est la raison pour laquelle, la fondation B612 cherche 450 millions de dollars; afin de construire un télescope pour détecter tous les astéroïdes potentiellement dangereux. En fonction de la taille du rocher, c’est une région, un pays, un continent qui pourrait être transformé.

Cela ne veut pas dire que les petits astéroïdes ne sont pas menaçants, au contraire, ils le sont également car ils sont très peu visibles, même pour les télescopes modernes. Or, plus les chercheurs parviennent à les détecter tôt, plus ils ont de chances d’agir en conséquence. Pour rappel, entre 2000 et 2013, 26 météorites d’une puissance de plus d’une kilotonne de TNT ont explosé dans l’atmosphère.

Comment s’y prendre pour détourner un astéroïde ?

Parmi les scénarios qui ont été imaginé, l’emploi d’une bombe nucléaire n’est pas celui qui est retenu. Trop aléatoire, cette méthode pourrait faire plus de mal que de bien. Si les charges étaient mal réparties, ou mal calibrées, l’astéroïde pourrait se transformer en de nombreux débris spatiaux très dangereux. En ultime recours, une charge pourrait être positionnée à une distance idoine de l’astéroïde dans l’espoir de dévier sa trajectoire sous l’effet du souffle occasionné par l’explosion.

La solution la plus couramment envisagée est celle consistant à le dévier en propulsant un projectile appelé « impacteur cinétique » près de son centre. Toutefois, si l’opération apparaît commode sur le papier, c’est une autre paire de manches en pratique. Déjà, il est nécessaire de repérer longtemps à l’avance l’astéroïde menaçant. « Plusieurs années sont nécessaires pour dévier un astéroïde de sa trajectoire ». Si tel est le cas, un satellite mis en orbite doit l’examiner afin « de déterminer le point d’impact, avec une précision de l’ordre d’un mètre ». La difficulté réside dans la précision de cette collision car l’astéroïde et l’impacteur cinétique (10 km/s) ont tous deux des vitesses élevées et ils se révéleront de fait compliqués à guider. De plus, il faudrait attendre les derniers instants pour connaître avec exactitude l’emplacement de la cible d’impact, ce qui rajoute une complexité supplémentaire.

Une autre possibilité, un peu farfelue (un peu seulement), serait d’attirer l’astéroïde à l’aide d’un « tracteur gravitationnelle » dans le but de le détourner de sa route. En l’occurrence, un satellite massif pourrait jouer ce rôle. Cependant, même un satellite assez lourd n’aurait qu’une faible incidence. Cette action ne peut donc être utile que sur le long terme, à condition d’avoir pris le problème suffisamment tôt. Le centre Carl Sagan de Palo Alto (Californie), en collaboration avec le projet européen NEOShield étudierait cette idée.

Enfin, trois autres solutions très étranges, ont jailli d’on ne sait où. L’une d’elles consiste à repeindre en blanc ou en noir l’astéroïde. En changeant sa surface, l’idée est de modifier sa manière de réfléchir la lumière solaire et ainsi d’influer sur sa vitesse. Mais cela reste très marginal. La seconde solution, quant à elle, serait de construire une voile immense capable d’utiliser le vent solaire (minime) et de la fixer aux bords de l’astéroïde. Devrait-on l’appeler bateau spatial si ce concept devait être mis en application ? La dernière est aussi la plus digne de figurer dans un film de science-fiction. Des ingénieurs britanniques ont pensé à bombarder de rayons laser l’astéroïde pour changer son état, de solide à gazeux, le faisant « maigrir ». Cela aurait pour effet de modifier sa trajectoire.

Capturer un astéroïde, oui, mais pourquoi ?

La Nasa compte développer un nouveau projet de capture d’astéroïde et de le financer à hauteur de 105 millions de dollars. Il consiste à repérer un astéroïde de 7 à 10 mètres de long, puis de le « remorquer » jusque dans l’orbite de la Lune afin de s’en servir ultérieurement pour aller sur Mars. L’idée aurait été soufflée par le président Barack Obama lui-même.

Le projet comporte différents challenges : il « combine l’exploitation minière d’un astéroïde, le développement de techniques pour en détourner un, ainsi que la fourniture d’un lieu pour développer les possibilités d’aller sur Mars ».

Les astéroïdes sont des terres fertiles en métaux précieux, car leurs petites tailles les ont en principe préservé de la différenciation planétaire. C’est-à-dire qu’ils n’ont pas subi de réorganisation de couches en fonction des densités sous l’effet d’une très forte chaleur (les matériaux les plus denses s’agglutinent au centre pour former le noyau, les moins denses constituent la croûte). C’est pour cela que l’exploitation minière d’un astéroïde présente tant d’intérêt et pour cette raison qu’un kilomètre cube d’astéroïde aurait une valeur marchande de 5 000 milliards d’euros.

Par Sébastien Tribot

En 40 ans, le Royaume-Uni aura consommé l’essentiel de ses réserves pétrolières aisément exploitables

Si les productions de gaz restent encore soutenues (57 mrds de m3 en 2013) et pourraient profiter d’une embellie avec l’exploitation des gaz de schistes, il n’en est pas de même avec les productions de pétrole qui affichent une décroissance rapide et semble-t-il inéluctable (Figure.1) avec des productions proches des 3 millions de barils par jour en 1999 et ramenées à 0,87 million de barils par jour en 2013.

Figure;1 : Production de pétrole en Grande Bretagne en milliers de barrils par jour (BP, 2014)

 

Les dernières nouvelles sur ces productions des plateformes en Mer du Nord sont particulièrement alarmantes en raison d’une pénurie locale d’énergie disponible sous forme de gaz naturel qui les priverait d’une partie des injections d’eau dans les nappes, injections nécessaires à l’extraction des réserves de pétrole et de gaz associés encore enfouies. Certaines de ces plateformes seraient sur le point d’être abandonnées par manque de ressources énergétiques. C’est le serpent qui se mord la queue.

Dans de telles conditions, il est raisonnable de se poser des questions sur la pérennité des cotations du baril de BRENT à Londres, dont une très large part est, il est vrai, négociée sous formes de papiers entre institutions financières qui se soucient bien peu des niveaux d’extractions de la ressource.

Aujourd’hui par exemple, la fermeté du dollar qui dissuade les possesseurs de cette devise de se couvrir, doit expliquer l’essentiel de la baisse observée des cours du pétrole.

 

Par Raymond Bonnaterre

Des espions capables de pirater votre Smartphone

Ce n’est plus de la science-fiction.

Des scientifiques américains et Israéliens viennent de montrer comment utiliser les informations des gyroscopes des smartphones pour espionner les discussions. Pour y arriver, les chercheurs de l’université de Stanford en collaboration avec l’Institut de recherche et de développement en armement d’Israël Rafael analysent les vibrations de la plaque de métal du gyroscope à 200Htz, une fréquence suffisante pour décrypter les mots prononcés par quelqu’un.

La technique reste à affiner car on est encore très loin d’une qualité d’écoute similaire à celle obtenu grâce à un micro. Sur dix numéros prononcés par une personne située dans la même pièce que le téléphone piraté, seuls 65 % ont été reconnus correctement. Le sexe de la personne qui parle est correctement identifié dans 84 % des cas. 

Ces résultats ne semblent pas suffisants pour menacer réellement notre vie privée. Cependant, cette méthode repose sur l’accès au gyroscope du smartphone, un accès aucunement sécurisé. Il aura suffit aux  chercheurs de créer une application, baptisée Gyrophone, pour accéder aux données du gyroscope, aucune autorisation n’étant nécessaire.

Cette facilité d’accès est clairement une faille dans la sécurité des téléphones : « C’est en fait assez dangereux d’ouvrir l’accès au hardware comme cela sans aucune protection. […] il y a des informations acoustiques qui sortent du gyroscope. Si nous passions une année à construire une reconnaissance vocale optimale, nous pourrions devenir bien meilleurs à ça. Mais on a montré que c’était possible. » a déclaré Dan Boneh , un des participants à l’étude, au média Wired.

  • Pourquoi vous devez vous méfier de votre gyroscope :

Par Audrey Loubens, journaliste scientifique

Un cortex artificiel à base de soie et de collagène

Depuis le lancement du Human Brain Project, la course au cerveau humain artificiel stimule la recherche. En 2012, le premier cerveau comptabilisant 2,5 millions de neurones (à comparer aux 100 milliards de neurones du cerveau humain) était capable de lire, écrire, mémoriser. Baptisé SPAUN, ce cerveau numérique repose sur un modèle informatique censé imiter les circuits cérébraux. 

Mais le virtuel n’est pas la seule façon d’étudier le fonctionnement cérébral. Les chercheurs américains ont choisi de créer un cerveau « physique », c’est-à-dire bien réel. Pour cela, ils ont utilisé une matrice de collagène à l’intérieur de laquelle les neurones peuvent s’interconnecter dans toutes les directions. Ils ont implantés des noyaux neuronaux à l’intérieur d’anneaux de soie, chacun étant indépendant des autres. Les scientifiques ont ensuite regroupé les différents éléments de façon à reproduire l’assemblage neuronal du cerveau humain. Cet assemblage inédit a permis de générer et d’étudier l’activité de ce cortex artificiel pendant neuf semaines. 

Min D. Tang-Shomer, auteur principal de l’étude, n’a pas hésité à risquer d’endommager sa création et s’est « amusé » à faire tomber un poids sur ce cerveau artificiel. Les réponses chimiques et électriques des neurones face à  ce stress se sont révélées semblables à celles observées sur le cerveau d’animaux ayant subit un traumatisme crânien. De quoi valider ce modèle de cerveau à base de soie et de collagène.

La recherche dispose donc d’une nouvelle approche pour étudier la réaction du cerveau et plus précisément du cortex.

Par Audrey Loubens, journaliste scientifique

La NASA ne comprend pas d’où vient le surplus de tétrachlorure de carbone présent dans l’air

D’où vient tout ce tétrachlorure de carbone (CCl4) ? C’est la question que pose la NASA qui vient d’en détecter une quantité incompréhensible. En effet, alors que l’usage de CCl4 a été interdit en 1985 du fait de sa toxicité et de son impact sur la couche d’ozone qu’il contribue à détruire, les ingénieurs américains  ont pourtant constaté une quantité inexpliquée de CCl4 dans l’atmosphère. Alors que son taux aurait dû diminuer de 4% par an, il semble qu’il ne baisse que de 1%. 

Mais alors pourquoi autant de CCl4 ? Cet agent chimique était massivement utilisé par les industriels comme solvant ou réfrigérant. Mais alors que depuis 2007 (et jusqu’à 2012) aucune émission n’a été déclarée par les états signataires du protocole, il apparait que ces émissions ont pourtant  atteints 39 000 tonnes par an en moyenne. Un chiffre loin d’être négligeable et qui témoigne soit d’émissions illégales ou inconnues, soit d’un mécanisme de dégradation erroné.

Depuis plus de dix ans, la communauté scientifique s’interroge sur la décroissance beaucoup trop lente du niveau de CCl4 en comparaison avec la théorie.

L’évolution du taux de CCl4  a été modélisée par l’équipe du Professeur Liang à l’aide d’un logiciel de la NASA et en considérant les données atmosphériques des différents réseaux d’observation autour du globe. Ce sont ces simulations qui signalent le taux anormalement élevé de CCl4. Les travaux publiés dans Geophysical Research Letters révèlent en outre que le CCl4 présente une durée de vie dans l’atmosphère 40% plus longue que celle attendue ! Autant de désaccords entre la théorie et la pratique inquiétants.

Reste à la communauté internationale à déterminer l’origine de ces écarts : existe-t-il des modèles de dégradation du CCl4 inconnus ? Des industriels continuent-ils à utiliser ce polluant en toute illégalité ? Existe-t-il des sources naturelles non identifiées ?

L’enquête ne fait que commencer.

Par Audrey Loubens, journaliste scientifique

Des chercheurs assurent avoir trouvé l’algorithme du chien de berger

p>C’est grâce au système de navigation par satellites que les scientifiques ont finalement réussi à comprendre le fonctionnement des chiens de berger. Jusqu’alors, ils n’avaient aucune théorie satisfaisante pour expliquer leur faculté à déplacer aussi efficacement un groupe d’animaux indisciplinés dans la même direction.

Andrew King, biologiste à l’université galloise de Swansea, a commencé par équiper de harnais GPS un chien de berger (une femelle de race Australian Kelpie) et un troupeau de brebis mérinos. Il a ensuite observé le comportement des uns et des autres dans une prairie du sud de l’Australie, enregistrant les mouvements de chaque individu avec une précision de 10 à 20 cm.

Daniel Strömbom, mathématicien à l’université suédoise d’Uppsala, et ses collègues ont alors analysé ces données pour établir l’algorithme (suite d’opérations permettant de résoudre un problème) régissant les décisions et les actions du chien de berger.

A leur grande surprise, un modèle simple permet d’accomplir une tâche d’apparence très complexe. Il se résume en deux règles: rassembler les moutons lorsqu’ils se dispersent et les pousser vers l’avant lorsqu’ils sont de nouveau réunis.

« Nous avons dû imaginer ce que le chien voyait pour développer notre modèle. Grosso modo, il aperçoit des choses blanches et touffues devant lui. S’il voit des espaces entre les moutons, ou si ces espaces grossissent, le chien doit les rassembler », explique Andrew King dans un communiqué.

« Si vous observez des chiens de berger en action, le chien va et vient derrière le troupeau exactement de la même façon que ce que donne notre modèle », assure-t-il.

Les mathématiciens de l’équipe ont bien testé d’autres modèles, mais les simulations étaient beaucoup moins concluantes. « Les autres modèles ne semblent pas capables de garder des groupes de grande taille. Dès que le nombre d’individus dépasse la cinquantaine, il faut commencer à ajouter des bergers ou des chiens », souligne Daniel Strömbom.

Cette découverte, publiée mercredi dans la revue britannique Journal of the Royal Society Interface, pourrait avoir de multiples applications, dans le domaine de la robotique par exemple, selon les chercheurs.

L’algorithme du chien de berger pourrait servir à tenir les animaux à l’écart de zones dangereuses mais aussi à la gestion des mouvements de foule ou au nettoyage de l’environnement, estime Andrew King.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Imprimer ses os en 3D pour se les transplanter

Limpression 3D est en passe de révolutionner la médecine, et plus particulièrement la chirurgie. Dernière avancée en date, la technologie mise au point par les scientifiques de l’Université de Tokyo et de la société Next-21 permet d’envisager une production à l’échelle industrielle d’os artificiels imprimés. C’est la première fois qu’il devient possible de fabriquer des os transplantables à grande échelle. Pour y parvenir, l’impression est réalisée avec de la poussière d’os comme encre. Le phosphate de calcium est chauffé entre 100°C et 200°C. Ainsi fluidifié, il devient injectable dans un moule. La forme du moule s’ajuste à la géométrie de l’os à fabriquer, suivant la partie du corps concernée bien sûr mais aussi les caractéristiques particulières de chaque patient.

Une mise sur le marché d’ici 2017 ?

 Le gros avantage de cette technique est qu’il n’est plus nécessaire de chauffer à haute température la poudre, comme c’est le cas pour le frittage qui requiert d’atteindre 800°C.  Les coûts sont aussi bien plus compétitifs, d’où la possibilité de travailler à grande échelle : il serait possible de produire plusieurs milliers d’unités par jour.  Les tests cliniques doivent démarrer cette année, l’objectif affiché de Next-21 étant de se lancer sur le marché d’ici trois ans maximum. 

Derrière cette première technique se cache la volonté de créer une banque d’os artificiels, qui seront transplantables sur les patients. Deux cas de figures pourront être envisagés. Soit il s’agit d’un accident et un malade a besoin d’une greffe en urgence. Il sera alors possible de piocher dans le stock d’os imprimés pour opérer rapidement. Soit un patient en bonne santé subit un scanner sans avoir besoin d’être greffé à court terme. Les informations sur son ossature sont alors enregistrées de façon à être communiqués à la banque d’os en cas de besoin pour choisir l’os artificiel le plus adapté à une greffe.

Par Audrey Loubens, journaliste scientifique

D’où proviennent les lumières bleues observées lors de certains séismes ?

Il s’agirait de charges électriques  issues des roches magmatiques qui remontent à la surface. Cette électricité, une fois arrivée à la surface, vient ioniser l’oxygène présent dans l’air, générant ainsi de la lumière.

C’est ainsi que des piétons ont vu des flammes de lumière quelques secondas avant le terrible séisme d’Aquila (Italie) en 2009, qu’un officier de marine a vu des colonnes de lumière jaillir de l’eau en 2007 à Pisco (Pérou), ou encore que des flammes bleues se sont déployées à San Francisco (USA) juste avant le séisme de 1906. Ce sont 65 témoignages qui ont été vérifiés par une équipe de chercheurs américains et canadiens, ce qui représente moins de 0. 5% des tremblements de terre recensés depuis l’an 1600. 

Paru dans la revue Seismological Research Letters, ce travail lève le voile sur ce mécanisme rare. Car l’apparition de lumières dépend de conditions très particulières. Il faut tout d’abord que l’onde sismique vienne générer des contraintes sur des roches comme le basalte ou le gabbro. Stressées, celles-ci se chargent électriquement. Ensuite, il faut compter avec l’apparition de failles verticales. Ces dernières se propagent très profondément, jusque dans la croûte terrestre. Le magma se solidifie le long de ces failles, augmentant la présence de roches chargées jusqu’à former ce que Robert Thériault, co-auteur et géologue du ministère des ressources naturelles au Canada, appelle des digues. Celles-ci agiraient comme des entonnoirs, concentrant les charges électrique à tel point qu’elles en deviennent un plasma ionisé. 

La lumière émise lorsque le plasma débouche à la surface peut prendre différentes formes, comme l’attestent les nombreux témoignages rapportés. De plus, ces lumières peuvent apparaître avant le séisme, mais aussi pendant ou après. Les régions réunissant les circonstances nécessaires à la possible apparition de ces lumières sismiques sont l’Italie, la Grèce, la vallée du Rhin, ainsi que certaines régions de l’Amérique du sud.

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

Un laboratoire commun pour inventer les réseaux de communication du futur

Ce laboratoire commun rassemble plus de 50 chercheurs dont les recherches portent sur les « réseaux autonomes ».

Les travaux concernent l’analyse et l’étude de l’automatisation de l’exploitation des réseaux de télécommunication pour gérer la complexité, toujours croissante, des flux de communication échangés. L’objectif est de poursuivre l’essor de l’utilisation des réseaux, tout en conservant un niveau de qualité irréprochable. Le contexte de relation bilatérale entre l’institut Carnot Inria et l’entreprise a permis de faire émerger, grâce à la confiance établie, des sujets de recherche communs au cœur des enjeux industriels identifiés par Alcatel-Lucent.

Il a été ainsi possible de mobiliser, de manière efficace car focalisée, les compétences des équipes Inria les plus pertinentes selon trois axes de recherche, chacun co-piloté par Alcatel-Lucent et Inria. Ces axes sont l’automatisation des réseaux fixes (« High manageability »), la capacité du réseau à reconnaître automatiquement le type d’applications portées par les flux qu’il transporte et à en déduire les traitements appropriés pour offrir la qualité de service requise (« Semantic networking ») ainsi que l’optimisation distribuée des réseaux d’accès sans fil (« Self optimised Wireless networks »).

Dix brevets ont été déposés dans le cadre de ce partenariat, permettant à Alcatel Lucent d’affirmer son positionnement sur le marché des nouveaux réseaux de communication. Citons notamment diverses optimisations de réseaux cellulaires 3G/4G, un nouvel algorithme distribué pour le réglage des puissances des canaux dans un réseau optique dynamique maillé à multiplexage en longueur d’onde, ou des méthodes de classification et de traitement des flux pour un meilleur contrôle de la qualité de service du réseau.

Ces textes sont extraits du document « LES INSTITUTS CARNOT LA RECHERCHE POUR LES ENTREPRISES  / 60 exemples de recherche partenariale » édité en mai 2012

 

Instrumentation océanographique pour traquer le réchauffement climatique des océans

Lancé en 2000 par la Commission océanographique intergouvernementale et l’Organisation météorologique mondiale, le programme Argo a pour objectif de développer et de maintenir un réseau global de 3000 flotteurs profilants, d’une durée de vie moyenne de 4 ans et autonomes, pour mesurer en temps réel et tous les 10 jours la température et la salinité des 2000 premiers mètres de l’océan.

La société NKE exerce son activité dans 4 domaines dont l’instrumentation océanographique et dispose de ressources en bureau d’études et en production. Ses activités répondent aux exigences de qualité ISO 9001. L’entreprise s’est adressée à l’institut Carnot Ifremer-EDROME qui travaille depuis près de dix ans dans ce domaine, afin de mettre sur le marché de nouveaux profileurs plus performants à coût plus faible. L’apport du savoir-faire Ifremer-EDROME à NKE sur de nombreux aspects technologiques s’est traduit par une baisse des coûts de production de plus de 15%.

Ifremer-EDROME a attribué à NKE une licence de fabrication exclusive, avec reversement de royalties sur les instruments vendus à des tiers. Cette collaboration a déjà permis à NKE de remporter des succès à l’exportation en Chine, au Japon, en Inde … L’instrumentation océanographique de NKE représente aujourd’hui 35 emplois pour un chiffre d’affaires de l’ordre de 4 M€, en augmentation de 25% sur deux ans.

Sa part de marché voisine de 15% situe NKE au 3ème rang mondial derrière les concurrents Américains (WRC Teledyne, Scripps ou WHOI), tandis que les flotteurs Allemands et Japonais se placent à moins de 10% de part de marché. L’EQUIPEX NAOS (Novel Argo Ocean observing System) permettra de consolider et d’améliorer la contribution française au programme Argo et de préparer les prochains défis scientifiques, avec de nouveaux développements technologiques menés avec NKE qui compte consolider sa position sur ce marché en développement.

Ces textes sont extraits du document « LES INSTITUTS CARNOT LA RECHERCHE POUR LES ENTREPRISES  / 60 exemples de recherche partenariale » édité en mai 2012

Pour un recyclage compétitif des polymères

Dés 2004, Plastic Omnium avait identifié que des travaux scientifiques conséquents étaient nécessaires pour mettre au point des recyclés avec valeur ajoutée. C’est dans ce contexte qu’un partenariat de recherche a été engagé entre la société Plastic Omnium et le laboratoire Ingénierie des Matériaux Polymères (IMP), composante de l’institut Carnot Ingénierie@Lyon.

Le premier objectif était de pouvoir augmenter les sources potentielles de polymères à recycler au travers d’additifs ou de procédés innovants permettant de s’affranchir des baisses des caractéristiques mécaniques et/ou d’aspect. Un premier brevet conjoint a été déposé dès 2007 sur la « compatibilisation » d’un mélange de Polypropylène et de Polyéthylène (PP/PE). 

Puis des travaux pilotés par l’IMP pour le compte de Plastic Omnium ont permis de mettre au point des procédés d’extrusion innovants pour des mélanges de PP/PE compatibilisés. Ces travaux ont conduit au dépôt d’un nouveau brevet conjoint en 2011 sur un premier procédé d’extrusion et ont permis à Plastic Omnium de lancer une gamme de produits recyclés appelée Greenlene®.

Les travaux menés conjointement par l’institut Carnot Ingénierie@Lyon et Plastic Omnium se poursuivent en 2012 pour optimiser notamment les rendements des procédés de production, et donc les données technico-économiques pour cette gamme de produits : augmentation des sources de recyclés de haut niveau grâce au marquage chimique des polymères afin de faciliter le tri en fin de vie, valorisation des déchets plastiques des équipements électriques et électroniques…

Le Greenlene® vient de faire une entrée remarquée dans le secteur automobile par le biais d’une première mondiale : une pièce de carrosserie extérieure automobile peinte, à partir de matériau 100% recyclé – le pare choc arrière de la 208 Peugeot. Fort de ce premier succès à fort impact commercial, 4 autres projets d’utilisation de Greenlene® sont d’ores et déjà signés, confirmant l’intérêt économique réel de la filière mise en place par Plastic Omnium.

Ces textes sont extraits du document « LES INSTITUTS CARNOT LA RECHERCHE POUR LES ENTREPRISES  / 60 exemples de recherche partenariale » édité en mai 2012

Nouvelles technologies pour le diagnostic et le dépistage en cancérologie

Les applications visées sont cliniques et précliniques, principalement pour la cancérologie en recherche et pour le diagnostic ou le dépistage précoce. Cette technique nouvelle présente l’avantage principal de ne pas utiliser de rayonnements ionisants. Elle a été qualifiée par diverses équipes (INSERM, Service Hospitalier Frédéric Joliot, Institut d’Imagerie Moléculaire et Fonctionnelle de Bordeaux) comme un instrument de tomographie préclinique quantitatif. Ces équipes ont montré la parfaite adéquation des résultats obtenus avec cette nouvelle localisation optique des tumeurs et avec la méthode classique à base de rayonnements ionisants PET (Position Emission Tomography).

Ces travaux ont conduit à la mise en place d’un partenariat avec deux entreprises : la société SCANCO Medical et la société DIGISENS. L’objectif de la collaboration avec SCANCO Medical (Zürich, Suisse), basée sur une valorisation des travaux du CEA LETI en tomographie optique diffuse de fluorescence (géométrie d’acquisition cylindrique), était de développer un nouveau système bi-modalités de tomographie préclinique couplant une information fonctionnelle fournie par tomographie optique de fluorescence à une information anatomique fournie par un micro-tomographe RX.

En ce qui concerne la société DIGISENS, deux accords ont été signés, en juillet 2011, avec le CEA LETI, en vue de la commercialisation du tomographe optique 3D de fluorescence (géométrie d’acquisition planaire) : un accord de licence et un accord pour l’étude et le développement d’une nouvelle version du tomographe 3D intégrant des améliorations du système. Les travaux menés par l’institut Carnot CEA LETI ont également trouvé un prolongement au travers du démarrage de 2 start-up : CAPSUM qui bénéficie d’un accord de licence avec le CEA LETI pour l’application en cosmétique et agro-alimentaire, et Fluoptics, start-up du CEA LETI.

L’objectif principal de Fluoptics est de fournir aux chirurgiens oncologues une nouvelle technique temps réel d’imagerie et d’aide à l’acte chirurgical qui permette de sécuriser l’élimination de zones tumorales lors de l’acte chirurgical. Les technologies issues du CEA LETI (traceurs fluorescents et sonde per-opératoire) commercialisées par Fluoptics offrent de bonnes perspectives de développement à la jeune société.

 

Ces textes sont extraits du document « LES INSTITUTS CARNOT LA RECHERCHE POUR LES ENTREPRISES  / 60 exemples de recherche partenariale » édité en mai 2012

Une biopile implantable pour alimenter les dispositifs médicaux artificiels

La société Sorin, l’un des leaders de la conception et de la fabrication de pacemakers, est confrontée à cet enjeu, avec un besoin de sources d’énergies à longue durée de vie permettant d’éviter leur remplacement trop fréquent, remplacement qui nécessite souvent une intervention chirurgicale, même minime.

La société Sorin s’est rapprochée de l’institut Carnot LSI dont le Laboratoire Techniques de l’ingénierie médicale et de la complexité – Informatique (TIMC-IMAG), associé au Département de Chimie Moléculaire de Grenoble, a réussi à utiliser les ressources du corps humain comme carburants pour la production d’électricité in situ. Ainsi le rêve de nombreux chirurgiens est devenu réalisable avec la mise au point d’une biopile à glucose. Cette biopile (GBFC, Glucose Bio Fuel Cell), déjà fonctionnelle chez l’animal, permettra à terme d’alimenter en énergie différents dispositifs médicaux : pacemakers, sphincters artificiels, pompes à insuline, voire, pourquoi pas, des organes comme un rein artificiel.

La société Sorin y voit de quoi concevoir une nouvelle génération de stimulateurs cardiaques qui, petits et vissés sur le cœur, seraient alimentés par ses battements ou le glucose du corps. Elle s’appuie également sur le groupe ST Microelectronics qui, par son savoir-faire, contribuera à concilier miniaturisation et augmentation de la puissance. Une seconde biopile utilisant comme combustible le sel (NaCl) est aujourd’hui à l’étude. Ces résultats offrent à la société Sorin de très bonnes perspectives pour répondre aux attentes de ses marchés avec un avantage concurrentiel important.

Ces textes sont extraits du document « LES INSTITUTS CARNOT LA RECHERCHE POUR LES ENTREPRISES  / 60 exemples de recherche partenariale » édité en mai 2012

La nutrition humaine menacée par l’augmentation du CO2 dans l’atmosphère

Une analyse à grande échelle

Les plantes utilisent le CO2 lors de la photosynthèse. Elles le piègent, le fixent et l’utilisent pour fabriquer leurs propres nutriments. Il existe plusieurs mécanismes de fixation du CO2, parmi lesquels celui dit en « C3 » (pour le blé, le riz, le soja, etc.) et le mécanisme de fixation « en C4 » (mais, sorgho, etc.). Le premier est typique des régions à ensoleillement faible, eau abondante, faible taux de CO2 et températures moyennes. Le second, plus efficace, est typique des zones chaudes, sèches, très ensoleillées et où le taux de CO2 est plus élevé.

Depuis le début des années 1990, les chercheurs ont constaté une diminution des quantités de zinc et de fer dans certaines plantes utilisées pour la nutrition humaine, comme le blé, l’orge et le riz. Cette baisse se produisait lorsque ces plantes étaient cultivées dans une atmosphère artificielle avec un taux élevé de CO2 imposé. Cependant la petite taille des échantillons ne permettait pas de tirer des conclusions significatives. De plus, les conditions de cultures étaient discutables.

Depuis, une nouvelle technologie de culture a été mise au point, le Free Air Concentration Enrichment (ou FACE). Cette technique permet de cultiver des plantes à l’air libre tout en modifiant la quantité de CO2 absorbée par les végétaux. Des tuyaux horizontaux ou verticaux sont placés autour des terrains expérimentaux et diffusent du CO2 jusqu’à atteindre le taux désiré. Celui-ci est dosé grâce à des capteurs eux-mêmes reliés à un ordinateur chargé de réguler les émissions.

Le problème de la petite taille des échantillons a ainsi été résolu en regroupant des données venant de cultures utilisant le FACE au Japon, en Australie et aux Etats-Unis. L’équipe du docteur Kloog du Department of Geography and Environmental Development de l’Université Ben Gourion du Néguev a ensuite analysé ces données, effectuant des comparaisons entre 143 échantillons récoltés après 6 périodes de culture et regroupant 41 génotypes végétaux différents. Les analyses concernaient la partie comestible du riz, du blé, du soja, des petits pois, du mais et du sorgho. Les taux de CO2 administrés étaient de 546 à 586 parties par million, ce qui correspond aux taux atmosphériques moyens estimés pour 2050.

Des résultats inquiétants

Grâce à cette méthode, les chercheurs israéliens ont montré que le zinc, le fer et les protéines diminuent de façon significative dans les plantes « C3 », cultivées avec un haut taux de CO2. Par exemple, on note une baisse de 9,3%, 5,1% et 6,3% respectivement en zinc, fer et protéines dans le blé cultivé dans ces conditions. Pour les légumes (soja et petits pois), la baisse concernait uniquement les taux de zinc et de fer. Autre phénomène inquiétant : l’étude montre que le taux de phytate diminue de façon significative dans le blé cultivé dans les conditions « FACE ». Or, le phytate est une molécule importante, qui conditionne l’absorption du zinc par l’intestin lors de la digestion.

Etant donné que les taux de CO2 sont appelés à augmenter de manière significative (et ce, même si des changements réels sont opérés dans les prochaines années au niveau des politiques environnementales), les carences en fer, zinc et protéines risquent de causer un désastre humanitaire. Néanmoins, un espoir subsiste car les analyses concernant les champs de riz ont montré une grande variabilité entre les échantillons, suggérant qu’il existe certains génotypes moins sensibles à l’augmentation de CO2 que d’autres. Ces plants peuvent servir de base pour créer des cultures plus résistantes et tenter d’éviter ainsi les risques de malnutrition.

Hélas, le choix des cultures dépend de nombreux facteurs comme la disponibilité des semences ou leur coût, ainsi que sur le goût des populations et leur tradition agricole.

Source : Bulletins électroniques

News environnement d’août 2014: Exploits scientifiques russes de l’ère post-soviétique, un ballon d’hélium pour l’étude du sous-sol…

Publication d’une étude trilatérale sur les centrales de pompage-turbinage en Allemagne, en Autriche et en Suisse

Le Ministère fédéral de l’économie et de l’énergie (BMWi) a publié, lundi 18 août 2014, une étude trilatérale sur les centrales de pompage-turbinage (ou STEP pour Stations de transfert d’énergie par pompage) en Allemagne, en Autriche et en Suisse [1].

Dans le cadre de cette étude, ont été analysés les aspects juridiques et économiques des centrales de pompage-turbinage dans les trois pays, ainsi que de futures possibilités de développement. Les experts ont conclu que l’importance à long terme des centrales de pompage-turbinage augmentera avec la part croissante des énergies renouvelables, et qu’elle doit être considérée en lien étroit avec le développement du réseau électrique.

L’étude publiée a été initiée sur la base de la « Déclaration de l’Allemagne, de l’Autriche et de la Suisse à propos d’initiatives conjointes pour le développement de centrales de pompage-turbinage », publiée en avril 2012, et contribue à la coopération renforcée dans ce domaine.

Le cadre juridique du pompage-turbinage a été examiné dans les trois pays, à la demande du BMWi, par le cabinet d’avocats Görg mbB. Le point de vue économique a été étudié par un expert des politiques économiques et d’infrastructure de l’Université technique de Berlin, à la demande de l’Office fédéral suisse de l’énergie. Enfin, l’Institut d’installations électriques et d’économie de l’énergie de l’Université technique RWTH d’Aix-la-Chapelle (Rhénanie du Nord-Westphalie) a mené une étude sur les contributions des stations de pompage-turbinage pour l’approvisionnement en énergie, pour le compte du Ministère fédéral autrichien de la science, de la recherche et de l’économie. En outre, à la demande de l’Office fédéral suisse de l’énergie, un rapport de synthèse a été réalisé par l’Energy Science Center de l’ETH de Zurich

Les exploits scientifiques russes de l’ère post-soviétique

Début juillet, l’agence Thomson Reuteurs a publié la liste des scientifiques les plus influents du monde de l’année 2014. Parmi ces héros d’aujourd’hui figurent huit. Les réalisations scientifiques russes des dernières années sont souvent peu connues, alors que certaines sont d’importance capitale. Voici 5 travaux, arbitrairement retenus mais très souvent cités par la communauté scientifique russe, qui illustrent les succès de la recherche post-soviétique.
 
En premier lieu, on relèvera les travaux des physiciens du laboratoire Flerov de l’Institut unifié de recherches nucléaires de Dubna, centre scientifique international située dans la banlieue moscovite, qui ont été les premiers à synthétiser les six éléments les plus lourds connus à ce jour et portant les numéros atomiques allant de 113 à 118. Pour l’instant seuls les flérovium (114)( Fl) et livermorium (116)(Lv) ont été reconnus par l’Union internationale de chimie pure et appliquée (UICPA). Leurs propriétés étonnantes permettent de spéculer sur la création de nouveaux types d’écrans souples, de batteries ou mêmes des vêtements.
 
En 2006, les physiciens de l’Institut de physique appliquée (IPA) de l’Académie russe des sciences de Russie à Nijni Novgorod ont créé le système PEARL (PEtawatt pARametric Laser). Ce laser, basé sur la technologie d’amplification paramétrique de la lumière dans les cristaux optiques non-linéaires, a été un temps, le laser existant le plus puissant avec une puissance de 0,56 petawatt. Ce laser permis à des chercheurs d’étudier des processus physiques extrêmes et des techniques de traitements des tumeurs cancéreuses.
 
Dans les années 90, les physiciens du Centre atomique russe à Sarov dirigée par Alexandre Pavlovsky ont réussi, grâce aux générateurs magnéto-cumulatifs à explosifs, à atteindre un champ magnétique de 28 megagauss. Ce méga-aimant donné lieu à de nombreuses études sur le comportement des supraconducteurs, qui jouent un role crucial dans la physique moderne (canon magnétique, accélérateur de particules…).
 
Dans le domaine des géosciences, les chercheurs de l’université russe d’Etat de pétrole et de gaz Goubkine ont invalidé la théorie selon laquelle pétrole et le gaz ne peuvent être produits que par décomposition de matières organiques. En effet, sous la croûte terrestre, à 100-150km de profondeur, selon Vladimir Koutcherov, professeur à l’Académie de technologie chimique fine de Moscou, la synthèse d’hydrocarbure lourd est possible. Selon le professeur Koutcherov, « une technologie de synthèse artificielle de pétrole permettrait de résoudre de nombreux problèmes économiques et écologiques ».
 
Enfin, En 2002, le mathématicien russe Grigori Perelman a démontré la conjecture de Poincaré, l’un des sept « problèmes du millénaire » recensés par l’Institut de mathématiques Clay. Cette conjecture, formulée pour la première fois par le mathématicien français Henri Poincaré en 1904, et s’énonce comme suit : « Soit une variété compacte V simplement connexe, à 3 dimensions, sans bord. Alors V est homéomorphe à une hypersphère de dimension 3. » Parmi les travaux présentés, ceux de Grigori Perelman ont été d’avantage médiatisés, moins par l’aboutissement d’un effort scientifique collectif sur près d’un siècle que par son double refus d’une part du prix de un million de dollars américains que Clay s’était engagé à remettre pour la résolution de ce problème, d’autre part de la médaille Fields.

Un ballon d’hélium pour l’étude du sous-sol

Le 17 juillet 2014, l’Institut fédéral des géosciences et des ressources naturelles [1] a testé un système mobile et semi-aérien pour la réalisation de mesures géophysiques du sous-sol.

L’innovation pour ces mesures électromagnétiques réside dans l’utilisation d’un ballon d’hélium. Ce ballon, un boudin de 1 m de diamètre enroulé en forme d’anneau de 20m de diamètre, est équipé de bobines qui jouent le rôle d’émetteurs/récepteurs. Le dispositif permet ainsi l’étude du sous-sol géologique à des profondeurs de plusieurs centaines de mètres.

Le ballon est tracté par un véhicule et arrimé à un second afin de maintenir une direction rectiligne (voir la démonstration en vidéo proposée ci-dessus). L’avantage conféré par la mobilité est de pouvoir réaliser jusqu’à vingt fois plus de relevés du sous-sol qu’avec les dispositifs conventionnels.

Les premiers essais se sont déroulés à Döberitzer Heide, une zone d’entraînement militaire de la Bundeswehr dans le Brandebourg. Ces essais ayant été concluants, le BGR envisage une utilisation sur le terrain, en particulier pour l’exploration des eaux souterraines dans les pays en développement.