La sauvegarde de l’énergie humaine, le défi du 21ème siècle ?

Qui ne s’est jamais senti découragé et épuisé à la seule idée d’ouvrir sa boîte courriel ?

Qui n’a jamais été pris de court, dans l’impossibilité de réagir correctement face à un partenaire, un confrère, un concurrent, par absence d’une information critique ?

Qui – au contraire – ne s’est jamais perdu dans la quantité d’information, non triée, non vérifiée, à disposition dans son organisation ? 

Voici quelques-unes des questions qui résument l’un des plus grands défis actuels pour les entreprises et leurs salariés. Dans un monde plus ouvert que jamais, où l’information circule instantanément et où il est vital de prendre en compte la globalité de son écosystème, nous sommes en fait trop facilement débordés. 

Les conséquences sont faciles à identifier. D’après le « Fifth European Working Conditions Survey » de la Fondation Européenne de Dublin (Commission Européenne), la France est dans le top 3 des pays « stressés » de l’UE. Le gâchis que cela représente au quotidien est difficile à chiffrer, mais indéniable.

A l’heure où maîtriser, économiser même, les ressources, l’énergie… donnent lieu à des paroles et à des actes, qu’en est-il de la sauvegarde de l’énergie humaine ? Moins de fatigue, moins de stress, moins de tensions interpersonnelles, favorisent une meilleure productivité, une utilisation optimale de l’intelligence collective et une plus grande créativité. Un avantage majeur à la fois pour l’entreprise et le salarié.

Les recettes traditionnelles ne suffisent plus

Il existe déjà des recettes concrètes pour permettre à l’entreprise d’économiser l’énergie de ses salariés, pour qu’ils conjuguent efficience et sérénité. Bien sûr, il y a l’environnement de travail (une bonne luminosité, de l’espace, un volume sonore confortable…) ou les services mis à disposition du personnel, en interne ou dans les environs immédiats, pour lui faciliter la vie.

Mais dans cet univers numérique, mobile et instantané dans lequel nous vivons, cela ne suffit plus. Ce qui aide le plus un collaborateur, lui permet de vraiment se concentrer sur l’essentiel, c’est l’accès immédiat à la « juste » information. C’est-à-dire celle dont il a besoin pour décider, pour agir, pour être devant ses concurrents ; celle qui enrichit les réflexions et élargit le périmètre de connaissance. Celle, enfin, qui facilite l’innovation, clé de voûte des entreprises qui se développent et se réinventent sans cesse. C’est une information précise, vérifiée, non redondante, accessible, en mode « zéro clic ».

Les technologies qui répondent à ces aspects existent déjà et ont toutes en commun le collaboratif et le social. Mieux : en plus de faciliter l’accès à l’information, elles sont également évolutives ; elles apprennent des choix et des préférences de l’individu, pour lui fournir une information filtrée, prête à consommer, sans qu’il ait chaque jour à expliciter de nouveaux ses besoins réels. Cette capacité d’évolution est centrale dans un contexte où une entreprise est tout sauf une structure figée. Elle évolue de jours en jours et les attentes de ses collaborateurs changent progressivement elles aussi. Les outils doivent donc en tenir compte.

Collaboratif et RSX pour mieux utiliser son énergie

Parmi ces derniers, les réseaux collaboratifs d’entreprises sont ceux qui offrent les plus grands bénéfices. Ils sont au cœur des enjeux business et de relations interpersonnelles. Leur objectif est en effet de faire naitre des synergies métier et d’augmenter la puissance des communautés professionnelles qui les utilisent. 

En alliant ces réseaux avec un accès intuitif à l’information pertinente, les idées se partagent mieux, les capacités d’innovation et de découvertes stratégiques se multiplient car la justesse des informations, leur non-redondance sont vérifiées – sans perte de temps. Les salariés disposent ainsi d’un plus grand confort pour partager leurs réflexions et les enrichir avec ceux, parmi leurs pairs, qui seront les plus concernés et capables d’apporter de la valeur. De facto, l’énergie de ces collaborateurs est préservée, voire augmentée.

La bonne nouvelle, c’est que les entreprises prennent conscience des enjeux d’efficience, de développement, de climat social et d’innovation, que cet impératif de sauvegarde de l’énergie humaine recouvre. L’édition 2013 de l’Index International des valeurs, réalisé par l’agence Wellcom, souligne ainsi la très forte progression de la valeur « Innovation » dans les entreprises, pour se différencier de la concurrence et l’apparition, pour la première fois, de la valeur « Communauté » dans le classement. Cette dernière concerne d’ailleurs autant une dynamique interne (salariés) qu’externe (clients).

En effet, si les professionnels comprennent que l’optimisation de l’énergie humaine par une utilisation plus fine des outils collaboratifs est une force, l’idée qu’il s’agit également d’un atout à l’extérieur de l’entreprise fait son chemin. La stratégie de la pertinence et du « zéro clic », appliquée sur les réseaux sociaux externes (RSX)* offre une forte optimisation de leurs processus de vente : un utilisateur, client, revient sur une plateforme lorsqu’il sait que l’information qui lui est présentée est de qualité. Un des critères fondamentaux de cette qualité est la pertinence vis-à-vis de ses centres d’intérêt. Thématique par thématique, il est donc possible de capitaliser d’un point de vue business sur les mêmes approches qui ont rendu ses salariés plus efficients et zen dans son organisation. En approfondissant l’analyse, il apparait même que les clients deviennent sources d’innovation, facilitant l’adaptation permanente de l’entreprise.

À une époque où toute organisation cherche à rationaliser ses investissements, les dispositifs qui favorisent l’économie de l’énergie humaine sont plus qu’une ligne dans la politique RSE des entreprises ou qu’une simple opportunité commerciale. Veiller, agir pour maîtriser la dépense d’énergie humaine de son écosystème est une véritable nécessité. Agir pour favoriser le partage au sein de l’entreprise et avec ses clients est un formidable levier de synergie.

* Les RSX sont des réseaux sociaux sur-mesure, conçus par les entreprises pour fédérer une communauté autour de leur activité, sur une plateforme externe thématique qu’elles maitrisent et sur laquelle elles peuvent s’appuyer systématiquement pour se développer.

Par Florian Leblanc, Executive Vice-President, NYC, Entropic Synergies & Viviane Strickfaden, CEO VS Management
 

Placer les antennes de son routeur Wi-Fi de manière optimale : perpendiculairement

Ce n’est pas parce que le Wi-Fi est partout qu’on sait de quoi on parle. Pour le commun des mortels, le Wi-Fi reste un truc mystérieux qui rend disponible « de l’internet » en en envoyant un peu partout autour de nous (peut-être de manière nocive, pour les plus informés), et qui permet de relier sans fil de nombreux appareils informatiques au « réseau », dans lequel nous baignons – littéralement. Et c’est évidemment lorsque l’on n’a pas de réseau qu’on en entend le plus parler. « Ya pas de réseau ! » ou encore « le réseau est pourri » sont des refrains populaires qui ont cela de frustrant qu’il peuvent être chantés alors même qu’un routeur se trouve dans les parages. Jusqu’à venir nous cueillir dans la tiède torpeur du foyer.

Alf Watt, chevalier blanc du Wi-Fi

Et c’est ici que ce vieux briscard d’Alf Watt intervient. Dans une interview accordée au site américain The Mac Observer, le développeur du détecteur de réseaux Wi-Fi iStumbler – et ancien ingénieur Wi-Fi d’Apple – nous livre une astuce de premier ordre : lorsqu’un routeur possède des antennes omnidirectionnelles externes, plutôt que de les orienter instinctivement et « naturellement » à la verticale, Alf Watt recommande d’orienter l’une perpendiculairement à l’autre.

La réception radio est maximale lorsque le client (l’appareil qui souhaite se connecter) et le point d’accès ont une polarisation assortie, en d’autres termes lorsque les antennes du client et celles du point d’accès sont dirigées le long d’un même plan. Certains appareils ont leurs antennes internes orientées horizontalement, d’autres… verticalement. Penser perpendiculairement reste donc la solution.

Crédit illustration : The Mac Observer

 

Par Rahman Moonzur

Et aussi dans les
ressources documentaires :

La GigaUsine Tesla fonctionnera intégralement à l’énergie solaire et éolienne

Capable de délivrer 500.000 batteries pour voitures électriques chaque année, l’énergie nécessaire à la fabrication des batteries sera 100% photovoltaïque et éolienne, deux énergies complémentaires et très bon marché.

Ci-dessus : vue du ciel de l’usine avec toit solaire et éoliennes sur la colline

Le PDG de Tesla Motors, le multimilliardaire Elon Musk, est aussi le fondateur de SolarCity, le numéro 1 du solaire résidentiel aux USA. SolarCity va construire une gigantesque usine de panneaux solaires de technologie Silevo (haut rendement et zéro dépendance vis à vis de l’élément argent) dans l’état de New-York, usine qui sera alimentée également à 100% par de l’énergie d’origine renouvelable.

Etant donné que l’énergie délivrée par un panneau solaire permet d’en produire 10 autres et que le rapport est encore meilleur pour l’éolien, un cercle vertueux, vraiment durable, se met en place.

La Gigafactory Tesla dans le Nevada sera la plus grande usine de batteries du monde. Elle produira à elle seule autant de capacités de stockage que l’ensemble des producteurs de batteries sur la planète aujourd’hui. L’investissement s’élève à 5 milliards de dollars.

Les batteries serviront en priorité à alimenter la gamme de voitures électriques Tesla (S, III et X), mais pourront aussi éventuellement alimenter d’autres constructeurs automobiles ainsi que servir pour le stockage stationnaire au niveau des maisons et des entreprises équipées de panneaux solaires.

Ci-dessus : les différents types de solutions de stockage

Cinq états américains – Le Nouveau Mexique, l’Arizona, le Texas, la Californie et le Nevada – étaient en compétition pour remporter ce jackpot. C’est le projet sur le site de Reno (qui sonne comme un clin d’œil au groupe Renault) qui l’a emporté. Les travaux de terrassement ont déjà commencé. Le site jouit d’un très haut niveau d’ensoleillement propice à la production photovoltaïque.

Le Gouverneur du Nevada, Brian Sandoval, a déclaré que « c’est un grande nouvelle pour l’état du Nevada. Tesla va construire dans le Nevada l’usine de batterie la plus grande et la plus avancée du monde ce qui se traduira par 100 milliards de dollars d’impact économique pour le silver state durant les 20 années à venir. Je suis reconnaissant qu’Elon Musk et Tesla aient choisi le Nevada. Ces pionniers du XXIème siècle, nourris d’innovation et de désir, sont encouragés par l’engagement du Nevada pour changer le monde. Le Nevada est prêt pour être le leader. »

L’ensemble des matières premières nécessaires pour la construction des batteries proviendra d’Amérique. Tout près de Reno se trouve la King Valley (la vallée des rois) très riche en Lithium. Ce site va être exploité par l’entreprise Western Lithium. La GigaFactory Tesla consommera chaque année une quantité de lithium équivalente à ce que prévoit de produire Western Lithium dans le cadre de la phase 1 de son plan de développement minier.

Croissance verte

« La Gigafactory est un pas important dans la perspective de faire progresser les transports durables et permettra la production en masse de véhicules électriques attractifs pour les décennies à venir » a déclaré Elon Musk, PDG de Tesla Motors. « Avec Panasonic et d’autres partenaires, nous nous réjouissons de réaliser l’ensemble de ce projet »

Il s’agit d’une « journée monumentale » s’est exclamée la porte-parole du Nevada, Marilyn Kirkpatrick. « Il s’agit d’une contribution significative pour stimuler en profondeur l’économie à l’échelle de l’ensemble de l’état du Nevada. » 6500 emplois directs, souvent très qualifiés, seront créés. S’ajouteront ceux liés à la construction de logements pour les salariés, de zones commerciales, de restaurants, de bars, de nouveaux services ainsi qu’à l’implantation d’entreprises d’ingénierie associées à la GigaFactory. Tesla Motors emploie dès à présent 6500 personnes en Californie notament au niveau de l’usine ultra-moderne de Fremont.

Plus qu’une voiture électrique, c’est une approche positive en matière d’écologie qu’apporte Elon Musk : « Free charging on pure sunlight for life », telle est sa devise. La charge solaire gratuite, à vie, pour tous ceux qui s’équipent d’une voiture Tesla.

Ci-dessus : Superchargeurs

Le réseau de superchargeurs Tesla, les plus puissants du monde, est effectivement en accès gratuit. Il permet dès à présent de relier la côte est et ouest aux USA, ainsi qu’Oslo à la côte d’Azur en France. L’ensemble de la France sera couverte dès 2015. Elon Musk est ouvert au partage: « Au cas où Peugeot, Renault ou un autre voudraient partager notre réseau, ils sont les bienvenus ! » a-t-il déclaré au journaliste Jean Botella du magazine Capital. A suivre.

Par Olivier Daniélo

Revue du web #65 : les vidéos les plus étonnantes de la semaine

Cette semaine dans la revue du Web

  • Briser la frontière entre maquillage, effets spéciaux et mapping vidéo ; 
  • « The empty car convoy » : la science au service du spectacle (et de la sécurité) ; 
  • « Om/One », la très élégante enceinte bluetooth en lévitation ; 
  • Le gadget (inutile?) de la semaine : de l’art délicat de se protéger des feux d’artifices en se jetant dedans ; 
  • et en bonus : traverser une aurore boréale à bord de la Station Spatiale Internationale.

Briser la frontière entre maquillage, effets spéciaux et mapping vidéo :

Nobumichi Asai l’a bien compris : projeter des images sur des bâtiments ou dans une pièce pour les animer de manière digitale n’a plus rien de nouveau. Fort de ce constat, l’artiste numérique japonais a décidé de s’attaquer à un tout autre support. Pour débuter notre soixante-cinquième Revue du Web, découvrons Omote, un système alliant les techniques de détection de mouvement les plus novatrices aux dernières techniques de mapping vidéo, une technologie permettant de projeter de la lumière ou du contenu vidéo sur des volumes et des structures en relief.

Sa nouvelle toile ? Le visage de la mannequin japonaise Yuka Semikizu, qui a dû se débarrasser de ses sourcils pour l’occasion, afin d’offrir un support aussi vierge que possible à l’équipe constituée de designers, d’experts en images de synthèse et de maquilleurs professionnels, équipe dirigée par l’artiste lui-même. Le résultat est tout aussi fascinant qu’effrayant : un maquillage digital épousant à la perfection le visage du modèle, véritable masque qui le suit naturellement dans tous ses mouvements. Peu de détails techniques ont pu filtrer, mis à part la nécessité de scanner le visage de la jeune femme, étape nécessaire pour modéliser les moindres contours de son joli minois, puis réaliser la projection en temps réel.

Asai n’est pas un novice en la matière – il a déjà effectué des projections pour le constructeur automobile Subaru – mais c’est la première fois qu’il travaille sur un support non stationnaire. Il ne compte d’ailleurs pas s’arrêter en si bon chemin… Prochaine étape, le mapping vidéo sur tout le corps.

« The empty car convoy » : la science au service du spectacle (et de la sécurité)

Les communicants de Hyundai ont bien compris une chose : il faut du spectacle pour vendre de la sécurité. Chez le constructeur sud-coréen, on n’est pas peu fier de la version 2015 de la Genesis, la berline routière plutôt luxe de la marque asiatique, qui se veut être un écrin rassurant et douillet, bourré de « nouvelles technologies ». Pour le prouver, direction le désert des Mojaves, à l’Ouest des États-Unis, où l’on a pu assister à une drôle de procession formée par six de ces berlines, à la queue-leu-leu. Ne cédant pas aux sirènes de la facilité, les conducteurs vont peu à peu déserter leur véhicule avec force cascades, laissant seul le conducteur de la voiture de tête, le cascadeur en chef, tellement sûr de lui qu’il décide de se bander les yeux… et de ne plus toucher au volant. Les bras en croix sur la poitrine, ainsi soit-il.

Le tracteur routier qui a récupéré les cinq premiers cascadeurs décide alors de mener la danse, puis de piler aussi malicieusement que brusquement devant la file indienne. Vous n’êtes pas les spectateurs involontaires d’un snuff movie, donc pas de suspense : la première voiture pile presque instantanément, suivie des autres Hyundai Genesis, vides. On se congratule, et on peut donc vanter les mérites de l’« Advanced Smart Cruise Control » (ASCC) – un système permettant de maintenir le véhicule à une certaine vitesse, tant qu’elle n’est pas limitée par le trafic – de l’« Automatic Emergency Brake » (AEB) – un système automatique de freinage d’urgence – et du « Lane Keeping Assist System » (LKAS), système d’assistance au maintien dans la voie de circulation – qui permet de suivre assez fidèlement le marquage au sol.

Hyundai rappelle que ces technologies ne sont bien évidemment pas là pour se substituer au conducteur, mais doivent permettre de l’assister en cas de besoin.

« Om/One », la très élégante enceinte bluetooth en lévitation

Bien que le marché des enceintes bluetooth soit complètement saturé, une petite start-up américaine a décidé de foncer tête baissée et de relever le défi, tant elle est sûre de son produit. Ce gadget, c’est Om/One, une petite enceinte au design léché qui n’est pas sans rappeler l’étoile noire de la célébrissime saga créée par George Lucas, Star Wars. Non seulement le rendu audio est de très bonne qualité, mais l’enceinte a également un petit plus qui saute immédiatement aux yeux : elle est en lévitation magnétique. La technologie utilisée a beau n’avoir rien de bien nouveau, on ne peut que fondre devant cette jolie sphère en lévitation, qui vous en coûtera tout de même la bagatelle de 179 dollars, hors frais d’expédition.

Crachant jusqu’à 110 décibels du haut de ses 3 Watts, la petite sphère peut vous accompagner partout grâce à sa batterie lithium-ion d’une autonomie – revendiquée – de quinze heures, qu’il suffit ensuite de recharger en la reliant au socle. Le petit bijou conçu par Om Audio soulève tellement d’enthousiasme que leur campagne de levée de fonds a littéralement explosé tous les compteurs, avec plus de 650 000 dollars récoltés en moins d’un mois, plus de six fois la somme espérée par la petite bande.

Le gadget (inutile?) de la semaine : de l’art délicat de se protéger des feux d’artifices en se jetant dedans

Vous vous souvenez de Colin Furze, l’inventeur le plus dangereusement enthousiaste du monde ? Nous vous parlions déjà de son univers loufoque ici et , réalisant sur sa chaîne Youtube un grand écart inquiétant entre l’univers Marvel et le « Jet Bicyle », qu’il définit lui-même comme le vélo le plus dangereux au monde. La bonne nouvelle, c’est qu’il a survécu, envers et contre tout. La mauvaise nouvelle, c’est qu’il continue de faire des doigts d’honneur à sa bonne étoile, garantissant ainsi un bel avenir à notre rubrique du gadget (inutile?) de la semaine qui, vous l’aurez compris, lui est consacrée.

Le jeune inventeur s’est cette fois-ci mis en tête de créer une combinaison de protection contre les dangers des feux d’artifice (sécurité avant tout), pour lui permettre… de se retrouver en première ligne, au beau milieu du feu d’artifice. Notre petit génie du DIY (« Do It Yourself », le fait-maison) s’inspire de l’hydroformage, un procédé de fabrication par déformation très répandu dans l’industrie automobile, pour parvenir à imprimer le volume nécessaire à son costume d’acier, mélange rigide et contre nature entre un épouvantail, Tin-Man du magicien d’Oz et un sarcophage, en guise de prémonition. Gageons que nous le reverrons bientôt dans ces pages !

Bonus : traverser une aurore boréale à bord de la Station Spatiale Internationale

Pour terminer en beauté – et en poésie – cette soixante-cinquième Revue du Web, rien de tel qu’un petit timelapse concocté par l’Agence Spatiale Européenne, à partir de photos prises à bord de la Station Spatiale Internationale. L’équipage de l’expédition 40 (trois Russes, deux Américains, un Allemand) a en effet eu la chance de pouvoir évoluer au travers d’une gigantesque aurore boréale, probable conséquence de l’intense activité solaire de ces deux dernières semaines.

Dimanche 24 août dernier, deux observatoires avaient filmé une grosse éruption solaire, de classe M 5.6, éruption qui n’était alors pas encore dirigée vers la Terre. Les éruptions solaires peuvent être responsable de nombreuses et intenses aurores boréales, et peuvent également perturber les télécommunications.

Par Moonzur Rahman

Recommandation management #1 : Définir soigneusement le rôle et la portée du management

Manager, une définition

Qu’est-ce que manager ?

Voilà la question préalable que tout un chacun est en devoir de se poser avant de prendre en charge ses responsabilités. Depuis une bonne quinzaine d’années, les organisations ont pris goût à la distribution des titres ronflants. Mais là il ne s’agit pas de titre mais bien d’un rôle à assumer. Manager n’est pas un concept si aisé que cela à définir.

Appuyons-nous sur une bibliographie choisie pour cerner du mieux possible cette notion complexe et polysémique.

Qu’est-ce que le management ?

Bibliographie choisie…

Pour les uns le management est un « art ». Mais ceux qui ont appris à ne pas trop s’en laisser compter préciseront que si le management est un art, c’est avant tout celui d’inciter les autres à faire ce dont ils n’ont pas toujours forcément envie. L’ art des apparences1 en quelque sorte.
Ainsi, la contrainte liée à une soumission de principe (« moi je commande toi tu obéis ») en est la forme la plus rustique. On parle alors de management directif. Bien qu’encore couramment pratiquée, cette forme de management n’est plus vraiment adaptée aux exigences actuelles.
D’autres préfèreront la classique méthode de la carotte et du bâton. Rebaptisée management par les objectifs, elle revient régulièrement au devant de la scène.
Mais les missions sont toujours plus complexes et les « managés » sont aussi des hommes avec leurs propres besoins et ambitions. Ce constat n’est pas nouveau, et des théoriciens expérimentateurs ont ainsi, dès le début des années 60, développé un nouveau modèle de management orienté « participation » mettant en pratique le célèbre couplet à succès du win-win (plutôt démocratique que laisser-faire ou autocratique). Le management participatif était né. Malgré ses atouts, ce type de management, éternellement « révolutionnaire », rencontre encore pas mal de difficultés à sortir des séminaires, amphis et des livres de management. On le croise assez peu en entreprises. Pour d’autres, le management est plutôt un « talent » et manager est un « métier ». ll est tout à fait juste de reconnaître qu’il existe des managers nés, dotés d’un véritable sens inné de meneur d’hommes. Il est pourtant dommage de colporter au delà du raisonnable cette image d’Epinal du manager absolu, de droit divin.
S’il est vrai que certains peuvent quelquefois manquer de charisme2 et cherchent alors à développer leur leadership3, c’est plutôt du côté de la communication et de la compréhension des autres (la négociation4, l’art d’avoir toujours raison5 ou la manipulation6  ?) qu’il faut rechercher le talent. Le bon manager prendra ainsi le temps de développer (grâce au coaching7 ?) ses qualités d’écoute et de prise de décision8.
Les préoccupations du manager responsable9 ne se limitent pas à la gestion des hommes10, aussi complexes soit-elle. Piloter les projets de l’entreprise11 et assurer l’indispensable travail de prospective techno-culturelle12 et managériale13, sont part entière de ses attributions. Enfin, sa responsabilité porte aussi sur des aspects plus prosaïques mais tout aussi essentiels comme la gestion financière14 et organisationnelle15. Tout cela n’est pas simple. Et comme pour toutes choses peu simples, les méthodes et outils… prolifèrent ! Beaucoup ne sont qu’un éternel rhabillage16 des techniques et méthodes du passé. Même si nous connaissons actuellement le temps du changement permanent17 la problématique citée ci-dessus, elle, ne change pas…
Des méthodes et techniques de management vous en trouverez ici18. Bien entendu, prises dans leur contexte spécifique, elles sont toutes relativement efficaces. Mais aucune n’est universelle.
La meilleure ? Ce sera la votre une fois que celle-ci sera au point. En attendant vous pouvez prendre un peu de recul19, ou encore vous attardez sur la « mienne » (si, si, je vous assure !) que je développe ici même avec le management collabhorratif19, non, non il n’y a pas de coquille…
Enfin, au terme de ce texte ne perdez pas de vue qu’une organisation ce sont des femmes et des hommes et non des pions. Les meilleures structures ne sont-elles pas celles qui justement redonnent toute sa dignité à l’Homme20 ?

  • 1 Tu seras un chef : Le management dans l’entreprise de Gérard Layole
  • 2 Cultivez votre charisme : Et développez votre pouvoir de conviction de Chilina Hills
  • 3 Comment développer son leadership : 6 préceptes pour les managers de Ken Blanchard et Mark Miller
  • 4 Convaincre en moins de 2 minutes de Nicholas Boothman
  • 5 L’Art d’avoir toujours raison de Arthur Schopenhauer
  • 6 Petit traité de manipulation à l’usage des honnêtes gens de Robert-Vincent Joule et Jean-Léon Beauvois de Alain Fernandez
  • 7 Le guide du coaching de John Whitmore
  • 8 Les nouveaux tableaux de bord des managers – Le projet décisionnel dans sa totalité de Alain Fernandez
  • 9 Devenez manager ! : L’essentiel de Drucker de Peter Drucker
  • 10 Les rôles en équipe de Meredith Belbin
  • 11 Le chef de projet efficace de Alain Fernandez
  • 12 Freakonomics de Stephen J. Dubner et Steven D. Levitt
  • 11 La Fin du management : Inventer les règles de demain de Gary Hamel et Bill Breen
  • 13 Finance d’entreprise : 2011 de Pierre Vernimmen, Pascal Quiry, Yan Le Fur
  • 14 Le management : Voyage au centre des organisations de Henry Mintzberg
  • 15 Diriger au-delà du conflit de Mary Follet
  • 16 L’acteur et le système: Les contraintes de l’action collective de Michel Crozier, Erhard Friedberg
  • 17 Manageor – 2e édition: Les meilleures pratiques du management de Michel Barabel, Olivier Meier
  • 18 Les illusions du management : Pour le retour du bon sens de Jean-Pierre Le Goff
  • 19 Le management collaboratif version collabhorratif par Alain Fernandez : piloter.org/blog/partager/management_collaboratif
  • 20 Auto-gestion, l’entreprise adulte par Alain Fernandez : piloter.org/blog/manager/auto-gestion

Lire les commentaires lecteurs, donner son avis sur le billet en ligne… 

Par Alain Fernandez

Et aussi dans les
ressources documentaires :

La sonde Stardust a-t-elle récupéré de la poussière d’étoile ?

Le 7 février 1999, la Nasa envoyait dans l’espace la sonde Stardust (« poussière d’étoiles ») avec comme objectif d’étudier les comètes et d’intercepter ces fameuses poussières d’étoiles voyageant dans leur sillon ainsi que des particules interstellaires. Mission qu’elle réalisa jusqu’en 2011, date à laquelle la sonde a épuisé son carburant. Par deux fois, elle s’est approchée de comètes. En janvier 2004, elle passait à travers la queue de la comète Wild 2, à 236 kilomètres de son noyau. En 2002, c’est l’astéroïde Annefrank qu’elle frôlait.

Dans l’espace, la sonde s’est servi du collecteur à base d’aérogel (gel de silicium) dont elle dispose pour capturer des milliers de particules sans détérioration. Elle les a ensuite placées dans une capsule de 46 kilogrammes, puis parachutée celle-ci sur Terre, dans le désert de l’Utah. Les astronomes ont alors pu prendre connaissance de son contenu.

Parmi les échantillons rapportés, sept particules proviendraient de l’explosion d’une supernova. Une cargaison rare – il s’agit des « premiers échantillons de corps céleste autre que la Lune » – et donc très précieuse pour les astronomes qui ont eu fort à faire depuis le retour de la capsule sur Terre en 2006. L’analyse dure depuis huit ans et n’est pas encore terminée. C’est qu’il faut faire le tri parmi des centaines de particules parfois d’un millième de millimètre de diamètre. Les astronomes préfèrent donc prendre des précautions en s’assurant qu’il s’agit bien de poussière d’étoile.

Cette confirmation est d’une importance capitale puisque l’analyse de ces poussières pourrait apporter de nouveaux renseignements sur la formation des comètes et leur développement. La composition de ces particules semble en tout cas différente des prévisions des spécialistes. Leur taille varie également. La structure des « grosses » particules serait comparable à de gros flocons de neige. D’autre part, les chercheurs ont décelé des traces de glycine, un acide aminé, dans certaines d’entre elles. Ce qui pourrait relancer la théorie selon laquelle la vie aurait pu surgir à travers le passage de comètes.

Ce n’est pas tout. Une autre mission spatiale se déroule en ce moment même au-dessus de nos têtes. La sonde Rosetta est en effet en orbite depuis le 6 août dernier autour de la comète 67P/Churyumov-Gerasimenko afin d’étudier son noyau. Elle devrait également, en novembre prochain, y faire atterrir un « robot-laboratoire ».

Par Sébastien Tribot

 

287319/TI053/72-WQ-VBV3201

Première expérience de télépathie réussie, selon des chercheurs

Pour cette expérience, un des sujets en Inde porte des électrodes sur la tête transmettant via internet ses activités cérébrales comme un électroencéphalogramme, alors qu’il pense des messages très simples comme « bonjour » ou « salut ».

L’ordinateur convertit ces impulsions électriques en code binaire, le langage machine, avant de les envoyer à un autre ordinateur qui les transmet au cerveau d’une autre personne en France sous forme de flash lumineux, expliquent ces scientifiques.

Le sujet ne pouvait ni entendre ni voir les mots eux-mêmes mais a été capable d’interpréter les signaux lumineux pour saisir le message.

En fait cela revient à transmettre un message par télépathie.

« Nous voulions voir s’il était possible de communiquer directement entre deux personnes en lisant les activités cérébrales de la première puis en les transmettant à une autre et ce sur de vastes distances via les systèmes de communication existants comme internet », a expliqué Alvaro Pascual-Leone, professeur de neurologie à la faculté de médecine de Harvard, co-auteur de cette expérience.

Des chercheurs de l’université de Barcelone et de la firme espagnole Starlab ainsi que de la société française Axilum Robotics ont également participé à cette recherche parue dans PLOS One daté du 19 août.

Selon ces scientifiques il s’agit d’un premier pas dans l’exploration d’autres moyens de communication.

« Nous pensons que des interfaces directes courantes entre les ordinateurs et le cerveau humain seront possibles dans un avenir pas si éloigné, permettant une communication directe de cerveau à cerveau de façon routinière (…) et créant de nouvelles possibilités dans les relations sociales », concluent ces chercheurs.

Parmi les applications potentielles, ils citent la possibilité de communiquer avec des personnes paralysées et incapables de parler après un accident vasculaire cérébral.

Les scientifiques travaillent depuis une dizaine d’années sur les communications télépathiques.

En 2013, des neurobiologistes de l’Université Duke en Caroline du nord (est des Etats-Unis) étaient parvenus à faire transmettre par une forme de télépathie des informations entre deux rats.

Comme ils sont tenus de le faire dans les grandes publications scientifiques, plusieurs auteurs signalent des conflits d’intérêt. Ainsi trois des chercheurs sont salariés de la firme de robotique et de neurosciences Starlab à Barcelone, qui a financé une partie de la recherche.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Passeur de sciences, le Best of du célèbre blog de science

Ainsi, au travers des 78 récits, l’auteur révèle quel goût a la chair humaine, pourquoi le cerveau des mamans est plus gros après l’accouchement, comment faire repousser des doigts ou encore comment les autorités savent d’ores et déjà prédire les crimes. Auteur du blog éponyme Passeur de sciences, Pierre Barthélémy a sélectionné ses meilleures histoires en biologie, anatomie, astronomie, psychologie… Sa préférée ? Celle concernant un congrès d’urologie où l’un des orateurs n’hésite pas à utiliser sa verge comme cobaye d’un nouveau traitement… qui s’est montré très efficace !

Ex-rédacteur en chef du magazine Science & Vie, cet amoureux de la science est devenu maître dans l’art de vulgariser. Basant ses anecdotes sur des faits scientifiques, l’auteur rend la science accessible à tous, simple et parfaitement intégrée à notre quotidien. 

On s’amusera aussi avec des anecdotes coquines, tout en étant très sérieuses et autorisées aux moins de 10 ans : pourquoi le pénis a cette forme ? Comment le professeur Brindley a révolutionné le traitement de l’impuissance ? Pourquoi les femmes appellent moins leur papa en période d’ovulation ? Qui a vraiment découvert le clitoris ?

A lire d’une traite ou à feuilleter, cet ouvrage original réussit son pari de rendre amusante et facile l’actualité scientifique. 

  • Passeur de sciences, Pierre Barthélémy, Hugo&Cie, 17,50€
Par Audrey Loubens, journaliste scientifique

Samsung dévoile son premier casque de réalité virtuelle

Avec cet appareil, « l’expérience mobile dans la vie quotidienne ne sera plus jamais la même », a estimé DJ Lee, directeur des ventes et du marketing de Samsung, lors d’un événement spécial organisé par le groupe deux jours avant l’ouverture officielle du salon IFA de Berlin, grand messe européenne de l’électronique.

Le nouveau Samsung VR, qui se fixe sur la tête de l’utilisateur, permet d’insérer un smartphone de la marque dans le casque et de le placer devant les yeux, pour avoir une vision très large à 96 degrés, et promener le regard au sein d’un jeu vidéo à 360 degrés, comme dans la réalité.

Le coréen a développé ce produit en partenariat avec la start-up californienne Oculus Rift, qui travaille depuis plusieurs années sur le développement de casques réalités virtuelles, en perfectionnant une technologie empruntée à l’armée américaine.

Ce produit en est à ses balbutiements mais les applications sont multiples. Jeux vidéos et films vont notamment pouvoir devenir plus immersifs.

« Le marché du jeu vidéo va évidemment être l’une des principales applications de ce produit », commente Piers Hardening-Rolls, un analyste du cabinet spécialisé IHS.

« C’est un produit d’appel pour le Galaxy Note 4, qui reste l’écran du casque. (…) C’est une entrée un peu plus rudimentaire sur le marché », alors que les véritables produits d’Oculus Rift proposent des plateformes plus puissantes, ajoute-t-il.

Le casque de Samsung pourrait toutefois plaire par son côté portable, estime-t-il.

Selon lui, ce produit se différencie des lunettes connectées proposées par Google, car il force l’utilisateur à plonger complètement dans l’expérience du casque, contrairement aux Google Glass, qui rajoutent des informations à la réalité devant les yeux de chacun.

rfo/aro/ai

 

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

 

 

1000 GW de solaire et d’éolien d’ici 6 ans dans le monde selon l’AIE

Le seuil symbolique du million de mégawatts de solaire photovoltaïque (PV) (403 GW) et d’éolien terrestre (602 GW) sera franchit en 2020 selon le scénario de base du rapport de prospective à moyen-terme du marché des énergies renouvelables (EnR) publié par l’AIE. Le solaire photovoltaïque pourrait même atteindre une puissance de 515 GW dans le scénario « avancé » de cette agence fondée en 1974 par l’OCDE. Contre 140 GW fin 2013.

En 2013 les EnR, hydroélectricité comprise, ont répondu à 22% de la demande électrique mondiale. Soit une contribution deux fois plus élevée que celle du nucléaire, moitié moindre que celle du charbon et équivalente à celle du gaz naturel. Selon le scénario de base les EnR délivreront 26% de l’électricité mondiale en 2020, toutes filières confondues, soit un gain de 4 points en 7 ans.

L’hydroélectricité conservera la part du lion avec 64% de la production EnR. L’éolien terrestre sera la seconde force renouvelable avec une part de 18%, suivi par la bioélectricité (8,4%) et le solaire PV (6,6%). En 2020, dans 6 ans, solaire PV et éolien terrestre pèseront ensemble a minima 6,4% dans le mix électrique mondial, soit un peu plus que la moitié de la contribution du nucléaire. Solaire PV et éolien entrent ainsi, à une vitesse fulgurante, dans la cour des grands.

Le solaire PV délivrera au minimum 482 TWh par an en 2020, ce qui est équivalent à la consommation électrique française de l’année 2013 (495 TWh selon le bilan RTE). Les contributions du solaire thermodynamique (30 TWh) et de l’éolien offshore (90 TWh) resteront d’un ordre de grandeur inférieur compte-tenu des coûts relativement élevés de ces filières.

Entre 2013 et 2020, dans les pays de l’OCDE, 80% de l’électricité issue des nouvelles capacités installées sera d’origine renouvelable. Et 35% dans les pays non membres de OCDE. Le niveau de croissance du solaire PV et de l’éolien terrestre sera un levier essentiel pour contenir autant que possible le recours au charbon, un combustible facile à utiliser mais dont les produits de la combustion sont particulièrement néfastes pour la santé humaine, problématique qui est d’ailleurs au centre des préoccupations des autorités Chinoises.

Les nouvelles capacités renouvelables ajoutées en Chine entre 2013 et 2020 permettront d’atteindre un gain de +867 TWh par an en 2020, en plus de la production provenant des capacités renouvelables installées avant 2013. Le gain sera de +251 TWh dans l’UE-28, +212 TWh aux USA, +187 TWh au Brésil et +123 TWh en Inde. Ce gain de production renouvelable permettra d’éviter de brûler une quantité équivalente de charbon et de gaz.

Un taux de croissance annuel supérieur en Ethiopie qu’en France 

Le taux de croissance annuel moyen d’installation de nouvelles capacités renouvelables atteindra 117% en Arabie Saoudite sur la période 2013-2020. C’est plus d’un doublement chaque année et un facteur multiplicateur de 226 en 7 ans, record mondial parmi la liste des pays qui dépasseront 1 GW de capacité EnR cumulée en 2020. Le taux de croissance annuel pourrait atteindre 67% en Jordanie, 53% aux Emirats Arabes Unis, 41 % au Qatar, 28% en Israël, 23 % en Afrique du sud, 22 % au Cambodge, 20 % en Ethiopie, 15 % au Nigéria et 12 % au Maroc.

Alors que l’éolien et le solaire PV n’ont jamais été aussi bon marché, l’Europe marque aujourd’hui paradoxalement le pas. Ceci à cause de décisions politiques déconcertantes pour les investisseurs qui ont besoin de visibilité et de garanties. Selon les auteurs du rapport de l’AIE ces obstacles sont incohérents avec les ambitions affichées en matière de réduction des émissions de CO2, une molécule acidifiante pour les océans et à effet de serre.

Coût du solaire : attention à la confusion entre passé, présent et futur 

« Les gouvernements doivent faire la différence entre le passé, le présent et le futur étant donné que les coûts diminuent avec le temps » a déclaré Maria Van der Hoeven, directrice de l’AIE, lors de la présentation du rapport. « De nombreuses filières renouvelables n’ont plus besoin de hauts niveaux de tarifs incitatifs. Elles ont plutôt besoin, compte-tenu de leur nature intensive en capital, d’un cadre de marché qui assure un retour sur investissement raisonnable et prévisible » a-t-elle souligné. « Une réflexion sérieuse sur le design du marché est donc nécessaire pour atteindre un mix électrique plus durable. »

En juin 2014, en Allemagne, les tarifs d’achat des nouvelles installations étaient compris entre 9,01 et 13,01 €-cts/kWh pour 20 ans. Ceci selon la taille des installations. Un niveau comparable au tarif d’achat demandé par EDF pour son projet d’EPR en Grande-Bretagne pointent sans ambages les scientifiques de l’Institut Fraunhofer dans le rapport « Recents facts about Photovoltaics in Germany » dont la dernière mise à jour date du 28 juillet 2014. « En Grande-Bretagne le strike price (un tarif d’achat) négocié pour la centrale nucléaire d’Hinkley Point C est établi à 10,6 €-cts/kWh pendant 35 ans. Et la centrale n’entrerait en production qu’en 2023 » rappellent les experts. Pour l’éolien offshore, le tarif d’achat est de 19 €-cts, soit environ le double de celui du solaire PV en Allemagne et du nouveau nucléaire au Royaume-Uni.

En 2013 le tarif d’achat moyen global du solaire PV en Allemagne était de 32 centimes d’euro par kWh, ce qui donne la (fausse) impression que le solaire PV est, encore aujourd’hui, plus coûteux que le nouveau nucléaire. Or ce chiffre intègre les kWh produits par l’ensemble des unités photovoltaïques mises en place depuis le début du XXIème siècle, et non pas seulement celles installées en 2013. « Cette valeur est hors-sujet pour déterminer l’expansion future du photovoltaïque » expliquent les experts de l’Institut Fraunhofer. L’électricité produite actuellement par les panneaux solaires installés par exemple en 2005 continue d’impacter la facture des consommateurs. Le tarif d’achat de 2005 est en effet toujours en vigueur aujourd’hui pour les contrats signés à cette date. Ce fardeau prendra fin en 2025, quand le contrat de tarif d’achat, établi pour une durée de 20 années, sera terminé.

Un effort européen qui bénéficie aujourd’hui au monde entier

L’effort financier significatif fourni ces dernières années dans un contexte démocratique par les citoyens Allemands, Italiens et Espagnols, dont le PIB par habitant est 3 à 4 fois supérieur à la moyenne mondiale, a permis de créer un marché, de stimuler l’industrie à l’échelle mondiale et ainsi de contribuer à une baisse de 20% du coût du solaire PV pour chaque doublement de la capacité mondiale installée.

Cette baisse massive des coûts bénéficie aujourd’hui au monde entier. Le Salvador, pays où le PIB par habitant est 10 fois inférieur à celui de l’Italie, a par exemple signé le 25 juillet 2014 un contrat à 7,7 €-cts le kWh pour une centrale de 60 MW. De son côté le Chili, dans le cadre du projet « Espejo de Tarapacá », envisage de coupler les centrales photovoltaïques en construction dans le désert d’Atacama avec une centrale de pompage-turbinage à eau de mer de 300 MW. Soit une trentaine de fois la puissance de celle d’El Hierro inaugurée au début de l’été dans l’archipel Canarien et qui assiste un parc éolien. Le kWh hydro-solaire obtenu sera délivrable 24 heures sur 24, 7 jours sur 7, et vendu directement sur le marché chilien. Sans aucune subvention.

Par Olivier Daniélo

ZTE Open C: le premier portable sous Firefox OS arrive en France !

Réglo Mobile commercialise désormais le premier smartphone fonctionnant sous Firefox OS en France : le ZTE Open C. Sans engagement et désimlocké, il est proposé à 79,9 euros. Une offre de remboursement différé de 10 € est proposée jusqu’au 21 septembre, permettant ainsi de l’acquérir pour 69,9 euros.

Côté technique, le ZTE Open C est un mobile 3G d’entrée de gamme pourvu d’un écran de 4 pouces (10 cm), d’une résolution de 800×480 pixels, doté d’un capteur photo/vidéo de 2 mégapixels, de 512 Mo de RAM, de bluetooth 4.0 mais sans NFC. Il possède un processeur Qualcomm Snapdragon double coeurs cadencé à 1,2GHz et 4 Go de stockage extensible via une microSD. Le tout fonctionne avec une batterie de 1400 mAh. La résolution de l’écran et de son appareil photo est donc assez faible, en adéquation avec son prix.

Quelles sont les particularités de Firefox OS?

Les smartphones tournant sous Firefox OS présentent comme particularité principale d’être les tout premiers à être intégralement fabriqués autour de normes Web ouvertes. Chaque fonction est développée comme une application écrite en HTML5. La fondation Mozilla le pousse comme une alternative plus ouverte qu’ Android, iOS et Window Phone, mieux adaptée aux smartphones d’entrée de gamme.

Firefox OS est doté d’une interface simple, intuitive et relativement économe en ressources. L’ensemble des applications est à retrouver dans le Firefox Marketplace. Une particularité supplémentaire est à noter : Firefox OS permet de tester les applications sans avoir à les installer sur son smartphone.

Un an après le lancement des premiers appareils, Firefox OS est disponible sur 8 smartphones dans 19 pays. Après s’être attaqué en priorité aux pays émergents ou en développement, Mozilla débarque en France et en Allemagne, prêt à s’attaquer au marché européen de l’ouest.

En France, Mozilla vise les 20 % d’utilisateurs de téléphones portables français non encore équipés de smartphones. Pour William Chhao, directeur général de ZTE Terminaux Mobiles France, interviewé par Lesmobiles.com, « ces consommateurs ne vont pas chercher à acheter un smartphone aux caractéristiques techniques surdimensionnées, mais un téléphone au design attrayant. Ils souhaitent peut-être un smartphone, mais n’en veulent pas les travers. Ils n’ont été touchés ni par Android, ni par iOS et n’auront donc aucun à priori vis-à-vis de Firefox OS« .

Pour aller plus loin :
Découvrir les smartphones Firefox OS
Page Zte Open C de Réglo Mobile

Par Matthieu Combe, journaliste scientifique

Samsung dévoile ses nouveaux « phablets », smartphones grand format

Samsung tenait un événement spécial pour présenter en grande pompe ses nouveaux produits, avant l’ouverture officielle vendredi de l’édition 2014 de l’IFA, la grand messe de l’électronique européenne.

Le groupe a notamment dévoilé la quatrième version de son Galaxy Note, le fameux « phablet » qu’il avait lancé pour la première fois en 2011 à Berlin. Depuis, ces téléphones voisins d’une tablette, dont la diagonale d’écran fait plus de 13 cm ont conquis de nombreux acheteurs, notamment en Asie.

Le Galaxy Note 4 est « plus agréable et plus efficient » que ses prédécesseurs, a assuré DJ Lee, directeur des ventes et du marketing du groupe.

Le nouveau téléphone bénéficie notamment d’un nouveau design avec un cadre en métal, et d’un écran plus résistant dont la résolution est plus importante grâce à la technolgie « Quad HD ».

L’appareil photo, le micro et la batterie ont également été améliorés.

Le téléphone s’utilise avec un stylet perfectionné, qui permet d’afficher plusieurs applications simultanément, ou de sélectionner plusieurs photos et de les glisser toutes en même temps où l’utilisateur le souhaite.

Samsung a également dévoilé une autre version de son téléphone géant, le Note « Edge ». Cet appareil est doté d’un écran incurvé sur le côté droit, qui se fond progressivement dans l’écran principal. Il permet d’afficher des infos séparées, par exemple de visionner une vidéo en plein écran tout en conservant les commandes sur le côté.

Malgré ces innovations, « il devient plus difficile pour Samsung de différencier le Note, parce que les smartphones les plus connus augmentent en taille », estime Ian Fogg, un analyste du cabinet spécialisé IHS.

Cette année, le salon IFA se déroule notamment dans l’ombre d’Apple. La marque à la pomme organise un « événement » le 9 septembre, au cours duquel la majorité des analystes s’attendent à découvrir un iPhone 6 à l’écran élargi.

La firme californienne signerait ainsi son entrée sur le marché des « phablets ». De nombreuses rumeurs courent également sur une possible iWatch, sa version de la montre intelligente.

Samsung avait été le pionnier de cette tendance en 2013, et a présenté mercredi une nouvelle version de sa montre, la Galaxy Gear S. Sous pression, il en avait dévoilé les premiers aspects la semaine dernière.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Quelques vérités sur l’exploitation des terres rares

Dans un papier récent, l’AFP vient de nous apprendre que l’Inde, en collaboration avec une maison commerciale japonaise du Groupe Toyota venait de rejoindre le cercle restreint des nations qui comme la Chine, le Kazakhstan ou la Malaisie acceptent d’isoler, à faibles coûts, le mischmétal (alliage de terres rares) des actinides radioactifs  comme l’Uranium ou le Thorium avec lesquels les minerais sont associés.

Les terres rares apparaissent bien souvent comme un sous-produit, de plus en plus valorisable, de l’exploitation de certains gisements d’Uranium ou de Thorium. Les temps lointains où le mischmétal servait essentiellement à la production de pierres à briquet sont révolus. De nos jours, les accumulateurs Nickel-Métal hydrure (Ni-MH) aux électrodes négatives (anodes) de type hydrures de LaNi5, les aimants permanents de types Néodyme Fer Bore ou Samarium Cobalt utilisés dans les moteurs électriques ou les génératrices d’éoliennes, les diverses LED (« phosphor ») font appel à divers mélanges savants de terres rares  et autres métaux dans leur réalisation.

Les gisements de terres rares sont abondants sur Terre, mais sont en nombres beaucoup plus restreints, les contrées qui veulent bien à moindres frais se lancer dans la purification de ces terres rares, créant ainsi un monopole de fait qui pourrait être démantelé par les Nations plus avancées clientes. Mais il faudrait pour cela qu’elles créent une industrie peu populaire qui manipulerait, en amont, des minerais présentant une certaine radioactivité.

Un exemple schématique de ces intérêts contradictoires nous est fourni par le Groupe australien Lynas, grand propriétaire de gisements australiens (gisement du Mount Weld) et qui  après avoir essuyé un refus poli de la part des industriels chinois, sous-traite la valorisation de ses minerais en Malaisie. Il s’était heurté en 2011 à un fort mouvement local d’opposition.

Il y a dans cette industrie très écologique, à la base du succès des véhicules hybrides, des éoliennes les plus puissantes, des LED aux rendements lumineux sans égal, une industrie amont peu séduisante qui pousse les pays les plus avancés à localiser cette étape au sein de pays peu exigeants. La Chine, le Kazakhstan, la Malaisie et maintenant l’Inde font partie de ces nations qui acceptent de purifier, sans trop barguigner, ces lanthanides précieux.

Cet exemple illustre parfaitement les limites du concept de « Green-Business » qui n’est souvent fait que d’activités qui mettent en lumière les parts les plus vertueuses et laissent pudiquement dans l’ombre les fractions essentielles plus traditionnelles et polluantes de leurs activités ou de celles de leurs fournisseurs. C’est tout le génie du Marketing du moment.

Par Raymond Bonnaterre

Google réfléchit à utiliser les objets connectés comme de nouveaux supports publicitaires

99% des revenus de Google proviennent de la publicité sur internet. Véritable leader du marché mondial de la pub très loin devant Facebook et Yahoo !, le géant américain imagine les nouveaux canaux de demain.

Dans une lettre adressée à la Securities and Exchange Commission, organisme chargé de la réglementation et du contrôle des marchés financiers aux Etats-Unis lui demandant des précisions sur ses revenus provenant de son activité mobile, Google philosophe sur le terme même « mobile » : « Nous pensons que la notion même de « mobile » va évoluer à mesure que les dispositifs « intelligents » vont gagner du terrain sur le marché.

Par exemple, d’ici quelques années, nous et d’autres sociétés pourrions fournir des publicités et d’autres contenus sur des réfrigérateurs, des tableaux de bords de voitures, des thermostats, des lunettes et des montres pour ne citer que quelques possibilités ».

Google prévoit clairement d’utiliser les objets connectés pour diffuser de la publicité. De quoi ouvrir de nouveaux horizons au géant américain et lui garantir de confortables revenus. Et si Google y travaillait déjà ? En effet, certains tableaux de bords fonctionnent déjà sous Android, idem pour les montres connectées. Sans oublier les Google Glass, ces lunettes qui affichent des informations sur les verres.

La publicité n’a pas fini d’envahir notre univers, et Google de faire fructifier le sien…

Par Audrey Loubens

Fukushima: vers la construction de deux sites de stockage temporaires de détritus radioactifs

« C’est une lourde charge pour la région, mais nous avons pris la décision douloureuse d’accepter la construction de ces lieux d’entreposage », a déclaré le gouverneur de Fukushima, Yuhei Sato, aux ministres japonais de l’Environnement et de la Reconstruction, lors d’une réunion lundi matin.

L’Etat nippon cherche depuis des mois à convaincre les élus locaux et la population qu’il faut absolument construire ces sites de stockage dans des localités contaminées près du complexe atomique et qu’il y a urgence.

Toutefois, les intéressés s’étaient montrés très réticents, craignant que le temporaire ne devienne permanent et que leurs villes ne soient définitivement rendues inhabitables.

Finalement, les municipalités de Futaba et Okuma se sont dites prêtes à accepter sous conditions. La centrale Fukushima Daiichi se trouve à cheval sur ces deux localités.

« Les sites de stockage temporaire sont des installations cruciales pour la décontamination et la reconstruction de la région », avait plaidé M. Sato, lors d’une réunion samedi avec les maires des deux villes concernées ainsi que ceux de six municipalités voisines.

Les responsables de Futaba et Okuma souhaitent cependant que le gouvernement explique clairement aux citoyens concernés ses intentions.

« Je remercie sincèrement les élus d’avoir pris cette difficile décision. A partir de maintenant, le gouvernement va faire tous les efforts requis pour s’occuper de ces installations », a assuré devant les caméras le ministre de l’Environnement, Nobuteru Ishihara.

Le gouvernement prévoit d’acheter les terrains nécessaires et serait amené pour cela à négocier avec quelque 2.000 propriétaires, selon les chiffres des médias locaux.

Pour garantir qu’il ne s’agira pas de sites permanents, une loi doit préciser que dans les 30 ans à venir, les détritus (terre, feuillages, herbes, etc.) seront pris en charge hors de la préfecture.

Selon le porte-parole du gouvernement, Yoshihide Suga, les élus des villes concernées ainsi que le gouverneur de Fukushima devaient encore rencontrer lundi après-midi le Premier ministre, Shinzo Abe, pour lui faire part de leur décision.

L’entreposage des détritus radioactifs issus de la décontamination des localités polluées par la catastrophe atomique de mars 2011 constitue un gros problème depuis des mois. Pour le moment, d’énormes sacs sont empilés dans des champs en différents endroits de la zone contaminée et évacuée, soit à 20 kilomètres à la ronde, ainsi que quelques autres villes plus éloignées.

kap/anb/cgu

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Les neutrinos témoins directs de la production d’énergie au coeur du Soleil

Ces résultats obtenus par la collaboration Borexino1, à laquelle participe le laboratoire Astroparticule et cosmologie (CNRS/CEA/Université Paris Diderot/Observatoire de Paris), sont publiés le 28 août 2014 dans la revue Nature.

L’énergie du Soleil provient, pour plus de 99%, de la fusion de noyaux d’hydrogène (des protons) au cœur de l’étoile. Cette réaction primordiale transforme deux protons en un noyau de deutérium en émettant un positron et un neutrino de basse énergie appelé neutrino pp. Le détecteur Borexino, installé dans le laboratoire souterrain du Gran Sasso, en Italie, a réussi la première mesure directe du flux de ces neutrinos pp.

Une fois produits, les neutrinos franchissent en quelques secondes le plasma solaire et arrivent sur Terre huit minutes plus tard. Au contraire, l’énergie produite par la réaction en même temps que les neutrinos est transportée sous forme de photons et va mettre une ou deux centaines de milliers d’années à traverser la matière dense du Soleil, avant de gagner notre planète. Les neutrinos observés au cours de cette étude sont donc les témoins directs de ce qui se passe au cœur de l’étoile aujourd’hui, alors que l’énergie solaire qui nous réchauffe a été produite il y a longtemps.

L’expérience a permis de mesurer un flux de neutrinos de 6,6 × 1010 neutrinos par cm2 par seconde. Cela équivaut à une puissance du Soleil de 3,98 × 1026 watts, une valeur équivalente aux chiffres obtenus lorsqu’on mesure l’énergie solaire à partir des radiations qui illuminent et chauffent la Terre (3,84 × 1026watts). La confrontation de ces deux mesures montre que le Soleil est en complet équilibre thermodynamique : son activité n’a pratiquement pas changé depuis plus de cent mille ans. Ces résultats confortent les connaissances actuelles sur la dynamique du soleil et confirment que notre étoile continuera à fonctionner de manière analogue pendant cent mille ans au moins.

Cette nouvelle mesure permet à l’expérience Borexino de compléter la spectroscopie des neutrinos solaires et de réaliser une performance unique. Ce détecteur est en effet le seul au monde à avoir mesuré le flux des neutrinos pp, les plus nombreux, mais les plus difficiles à détecter. De façon générale, les neutrinos, qui n’interagissent que par interaction faible, ne s’observent pas facilement et, pour la mesure effectuée cette fois-ci, la difficulté supplémentaire est due à l’énergie extrêmement faible des neutrinos pp. Le détecteur Borexino est particulièrement performant pour éliminer les bruits de fond qui perturbent les mesures à basse énergie. Il est abrité sous 1400 mètres de roches qui absorbent les rayons cosmiques et la haute technologie développée par l’expérience permet de supprimer les traces de radioactivité à un niveau encore jamais atteint (dix milliards de fois moins de radioactivité que dans un verre d’eau). Ce sont ces caractéristiques uniques qui ont permis cette première mondiale. 

L’expérience Borexino est le fruit d’une collaboration entre plusieurs pays européens (Italie, Allemagne, France, Pologne), les Etats-Unis et la Russie, qui regroupe plus de 100 physiciens, ingénieurs et techniciens. En France, les chercheurs du laboratoire Astroparticule et cosmologie (CNRS/CEA/Université Paris Diderot/Observatoire de Paris) ont rejoint la collaboration en 2000. Ils ont reçu le soutien de l’IN2P3, de l’Université Paris Diderot, du labex UnivEarthS et du laboratoire APC.

Source : CNRS

Des panneaux solaires dans des écrans et des vitres !

Transformer n’importe quel support en une micro-centrale électrique solaire : voici le rôle de la technologie Wysips (pour « What You See Is Photovoltaic Surface »), brevetée par la société Sunpartner Technologies. Pour ce faire, les chercheurs ont créé un film transparent et intégrable à toutes sortes de produits. Lorsqu’on y regarde de plus prêt, ce composant assemble une couche mince de cellules photovoltaïques avec un réseau de micro-lentilles qui rend les cellules photovoltaïques invisibles à l’œil nu.

Tout ce qui comporte un écran, du smartphone à la liseuse électronique, en passant par la montre ou un objet connecté, mais aussi les vitres et les surfaces opaques peuvent fonctionner, grâce à Wysips, en toute indépendance vis-à-vis des réseaux électriques. Résultat : ils contiennent des batteries beaucoup plus légères, voire aucune ! Wysips pourrait ainsi permettre d’atteindre l’autonomie énergétique de tous les objets et équipements électroniques exposés à la lumière naturelle ou artificielle. 

Comment rendre des cellules solaires invisibles ?

La technologie Wysips repose sur un procédé optique : elle superpose une couche de lentilles semi-cylindriques et des cellules photovoltaïques. « L’effet optique généré permet de camoufler les cellules photovoltaïques et de produire de l’électricité grâce à la lumière. Ainsi, quelle que soit la position de l’œil, la cellule photovoltaïque est invisible », détaille Ludovic Deblois, président et co-fondateur de Sunpartner Technologies. C’est le principe des images lenticulaires. 

Le composant de base est constitué d’un verre ultra-fin dont l’épaisseur est inférieure ou égale à 0,5 mm. « Actuellement, les solutions Wysips sont basées sur du silicium amorphe, mais notre procédé peut intégrer n’importe quelles cellules photovoltaïques : silicium polymorphe, organiques… », explique Ludovic Deblois. « Au fur et à mesure que les performances de ces cellules augmenteront, la performance du procédé Wysips augmentera en conséquence », prévient-il.

Trois technologies déjà matures

Trois technologies sont déjà développées. La première, Wysips Crystal, s’intègre à toutes les technologies d’écrans et produits nomades (téléphones mobiles, tablettes, objets connectés, étiquettes électroniques…). Les deux autres, Wysips Glass et Wysips Cameleon, permettent respectivement de générer de l’électricité avec des vitrages et des surfaces opaques.
Intégré lors du processus de fabrication, en-dessous ou au-dessus de n’importe quel technologie d’écran tactile, le film Wysips Crystal est connecté à une puce électronique qui convertit et transmet l’électricité à la batterie. Avec un taux de transparence allant jusqu’à 92 %, il préserve la qualité visuelle et la fonctionnalité de l’écran. Cet écran connecté se décline aussi en version Wysips Connect, permettant en plus d’être receveur/transmetteur de données via la lumière, grâce à la technologie LiFi-Light Fidelity. Le rendement de ce film varie entre 2,5 mW/cm2 et 5 mW/cm2, selon la taille de l’écran, les cellules solaires utilisées et le taux de transparence voulu.
Intégré dans une vitre, Wysips Glass permet quant à lui d’alimenter les équipements électriques reliés. On peut ainsi imaginer que les surfaces vitrées des bâtiments, des voitures, trains, avions ou de tout autre moyen de transport alimentent n’importe quel type d’appareil élecrique. Selon la transparence, variant entre 70 % et 90 % en fonction des besoins, la production énergétique sera évidemment plus ou moins élevée. Le premier prototype du composant Wysips Glass offre une transparence de 70 % pour une puissance de 30 W/m2.
Enfin, basé sur le même principe que Wysips Crystal, les films Wysips Cameleon diffèrent par leurs applications qui concernent tous les types de surfaces communicantes statiques et opaques, hors écrans animés. Wysips Cameleon permet ainsi de développer des panneaux d’affichage autonomes en énergie fonctionnant indépendamment de tout branchement au réseau électrique : affichages publicitaires, signalétique…. Sa surface autodéroulante peut aller de 2 à 20 m2. Ces films sont issus du partenariat entre Sunpartner Technologies et l’industriel Prismaflex International.

Quand verra-t-on cette technologie sur le marché ?

Plusieurs partenariats sont en cours d’élaboration, notamment dans le secteur du bâtiment, de la téléphonie et des équipements high tech. Mais quelques produits arrivent déjà sur le marché. Ainsi, le premier téléphone portable à réserve de marche perpétuelle intégrant la technologie Wysips Crystal sera commercialisé dès octobre 2014 ! Il s’agit du téléphone TAG Heuer MERIDIIST INFINITE, créé par Atelier Haute Communication, et qui sera disponible en édition limitée de 1911 pièces numérotées.

« Sunpartner Technologies conçoit actuellement des prototypes de smartphones équipés de sa technologie Wysips Crystal pour quatre géants mondiaux de la téléphonie, dont TCL Communication, 7ème fabricant mondial de smartphones, qui conçoit et commercialise notamment les téléphones Alcatel one Touch et TAG Heuer », annonce Ludovic Deblois.

Dans le secteur du transport et de l’aéronautique, un prototype fonctionnel a été développé en partenariat avec l’équipementier aéronautique Vision Systems. Il s’agit du premier hublot dynamique obscurcissant totalement autonome grâce à Wysips Glass. « Concrètement, il s’agit d’un vitrage auto-obscurcissant intégrant une protection solaire totalement autonome du circuit électrique de l’avion et vise l’alimentation locale des smartphones, tablettes tactiles et autres équipements électroniques des passagers », précise le président de Sunpartner Technologies. Ce produit baptisé  » Energia de Vision Systems » sera finalisé et certifié fin 2014.

Dans le secteur de l’affichage urbain, les premiers panneaux d’affichages publicitaires déroulants autonomes en énergie dans le monde ont été présentés en 2013. Pourvus de la technologie Wysips Cameleon, ils devraient être commercialisés en 2015.

Des textiles phovoltaïques pour demain ?

Sunpartner Technologies travaille aussi sur le développement de textiles photovoltaïques. Elle coordonne pour cela le projet Soltex, mené avec un consortium d’industriels et de chercheurs. Celui-ci vise le développement d’un fil photovoltaïque permettant de créer des textiles intelligents, qui produisent de l’énergie à partir de la lumière.

« Ce fil photovoltaïque intégré au tissu d’un sac à dos ou d’un T-shirt pourrait assurer la charge d’instruments électroniques portables tels qu’un téléphone mobile, GPS, balise de détresse », assure Ludovic Deblois. »Intégré au tissu d’un store ou d’une bâche, il pourrait alimenter en énergie des fonctions de proximité. Par exemple, l’énergie lumineuse emmagasinée dans le store pourrait lui permettre de fonctionner de façon autonome sans être raccordé au réseau électrique de la maison », poursuit-il. Le rendement escompté de cette nouvelle technologie textile photovoltaïque est de l’ordre de 10 W/m2. Résultat des courses en 2019 !

Par Matthieu Combe, journaliste scientifique

L’expansion des énergies renouvelables dans le monde pénalisée par les incertitudes réglementaires

« La production mondiale d’électricité issue des renouvelables devrait croitre de 45% et atteindre près de 26% de la production totale d’électricité d’ici 2020 », contre 22% en 2013, selon l’AIE.

Cette croissance sera surtout portée par l’hydroélectricité et l’éolien terrestre.

Mais l’Agence prévoit que la croissance annuelle des renouvelables va « ralentir et se stabiliser après 2014 », entrainant un « risque de ne pas atteindre les niveaux de production nécessaires pour réaliser les objectifs mondiaux sur le changement climatique ».

« Juste au moment où les renouvelables deviennent, pour plusieurs d’entre elles, une option compétitive, l’incertitude politique et réglementaire augmente dans plusieurs marchés clés », a regretté Maria van der Hoeven, directrice exécutive de l’AIE.

La Chine souffre par exemple de l’absence de mesures pour intégrer les sources d’énergies renouvelables au réseau électrique et de difficultés de financement.

L’Union européenne tarde elle à définir son cadre énergétique après 2020 et la mise en place de l’interconnexion des réseaux de ses pays membres.

Dans les pays développés appartenant à l’OCDE, les énergies renouvelables représentent tout de même 80% des nouvelles capacités de production électrique installées. Mais leur croissance devient moins dynamique à cause de « la faiblesse de la demande d’électricité et des risques politiques croissants » dans certains pays, juge l’AIE.

Hors OCDE, les besoins importants pour diversifier les sources d’énergie et l’inquiétude croissante sur la qualité de l’air, comme en Chine, font que les renouvelables devraient représenter « la première source de capacités additionnelles d’ici 2020 ».

Le secteur reste très porteur et les investissements devraient s’établir à 230 milliards de dollars (175,5 milliards d’euros) par an jusqu’en 2020 pour l’installation de nouvelles capacités renouvelables.

Un chiffre qui reste néanmoins inférieur aux 250 milliards de dollars (189,7 milliards d’euros) investis en 2013, notamment à cause de la baisse structurelle des coûts d’investissement.

La destination de ces investissements varie selon les pays, le Brésil connaissant par exemple une forte demande dans l’éolien terrestre et le Chili dans le solaire.

Les biocarburants et l’utilisation de la biomasse pour produire de la chaleur devraient aussi continuer leur croissance, mais à un rythme « moins important que l’électricité renouvelable », selon l’AIE, à cause, encore, « des incertitudes sur le renforcement des politiques de soutien dans l’UE et aux Etats-Unis ».

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Atteindrons-nous les étoiles ?

Unisciel, l’Université des Sciences en Ligne, et l’Université Lille 1 ont surfé sur la vague des MOOC (Massive Open Online Course) et ont lancé leur propre dispositif intitulé : EUREKA ! dont l’objectif est de faire le tour d’horizon des phénomènes de notre quotidien et plus largement comprendre le monde qui nous entoure.

Le MOOC EUREKA ! s’est organisé autour de ressources choisies d’Unisciel et notamment de la série qu’elle produit Kézako ? Enrichie de nombreux compléments, ce MOOC encourageait l’échange autour de 9 thématiques étalées sur 9 semaines. Le principe du MOOC EUREKA ! reposait sur la génération du savoir par les apprenants placés dans une démarche de tutorat entre pairs. 

Cette conférence présentée par l’astrophysicien Roland Lehoucq est consacrée au voyage dans l’espace.

Le voyage interstellaire est-il envisageable ?

Que dire aussi des films de science fiction comme Star Wars ou Avatar ? Est ce possible ? 

Source : kezako.unisciel.fr/live

Sur la Lune, on peut marcher sur l’eau

Il serait injuste – et pour tout dire criminel – de ne pas évoquer l’étude qui, dans la catégorie « Physique », a reçu, jeudi 12 septembre 2013, la récompense suprême de la science improbable, à savoir un prix Ig Nobel. Publié en 2012 par PLoS ONE, ce travail d’une équipe italienne concentre en effet la quintessence de l’improbablologie : une question saugrenue, traitée avec le plus grand sérieux scientifique mais aussi une giclée d’humour potache et, surtout, une expérience qui fera se réconcilier avec la science tous ceux qui en ont été dégoûtés lors de leurs études.

Ladite question n’est pas loin de fêter ses deux mille ans : l’homme peut-il oui ou non marcher sur l’eau ? Si l’on met de côté les canulars d’Internet, un tel événement est, selon de rares témoignages écrits, arrivé une fois et une seule, sur le lac de Tibériade au début de notre ère. Difficile à croire, selon certains, car l’on sait que cet exploit n’est à la portée que de très peu d’animaux. Les plus connus sont les gerris, ces insectes improprement appelés « araignées d’eau », qui patinent gracieusement à la surface des étangs et des rivières. Mais ces bestioles trichent car, dotées de poils hydrophobes, elles profitent d’un phénomène connu sous le nom de « tension superficielle de l’eau », que ne peuvent pas exploiter des animaux plus massifs et à deux pattes.

Si l’on cherche un véritable exemple de bipède marchant sur l’eau, il faut se tourner vers le basilic commun. Ce petit reptile a obtenu de haute lutte le surnom de lézard Jésus, grâce à sa capacité à se redresser, sur ses pattes arrière et à sprinter sur l’eau barbe au vent… euh non, pardon, crête au vent. L’ennui, c’est qu’aucun humain n’a le coup de jarret de cet iguane, capable d’enchaîner huit foulées à la seconde. Homo sapiens est un balourd faiblard face à Jésus le lézard. Prenons le plus rapide d’entre nous, Usain Bolt : pour cavaler sur l’eau, l’athlète jamaïcain devrait ou bien multiplier sa vitesse par trois et dépasser les 100 km/h – difficile même avec les progrès constants de la pharmacopée sportive – ou bien se laisser pousser les pieds pour qu’ils totalisent une surface d’un mètre carré.

Fichu ? Heureusement non. La science a réponse à tout. Si l’on ne peut faire accélérerUsain Bolt ni lui greffer des pieds de canard géant, on n’a qu’à réduire son poids en baissant la gravité. L’équipe italienne primée par l’Ig Nobel a calculé qu’en divisant la gravité par cinq, il deviendrait possible de le faire marcher sur l’eau. Aussitôt dit, aussitôt fait. Grâce à un harnais relié par un câble à un astucieux système pneumatique délestant les participants d’une grande partie de leur poids, grâce aussi à une petite paire de palmes vert pomme, on a pu vérifier si, dans une ridicule piscine gonflable, la pratique rejoignait la théorie.

Et la réponse fut un oui magistral. Lorsque la gravité ne dépasse pas 22 % de la gravité terrestre, un humain peut sprinter sur l’eau sans couler. Pour y parvenir, le coureur est obligé de lever bien haut les genoux, ce qui donne l’impression grotesque qu’il pédale dans la soupe. Les chercheurs en ont conclu que, sur des astres relativement légers comme la Lune, Pluton ou les principaux satellites de Jupiter, l’homme pourrait bien, le jour où les voyages interplanétaires seront monnaie courante, jouer aux prophètes. À condition de trouver là-bas de l’eau sous forme liquide. Ce qui, pour le coup, tiendrait du miracle.

Improbablologie et au-delà – Nouvelles chroniques de science improbable – Par Pierre Barthelemy
Editions Dunod
 

Google aurait travaillé sur un ascenseur spatial

Au sein des laboratoires Google X fermentent une multitude de projets secrets. Il y en aurait une centaine selon le New York Times (parmi lesquels certains ne sont plus secrets du tout : voitures automates, réseau de neurones artificiel, le projet avorté d’Hoverboard…). L’un d’entre eux, assez extraordinaire, propose d’atteindre l’espace ou tout du moins une station en orbite en prenant l’ascenseur. Un moyen de transport insolite au premier abord, mais qui n’a semble-t-il pas paru si insensé à la firme américaine qui aurait un temps envisagé sérieusement le projet.

Un temps, car le défi est irréalisable à l’heure actuelle. En effet, l’ascenseur spatial comme il a été imaginé, à savoir sous la forme d’un long câble, ne peut être construit avec les moyens des scientifiques mis à leur disposition. Pour tracter les cabines, il faudrait que le câble soit cent fois plus résistant que l’acier le plus résistant présent sur Terre. Une robustesse nécessaire pour tenir vis-à-vis des forces exercées sur chaque partie du câble (l’attraction gravitationnelle terrestre et la force centrifuge).

Afin de résoudre ces difficultés, les scientifiques ont examiné la possibilité de faire usage des nanotubes de carbone, l’un des matériaux les plus durs à ce jour. Sauf que… Un câble en nanotubes de carbone suffisamment solide n’existe pas aux dimensions voulues. On en est même très loin. Alors si on additionne cet obstacle au risque de collision avec des débris spatiaux ainsi qu’à la problématique autrement plus terre à terre consistant à se procurer un apport de fonds colossal, le projet n’avait d’avance aucune chance d’aboutir.

Manifestement, tant que ce projet n’est pas soutenu internationalement, l’idée relève de la science-fiction. Toutefois, cela ne l’empêche pas d’être une belle idée. Et qui sait si, dans un futur plus ou moins lointain, lorsque les progrès technologiques le permettront, l’ascenseur spatial se concrétisera.

Par Sébastien Tribot

Guerre Froide : et si on bombardait la lune ?

L’URSS lance Spoutnik 1, le premier satellite en orbite autour de la Terre le 4 octobre 1957. Pour ne pas se laisser distancer dans la conquête de l’espace, les Etats-Unis créent la NASA en 1958. Mais celle-ci peine à concurrencer les grandes premières spatiales de l’URSSS : premier satellitte en 1957, premier homme dans l’espace le 12 avril 1961… L’opinion publique américaine craint la suprématie des soviétiques dans l’espace.

Bombarder la lune ?

En 1958, le gouvernement américain lance donc un projet secret pour faire exploser une bombe nucléaire sur la lune ou dans son voisinage. Visible depuis la Terre, la déflagration aurait montré la force de frappe américaine, impressionnant les Soviétiques et la population américaine. 

Les scientifiques prévoyaient de viser la face cachée de la Lune, pour que la poussière projetée par la détonation soit éclairée par le soleil, et soit ainsi visible depuis la Terre. « La motivation d’une telle détonation présente clairement un triple objectif: scientifique, militaire et politique », peut-on lire dans le rapport d’étude rendu par le physicien Léonard Reiffel en juin 1959. « Des effets positifs spécifiques reviendraient à la première nation exécutant un tel exploit, comme une démonstration de sa capacité technologique de pointe », précise-t-il.

Mais le plan est abandonné en janvier 1959, car l’armée estime que les risques sont trop importants, comparés aux avantages. Les militaires craignent notamment les risques liés à la radioctivité résiduelle à la surface de la lune ou en cas d’explosion au lancement.

Installer une base militaire lunaire ?

L’armée amériaine a étudié entre 1959 et 1961 la possibilité d’établir une base militaire sur la lune. Le nom de code de l’opération : Projet Horizon. Cette base aurait servi de plate-forme pour développer des techniques de surveillance de la terre et de l’espace, mener des opérations à la surface de la lune, installer une base de lancement pour bombarder la Terre ou encore installer des relais de communications. L’étude s’intéresse aux techniques de construction de la base, aux communications, aux véhicules lunaires et aux transports nécessaires, mais aussi aux aspects politiques, économiques et juridiques.

« Etre deuxième, après l’Union soviétique à établir un avant-poste sur la lune, serait désastreux pour le prestige de notre pays et pour notre philosophie démocratique. Bien que cela soit contraire à la politique des États-Unis, si l’Union soviétique établissait la première base permanente, elle pourrait réclamer la lune ou des zones critiques de celle-ci », indique le premier volume du rapport du Projet Horizon.

D’autres documents s’intéressent à l’installation d’un observatoire de renseignements basé sur la lune. La lune aurait ainsi servi de relais pour les communications de Washington vers les bases militaires d’Hawaii ou vers les navires espions américains. Cette base aurait également servi à surveiller l’Union Soviétique.

L’ensemble de ces projets montre à quel point les responsables militaires de l’époque étaient obnubilés à l’idée de prouver leur supériorité sur le camp soviétique. Pendant la Guerre Froide, la lune a donc eu bien chaud !

Par Matthieu Combe, journaliste scientifique

Le tourisme spatial, c’est maintenant !

L’aventure du tourisme spatial sub-orbital a réellement commencé grâce à l’entreprise Scaled Composites qui a remporté le Prix Ansari X et ses 10 millions de dollars en 2004. Il y a 10 ans, la société parvenait à envoyer, deux fois en 15 jours, l’avion spatial SpaceShip One à 100  km d’altitude, avec deux passagers et un pilote à son bord.

Virgin Galactic en tête d’affiche

Depuis, Virgin Galactic a développé Spaceship Two. L’avion spatial devrait emmener 6 passagers et 2 pilotes à environ 110 kilomètres d’altitude. Le principe est simple : l’avion spatial est lâché à environ 14 km d’altitude par un avion porteur (WhiteKnightTwo). Il entame alors une ascension verticale propulsé par son moteur-fusée jusqu’à 110 km d’altitude. Sa vitesse devient alors nulle et il commence à retomber, sans se maintenir en orbite. Sa chute, en quasi absence d’atmosphère et faible vitesse n’est pas freinée. Les passagers se trouvent alors en situation d’apesanteur pendant environ 5 minutes. Lorsque la densité d’air est suffisante, il achève son vol à la manière d’un planeur.

Le premier vol expérimental de Spaceship Two a eu lieu le 10 octobre 2010. Des vols expérimentaux sont encore en cours et 5  avions spatiaux de ce type devraient emmener les touristes à l’avenir. Mais pour l’instant, SpaceShip Two n’a pas réussi à  voler au-delà de 21 640 mètres, record atteint en janvier 2014. Selon le site parabolicarc,  ce vaisseau ne pourra atteindre qu’une altitude située autour de 80 km au lieu des 110 km initialement annoncés. Il ne reste donc plus qu’à attendre les prochains tests pour connaître ses performances réelles.

Néanmoins, Virgin Galactic  se rapproche du  premier vol commercial dans l’espace. En mai 2014, l’Agence fédérale américaine de l’aviation (FAA) lui a en effet donné son feu vert pour débuter les vols spatiaux depuis la base américaine de Virgin Galactic dans le Nouveau Mexique. Ce premier accord sur le contrôle aérien couvrant les vols spatiaux permettra de faire cohabiter le trafic aérien habituel avec ces vols vers l’espace.

Virgin Galactic aurait déjà vendu près de 700 billets pour des voyages dans l’espace, à 250 000 dollars l’unité.

XCORE Aerospace également dans la course

La société californienne XCORE Aerospace propose des voyages sub-orbitaux d’une heure dont 5 minutes en apesanteur. Elle utilise pour ce faire deux modèles de navettes à deux places : le pilote astronaute et un passager unique. Deux versions sont prévues : le « Lynx Mark I » devrait atteindre une altitude de 61 km et le « Lynx Mark II » une altitude de 103 km. Les vols avec la première navette, vendus au prix de 95 000 dollars, sont prévus pour le quatrième trimestre 2015. Les passagers ayant choisi un vol dans la seconde navette devront débourser 100 000 dolars et attendre 2016.

Observer la courbure de la Terre ?

Dès 2016, World View Experience propose d’observer la courbure de la Terre à bord d’une nacelle emmenée par un ballon. La nacelle emportera 6 passagers et 2 pilotes . L’ascension devrait durer plus de deux heures jusqu’à 36 km d’altitude. La capsule se détachera ensuite du ballon et entamera une descente de 20 à 40 minutes. Vous pouvez déjà réserver votre billet pour 75 000 dollars.

Avec zero2infinity et son ballon « bloon », l’idée est également d’observer la courbure terrestre pour une croisière de deux heures. Vous pouvez déjà réserver votre billet pour 110 000 dollars.

Aller plus loin ?

Rêvons un peu plus.

  • Le milliardaire Robert Bigelow veut proposer de vrais séjours dans l’espace à travers sa société Bigelow Aerospace. Cette dernière développe des modules gonfables habitables pour des séjours de plusieurs semaines. Elle développe même sa propre station spatiale : la Bigelow Next-Generation Commercial Space Station. Les premièrs composants pourraient être lancés dès cette année.

  • Space Adventures  et l’Agence spatiale russe Roscosmos prévoient une mission habitée qui s’approchera à 100 km de la Lune. Le départ est prévu pour 2017. L’équipage est complet avec deux touristes et un cosmonaute russe comme pilote. Le prix du billet ? 150 millions de dollars.

Enfin, le millionnaire américain Dennis Tito projette le décollage le 5 janvier 2018, d’une mission habitée autour de Mars, sans atterir. Un alignement spécial des planètes permettra alors de faire le voyage aller/retour en 501 jours. Sa fondation « Inspiration Mars » prévoit de recruter un homme et une femme pour effectuer ce voyage.

Par Matthieu Combe, journaliste scientifique

La NASA expérimente un potager dans l’espace

Le 10 juin 2014, l’astronaute Steve Swanson terminait la récolte des premières salades de l’espace ! Cela achève l’expérimentation Veg-01, la première expérience du genre utilisant la  plateforme « Vegetable Production System » ou « Veggie ». « Notre objectif final est la production alimentaire, et Veggie est notre première étape pour que la NASA soit en mesure de réaliser des systèmes de production alimentaire pour l’espace », explique Gioia Massa, scientifique chargée du projet, sur le site de la Nasa. 

Le 18 avril dernier, la capsule Dragon transportant l’appareil et de la nourriture s’était envolée depuis Cap Canaveral, en Floride. Il s’agissait du troisième lancement de capsule Dragon réalisé par la société privée SpaceX pour le compte de la NASA. Veggie avait été intégré début mai au laboratoire européen Columbus de l’ISS.

Une première expérience

L’expérience s’est déroulée dans la chambre de croissance Veggie, sous des LED rouges, bleues et vertes pendant 33 jours. Cette première étude dans l’espace s’est concentrée l’efficacité du matériel Veggie pour faire pousser six plants de laitue romaine rouge dans un environnement de vol spatial. Pour ce faire,  tous les besoins des plantes sont contrôlés et suivis.: aération, chauffage, éclairage, engrais, irrigation…

La culture a été effectuée en apesanteur, ce qui ne semble pas, à première vue, avoir freiné le développement des plantes. Mais la NASA craint que les salades soient un nid propice au développement des microbes présents dans l’espace. Cette fois-ci, les laitues ne seront donc pas consommées par les membres d’équipage. Elles seront congelées à -80°C, en attendant d’être envoyées sur terre à l’automne. Les échantillons seront récupérés lors du quaitrème vol de réapprovisionnement de SpaceX.

Quelles suites pour Veggie?

Le système de croissance Veggie est désormais disponible pour d’autres expériences : plusieurs projets sont actuellement en cours d’évaluation. « Nous avons une liste d’autres cultures qui pourraient bien pousser dans Veggie selon nous », prévient Gioia Massa. « Nous sommes même en train de faire quelques recherches sur les pruniers nains pour voir s’ils pourraient se développer dans Veggie », précise-t-elle.

La prochaine expérience est d’ores et déjà prévue après le cinquième réapprovisionnement de SpaceX. Elle utilisera Veggie pour faire pousser des arabidopsis, des petites plantes à fleurs ressemblant à la moutarde et au chou. L’arabidopsis est d’un intérêt particulier pour les biologistes car son génome est entièrement connu depuis 2000. Toute modification dans son génome à cause de l’environnement spatial serait donc facilement observable.

Veggie pourra ensuite également être utilisé par les astronautes pour des activités de jardinage de loisirs pendant les missions spatiales de longue durée.

Que mangent les astronautes actuellement?

Durant plusieurs mois, les astronautes ne mangent que de la viande lyophilisée et des fruits et légumes en boîte, ce qui ne participe pas au bon moral des troupes… L’équipage reçoit bien quelques fruits et légumes frais lorque les missions de ravitaillement arrivent à l’ISS, mais les quantités sont limités et les réserves sont consommées rapidement.

Les aliments autorisés par la NASA dans l’espace comprennent les produits déshydratés, les produits thermostabilisés en boîtes ou les plats préparés, les aliments à humidité intermédiaire (fruits ou viande séchés), les aliments sous leur forme naturelle (noix, céréales), les viandes ionisées (steaks, fajitas, saucisses…), les condiments (ketchup, mayonnaise, moutarde, sel, poivre…) et diverses boissons (sodas, jus de fruits, café, thé…). Des fruits et des légumes fraîchement cueillis ne seront donc pas de refus !

Par Matthieu Combe, journaliste scientifique

Une ceinture solaire autour de la lune en 2035 ?

Une « ceinture » de 10 920 kilomètres

Un réseau de cellules solaires mesurant jusqu’à 40 kms entourerait l’équateur lunaire. L’énergie produite à partir de ces cellules serait transférée aux stations terrestres de réception grâce à des antennes de 20 kms de diamètre. Cette transmission serait assurée par une balise de guidage.

La construction de Luna Ring

La majorité des ressources nécessaires à la construction de la ceinture solaire serait fournie par la lune elle-même. L’eau et le ciment seraient produits à partir d’éléments constitutifs du sol lunaire quand  l’hydrogène serait importé. Quant aux ouvriers, ils seraient embauchés sur Terre. Mais inutile de poser votre candidature : seuls des robots télé-opérés sont envisagés.

Voir la vidéo du projet Luna Ring

Une production d’énergie illimitée

Contrairement aux panneaux photovoltaïques classiques installés sur Terre, la quantité d’énergie produite par les cellules solaires disposées autour de la lune ne dépendrait pas des variations météorologiques. Luna Ring pourrait fournir de l’énergie solaire, partout dans le monde, 24h/24 !

Est-ce possible ?

Oui, en théorie. Mais cette idée exceptionnelle pourrait rappeler d’autres projets, finalement avortés, de cette même compagnie. Par le passé, Shimizu a déjà imaginé : une cité botanique autosuffisante flottante, un réseau urbain sous-terrain, la création d’un lac au beau milieu d’un désert, un hôtel dans l’espace…  
Véritables projets ou doux rêves ?

Cité botanique autosuffisante flottante

 

Un hôtel dans l’espace

 

Des lacs dans le désert

 

Réseau urbain sous-terrain

 

 

Par Iris.T

Et aussi dans les
ressources documentaires :

Les scénarios à l’étude pour capturer ou dévier un astéroïde

Évidemment, on y songe pour ainsi dire jamais, à ce risque qui plane au-dessus de nos têtes, ce risque que le ciel nous tombe sur la tête – pour reprendre la fameuse citation des Gaulois. Bien sûr, il est normal que cela ne rentre pas dans nos préoccupations quotidiennes car il y a vraisemblablement peu de chances qu’une chute d’astéroïdes se produise, sans crier gare, sans que les astronomes s’en aperçoivent. La Nasa surveillerait plus d’un millier de gros astéroïdes (ceux de plus de 1 kilomètre de diamètre seraient en grande partie recensés).

La plupart du temps, les géocroiseurs, ces astéroïdes ou météorites qui frôlent l’orbite terrestre, ne sont pas dangereux. Heureusement car les astronomes en dénombrent environ 9 000. S’ils ne dépassent pas les 20 mètres de diamètre, ils se désagrègent généralement dans l’atmosphère en une flopée d’étoiles filantes. Mais parfois, il arrive tout de même qu’ils parviennent jusqu’à la Terre comme ce fut le cas en février 2013. Des fragments de météorite avaient atteint la région de Tcheliabinsk en Russie et avaient fait un millier de blessés, résultat des vibrations liées aux explosions dans les basses couches de l’atmosphère.

À peu près à la même période, la Nasa surveillait au grain le passage de l’astéroïde Apophis tout près de la Terre (à environ 30 000 kilomètres). Il faut dire que son gabarit donne des raisons de s’inquiéter puisque ses 325 mètres de diamètre pèsent environ 50 millions de tonnes. Sa chute pourrait avoir des conséquences désastreuses et engendrer une hécatombe : de 5 à 100 millions de morts. Il est censé revenir en avril de l’année 2029 ainsi qu’en 2036 mais selon toute probabilité, il n’entrera pas en collision avec la Terre à ce moment-là. Ce qui nous est profitable, la chute libérerait 25 000 fois plus d’énergie que la bombe lancée à Hiroshima le 6 août 1945.

Le rythme des impacts est discutable. D’après la fondation américaine B612, composée d’anciens astronautes, la météorite TCB (Tunguska Cosmic Body) qui ravagea les forêts de Sibérie en 1908 est un incident susceptible de se produire une fois tous les cent ans. Une donnée dont nous ne pouvons pas être certain. L’intervalle entre les impacts variant selon les spécialistes. Rusty Schweickart, qui est également un ancien astronaute, estime plutôt que « ce type d’impact se produit une fois tous les 250 ou 300 ans ». Quoi qu’il en soit, le risque existe et c’est la raison pour laquelle, la fondation B612 cherche 450 millions de dollars; afin de construire un télescope pour détecter tous les astéroïdes potentiellement dangereux. En fonction de la taille du rocher, c’est une région, un pays, un continent qui pourrait être transformé.

Cela ne veut pas dire que les petits astéroïdes ne sont pas menaçants, au contraire, ils le sont également car ils sont très peu visibles, même pour les télescopes modernes. Or, plus les chercheurs parviennent à les détecter tôt, plus ils ont de chances d’agir en conséquence. Pour rappel, entre 2000 et 2013, 26 météorites d’une puissance de plus d’une kilotonne de TNT ont explosé dans l’atmosphère.

Comment s’y prendre pour détourner un astéroïde ?

Parmi les scénarios qui ont été imaginé, l’emploi d’une bombe nucléaire n’est pas celui qui est retenu. Trop aléatoire, cette méthode pourrait faire plus de mal que de bien. Si les charges étaient mal réparties, ou mal calibrées, l’astéroïde pourrait se transformer en de nombreux débris spatiaux très dangereux. En ultime recours, une charge pourrait être positionnée à une distance idoine de l’astéroïde dans l’espoir de dévier sa trajectoire sous l’effet du souffle occasionné par l’explosion.

La solution la plus couramment envisagée est celle consistant à le dévier en propulsant un projectile appelé « impacteur cinétique » près de son centre. Toutefois, si l’opération apparaît commode sur le papier, c’est une autre paire de manches en pratique. Déjà, il est nécessaire de repérer longtemps à l’avance l’astéroïde menaçant. « Plusieurs années sont nécessaires pour dévier un astéroïde de sa trajectoire ». Si tel est le cas, un satellite mis en orbite doit l’examiner afin « de déterminer le point d’impact, avec une précision de l’ordre d’un mètre ». La difficulté réside dans la précision de cette collision car l’astéroïde et l’impacteur cinétique (10 km/s) ont tous deux des vitesses élevées et ils se révéleront de fait compliqués à guider. De plus, il faudrait attendre les derniers instants pour connaître avec exactitude l’emplacement de la cible d’impact, ce qui rajoute une complexité supplémentaire.

Une autre possibilité, un peu farfelue (un peu seulement), serait d’attirer l’astéroïde à l’aide d’un « tracteur gravitationnelle » dans le but de le détourner de sa route. En l’occurrence, un satellite massif pourrait jouer ce rôle. Cependant, même un satellite assez lourd n’aurait qu’une faible incidence. Cette action ne peut donc être utile que sur le long terme, à condition d’avoir pris le problème suffisamment tôt. Le centre Carl Sagan de Palo Alto (Californie), en collaboration avec le projet européen NEOShield étudierait cette idée.

Enfin, trois autres solutions très étranges, ont jailli d’on ne sait où. L’une d’elles consiste à repeindre en blanc ou en noir l’astéroïde. En changeant sa surface, l’idée est de modifier sa manière de réfléchir la lumière solaire et ainsi d’influer sur sa vitesse. Mais cela reste très marginal. La seconde solution, quant à elle, serait de construire une voile immense capable d’utiliser le vent solaire (minime) et de la fixer aux bords de l’astéroïde. Devrait-on l’appeler bateau spatial si ce concept devait être mis en application ? La dernière est aussi la plus digne de figurer dans un film de science-fiction. Des ingénieurs britanniques ont pensé à bombarder de rayons laser l’astéroïde pour changer son état, de solide à gazeux, le faisant « maigrir ». Cela aurait pour effet de modifier sa trajectoire.

Capturer un astéroïde, oui, mais pourquoi ?

La Nasa compte développer un nouveau projet de capture d’astéroïde et de le financer à hauteur de 105 millions de dollars. Il consiste à repérer un astéroïde de 7 à 10 mètres de long, puis de le « remorquer » jusque dans l’orbite de la Lune afin de s’en servir ultérieurement pour aller sur Mars. L’idée aurait été soufflée par le président Barack Obama lui-même.

Le projet comporte différents challenges : il « combine l’exploitation minière d’un astéroïde, le développement de techniques pour en détourner un, ainsi que la fourniture d’un lieu pour développer les possibilités d’aller sur Mars ».

Les astéroïdes sont des terres fertiles en métaux précieux, car leurs petites tailles les ont en principe préservé de la différenciation planétaire. C’est-à-dire qu’ils n’ont pas subi de réorganisation de couches en fonction des densités sous l’effet d’une très forte chaleur (les matériaux les plus denses s’agglutinent au centre pour former le noyau, les moins denses constituent la croûte). C’est pour cela que l’exploitation minière d’un astéroïde présente tant d’intérêt et pour cette raison qu’un kilomètre cube d’astéroïde aurait une valeur marchande de 5 000 milliards d’euros.

Par Sébastien Tribot

La NASA ne comprend pas d’où vient le surplus de tétrachlorure de carbone présent dans l’air

D’où vient tout ce tétrachlorure de carbone (CCl4) ? C’est la question que pose la NASA qui vient d’en détecter une quantité incompréhensible. En effet, alors que l’usage de CCl4 a été interdit en 1985 du fait de sa toxicité et de son impact sur la couche d’ozone qu’il contribue à détruire, les ingénieurs américains  ont pourtant constaté une quantité inexpliquée de CCl4 dans l’atmosphère. Alors que son taux aurait dû diminuer de 4% par an, il semble qu’il ne baisse que de 1%. 

Mais alors pourquoi autant de CCl4 ? Cet agent chimique était massivement utilisé par les industriels comme solvant ou réfrigérant. Mais alors que depuis 2007 (et jusqu’à 2012) aucune émission n’a été déclarée par les états signataires du protocole, il apparait que ces émissions ont pourtant  atteints 39 000 tonnes par an en moyenne. Un chiffre loin d’être négligeable et qui témoigne soit d’émissions illégales ou inconnues, soit d’un mécanisme de dégradation erroné.

Depuis plus de dix ans, la communauté scientifique s’interroge sur la décroissance beaucoup trop lente du niveau de CCl4 en comparaison avec la théorie.

L’évolution du taux de CCl4  a été modélisée par l’équipe du Professeur Liang à l’aide d’un logiciel de la NASA et en considérant les données atmosphériques des différents réseaux d’observation autour du globe. Ce sont ces simulations qui signalent le taux anormalement élevé de CCl4. Les travaux publiés dans Geophysical Research Letters révèlent en outre que le CCl4 présente une durée de vie dans l’atmosphère 40% plus longue que celle attendue ! Autant de désaccords entre la théorie et la pratique inquiétants.

Reste à la communauté internationale à déterminer l’origine de ces écarts : existe-t-il des modèles de dégradation du CCl4 inconnus ? Des industriels continuent-ils à utiliser ce polluant en toute illégalité ? Existe-t-il des sources naturelles non identifiées ?

L’enquête ne fait que commencer.

Par Audrey Loubens, journaliste scientifique

Des chercheurs assurent avoir trouvé l’algorithme du chien de berger

p>C’est grâce au système de navigation par satellites que les scientifiques ont finalement réussi à comprendre le fonctionnement des chiens de berger. Jusqu’alors, ils n’avaient aucune théorie satisfaisante pour expliquer leur faculté à déplacer aussi efficacement un groupe d’animaux indisciplinés dans la même direction.

Andrew King, biologiste à l’université galloise de Swansea, a commencé par équiper de harnais GPS un chien de berger (une femelle de race Australian Kelpie) et un troupeau de brebis mérinos. Il a ensuite observé le comportement des uns et des autres dans une prairie du sud de l’Australie, enregistrant les mouvements de chaque individu avec une précision de 10 à 20 cm.

Daniel Strömbom, mathématicien à l’université suédoise d’Uppsala, et ses collègues ont alors analysé ces données pour établir l’algorithme (suite d’opérations permettant de résoudre un problème) régissant les décisions et les actions du chien de berger.

A leur grande surprise, un modèle simple permet d’accomplir une tâche d’apparence très complexe. Il se résume en deux règles: rassembler les moutons lorsqu’ils se dispersent et les pousser vers l’avant lorsqu’ils sont de nouveau réunis.

« Nous avons dû imaginer ce que le chien voyait pour développer notre modèle. Grosso modo, il aperçoit des choses blanches et touffues devant lui. S’il voit des espaces entre les moutons, ou si ces espaces grossissent, le chien doit les rassembler », explique Andrew King dans un communiqué.

« Si vous observez des chiens de berger en action, le chien va et vient derrière le troupeau exactement de la même façon que ce que donne notre modèle », assure-t-il.

Les mathématiciens de l’équipe ont bien testé d’autres modèles, mais les simulations étaient beaucoup moins concluantes. « Les autres modèles ne semblent pas capables de garder des groupes de grande taille. Dès que le nombre d’individus dépasse la cinquantaine, il faut commencer à ajouter des bergers ou des chiens », souligne Daniel Strömbom.

Cette découverte, publiée mercredi dans la revue britannique Journal of the Royal Society Interface, pourrait avoir de multiples applications, dans le domaine de la robotique par exemple, selon les chercheurs.

L’algorithme du chien de berger pourrait servir à tenir les animaux à l’écart de zones dangereuses mais aussi à la gestion des mouvements de foule ou au nettoyage de l’environnement, estime Andrew King.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Imprimer ses os en 3D pour se les transplanter

Limpression 3D est en passe de révolutionner la médecine, et plus particulièrement la chirurgie. Dernière avancée en date, la technologie mise au point par les scientifiques de l’Université de Tokyo et de la société Next-21 permet d’envisager une production à l’échelle industrielle d’os artificiels imprimés. C’est la première fois qu’il devient possible de fabriquer des os transplantables à grande échelle. Pour y parvenir, l’impression est réalisée avec de la poussière d’os comme encre. Le phosphate de calcium est chauffé entre 100°C et 200°C. Ainsi fluidifié, il devient injectable dans un moule. La forme du moule s’ajuste à la géométrie de l’os à fabriquer, suivant la partie du corps concernée bien sûr mais aussi les caractéristiques particulières de chaque patient.

Une mise sur le marché d’ici 2017 ?

 Le gros avantage de cette technique est qu’il n’est plus nécessaire de chauffer à haute température la poudre, comme c’est le cas pour le frittage qui requiert d’atteindre 800°C.  Les coûts sont aussi bien plus compétitifs, d’où la possibilité de travailler à grande échelle : il serait possible de produire plusieurs milliers d’unités par jour.  Les tests cliniques doivent démarrer cette année, l’objectif affiché de Next-21 étant de se lancer sur le marché d’ici trois ans maximum. 

Derrière cette première technique se cache la volonté de créer une banque d’os artificiels, qui seront transplantables sur les patients. Deux cas de figures pourront être envisagés. Soit il s’agit d’un accident et un malade a besoin d’une greffe en urgence. Il sera alors possible de piocher dans le stock d’os imprimés pour opérer rapidement. Soit un patient en bonne santé subit un scanner sans avoir besoin d’être greffé à court terme. Les informations sur son ossature sont alors enregistrées de façon à être communiqués à la banque d’os en cas de besoin pour choisir l’os artificiel le plus adapté à une greffe.

Par Audrey Loubens, journaliste scientifique