Solar Impulse s’envole pour son tour du monde

Pas une seule goutte d’essence ne viendra alimenter le moteur de Solar Impulse 2. Et pour cause, ses moteurs électriques sont alimentés exclusivement à l’aide de panneaux solaires recouverts de plus de 17 000 cellules photovoltaïques, d’où le qualificatif d’avion solaire. Déjà célèbre pour avoir établi 8 records dont ceux du premier avion solaire à voler de nuit, premier à rallier deux continents ou encore à traverser les Etats-Unis, Solar Impulse 2 repousse encore les limites en partant pour un périple plus impressionnant encore, celui du tour du monde. Son parcours prévoit 12 étapes et le mènera en Inde, en Chine, à Hawaï, aux Etats-Unis, à New-York pour ensuite faire escale  en Europe du Sud ou en Afrique du Nord avant de boucler son tour du monde en volant jusqu’à son point de départ, Abou Dhabi, aux Emirats Arabes Unis. En tout, l’avion aura parcouru 35 000km, à une vitesse comprise entre 50 et 100km/h à 8500m d’altitude.

Pour réussir ce premier tour du monde avec un avion solaire, les deux fondateurs Bertrand Piccard et André Borschberg ont dû relever plusieurs défis technologiques. Tout d’abord, il a fallu mettre au point les cellules photovoltaïques. Elles sont exactement 17 248, en silicium monocristallin de 135 micron d’épaisseur, réparties sur les ailes, le fuselage et le stabilisateur horizontal, avec un excellent rendement de 23%. Un gros travail a ensuite été fait sur les batteries, seule façon d’assurer l’autonomie nécessaire à l’avion pour réaliser des vols longue distance ou de nuit. Solar Impulse 2 est équipé de batteries lithium polymère, d’une masse totale de 633kg, le quart du poids de l’avion (2300kg). Les ingénieurs ont maximisé l’aérodynamisme grâce à une envergure de 72m. Enfin, le pilote peut économiser de l’énergie en faisant évoluer l’avion à 9000m d’altitude le jour et seulement 1500m la nuit.

Solar Impulse 2 est prêt pour tenter le tour du monde et écrire un nouveau chapitre de l’histoire de l’aviation solaire.

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

L’Anses prend en charge l’AMM des pesticides

Depuis 2006, l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) n’émettait qu’un avis sur les dossiers d’autorisation de mise sur le marché (AMM) soumis par les industriels ; la décision d’autorisation ou non de ces produits était prise par le Ministère de l’Agriculture. Suite à la loi du 13 octobre 2014 d’Avenir pour l’agriculture, l’alimentation et la forêt, l’Anses aura en charge l’ensemble de ces missions à partir du 1er juillet 2015.

Pour mener à bien la gestion des AMM, l’Anses va créer une direction séparée de sa direction de l’évaluation des risques. L’Agence veut ainsi assurer l’indépendance des deux activités en toute transparence. Elle estime avoir besoin d’environ 35 équivalent temps pleins pour la prise en charge de ses nouvelles missions. La loi de Finances prévoit la création de 10 nouveaux postes pour 2015, 15 autres devraient être pourvus cette année par réaffectation de postes en interne. Pour les 10 postes restants, l’Anses espère les obtenir de l’Etat en 2016.

Phytopharmacovigilance : suivre la réalité sur le terrain

La loi d’avenir agricole prévoit aussi de renforcer les dispositifs de contrôle des produits autorisés sur le terrain. L’objectif est de suivre les effets éventuels des pesticides sur la santé humaine, que cela soit pour les travailleurs ou la population générale. Mais l’environnement n’est pas en reste : l’agence devra surveiller la santé des écosystèmes, de la faune et de la flore et les contaminations des milieux par les pesticides. Ainsi, si des signes montrant la toxicité d’un produit s’accumulent sur le terrain, l’Anses devra réagir rapidement pour reconsidérer l’AMM. « Une fois le produit sur le marché, il faut être capable d’être attentif à tout signal qui pourrait nous amener à remettre en cause telle ou telle décision au niveau de l’AMM », précise Marc Mortureux, directeur de l’Anses. C’est ce que la loi appelle la « phytopharmacovigilance ». 

Améliorer les dispositifs existants

L’Anses n’a pas d’unités présentes sur le terrain. Pour la phytopharmacoviligance, il lui faut donc miser sur la structuration des systèmes existants.  «Ce dispositif va être mis en place dès cette année et va s’appuyer sur une série d’organismes qui dans différents domaines collectent un certain nombre de données», prévient Marc Mortureux.

Différents dispositifs de collecte d’information pilotés par divers acteurs publics recueillent en effet d’ores et déjà de nombreuses informations relatives aux effets sanitaires des pesticides. Le principal défi ne consiste donc pas à créer de nouveaux dispositifs de collecte d’informations nouveaux, mais à les renforcer et permettre l’interprétation d’un point de vue sanitaire des données apportées. «Il reste un gros travail à faire pour avoir un dispositif beaucoup plus réactif, mieux adapté à cet objectif», assure Marc Mortureux.

L’agence se verra néanmoins doter d’une petite capacité propre d’inspection. « C’est important, lorsqu’il y aura un événement d’avoir des personnes qui pourront aller concrètement constater sur le terrain et récupérer toutes les données utiles », reconnait Marc Mortureux. Ces moyens permettront aussi de mettre en oeuvre des campagnes de contrôle des produits phytosanitaires déjà présents sur le marché pour «vérifier la conformité de ces produits mis sur le marché par rapport aux dossiers tels qu’ils sont déposés», précise-t-il. L’agence aura également la possibilité de mener des études indépendantes ciblées pour mieux documenter certaines interrogations. 

Concernant les nouveaux produits, l’Agence aura la possibilité de comparer leur toxicité à celle de produits déjà présents sur le marché. Pour les substances actives, qualifiées de « candidates à la substitution », si des produits moins dangereux et aussi efficaces sont déjà présents sur le marché, l’AMM ne sera pas accordée.

Des études sur les pesticides attendus pour cette année

Les résultats de l’expertise sur les expositions des travailleurs agricoles aux pesticides et les conclusions de l’étude Pesti’home sur les utilisations domestiques des pesticides sont attendus d’ici la fin de l’année pour la France métropolitaine.

Par ailleurs, l’Anses a été saisie en 2014 pour contribuer à la définition de modalités d’une surveillance nationale des pesticides présents dans l’air ambiant. D’ici la fin de l’année, elle établira une liste prioritaire de 10 à 20 pesticides à surveiller dans l’air en France métropolitaine, puis début 2016, dans les régions d’outre-mer. Elle proposera également une stratégie d’échantillonnage pour évaluer l’exposition de la population aux pesticides dans l’air. 

Par Matthieu Combe

Et aussi dans les
ressources documentaires :

Batteries : la Deutsche Bank prévoit une baisse massive des coûts durant les 5 années à venir

Si leur potentiel de production est colossal et très largement supérieur aux besoins de l’Humanité, éolien et solaire PV restent néanmoins (parfois) critiqués pour leur nature fluctuante. Et les batteries étaient jusqu’à présent trop coûteuses. Mais « en utilisant des hypothèses conservatrices et sans subventions, notre modèle indique que le coût incrémental du stockage (en plus du coût du kWh solaire PV ndlr) va passer de 14 cents/kWh aujourd’hui à 2 cents dans les 5 ans à venir » peut-on lire dans le rapport « Crossing the Chasm » (Franchir le gouffre) rédigé par Vishal Shah, directeur général à la Deutsche Bank et Jerimiah Booream-Phelps, analyste spécialisé en finance des écotechnologies (equity).

Ce rapport est « disponible dans un premier temps uniquement aux clients » et il sera rendu public « plus tard » indique la Deutsche Bank sur le site spécialisé Australien RenewEconomy où la journaliste Sophie Vorrath a néanmoins publié des extraits, y compris quelques graphiques-clés.

Le coût d’une batterie au plomb (dont la durée de vie est limitée) est aujourd’hui d’environ 200$/kWh selon les auteurs. Dans le meilleur des cas celui des batteries lithium est d’environ 500$ (fin 2014), c’est-à-dire moitié moins des environ 1000$/kWh 12 mois plus tôt. Une baisse de 50% des coûts en seulement un an, c’est pour le moins remarquable. L’émergence de la voiture électrique a dopé ce marché. Pour les années à venir « nous pensons qu’une baisse annuelle des coûts de 20-30% par an est probable (pour les batteries lithium-ion), ce qui pourrait les amener à franchir le seuil de l’adoption en masse avant 2020 », ceci à l’échelle de plusieurs segments du marché (commerces et utilities). Pour le segment résidentiel, cela pourrait venir ensuite, c’est-à-dire durant la décennie 2020.

Des systèmes tampons bien utiles

Pour les gestionnaires des réseaux électriques pouvoir disposer de batteries décentralisées, réparties sur l’ensemble du réseau, constitue un sérieux atout. Il est alors possible de diminuer le recours aux (coûteuses) turbines à gaz centralisées et aux faibles taux de charge annuels.

De plus les réseaux électriques (transport et distribution) sont traditionnellement calibrés en fonction des pointes de la demande. Il en résulte qu’ils sont eux aussi sous-utilisés, et c’est coûteux. Si des systèmes tampons (batteries) sont disponibles localement aux endroits clés, alors il devient possible d’optimiser le taux d’usage du réseau alors configuré pour une demande (et une production solaro-éolienne) qui devient moins fluctuante. D’une pierre, deux coups. Les batteries sont installables absolument partout, y compris au cœur d’une zone commerciale d’une ville très peuplée ou d’un complexe industriel. « Elles peuvent être reparties de manière optimale et réduire les pics de demande à travers le système électrique » expliquent les auteurs du rapport de la Deutsche Bank.

Le géant français GDF-Suez teste actuellement dans son laboratoire « Laborelec» en Belgique les batteries de la start-up Eos Energy Storage qui va commercialiser dès 2016 une batterie zinc-hybride à seulement 160 $ le kWh de stockage et dont la durée de vie est estimée à plus de 15 ans (objectif de 30 ans). Un niveau compétitif avec le stockage hydraulique (STEP). Eos vise en premier lieu le segment utilities.

Le solaire PV meilleur marché que le gaz de schiste ?

La Banque Nationale d’Abu Dhabi vient de publier un rapport où elle affirme que le solaire PV est à présent devenu tellement bon marché qu’il faudrait que le pétrole tombe au-dessous de 10$ le baril pour que les nouvelles centrales au fioul soient compétitives.

« C’est équivalent à un pétrole à 40 $ dans des centrales existantes » estime Cédric Philibert, expert EnR au sein de l’Agence Internationale de l’Energie. « Les auteurs de ce rapport ont préféré comparer avec de nouvelles centrales au fioul, mais je trouve que c’est moins pertinent que de le faire avec les anciennes ». Que ce soit à 10 ou 40$ la compétitivité du solaire PV est dans tous les cas devenue redoutable. Le baril se vend actuellement autour de 50$, un niveau bas à l’échelle des dernières années où il a dépassé les 100$.

« La Dubai Electricity and Water Authority (DEWA) a récemment accepté un contrat avec ACWA Power à 0.0584$/kWh, ceci pour une centrale solaire PV de 200 MW » rappellent les auteurs de ce rapport publié par la seconde plus grande banque de l’ensemble des Emirats arabes unis. « En plus de constituer une nouvelle référence en matière de coût du solaire PV à l’échelle globale, à ce niveau le solaire PV est déjà compétitif avec le pétrole à 10$ le baril et avec le gaz à 5$ par MBtu ».

Or selon la banque Merril Lynch (2012) la compétitivité du gaz de schiste s’établit autour de 6-8$/MBtu. Exxon a reconnu qu’ils produisaient à perte en le vendant à un prix inférieur, le PDG du géant américain ajoutant « on est en train d’y laisser notre chemise ». L’extraction conjointe du pétrole de schiste parvenait à sauver le gaz mais l’effondrement actuel des prix du baril change l’équation.

Cap vers une «Solar Economy » 

Le tiers de l’électricité mondiale pourrait être solaire en 2050

La baisse conjointe et massive des coûts du solaire PV et des batteries offre des perspectives réjouissantes sur le plan de l’intérêt général, tant en matière de sécurité énergétique que de qualité environnementale. Mais préoccupantes pour ceux qui ont massivement investi dans des filières énergétiques non durables et qui n’ont pas vu venir la « quatrième révolution industrielle » qu’Hermann Scheer, notamment auteur des livres « The Solar Economy » et « Energy Autonomy », appelait de ses vœux.

La Deutsche Bank, dans un autre rapport publié en janvier 2015, estime que près du tiers de l’électricité consommée dans le monde proviendra du solaire en 2050. Le marché du PV est estimé à pas moins de 3 trillions de dollars d’ici 2030… 3 millions de millions de dollars. On comprend mieux l’engouement chinois ! Le pays de Lao Tseu, grâce à l’investissement dans de très grandes usines qui ont contribué à faire baisser les coûts, produit aujourd’hui 90% des modules PV du monde.

Les Européens, divisés en matière de politique énergétique, ont pris du retard. Le Président français François Hollande a évoqué en 2013 la création d’un « airbus » dans le solaire en partenariat avec l’Allemagne. L’Europe ne veut pas laisser cet énorme marché lui échapper complètement. Le retard s’annonce néanmoins difficile à rattraper. Même le géant japonais Sharp n’est pas parvenu à gagner cette bataille de la compétitivité face aux Chinois. Et vient d’annoncer qu’il y renonce.

Le solaire pour tous

La banque allemande ajoute: « nous pensons que le taux de pénétration du solaire va augmenter plus rapidement dans les pays en développement. L’Inde, par exemple, a annoncé récemment un objectif de 100 GW (100.000 MW) de capacité solaire dès 2022 ». 40% pourrait être OffGrid.

Dans les régions du monde où les réseaux électriques sont déficients, partiels ou absents, le solaire PV couplé au stockage constitue une clé pour le développement humain.

Let the sunshine in.

Par Olivier Daniélo

Revue du web #77 : les vidéos les plus étonnantes de mars 2015 (1/2)

Cette semaine dans la revue du Web :

  • Grant Thompson et son petit atelier fonderie à domicile ;
  • Hypnotique : la maîtrise du transfert hydrographique ;
  • « Sepios », l’élégant poisson robotique aux quatre nageoires ;
  • Le gadget (inutile?) de la semaine : Tomatan, ou la monomanie de la tomate ;
  • En bonus : une horloge faite maison, qui écrit l’heure au marqueur ;
  • Et en super-bonus : des drones morts au champ d’honneur.

Grant Thompson et son petit atelier fonderie à domicile :

La chaîne YouTube de Grant Thompson est des plus instructives. Cet amateur éclairé est passé maître, depuis quelques années, dans le recyclage de canettes de bières ou de sodas en petits bijoux inutiles du quotidien, objets qu’il parvient à mouler avec une aisance déconcertante. Pour débuter notre soixante-dix-septième Revue du Web, penchons-nous sur le processus de fabrication de l’un de ces menus objets, une petite épée.

Première étape : utiliser son petit atelier fonderie DIY (voir la deuxième vidéo en bas de page) pour récupérer l’aluminium de plusieurs canettes, aluminium qu’il conserve une fois refroidi sous forme de palets de quelques centimètres de diamètre, moulés comme de petits gâteaux. Le rendement n’est pas si mauvais, puisque notre internaute récupère un peu moins de 500 grammes d’aluminium pour une quarantaine de canettes. Les palets lui servent ensuite de « munitions », lorsqu’il souhaite finalement utiliser l’aluminium et rentrer dans la peau d’un apprenti-forgeron. Le résultat est impressionnant (en anglais) !

Si d’aventure vous désirez également embrasser la carrière d’apprenti forgeron, voici comment réaliser la petite fonderie en DIY et à très petit prix :

Hypnotique : la maîtrise du transfert hydrographique

Familier de la technique d’impression par transfert hydrographique ? Si ce n’est pas le cas, cette vidéo réalisée par HG arts, l’un des leaders du secteur, est faite pour vous. L’impression hydrographique permet de transférer n’importe quels motifs redondants (et de mauvais goût) sur la surface de n’importe quel objet, quelle que soit sa forme. Il faut tout d’abord imprimer au préalable le motif désiré sur un film polymérique composé de PVA (Polyacétate de vinyle), qu’il faut ensuite immerger à plat dans un bassin adapté rempli d’eau à une trentaine de degrés, pour que s’y dépose la fine pellicule bariolée. Il reste à « activer » le film – en pulvérisant un « activateur » (un solvant) à l’aide d’un aérosol. Il suffit alors de tremper les objets précautionneusement pour les voir se parer de leurs plus beaux atours.

La société catalane, basée à Barcelone, cible essentiellement l’industrie automobile, mais également le monde du sport (des planches de skate aux casques de protection pour deux roues), l’industrie des lunettes, des smartphones, du jeu vidéo, ainsi que… l’armée avec la possibilité d’imprimer aisément n’importe quel motif « camouflage » sur les casques balistiques. La vidéo qui suit est assez illustrative, mais ne se concentre que sur l’impression sur pièces détachées de l’industrie automobile.

« Sepios », l’élégant poisson robotique aux quatre nageoires :

Les étudiants de l’Institut fédéral suisse de technologie ont de la ressource… S’inscrivant dans la tendance générale du biomimétisme, le projet d’étude de nos jeunes voisins s’inspire des mouvements de la seiche pour aboutir à son mode de propulsion unique à quatre nageoires (qui semble pourtant rappeler l’élégance aérienne d’un gros nudibranche rouge vif, la « danseuse espagnole »). Se distinguant des autres robots nautiques par sa faculté à se mouvoir aisément dans toutes les directions, il fait également preuve d’une très grande maniabilité.

Le mouvement de chaque nageoire est rendu possible par neuf servomoteurs, savamment coordonnés afin de reproduire ce mouvement, cette onde progressive et fluide si particulière. La bestiole, d’une longueur de 70 centimètres pour moins d’un mètre d’envergure, ferait si peu de remous qu’elle paraît idéale pour observer discrètement la vie marine, que ce soit à des fins scientifiques ou pour effectuer des prises de vue, en se cantonnant à une profondeur maximale de dix mètres. « Sepios » pourra mettre à profit son heure et demie d’autonomie pour se fondre dans le décor…

Le gadget (inutile?) de la semaine : Tomatan, ou la monomanie de la tomate

Étonnant coup de pub, ou ingénieurs à la masse ? Le gadget (inutile?) de la semaine nous vient du Japon, un pays qui nous a habitué au meilleur… comme au pire. Kagome, le géant japonais de la tomate, a surpris plus d’un journaliste lors d’une conférence de presse, le 23 février dernier, en présentant sa dernière (très) bonne idée : Tomatan, un petit robot dont le but – et la seule fonction – est de nourrir en tomates l’heureux idiot qui aurait eu le courage de le trimbaler.

Robot au design minimaliste, Tomatan devrait pouvoir intéresser les coureurs de fond, marathoniens en tête, à en croire l’un des porte-paroles de la compagnie japonaise, présent lors de la conférence de presse. Sans se démonter, le représentant de Kagome met en avant la nécessité qu’ont les coureurs de fond à rester bien hydratés… Exit les bananes et les barres énergétiques, quoi de mieux qu’une petite tomate bien juteuse, de temps en temps, pour avoir sa dose d’antioxydants et de bêta-carotène ? Si vous êtes effrayés à l’idée de porter les huit kilos (!) de Tomatan sur les épaules, rassurez-vous : une version moins lourde (3 kilos tout de même), baptisée « petit-Tomatan », existe.  Et elle vous fournira tout votre content… de tomates cerises.

En visionnant la vidéo, on penche évidemment pour un drôle de coup de pub. Tout du moins on l’espère.

Bonus : une horloge faite maison, qui écrit l’heure au marqueur

En bonus de cette soixante-dix-septième Revue du Web, voici une petite horloge faite maison qui a le chic d’écrire – et d’effacer – l’heure au marqueur, pour peu qu’on ait l’intelligence de la fixer sur un tableau blanc effaçable. Réglée comme un métronome pour indiquer l’heure toutes les cinq minutes, cette horloge dépend de deux servomoteurs pour coordonner l’action des deux bras tenant le marqueur, ainsi que d’un dernier servomoteur qui permet de lever et baisser l’ensemble, afin de choisir le moment ou la pointe du marqueur sera en contact ou non avec le tableau. L’ensemble est orchestré, comme bien souvent, par un microcontrôleur, ici de la famille PIC. Les pièces en plastique (rouges et jaunes) sortent tout droit d’une imprimante 3D.

Cette horloge n’est pas sans nous rappeler celle-ci, au fonctionnement identique, indiquant l’heure toutes les minutes, mais un tantinet pressée.

Super-bonus : des drones morts au champ d’honneur

A l’heure où quelques drones semblent trouver le ciel de Paris particulièrement clément – bien que le survol d’une zone urbaine soit interdit par la loi, rappelons-le – d’autres drones aspirent à un quotidien beaucoup plus aventureux, quitte à rester sur le carreau. Le réalisateur Sam Cossman en sait quelque chose, puisqu’il a perdu pas moins de deux de ses bestioles au champ d’honneur lors de prises de vues spectaculaires au dessus du Marum, un volcan en activité dans l’archipel de Vanuatu.

Les drones auront néanmoins permis la modélisation tridimensionnelle de l’intérieur de la caldeira, tout en ramenant de superbes images. Le sacrifice ne fut pas inutile !

Par Moonzur Rahman

« Le bord des mondes » : la science, aux confins de la création artistique

Envie de voir l’une des sublimes sculptures cinétiques de Theo Jansen, l’un des merveilleux pièges à brume de Carlos Espinosa, ou l’un des effrayants clones « géminoïdes » d’Hiroshi Ishiguro ? Le Palais de Tokyo réunit du 18 février au 17 mai 2015 une flopée d’artistes, scientifiques et créateurs de tous horizons dans une exposition collective venant bousculer nos certitudes sur les frontières établies entre territoires artistiques balisés, inventions pures et loufoqueries créatives. Les interrogations de Marcel Duchamp sur l’essence-même d’une œuvre artistique viennent rythmer dans l’ombre « Le bord des mondes », exposition unique qui nous jette en pâture l’un des monstres tubulaires de Theo Jansen, les « chindōgu » inutilisables de Kenji Kawakami, la « topographie des larmes » de Rose-Lynn Fisher, les « attrape-nuages » de Carlos Espinosa et les clones dérangeants d’Hiroshi Ishiguro.

Le bord des mondes

Quand ? Du 18 février au 17 mai, de midi à minuit

Où ?  Palais de Tokyo à Paris

 

 

 

 

 

 

Petit tour d’horizon de l’exposition avec la présentation (pages suivantes) de cinq oeuvres :

  • Les monstres tubulaires de Theo Jansen 

  • Les « chindōgu » de Kenji Kawakami 

  • « Topographie des larmes », de Rose-Lynn Fisher

  • Les « attrape-nuages » de Carlos Espinosa

  • Les clones « géminoïdes » de Hiroshi Ishiguro

 

Les monstres tubulaires de Theo Jansen 

Le travail de Theo Jansen s’articule depuis près d’une vingtaine d’années autour du développement d’une espèce rare de monstres tubulaires de son cru, les « Strandbeasts » (ou créatures de plages), sculptures cinétiques imposantes contenant tout ou seulement quelques parties en mouvement. Le génial artiste néerlandais dit s’inspirer de la théorie de l’évolution génétique pour faire évoluer ses sculptures. En véritable Frankenstein de l’art cinétique, il s’est retrouvé à la tête d’une petite flottille de créatures mobiles quasi-autonomes.

« Le bord des mondes » présentera l’un des gigantesques – et quelque peu effrayants – myriapodes créés par Theo Jansen, monstre dont le squelette est composé de tubes d’isolation électrique, de tiges de bambou, de serre-câbles, et dont la voilure en Dacron (un textile artificiel de l’ordre des polyesters) lui permet de se mouvoir au gré du vent.

Theo Jansen, Animaris Umerus, 2010. Copyright : André Morin, 2015

Les « chindōgu » de Kenji Kawakami 

Depuis le début des années 1980, Kenji Kawakami est le pape de l’art japonais du « chindōgu », cette fâcheuse manie qu’ont certains inventeurs à créer des objets « utiles mais inutilisables », répondant efficacement mais de manière inappropriée ou ridicule aux menus problèmes de notre quotidien, manie que nous évoquions déjà ici.

Perçus comme « de véritables manifestes de résistance politique, économique et poétique », ses œuvres sont autant de petits bijoux dont la fonction est aussi évidente qu’elle insulte le sens pratique. De la grenouillère-serpillière au beurre en stick, « Le bord des mondes » offre une belle introduction au travail de Kenji Kawakami, avec une vingtaine de pièces exposées et une rétrospective photos couvrant une part non négligeable de son travail.

Copyright Kawakami / Jean-Christophe Leco

 

Copyrights Kenji Kawakami

 

Présentation de l’œuvre de Kawakami, au Palais de Tokyo. Copyright : André Morin, 2015

« Topographie des larmes », de Rose-Lynn Fisher

2008 a été une année difficile pour Rose-Lynn Fisher. La perte de quelques proches, ainsi qu’une certaine incertitude aux niveaux professionnel et personnel, ont fait basculer la balance lacrymale dans le rouge. Un jour, plutôt que d’essuyer ses larmes, la photographe américaine s’est mis en tête d’explorer les précieuses sécrétions à travers le prisme d’un microscope… pour y découvrir un univers inattendu, peuplé de protéines, de minéraux, d’hormones et d’enzymes. Elle renouvela alors l’expérience avec d’autres larmes, provenant d’autres cobayes ou induites de manière différente – sur le banc des accusés, se bousculent un oignon, une crise de fou rire, la douleur, ou encore l’exaspération.

Qualifiées de « vues aériennes de terrains émotionnels », et ressemblant de fait à s’y méprendre à des photographies aériennes de contrées imaginaires, la force des photos appartenant à la série « Topographie des larmes » est de dissocier ces larmes identiques en rendant visible quelque chose de fondamentalement intangible.

Rose-Lynn Fisher, The brevity of time (out of order) losing you, 2011

 

Rose-Lynn Fisher, Tears of change, 2013

 

Rose-Lynn Fisher, Tears of ending and beginning, 2013

 

Rose-Lynn Fisher, Onion tears, 2013

Les « attrape-nuages » de Carlos Espinosa

Physicien de formation et inventeur des « atrapanieblas » (« attrape-nuages » ou encore « piège à brume » en français), le Chilien Carlos Espinosa est également représenté au palais de Tokyo, avec l’un de ses fameux capteurs d’eau ayant fait florès un peu partout au Chili. Imaginés et conçus alors qu’une sécheresse sans précédent sévissait dans le pays, il y a près de cinquante ans, les atrapanieblas ont pour vocation de piéger l’eau vaporeuse en mouvement, afin de la fixer dans l’espace et pallier un éventuel manque.

Utopiste pragmatique, le désormais nonagénaire cherchait à « trouver des solutions durables de cohabitation de l’homme avec son environnement, quand l’humanité toute entière commençait déjà à se lancer dans la conquête spatiale ». Comme une évidence, le Chilien fit breveter son invention en 1963, pour en offrir dans la foulée l’usage à l’UNESCO. La classe.

Carlos Espinosa, Atrapanieblas Macrodiamante 781025, 2014. Copyright : André Morin, 2015

Les clones « géminoïdes » de Hiroshi Ishiguro

Enfin, dans l’une des salles de ce « bord des mondes » vous attendent une femme debout et un homme assis près d’elle, dans une atmosphère quelque peu dérangeante. Dérangeante car ces deux loustics ne sont pas faits de chair et de sang, mais de silicium et de polymère. Ces robots anthropomorphiques, répliques fidèles du professeur Hiroshi Ishiguro et d’une mannequin japonaise, sont les parfaits ambassadeurs parisiens du travail du célèbre chercheur en intelligence artificielle à l’université d’Osaka.

L’apparence des robots est primordiale pour le professeur japonais, une apparence humaine permettant au robot d’avoir une présence plus forte, plus ancrée dans le réel. Pourtant les créations d’Hiroshi Ishiguro ne sont pas seulement des poupées grandeur nature, mais bien des androïdes aux lèvres humides et aux yeux vifs, réagissant à leur environnement. La quête d’Ishiguro est paradoxale, puisqu’à travers ses « géminoïdes », c’est bien la nature de l’homme qu’il essaie de comprendre. 


 

Copyright Hiroshi Ishiguro, 2014

 

Présentation de l’œuvre d’Ishiguro, au Palais de Tokyo. Copyright : André Morin, 2015

Par Rahman Moonzur

Mars avait un océan aussi grand que l’Arctique, selon la Nasa

Ces chercheurs ont aussi estimé en analysant l’atmosphère martienne que la planète rouge avait perdu 87% de son eau dans l’espace.

Quand dans sa jeunesse Mars était encore une planète humide, il y avait suffisamment d’eau pour la recouvrir entièrement sur une profondeur de 137 mètres, précisent-ils. Leur étude paraît dans la revue américaine Science.

Mais la réalité était probablement que cette eau formait un océan qui recouvrait la moitié de l’hémisphère nord de la planète, atteignant par endroits des profondeurs de plus de 1,6 km.

Vu la géologie de cette partie de Mars, elle est considérée depuis longtemps par les scientifiques comme la zone la plus propice pour contenir un océan, qui devait couvrir 19% de la planète. En comparaison, l’Atlantique occupe 17% de la surface de la Terre.

« Notre étude fournit une bonne estimation de l’eau qui se trouvait sur Mars en déterminant les quantités perdues dans l’espace », explique Geronimo Villanueva, un chercheur du centre Goddard des vols spatiaux de la Nasa à Greenbelt, dans le Maryland (est), l’un des principaux auteurs.

« Avec ces travaux, nous pouvons mieux comprendre l’histoire de l’eau sur Mars », ajoute-t-il.

Cette nouvelle estimation est basée sur des observations très détaillées de formes légèrement différentes d’eau, la plus familière formée d’un atome d’oxygène et de deux atomes d’hydrogène (H20), et l’eau lourde (HDO) dans laquelle un des deux atomes d’hydrogène est remplacé par du deutérium.

Utilisant le télescope Keck 2 à infrarouge de la Nasa situé à Hawaii, et un puissant télescope européen de l’ESO (European Southern Observatory) au Chili, ces scientifiques ont pu faire la distinction entre les signatures chimiques des deux eaux. C’est en comparant le ratio de l’eau lourde dans l’eau normale que les chercheurs ont pu en déduire la quantité d’eau qui s’était échappée dans l’espace.

Ils ont effectué leurs mesures à de nombreuses reprises pendant six ans, environ trois années martiennes.

La carte qu’ils ont produite révèle aussi des changements saisonniers et des microclimats sur Mars, même si la planète n’est aujourd’hui qu’un vaste désert.

Ces scientifiques se sont surtout intéressés aux régions à proximité des pôles, où se trouvent les plus grands réservoirs d’eau de Mars, aujourd’hui sous forme de glace.

« Avec Mars perdant autant d’eau, la planète a très probablement été humide plus longtemps qu’estimé jusqu’alors, suggérant qu’elle aurait pu être habitable plus longtemps », souligne Michael Mumma, un scientifique du centre Goddard, co-auteur de ces travaux.

Avant cette étude, on estimait que la période chaude et humide de Mars appelée Noachien s’était achevée il y a environ 3,7 milliards d’années.

Il est aussi possible que Mars contenait dans le passé encore plus d’eau dont une partie se serait infiltrée sous la surface, relèvent ces chercheurs.

Selon eux, les nouvelles cartes des ratios d’eau qui révèlent des microclimats et des fluctuations dans les quantités d’eau contenues dans l’atmosphère pourraient être utiles dans la recherche de nappes d’eau dans le sous-sol.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Carl Von Linné, la personnalité historique la plus importante ?

Ces travaux, qui permettent de mesurer l’influence culturelle à l’échelle locale et mondiale des personnalités de l’encyclopédie ont été publiés le 4 mars 2015 dans Plos One.

Selon cette étude, sans préjugement culturel, les 10 personnalités politiques les plus citées au niveau mondial sont dans l’ordre d’importance :

  • Carl Von Linné ;
  • Jésus Christ ;
  • Aristote ;
  • Napoléon ;
  • Adolf Hitler ;
  • Jules César ;
  • Platon ;
  • William Shakespeare ;
  • Albert Einstein ;
  • Elizabeth II.

« Pour chaque langue, tous les articles ont été analysés, puis nous avons sélectionné les figures historiques les plus importantes», résume Dima L. Shepelyansky, chercheur CNRS au Laboratoire de physique théorique (CNRS/Université de Toulouse III – Paul Sabatier). « La moyenne sur 24 langues permet de donner une vision plus large que sur chaque langue spécifique et fournit un classement mathématique d’importance des personnalités humaines dans le monde», précise-t-il. Car si, par exemple, Barack Obama est la deuxième personnalité la plus citée en anglais, il l’est beaucoup moins en Français, et presque pas en Chinois et en Russe. « Les 24 langues représentent environ 60 % de la population mondiale et 70 % des articles de Wikipedia », note le chercheur.

Une analyse mathématique, comparable au classement de référence

Les 100 personnalités identifiées par cette étude ont été comparées au classement de référence des 100 personnalités les plus influentes élaboré par Michael H. Hart dans son livre « The 100: A Ranking of the Most Influential Persons in History », en 1992. La méthode du PageRank donne un chevauchement de 43 personnalités avec ce classement. 

« Notre classement souligne des points différents : Linné en première position a été surprenant pour tout le monde, mais c’est car il a fait beaucoup d’articles sur le vivant, les arbres…», insiste le chercheur. Cette approche présente l’avantage de « déterminer l’importance des figures historiques de façon mathématique, sans préjugement culturel», conclut-il.

Carl Von Linné est un médecin et naturaliste suédois du 18e siècle. C’est le père de la nomenclature dite « binomiale » qui permet, grâce à deux mots, de désigner sans ambiguïté une espèce animale ou végétale.

  • Références de l’étude :

Interactions of cultures and top people of Wikipedia from ranking of 24 language editions. Young-Ho Eom, Pablo Aragon, David Laniado, Andreas Kaltenbrunner, Sebastiano Vigna, Dima L. Shepelyansky. Plos One, le 4 mars 2015

Par Matthieu Combe, journaliste scientifique

Le plus gros trou noir découvert

Il pèse 12 milliards de fois plus lourd que le Soleil et n’a que 900 millions d’années. Des caractéristiques exceptionnelles pour un trou noir aux mensurations inédites. En effet, c’est le plus gros trou noir jamais observé comparativement à son âge. Pour le débusquer, l’équipe de Xue-Bing Wu du Kavli Institue of astronomy and astrophysics a braqué les télescopes basés en Chine à Hawaï et en Arizona en direction d’un nuage de gaz exceptionnellement lumineux. A l’origine de ce rayonnement se trouve un quasar, témoin de la présence d’un trou noir.

Mais lorsqu’ils en ont calculé la masse, les chercheurs n’en n’ont pas cru leurs yeux. Le trou noir est trop gros ! Plus précisément, ce trou noir possède une masse inattendue du fait de son jeune âge. En effet, pour grossir, un trou noir doit agréger de la matière présente dans son environnement, il peut aussi fusionner avec d’autres trous noirs. Dans ces deux cas, le délai pour atteindre une masse de 12 milliards de Soleil est bien supérieur au milliard d’années. A titre de comparaison, le seul trou noir connu ayant à près le même âge pèse seulement 2 milliards de soleil, soit 6 fois moins. 

Pour expliquer l’existence d’un trou noir aussi massif né 875 millions d’années après le Big-Bang, plusieurs hypothèses émergent : fusion de trous noirs très tôt après la naissance de l’Univers, formation à partir d’un immense nuage de gaz effondré sur lui-même… Mais aucune observation ne permet de conclure sur la pertinence de tel ou tel scénario. Les travaux décrivant l’observation du quasar et la découverte du trou noir le plus massif à cet âge sont parus dans Nature.

Par Audrey Loubens

En Suède, la cigarette électronique est un médicament, selon la justice

« Que les produits ne soient pas exclusivement utilisés à des fins médicales (…) ne permet pas qu’ils échappent à la définition de médicament », a considéré la Cour d’appel administrative de Stockholm, dans un jugement consulté par l’AFP.

« Les propriétés pharmacologiques des produits sont documentées dans la mesure où le composant nicotine actif peut être utilisé pour soigner la dépendance au tabac », a-t-elle précisé.

Le produit reste interdit dans le pays. « Aujourd’hui, aucune cigarette électronique n’a été autorisée et ne peut être légalement être vendue », a expliqué à l’AFP un porte-parole de l’Agence nationale du médicament, Martin Burman, qui s’est dit satisfait par le jugement.

« C’est tout à fait possible que nous autorisions des cigarettes électroniques dans une optique de santé publique », a-t-il ajouté.

Une entreprise du sud de la Suède poursuivait l’autorité sanitaire devant la justice dans l’espoir de faire annuler l’interdiction de la vente de cigarettes électroniques contenant de la nicotine si elles n’étaient pas autorisées comme médicaments.

L’entreprise compte porter l’affaire devant la juridiction suprême suédoise.

La réglementation concernant la cigarette électronique évolue rapidement et varie beaucoup en fonction des pays européens, allant de ceux qui ne lui imposent aucune restriction comme le Portugal à ceux qui l’interdisent comme la Suisse.

En France, où elle n’est pas considérée comme un médicament, un quart des personnes âgées de 15 à 75 ans, soit quelque 1,3 million de personnes, ont déclaré avoir essayé la cigarette électronique. Quelque 3% d’entre eux « vapotent » quotidiennement.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Impact à grande échelle des pesticides sur les papillons et bourdons des jardins privés de France

Les scientifiques se sont basés sur des données de sciences participatives et montrent, à l’échelle d’un pays, l’impact de l’utilisation des pesticides par les jardiniers amateurs sur les insectes floricoles. Ces effets varient selon l’environnement, peuvent être indirects et toucher des organismes non visés initialement. Ces résultats sont publiés dans la revue Biological Conservation.

En milieu urbain, les jardins privés représentent une ressource importante en termes de nourriture et d’abri pour les espèces animales. Pourtant, l’impact des pratiques de jardinage sur ces espèces, en particulier l’utilisation de pesticides, est très difficile à évaluer à grande échelle du fait, d’une part de l’absence de mesures standardisées et d’autre part de la difficulté d’accès à des propriétés privées. En milieu agricole, les modes de culture ou d’utilisation de produits phytosanitaires ont des impacts avérés sur la biodiversité: il est donc probable que de tels effets existent également dans les jardins privés.

Les auteurs de cette publication ont évalué les effets à grande échelle des pratiques de jardinage sur deux groupes importants d’insectes floricoles, les papillons de jour et les bourdons, à partir des données collectées dans le cadre de l’Observatoire de la Biodiversité des Jardins. Leurs analyses montrent que papillons et bourdons sont moins abondants dans les jardins traités avec des insecticides, ce qui était attendu, mais aussi dans ceux traités par des herbicides. A l’inverse, ces insectes sont plus abondants lorsque les jardiniers utilisent de la bouillie bordelaise, des fongicides et des granulés anti-limaces. Si l’impact des insecticides sur les insectes est direct, celui des herbicides serait indirect, en limitant les ressources disponibles pour les papillons et les bourdons. Les autres pesticides étudiés auraient, eux, un impact positif indirect, favorisant des plantes plus vigoureuses qui offrent alors davantage de ressources aux insectes. Par ailleurs, l’impact des pesticides varie selon le type de paysage: les effets négatifs des insecticides sont plus importants en milieu urbain. Cela serait dû à la difficulté de recolonisation des jardins traités dans une matrice urbaine hostile aux insectes floricoles. 

Ces résultats, de dimension nationale, montrent pour la première fois que les comportements individuels, dans un cadre privé, ont un impact sur la biodiversité, même dans un paysage urbain très anthropisé. Ils prouvent également que les conséquences des traitements phytosanitaires sont complexes et ont des effets indirects sur des organismes qui ne sont pas visés directement. En conséquence, si cette étude démontre que les papillons et les bourdons sont plus abondants dans les jardins où des fongicides ou des anti-limaces sont utilisés, cela ne signifie évidemment pas que ces pesticides sont bénéfiques pour l’ensemble de la biodiversité. Et notamment, l’effet sur la faune du sol ne doit pas être sous-estimé. D’autres études ont par exemple montré que les lombrics sont moins abondants dans les parcelles agricoles traitées par des herbicides, des insecticides ou des fongicides qui ne les visaient pourtant pas directement.

Source : CNRS

Le tout premier robot à voler au gré du relief sans accéléromètre grâce à son oeil bio-inspiré

Tous les aéronefs, des drones à la fusée Ariane, sont actuellement équipés d’accéléromètres afin de connaître la direction de la gravité, et donc du centre de la Terre. Cela leur permet de mesurer leur degré de roulis et de tangage et, à partir de ces données, de stabiliser leur vol. Cet outil indispensable n’a pourtant pas son équivalent chez les insectes, qui volent librement sans ces informations.

Les chercheurs Fabien Expert et Franck Ruffier se sont donc inspirés des insectes ailés pour créer BeeRotor : un robot volant captif capable pour la première fois d’ajuster sa vitesse et de suivre le terrain sans accéléromètre ni mesure de vitesse et d’altitude. Avec ses 80 grammes et ses 47 centimètres de long, il évite tout seul des obstacles verticaux dans un tunnel dont les parois sont en mouvement. Pour cela, les chercheurs ont mimé l’aptitude des insectes à se servir du défilement du paysage lors de leurs déplacements. On parle de flux optique, dont le principe s’observe facilement en voiture : sur l’autoroute le monde devant nous est assez stable, mais dès que l’on regarde sur les côtés, le paysage défile de plus en plus vite, jusqu’à atteindre un maximum à un angle de 90 degrés par rapport à la trajectoire du véhicule. 

Pour mesurer le flux optique, BeeRotor est équipé de seulement 24 photodiodes (ou pixels) réparties sur le bas et sur le haut de son œil. Cela lui permet de détecter les contrastes de l’environnement et leurs mouvements. Comme chez l’insecte, la vitesse de passage d’un élément du décor d’un pixel à l’autre va livrer la vitesse angulaire de défilement. Lorsque le défilement augmente, c’est que la vitesse du robot augmente ou que la distance par rapport aux obstacles diminue.

En guise de cerveau, BeeRotor dispose de trois boucles de rétroaction, comme autant de réflexes qui utilisent directement le flux optique. La première lui fait changer son altitude pour suivre le plancher ou le plafond. La seconde gère la vitesse du robot pour l’adapter à l’encombrement du tunnel dans lequel il navigue. Avec la dernière boucle, l’œil se stabilise par rapport à la pente locale grâce à un moteur dédié. Cela permet au robot de toujours obtenir le meilleur champ de vision possible, indépendamment de son degré de tangage. BeeRotor évite alors des obstacles très pentus (cf. vidéo) sans accéléromètre ni mesure de vitesse et d’altitude. Cette technologie a fait l’objet d’un dépôt de brevet fin 2013.

BeeRotor propose ainsi une nouvelle hypothèse biologiquement plausible pour expliquer comment les insectes volent sans accéléromètre : les insectes ailés pourraient utiliser les indices du flux optique pour se stabiliser, grâce à des boucles de rétroaction similaires à celles du robot. 

Il existe également des applications industrielles à cette première mondiale. Les accéléromètres, et donc les centrales inertielles qui les contiennent, sont trop lourds et encombrants pour les robots de toute petite taille. Avec une masse de l’ordre du gramme, ils ne conviennent pas à ces engins d’une dizaine de grammes qui pourraient être utilisés, par exemple, pour inspecter les tuyauteries. Cette quête de la légèreté se retrouve également dans l’industrie spatiale, où chaque kilo envoyé hors de notre atmosphère a un coût considérable. Sans forcément remplacer les accéléromètres, des capteurs de flux optique pourraient servir de système de secours ultra léger en cas de défaillance sur des missions spatiales.

Source : CNRS

Les stratégies des plantes pour optimiser l’utilisation des nitrates

L’agriculture moderne est très consommatrice d’engrais azotés. Ceci permet d’optimiser la nutrition des cultures mais n’est pas acceptable sur le long terme car ces engrais ont un coût énergétique élevé et nuisent à l’environnement (pollution des eaux continentales et littorales par le nitrate, pollution de l’atmosphère par les oxydes d’azote). Le développement d’une agriculture durable nécessite donc de rendre les cultures moins consommatrices d’engrais, et donc aptes à conserver un rendement élevé en situation d’alimentation azotée moins riche.

Une des stratégies de recherche développées part du constat que les plantes sont capables de s’adapter à une alimentation en azote limitante. Les mécanismes qui rendent cette adaptation possible sont encore largement inconnus et leur biodiversité totalement sous-exploitée. Il y a quelques années, les chercheurs ont identifié NRT1.1 : une protéine de la membrane des cellules racinaires qui assure la perception du nitrate (principale source d’azote dans le sol) ainsi que son transport dans les racines, et qui permet aux plantes de déclencher les réponses adaptatives au manque d’azote. Elle entraîne des modifications de l’architecture du système racinaire, de la régulation d’autres protéines du transport de nitrate, de l’expression de nombreux gènes, etc…

Des chercheurs de l’unité Biochimie et physiologie moléculaire des plantes (Inra/CNRS/Montpellier SupAgro/Université de Montpellier), en collaboration avec l’unité Amélioration génétique et adaptation des plantes méditerranéennes et tropicales (Inra/Cirad/Montpellier SupAgro) et des collègues tchèques, viennent de lever le voile sur le rôle crucial de « plaque tournante » de NTR1.1 pour déclencher ces réponses uniquement dans les conditions où elles sont utiles. En effet, cette protéine met en œuvre non pas un seul, mais plusieurs mécanismes de signalisation du nitrate qui activent sélectivement des réponses différentes. Leurs résultats indiquent également que NRT1.1 existe sous plusieurs formes (phosphorylée ou non) qui ont des actions spécifiques de signalisation. Ainsi, en fonction des conditions du milieu, la plante modifie NRT1.1 de manière à ce que cette protéine puisse mettre en œuvre le bon mécanisme pour activer la bonne réponse adaptative.

Les pistes ouvertes par ce travail sont nombreuses. Elles concernent des aspects fondamentaux, en particulier la caractérisation moléculaire des voies de signalisations agissant en aval de NRT1.1. A plus long terme, elles concernent également des aspects plus finalisés : il est notamment important de rechercher si une variabilité génétique existe pour les réponses adaptatives gouvernées par NRT1.1, et si cette variabilité peut être exploitée en amélioration végétale pour aboutir à de nouveaux génotypes mieux adaptés aux faibles doses d’engrais.

Localisation histochimique de l’expression du gène NRT1.1 dans les racines d’une plantule d’Arabidopsis thaliana. La lignée étudiée exprime le gène rapporteur GUS (codant la béta-glucuronidase) sous le contrôle du promoteur de NRT1.1.

L’activité GUS colore en bleu les tissus exprimant ce gène rapporteur. Ceci permet de révéler que NRT1.1 est exprimé dans tous les apex racinaires, c’est à dire à la pointe de l’exploration du sol par les plantes. C’est là que NRT1.1 assure la perception du nitrate et permet à la plante de déterminer si la zone du sol dans laquelle pénètre la racine en croissance est riche ou non en azote.

Source : CNRS

En 2025 le solaire PV pourrait ne coûter que 4,1 centimes/kWh en France

Selon l’étude (Current and Future Cost of Photovoltaics, février 2015), dans le nord de la France, où la production solaire est de 1000 kWh par kWc installé et par an contre 1550 dans le sud, le solaire sera en revanche 25% plus coûteux (LCOE de 7,5 centimes/kWh) que celui du nucléaire ancien en prenant comme référence l’estimation de la cour des comptes soit 5,98 centimes/kWh. En moyenne, avec par exemple l’insolation de Clermont-Ferrand dans le massif central, le coût du solaire PV Français sera ainsi de 5,8 centimes/kWh, soit 3% meilleur marché que le vieux nucléaire.

Ceci dans l’hypothèse d’un taux d’intérêt de 5%. Avec un taux d’intérêt de 7,5%, ou pire de 10%, la compétitivité du solaire s’érode. D’où l’importance de créer un environnement réglementaire stable. « Le coût du capital est le principal driver du coût de l’électricité provenant du solaire PV » rappellent les experts. « Le PV requiert d’importants investissements en amont mais permet ensuite, pendant 25 ans ou davantage, de produire de l’électricité à un coût marginal proche de zéro. Il s’agit donc d’une technologie énergétique très capitalistique, et les taux d’intérêt liés à la fois à la dette et l’equity ont un large effet sur le coût total de projets PV à grande échelle ». Point fondamental, «l’environnement réglementaire jouera donc un rôle clé pour réduire le coût du PV dans le futur ». Les politiques en zigzag, dénoncées par les acteurs du solaire en France, et l’absence de vision à moyen et long-terme sont donc fortement handicapantes.

Ci-dessus : Evolution présente et future du coût du PV pour la France (source : Fraunhofer)

En Allemagne, selon les auteurs de l’étude, le coût complet du solaire PV est aujourd’hui (2015) d’environ 1000€ par kWc installé. Ce coût, qui sert de référence à l’étude, se décompose en trois éléments principaux : les Modules PV (550€), les onduleurs (110€) qui convertissent le courant continu en courant alternatif, et l’ensemble des autres éléments du système PV (340€). Ces derniers comprennent la planification-documentation (35€), l’infrastructure (40€) c’est-à-dire les terrassements et les chemins d’accès, mais aussi les structures porteuses des panneaux (75€), les câbles en courant continu (50€) pour relier les modules aux onduleurs, les frais d’installation (50€) c’est-à-dire le montage des structures porteuses, des panneaux et des câblages jusqu’aux onduleurs, et enfin le transformateur électrique (20€), le disjoncteur (5€) et la connexion du système au réseau électrique (60€).

L’institut Fraunhofer estime que le coût des modules PV (550€/kWc aujourd’hui) pourrait tomber à 140-360€ en 2050 selon le scénario retenu. Voir davantage en cas de rupture technologique (par exemple dans le domaine des cellules PV organiques), éventualité non prise en compte par les auteurs dans cette étude volontairement conservatrice. Celui des onduleurs (110€ aujourd’hui) à 23-39€ en 2050. Celui des autres éléments (340€ aujourd’hui) à 120-210€.

Le coût du kWh obtenu peut être facilement calculé à partir de ces données. Selon l’insolation, qui est bien entendu plus élevée en Espagne qu’en Allemagne, un coût du kWh de 4 à 6 centimes est attendu en Europe pour 2025, atteignant 2 à 4 centimes en 2050. Il est de 9 centimes aujourd’hui en Allemagne, contre 40 centimes en 2005. Les auteurs de l’étude remarquent que les coûts de production du PV à Dubaï sont équivalent à ceux observés en Allemagne. En effet dans cet émirat le prix du kWh solaire PV est à présent de 5 centimes d’€ et l’insolation est 70% supérieure à celle de l’Allemagne.

Le solaire à moins de 2 centimes en 2050

En 2035, dans le sud de la France, le coût du solaire pourrait glisser à 3 centimes le kWh, puis à 1,9 centimes en 2050 dans l’hypothèse d’un taux d’intérêt de 5%. A un coût aussi faible, équivalent à celui de la grande hydraulique c’est-à-dire à l’électricité la meilleur marché du monde, parcourir 100 kilomètres avec une voiture électrique standard qui consomme 15 kWh sur cette distance ne coûtera que 29 centimes. Le Paris-Lyon pour 1 euro et demi.

1,9 centimes d’euros c’est un prix 8 fois inférieur à l’estimation du coût de production du kWh issu du réacteur nucléaire ASTRID, un générateur alimenté au plutonium (un poison redoutable) et refroidi au sodium qui tente de faire renaître SuperPhénix de ses cendres. « Au stade d’avant-projet, ce projet de réacteur de 600 MWe est déjà doté d’un budget dépassant les 600 millions d’euros, argent public issu du programme des investissements d’avenir » souligne Le Journal de l’Energie. Soit assez pour financer intégralement 600 MW de centrales solaires produisant 740 GWh par an et répondant aux besoins électriques de 100.000 foyers moyens Français. Alors que l’EPR constitue un échec commercial cuisant du fait de son coût entrainant Areva vers les fonds abyssaux, il est surprenant que l’état Français sacrifie autant d’argent public pour un nouveau projet dont on sait à l’avance que le coût sera encore plus élevé et donc non compétitif.

Le grand parc solaire (300 MW) en construction près de Bordeaux délivrera dès la fin 2015 une électricité au prix de 10,5 centimes le kWh. Mais, selon le groupe Neoen, ce prix serait de 9 centimes si les barrières douanières visant les panneaux chinois étaient supprimées. En Provence l’insolation est 25 à 30% plus élevée qu’à Bordeaux. Et bien entendu, plus on produit d’électricité par kW investi, meilleure marché est l’électricité.

L’Union européenne à 28 dépense 400 milliards d’euros en achats d’hydrocarbures et d’uranium chaque année. C’est donc se tirer une balle dans le pied que d’augmenter artificiellement avec des barrières douanières le coût des panneaux solaires asiatiques initialement très bon marchés, panneaux qui contribuent à réduire considérablement la facture des importations énergétiques : 1€ investi dans un module PV asiatique permet aujourd’hui d’installer un système PV complet de 2 Watts permettant de produire en France 61 kWh d’électricité en 25 ans. Et ainsi de pouvoir parcourir 400 kilomètres en voiture électrique, soit une économie d’environ 24 litres de carburant produit à partir d’hydrocarbures importés. Avec un prix du pétrole brut à 50 centimes le litre (80 € le baril), ces 24 litres permettent de réduire les importations pétrolières de 12 €. Bilan: chaque euro dépensé dans un panneau solaire asiatique permet d’améliorer le solde de la balance commerciale Française de 12-1 = 11€. Le solaire permet également de brûler moins de gaz dans les centrales thermiques, et ainsi de réduire la dépendance envers la Russie.

Les modules PV représentent aujourd’hui la moitié du coût d’un système PV complet en Allemagne : l’autre moitié contribue à créer des emplois locaux. Comme l’indique le Programme des Nations Unies pour l’Environnement (table 8 page 218 de ce rapport), un MW de solaire PV génère en moyenne 9 fois plus d’emplois qu’un MW de centrale à charbon ou au gaz. Importer des panneaux asiatiques bon marché c’est contribuer à la création massive d’emplois en France.

40% de l’électricité mondiale provenant du photovoltaïque ?

L’institut Fraunhofer, dans son scénario le plus optimiste, estime que jusqu’à 40% de l’électricité mondiale pourrait provenir du solaire PV à horizon 2050. Chaque doublement de la capacité mondiale installée conduit à une baisse de 20% des coûts. Des cinétiques similaires ont été observés pour d’autres produits, comme par exemple les téléphones mobiles, les ordinateurs et les écrans plats. Le paramètre clé est le nombre de doublements qui se produiront entre 2015 et 2050. Le « scénario 1 » table sur 5,4 doublements, le « scénario 4 » sur 7,9. Les deux autres sont intermédiaires.

La capacité de production des usines de fabrication de panneaux PV à l’échelle mondiale est d’environ 40 GW par an (2014). Dans le « scénario 1 », le plus pessimiste, cette capacité atteindra 175 GW par an en 2050, permettant de produire 6.000 GW de panneaux entre 2015 et 2050. Et dans le « scénario 4 » on parviendra à 1780 GW par an, soit une puissance cumulée de 36.000 GW sur la période considérée.

Cette étude publiée en février 2015, absolument incontournable pour les décideurs écoresponsables, est le fruit de trois Workshops entre experts organisés à Berlin, Bruxelles et Freiburg en mai 2014, ainsi que d’échanges avec les meilleurs spécialistes du secteur. Il s’agit de chercheurs (scientifiques), de législateurs et d’experts de l’industrie: spécialistes des modules PV et des onduleurs, développeurs de projets solaires, représentants de groupes énergéticiens et investisseurs. L’institut Fraunhofer est l’équivalent de l’INES (Institut National de l’Energie Solaire) en France. Agora EnergieWende, initiative coinjointe de la Mercator Foundation et de la European Climate Foundation, est dirigée par le Docteur Patrick Graichen, ex-Directeur du département énergie et climat du gouvernement fédéral Allemand.

La majorité des rapports gouvernementaux et des différentes organismes internationaux « sous-estiment fondamentalement le rôle du solaire dans les systèmes énergétiques futurs » insistent les auteurs de l’étude. « Basées sur des données périmées des estimations de coûts, la plupart des scénarios modélisant les systèmes électriques futurs aux échelles domestiques, régionales et globales ne prévoient qu’une petite fraction de solaire. Les résultats de notre analyse indiquent qu’une révision fondamentale des systèmes électriques futures dans une perspective de coûts optimisés est nécessaire. »

Le changement, c’est mainternant.

Par Olivier Daniélo

L’étude « Current and Future Cost of Photovoltaics », dont les co-auteurs sont Johannes N. Mayer, Simon Philipps, Noha Saad Hussein, Thomas Schlegl et Charlotte Senkpiel (82 pages, 72 illustrations, 10 tableaux et 24 références bibliogaphiques de haute qualité) est disponible à cette adresse :

Environnement: l’UE encore loin de ses objectifs (rapport)

Les politiques menées par l’Union européenne (UE) ont eu des effets bénéfiques, reconnaît toutefois l’Agence européenne de l’environnement dans un rapport intitulé « L’environnement en Europe. Etat des lieux et perspectives 2015 ». « Aujourd’hui, les Européens jouissent d’un air et d’une eau plus purs, moins de déchets sont envoyés à la décharge et plus de ressources sont recyclées », souligne-t-elle dans ce document qui paraît tous les cinq ans.

L’UE a lancé sa politique environnementale dans les années 70 et s’est fixé ensuite pour objectif de « vivre bien dans les limites de la planète » d’ici à 2050. A mi-chemin, elle est encore loin du but.

C’est particulièrement le cas concernant la biodiversité qui « continue à être érodée ». Avec 60% des espèces protégées et 77% des types d’habitats dans « un état de préservation défavorable », l’Europe n’est pas près d’atteindre son objectif de stopper la baisse de la biodiversité d’ici à 2020.

La situation est particulièrement inquiétante pour la faune et la flore marines. Les fonds marins sont abîmés, les eaux polluées, plus acides et envahies par des espèces invasives. Si la surpêche a diminué dans l’océan Atlantique et en mer Baltique, le tableau est plus sombre en Méditerranée: 91% des stocks y étaient victimes de surpêche en 2014.

A l’avenir, les impacts du changement climatique devraient s’aggraver et les causes de la perte de diversité perdurer, selon le rapport.

La pollution de l’air et la pollution sonores « continuent d’avoir de sérieux impacts sur la santé dans les zones urbaines ». En 2011, environ 430.000 morts prématurées dans l’Union européenne ont été attribuées aux particules fines contenues dans l’air. Et l’exposition au bruit « contribue tous les ans à au moins 10.000 morts prématurées par malaise cardiaque ».

Les émissions de gaz à effet de serre ont baissé de 19% depuis 1990, malgré une augmentation de 45% de la production économique, indique le rapport. L’UE s’est fixé pour objectif de les réduire d’au moins 40% d’ici à 2030 par rapport à 1990.

La crise financière de 2008 et les difficultés économiques qu’elle a engendrées « ont contribué à réduire certaines pressions sur l’environnement ». « Reste à voir si ces améliorations seront durables », souligne-t-il.

Le rapport appelle à des transformations fondamentales en matière d’alimentation, d’énergie, de logement, de transport, de finances, de santé et d’éducation pour relever les défis environnementaux.

« Nous avons 35 ans pour faire en sorte de vivre sur une planète durable d’ici à 2050 », souligne le directeur de l’Agence, Hans Bruyninckx, appelant à « agir maintenant ».

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

L’économie technologique révolutionne les méthodes traditionnelles de production (étude)

Du « cloud » (l’informatique dématérialisée en ligne) à l’analyse numérique, les nouvelles techniques ont maintenant investi l’industrie manufacturière, affirme la National Academy of Engineering (NAE), un institut créé par le Congrès américain.

« Les développements dans la collecte des données, les techniques de production numériques et la création collaborative (crowd sourcing) ouvrent de grandes possibilités pour les entreprises et leurs dirigeants afin de mieux comprendre leurs clients et leurs souhaits, optimiser la conception et les processus de production, découvrir de nouveaux marchés et avoir accès à de nouveaux investissements », affirme cette étude.

Le secteur pharmaceutique notamment bénéficie de nouvelles applications qui permettent aux gens de s’informer sur leur état de santé et de prendre leurs médicaments quand il le faut. Dans l’industrie automobile, ce sont les opérations d’entretien qui en bénéficient.

Certaines entreprises américaines ont décidé de rapatrier leurs activités aux Etats-Unis pour être plus proches de ces nouvelles méthodes de production et de développement. Le travail change également avec la disparition de tâches répétitives, estime la NAE.

« L’emploi dans le secteur manufacturier aux Etats-Unis s’oriente vers des connaissances qualifiées dans des secteurs comme la robotique, les matériaux composites avancés et l’identification par radio à haute fréquence de pièces détachées », ajoute-t-on de même source.

Dans une usine du constructeur aéronautique Boeing, dans l’Etat de Washington (nord-ouest), les techniciens utilisent des machines recourant au positionnement par GPS pour assembler des pièces de l’avion de nouvelle génération 787 « Dreamliner ».

Selon le rapport, jusqu’à 50% des emplois aux Etats-Unis vont être affectés d’une manière ou d’une autre par les changements technologiques. Une usine de construction automobile, par exemple, tourne aujourd’hui avec un tiers des employés qu’elle avait encore en 1965 alors que les automobiles sont devenues de plus en plus sophistiquées et fiables.

L’emploi dans le secteur manufacturier est parallèlement passé de 19 millions de personnes en 1980 à 11,5 millions en 2010, selon les statistiques officielles.

L’étude pointe toutefois une « inadéquation » entre les qualifications demandées aux ouvriers et celles qu’ils possèdent, notamment pour ce qui est de l’informatique.

« Développer les qualifications et créer des emplois qualifiés sont la meilleure façon d’aider des travailleurs qui sont restés derrière dans le secteur manufacturier et l’économie en général », souligne Nicholas Donofrio, un ancien responsable du groupe informatique IBM et président du Comité qui a rédigé le rapport.

Celui-ci recommande au Congrès de développer des incitations à destination des entreprises pour qu’elles investissent dans des programmes de formation et une réforme de la politique d’immigration pour laisser davantage de personnes avec des qualifications technologiques travailler aux Etats-Unis.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Pourquoi conduire des projets d’éco-innovation ?

La réglementation, la demande des clients, la minimisation des risques juridiques, mais aussi des considérations économiques (minimisation de l’utilisation de matière premières et d’énergie), tout conduit les entreprises à prendre en compte les enjeux environnementaux dans la conception de leurs produits et services.

C’est la démarche d’éco-conception dans laquelle se lancent de nombreuses entreprises  Son objectif est de diminuer l’impact environnemental global du produit,  en considérant les différents impacts potentiels sur l’environnement et  en agissant sur l’ensemble des étapes de son cycle de vie.

La démarche d’éco-innovation est plus ambitieuse, mais aussi potentiellement plus porteuse de développement à terme. L‘environnement y est perçu comme une nouvelle valeur de développement de l‘entreprise. L‘environnement n‘est plus uniquement associé au développement du produit lui-même mais au développement d‘une nouvelle offre et/ou la mise en place d‘un nouveau modèle économique de l‘entreprise. Cette démarche se focalise sur la valeur ajoutée pour l’utilisateur  et vise une amélioration plus radicale de l’offre qui peut être un produit ou une combinaison produit/ service.

Ce processus d’éco-innovation passe généralement par une étape :

  • d’analyse initiale, pour identifier la stratégie de l’entreprise, et définir un profil environnemental et sociétal  d’un produit/service référence,
  • de créativité, ou éco-idéation qui  consiste en la mise en place de groupes de travail pour  générer des idées éco-innovantes. Durant cette phase, le groupe doit utiliser un ensemble d’outils l’aidant dans son processus créatif. Une fois les idées générées, cette première étape se conclue par une évaluation du potentiel environnemental et sociétal de ces idées,
  • le développement et la maturation des concepts éco-innovants, et une identification des modèles économiques associés.

Pour y arriver, un certain nombre d’outils et méthodes ont été développés pour accompagner des projets d’éco-innovation dans les entreprises : des outils pour réaliser un profil environnemental, des outils pour aider les équipes projet à clarifier le besoin en terme environnemental, des outils plus stratégiques qui définissent des axes de travail en éco-innovation (par exemple des lignes directrices), ou encore des outils pour aider les groupes à générer des idées éco-innovantes.

Ainsi, dans un contexte de forte concurrence, l’éco-innovation s’avère être un levier de croissance intéressant en permettant d’anticiper les futures réglementations environnementales, mais aussi d’anticiper les besoins des clients. Par ailleurs, l’éco-innovation peut avoir des effets positifs sur le management interne de l’entreprise car cela exige une meilleure coopération et une équipe projet transversale: marketing pour identifier les comportements, fabrication pour collecter les données en interne, achats pour obtenir des données auprès des fournisseurs, logistique pour les données sur les distances parcourues par le produit, etc.

Transformer l‘activité d‘une entreprise, et l‘orienter vers une activité durable demande une remise en cause souvent profonde de son modèle économique, ainsi que de son fonctionnement interne. Pour en savoir plus, il existe le réseau de recherche en éco-conception de systèmes durables EcoSD qui organise le 12 Mars 2015 à Paris son Atelier Thématique Annuel (ATA) 2015 sur le thème « Les défis de l’éco-innovation : de l’éco-idéation aux business models durables ».

Co-organisé par l’APESA, l’Université de Technologie de Compiègne et CentraleSupélec,  cet atelier abordera toutes les dimensions de l’éco-innovation (conceptuelle, institution­nelle, économique, réglementaire) en y intégrant l’approche territoriale, mais aussi sociétale. Il sera présenté un ensemble d’approches pour orchestrer un processus d’éco-innovation depuis les phases d’éco-idéation jusqu’à la maturation des concepts, de façon à favoriser la mutation du « cœur de métier » de l’entreprise, en permettant l‘identification de partenaires adéquats et en favorisant ainsi la mise sur le marché de ces éco-innovations.

Atelier Thématique Annuel EcoSD : « Les défis de l’éco-innovation : de l’éco-idéation aux business models durables »

9h00-17h30, 12 mars 2015, La Recyclerie, 83 boulevard Ornano, 75018 Paris
Contact et informations : francois.cluzel[@]centralesupelec.fr
La journée sera animée en anglais. L’inscription est gratuite et ouverte à tous dans la limite des places disponibles (100 places). L’inscription inclut la participation à l’événement, le petit-déjeuner, le déjeuner et les pauses.

Par Benjamin Tyl, ingénieur de recherche (APESA), François Cluzel, enseignant-chercheur (CentraleSupélec) et Flore Vallet, enseignant-chercheur (Université de Technologie de Compiègne), François Cluzel, enseignant-chercheur (Ecole Centrale Paris)

Le tabac est un ennemi mortel du fœtus

17,8% des femmes enceintes continuent à fumer au 3ème trimestre de la grossesse. Ce chiffre révélé par le Baromètre santé 2014 de l’Institut national de prévention et d’éducation pour la santé (Inpes) pointe du doigt une exception française qui perdure. La proportion de fumeuses enceintes n’évolue pas depuis plusieurs années, malgré une dangerosité avérée pour le bébé. 

En effet, le tabagisme serait à l’origine de plus d’un tiers des grossesses utérines et triple les risques de faire une fausse-couche au premier trimestre. Sans forcément mettre un terme à la grossesse, le tabac impacte très négativement le développement du fœtus. Tout d’abord, le sang de la future maman étant moins oxygéné du fait d’un surplus de CO, le bébé reçoit moins d’oxygène, d’où un défaut d’oxygénation chronique. Cela peut se traduire par un ralentissement des battements cardiaques ou encore une moindre tonicité dans le ventre de la mère. Les apports énergétiques étant eux-aussi abaissés, le bébé grandit moins que les autres. Ainsi le bébé d’une femme ayant fumé 10 cigarettes par jour pèsera 200g de moins en moyenne, soit 7-8% de moins. Parmi les autres effets  on retrouve sans surprise un taux d’asthme plus élevé chez les enfants et une plus grande fragilité immunitaire. 

Malgré tous ces dangers, les fumeuses ont du mal à renoncer. Manque d’information, de volonté, peur de grossir sont autant de frein à l’arrêt de la cigarette. Pour lutter contre le tabac pendant la grossesse la ministre de la santé Marisol Touraine a annoncé  la mise en place d’un logo apposé sur tous les paquets de cigarettes mettant en garde les femmes enceintes. Cette mesure devrait être appliquée au plus tard au deuxième semestre 2015.

Pour s’informer et se faire accompagner dans l’arrêt du tabac, contacter Tabac info service au 39 89.

Par Audrey Loubens

La centrale nucléaire de Fessenheim totalement à l’arrêt

Samedi à 18H55, l’unité de production n°1 « a été mise à l’arrêt suite à un défaut d’étanchéité constaté sur une tuyauterie située en aval du condenseur, dans la salle des machines (hors zone nucléaire) », a expliqué EDF dans un communiqué.

« Les équipes de la centrale réalisent actuellement un diagnostic pour préciser les causes exactes de cet événement », a ajouté EDF, précisant que cet événement n’avait « aucune conséquence sur la sûreté des installations, l’environnement et la sécurité du personnel ».

Depuis la nuit de vendredi à samedi, la seconde unité de production de Fessenheim est aussi arrêtée, pour plusieurs semaines. Mais cet arrêt était programmé pour maintenance et rechargement du combustible.

Installée en bordure du Grand Canal d’Alsace et dotée de deux réacteurs de 900 mégawatts chacun, Fessenheim est la plus vieille centrale en activité du parc nucléaire français (depuis 1978).

En raison de son âge notamment, les antinucléaires réclament sa fermeture et son démantèlement depuis des années.

Avec la mise en service prévue en 2017 de l’EPR de Flamanville (Manche), Fessenheim devrait fermer, conformément à une promesse de campagne de François Hollande.

Ce n’est pas la première fois que Fessenheim se retrouve complètement à l’arrêt de manière imprévue. En avril dernier, deux incidents avaient touché ses deux unités de production à quelques jours d’intervalle. L’un provenait déjà d’un problème d’étanchéité de sa tuyauterie d’alimentation en eau.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Un projet de centrale marémotrice géante dévoilé au Royaume-Uni

Ce projet consiste à ériger près de Cardiff un lagon artificiel, dans l’estuaire de la Severn, ce fleuve qui sépare le Pays de Galles du sud-ouest de l’Angleterre.

Ce lagon serait équipé de 90 turbines exploitant les marées pour produire de l’électricité, a expliqué dans un communiqué Tidal Lagoon Power, la société à l’origine du projet.

Par son ampleur, ce projet dépasse a priori toutes les installations marémotrices existantes ou en projet. L’usine marémotrice de Cardiff aurait une capacité énorme, qui pourrait aller de 1.800 à 2.800 mégawatts selon le schéma retenu, soit l’équivalent de deux ou trois réacteurs nucléaires de taille moyenne.

De quoi alimenter en électricité 1,5 million de foyers, soit plus que la totalité des habitants du Pays de Galles, et ce pendant 120 ans, selon Tidal Lagoon Power.

En comparaison, la célèbre centrale marémotrice de la Rance, en Bretagne (ouest de la France), mise en service dans les années 1960, dispose d’une capacité de 240 mégawatts seulement.

Longtemps la plus grande installation du genre, l’usine de la Rance a été supplantée en 2011 par la centrale de Sihwa, en Corée du Sud, pays où une autre usine marémotrice de plus de 1.000 mégawatts devrait être inaugurée cette année, à Incheon.

Le projet de Cardiff n’en est toutefois qu’à ses débuts. Tidal Lagoon Power espère soumettre une demande de permis de construire en 2017, en vue d’une mise en service potentielle en 2022.

Le coût total du projet n’est pas chiffré mais l’entreprise estime que pour être rentable, l’électricité produite devrait vendue entre 90 et 95 livres par mégawattheure, un prix de revient proche des nouveaux réacteurs nucléaires projetés au Royaume-Uni.

Si la taille du projet donne le tournis, l’entreprise n’en est pas à son coup d’essai : Tidal Lagoon Power est déjà derrière un projet de centrale du même type dans la baie de Swansea, toujours au Pays de Galles, d’une capacité plus modeste de 320 mégawatts, qui lui permettrait de démontrer la faisabilité de sa technologie, et constituerait une première mondiale.

La remise éventuelle d’un permis de construire pour ce projet pilote, qui suscite l’intérêt officiel du gouvernement britannique, est attendue en juin.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Nouvelle sortie orbitale de deux astronautes pour préparer l’ISS aux futurs vaisseaux habités

Les Américains Barry Wilmore, commandant de l’équipage de l’ISS et Terry Virts, ingénieur de vol, ont émergé de la chambre de décompression de la Station à 11H52 GMT, une vingtaine de minutes plus tôt que prévu.

La Nasa a donné son feu vert à cette troisième sortie après avoir discuté d’une infiltration d’eau mineure dans le casque de Terry Virts à la fin de la précédente expédition orbitale le 25 février.

Les responsables de la mission ont conclu vendredi que « les systèmes de refroidissement du scaphandre étaient en bon état de fonctionnement ».

La craindre de la réapparition de ce dysfonctionnement récurrent avait retardé de 24 heures la première sortie orbitale il y a une semaine pour examiner davantage le fonctionnement des deux scaphandres spatiaux.

Ce problème avait contraint en 2013 l’astronaute italien Luca Parmitano de l’Agence spatiale européenne (ESA) de regagner la Station en urgence alors que son casque s’était rempli d’eau à moitié.

Pendant cette excursion de près de sept heures ils doivent installer plus de cent mètres de câblage et des antennes pour que les futurs équipages de ces vaisseaux puissent communiquer avec l’ISS.

Pour Barry Wilmore (52 ans), il s’agit de la quatrième sortie dans l’epace de sa carrière et la troisième pour Terry Virts (47 ans).

C’est également la 187e expédition consacrée à l’assemblage et à l’entretien de l’ISS depuis le début de sa construction en 1998.

Comme elle l’avait fait pour les deux premières sorties dans l’espace, l’astronaute italienne de l’ESA, Samantha Cristoforetti, assiste dimanche les deux réparateurs de l’espace en coordonnant cette chorégraphie orbitale. Elle est aussi aux commandes du bras télémanipulateur, Canadarm2.

Les travaux effectués au cours de ces trois sorties dans l’espace permettront notamment d’installer ultérieurement des adaptateurs pour l’amarrage des deux futurs vaisseaux construits par les sociétés privées SpaceX et Boeing.

Ces capsules achemineront des astronautes à la Station à partir de 2017 dans le cadre de contrats avec la Nasa.

Les Etats-Unis mettront ainsi fin à leur dépendance vis-à-vis des vaisseaux Soyouz russes pour transporter leurs astronautes jusqu’à l’ISS depuis la fin des vols de la navette spatiale. La Nasa paye actuellement plus de 70 millions de dollars le siège à l’agence spatiale russe.

Les deux installateurs de l’espace avaient également longuement lubrifié mercredi dernier un grand nombre de mécanismes du bras télémanipulateur de la Station, Canadarm2.

Les deux adaptateurs d’amarrage eux-mêmes seront livrés plus tard cette année à l’ISS par la capsule Dragon de SpaceX. Ils seront alors attachés robotiquement.

Dans le cadre de cette reconfiguration, un module de stockage de fret, actuellement attaché sur le module américain Unity, sera aussi déplacé pour laisser la place pour un des deux nouveaux ports d’amarrage. Il sera fixé sur Tranquility, un module d’habitation américain.

Le nouveau vaisseau de Boeing, le CST-100, d’une capacité de sept places, sera la première capsule privée habitée à s’amarrer à la Station en 2017. La capsule Dragon V2 de SpaceX, également capable de transporter sept astronautes, suivra peu après.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

La Pérovskite dope le rendement des cellules solaires en silicium

17%. C’est le rendement d’une cellule solaire obtenu par l’équipe de Michael McGehee. Nettement mieux que les 11.4% de rendement de la cellule en silicium d’origine. Leurs travaux publiés dans Energy & Environmental Sciences révèlent l’utilisation d’un deuxième matériau, la pérovskite. Seule, la pérovskite n’offre pas de performances spectaculaires.

Lors de sa première utilisation en tant que cellule solaire, le minéral n’affichait qu’un petit 3.8% de rendement. Mais en seulement 5 ans, les acteurs du monde de la recherche ont nettement amélioré sa performance qui atteint désormais environ 12%.  Un gain rapide qui fait de la pérovskite un matériau prometteur et attractif, d’autant qu’il ne coûte pas cher : une cellule en pérovskite est 5 fois moins chère que son homologue en silicium. Mais la cellule solaire en silicium conserve une avance notable avec un rendement moyen de 15%, et un maximum en laboratoire de près de 25%.

Si des scientifiques coréens ont réussi à obtenir un rendement record de 20% pour une cellule en pérovskite, cela reste très inférieur aux performances obtenues avec le silicium.

Habités par l’adage « L’union fait la force », les chercheurs de l’université de Stanford ont décidé d’empiler une cellule en silicium avec une cellule en pérovskite. Bingo ! La cellule en silicium avait un rendement de 11.4%, celle en pérovskite de 12.7%, mais l’ensemble permet un rendement de 17%. Pour comprendre d’où vient l’amélioration, il faut regarder du côté du spectre d’absorption. Le silicium capte les photons des domaines du visible et de l’infrarouge, tandis que la pérovskite absorbe uniquement ceux du visible, mais dans la partie haute énergie. Une complémentarité exploitée avec succès par les chercheurs de Stanford.

Si l’évolution du rendement des cellules solaires à base du couple silicium/pérovskite suit celle des cellules en pérovskite, les panneaux solaires vont devenir ultra-rentables !

Par Audrey Loubens

Ces matériaux utilisent la photocalyse pour purifier l’environnement

Cela se passe au fond d’une vallée de l’Isère : Des riverains excédés des mauvaises odeurs provenant de l’usine de papier du coin se révoltent à grand coup de pétitions ou encore de création d’associations. Disons-le, ça sent le roussi ! Pour tenter de régler ces querelles de voisinage, la société finlandaise Ahlstrom essaie de couvrir les émanations de sa papeterie par des pulvérisations d’odeur de rose. Peine perdue, non seulement cela sent toujours mauvais, mais en plus cela attire les mouches et autres insectes. La société n’est plus du tout en odeur de sainteté !

Heureusement, en partenariat avec Locabri, elle met au point un système innovant et écologique pour soulager le nez des habitants : le bâtiment anti-odeur. Breveté en 2005, celui-ci repose sur le couplage entre un filtre actif avec de la photocatalyse. Du charbon actif, capable d’adsorber 20% de son poids, est pris en sandwich entre des grilles de matelas fibreux. Sur l’une des faces, on dépose du dioxyde de titane qui jouera, grâce aux UV du soleil, le rôle de photocatalyseur. Un système de flux d’air apporte les molécules sur le filtre pour y être adsorbées. La photocatalyse permet de nettoyer le filtre en dégradant les polluants capturés dans le charbon actif. En pratique, le bâtiment anti-odeur consiste en une tente souple dans laquelle on a découpé des panneaux pour y encastrer les fenêtres contenant le système anti-odeur.

Dans ce cas, le système de dépollution permet d’assainir un bâtiment précis, mais il est possible d’envisager de dépolluer des surfaces plus étendues, comme des routes ou des murs. C’est le cas avec le revêtement routier NOxer®, mis au point par Eurovia, filiale de Vinci. Il s’agit d’un enrobé drainant recouvert d’un coulis à base de ciment contenant du dioxyde de titane. Grâce aux UV et au dioxygène de l’air, le TiO2 agit sur les oxydes d’azote pour les transformer en nitrates. Ceux-ci seront ensuite balayés par l’eau de pluie. En laboratoire, le revêtement dépollue 90 % de l’air mis en contact.

Toutefois, en pratique la dépollution est plus difficilement quantifiable puisqu’elle dépend de nombreux facteurs environnementaux comme l’ensoleillement, le vent ou encore les poussières. Ce revêtement a été utilisé la première fois à Dinan en 2006, si depuis d’autres villes ont choisi d’opter pour la chaussée dépolluante, d’autres l’ont utilisé pour recouvrir des murs anti-bruit. D’autres matériaux efficaces grâce à al photocatalyse existent, comme les plaques de plâtre ActivAir de la société Placo capables de réduire la concentration de composés organiques volatils (COV) ou encore les dalles EcoGranic d’UrbaTP qui revendique 75% de dépollution de l’air en termes de COV et jusqu’à 80% pour les oxydes d’azote.

De son côté, Saint Gobain Glass a appliqué le principe au verre, de façon à créer Bioclean, un verre cumulant les propriétés auto-nettoyantes et hydrophiles. Le TiO2 permet de dégrader les polluants grâce aux UV puis la propriété hydrophile permet de les éliminer très efficacement lors du rinçage qui ne laisse aucune trace après évaporation.

Les matériaux autonettoyants/dépolluants se retrouvent sur des supports de plus en plus variés comme des toiles, des plastiques ou encore des aciers comme ceux développés par Arval, filiale d’Arcelor Mittal subissant un traitement de surface à base de TiO2. Le succès de ces matériaux « verts » n’est pas près de s’essouffler, avec les utilisations urbaines mais aussi des applications dans le médical comme bactéricide et antiviral.

Par Audrey Loubens

Un nouveau matériau simule la cape d’invisibilité

Cette sorte de cape d’invisibilité mécanique est constituée d’un méta-matériau polymère présentant une microstructure spéciale. La clé du développement a été la précision de la microstructure réalisée. Le matériau cristallin a été créé avec une précision inférieure au micromètre, de manière à atteindre les propriétés mécaniques souhaitées.

Lors des premiers tests effectués, un demi-cylindre dur a été inséré dans le matériau. La structure du méta-matériau redirige les forces exercées par le doigt ou l’instrument de mesure de manière à dissimuler le demi-cylindre. A l’inverse, si une mousse légère ou plusieurs couches de coton étaient placées au-dessus du demi-cylindre, celui-ci serait difficile à ressentir en surface mais toujours détectable.

Le développement de ce matériau, complexe, a été permis par une méthode d’écriture laser directe mise au point par une spin-off du KIT, Nanoscribe. Le polymère artificiel a été choisi pour ses caractéristiques mécaniques spécifiques : dur à la pression, élastique au cisaillement. Des applications seront possibles d’ici quelques années, afin de produire des matériaux dont on maîtrisera parfaitement les caractéristiques mécaniques.

Source : Bulletins electroniques

Les quasi-cristaux, au service de l’impression 3D

Rangez trompettes et tocsins, ce n’est plus une surprise pour personne : la révolution initiée par les imprimantes 3D est bien en marche, avec une nette accélération depuis le début du XXIe siècle. Elle connaît une expansion telle que sa croissance mondiale est à deux chiffres depuis plus de dix ans.

Ses nombreuses applications – notamment dans l’industrie – et sa rapide démocratisation laisse penser que l’impression tridimensionnelle pourrait être l’un des éléments essentiels de ce que l’essayiste américain Jeremy Rifkin appelle « la troisième révolution industrielle ».

L’un des freins à l’avènement de cette nouvelle ère réside pourtant dans le choix des matériaux à disposition. Les industries automobile, aérospatiale et aéronautique ont, à titre d’exemple, de plus en plus recours à l’impression 3D pour fabriquer certains de leurs composants, mais le choix actuel des matériaux utilisés satisfait de moins en moins les exigences des géants de ces secteurs. Ils réclament avec insistance de nouveaux composites pour produire des pièces plus solides, encore plus légères, et dont les propriétés fonctionnelles seraient plus adaptées à leurs besoins.

Et si la solution venait… des quasi-cristaux ? Découverts en 1982 par le scientifique israélien Dan Shechtman – découverte qui lui valut le prix Nobel de chimie en 2011 – les quasi-cristaux sont en tout cas l’une des pistes étudiées par les chercheurs de l’institut Jean Lamour (université de Lorraine / CNRS), qui travaillent depuis plusieurs années sur la possible utilisation de matériaux composites à base de ces alliages métalliques dans les processus de fabrication additive.

Les quasi-cristaux sont des alliages métalliques complexes possédant certaines propriétés des cristaux – un spectre de diffraction essentiellement discret – mais dont la structure n’est pas périodique.

Le faible coefficient de friction (pour un alliage métallique) de ces composites, combiné à une assez bonne résistance à la corrosion ainsi qu’à l’usure font que ces matériaux semblent très prometteurs, notamment dans le domaine de l’impression 3D. Ils resteraient néanmoins intrinsèquement cassants, ce qui éliminerait d’emblée leur utilisation comme matériaux de base. Deux alternatives subsistent : utiliser ces alliages dans des composites à renfort particulaire, ou les utiliser comme revêtement.

Les composites en question, combinant alliages métalliques complexes et métaux, ont des propriétés mécaniques équivalentes à l’acier cuivré, mais… en moins dense.

Des pièces moins denses représentent du pain béni pour les industriels du transport, car elles permettent de diminuer la consommation de carburant en diminuant le poids d’un véhicule. L’un des coauteurs, Samuel Kenzari, rappelle qu’il est également possible de renforcer les composites à matrice polymère avec ces quasi-cristaux, et que des pièces utilisant ces technologies sont déjà disponibles dans le commerce.

Par Rahman Moonzur

Ce matériau est capable de se refroidir en plein soleil

La problématique du réchauffement climatique pourrait bien avoir trouvé sa solution. Un nouveau matériau vient d’être créé par les chercheurs de l’Université de Stanford. Sa propriété ? Evacuer de la chaleur directement dans l’espace !

Pour réussir une telle prouesse, les scientifiques ont empilés 7 couches  de dioxyde de silicium et d’oxydes d’hafnium sur du silicium. Ils ont ainsi façonné un disque de 20 cm de diamètre et de 1.8 mm d’épaisseur.

Cet empilement procure au matériau la propriété de réfléchir 97% de la lumière provenant du soleil mais aussi de se refroidir naturellement en émettant des ondes capables de traverser le ciel jusqu’à atteindre l’espace, c’est le refroidissement radiatif.

Aussi appelé effet de serre inversé, il s’agit de la propriété de rayonner certaines longueurs d’onde dans l’espace, au-delà de  l’atmosphère. Cela permet d’évacuer de la chaleur, et donc de se refroidir. Mais pour que cela marche, il faut que l’atmosphère soit transparente aux ondes de chaleur. Cette fenêtre de transparence concerne des longueurs d’onde comprises entre 8 et 13 m. Le matériau fabriqué émet exactement à l’intérieur de cette fenêtre thermique, ce qui lui permet d’abaisser sa température naturellement, sans recourir à aucune source d’énergie extérieure.

Parus dans Nature, ces travaux décrivent comment ce nouveau matériau exploite ses propriétés originales même en pleine journée, exposé au soleil. Les expériences menées par les auteurs de l’étude montrent que le matériau possède une puissance de refroidissement de 40.1W et peut se refroidir de 4.9°C par rapport à la température ambiante lors d’une exposition directe au soleil.

Ce matériau pourrait avoir plusieurs applications, de la climatisation de bâtiments à la lutte contre le réchauffement climatique. Toutefois, cela implique que le coût de fabrication en grande série est acceptable, d’un point de vue économique mais aussi en terme d’empreinte CO2.

Par Audrey Loubens

L’avenir de la super-hydrophobie

Il y a quelques années, une équipe de chercheurs de l’institut d’optique de l’université de Rochester, dans l’État de New-York, est parvenue à développer un procédé permettant de rendre super-hydrophile différents matériaux. Leur succès fut si grand, et la super-hydrophilie si forte que, dans certains cas, l’eau pouvait jusqu’à défier la gravité en remontant doucement le long d’une surface traitée. Non-contents de leur découverte et conscients des parallèles à effectuer, les chercheurs se sont lancés un défi, en travaillant d’arrache-pied… sur le pendant hydrophobe de cette technologie.

Et leur approche a le mérite d’être pour le moins innovante. En lieu et place des habituels revêtements chimiques (que l’on peut retrouver, par exemple, sous forme de spray), l’équipe menée par le professeur Chunlei Guo a décidé d’appuyer sur un autre levier, en modifiant la surface-même des matériaux à traiter via une technique particulière de micro-gravure au laser. Le motif, unique, change la structure de la surface à la fois à l’échelle micro et à l’échelle nano.

La technique présente quelques sérieux avantages si on la compare aux revêtements super-hydrophobes traditionnels : une hydrophobie maximale, sans plus avoir besoin de se soucier de la dégradation des couches sur la surface traitée. D’après le professeur Chunlei Guo, il faudrait incliner la surface d’une poêle en Téflon de 70° pour qu’une goutte d’eau se mette à glisser, alors qu’il suffit d’une inclinaison presque négligeable pour se débarrasser des gouttelettes sur la nouvelle surface gravée au laser.

Pour rappel, l’hydrophobie se définit assez simplement : l’angle de contact d’une goutte d’eau, lorsqu’elle est sur une surface plane (localement), doit dépasser les 90 degrés. Au-delà de 150°, la surface est alors considérée comme étant super-hydrophobe. Un angle de contact égal à 180° signifie que la goutte d’eau est complètement sphérique, repoussant la zone de contact jusqu’à un simple point. À titre d’exemple, le Téflon d’une poêle n’est qu’hydrophobe, l’angle de contact moyen étant de 95°.

La super-hydrophobie présente de nombreux intérêts : outre ses évidentes qualités d’imperméabilisation, elle permet de lutter assez efficacement contre le gel, souvent fatal pour les isolants électriques, les lignes à haute-tension, ou le revêtement des ailes d’un avion. Elle est également efficace pour lutter contre la corrosion, et fournirait une option intéressante dans les domaines de la santé et de l’hygiène.

Par Rahman Moonzur

Crédit photo Rochester University / Chunlei Guo

Un gel contractile qui stocke l’énergie lumineuse

Afin de reproduire ce phénomène, une équipe de l’Institut Charles Sadron du CNRS menée par Nicolas Giuseppone, professeur à l’université de Strasbourg, a créé un gel de polymères capable de se contracter grâce à des moteurs moléculaires artificiels. Activés par la lumière, ces moteurs nanométriques enroulent les chaînes de polymères du gel qui se contracte alors sur plusieurs centimètres. Autre atout : ce nouveau matériau parvient à stocker l’énergie lumineuse absorbée. Cette étude est publiée dans Nature Nanotechnology le 19 janvier 2015.

En biologie, les moteurs moléculaires sont des assemblages protéiques très complexes capables de fournir un travail en consommant de l’énergie : ils participent aux fonctions essentielles du vivant comme la copie de l’ADN, la synthèse des protéines, et sont à l’origine de tous les processus de mouvement. Pris individuellement, ces moteurs ne fonctionnent que sur des distances de l’ordre du nanomètre. Mais en s’associant par millions, ils peuvent travailler de manière parfaitement coordonnée et leur action peut se répercuter à l’échelle macroscopique.

Depuis des dizaines d’années, les chimistes cherchent à produire ce type de mouvements à partir de moteurs artificiels. Pour y parvenir, les chercheurs de l’Institut Charles Sadron ont remplacé les points de réticulation d’un gel, qui raccordent les chaînes de polymères entre elles, par des moteurs moléculaires rotatifs, constitués de deux parties qui peuvent tourner l’une par rapport à l’autre si on leur fournit de l’énergie. Pour la première fois, ils ont réussi à faire fonctionner ces moteurs de façon coordonnée et pérenne dans le temps, jusqu’à l’échelle macroscopique : dès que les moteurs sont activés par la lumière, ils enroulent les chaînes de polymères du gel sur elles-mêmes ce qui a pour effet de le contracter.

De la même façon que les systèmes vivants, ces moteurs consomment de l’énergie pour produire un mouvement continu. Cette énergie lumineuse n’est cependant pas totalement dissipée : elle est transformée en énergie mécanique, par l’intermédiaire de l’enroulement des chaînes de polymères, et stockée dans le gel. Si le matériau est exposé de manière prolongée à la lumière, la quantité d’énergie contenue dans la contraction des chaînes de polymères devient très importante, allant jusqu’à provoquer une violente rupture du gel. Les chercheurs de l’Institut Charles Sadron cherchent donc, désormais, à tirer parti de cette nouvelle forme de stockage de l’énergie lumineuse, et à la réutiliser de façon contrôlée.

Source : CNRS

Du béton photovoltaïque

Ce nouveau matériau, appelé « DysCrete », est constitué d’un béton conducteur, d’une couche d’oxyde de titane capturant l’énergie solaire, d’un colorant (actuellement du jus de groseille) jouant le rôle d’électrolyte de la réaction, et d’une fine couche de graphite remplissant la fonction de seconde électrode. Enfin, l’intégralité du système est protégée par une couche supérieure transparente. L’innovation des chercheurs Hessois se situe dans leur capacité à intégrer le béton comme électrode (les systèmes existants disposent d’une couche supplémentaire jouant le rôle d’électrode).

L’objectif à terme est d’atteindre un rendement énergie électrique produite / énergie solaire reçue de 2%. Chiffre faible en apparence, mais à relativiser en prenant en compte les surfaces en jeu, bien plus importantes que dans le cas de panneaux photovoltaïques en silicium. D’autant que le système réagit aussi avec de la lumière diffusée, ce qui signifie qu’il aurait un rendement correct sur des façades orientées vers le nord (ou sud pour l’hémisphère sud).

Si un prototype a déjà été réalisé, le système doit encore faire ses preuves avant de passer à la phase industrielle : le Ministère fédéral pour l’environnement (BMUB) soutient ainsi le projet à hauteur de 150.000 euros jusqu’à mi-2015. Si le principe est posé, des évolutions sont donc encore à attendre quant à la composition des différentes couches du système.

5 matériaux de construction aussi design que performants

Bétons translucides

  • Litracon,  LiTraCon

La société hongroise LiTraCon (Light Transmitting Concrete)  a créé un béton translucide dès 2001. Comment ? En insérant 4% de fibres optiques entre les grains du béton. Sans lumière, ce béton a l’aspect d’un béton standard, mais dès qu’il est rétroéclairé le Litracon® laisse passer la lumière et permet de jouer sur les ombres d’éléments positionnés derrière. Seul inconvénient, son coût très élevé.

  • I Light, Italcementi

Les scientifique d’ Italcementi Group ont eu choisi d’incorporer de la résine et des adjuvants au ciment. Des inserts en polymères transparents permettent le passage de la lumière,  de quoi obtenir 20% de surface transparente. Un procédé qui permet d’abaisser les coûts par rapport à l’insertion de fibre optique. 

Ciment blanc

  • Bianco TX Millenium, Italcementi

Le cimentier  a breveté son ciment ultra-blanc  à l’occasion de la construction de l’église du Jubilée de Rome par l’architecte Richard Meier.

A base d’agrégats de marbre de Carrare pour la brillance, de métakaolin pour un aspect lisse, de dioxyde de titane comme pigment participant à la dégradation des polluants.

Verres ultra-transparents

  • Clarity, Guardian Industries

Le verre Guardian Clarity™ se veut une solution aux reflets indésirables. Ce vitrage antireflets est obtenu par dépôt d’un nuage de carbone sous vide par pulvérisation cathodique. Ce verre abaisse le facteur de réflexion à moins de 1% (antireflets double face), contre environ 8% pour un verre standard.

Une performance idéale pour les vitrines de magasin par exemple, qui s’assurent ainsi que les clients visualisent parfaitement les objets exposées, même par un fort ensoleillement. 

  • Vision-Lite, Saint-Gobain

Ce produit possède des qualités similaires au Guardian Clarity™ puisque le verre antireflets sgg Vision-Lite présente seulement 1% de réflexion résiduelle. Dans ce cas, une couche interférentielle est déposée sous vide par magnétron.

Avec une telle transparence, le sgg Vision-Lite et le Guardian Clarity™ sont une solution recherchée pour les devantures de magasins bien-sûr mais aussi les vitres de musée, de salles de contrôle mais aussi pour des panneaux publicitaires ou encore des cabines de commande d’engin.

Par Audrey Loubens

Biomimétisme, lorsque les scientifiques s’inspirent de la nature

Du verre rendu plus résistant par des micro-fissures

La nature est bien faîte et son observation peut se révéler très enrichissante comme le montre l’étude menée par des chercheurs de l’Université McGuill à Montréal et publiée dans la revue Nature Communications dans laquelle les travaux relatés spécifient qu’en s’inspirant des micro-fissures présentes dans la nacre ils ont pu obtenir un verre bio-inspiré 200 fois plus tenace qu’un verre classique.

Le verre est par nature fragile et il ne supporte pas bien les chocs. Pour remédier à ce fait, le chercheur François Barthelat explique avoir tracé des micro-fissures avec un laser dans des lamelles de verre; comme celles observées à l’intérieur de la nacre. Ainsi, en cas d’impact, l’énergie est davantage absorbée. Les fissures se déforment sous la pression mais ne se propagent pas, ce qui se traduit par une ténacité 200 fois plus importante que le verre de départ.

Cette technique devrait bientôt être vérifiée sur d’autres matériaux.

Quand les fenêtres font office de régulateur thermique

En hiver les déperditions de chaleur sont inévitables. Du coup, on chauffe plus que nécessaire. À l’inverse, l’été, on aimerait souvent que la température soit plus douce afin d’éviter de ressortir le ventilateur ou d’activer la climatisation quand on en dispose. Le professeur Ben Hatton de l’Université de Toronto a peut-être trouvé une solution à ce problème en créant un matériau bio-inspiré qui rendrait nos fenêtres moins coûteuses en énergie en les transformant en régulateur thermique.

Comme il l’explique dans un article écrit pour le journal scientifique Solar Energy Material and Solar Cells, le professeur Ben Hatton a utilisé une pellicule d’élastomère flexible et transparent, un polymère à base de polydimethylsiloxane (PDMS), qu’il a intégré aux fenêtres classiques. Or, les PDMS possèdent des vaisseaux à l’intérieur desquels circule de l’eau à température ambiante. À l’instar du réseau vasculaire interne de certains organismes, ces derniers peuvent agir comme un mécanisme de refroidissement. Le professeur prend d’ailleurs en exemple les « vaisseaux sanguins qui se dilatent pour augmenter le flux sanguin au contact de la peau afin d’augmenter le transfert de chaleur par convexion, tandis que la vasoconstriction (diminution du calibre des vaisseaux sanguins) limite le flux lorsque la peau est exposée au froid. »

Quand on sait que pour un bâtiment lambda, la facture est accaparée à 40% par ce problème de fenêtres, son idée s’avère des plus intéressantes. Mais cela en fera-t-il l’outil de contrôle thermique du futur ?

Le matériau céramique inspiré de la nacre

La résistance ne fait pas partie des avantages naturels des céramiques. Aussi il est fréquent de leur adjoindre des matériaux plus tenaces, d’origine métallique ou polymère, pour les renforcer. Malheureusement ce système à ses limites. C’est pourquoi une équipe de chercheurs français s’est inspiré du revêtement intérieur des ormeaux, composé à 95% de carbonate (l’aragonite), pour créer un matériau dix fois plus solide qu’une céramique, qu’elle ait été réalisée traditionnellement ou d’après une méthode plus sophistiquée.

Parue dans la revue Nature Materials, une étude réalisée par les équipes du Laboratoire de synthèse et fonctionnalisation des céramiques (CNRS/Saint Gobain) en collaboration avec le Laboratoire de géologie de Lyon : Terre, planètes et environnement (CNRS/ENS de Lyon/Université Claude Bernard Lyon 1) et le Laboratoire Matériaux : ingénierie et science (CNRS/INSA Lyon Université Claude Bernard Lyon 1) montre en effet comment ils s’y sont pris pour obtenir ce résultat.

Les chercheurs ont mis de l’alumine, une poudre céramique, en suspension dans de l’eau puis l’ont « congelé » progressivement jusqu’à obtenir des cristaux de glace. Cela a entraîné un auto-assemblage de l’alumine sous forme d’un empilement de plaquettes. En phase finale, le matériau a été densifié à haute température.

Voilà, il « suffisait » finalement d’inclure une étape de congélation dans le processus de création pour obtenir une céramique dix fois plus tenace que la moyenne. En bonus, cette méthode est applicable à d’autres poudres céramiques et son industrialisation ne semble pas poser de problèmes.

Des matériaux hydrophobe à l’effet lotus

Les feuilles de lotus ont la particularité de ne pas retenir les gouttes d’eau qui glissent sur leur surface. Des chercheurs de l’Institut de recherche et d’ingénierie des matériaux de Singapour se sont inspirés de cette capacité pour créer un matériau capable de faire la même chose avec de l’huile.

Il leur a fallu reproduire la surface de la feuille de lotus, faîte de micro-ruguosités, pour obtenir un revêtement superhydrophobe.

L’idée est de produire un matériau qui résiste à la pollution ou plutôt qui serait autonettoyant. Dans le cas d’un pare-brise par exemple, le passage de la pluie entraînerait les particules sales grâce à l’effet lotus. Cette faculté d’auto-nettoyage des surfaces hydrophobes a été observée dans les années 1970 bien que les premières utilisations dans le champ biomimétique n’aient eu lieu que vingt ans plus tard. Aujourd’hui, ces recherches intéressent toujours les industriels qui tentent toujours de découvrir de nouveaux matériaux aptes à rester propres.

Light Cocoon, la voiture bio-imprimée en 3D et bio-inspirée

Conçu par la firme allemande EDAG, ce nouveau bijou de technologie s’inspire ici, aussi surprenant que cela puisse paraître, d’un squelette recouvert de peau. Le prototype baptisé Cocoon reprend la structure de l’édition précédente « Genesis » présentée au salon de Genève. Il s’agissait d’un squelette « bionic body structure » imprimé en 3D mais dépourvu de « peau ». Or, c’est précisément à ce niveau que se distingue Light Cocoon puisque le châssis 3D est ici recouvert d’une fine membrane textile imperméable qui le protège des intempéries.

EDAG s’est adjoint les services de Jack Wolfskin, marque allemande de vêtements d’extérieur, pour fabriquer ce matériau ultra-léger et résistant surnommé « Texapore SoftShell 02+ » que l’on pourrait comparer à un K-Way. Environ 25% du poids normal d’une voiture de cet acabit pourrait être économisé de cette manière. En outre, le tissu laisse la lumière le transpercer, ce qui permet de voir la structure, y compris la nuit avec les leds internes et confère à la Light Cocoon un design forcément original. Ce nouveau concept sera dévoilé au prochain salon de Genève en mars.

Par Sébastien tribot