Les projets fous de google

Visionnaire et ambitieux, Google n’a pas peur d’envisager des projets encore très futuristes. Malgré des moyens colossaux, un laboratoire high tech et une armada de chercheurs et d’ingénieurs ultra-Geek, le géant américain sait aussi se montrer pragmatique et abandonner certains travaux. Parmi les projets mis de côté, certains présentent un caractère ludique alors que d’autre sont tellement fous que l’on se demande pourquoi avoir même commencé à s’y atteler. 

SkateBoard à lévitation

Ainsi, Google X a planché sur un skateboard volant, reposant sur la même technologie que les trains à lévitation existants en Asie. Problème : les équipes de Google n’ont jamais réussi à donner la maniabilité nécessaire pour envisager une commercialisation du produit. Ils ont quand même réussi à fabriquer un prototype miniature, sans pouvoir toutefois transposer ce succès à un skate volant de taille humaine. Ne s’appelle pas Doc qui veut. 

Ascenseur spatial

Un projet pourtant régulièrement évoqué est celui de l’ascenseur spatial, qu’il s’agisse de relier la Terre à la Lune ou la Terre à une plateforme orbitale, l’idée de rallier l’espace en appuyant sur un bouton est séduisante. Mais malgré tous leurs efforts, les ingénieurs de Google n’ont pas réussi. Leurs tentatives de fabriquer un tel système à base de nanotubes de carbone n’a pas été concluante, du fait qu’à ce jour personne n’est capable de fabriquer des nanotubes de qualité  de plus d’un mètre de long. Comme aucun autre matériau actuel ne se montre assez solide, le projet est mis de côté.

Capture d’astéroïde

Larry Page, à la tête du Google X  Lab, est aussi actionnaire de la société Planetary Resources, dont l’objectif est de développer un procédé pour récupérer sur les astéroïdes du minerai extrêmement précieux. La NASA avait d’ailleurs mis en ligne une vidéo montrant comment y arriver. Mais pour l’heure, malgré les gains soi-disant espérés, les investissements pour y parvenir sont tels que même Google en est dissuadé.

Téléportation

Décidément, la créativité de Google n’a pas de limite. Pour preuve ce projet un temps envisagé de réussir à téléporter l’homme. Après quelques temps d’étude, les ingénieurs ont convenu qu’aucune technologie actuelle ne permettrait de réaliser ce qui, en théorie pourtant, devrait être possible.

Mais Google n’a pas délaissé tous ses projets, aussi futuristes puissent-ils paraitre. Ainsi, ses têtes chercheuses planchent sérieusement sur la possibilité de transcender un esprit dans un ordinateur, à produire de la viande artificielle (le premier burger a été présenté en 2013), ou encore à concevoir le Brinbot, un robot capable de reproduire tous vos gestes à distance. 

Par audrey Loubens

Ne ratez pas la chute de la goutte de poix

L’expérience de la goutte de poix menée à l’université du Queensland en Australie depuis 1927 est sur le point d’aboutir pour la neuvième fois. Son objectif initial était de démontrer que certaines substances ayant l’apparence d’un solide sont en réalité des fluides, mais à très haute viscosité. Pour illustrer ce propos, le Professeur Thomas Parnell de l’université du Queensland a mis en place une expérience : dans un entonnoir bouché, il a versé de la poix chaude.

Trois ans plus tard, une fois la poix enfin refroidie, le bouchon de l’entonnoir est ôté, laissant ainsi à la poix toute possibilité de s’écouler.

Connue sous le nom de « l’expérience de la goutte de poix », cette mesure est célèbre pour sa longévité. Elle est d’ailleurs référencée dans le Livre Guiness des records comme la plus longue expérience en laboratoire continue.

En effet, il faut environ une dizaine d’années pour qu’une goutte se forme puis tombe, la chute elle-même ne durant que quelques dixièmes de secondes.

Autant dire que malgré une expérience presque centenaire, seules huit gouttes se sont écoulées à ce jour. Un évènement tellement rare que l’université a braqué une webcam sur l’entonnoir, retransmettant en live l’expérience et l’évolution de la poix au sein de l’entonnoir.

Ainsi, n’importe qui peut se connecter et espérer assister à la chute de la neuvième goutte de poix, à condition de regarder au bon moment car personne ne peut prédire quand celle-ci tombera. En revanche, on sait que la chute est imminente et attendue pour les semaines à venir.

Par Audrey Loubens

Comment « décarboner » la Chine, les USA ou l’Afrique du Sud d’ici à 2050 ?

L’ambition de cette initiative est d’aider la communauté internationale à progresser dans la lutte contre le changement climatique. La mobilisation, très insuffisante aujourd’hui, doit monter en puissance d’ici la conférence de Paris fin 2015.

A cette date, la communauté internationale s’est donné comme objectif de parvenir à l’accord le plus ambitieux jamais conclu sur les émissions de gaz à effet de serre (GES) à l’horizon 2025 ou 2030.

Le Deep Decarbonization Pathways Project (DDPP), lancé par l’Institut du développement durable (Iddri) et le Sustainable development solutions network (créé par l’ONU) en coopération avec l’Agence internationale de l’énergie (AIE), mobilise 30 institutions dans 15 pays représentant 75% des émissions totales de GES.

Il s’agit de l’Afrique du Sud, Australie, Allemagne, Brésil, Canada, Chine, Corée du Sud, France, USA, Inde, Indonésie, Japon, Mexique, Royaume-Uni et Russie.

Les chercheurs doivent répondre à la question: à quelles conditions tel ou tel pays peut parvenir, à l’horizon 2050, à plus ou moins 2 tonnes de GES par habitant et par an?

Cette moyenne permettrait de contenir le réchauffement à 2°C par rapport à l’ère pré-industrielle, l’objectif que s’est fixé la communauté internationale.

Il s’agit alors de préciser les modalités de cette transition énergétique comme les changements techniques, le style de production, ou les modes de consommation, ainsi que les contraintes et obstacles rencontrés par chaque pays.

En 2010, un Américain émettait un peu de plus de 17 tonnes de CO2 par an, un Chinois plus de 6 tonnes, un Français 5,7 et un Indien, 1,6.

L’idée est « de faire réfléchir chaque pays à sa trajectoire de décarbonation » et ancrer les négociations sur le climat dans « une logique à long terme », a expliqué mardi lors d’une conférence de presse Laurence Tubiana, présidente de l’Iddri.

En présentant les scenarios « les plus ambitieux possibles », ce projet pourrait aussi aider à tirer vers le haut les ambitions des différents pays en matière de réduction ou limitation d’émissions de GES.

Même si, précise Laurence Tubiana, ce projet relève de la « recherche » et « n’est pas destiné à préparer les soumissions des pays » dans le cadre des négociations climat, « les résultats préliminaires seront communiqués avant le sommet de Ban Ki-moon (secrétaire général de l’ONU) en septembre à New York » sur le climat.

Le rapport final sera lui transmis courant 2015 à la présidence française de la conférence de Paris.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Le gouvernement s’attaque aux perturbateurs endocriniens

Une stratégie nationale contre les perturbateurs endocriniens, ces substances chimiques capables de modifier le fonctionnement hormonal et d’avoir des impacts sur la santé, a été adoptée dans la matinée par le Conseil national de la transition énergétique (CNTE), une instance réunissant experts, associations, syndicats, entreprises et élus.

Cette stratégie, promise lors de la première conférence environnentale du quinquennat en septembre 2012, prévoit notamment de « soutenir la recherche », « développer l’innovation dans l’industrie » en promouvant des produits de substitution non toxiques ou « améliorer l’information des citoyens ».

Avant même la publication de cette stratégie « dans les tout prochains jours », Mme Royal a par ailleurs mis en avant des mesures qu’elle souhaiterait être rapidement mises en oeuvre.

Elle va demander aux entreprises de distribution et aux banques d’éliminer le bisphénol A dans les tickets de caisse et reçus de carte bancaire, « sans attendre des normes ou des lois ». La France doit? par ailleurs, « dans les prochaines semaines » proposer à l’Union européenne de « demander la substitution du bisphénol A » dans ces tickets.

La ministre souhaite aussi un renforcement des contrôles concernant l’éventuelle présence dans les jouets de phtalates, une substance interdite pour tous les jouets destinés aux enfants de moins de trois ans au niveau européen.

Mme Royal a enfin demandé à l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) une expertise ciblée sur cinq substances « suspectées d’être des perturbateurs endocriniens », dont les methyl-parabènes, utilisés comme conservateurs dans les aliments ou des produits pharmAceutiques.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Et aussi en
formation :

Reach/CLP : toute l’actualité d’avril 2014 2/2

FAQ sur les huiles essentielles

Le Helpdesk a mis en ligne les questions les plus fréquemment posées relatives aux huiles essentielles sur REACH et CLP.

Nouvelle consultation pour éviter les tests sur les animaux

15/04/2014

L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. 34 propositions sont concernées. Les informations relatives à ces substances sont à soumettre pour le 30 mai 2014.

Nouvelle version de REACH-IT disponible

16/04/2014

La dernière version de REACH-IT (Version 2.7) est maintenant disponible. Celle-ci présente de nouvelles conditions d’utilisation.

L’ECHA encourage les utilisateurs à se connecter régulièrement à leur compte afin de ne pas laisser de messages importants sans réponse. Avec cette mise à jour, une nouvelle version de IUCLID (Version 5.6) est également proposée.

R4BP 3.1 : logiciel d’application pour les biocides

16/04/2014

La nouvelle version R4BP 3.1 prévoit quatre nouvelles fonctionnalités pour faciliter le processus de soumission pour les biocides aussi bien pour l’industrie que pour les autorités compétentes.

Newsletter de l’ECHA disponible

22/04/2014

Le numéro d’Avril de la Lettre de l’ECHA est maintenant en ligne. Il met l’accent sur ​​la substitution de produits chimiques dangereux et l’innovation. Sont inclus dans cette newsletter : des études de cas, des interviews et des chroniques qui montrent comment l’industrie, les autorités et les organisations travaillent pour l’utilisation de produits plus sûrs et l’innovation verte.

CLP 2015 : agissez maintenant !

22/04/2014

La Commission Européenne organise, le 16/09/14 à Bruxelles, un workshop sur « L’Utilisation des produits chimiques en toute sécurité par les PME ». Ce workshop vise à aider les entreprises, en particulier les PME, à se conformer aux nouvelles règles de classification, d’étiquetage et d’emballage des mélanges qui seront introduites par le règlement CLP à partir de juin 2015. Programme et inscription à venir. 

Modifications sur le règlement Biocides BPR

25/04/2014

Le règlement (UE) n° 334/2014 du 11/03/14 modifiant le règlement n° 528/2012 concernant la mise à disposition sur le marché et l’utilisation des produits biocides, en ce qui concerne certaines conditions d’accès au marché. Ce règlement est entré en vigueur le 25 avril 2014.

Décision de non-approbation de substances actives biocides

25/04/2014

La Commission a décidé en date du 24 avril 2014 la non-approbation de certaines substances actives biocides en vertu du règlement (UE) n  528/2012 du Parlement européen et du Conseil.

Nouvelles propositions de classification et d’étiquetage harmonisé

29/04/2014

L’ECHA a lancé une consultation pour l’harmonisation et l’étiquetage harmonisé de deux nouvelles substances (benzovindiflupyr (ISO); N-[9-(dichloromethylene)-1,2,3,4-tetrahydro-1,4-methanonaphthalen-5-yl]-3-(difluoromethyl)-1-methyl-1H-pyrazole-4-carboxamide et Pencycuron (ISO); 1-[(4-chlorophenyl)methyl]-1-cyclopentyl-3-phenylurea). Les parties intéressées sont invitées à soumettre leur commentaire sur le site de l’ECHA, et ce avant le 13 juin 2014.

Par Céline GABORIAUD, Ingénieur Environnement aux Ateliers d’Orval

 

Et aussi dans les
ressources documentaires :

« Comprendre les paramètres importants des énergies innovantes »

Entretien avec Mireille Defranceschi, experte en électrochimie, qui anime la formation Spécialiste projet énergies innovantes

Techniques de l’Ingénieur : Vous animez chez Techniques de l’Ingénieur la formation Spécialiste projet énergies innovantes.  A qui s’adresse-t-elle ?

enr1_3Mireille Defranceschi : Principalement aux petites entreprises du secteur de l’énergie, qui cherchent à déployer leurs activités, à répondre aux demandes de leurs clients sensibles aux énergies renouvelables, qu’ils soient particuliers ou entreprises. Ils viennent donc découvrir les derniers prototypes, les derniers dénouements en panneaux solaires, en stockage de l’énergie ou en diversification des sources d’énergie.

Techniques de l’Ingénieur : Qu’apporte-t-elle à l’offre de formation déjà existante ?

Mireille Defranceschi : Elle offre un aperçu général du domaine, mais surtout, s’adapte au public. Lors de l’inscription, les stagiaires sont invités à préciser les points qu’ils souhaitent voir particulièrement développés, et à l’inverse, ceux qu’ils maitrisent et sur lesquels il est donc inutile de trop s’attarder. On peut ainsi survoler l’aspect électrique des batteries pour s’attarder sur les propriétés des métaux qui les composent, où au contraire passer rapidement sur l’électrochimie afin de mieux appréhender les performances de tel ou tel type de batterie.essai

Techniques de l’Ingénieur : Qu’auront acquis les stagiaires à l’issue de la formation ?

Mireille Defranceschi : Après trois journées de formation intensive – mais en effectifs limités – ils comprendront les paramètres importants des énergies innovantes, des batteries au lithium ou à combustible au panneaux photovoltaïques de dernière génération, auront intégré le fond de théorique essentiel à leurs utilisations actuelles ou à venir, et sauront ainsi faire par la suite les choix pertinents.

L’éolien, le solaire et le nucléaire. Le débat

Un article du quotidien de référence finlandais à propos du coût du Nucléaire EPR, dont ont fait écho les rédactions du média indépendant Médiapart, qui ose parler de « gouffre financier », et de Techniques de l’ingénieur, a suscité des remous chez quelques lecteurs.

« Eolien et PV sont des énergies intermittentes, qui ne fonctionnent que suivant les caprices de la météo, et seulement 20% du temps en moyenne. Elles doivent être secourues par des centrales à gaz ou au charbon de même puissance, qui produisent « à leur place » les 80% du temps restant (en émettant du CO2 voire des particules dangereuses pour le charbon). Donc, économiquement parlant, il faut additionner leur coût de production à celui des centrales qu’elles soutiennent pour comparer le résultat à celui du nucléaire : et là, ce dernier reste imbattable, même avec l’EPR tête de série de Finlande. Vos conclusions sont donc erronées, et je souhaite que par honnêteté pour vos lecteurs vous les corrigiez » écrit un internaute. « Il faut intégrer dans le coût des renouvelables celui des énergies fossiles sur lesquelles ils sont adossés » renchérit un autre.

« Étude très intéressante et fouillée » écrit un autre lecteur suite à l’article « Non, le solaire ne pousse pas à la consommation de charbon en Allemagne ». Mais il ajoute : « L’arbre cache t-il la forêt ? Y aura t-il enfin un débat scientifique enfin sur le sujet ? Comment nier qu’une éolienne n’est active que 30% du temps sur le continent (marge supérieure) et donc pour le temps restant nécessité un apport équivalent ! Ce constat simple, et qui ne dépend que du lieu d’installation, permet t-il d’en faire un prédicat pour avancer plus loin ? ».

La demande de cet internaute est légitime, un débat scientifique, sur le fond, est utile.

En 2013 le Danemark a répondu à 33 ,2% de sa demande électrique avec l’éolien ceci avec un facteur de capacité moyen de l’éolien sur l’année de l’ordre de 25%. L’éolien répondra en 2020 à environ 50% de la demande, toujours avec un facteur de capacité proche de 25%. Une éolienne reste active quand elle délivre une puissance inférieure à sa puissance nominale, y compris inférieure au quart de cette puissance. Le prédicat de ce lecteur est erroné. En France, selon RTE, le facteur de capacité de l’éolien est 90% du temps supérieur à 6%.

L’analyse de Agence Internationale de l’Energie

L’Agence Internationale de l’Energie a publié récemment une étude permettant de mettre les points sur les i. Techniques de l’ingénieur a fait écho de ce rapport dans cet article :
Intégrer de hauts niveaux de solaire et d’éolien n’est pas un problème (AIE)Ni sur le plan technique, ni sur le plan économique.

Pour Maria van der Hoeven, directrice exécutive de l’AIE, « un système électrique transformé avec 45% d’éolien et de solaire dans la consommation annuelle – et donc 10 fois plus que dans la plupart des systèmes actuels – est un système qui est seulement 15% plus coûteux qu’un système qui ne possède pas du tout de solaire et d’éolien. Et cette petite augmentation de coût est estimée sur la base des coûts actuels des technologies et d’un prix modéré du carbone à 30 dollars la tonne. Dans le future l’éolien et le solaire auront un coût plus faible. Combiné avec une augmentation du prix de la tonne de carbone le surcoût du système pour des niveaux aussi élevé d’ENR-V peut être ramené à zéro. »

Le solaire PV et l’éolien, outils de flexibilité compris, sont meilleurs marché que le nucléaire nouvelle génération

Voici trois études en complément qui viennent de paraître :

  1. Le think tank Agora Energiewende démontre par A+B dans cette étude que les nouvelles centrales éoliennes et solaires de 2013 délivrent un kWh bien meilleur marché que le nucléaire nouvelle génération de 2023 ceci en intégrant les outils de flexibilité nécessaires.
  2. Une étude du gouvernement Belge montre qu’« en faisant appel à l’éolien plutôt qu’au nucléaire, les Wallons gagneront 3,6 milliards d’€ sur la durée de vie estimée d’une centrale nucléaire dernière génération, grâce à l’objectif de 3.800 GWh/an d’énergie éolienne que s’est fixé la Wallonie. En termes d’emploi, l’éolien c’est 4 fois plus de jobs que la filière nucléaire. Ces conclusions sont le résultat d’une analyse fouillée réalisée par les experts du cabinet du Ministre de l’Energie, basée sur une revue complète de littérature (…) En matière d’énergie, les choix posés aujourd’hui déterminent notre réalité de demain et des décennies à venir (…)». La synthèse de l’étude est disponible ici. L’étude complète .
  3. Une étude intitulée « Coûts et bénéfices réels des énergies conventionnelles et renouvelables » du cabinet du bureau 3E commanditée par Eneco et WWF analyse notamment les subventions en Belgique. « La production d’électricité à partir de sources traditionnelles est soutenue depuis des décennies : le charbon et le nucléaire ont été financés à hauteur de presque 44 milliards d’euros entre 1950 et 2013 par l’Etat. Ce montant va continuer à augmenter à cause de la rente nucléaire pour s’élever à 50 milliards d’euros en 2025 » résume Eneco dans ce communiqué.

Pour Joseph Stiglitz, ex-Directeur de la Banque Mondiale, Prix Nobel d’économie : « Je pense que le risque de prolifération nucléaire est l’une des pires externalités qui soit pour cette énergie. Selon ce que je sais, jusqu’à présent le nucléaire vit surtout grâce aux subventions publiques, ce qui est totalement anti-économique. A cet égard, la France, est un cas d’école. Mais même aux Etats-Unis, c’est au gouvernement fédéral de garantir les prêts faits à l’industrie, d’aider les assureurs à couvrir les risques d’accident, de financer les solutions pour le retraitement des déchets, il existe 1001 façons de subventionner le nucléaire (…) Au vu des problèmes que pose l’industrie nucléaire, je pense qu’il faut se tourner, d’abord et avant tout, vers les énergies renouvelables ».

La légende urbaine la plus répandue au sujet de l’éolien et du photovoltaïque

Marc Fontecave, de la fondation Ecologie d’avenir crée par Claude Allègre, et Philippe Aghion  ont écrit dans le journal Le Monde: « pour stabiliser la puissance du réseau il faut du stockage et des générateurs conventionnels à base de combustibles carbonés fossiles en backup ».

Voici la réponse d’un expert EnR de l’Agence Internationale de l’Energie: « C’est la légende urbaine la plus répandue au sujet de l’éolien et du solaire (PV). Un lecteur en donne quelques jours après une version plus caricaturale – mais introduisant une nuance importante: « Pour chaque kWh produit de cette manière, il faut en produire quatre avec d’autres centrales: nucléaire, charbon ou gaz, au choix. » (Le Monde, 30-31 mars). Alors non, il ne faut pas produire 4 kWh autres pour 1 kWh éolien – il n’y a aucune équivalence de ce genre. Outre que les plus récentes éoliennes ont plutôt des facteurs de capacité de 30 à 35% que de 20%, il faut avec les variables des capacités totales plus importantes, mais cela ne dit rien sur le rapport des énergies produites. La nuance intéressante que ce lecteur introduit, ignorée de nos deux professeurs, c’est que le nucléaire n’est pas incompatible avec les renouvelables variables ». 

Chacun est libre d’avoir le point de vue qu’il veut en matière de politiques énergétiques. Par contre, il convient que l’argumentaire soit solide sur le fond. Les études mentionnées ci-dessus, en particulier celle de l’AIE, devraient enfin permettre d’élever le niveau du débat scientifique, technique et économique à ce sujet en France. Sauf pour ceux qui refuseront de la lire.

Errare humanum est, perseverare diabolicum.

Par Olivier Danielo

Les britanniques sont 3 fois plus nombreux à préférer l’éolien terrestre au gaz de schiste

« Pourquoi le gouvernement ignore-t-il ses propres résultats ? » interroge Dale Vince, fondateur d’Ecotricity, numéro un de la fourniture d’électricité verte en Grande-Bretagne.

Le département à l’énergie et au changement climatique (DECC) a en effet réalisé une enquête en juillet 2012 montrant que 64% des citoyens sont favorables à l’éolien terrestre, et seulement 28% au gaz de shiste. Malgré cette enquête il s’avère que le gouvernement offre un cadre très favorable au développement à cette énergie fossile au bilan environnemental et sanitaire très débattu, et en revanche réduit celui de l’éolien terrestre.

Dans le cadre d’une dynamique favorable à une autre filière non durable, le nucléaire, et ceci depuis Margaret Thatcher, le gouvernement de David Cameron a accepté un tarif d’achat de 109 euros le MWh pour les projets nucléaires EPR du français EDF outre-Manche.

Même les intellectuels anglais pro-nucléaires ont été très critiques concernant ce tarif très élevé.  Pour Dale Vince « sacrifier l’éolien terrestre et encourager l’éolien maritime et le solaire est un non sens économique, spécialement en période d’austérité et de coupes budgétaires.

L’éolien terrestre est la forme d’EnR la plus économique dont nous disposons. Les grands projets solaires coûteront [en Grande-Bretagne ndlr] 50% de plus par unité d’électricité délivrée, et l’éolien offshore 100% plus cher. »

L’éolien terrestre, surtout au Grande-Bretagne, île balayée par les vents de l’Atlantique et de la Mer du nord, est effectivement bien meilleur marché que le solaire photovoltaïque. La Grande-Bretagne n’est pas particulièrement réputée comme destination pour passer ses vacances au soleil.

Dale Vince estime que « nous avons besoin des trois formes d’EnR pour notre sécurité énergétiques à long-terme, et soutenir l’éolien terrestre permettra de faire baisser le coût global du mix EnR. Il est illogique de payer davantage pour de l’électricité verte que ce qui est nécessaire, cela permet simplement au gouvernement de blamer les EnR et de les tenir responsables de la hausse du prix de l’énergie ».

Est-ce aux citoyens ou aux grands groupes énergétiques de décider de l’avenir énergétique d’un pays ?  Les citoyens britanniques sont favorables à l’éolien terrestre mais le gouvernement freine cette filière pour encourager celles qui sont plus coûteuses. La situation est problématique tant sur le plan démocratique que sur le plan financier.

Le kWh nucléaire EPR est plus cher que l’éolien terrestre mais meilleur marché que l’éolien offshore. Encourager les EnR coûteuses tout en freinant volontairement les EnR bon marché permet de créer un climat favorable au nucléaire et au gaz de schiste. Une stratégie particulièrement perverse.

Publié par Pierre Thouverez

Les consommations mondiales de produits pétroliers

Durant les six dernières années entre fin 2007 et fin 2013 les consommations mondiales de liquides sortant des raffineries, constituées de produits raffinés du pétrole, de condensats de gaz et d’ajouts de biocarburants, se sont accrues de 4,4 millions de barils par jour affirme l’administration américaine (EIA) pour atteindre en moyenne en 2013 un flux moyen de 90,4 millions de barils par jour.

Durant ces six années, traversées par une crise financière et économique occidentale, mais  également par une forte croissance des économies en Asie et au Moyen-Orient, cette croissance globale des consommations pétrolières est le résultat de deux mouvements contradictoires : une décroissance des consommations des pays de l’OCDE de 3,3 millions de barils par jour et une croissance des celles des pays NON-OCDE de 7,7 millions de barils par jour.

La crise économique occidentale et les restrictions des populations concernées, durant cette période, ont mis à disposition des pays asiatiques et du Moyen-Orient une part de leurs consommations pétrolières. Cette conjoncture particulière a permis d’enregistrer une hausse annuelle raisonnable des consommations de pétrole dans le monde (autour de 0,75 million de barils par jour) et d’assister en fin de période, malgré de multiples péripéties politiques en pays producteurs (Libye, Egypte, Syrie, Iran, Iraq) à une remarquable stabilité des cours du baril de Brent, benchmark mondial, autour des 110 US dollars.

Il semblerait que cet alignement parfait des consommations, les unes décroissantes au profit des autres en croissance, soit à ce jour dépassé.

La reprise économique dans le monde occidental, observée aux Etats-Unis, imminente en Europe, semble vouloir stabiliser, sinon faire croître, les consommations de produits pétroliers des pays OCDE autour des 46 millions de barils (FIG., courbe bleue) alors que les consommations des pays NON-OCDE tirées par les consommations asiatiques (Chine, Inde, Indonésie, Malaisie, etc.) semblent vouloir poursuivre leur croissance quasi-linéaire (courbe rouge).

Ceci conduit l’Administration américaine (EIA), dans son Short Term Energy Outlook, à prévoir une croissance moyenne globale des consommations pétrolières mondiales de 1,23 million de barils par jour en 2014 et d’extrapoler ces flux à 1,35 million de barils par jour supplémentaires en 2015. Bien sûr, une telle croissance pourrait éventuellement être freinée par un accroissement des cours du pétrole brut, éventualité cohérente avec la baisse programmée des investissements des grands groupes pétroliers mondiaux dans l’exploration-production de la ressource.

Nous laisserons pour l’instant dans leur placard  les théories de la pénurie qui affirment qu’il y aurait en ce moment pénurie de ressources pétrolières alors que les acteurs industriels, directement concernés, ne jugent pas utile de se lancer dans l’élaboration de liquides à partir des réserves abondantes de gaz naturel par procédé Fischer Tropsch ou équivalent (passant par la synthèse du Méthanol par exemple). S’il y avait, en ce moment, une demande non satisfaite, les prix des produits pétroliers grimperaient et les industriels concernés investiraient afin de produire  les carburants ou les produits intermédiaires nécessaires pour répondre à la demande. Ils disposent, pour cela, d’une large palette de solutions techniques économiquement viables et de larges ressources de gaz naturel, de charbon et de biomasse. Pour l’instant nous avons appris la décision de Royal Dutch Shell d’abandonner un tel projet d’investissement en Louisiane, signe d’un équilibre actuel entre offre et demande.

Il semble raisonnable de penser que la demande mondiale de pétrole, de plus en plus orientée vers les transports va poursuivre et accélérer sa croissance dans les années à venir. Ceci est cohérent avec la croissance de l’économie mondiale faite d’échanges de biens et de services qui mobilisent les divers modes de transports. La croissance urbaine, le développement des réseaux routiers, les investissements vigoureux dans l’aéronautique  participent à ce mouvement général. En pays en fort développement comme la Chine, la consommation de certaines matières premières comme le pétrole, largement liée au développement des transports individuels, arrive chronologiquement après celle de granulats, de ciment, d’acier ou d’aluminium, (…au bitume près).

Tout ceci milite, au cours de la décennie à venir,  pour pronostiquer une croissance graduelle des cours des produits pétroliers et pour anticiper l’arrivée sur le marché de biocarburants sophistiqués de nouvelle génération (rentables et performants) et, ultérierement, de carburants de synthèse issus du gaz naturel ou du charbon enrichi de biomasse.

Par Raymond Bonnaterre

Netflix développe un programme pour anticiper vos envies de films

Le deep learning est un ensemble de techniques informatiques permettant à un ordinateur d’apprendre sans professeur. Inspiré de la neurobiologie, un tel système est comparable à un cerveau humain. Netflix, chaîne de télévision en ligne, vient donc d’intégrer du deep learning dans son logiciel Netflix Prize, dont le rôle est de simuler les programmes télé qui vous plairont le plus. Idéal pour ceux qui ne savent jamais quoi choisir dans la grille TV.  Grâce au deep learning, Netflix Prize évolue, apprenant au fil du temps en fonction des choix successifs du spectateur. Ses propositions s’affinent et se personnalisent.

Classée comme une des 10 technologies majeures par le MIT, le deep learning n’est pas l’exclusivité de Netflix. Facebook et Google se concurrencent aussi à propos du deep learning, de façon à mieux anticiper les besoins de l’internaute et ainsi optimiser les suggestions publicitaires…

Dès l’automne prochain, la France va affronter une révolution télévisuelle avec le débarquement de Netflix, et profiter de ce nouveau service, inexistant actuellement sur les plateformes de VOD françaises.  Comment fonctionne Netflix ? La chaîne, productrice de la série House of cards, met à disposition de l’internaute l’intégralité d’une saison de telle ou telle série, mettant fin à l’interminable attente d’une semaine avant de connaitre la suite de l’histoire. L’accès illimité en streaming à la totalité des 11 000 programmes disponibles ne coutera que 6€ environ. Une formule à succès outre Atlantique puisque le site capte un tiers du flux internet consommé entre 20h et 23h. L’arrivée imminente du géant américain est une aubaine pour les Français, qui pourraient bien  être les grands gagnants de cette nouvelle concurrence. Pour preuve Canal+ qui a lancé sa propre plateforme de VOD vient d’abaisser son prix à 6,99€/mois. Netflix sera-t-il à la télévision ce que Free est à la téléphonie mobile ? Réponse à la rentrée 2014.

Par Audrey Loubens, journaliste scientifique

Astuce du Web #6 : comment rouvrir un onglet fermé par erreur

Certains travaillent avec de nombreux onglets ouverts en même temps, à tel point qu’il y en a plus que la fenêtre ne peut en contenir et qu’il faut faire défiler les en-têtes pour accéder aux derniers onglets. D’autres oublient de fermer les onglets devenus inutiles. Mais tous, à un moment, commettent l’irréparable : fermer l’onglet qu’il ne fallait pas. Sachant qu’aller fouiller dans l’historique est compliqué, la fermeture de cet onglet est source de rage. Pourtant, il y a plus rapide que de reproduire tous le processus de navigation qui vous a mené à votre précieuse page internet. Cette astuce vaut pour les différents navigateurs :

  • Sous Explorer, rouvrez un onglet vierge et scrutez en bas les précédents sites consultés.
  • Sous Firefox, on utilise le raccourci clavier Ctrl + Shift +T sur PC et Commande + Majuscule + T sur Mac. Idem sous Chrome.
  • Sous Safari, un simple Pomme + Z rouvrira l’onglet perdu.  

Par Audrey Loubens, journaliste scientifique

Faire pleuvoir ou créer de la foudre grâce à deux lasers ?

Des chercheurs du Collège d’optique et de photonique de l’Université centrale de Floride et de l’Université d’’Arizona veulent pouvoir déclencher la pluie quand bon leur semble. Comme dans les nuages, la pluie et les éclairs sont provoquées par une forte accumulation d’électricité statique, il serait possible de stimuler ces particules chargées avec le bon laser pour déclencher la pluie au « bon » endroit et au « bon » moment.

Des chercheurs ont auparavant tenté leur chance dans la quête de « faire pleuvoir à la demande ». Globalement, tous les projets reposaient sur l’émission d’une seule impulsion laser très puissante, pendant un temps très court. « Quand un faisceau laser devient assez intense, il se comporte différemment qu’habituellement – il s’effondre sur lui-même », explique Matthew Mills, étudiant ayant participé à cette nouvelle étude sur le site de l’Université centrale de Floride. « L’effondrement devient si intense que les électrons dans l’oxygène et l’azote de l’air sont arrachés créant un plasma – une sorte de soupe d’électrons », poursuit-il. 

Le plasma nouvellement créé tente alors de propager le faisceau, provoquant une lutte entre sa diffusion et son effondrement. Cette dualité provoque un « filament » de lumière, une sorte de « guirlande lumineuse » constituée d’air ionisé (c’est-à-dire constituée de particules chargées), qui conduit l’électricité. Cependant, ce filament ne se propage que sur de faibles distances, le faisceau laser s’effondrant trop rapidement. D’où l’objectif jusque-là non atteint de maîtriser la formation de ce filament pour créer de la foudre ou de pluie de façon contrôlée !

Pour résoudre le problème, les chercheurs proposent dans leur étude d’entourer le faisceau principal à haute puissance d’un second faisceau, moins puissant, qui agirait comme un réservoir d’énergie permettant d’alimenter continuellement la première impulsion. Ce second faisceau permettrait de maintenir le faisceau principal sur de plus grandes distances. 

Emettre sur de longues distances pour ne pas se faire foudroyer

Si l’on veut provoquer des éclairs à distance, il faut que le faisceau laser puisse être émis d’une distance suffisamment éloignée pour ne pas risquer de se faire foudroyer. « Ce qui serait bien, c’est d’avoir une manière détournée qui nous permet de produire un filament arbitrairement long. Il s’avère que si vous enveloppez le filament d’un faisceau creux, en forme de donut, de faible intensité et que vous le faites avancer doucement vers l’avant, vous pouvez obtenir cette extension arbitraire », explique à nouveau Matthew Mills.

 « Comme nous pouvons contrôler la longueur du filament avec notre méthode, on pourrait provoquer les conditions requises pour provoquer une averse à distance. Au final, vous pourriez contrôler artificiellement la pluie et les éclairs à grande échelle grâce à ces idées », ajoute-t-il.

Si l’équipe a réussi à multiplier la longueur de son faisceau par sept, celui-ci ne dépasse pour l’instant les deux mètres de long. Mais ces filaments habillés pourraient se propager sur 50 mètres ou plus ! Le ministère de la Défense américaine s’intéresse donc fortement au projet aux vues de ses applications géostratégiques et a accordé une subvention de 7,5 millions de dollars au projet pour développer cette technologie.

Par Matthieu Combe, journaliste scientifique

Analogie énergétique entre l’avion prototype e-fan d’Airbus Group et une voiture électrique citadine

Cette tribune fait suite au premier vol de l’E-fan : VOIR ICI

Airbus Group précise que le système batteries de l’avion prototype électrique  e-fan qui vient de réaliser ses premiers essais au-dessus de l’aéroport de Mérignac est alimenté par 120 cellules de batteries Li-Ion  polymère de 40 Ah du Coréen Kokam.

La technologie polymère, donc les éléments d’accumulateurs sont habillés par de fines poches métalliques plastifiées thermo-scellées très légères et peu encombrantes, conduit à des caractéristiques massiques en batteries performantes (dans ce cas, sur la base de deux batteries de 65 kg, autour des 148 Wh/kg).

Cette technologie est déjà utilisée par certains constructeurs d’automobiles électriques.

Chaque module présentant une tension de 4 Volts, ceci conduit à une énergie embarquée de 120 x 40 x 4 / 1000 = 19,2 kWh.

C’est ce niveau de  réserve d’énergie qui est également embarqué au sein des véhicules urbains électriques commercialisés à ce jour par les constructeurs automobiles, énergie nécessaire pour assurer une autonomie du véhicule de plus de 100 km qui va consommer typiquement 12 à 15 kWh aux cent kilomètres.

L’autonomie de l’aéroplane électrique d’une heure environ pour une vitesse de croisière de 160 kmh présente bien des analogies avec les caractéristiques de la voiture électrique urbaine, moins rapide certes mais à l’autonomie en distance comparable.

Les problèmes d’accroissement d’autonomie se posent aussi bien pour l’un que pour l’autre. Certains constructeurs automobiles semblent vouloir opter pour une onéreuse pile à combustible qui apporterait le flux d’énergie nécessaire au roulage durant plusieurs dizaines d’heures.

Attendons peut-être cette option pour un aéronef électrique.   Quand au futur Super Jumbo électrique, il faudra au préalable, pour sérieusement l’imaginer,  résoudre les problèmes de fiabilité et de sécurité des batteries. En attendant il faudra durant des décennies, faire voler nos aéroplanes, pour une part, au bio-kérosène, issu de la transformation des huiles ou des sucres en carburants.

Par Raymond Bonnaterre

Royal veut créer 100 000 emplois grâce à la transition écologique

 

 « Mon objectif sur les 3 ans c’est de créer 100 000 emplois grâce à cette transition écologique », affirme-t-elle d’emblée, grâce à la mobilisation des filières économiques des grands groupes, des PME/PMI, des instituts de recherche et des pôles d’excellence.

Pour ce faire, elle mise notamment sur le développement des filières d’avenir en lien avec la transition écologique compris dans les 34 plans pour la nouvelle France industrielle décidés par le gouvernement. Celles-ci sont notamment  « les énergies renouvelables, le véhicule électrique, le véhicule autonome, le véhicule qui consomme moins de 2 L aux 100 km, le déploiement des bornes électriques de recharge, l’avion électrique, le TGV du futur, les navires écologiques, le recyclage et les matériaux vert, la rénovation énergétique des bâtiments, la filière de la qualité de l’eau, les réseaux électriques intelligents, la chimie verte, les biocarburants et l’usine du futur », énumère Ségolène Royal pour montrer l’ampleur des chantiers à venir.

3 leviers pour accélérer la croissance verte

Pour mobiliser l’ensemble des filières concernées, Ségolène Royal recevra chaque semaine une des filières concernée par la mutation écologique. Elle compte également sur la mise en mouvement des territoires. Concrètement, cela signifie « faire en sorte que l’Etat puisse signer rapidement tous les contrats plan état-région avec deux volets : celui sur la mobilité (routes, rails, transports propres en villes, électromobilité) et le volet sur la transition énergétique et la biodiversité. »

Ces plans comprennent des aspects très concrets sur la question des infrastructures, de la propreté de l’eau, des villes sans  pesticides, etc. « Cela va permettre de mobiliser les entreprises », « car si sur chaque territoire les contrats sont stabilisés, les opérateurs économiques se disent « on a un cadre stable » donc on peut investir, on peut embaucher ! » s’enthousiasme-t-elle.

« Mon objectif, c’est que les français ressentent le plus rapidement possible cette mutation écologique par la croissance verte, la création d’activité et d’emplois » conclut-elle.

Par Matthieu Combe, journaliste scientifique 

 

Ségolène Royal veut acter la transition énergétique

Les annonces se succèdent et se contredisent concernant la loi sur la transition énergétique. Alors que selon ministère de l’Energie, une vingtaine de réacteurs pourraient être inutiles d’ici 2025 grâce aux économies d’énergie, le PDG d’EDF Henri Proglio juge inévitable le prolongement des réacteurs nucléaires français au-delà de 40 ans ou leur remplacement par des EPR.

En cause ? Une hausse, au contraire, inévitable de la consommation électrique française…

L’arbitrage final devrait finalement être connu rapidement après de longs mois de doutes et de rumeurs. La proposition de loi sur la transition énergétique sera transmise prochainement en concertation au Conseil Economique Social et Environnemental (CESE), puis passera en commission en juillet.

La loi devrait être complète et ambitieuse. « C’est une des lois majeures du quinquennat, comme l’a dit le Président de la République lors de la conférence environnementale, avec les économies d’énergie, le développement des énergies renouvelables, la qualité de l’air, l’économie circulaire », affirme Ségolène Royal, récemment nommée ministre de l’écologie, du développement durable et de l’énergie. « Avec cette loi, les Français doivent retrouver la maîtrise de la politique énergétique de la nation », estime-t-elle.

Montrer que la transition est en marche et fonctionne !

« Je vais veiller à ce qu’en amont de cette loi, on ait déjà de la visibilité sur ce nouveau modèle énergétique en montrant que sur certains territoires et grâce à certaines entreprises, ce nouveau modèle énergétique existe déjà », annonce la ministre. Cela permettra d’affirmer que la France est déjà sur la voie de la transition énergétique grâce à des réalisations exemplaires qui préfigurent ce que sera le modèle énergétique de demain.

Un chantier important de la loi concerne l’accélération du développement des filières d’énergies renouvelables. Celles-ci comprennent notamment l’éolien offshore, le solaire, la biomasse et les énergies marines. Il est déjà acté qu’un nouvel appel d’offres solaire-photovoltaïque grande puissance sera lancé prochainement et que les lauréats de l’appel d’offres de Noirmoutier et du Tréport seront annoncés d’ici une semaine environ.  

Parallèlement à ces développements, la concertation locale sera lancée très prochainement pour identifier de nouvelles zones de développement de l’éolien offshore posé ou flottant. Un décret simplifiant les procédures pour la géothermie sera aussi promulgué prochainement.

Accélérer la rénovation énergétique des bâtiments

« Je ferai dans les jours qui viennent, conjointement avec Sylvia Pinel, la ministre du Logement et de l’Égalité des territoires des propositions pour accélérer le plan de rénovation énergétique de l’habitat qui a été lancé en 2012 et qui n’a pas atteint son objectif de 500 000 logements rénovés », a annoncé ce jour Ségolène Royal.

Pour faciliter le recours aux travaux, la ministre veut mettre en place un mécanisme de tiers financement. Ainsi, les foyers aux revenus les plus modestes pourront rembourser le financement de leurs travaux par un tiers grâce aux économies d’énergie réalisées. Elle souhaite aussi permettre une meilleure identification des entreprises qui opèrent ces travaux pour les particuliers.

Ce plan sera accompagné d’une réforme des mécanismes de fixation des tarifs de l’électricité pour éviter « la hausse quasi-automatique des factures d’électricité », selon les mots de la ministre.

Une réunion est prévue prochainement avec les entreprises spécialisées dans l’isolation pour présenter l’action du Ministère et sécuriser la filière. Cela a notamment pour but de rassurer les professionnels en leur donnant de la visibilité grâce à une stabilisation fiscale durant les prochaines années.

Il est également à noter qu’une conférence bancaire et financière, organisée avec Michel Sapin, ministre du travail et Arnaud Montebourg, ministre de l’économie devrait se tenir en juin prochain. Sur le sujet qui nous intéresse ici, elle permettra de rendre plus transparente la mobilisation des investisseurs autour du chantier de la rénovation énergétique et de la transition énergétique.

De nouveaux invités au menu

La loi sur la transition énergétique s’intéressera également à la qualité de l’air. Sur ce thème, la ministre de l’écologie veut adopter l’ensemble des plans de protection de l’atmosphère le plus rapidement possible. « Il n’y a que 39 % de la population française qui est couverte par ces plans ; 21 plans de protection de l’atmosphère restent à adopter et je souhaite qu’ils le soient tous rapidement », résume-t-elle.

L’économie circulaire sera aussi inclue dans la loi sur la transition énergétique. Des aspects concernant la conception des produits et la gestion des déchets seront au menu. Dans cette perspective, la loi visera à accélérer le plan Energie Méthanisation Autonomie Azote (EMAA). « Pour moi, la méthanisation est le symbole même de l’économie circulaire », affirme Ségolène Royal. Car lorsque l’on parle de méthanisation, on produit du méthane et des fertilisants grâce à des déchets qui auraient autrement été incinérés. Il ne reste plus qu’à espérer que le résultat soit à la hauteur des ambitions !

Par Matthieu Combe, journaliste scientifique

Record mondial dans le solaire PV battu par le chinois Trina Solar

Le module, baptisé « Honey Ultra » ce qui signifie « miel de haute qualité », a une puissance de 326,3 watts et est composé de 60 cellules photopholtaïques de 156 mm x 156 mm. La performance a été validée de manière indépendante par l’organisme de certification TUV Rheinland.

Le record précédant de Trina Solar était de 284.7 Watts. Le progrès est donc de 14,6%, ce qui est très significatif. « En tant qu’usine de R&D avancée, notre Laboratoire National pour la Science et la Technologie du PV nous permet la commercialisation de nouvelle cellules solaires à haute efficacité et très fiables », a déclaré le Dr. Zhiqiang Feng, Vice Président de Trina Solar et Directeur du State Key Lab of PV Science and Technology.

Le nouveau module chinois sonne comme une alarme pour les européens 

En 2013 Trina Solar a phagocyté 8,2% du marché mondial des modules photovoltaïques, ce qui le place en seconde position après un autre géant chinois, Yingli (9,4%). Le japonais Sharp (6%) est passé en troisième position grâce à l’émergence d’un énorme marché japonais suite à la catastrophe nucléaire de Fukushima, Canadian Solar en quatrième place et le chinois JinkoSolar en cinquième.

Le nouveau module mis au point par Trina Solar va peut-être lui permettre de devenir le numéro un mondial du solaire. Le groupe est à l’origine de très nombreux brevets qui lui ont permis d’atteindre ce niveau de performance et de qualité. Trina Solar est à la pointe de l’innovation scientifique et technique dans le domaine du PV.

Vers un « airbus » franco-allemand du solaire ?

En France, François Hollande souhaiterait mettre en place une coopération franco-allemande dans le solaire afin que l’Europe ne se fasse plus distancer par la concurrence asiatique. Il s’agit de tenter de reproduire le modèle d’Airbus.

Par Olivier Danielo

Une centrale thermique utilise les pneus comme combustible

A l’heure où l’Europe prend conscience de la nécessité de promouvoir l’économie circulaire, la récupération des matières contenues dans les pneumatiques usagés prend tout son sens.

Le pneu est en effet un combustible au pouvoir calorifique plus élevé que celui du charbon (35 MJ/kg contre 25 pour le charbon), il contient plus de carbone et produit moins de cendres, d’où son grand intérêt sur le plan thermique. Il est par ailleurs riche en métaux, notamment en fer (tringles et armatures en acier) et en zinc, voire en métaux rares, comme le cobalt.

Aussi, la technologie mise au point par la société Pneutech SAS applique-t-elle le concept de minerai aux déchets qu’elle utilise comme combustibles. Ceux-ci, constitués de pneus entiers ou broyés, rebuts de fabrication de pneumatiques et autres déchets de l’industrie du caoutchouc sont en effet transformés en matériaux de qualité et en énergie thermique et électrique. 

Une centrale de ce type est actuellement en projet en France à Strasbourg. D’une puissance de 30 MWe, elle sera capable d’incinérer quotidiennement 300 tonnes de ces déchets.

Un procédé thermique qui privilégie la valorisation 

Le procédé met en œuvre une technologie de combustion éprouvée, respectant en tous points les normes françaises et européennes applicables aux rejets dans l’atmosphère.

Les combustibles sont introduits dans le four à 1500°C. A cette température, toutes les matières organiques sont quasi instantanément sublimées. L’acier des tringles et de la carcasse fond rapidement en gouttelettes, qui sont rapidement refroidies par une trempe, produisant des grenailles d’excellente qualité pouvant être revendues à meilleur prix que la ferraille.

La combustion des matières organiques produit des gaz dont certains sont polluants (oxydes d’azote, SO2, chlore). Ceux-ci sont neutralisés par un traitement permettant la valorisation du soufre sous forme de gypse de synthèse de grande qualité, et du chlore sous forme de chlorure de calcium. Le premier est utilisable dans l’industrie pour la production de plâtre et le second comme sel de déneigement. 

Le zinc et le cobalt recyclés

On retrouve dans les cendres des traces de tous les produits chimiques contenus dans les combustibles, notamment le zinc et le cobalt. Un procédé hydrométallurgique innovant permet de dissoudre puis récupérer ces métaux de valeur. 

L’oxyde de zinc et le cobalt sont couramment utilisés dans la fabrication de pneumatiques à carcasse radiale. L’oxyde de zinc représente en moyenne jusqu’à 1,3% de la masse d’un pneu. Il est utilisé pour accélérer le processus de vulcanisation du caoutchouc, mais il contribue également à l’amélioration du vieillissement dynamique et de la tenue au vieillissement UV. 

Le cobalt quant à lui a un rôle de liant et permet d’améliorer l’adhérence entre acier et caoutchouc. Notons que ce métal figure sur la liste des 14 matières premières critiques de l’Union Européenne. Celle-ci encourage les Etats membres à adopter des mesures stratégiques pour accroître l’efficacité du recyclage de ces matières ou des produits qui en contiennent et à sécuriser leurs approvisionnements.

La production de Pneutech pourra donc intéresser les manufacturiers de pneumatiques à la recherche de composants recyclés de qualité, et ainsi réintégrer leur circuit en « bouclant la boucle ».

Le carbone imbrûlé (environ 30% en poids des cendres) est séparé du mélange afin de le réutiliser pulvérisé sous pression comme combustible dans la chaudière. 

De l’énergie à revendre

La chaleur de combustion des pneus permet de produire de la vapeur réutilisable localement, par exemple pour la vulcanisation du caoutchouc, ainsi que de l’électricité à faible coût (29,98 €/MWh pour le projet de Strasbourg après revente des matières recyclables). En fonction des réglementations nationales, celle-ci pourra être revendue à un distributeur d’énergie ou consommée localement. 

Opportunité d’investissement

En vue de boucler le financement du projet de Strasbourg, Pneutech a récemment lancé une offre de souscription de 5 millions d’euros auprès de professionnels : manufacturiers, garagistes, collecteurs de pneumatiques usagés, centres VHU, entreprises de recyclage. L’entreprise leur propose en contrepartie la reprise à coût positif garanti* de leurs pneumatiques, résidus de broyage, ou rebuts de caoutchouc. 

Elle a d’ores et déjà reçu le soutien de l’association Recyclage Automobile, fonds financier intervenant dans l’univers du recyclage automobile, à hauteur d’un million d’euros. Des banques, comme le groupe CM-CIC et des fonds d’investissement ont également manifesté leur intérêt à financer l’emprunt bancaire initial et souscrire à une augmentation de capital ultérieure. La BPI** et l’ADEME*** sont également interessés pour intervenir financièrement dans le projet. Des dossiers sont en cours de montage en ce sens.

Parallèlement, Pneutech SAS, via son département Pneutech Ingénierie, poursuit l’étude de plusieurs projets à l’international à la demande de manufacturiers souhaitant bénéficier de son assistance technique. 

*Ce prix pourra atteindre 70€/t pour les pneumatiques et 10 à 70 €/t pour les résidus de broyage.
** BPI : Banque Publique d’Investissement
*** ADEME : Agence de l’environnement et de la maîtrise de l’énergie

Sources : Grégoire  JOVICIC, Président de PNEUTECH SAS

Et aussi dans les
ressources documentaires :

Des nanostructures multifonctions pour recharger votre portable en 30 secondes

Le cœur de la technologie de Storedot repose sur une structure nanométrique tridimensionnelle de 2 nanomètres de diamètre. Ces nanostructures sont les premiers nanocristaux bio-organiques à base de peptides (chaîne d’acides aminés) de synthèse. Ils peuvent être synthétisés à partir d’une large gamme de matières premières bio-organiques disponibles, peu chers à fabriquer et non toxiques.

L’une des applications phares de cette nouvelle technologie, présentée lors de la conférence Think Next de Microsoft, est la possibilité de recharger une batterie de smartphone en moins de 30 secondes. Ces nanostructures ont en effet la capacité de stocker rapidement des électrons, avant de les libérer, plus lentement . Ces nanostructures éliminent ainsi les composants toxiques habituellement présents dans les batteries.

Pour expliquer son invention, StoreDot parle d’une électrode multifonctions. Elle agit en effet comme un supercondensateur se rechargeant très rapidement et comme une électrode au lithium se déchargeant lentement. Ces nanostructures augmentent donc la capacité des électrodes, mais aussi les performances de l’électrolyte. Expliqué simplement, StoreDot a créé une sorte de « tampon » qui stocke le courant électrique fourni par une prise sur une période d’une trentaine de secondes. Les nanostructures transmettent ensuite lentement ces électrons aux électrolytes. A terme, la société prévoirait même de se passer complètement de lithium pour ses batteries.

Si le prototype actuel est de la taille d’une batterie d’ordinateur portable, Storedot travaille sur sa miniaturisation. Avec déjà plusieurs dépôts de brevets à son actif et plusieurs autres en attente, ainsi que des discussions en cours avec Samsung, la société espère débuter la commercialisation de certains produits d’ici 2015-2016.

Des nanostructures aux propriétés multiples

Ces nanostructures possèdent plusieurs autres propriétés intrinsèques multifonctionnelles. Par exemple, ils peuvent être fabriqués en différentes couleurs et émettre dans le spectre visible une matrice riche en couleurs. Ils peuvent ainsi remplacer des métaux toxiques comme le cadmium dans les  écrans de smartphones, de télévision ou d’ordinateurs.

L’équipe de StoreDot teste déjà le rétro-éclairage bleu avec des nanostructures à la fois pour des écrans LCD et OLED. La société pourrait donc d’ores et déjà travailler sur les nouveaux écrans des grands constructeurs. Samsung serait d’ailleurs déjà sur le coup ! Sans composés toxiques, ces futurs écrans seront aussi flexibles. De plus, la société affirme que sa technologie permet 80 % d’économies d’énergie par rapport aux technologies d’écrans actuelles.

Enfin, leur biocompatibilité leur permet d’être aussi utilisables en nano-médecine. Un jour, ils pourraient remplacer les métaux comme l’or ou l’argent, actuellement nécessaires pour pénétrer les membranes cellulaires et délivrer une matière active !

La recharge se fait en 30 secondes chrono, voir en vidéo !

Par Matthieu Combe, journaliste scientifique

Une start-up française développe des boîtes quantiques fonctionnalisées

Les nanoparticules révolutionnent les technologies et les matériaux traditionnels. Greffées à des matériaux, elles leur confèrent de nouvelles fonctionnalités.

La société nantaise Attonuclei est sur le coup, ainsi que 3 entreprises américaines. Concrètement, ces nanoparticules rendent les métaux plus résistants et plus durs, confèrent de nombreuses propriétés aux textiles, permettent de créer de nouveaux écrans et peuvent diminuer les rejets environnementaux. Elles ont également plusieurs applications en médecine.

L’entreprise travaille sur l’ensemble de ces sujets avec de grands industriels.

Des petites particules pour faire de grandes choses

Au niveau environnemental, les boîtes quantiques fonctionnalisées permettent, par exemple, de diminuer le relargage du chrome hexavalent dans l’environnement en améliorant la résistance des composés tels que le trioxyde de chrome ou le dichromate de potassium. Pour les textiles, les boîtes quantiques fonctionnalisées peuvent être émulsionnées en nano-micelles, ou enveloppées dans des nanocapsules pour adhérer aux substrats de façon efficace.

Ces finitions avancées confèrent de nombreuses propriétés sans précédents en améliorant la résistance des fibres et en fournissant de meilleures propriétés d’imperméabilisation, d’antibactérien et d’antifongique. Les vêtements deviennent infroissables et ne rétrécissent plus. Ces nanoparticules peuvent aussi émettre de la lumière et concurrencer ainsi les OLED, mais avec des composés inorganiques.

Selon Attonuclei, la netteté et la richesse des couleurs serait nettement améliorée, grâce à un spectre d’émission beaucoup plus étroit qu’avec des diodes organiques. Enfin, en matière de santé, des nano-médicaments permettraient de cibler au mieux les cellules à soigner. Ils pourraient également servir au traitement de certains cancers.

Par Matthieu Combe, journaliste scientifique

Des nano-ordinateurs à ADN dans des cafards

Le cancrelat souffre d’une mauvaise réputation. Il est associé au manque d’hygiène, il fait peur et en sus, il n’est pas très intelligent. Pourtant ces bêtes qui peuplent les recoins sombres de nos foyers sont des cobayes fréquemment employés pour la recherche médicale. Dernièrement, on lui a d’ailleurs implanté des nano-ordinateurs à ADN.

Pour rappel, l’ordinateur à ADN est l’un des pans de recherche considéré comme l’un des plus prometteurs pour faire office d’ordinateur du futur. Encore peu connus du grand public, ces ordinateurs sont, de par leur nature, très éloignés des ordinateurs conventionnels qualifiés de machines électroniques. « Ce sont des fragments de brins d’ADN que l’on peut en quelque sorte ‘coder’. Ils sont capables d’interagir entre eux mais aussi avec leur environnement pour ensuite adopter un certain comportement. » Or comme l’a mis en évidence Leonard Adlerman, éminent scientifique américain, l’ADN peut effectuer des calculs complexes.

Dans le cas présent, les scientifiques espèrent faire évoluer la médecine à un tout autre niveau. En effet, en affublant les cafards de nano-ordinateurs à ADN, ils souhaitent vérifier que ceux-ci ont la capacité de prévenir voire de guérir toutes sortes de maladies. Diagnostiquer et traiter de l’intérieur, en quelque sorte. Ils partent du principe que l’ordinateur à ADN contient des brins d’ADN et qu’en les ouvrant au moment propice, ils pourraient agir localement et directement sur les maladies. En un temps-record cela va sans dire et avec « une sophistication sans précédent » comme l’affirme le bio-ingénieur Daniel Levner du Wyss Intitut (Université d’Harvard).

Il est clair que cette technologie, si les tests devaient être concluants, pourrait révolutionner l’avenir de la médecine. Mais pour le moment, les expériences sont en cours. La fonctionnalité des ordinateurs à ADN au sein d’une créature vivante n’a pas encore été démontrée. Par la suite, l’objectif est de passer à de plus gros testeurs… Des mammifères dans les cinq années à venir, selon l’équipe en charge du projet.

Par Sébastien Tribot

Le stockage de l’information sera moléculaire

Grâce aux avancées de la recherche fondamentale autour du magnétisme, le stockage de l’information progresse à pas de géants depuis ses débuts. Saviez-vous que depuis ses débuts en 1956 (RAMAC pour Ramdom Access Method of Accounting and Control, produit par IBM), le disque dur a connu une augmentation annuelle de ses capacités de 45 % ?

La principale raison provient de la miniaturisation des matériaux magnétiques qui a atteint le nanomètre (nm) associée à une plus grande densité de stockage. Selon la loi de Moore, le « nombre de transistors des microprocesseurs sur une puce de silicium double tous les deux ans. » Une prédiction relativement juste puisque « entre 1971 et 2001, la densité des transistors a doublé chaque 1,96 année. »

Mais, les chercheurs savent pertinemment que cette loi a une limite qu’ils ne vont pas tarder à franchir. Car en s’approchant de l’atome, le transfert d’électrons devient aléatoire.

Désormais ce sont donc les approches chimiques, moléculaires qui sont en développement car les nano-particules magnétiques promettent bien des changements dans le domaine informatique. Le projet de disque dur moléculaire entrepris par l’équipe mené par Jean-François Lutz, directeur de recherche CNRS à l’institut Charles Sadron en est un bon exemple.

Comme l’affirme ce dernier, il s’inspire ici de l’ADN : « Nous développons une technique qui permet de coder de l’information sur un polymère. Au fur et à mesure, nous provoquons sa croissance en accrochant, une par une, des molécules choisies dans un petit panel qui constitue un alphabet. Nous revisitons un concept que la nature a perfectionné pendant des milliards d’années : celui de l’ADN, qui permet de coder le génome avec seulement quatre « lettres » moléculaires de base ».

Les promesses sont certaines. Avec ce procédé, les données de l’Internet pourraient être stockées dans un espace comparable celui d’une petite armoire.

Par Sébastien Tribot

Sources :

300 entreprises nano en France sur votre iPad !

Ce secteur dynamique et à la pointe, marqué par l’innovation et l’entrepreneuriat, évolue très rapidement. Bénéficiant d’un contexte d’aide et d’investissements favorable aux nanotechnologies, les entreprises françaises sont en nombre croissant sur ce marché. Nous avons recensé plus de 60 nouvelles start-up, principalement dans les secteurs de l’électronique, des biotechnologies et de la santé. Bien que plus difficiles à identifier car elles n’en font pas toujours la promotion, les sociétés traditionnelles qui intègrent progressivement (et à différents niveaux) les nanotechnologies à leurs activités sont, elles aussi, de plus en plus nombreuses.

Un secteur dynamique et en évolution

Le tissu industriel français des nanotechnologies n’est pas facile à identifier car il couvre un large éventail de secteurs industriels, de disciplines scientifiques et de typologies d’entreprises. Il correspond même à des réalités différentes suivant la définition donnée aux nanotechnologies. En classant les entreprises selon différents critères : par secteur, par structure, par type de nanomatériaux et par localisation géographique, cet annuaire tente d’aider le lecteur à se repérer dans cet environnement concurrentiel. Quelles entreprises participent au développement des nanotechnologies en France ? Quels sont les produits déjà sur le marché et ceux à venir ? Qui sont les producteurs, les intégrateurs, les utilisateurs ? Où trouver les compétences, les installations, les financements ? Nous espérons que, comme les précédents, cet annuaire facilitera les synergies et les collaborations entre les acteurs du domaine.

Format ebook pour tablettes électroniques

Pour la troisième édition de l’annuaire des nanotechnologies, Techniques de l’Ingénieur propose, en complément de l’ouvrage papier, une version numérique au format ePub pour liseuses, tablettes tactiles et smartphones.

L’ePub est un format de livre numérique (ou ebook). Excepté l’Amazon Kindle, toutes les liseuses sont compatibles avec le format ePub. Diverses applications de lecture sont également disponibles pour les ordinateurs personnels comme Adobe Digital Editions, Readium ou FBReader.

Le moteur de recherche permet d’interroger la base de données par mot-clé, par secteur industriel et par type de société. La carte interactive peut être utilisée pour effectuer une recherche par zone géographique. Enfin, cette version numérique est enrichie de liens internes permettant une lecture optimisée ainsi que des liens pointant vers les sites des entreprises et leur compte Twitter.

Les pages suivantes présentent quelques exemples pour mieux évaluer l’ergonomie de cet outil.

  • En savoir plus

  • un exemple de fiche entreprise : Colcom, fournisseur de nanomatériaux, avec ses coordonnées, la description de son activité, les mots-clés associés à son expertise et les secteurs industriels concernés.

  • un autre exemple de fiche entreprise : Biomet, utilisateur de nanomatériaux dans le domaine de la santé.

  • la page de sommaire de l’annuaire avec les différents moyens d’interrogation de la base de données : par mot-clé, par secteur, par type d’entreprise, par ordre alphabétique, par zone géographique.

  • les différents secteurs industriels à l’intérieur desquels sont classées les entreprises.

  • un exemple de recherche multicritère en sélectionnant le type d’entreprise, le secteur concerné et la région de France.

  • un exemple de recherche par mot-clé avec les suggestions de termes proposés par le moteur de recherche

  • la carte de France interactive avec les régions cliquables pour retrouver les entreprises par zone géographique. Les niveaux de bleu par région sont liés au nombre d’entreprises présentes sur le territoire.

News informatique : avril 2014

La promesse de la réalité augmentée de la start-up META

Une start-up fondée par un Israélien, Meron Gribetz, promet de révolutionner la réalité augmentée en lançant en juin 2014 de nouvelles lunettes, bien plus performante que les Google Glass. L’idée d’embarquer un ordinateur capable d’afficher des informations contextuelles dans le champ de vision de son utilisateur a pu se concrétiser pour le grand public ces dernières années. Le produit le plus connu est certainement les Google Glass.

Elles se présentent sous la forme d’un petit écran transparent qui se superpose dans le champ visuel supérieur droit de l’oeil droit de son utilisateur. En termes de fonctionnalités, on se rapproche d’un smartphone, sans le besoin de le sortir de sa poche ou de le tenir à la main.  Similaires aux Google Glass, les produits de Recon Instruments comme le MOD live, permettent l’affichage de données comme la vitesse, l’altitude, la température et autres statistiques utiles pour les sportifs (skieurs, cyclistes ou amoureux du wingsuit). L’écran est positionné à l’intérieur d’un masque de ski et demande à l’utilisateur de regarder en bas à droite pour pouvoir le lire. Contrairement aux Google Glass, il n’est pas transparent.

Le concept de META est radicalement différent. L’entreprise ne veut pas se contenter de proposer un simple dispositif d’affichage tête haute, mais une véritable expérience de réalité augmentée. L’objectif est très ambitieux car pour pouvoir créer une expérience de réalité augmentée convaincante il faut déjà être capable de maitriser la création de réalité virtuelle. Dans ce domaine, on assiste actuellement à une percée technologique de la start-up Oculus VR – récemment rachetée par Facebook – avec son prototype Oculus Rift.

Déjà disponible pour les développeurs, il se présente sous la forme d’un masque avec deux écrans, un pour chaque oeil afin de créer un effet de profondeur, et bardé de capteurs inertiels pour connaître en temps réel l’orientation de la tête de l’utilisateur. Le principe est de changer la perspective de ce que voit l’utilisateur en fonction de ses mouvements de têtes. Le concept est connu et utilisé depuis des années mais n’a pas pu percer pour le grand public jusqu’à maintenant à cause de la lourdeur du dispositif et la latence d’affichage qui crée des maux de coeurs après quelques minutes d’utilisation. Deux problèmes qu’Oculus VR dit avoir résolu, ce qui devrait permettre sa commercialisation dans le courant de l’année 2014 au prix de lancement de 300 dollars.

Pour réussir son défi de réalité augmentée, la start-up israélienne META doit atteindre le même niveau technique que l’Oculus Rift, mais au lieu d’utiliser un masque pour l’affichage, doit être capable d’afficher l’image des écrans sur des verres de lunettes transparents. De plus, afin de pouvoir superposer des éléments virtuels à la réalité, le système doit être capable de percevoir en 3D son environnement immédiat et le faire coïncider avec ce qu’il affiche en prenant en compte les mouvements de tête de l’utilisateur, le tout avec un très faible latence. Pour le capteur 3D, l’entreprise peut s’appuyer sur les technologies RGB-D des sociétés israéliennes PrimeSense ou Time of Flight, déjà utilisées dans les capteurs Kinect v1 et v2 de Microsoft. Cependant, au vu de la taille de ces capteurs, de l’encombrement de l’Oculus Rift et de la puissance de calcul nécessaire, il est difficile de croire que META arrivera ses objectifs d’ici juin 2014. Les différentes briques technologiques sont là, mais leur niveau de miniaturisation et d’intégration n’est pas encore assez poussé.

Source d’énergie et refroidissement capillaire : vers une miniaturisation des supercalculateurs

Inspiré par le système capillaire sanguin du cerveau humain 10.000 fois plus dense et 10.000 fois plus efficace énergétiquement qu’un ordinateur actuel, le projet Repcool a pour but de développer un réseau de micro-canaux permettant de refroidir et d’alimenter en énergie des assemblages 3D de puces électroniques.

Pour cela le réseau capillaire doit être alimenté par des solutions électrolytiques reliées à une batterie redox à flux.  Les chercheurs sont convaincus de pouvoir réduire à dix litres de volume les ordinateurs actuels d’une vitesse d’un pétaFLOPS qui nécessitent aujourd’hui le volume d’une salle de cours. La technique d’empilement 3D des puces électroniques peut aider à contrer l’augmentation du volume due à l’accroissement perpétuel, selon la loi empirique de Moore, du nombre de transistors présents dans les ordinateurs mais nécessite alors la mise en place d’un système de refroidissement plus efficace et d’approvisionnement en énergie adapté.

Des systèmes de refroidissement capillaire passant entre les différents étages de puces ont déjà été développés et ont permis de consommer 40% d’énergie en moins qu’un système de refroidissement par ventilation, mais dans ce projet le fluide étant une solution électrolytique d’autres aspects liés à sa fonction de fournisseur d’énergie doivent être développés.  Les solutions électrolytiques du système capillaire sont alimentées par une batterie centrale reliée à plusieurs électrodes destinataires placées entre les différentes couches de puces électroniques afin de les refroidir et de les fournir en courant.

Le système doit donc être miniaturisé au maximum, la densité de puissance doit être augmentée et des études plus approfondies sur les membranes inter-électrolytes, le choix du couple redox utilisé, la réaction des électrolytes aux variations de température et la résistance des métaux en contact avec les électrolytes acides doivent être conduites. Dans ce contexte, d’après le Dr. Bruno MICHEL, directeur de l’unité de recherche Advanced Thermal Packaging chez IBM à Rüschlikon, une vingtaine d’années seront nécessaires avant la mise en service d’un supercalculateur haut de gamme à l’échelle du zettaFLOPS 

Prototypage rapide de systèmes énergétiques futurs

Un Laboratoire pour la simulation et l’automatisation d’énergie intelligente, baptisé SESA-Lab, a ouvert ses portes le 28 mars 2014 au sein de l’Institut d’informatique d’Oldenburg (OFFIS, Basse-Saxe). Il va permettre aux entreprises industrielles et de recherche de simuler les interactions des différents composants de systèmes énergétiques futurs en conditions réelles. Ainsi, le laboratoire met l’accent sur le domaine de l’informatique de l’énergie, à la fois dans le département de R&D de l’OFFIS et à l’Université d’Oldenburg.

L’informatique en général, et en particulier appliquée à l’énergie, concerne la modélisation, la simulation et l’optimisation informatiques de sous-systèmes dans le but de vérifier et d’améliorer les propriétés et le comportement du système global, rapidement et à peu de frais. Cependant, ces modèles ne se substituent pas à la réalité. En effet, des contraintes et effets dépendant du temps sont difficiles à représenter dans des modèles purement virtuels, tout comme les situations d’erreur dans les composants électriques ou mécaniques du système.

C’est là que le SESA-Lab intervient. Dans son environnement logiciel et matériel, de nouvelles solutions pour les réseaux intelligents peuvent y être testées avant d’être lancées, afin d’évaluer leur comportement dans les interactions complexes des systèmes énergétiques futurs. Le SESA-Lab a choisi une approche novatrice de co-simulation de systèmes de contrôle et régulation intelligents en temps réel, afin d’évaluer entièrement les composants innovants de protection et de contrôle du système, et de les utiliser rapidement et sans risque.

L’objectif du SESA-Lab est de développer et de tester rapidement des systèmes de contrôle et de régulation pour les systèmes énergétiques futurs (prototypage rapide) ; il cherche ainsi à réduire le temps de développement et de mise sur le marché des systèmes d’automatisation à base de TIC nécessaires dans ce domaine.  Le SESA-Lab fait partie d’une structure de laboratoire baptisée « Technologies de l’information et de la communication pour l’efficacité énergétique », qui a été approuvée l’an dernier par le gouvernement fédéral et le Land de Basse-Saxe, en tant qu’unité de recherche majeure ; elle est actuellement en cours de construction à l’OFFIS. La candidature pour obtenir ce statut a été faite conjointement par les structures universitaires participantes, et combine la production et la logistique intelligentes et efficaces énergétiquement, avec les réseaux d’alimentation électrique. Le laboratoire complet se compose d’un système de manutention avec des véhicules à propulsion électrique, d’unités de production et d’un simulateur de réseau de distribution pour les réseaux intelligents, à savoir le SESA-Lab.

Apple vend plus d’iPhone et récompense ses actionnaires

Sur les trois mois achevés fin mars, qui correspondent au deuxième trimestre de son exercice décalé, la marque à la pomme a écoulé 43,71 millions d’unités (+14% sur un an). C’est davantage que les 38,2 millions auxquels s’attendaient les analystes financiers.

Le groupe répond ainsi à ses détracteurs qui estimaient qu’il avait perdu son élan. Il ne dit pas si ces bonnes ventes sont liées à son partenariat avec le plus gros opérateur de télécoms chinois, China Mobile, qui a commencé à vendre sa gamme de smartphones en janvier.

Les ventes de l’iPad, sa gamme de tablettes électroniques, ont baissé de 13% sur un an, à 16,35 millions d’unités, selon un communiqué.

Au total, son chiffre d’affaires s’élève à 45,64 milliards de dollars, en hausse de 4%. C’est bien meilleur que les 43,53 milliards de dollars attendus qui laissaient entendre que la marque à la pomme allait essuyer le premier recul trimestriel de ses ventes en 11 ans.

Le bénéfice net est ressorti en hausse de 7,1%, à 10,2 milliards de dollars. Cela se traduit par un résultat hors éléments exceptionnels, référence à Wall Street, de 11,62 dollars, supérieur de 1,44 dollar aux anticipations des marchés.

Pressé par des investisseurs activistes, ces milliardaires qui entrent dans des entreprises pour bousculer les directions, Apple a décidé d’accélérer son rachat d’actions, une façon de partager son gros trésor de guerre avec ses actionnaires.

Il a augmenté de 30 milliards de dollars ce programme, désormais à 90 milliards de dollars.

Le groupe informatique a par ailleurs annoncé qu’il allait diviser par sept son action, qui fut longtemps l’une des plus chères à Wall Street.

Cette mesure prendra effet à compter du 9 juin prochain.

Ces annonces étaient saluées par les investisseurs: après avoir été momentanément suspendue, l’action bondissait de plus de 7,50% à 564,10 dollars vers 21H15 GMT dans les échanges électroniques à la Bourse de New York.

lo/sl/bdx

 

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Représentation ternaire de la situation énergétique des nations

Près de chez nous, par exemple, l’Allemagne est le type même de ces parangons de vertu, maniant les concepts fumeux de « virages énergétiques » alors que ses qualités énergétiques, dans la réalité assez « charbonneuses », sont très médiocres. De plus, son parc automobile est encore fort éloigné des standards spécifiés par l’UE.

Pour essayer de simplifier cette équation je vous propose de classer simplement les consommations énergétiques en trois grandes familles, et seulement trois: un, le pétrole et ses produits raffinés ; deux, les charbons et  lignite ; et enfin, en trois, toutes les autres formes de consommations allant du gaz naturel aux diverses formes d’énergies renouvelables, en passant par l’énergie nucléaire et l’hydroélectricité.

J’ai rassemblé les données par nations et pour le monde à partir du Tableau des consommations nationales énergétiques par types (« Primary Energy : consumption by fuel type ») publié dans la « BP Statistical Review » en Juin 2013.

Fig.1 : Mix des consommations d’énergies primaires en 2012

Dans ce type de graphique à trois axes (Fig.1), il est possible à partir d’un point représentant un pays de retrouver les parts des trois types de consommations énergétiques primaires, exprimées en pourcents. La part du charbon est obtenue sur l’axe charbon à l’interception de la demi-droite issue du point et parallèle à la base du triangle (Axe A), celle du pétrole grâce à  la demi-droite issue du point et parallèle à l’axe C et enfin la part des autres formes d’énergies au moyen de la demi-droite issue du point et parallèle à l’axe B du graphique.

Prenons un exemple : la Grèce qui consomme un peu plus de 25% de charbon et en proportion légèrement plus de pétrole que l’Arabie Saoudite, présente pour les autres énergies la consommation la plus faible du panel.

Sera énergétiquement vertueux et louable le pays dont le point représentatif sur ce graphique se rapprochera, en suivant la flèche, année après année du smile en bas à gauche (pétrole 0%, charbon 0% et autres 100%).

Dès le  premier examen de cette représentation, il est possible de distinguer deux points particuliers représentant la Chine et la Pologne qui se situent vers le haut du triangle avec des consommations de charbon élevées dont 64% pour la Chine, point le plus haut de la sélection.

Il est possible également, vers la base du triangle, entre la vertueuse Norvège et l’Arabie Saoudite de retrouver les Nations ne consommant pas, ou peu, de charbon dans leur mix énergétique. La Suède, la France en font partie.

Au centre du graphique l’Allemagne, les USA, représentent des Nations aux mix énergétiques diversifiés et proches de la moyenne mondiale,  tirée vers le haut par la Chine.

La France n’est pas très loin du cercle vertueux des Nations proches du smile (Norvège, Suède, Russie), pour le rejoindre il lui suffirait de réduire ses consommations de pétrole et de produits raffinés du pétrole, ce qui n’est pas une mince affaire.

Notre pays se trompe totalement de direction en dépensant ses maigres ressources financières dans des projets fumeux de génération éolienne offshore d’électricité, alors que son vrai problème énergétique est une trop forte consommation en produits pétroliers, à la fois dans le chauffage et les transports. Consommations inhérentes à la taille en surface et en population de notre pays, mais qui, par des progrès accélérés dans l’efficacité énergétique des processus, devraient décroitre plus rapidement qu’elles ne le font naturellement, surtout qu’elles ont même tendance à croitre ou se stabiliser depuis le printemps 2013 (Fig.2).

Fig.2 : consommation en produits pétroliers et autres biocarburants

D’autre part, la substitution d’une part des produits pétroliers, importés à grands frais, par des biocarburants locaux pourrait constituer également une action à privilégier en France, en relation avec la politique agricole et les innovations dans la biosynthèse d’ersatz de gazole ou de kérosène à partir de sucres (Amyris, Deinove).

C’est toute une industrie des biocarburants à forte valeur ajoutée (kérosène, gazole) qui reste à développer dans notre pays et dont la rentabilité devrait pouvoir être assurée avec la montée des cours des produits pétroliers de plus en plus recherchés et consommés dans le monde.

Par Raymond Bonnaterre

 

Les nanofibres et la nouvelle génération de pansements

Au nombre des applications tangibles, on retrouve par exemple l’utilisation de nanoparticules d’oxyde de cérium comme catalyseur de carburant, ou bien comme élément limitant la perméabilité de l’intestin à certains radionucléides. Plus proche de nous encore, l’émergence des pansements « liquides », favorisant la cicatrisation et agissant comme une seconde peau, est la preuve que le domaine médical est l’un des terrains de jeu les plus stimulants pour la recherche en nanotechnologie.

Nanofibres polymériques biodégradables

Ces pansements liquides s’inscrivent dans la droite lignée de l’évolution des bandages et des sutures légères, se positionnant comme d’efficaces compléments mais ne permettant pas encore de remplacer les points traditionnels, lorsqu’il est nécessaire de recoudre une plaie plus ou moins profonde, qu’elle soit due à une intervention chirurgicale ou en solution d’appoint sur une blessure.

Les chercheurs se sont rapidement orientés vers l’utilisation de nanofibres de polymère, d’abord sous la forme d’une pâte collante puis sous la forme d’une couche plus ou moins épaisse et biodégradable, à appliquer localement sur une incision immédiatement après l’intervention ou sur une blessure, afin de sceller la plaie tout en favorisant la guérison.

Pour autant, les moyens utilisés jusqu’à présent pour l’application de cette couche sont complexes, et ne seraient pas ou peu compatibles avec le bon fonctionnement de nos cellules et de nos tissus biologiques.

Pulvériser les nanofibres à l’aide d’un aérographe

Une équipe de chercheurs de l’université du Maryland (College Park) aurait résolu ce problème de manière peu orthodoxe, en parvenant à pulvériser les nanofibres polymériques directement sur les tissus, à l’aide d’un aérographe sorti tout droit… d’une quincaillerie. Pour les néophytes et les bricoleurs du dimanche, un aérographe est un pistolet à peinture de la taille d’un stylo permettant de peindre une surface sans contact avec celle-ci, grâce à un compresseur ou à une bombe d’air comprimé.

Implants biodégradables et matrice de soutien

Ces nanofibres polymériques auraient montré un fabuleux potentiel, non seulement dans le domaine chirurgical, mais elles constitueraient également le matériau idéal pour créer des implants biodégradables permettant de libérer des molécules et substances médicamenteuses, assurant une diffusion régulière sans nécessiter d’intervention supplémentaire pour s’en débarrasser.

Elles pourraient enfin avoir un rôle à jouer en ingénierie tissulaire, servant de matrice de soutien lors de la création de substituts de tissus fonctionnels avant d’être implantés, ou stimulant la régénération de tissus déficients.

Le filage électrostatique ou « electrospinning »

La fabrication des nanofibres nécessite le recours à un procédé complexe, le filage électrostatique ou « electrospinning » – une technique consistant à dissoudre un polymère dans un solvant à concentration donnée et à introduire cette solution dans un champ électrique intense via une aiguille métallique, d’après N. Khenoussi, de l’université de Mulhouse. Ce procédé ne serait pas sans conséquence et abîmerait très sérieusement les cellules vivantes si les nanofibres étaient fabriquées in situ. C’est en imaginant un moyen de créer ce matériau directement sur le tissu que Peter Kofinas, bio-ingénieur américain ayant dirigé l’équipe universitaire, a pensé à utiliser un aérographe.

« Utiliser un aérographe pour appliquer des bio-matériaux directement sur les tissus est une perspective alléchante », s’enthousiasme même Jeffrey M. Karp, une sommité de l’université de Harvard et du Massachusetts Institute of Technology (MIT).

PLGA et acétone

Une fois arrêté le choix de Kofinas sur un polymère dérivé des acides lactiques et glycoliques (PLGA), l’équipe de chercheurs s’est échinée à concocter une préparation compatible avec l’aérographe, influant sur le poids moléculaire du polymère et sur la concentration en acétone (le solvant) pour aboutir à la production d’une fibre d’environ 370 nanomètres de diamètre. L’acétone aurait, selon Kofinas, la bonne idée de s’évaporer avant d’atteindre la peau, suggérant donc qu’il n’y aurait plus de problème de toxicité à craindre. Les nanofibres testées ont permis de refermer des entailles sur un poumon, le foie et l’intestin d’un cochon. Leur biodégradation serait complète sur une période de quarante-deux jours.

Par Rahman Moonzur

Un médicament peut-il transmettre la connaissance ?

Décidément, le cerveau humain reste un organe qui suscite de nombreuses conjectures. Dernière en date, la sortie remarquée d’un informaticien, professeur et fondateur du Media Lab de l’université technologique MIT, sur une nouvelle façon d’apprendre. 

A l’occasion d’une conférence au Canada, Nicholas Negroponte a affirmé que « Nous pourrons littéralement ingérer de l’information. Une fois que l’information est dans votre sang, un mécanisme permettrait de la déposer dans votre cerveau. Ainsi, vous pourrez avaler une pilule et connaître l’anglais ou l’œuvre de Shakespeare. » Encore plus fort que Superman capable de lire un pavé de 1000 pages en quelques secondes, il suffira de gober un médicament pour avoir lu le livre, et s’en souvenir !

 Une façon d’acquérir de la connaissance pour le moins ambitieuse sur le plan technique. Car à ce jour, aucune technologie ne permet ne serait-ce que d’entrapercevoir une telle chose. Qu’est-ce qui a poussé ce chercheur influent à prononcer une telle prophétie ? La conviction, la provocation, l’inconscience ? Nul ne sait, mais depuis, les discussions s’affolent, opposant ceux qui jugent l’assertion plausible à ceux qui la jugent irréalisable. Car s’il est possible d’améliorer les performances du cerveau en boostant sa mémoire par exemple, c’en est une autre que d’y imprimer une donnée bien précise. 

Nicholas Negroponte a peut-être été inspiré du film Elysium, dans lequel les personnages pouvaient exporter des données de leur propre cerveau mais aussi télécharger des informations directement dans leur cerveau. Pratique, mais parfois dangereux. Alors pourquoi ne pas imaginer de transporter l’information via une pilule ou un médicament ? Reste à comprendre comment importer les données contenues dans la pilule dans le cerveau… 

Bien que les propos de Nicholas soient plus un coup de com’ qu’une réelle conviction motivée par des faits scientifiques, l’idée de pouvoir apprendre sans effort a de quoi séduire les plus fainéants d’entre nous, et les autres aussi !

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

News environnement : avril 2014

Nanostructure + énergie solaire = dépollution de l’eau ?

Dans un contexte d’épuisement des ressources naturelles, l’énergie solaire nourrit de grandes ambitions auprès d’une communauté scientifique en quête d’énergies alternatives.

La récente collaboration entre les chercheurs de l’Université de Lettonie (Institut de physique des solides) et de l’Université Technique de Riga (Institut des matériaux silicatés et Institut de physique technique) a débouché sur la fabrication d’un revêtement nanocristallin, avec les qualités suivantes : excellente capacité d’absorption de la lumière, très bonne conductivité électrique et faible coût de production.

Pour fabriquer ce revêtement aux propriétés attrayantes, les chercheurs détaillent leur méthode, qu’ils divisent en deux étapes. D’abord, un procédé sol-gel permet de produire, à partir de plusieurs matériaux bruts, une nanostructure riche en particules d’oxyde de zinc (ZnO). Ces particules permettront une absorption élevée de la lumière. La deuxième partie de la méthode consiste à appliquer une radiation laser à la nanostructure, pour améliorer ses propriétés de conductivité. Cette étape est cruciale, car elle diminue significativement la résistance électrique de la nanostructure, ou de manière équivalente augmente sa conductivité électrique.  La nanostructure obtenue offre, selon les chercheurs, plusieurs applications industrielles.

D’abord, sa capacité d’absorption de la lumière la rend très efficace au sein de cellules photovoltaïques pour produire de l’électricité. Outre la production d’énergie, elle peut également être un excellent moyen d’éliminer la pollution. Par exemple, si la nanostructure est immergée dans des eaux usagées, la phase d’absorption de lumière par la nanostructure s’accompagne d’une oxydation, phénomène connu sous le nom de photocatalyse, contribuant au nettoyage de l’eau.

Peu gourmand en énergie, ce procédé permettrait de décontaminer les eaux issues des industries alimentaires ou textiles à moindre coût. Enfin, de telles nanostructures interviennent dans la fabrication de plusieurs composants électroniques : diodes, puces et transistors.  Cette découverte s’inscrit dans le projet « Technologie sol-gel et laser pour former des nanostructures », financé par le fond de développement régional européen, et a d’ores et déjà été l’objet de trois brevets européens et de onze publications dans des journaux scientifiques internationaux.

Toxicité & biodiversité : relations déchiffrées par des chercheurs belges

Des chercheurs des universités de Namur et de Gand ont mis au point le premier modèle capable de prédire l’impact des produits chimiques sur la biodiversité aquatique. Leurs travaux mettent également en évidence qu’au sein d’une même espèce, les individus réagissent différemment aux produits toxiques, et ce davantage qu’on le pensait jusqu’à présent. Une variable qui est prise en compte par leur nouveau modèle. Ces résultats de recherche viennent d’être publiés dans la prestigieuse revue ‘Ecology Letters’.

Jusqu’à présent, il était impossible de prédire la relation entre la toxicité chimique et la diversité des communautés aquatiques, ce qui rendait difficile une conservation environnementale efficace.  En collaboration avec un consortium international, l’Unité de recherche en biologie environnementale et évolutive de l’Université de Namur (Frédérik De Laender) et le Laboratoire de toxicologie de l’environnement de l’Université de Gand ont développé la première théorie qui permet de prédire la biodiversité en fonction de gradients de stress toxique.

En combinant cette théorie aux données des écosystèmes pollués, les chercheurs ont également démontré que la variabilité de la tolérance de toxicité est cinq à dix fois plus élevée entre des individus de la même espèce qu’entre individus de différentes espèces. C’est d’ailleurs cette variabilité au sein d’une même espèce qui permet d’assurer la pérennité de celle-ci en cas de forte pollution chimique. Prendre en compte cette variable a permis d’affiner le modèle des chercheurs.  Ce nouveau modèle pourrait servir la législation environnementale qui règlemente la production et l’utilisation de produits chimiques afin de protéger la diversité de nos eaux de surface.

[*page*]

L’étude de la glace des rivières met en évidence de nouveaux éléments dans la fonte de l’Arctique

Une nouvelle étude menée par le Prof. Lance Lesack, un géographe de l’Université Simon Fraser et de la Faculté en Environnement, montre l’existence de changements inattendus liés au réchauffement climatique dans la rupture importante de glace de la Mackenzie River. Cette découverte pourrait aider à résoudre le casse-tête complexe qui sous-tend la raison pour laquelle la glace de l’Arctique est en train de disparaître plus rapidement que prévu. Publiée récemment dans Geophysical Research Letters, l’étude implique des co-auteurs de l’Université Wilfrid Laurier, de l’Université d’Alberta et de l’Université Memorial.

Son objectif était de comprendre comment le réchauffement des températures mondiales et l’intensification du cycle hydrologique de l’Arctique associés pouvaient être le moteur de l’augmentation des rejets d’eau et de la fonte plus rapide dans les grandes rivières de l’Arctique. Mais les chercheurs ont découvert un phénomène inattendu, alors qu’ils essayaient de comprendre pourquoi la fonte annuelle de glace de la rivière Mackenzie a été réduite, alors même que son évacuation d’eau n’augmentait pas.

Des printemps légèrement plus chauds associés à une baisse non prévue des chutes de neige – plutôt que des hivers plus chauds comme on le pensait – peuvent mener à une fonte des glaces dans les rivières de l’Arctique plus tôt que prévu. La Mackenzie River illustre ce phénomène inattendu. Les chercheurs ont découvert cela en accédant à des documents datant de 1958 relatifs aux niveaux d’eau de la rivière, aux épaisseurs de neige, aux températures de l’air et aux périodes de dégel.

Cette constatation est importante, compte tenu du fait que la neige de l’Arctique et les systèmes impliquant la glace sont des composantes importantes du système climatique qui affectent la capacité de la Terre à réfléchir le rayonnement solaire. « Le fait surprenant dans notre découverte est que les températures printanières, la période où se produit la fonte de la glace de la rivière, s’étaient réchauffées de 3,2 degrés Celsius. Pourtant, ce petit changement a été responsable de plus de 80 pour cent de la variation dans les ruptures précoces de la glace, alors que les températures hivernales s’étaient réchauffées de 5,3 degrés mais donnaient peu d’explication sur cette variation », explique le Prof. Lesack.

« C’est une réponse forte à la fonte des glaces pour un degré relativement modeste de réchauffement, mais une enquête plus approfondie a montré qu’à la fin de l’hiver, les épaisseurs de neige avaient également diminué d’un tiers au cours de cette période. Des hauteurs de neige plus faibles signifient qu’il faut moins d’énergie solaire pour permettre la fonte « .  Le Prof. Lesack espère que les résultats de cette étude vont inciter les organismes gouvernementaux canadiens à reconsidérer leurs mouvements vers la réduction ou l’élimination des programmes de surveillance au sol qui mesurent les variables environnementales importantes.

Revue du web #59 : les vidéos étonnantes de la semaine

Cette semaine dans la revue du Web : 

  • La nature pour inspiration, avec le kangourou bionique de la société allemande Festo ; 
  • Répondre à une question essentielle : « Peut-on absorber du mercure liquide avec une éponge ? »
  • Remplir un ballon de baudruche… avec du mercure liquide ;
  • Classique : la chute ralentie d’un aimant permanent dans un épais tube de cuivre
  • Le gadget (inutile?) de la semaine : fabriquer des avions en papier à l’échelle industrielle ; 
  • Bonus : concevoir une petite excavatrice à système hydraulique avec quelques seringues.

La nature pour inspiration, avec le kangourou bionique de la société allemande Festo 

Pour débuter notre cinquante-neuvième Revue du Web, commençons par rendre une petite visite à la jeune start-up allemande Festo, spécialisée dans le développement et dans l’innovation des mouvements robotiques. Dernier né de leur laboratoire de recherche, le bien-nommé « BionicKangaroo », un kangourou robotique de presque 7 kilos dont le fonctionnement est pour le moins léché, et qui reproduit assez fidèlement le saut caractéristique du célèbre marsupial.

Équipé de deux moteurs au niveau des hanches et d’un moteur pour articuler la queue, le kangourou bionique de Festo allie intelligemment des actionneurs électriques et pneumatiques, offrant à l’ensemble du système un grand dynamisme. La stabilité du saut surprend, de l’impulsion jusqu’à la réception, dans un cycle d’une étonnante fluidité. En l’air, les jambes se placent en avant pour assurer une bonne réception tandis que de menus ajustements de la position de la queue permettent de contrôler l’équilibre en vol. Le contact avec la terre ferme retend les pattes arrières pour amorcer le prochain saut.

Le kangourou bionique vient s’ajouter au bestiaire déjà fantastique de Festo, composé d’un goéland robot dont nous vous parlions ici et d’une très élégante libellule robotique que vous pouvez retrouver .

Question essentielle : « Peut-on absorber du mercure liquide avec une éponge ? »

Un jour, tout va bien. Puis le lendemain, tout bascule lorsqu’on se réveille avec des crampes d’estomac et une question qui nous pollue l’esprit, de celles qui semblent de prime abord absurdes mais dont la résolution est néanmoins indispensable. Victime de l’une de ces terribles matinées, un scientifique en herbe s’est mis en tête de répondre à une question essentielle  : « Peut-on absorber du mercure liquide avec une éponge ? ».

Sans se démonter, il va s’armer d’une éponge synthétique et d’une petite quantité de mercure liquide pour tenter l’expérience et ainsi gagner sa délivrance. Il montre dans un premier temps que l’éponge est bien une éponge classique et qu’elle remplit bien sa fonction première, à savoir qu’elle absorbe bien l’eau. Il passe ensuite au cœur du problème, en plongeant cette même éponge – sèche, cette partie de l’expérience ayant été réalisée avant – dans un verre contenant du mercure liquide, avec toutes les précautions d’usage. Loin d’absorber quoi que ce soit, l’éponge reste désespérément sèche, malgré les tentatives répétées de notre vidéaste amateur.

L’une des raisons de cet échec est la force capillaire : l’éponge s’imbibe d’eau car les molécules d’eau remontent par capillarité dans les espaces de celle-ci, similaires à de petits tubes. Le mercure, lui, a une tension superficielle très élevée, et n’a que peu d’affinités avec les molécules synthétiques de l’éponge. Il va donc se dissocier au plus vite de l’accessoire synthétique, la force de cohésion entre les molécules de mercure étant plus forte que la force d’adhésion entre le mercure et l’éponge.

Remplir un ballon de baudruche… avec du mercure liquide

Pas rassasié pour un sou par l’expérience précédente, notre internaute à l’intarissable curiosité s’est lancé dans une autre aventure, pour le moins farfelue : remplir un ballon de baudruche… avec du mercure liquide, une fois de plus. Muni d’un entonnoir, il verse 1918 grammes de mercure liquide – que l’on désignait encore jusqu’au XIXe siècle le « vif-argent » – dans le ballon de baudruche. La très grande densité du mercure fait le reste, et le ballon se retrouve piégé par son propre poids. Essayer de le soulever par son extrémité n’y fait rien, tant le ballon semble se distendre, menaçant même d’éclater si d’aventure il nous venait à l’esprit de s’obstiner encore.

Classique : la chute ralentie d’un aimant permanent dans un épais tube de cuivre

Vous avez déjà pu voir, dans l’une de nos précédentes Revues du Web, quelques vidéos illustrant l’étrange chute ralentie d’un aimant permanent dans un tube de cuivre. Pourtant, aucune ne l’a aussi bien immortalisée que la vidéo qui suit. Concrètement, la chute de l’aimant dans le tuyau de cuivre induit des courants de Foucault, créant un champ magnétique de polarité inverse à celui de l’aimant, freinant ainsi la chute. C’est donc le mouvement qui nourrit son propre freinage : le mouvement stoppé impliquerait la fin du champ magnétique et donc… la chute de l’aimant.

L’aimant permanent est composé d’un classique alliage de néodyme fer bore (structure cristalline tétragonale de formule Nd2Fe14B), l’alliage le plus souvent utilisé pour les aimants en terres rares, puisque le néodyme augmente de manière significative les capacités électromagnétiques des aimants, mais est relativement fragile et trop malléable. On retrouve d’ailleurs de grandes quantités de néodyme dans les alternateurs des éoliennes à forte puissance.

Le gadget (inutile?) de la semaine : fabriquer des avions en papier à l’échelle industrielle

Souvent associé à l’irrévérence scolaire de quelques cancres en proie à un insondable ennui, l’avion en papier peut réclamer dextérité et savoir-faire lorsqu’il s’agit de le faire planer le plus longtemps possible. Le gadget (inutile?) de la semaine ne battra pas le record du plus long vol en salle (27,6 secondes !), mais il a le mérite d’être capable de fabriquer à la chaîne et de propulser le plus simple des origamis. Il suffit de nourrir la machine en papier, comme on le ferait avec une photocopieuse, puis de laisser la magie opérer.

Présentée lors de la Drupa 2012 – le plus grand salon international des industries graphiques et papetières, qui a lieu tous les quatre ans à Düsseldorf – cette machine aussi fantastique qu’inutile dore un peu plus encore le blason du fabricant français Neopost, fournissant les salles de courrier du monde entier en équipements et machines à affranchir. Cerise sur le gâteau, l’avion vient terminer sa course dans un carton qu’on aime imaginer prévu à cet effet.

Bonus : concevoir une petite excavatrice à système hydraulique avec quelques seringues

En bonus de cette cinquante-neuvième Revue du Web, tirons notre chapeau à un jeune Brésilien qui nous prouve une fois de plus que les plus débrouillards sont capables de montagnes d’ingéniosité lorsqu’il s’agit de concevoir ou de reproduire un système complexe, mais avec les moyens du bords. Ce petit McGyver brésilien est parvenu à mettre sur pied une excavatrice miniature, dont l’ingénieux système hydraulique, bricolé sur mesure, repose sur un jeu parfaitement agencé de quelques seringues connectées en doublons et partiellement remplies d’eau. Actionner l’une des seringues permet au choix d’ouvrir ou de fermer la pelle, de lever ou d’abaisser le bras ou encore de faire pivoter l’ensemble. Encore bravo !

Par Moonzur Rahman