Encore plus de miniaturisation en électronique : la diode moléculaire

http://www.bulletins-electroniques.com/actualites/60837.htm

Une équipe de chercheurs du Biodesign Institute de l’université d’Arizona State a conçu un composant électronique à partir d’une molécule unique : une diode moléculaire. Concevoir des diodes plus petites, moins chères, plus rapides et plus efficaces représente un grand espoir pour le futur de l’électronique. Les diodes en électronique représentent un ingrédient essentiel. Elles sont utilisées partout et dans toutes les puces électroniques de l’industrie du semiconducteur. Les experts de cette industrie ont depuis longtemps annoncé que la fameuse loi de Moore, sur l’évolution de la microélectronique, qui stipule que le nombre de transistors intégrés sur une puce en silicium double tous les 18-24 mois, risque bientôt de ne plus pouvoir être respectée car l’on atteint déjà les limites physiques en termes de taille pour la gravure des transistors. Comme les transistors, les diodes sont irremplaçables, par exemple pour des systèmes de conversion de puissance, pour les radios, les portes logiques, des photo détecteurs, ou en électro luminescence (les fameuses LEDs).Le principe d’une diode est de ne laisser passer le courant que dans une unique direction. Pour qu’une molécule ait cette propriété, elle doit être physiquement asymétrique, et bien sûr pouvoir s’intégrer dans un circuit électronique, c’est-à-dire d’un coté, être capable de former une liaison covalente avec l’anode chargée négativement, et de l’autre coté, avec la cathode chargée positivement.L’idée de surpasser les limites de l’électronique sur silicium grâce à l’électronique moléculaire existe déjà depuis un certain temps : en 1974 les chimistes Mark Ratner et Ari Aviram avaient lancé l’idée. Cela fait donc plus de trente ans que les chercheurs se penchent sur la faisabilité de l’électronique moléculaire. La plupart des efforts faits dans cette direction impliquent de nombreuses molécules, mais seuls de très récentes tentatives ont été fructueuses dans l’utilisation de molécules uniques. Un des défis est de relier une molécule unique à au moins deux électrodes et d’y faire passer du courant. Un autre défit implique l’orientation de la molécule dans le système. Les chercheurs sont maintenant capables de faire ceci, en construisant un système mono moléculaire avec une orientation bien définie.Dans l’étude faite par NJ Tao et ses collègues, on compare une molécule symétrique avec une molécule asymétrique, détaillant les performances de chacune en termes de transport d’électrons. Avec une molécule symétrique, le courant passe dans les deux sens, elle agit donc comme une résistance ordinaire. C’est potentiellement intéressant aussi, mais la diode est bien plus intéressante (et compliquée) à reproduire.Le projet a été fait en collaboration avec le professeur Luping Yu de l’université de Chicago et le professeur Ivan Oleynik de l’université de South Florida. L’équipe a utilisé des molécules conjuguées dans lesquelles les atomes sont accrochés ensemble avec alternativement des liaisons simples et multiples. De telles molécules affichent une grande conductivité électrique et ont des cotés asymétriques capables de former des liaisons covalentes avec les électrodes pour créer un circuit clos. La molécule asymétrique est une série d’anneaux de pyrimidinyle, liés par des liaisons covalentes à une paire d’anneau phényle. Le pyrimidinyle a une carence d’électrons tandis que le phényle est en excès d’électrons. La technique développée par l’équipe de Tao repose sur la modulation AC. Le principe est d’appliquer une petite perturbation mécanique périodique à la molécule. Si la molécule relie les deux électrodes, il y a une réponse électronique dans un sens, sinon la molécule ne relie pas les deux électrodes. Lorsque la molécule relie les deux électrodes en or, l’asymétrie de la molécule ne permet au courant que de passer dans un seul sens.Richard Nichols, expert en électronique moléculaire de l’université de Liverpool est impressionné par les résultats de l’étude. D’après lui la combinaison de la théorie chimique avec l’utilisation de la microscopie à effet tunnel pour des mesures sur une molécule unique constituent le moyen d’orienter une molécule asymétrique dans une jonction, et cette stratégie peut montrer le chemin à l’élaboration de circuits moléculaires plus complexes. Photo : © Trent Schindler, National Science Foundation

En savoir plus : Electronique moléculaire : Rapport d’ambassade L’électronique moléculaire aux Etats-Unis, 07/2007

Sources :
–  » Small… smaller… smallest ? Researchers create molecular diode « , 12 Octobre 2009 : http://redirectix.bulletins-electroniques.com/aZPh9
–  » Diode breakthrough in molecular electronics  » 11 Octrobre 2009 : http://www.rsc.org/chemistryworld/News/2009/October/11100901.asp

Rédacteur : Alban de Lassus, [email protected]
Origine : BE Etats-Unis numéro 180 (16/10/2009) – Ambassade de France aux Etats-Unis / ADIT –  http://www.bulletins-electroniques.com/actualites/60837.htm

Plastiques alimentaires : les biberons sous le coup d’une interdiction

Le biberon en verre va-t-il faire un retour en force dans les foyers ? C’est la question que l’on peut se poser suite à la remise en cause de l’utilisation du bisphénol A (BPA) dans les matières plastiques type polycarbonate, et que l’on retrouve dans de nombreux récipients alimentaires comme les bouteilles d’eau ou encore les biberons. A l’origine de cette affaire, l’annonce du gouvernement canadien, à la mi-avril,  » d’interdire la commercialisation de biberons constitués de plastique contenant du bisphénol A, substance désormais considérée comme toxique dans ce pays «  comme le rapporte Jean-Yves Nau pour le quotidien Le Monde. En effet, depuis les années 1930, on suspecte le BPA d’être un perturbateur endocrinien, c’est-à-dire un composé susceptible de déranger les régulations hormonales normales chez l’homme. La Dépêche du Midi rappelle ainsi que ce dernier serait  » à l’origine de perturbations endocriniennes dans le développement des enfants. A la clef, des troubles hormonaux à l’origine des cas de pubertés précoces chez les filles, une baisse de la fertilité des garçons et des troubles du comportement. « Jusqu’alors, on considérait qu’il ne présentait pas de réel danger pour l’homme lorsqu’il était assimilé par voie alimentaire. L’Agence Européenne de Sécurité des Aliments (EFSA) avait ainsi défini une première norme européenne en 2002, fixant la dose journalière acceptable à 0.01 milligrammes de BPA par kilogramme de poids corporel et par jour (mg/kg/j). En 2006, sur la base de nouvelles études, celle-ci avait été réévaluée et fixée à un seuil supérieur – 0.05 mg/kg.j,  » les animaux de laboratoire (des souris) étant a priori beaucoup plus sensibles que les humains aux effets hormonaux du BPA « . Les experts avaient alors porté une attention toute particulière à l’exposition des nourrissons et des enfants.  » Un bébé de trois mois nourri au biberon et pesant environ 6kg devrait boire plus de 4 fois le nombre de biberons habituels à cet âge pour atteindre cette dose « , précise le quotidien Le Monde.Mais voilà, une récente étude vient faire planer un nouveau doute (Dépêche du Midi du 20 mai). Elle  » fait état d’une migration du BPA vers les aliments lorsque le récipient est exposé à une température élevée.  » Au-delà du composé lui-même, cette étude pointe surtout l’importance des modes de vie et des pratiques dans l’évaluation d’un risque. Le passage du BPA serait, par exemple, facilité par une cuisson ou un réchauffage au micro-onde dont de nombreux foyers sont aujourd’hui équipés. On comprend mieux pourquoi, diverses études canadiennes, rapportées par le Vif.fr, recommandent, pour limiter le passage de ce composé,  » d’éviter de passer les biberons au lave-vaisselle et au micro-onde « .Au niveau international, l’annonce du gouvernement canadien a eu des répercutions immédiates. Aux Etats-Unis tout d’abord,  » plusieurs démocrates viennent de demander à ce que la Food and Drug Administration, réévalue les niveaux d’exposition pouvant être considérés comme acceptables d’un point de vue sanitaire « . L’EFSA a déclaré qu’elle allait faire de même.Toute cette histoire fait écho aux propos de Daniel Zalko, biologiste au département Alimentation Humaine de l’INRA, qui travaille depuis plusieurs années sur les perturbateurs endocriniens. Invité il y a plus d’un an, en mars 2007, à intervenir sur ce thème dans le cadre de l’émission «  Ça ne mange pas de pain  » (1), il nous livrait cette réflexion :  » Je fais attention à ne pas utiliser trop de contenants plastiques lors du réchauffage au micro-onde, parce qu’un certain nombre de composés peuvent passer dans l’aliment « . Une remarque qui prend tout son sens aujourd’hui.(1) anciennement le Plateau du J’Go

Bretagne : troisième projet éolien offshore proposé par Nass & Wind

Selon le média Enerzine, qui en faisait état en exclusivité sur son site hier, le bureau d’études lorientais Nass & Wind a proposé un nouveau projet d’installation de parc éolien offshore au large des côtes du Croisic s’ajoutant aux deux projets déjà existants au large de Saint-Brieuc et de Belle-Ile-en-Mer. Ce nouveau parc qui compterait entre 60 et 90 éoliennes flottantes d’une puissance unitaire de 5 MW (les seules à atteindre cette puissance sont pour l’instant les Multibrid 5M d’Areva et non les Winflo soutenues jusque-là par Nass & Wind) développerait une puissance estimée entre 300 et 400 MW, soit suffisamment d’électricité pour alimenter entre 450.000 et 600.000 foyers (hors chauffage selon les calculs du media on line).Nass & Wind espère une mise en chantier de ce nouveau projet d’ici à 5 ans, pour une mise en service aux alentours de 2015. Bien entendu, une consultation publique et une étude d’impact environnemental devront être lancées avant d’obtenir une concession du domaine public maritime et c’est le rôle de Nass & Wind offshore de s’en occuper.

Une stratégie d’ensemble en cours d’élaboration
A ce propos, il n’est pas inutile de rappeler la position des autorités de l’Etat responsables des implantations éoliennes en mer réaffirmée samedi dernier lors d’une conférence au FIG par une déclaration de l’Amiral Anne-François de Saint Salvy, Préfet maritime de l’Atlantique, à savoir : « Plutôt que d’analyser chaque projet présenté par des industriels, au cas par cas, nous avons décidé de mettre en place une stratégie d’ensemble pour définir les sites possibles ou non d’implantations des ERM (Energies renouvelables marines). Une stratégie d’ensemble est en cours d’élaboration, entre le préfet maritime et les préfets de région ».La stratégie d’implantation reposera sur trois éléments :
  1. Cartographie de l’ensemble des sites pouvant accueillir des ERM.
  2. Cartographie des usages de la mer (pêche…).
  3. Cartographie en fonction de l’environnement (zone protégée, zones de navigation interdites d’implantation…).
La question de savoir si l’Etat, par le biais de la Préfecture maritime, autorise l’implantation d’éoliennes en mer dans les zones Natura 2000 reste pour l’instant posée. Les deux autres projets bretons dont je faisais état dans le blog des énergies de la mer le 18 octobre 2008 (ICI) sont :
  • le projet du plateau du Grand-Léjon, au large de Saint-Brieuc aussi proposé par Nass & Wind qui en a lancé l’étude d’impact environnemental en novembre 2008 selon une déclaration faite par sa directrice Nathalie Le Meur précisément le 7 octobre 2008 au média Le Télégramme (pour l’instant aucun résultat officiel de cette étude)
  • le projet au large de Groix et de Belle-Ile aussi étudié par Nass & Wind.
La France en retard sur l’éolien
Fondé par Nathalie Le Meur et Peter Nass dans le Morbihan en 2001, le groupe Nass & Wind, dont une partie est la propriété de Gaz de France depuis février 2008, envisage d’investir près de 20 millions d’euros dans le développement de parcs éoliens offshore d’ici à 2010. Deux types d’éoliennes, toutes deux flottantes, sont en concurrence pour équiper les futurs parcs bretons : l’éolienne DIWET fabriquée par Blue H France et l’éolienne WINFLO labellisée par le Pole Mer Bretagne et portée par le consortium DCNS, Saipem, In Vivo, Insieta, Ifremer, Ecole Supérieure des Ingénieurs de Brest et Nass & Wind. Je terminerai en rappelant que, même si la France est terriblement en retard en matière d’éolien offshore, il est essentiel pour la Bretagne de se doter des moyens qui pourront lui permettre de mettre fin à ses pénuries et à ses pannes récurrentes en électricité. Certaines projections font état d’un parc de 858 éoliennes offshore de 5 MW nécessaires pour satisfaire entièrement les 1.500 MW de besoins estimés !Un chiffre qui, bien que l’avenir soit aux mega parcs en mer, n’a pas beaucoup de chance de se voir concrétiser dans l’état actuel des contraintes et de la législation maritime française. Mais entre ce chiffre extravagant et le zéro éolienne offshore d’aujourd’hui il y a sans doute quelque chose à faire en prenant en considération les avis des usagers de la mer et les populations locales. 

Source :
Les énergies de la merFrancis Rousseau est rédacteur en chef de plusieurs blogs portant sur l’environnement et les énergies renouvelables, dont un spécialisé dans les énergies marines : Les Energies de la mer. Ces blogs sont réalisés pour 3B Conseils, cabinet conseil en communication scientifique et technique et bureau d’études, organisateur des Entretiens Science et Ethique.

Tests de bande passante : attention au trompe l’œil sur le débit symétrique

Les tests de bande passante  » classiques  » disponibles sur Internet utilisent des technologies  » Web « . Elles permettent, de façon transparente pour l’utilisateur, d’envoyer et de télécharger temporairement des fichiers de petite taille. Parallèlement, les tests calculent le temps de transfert et en extrapolent le débit disponible de la connexion utilisée. Les résultats de ces tests sont assez fiables pour des connexions avec de petits débits asymétriques (type ADSL) dans la mesure où le lien n’est pas utilisé lors du test. En revanche, pour des liens à débit symétrique, tels que le SDSL ou la fibre optique, les résultats de ces tests ne sont pas très fiables…Les technologies Web sont en effet limitées pour tester des connexions à débit symétrique et ceci, pour diverses raisons techniques. Tout d’abord, la latence des liens à débit symétrique est très faible (par exemple 1 ms de latence seulement pour la fibre optique). Du coup, le temps de réponse du couple navigateur Internet/ordinateur utilisé par le test devient plus lent que la connexion ! Le calcul en devient farfelu et souvent avantageux en téléchargement jusqu’à un certain débit. La vitesse d’envoi des fichiers étant bridée et contrôlée par le navigateur, l’envoi semble plus  » long  » et le débit réduit.D’autre part, peu de sites Internet peuvent proposer des tests de bande passante longs sur des connections allant jusqu’au gigabit : la connexion apparaît encore une fois comme bridée. De plus, pour des raisons de rapidité d’affichage, l’envoi effectué par les tests est fait sur de petits fichiers. Or ces petits fichiers ne permettent pas d’effacer – ou de lisser- les défauts et les qualités de la connexion. En effet, les liens ont tendance à envoyer beaucoup de données au début… Si on n’observe que le pic de connexion, le test est faussé ! Plusieurs tests peuvent cependant être effectués pour évaluer la bande passante des connexions à débit symétriques. Pour tester les débits descendants, plusieurs méthodes sont accessibles facilement.

  • Certaines entreprises proposent gratuitement, via l’accès à un serveur utilisant le protocole FTP (File Transfert Protocol), de tester le débit depuis un autre site.
  • Vous pouvez également télécharger un fichier sur un serveur public. Si vous utilisez votre navigateur, il vous indiquera le débit instantané de votre connexion en « Ko » : soit le débit descendant divisé par 8 en Kb/s. Par exemple, si vous télécharger à 800 Ko/sec, la bande passante est estimée à 6,4 Mb/s.
  • Certains outils (comme wget sous linux) vous indiquent directement votre débit moyenné. Par exemple, le débit 8,75 Mo indique une connexion de 70 Mb/s.
Attention, plus le débit théorique est élevé, plus le fichier utilisé doit être lourd pour devenir représentatif.Pour évaluer les débits montants, pour des raisons de sécurité évidentes, aucun serveur ne donne un accès permanent et anonyme en envoi de fichiers… Les fournisseurs d’accès à Internet peuvent cependant proposer un compte ‘FTP’ sur leurs serveurs pour vous permettre de tester votre débit montant Par Thomas Lopez, Ingénieur Systèmes & Réseaux Celeste

Nucléaire : il n’y a pas de risques de prolifération avec les réacteurs actuels

Dieu merci il est difficile de construire une bombe atomique. Il faut d’abord se procurer ou fabriquer le matériau : uranium très enrichi ou plutonium de bonne qualité. Puis il faut mettre l’explosif nucléaire sous forme métallique, lui donner la forme adéquate sans provoquer d’accident de criticité, mettre au point les explosifs classiques et les mettre en place. Il faut aussi pouvoir procéder à des essais, ou, à défaut, disposer de programmes de simulation très évolués. Il faut donc des neutroniciens, des métallurgistes, des artificiers, des chimistes et des spécialistes des mesures nucléaires. Ceci est, bien sûr valable pour les états qui désirent acquérir des armes nucléaires. Ce ne l’est pas pour les organisations terroristes qui pourraient voler des armes.

Les sources des explosifs nucléaires
Les matières premières pour la fabrication d’une arme nucléaire sont l’uranium 235 enrichi à au moins 90 % et le plutonium 239. La bombe de Hiroshima faisait appel à l’uranium 235. Cette bombe était du type « canon » dans lequel la réunion d’un « obus » et d’une cavité en uranium 235 suffit pour provoquer une explosion nucléaire. La masse d’uranium 235 dans ce type d’engin était de l’ordre de 60 kg.Il est impossible d’utiliser la technique du canon pour le plutonium 239 car celui-ci est toujours accompagné de plutonium 240 qui est un fort émetteur de neutrons du fait d’une probabilité élevée de fission spontanée. Pour le plutonium « militaire », le nombre de neutrons émis par seconde est de 63, alors que pour l’uranium 235, il est de 0,0003.Composition isotopique du plutonium optimisé pour les armes et extrait des réacteurs de type REP La réalisation d’un engin utilisant du plutonium exige d’utiliser un système d’implosion, beaucoup plus difficile à mettre au point que le système « canon ».

La séparation de l’uranium 235
La première séparation de l’uranium 235 a été faite aux USA, dans le cadre du projet Manhattan grâce à une batterie de séparateurs isotopiques, les calutrons, (une sorte de cyclotron, construit par E.O.Lawrence). La consommation électrique de ces équipements était considérable et la technique fut abandonnée au bénéfice de la diffusion gazeuse. Seul l’Irak de Saddam Hussein lança un programme de séparation basé sur 90 calutrons consommant 140 MW [1]. La suite du programme américain fut réalisé grâce aux usines de diffusion gazeuse d’Oak Ridge. Il faut remarquer que les calutrons de Saddam n’avaient pas été détectés par les experts de l’AIEA avant la fin de la première guerre d’Irak. La technique des calutrons ne présente pas de difficultés majeures.Les usines de séparation par diffusion gazeuse ne sont pas aussi discrètes et se prêtent mieux à une détection par la mesure de l’activité alpha due à des émissions d’uranium. De plus la taille des usines de diffusion gazeuse se prête à une détection aérienne. Par contre, la technique de centrifugation qui est désormais le standard pour la séparation isotopique rend très difficile la détection d’installations clandestines.

La production de plutonium
Le plutonium peut être produit dans des réacteurs de recherche ou dans des réacteurs de production. Il est pratiquement impossible de dissimuler un réacteur. Pour les inspecteurs de l’AIEA, il peut être important de savoir quand les combustibles sont déchargés d’un réacteur. Un programme clandestin de production de plutonium peut utiliser des réacteurs de recherche pour irradier des cibles d’uranium naturel. Ces cibles peuvent être extraites réacteur en marche, et donc sans attirer l’attention des inspecteurs.Il en est de même pour les réacteurs pourvus d’une machine de déchargement en marche comme les réacteurs CANDU. De plus l’extraction de l’uranium irradié peut se faire de telle manière que le plutonium produit ait la qualité militaire. Au contraire, les réacteurs de puissance de type REP ou REB ne peuvent être déchargés qu’à l’arrêt. Une surveillance par satellite permet de détecter l’état de marche ou d’arrêt de ces réacteurs grâce à leur plus ou moins grande émission infrarouge. Une fois extrait le combustible irradié, il est nécessaire de le retraiter pour obtenir le plutonium. La première opération consiste à cisailler l’élément combustible. De ce fait, le krypton 85 qui a une période de 10,7 ans et qui est produit dans la fission est relâché et sa détection est assez facilement réalisée. Sa production est d’autant plus importante que le combustible a été plus irradié et, bien sûr que la quantité de combustible retraité est plus importante. En conclusion la détection d’une production clandestine de plutonium est beaucoup plus facile que celle d’un enrichissement clandestin en uranium 235.

Pourquoi le plutonium est-il difficile à utiliser ?
Nous avons vu que l’utilisation du plutonium rendait nécessaire le recours à la technique de l’implosion. Nous allons essayer d’expliquer pourquoi. Le principe de l’explosion nucléaire est de créer une configuration la plus super-critique possible et d’y déclencher une réaction en chaîne. Une réaction en chaîne ne peut être initiée que par la présence de neutrons. Pratiquement, on essaye de réaliser la configuration super-critique et dès qu’elle est atteinte d’injecter une impulsion de neutrons. Au fur et à mesure que la réaction en chaîne se développe, de l’énergie est produite dans l’explosif nucléaire, la température et la pression augmentent, ce qui conduit à une perte d’uranium ou de plutonium par « évaporation ». Cette perte entraîne une diminution du facteur de multiplication neutronique jusqu’à ce que la réaction en chaîne s’arrête. Pour atteindre un bon rendement de l’engin, il faut donc que le développement de la réaction en chaîne se fasse aussi vite que possible.

Le plutonium extrait des réacteurs REP peut-il servir à fabriquer une bombe ?
Le plutonium issu des réacteurs se distingue du plutonium militaire de deux points de vue : une diminution du facteur de multiplication neutronique d’environ 10 %, d’une part, une augmentation de l’émission spontanée de neutrons, d’autre part. La diminution du facteur de multiplication n’est sans doute pas rédhibitoire.Par contre, la multiplication par 6 du nombre de neutrons spontanés multiplie par près de 6 la probabilité d’un tir faisant long feu, c’est à dire que cette éventualité arriverait une fois sur deux. Par ailleurs, la présence de plutonium 238, de période égale à 86 ans dans le plutonium extrait des réacteurs REP causerait un échauffement 4 à 5 fois plus élevé que dans le cas du plutonium militaire, ce qui poserait des problèmes avec les explosifs. Enfin, le plutonium 241 se transforme en Américium 241 avec une période de 14,4 années. L’américium 241 est un poison neutronique réduisant encore de 10 % le coefficient de multiplication neutronique. Les américains ont fait exploser un engin utilisant du plutonium extrait d’un réacteur anglais de type Magnox.En résumé, il semble possible mais compliqué d’utiliser du plutonium extrait de réacteurs pour fabriquer un engin explosif. Mais la vraie question est de savoir pourquoi les états désirant acquérir l’arme nucléaire devraient faire compliqué alors qu’ils peuvent faire simple, en enrichissant l’uranium avec des centrifugeuses, ou en produisant du plutonium avec de petits réacteurs de recherche. Il faut souligner qu’avec la facilité d’enrichir l’uranium que donnent les centrifugeuses, la voie du plutonium, même de qualité militaire, apparaît bien compliquée. C’est ce que semblent avoir compris les Iraniens.

Et le danger terroriste ?
Il est très peu probable que des groupes terroristes puissent acquérir la technologie des bombes à plutonium. Ce ne serait pas impossible pour les bombes à uranium, mais cela demande de grosses quantités d’uranium 235.En réalité, le danger qui paraît le plus grave est celui de groupes terroristes se procurant une bombe opérationnelle grâce à des complicités dans les structures militaires de certains états comme le Pakistan. Je ne vois malheureusement pas comment conjurer ce danger, si ce n’est grâce à des services secrets efficaces. Ajoutons qu’il existe des techniques qui permettent de détecter des engins explosifs. On peut, en effet, coupler détection de rayons cosmiques et détection de neutrons pour révéler la présence de corps dans un camion, un container et, plus difficilement, dans un bateau. Encore faudrait-il qu’il y ait suffisamment de systèmes de détection installés, et encore, faudrait-il savoir où… [1] 1http://en.wikipedia.org/wiki/CalutronIngénieur et docteur ès sciences, Hervé Nifenecker est conseiller scientifique à l’Institut des sciences nucléaires (ISN) de Grenoble jusqu’en 2008. Président du collectif Sauvons le climat, qu’il a créé en 2004, il participe activement au débat citoyens sur l’EPR et le traitement des déchets nucléaires. Il a organisé le pré-Grenelle de l’environnement, qui s’est tenu le 10 octobre 2007 au Sénat.

Données sensibles : et si l’ADN numérique était la solution

Alors que les citoyens, les entreprises comme les administrations dépendent de plus en plus des outils numériques (ordinateurs, réseaux, téléphonie) et que toutes les informations tendent à se trouver, à un moment ou à un autre, sous forme numérique, la protection de ces informations est focalisée aujourd’hui sur leur contrôle d’accès. Ce qui arrive ensuite aux informations qui ont été extraites soit par des ayants-droit, soit par accident fortuit ou acte intentionnel n’est pas ou mal contrôlé.Pourtant, il existe bien des tentatives pour protéger les informations tout au long de leur cycle de vie. 

Le mécanisme usuel de protection des informations
Elles consistent, en général, à lier une information (le contenu) à un fichier (le contenant), puis à associer des droits à ce fichier. Le fichier est alors géré par un environnement informatique auquel il incombe de faire respecter ces droits : autorisation de copier le fichier, de l’imprimer, de l’envoyer, etc. Si le fichier ainsi protégé est sorti de son environnement, suite à une erreur ou à une malveillance, il perd toute protection.Le chiffrement est préconisé pour assurer la protection des documents, mais son utilisation n’est pas totalement efficace. Soit le document est communiqué à ses ayants-droit avec la clé de déchiffrement, et toute maladresse ou malveillance d’un seul de ces ayants-droit permettra de perdre tout contrôle sur la divulgation des informations. Soit les ayants-droit disposent d’une bi-clé dans une infrastructure à clé publique qui automatise chiffrement et déchiffrement sans que l’utilisateur ait accès aux codes. Cette dernière solution est préconisée pour les grandes organisations, dans lesquelles les droits de chaque collaborateur sont normalisés dans un annuaire, où est stockée aussi une bi-clé de chiffrement.La généralisation de cette approche pour permettre les échanges entre organisations, voire avec les citoyens, nécessite la généralisation :
  1.  de l’usage et de l’interopérabilité des infrastructures à clé publiques ;
  2. de la normalisation des droits. Elle constitue encore un sujet de recherche.
Or, l’évolution de la cybercriminalité (usurpation d’identité) et l’impact des échanges d’œuvres protégées par copyright (téléchargement illégal) nécessitent une réaction immédiate. 

La solution : un fichier chiffré personnalisé
La solution crève les yeux, mais comme bien souvent, l’introduction d’une nouvelle technologie s’est accompagnée par la reproduction dans les usages de cette technologie, des traditions des technologies précédentes.Ainsi, les informations sont stockées dans des fichiers que chacun télécharge à l’identique, répétant ainsi le modèle mis en place pour le papier ou le CD.Le téléchargement permet de réaliser, pour une information donnée, quelle qu’elle soit, un fichier personnalisé unique pour chacun de ses ayants-droit. Dans le monde de cette nouvelle technologie qu’est l’Internet, prenons le cas de deux utilisateurs, Jules et Jim, et d’une information sensible clients de l’entreprise que Jules a le droit de connaître mais pas Jim. Lorsque Jules demande à télécharger cette information, son droit de savoir est vérifié par une procédure de contrôle d’accès. Puis un fichier est fabriqué, chiffré par une clé de chiffrement symétrique spécifique à Jules. Nous proposons d’utiliser une clé liée à l’ADN numérique de son poste de travail. Pour consulter l’information qu’il a téléchargée, Jules utilise un système informatique capable d’analyser le poste de travail, de calculer la clé de chiffrement et de déchiffrer le fichier avant de présenter les informations qu’il contient. Le système gère l’information selon des règles inscrites dans le fichier chiffré : droit d’imprimer, d’extraire, de sauvegarder, etc.Si Jim arrive à s’approprier le fichier de quelque façon que ce soit, son système sera incapable de générer la clé de déchiffrement nécessaire à la présentation des informations : il aura un fichier qui identifie Jules mais qu’il ne peut exploiter. Tout le contraire de ce qui se passe aujourd’hui, quand Jim dispose d’un fichier anonyme qu’il peut exploiter à sa guise.Un tel mécanisme est adapté à un grand nombre de cas où l’information doit être protégée :
  • informations classifiées ou sensibles, contenant par exemple des données personnelles, correspondant dans les technologies précédentes aux documents de type Diffusion restreinte, Confidentiel, Secret…,
  • informations protégées, par exemple par un copyright, correspondant aux enregistrements audio ou vidéo, diffusés dans le passé sur des CD et DVD amenés à disparaître, aux études, livres, magazines diffusés sur papier,
Les informations peuvent être de tout type : texte, images, audio, vidéo, exécutable, XML. Le processus fonctionne avec n’importe quel environnement de téléchargement (système d’exploitation, liaison réseau) relié à un outil de présentation : (logiciel et écran d’ordinateur, GPS de voiture, home cinéma…).Il permet en outre d’exploiter la technologie d’aujourd’hui pour offrir des services nouveaux :
  • limitation dans le temps des droits d’usage ;
  • calcul des droits d’usage à acquitter en fonction des performances de l’outil de présentation : un utilisateur qui consulte un document vidéo sur son iPhone pourrait ainsi acquitter des droits inférieurs à ce qu’il paierait pour consulter le même document sur son home cinéma ;
  • protection des magazines, études spécialisées ou documents confidentiels, qui pourraient ainsi être mieux distribués sur Internet.
Les principaux logiciels de présentation (Adobe Acrobat Reader pour les fichiers PDF, Windows Media Player pour les fichiers audio/vidéo, Outlook pour les fichiers de courrier électronique, etc.) acceptent des extensions (plugins) spécifiques. C’est dans ces plugins que se fera naturellement le calcul de la clé de chiffrement et le déchiffrement, avant le lancement de la présentation.Parce que les fichiers sont chiffrés individuellement par une clé peu accessible, l’effort nécessaire pour les pirater sera plus élevé qu’aujourd’hui. Les fichiers chiffrés authentifiant le matériel de leur destinataire de manière difficilement réfutable, leur usage illicite présentera plus des risques juridiques à prendre en compte avant une tentative de fraude. L’authentification s’appuyant sur des objets matériels et non pas sur des données personnelles, la vie privée reste protégée. Avec une telle sécurité, les documents numériques deviennent aussi sûrs que les documents papier avant l’apparition des photocopieurs couleur.Par Michel Frenkiel, Expert auprès de la commission Européenne et Président de Mobilegov

Le Japon annonce avoir développé la batterie miracle

Le National Institute of Advanced Industrial Science and Technology (AIST) japonais annonce avoir développé une technologie de batterie qui permettrait de renvoyer le Lithium-Ion aux oubliettes. En vue : une grande amélioration de la densité énergétique. La densité énergétique, c’est en quelque sorte la puissance de la batterie rapportée à son poids. Une caractéristique phare pour une utilisation au sein d’une automobile.

Deux fois plus performant que le Li-Ion ?
La densité énergétique est fonction du voltage par élément et de la capacité, exprimée en Ah/kg. En théorie, la technologie Ni-Li permet de combiner le voltage par élément du Li-Ion à la grande capacité de stockage du Ni-MH. En simplifiant, la batterie combine le nickel (faisant office de cathode) et le lithium métal (l’anode), utilisant une électrolyte organique et séparés par un film de céramique. Affichant ainsi une tension par élément de 3.49 v et une capacité de 268 Ah/kg, la densité énergique atteint ainsi 935 Wh/kg, à comparer aux 400/450 du Li-Ion. Un comparatif de performances est récapitulé dans le schéma ci-dessous.Le travail sur les batteries au Ni-Li en est toutefois à ses débuts. Par le passé, de nombreuses technologies n’ont pas concrétisé tout le potentiel qu’on voyait en elles. C’est ainsi le cas du vieillissant NiMH (qui ne peut monter au-dessus d’un voltage par élément de 1,32 v à cause de la limitation de son électrolyte aqueuse) et même du Li-Ion, dont les performances actuelles sont notamment limitées par les qualités intrinsèques du matériau composant sa cathode. Malgré les problématiques restant à dépasser, les chercheurs sont toutefois confiants pour dépasser significativement les capacités actuelles des batteries au Li-Ion.Plus d’informations sur le Journal of the American Chemical Society.Julien Foulquier, ancien directeur des rédactions de Bestofmedia Group et fondateur de Presence PC et No1Dev, a rejoint l’équipe de Green Univers.

IBM relève le défi de la voiture électrique abordable à forte autonomie

IBM a frappé très fort en lançant le projet « Battery 500 » (pour 500 miles ou 800 km) qui pourrait accélérer la transition des carburants fossiles aux électrons en matière de transports. Dirigé par le Almaden Lab, celui-ci vise à créer une voiture électrique à batterie lithium-air abordable avec une autonomie supérieure à 800 km.

Pour Spike Narayan, chercheur chez IBM, « même si la technologie des batteries s’est améliorée, elle reste largement inférieure à l’essence en termes d’autonomie. La densité d’énergie (la quantité d’énergie stockée par unité de volume) d’une batterie lithium-ion ne permet pas de transporter une berline familiale sur des distances comprises entre 500 et 800 km ».

La solution, pour IBM, consiste à tirer profit des techniques de fabrication des semi-conducteurs à l’échelle nanométrique pour stimuler la capacité des batteries en multipliant leur densité de stockage par 10 par rapport aux batteries Lithium-ion. Le projet « Battery 500 » compte atteindre cet objectif en s’appuyant sur la batterie lithium-air dont le potentiel a été démontré plus tôt dans l’année à l’Université de Saint-Andrews en Ecosse.

Différencier jugement technique et économique

Avancer que la capacité des batteries à l’heure actuelle ne permet pas de dépasser 160 km n’est pas un jugement technologique mais économique. Il est aujourd’hui possible de construire aisément une voiture électrique dotée d’une autonomie de 800 km, pour peu qu’on y mette le prix (exorbitant). Le projet d’IBM porte donc essentiellement sur la viabilité commerciale des batteries.

Je pense depuis toujours que les deux grands domaines dont l’impact sera énorme pour notre futur en matière d’énergie et d’environnement sont le génie génétique et les nanotechnologies. Grâce au génie génétique, nous pouvons trouver de meilleures sources de biocarburants, transformer la cellulose et les algues en carburant ou encore rendre la capture de l’air et la séquestration du CO2 possibles. Les nanotechnologies pourraient nous aider à construire des véhicules plus robustes et légers et à améliorer considérablement l’autonomie des batteries. Ce sont nos deux jokers technologiques maîtres.

Imaginons un instant ce qui se passerait si le projet était couronné de succès avec une voiture électrique d’une autonomie de 800 km à un prix abordable sans limite immédiate en termes de ressources, de productivité ou de fiabilité. Nous sommes à l’automne 2011, les signes du changement climatique sont encore plus apparents qu’aujourd’hui, les consommateurs sont d’autant plus concernés et les prix du pétrole recommencent à grimper (du fait de la combinaison de faibles investissements pétroliers et du pic pétrolier).

Comment douter qu’une Honda Civic ou une Ford Fusion électriques disponible à un prix à peine supérieur de 20 % à une voiture à essence non hybride seraient en un rien de temps en rupture de stock ?

 

 

Economiste de formation, Lou Grinzo est un écrivain freelance basé à New York. Il anime le blog The Cost of Energy.

La Chine détient un potentiel éolien majeur

Une étude publiée en septembre dans la revue Science indique que le potentiel éolien chinois est très largement suffisant pour répondre à la totalité de la demande électrique du pays jusqu’en 2030, soit deux fois la demande actuelle. Encore faut-il que la Chine se donne les moyens d’exploiter ce potentiel en modernisant son réseau d’électricité. Explication avec Xi Lu, co-auteur de l’étude. 

Techniques de l’Ingénieur : Quel est le potentiel éolien de la Chine ?
Xi Lu : D’après nos calculs, les fermes éoliennes pourraient produire avec profit 6.96 trillions de kwh d’électricité en Chine avec un prix de vente fixé à 0,516 RMB/kWh (environ 0,052 euros/kWh). C’est l’équivalent de la demande d’électricité estimée en 2030 pour la Chine, soit deux fois la consommation actuelle. La Chine n’est pas le seul pays à posséder d’importantes ressources éoliennes. C’est également le cas des Etats-Unis, du Canada, de l’Australie, de la Russie et de certains pays européens. Je suis d’ailleurs impliqué dans un autre programme de recherche qui étudie le lien entre la rentabilité de l’énergie éolienne et les PTC (production tax credit) ou crédits d’impôt pour la production aux Etats-Unis.

Dans quelle mesure la Chine montre-t-elle sa volonté de développer l’énergie éolienne ?
A la fin de l’année dernière, les fermes éoliennes ont atteint une capacité de 12,1 GW. La Chine a ainsi dépassé son objectif de 10 GW en 2010. Dans son programme baptisé « Medium and Long-Term Development Plan for Renewable Energy in China » (Plan de développement à moyen et long terme pour une énergie renouvelable en Chine), la Chine s’est fixée un objectif de 30 GW en 2020. Cet objectif a d’ores et déjà été réévalué à 100 GW en 2020 dans un nouveau plan. Au vu de la vitesse actuelle du développement de l’éolien en Chine, même un triplement de l’objectif initial paraît timide. La Chine a également adopté des Renewable Electricity Standards (RES), qui imposent aux compagnies électriques de produire une certaine fraction de leur électricité à partir de sources renouvelables. Mais ceux-ci sont encore très faibles comparés aux RES aux Etats-Unis.

A court et moyen terme, l’électricité d’origine éolienne peut-elle se substituer aux centrales électriques à charbon ?
Actuellement, l’électricité d’origine éolienne ne contribue qu’à hauteur de 0,4 % à la production d’électricité en Chine, contre 80 % pour les centrales électriques au charbon. La demande d’électricité a augmenté de près de 10 % par an en Chine au cours des dernières décennies et continuera d’augmenter à un rythme soutenu dans l’avenir. Notre étude montre que le potentiel de l’électricité d’origine éolienne est élevé et que celle-ci pourrait se substituer à une part conséquente de l’électricité d’origine fossile. Une augmentation de 30 % de la production d’électricité d’origine éolienne en 2030 nécessite un investissement de 900 milliards de dollars (617 milliards d’euros) sur 20 ans, ce qui n’est pas énorme au vu de la taille de l’économie chinoise.

Mais le réseau d’électricité chinois a-t-il la capacité d’absorber l’énergie éolienne à cette échelle ?
Sans amélioration du système de transmission actuel, ma réponse serait négative. Nous savons que le système de transmission rudimentaire de la China est une barrière pour le développement de l’énergie éolienne. Par exemple, de nouvelles fermes éoliennes doivent retarder leur production en raison de problèmes de transmission. Le réseau est aujourd’hui incapable d’absorber l’augmentation de la production d’électricité d’origine éolienne. C’est également l’une des raisons qui expliquent la relative faible capacité des fermes éoliennes en Chine. Les limites imposées par la nature variable de la production éolienne peuvent dans une certaine mesure être minimisées grâce au développement d’un réseau électrique national intégré.

D’autre part, comment surmonter le problème de la transmission longue distance de l’énergie éolienne entre les régions de production au nord et et à l’ouest et les centres urbains à l’est ?
Ce problème se pose pratiquement partout. Les zones de production de l’énergie éolienne se trouvent normalement loin des zones de consommation. L’exploitation à grande échelle de ces ressources nécessite d’étendre de façon significative le réseau de transmission d’énergie qui existe déjà. La Chine doit améliorer significativement son réseau pour coordonner les investissements dans le réseau avec le développement des énergies renouvelables, cela afin d’exploiter pleinement le potentiel de l’éolien. Dans tous les cas, il faudra moderniser le réseau d’infrastructures pour l’adapter à la hausse anticipée de la consommation énergétique.La Mongolie Intérieure est l’une des provinces prioritaires pour le développement de l’énergie éolienne en Chine. Cette région, notamment dans sa partie ouest, bénéficie également d’un très fort ensoleillement. Parallèlement au développement de l’éolien, la Chine cherche à développer de façon soutenue un marché durable, dans tous les sens du terme, de l’énergie solaire. A ce titre, il est très probable que la Mongolie Intérieure (voir carte ci-dessous) devienne le cœur des énergies renouvelables en Chine.Sur la carte, la Mongolie Intérieure est la province la plus propice à l’éolien. First Solar vient également de signer un protocole d’accord pour la construction d’une centrale solaire d’une capacité de 2 GW à Ourdos. Cette province s’impose peu à peu comme le cœur des énergies renouvelables en Chine. Propos recueillis par Clémentine FulliasXi Lu est étudiant en troisième cycle à la School of Engineering and Applied Sciences de l’université de Harvard. Il fait partie du China Project, un programme de recherche sur l’environnement atmosphérique de la Chine, fruit d’une collaboration entre Harvard et des universités chinoises.

La France renoue timidement avec le solaire thermique

Alors que le solaire thermique est en plein boom dans le monde entier, la France, très en retard dans ce domaine, recommence timidement à s’y intéresser. L’ancienne centrale solaire Thémis, installée à Targassonne (Pyrénées-orientales), reprend peu à peu du service.Cette centrale pionnière, conçue par le CNRS, avait été mise enservice dès 1983 par EDF : plus de 200 miroirs plans mobiles ou héliostats faisaient converger les rayons du soleil sur une tour de 101 mètres de hauteur. Ils réchauffaient des sels fondus, dont la chaleur faisait tourner une turbine. Las ! Trois ans plus tard, la centrale était abandonnée par manque d’intérêt au sommet de l’Etat et d’EDF, et aussi pour cause de baisse du prix du baril de pétrole après la flambée des années 70, qui rendait le solaire moins attractif.Aujourd’hui, Thémis renaît de ses cendres sous le nom de Pégase (production d’électricité par turbine à gaz et énergie solaire). Le site est désormais entre les mains des chercheurs du laboratoire Promes du CNRS et sous la gestion du Conseil Général des Pyrénées-Orientales et de la Région Languedoc-Roussillon, avec l’aide du pôle de compétitivité Derbi, dédié aux énergies renouvelables.Le site est aujourd’hui en plein chantier, la moitié des miroirs de l’ancienne centrale devant être remise en service d’ici à la fin de l’année. Pas question toutefois de refaire la même expérience de solaire thermique, l’objectif étant pour le laboratoire Promes (Procédés matériaux et énergie solaire) du CNRS d’expérimenter une centrale solaire hybride à cycle combiné.Au lieu de faire fondre des sels, les chercheurs du laboratoire Promes vont réchauffer de l’air comprimé (à une pression de l’ordre de 10 atmosphères). Cet air sera ensuite détendu dans une turbine, un peu comme de l’air sortant d’un ballon qui se dégonfle, sur le principe des turbines à gaz (voir schéma ci-dessus). L’objectif étant d’expérimenter un prototype de centrale solaire offrant de hauts rendements de conversion et un faible coût de l’électricité produite. Pégase, qui sera achevé en 2013, devrait produire entre 1,4 et 2 MW d’électricité.Cette reconversion de ce qui fut un site précurseur de solaire thermique nécessitera plus de 8 millions d’euros d’investissement au total. Reste que Pégase devra faire ses preuves face aux autres centrales de solaire thermique traditionnelles, qui se multiplient dans les zones les plus ensoleillées de la planète, notamment en Espagne et dans l’ouest des Etats-Unis.Selon une récente analyse de la banque UBS, le solaire thermique pourrait d’ici à dix ans être moins cher que le solaire photovoltaïque, aussi bon marché que l’éolien et presque aussi bon marché que les centrales à charbon. UBS prévoit du reste 20 GW de centrales solaires thermiques dans le monde en 2020. 

Source :
Green Univers

30ème Forum Rencontre : Le rendez-vous recrutement du Nord

Le plus grand Forum étudiants-entreprises du Nord de la France, le « Forum Rencontre », se tiendra cette année les 14 et 15 octobre à Lille, au sein de l’École Centrale de Lille. Ce sera l’occasion, pour les étudiants dix grandes écoles (d’ingénieurs et de commerce) du Nord de la France, de rencontrer les recruteurs de plus de 75 entreprises.Ainsi, les jeunes diplômés, de bac+3 à bac+5, auront, pendant ces deux jours, l’occasion de nouer des contacts dans de nombreux domaines d’acticités :

  • BTP
  • Audit – Conseil
  • Industrie
  • SSII
  • Distribution – Logistique
  • Services
  • Formation (3es cycles)
Outre l’occasion donnée à ses visiteurs de rencontrer les cadres décideurs et les recruteurs de diverses entreprises, de discuter avec eux, de vive voix, de leurs métiers, et de leur confier leurs CV et lettres de motivation, le Forum Rencontre propose des conférences, des simulations d’entretiens, ainsi que des analyses de CV et des analyses graphologique.

Un chat à distance avec les exposants
Une nouveauté, aussi, permettra d’optimiser la qualité des échanges lors de cette trentième édition : en effet, la présence de Weavlink, WebTV donnant l’opportunité à des étudiants ne pouvant se rendre sur le Forum de chatter avec les exposants.Ce Forum Rencontre sera aussi l’occasion, pour les Techniques de l’Ingénieur, de présenter leur nouveau site emploi. Créé depuis quelques mois, il regroupe un panel d’offres balayant tous les domaines d’activité liés à l’ingénierie. Les candidats à l’embauche peuvent également y déposer leur CV. Partenaire du Forum Rencontre de Lille, les Techniques de l’Ingénieur proposent d’ailleurs à cette occasion des formules attractives pour les diffuseurs d’annonces, afin d’augmenter leur visibilité lors des deux jours du forum.Enfin, le Forum Rencontre donnera également lieu à une série de conférences, où des grandes entreprises présenteront les métiers qui font leur activité, ainsi que les opportunités de carrières, dans une période il est vrai indécise en ce qui concerne l’emploi au sens large.  

Programme des deux journées du Forum :
Mercredi 14 octobre
  • 9h Ouverture du Forum aux visiteurs
  • 10h Conférence Louis Vuitton Malletier : Les métiers industriels et logistiques chez Louis Vuitton
  • 11h  Conférence Société Générale : L’Inspection générale : Inauguration du Forum du Forum Rencontre
  • 15h Conférence Procter & Gamble : Présentation générale de Procter & Gamble avec ses perspectives
  • 16h  Conférence Akka Technologies : Présentation du Groupe
  • 18h  Clôture du Forum aux visiteurs et cocktail
 Jeudi 15 octobre
  •  9h  Ouverture du Forum aux visiteurs
  • 10h  Conférence Sylis France : La gestion des Ressources Humaines en SSII
  • 11h  Conférence National Instruments : Présentation de National Instruments et des métiers
  • 15h  Conférence L’Oréal : Les métiers de l’ingénieur chez l’Oréal
Retrouvez le programme détaillé sur le site Forum Rencontre.

Des ressorts en nanotubes de carbone pour stocker l’énergie

Des chercheurs du MIT ont démontré que des nanotubes de carbones assemblés sous forme de ressorts pouvaient stocker plus longtemps et plus sûrement l’énergie que les batteries lithium-ion les plus performantes à l’heure actuelle. Le point avec Carol Livermore, docteur en ingénierie mécanique au Massachusetts Institute of Technology (MIT).

Techniques de l’Ingénieur : Quel est l’intérêt de stocker l’énergie dans des ressorts plutôt que dans des batteries ?

Carol Livermore : Les ressorts en nanotubes de carbone peuvent potentiellement atteindre une densité énergétique comparable à celle des batteries Li-ion, même si nous n’en sommes pas encore là. Ils ont la capacité de libérer très rapidement leur énergie et se positionnent ainsi pour des applications de grande puissance. On estime enfin qu’ils ont une capacité de stockage prolongée (avec aucune ou très peu de perte d’énergie). Enfin, ils peuvent se charger mécaniquement directement sans passer par une phase électrique.

Si on tient compte des spécificités des nanotubes de carbone (comme leur résistance à des températures très élevées), vos recherches portent-elles aussi sur l’ingénierie en environnement extrême ?

L’ingénierie en environnement extrême n’est pas l’objectif premier de mes recherches. Néanmoins, nous travaillons sur des systèmes à très petite échelle qui manipulent une grande quantité d’énergie pour leur taille. Aussi ce sujet revient-il souvent. Ces systèmes prouvent parfois naturellement leur solidité dans des conditions extrêmes. C’est le cas ici.

Quelles sont les applications des ressorts en nanotube de carbone ?

Les applications les plus prometteuses sont celles qui requièrent les propriétés que j’ai décrites ci-dessus. Par exemple, des freins régénérateurs pour des véhicules légers comme le vélo, qui récupèrent l’énergie résultant du freinage et augmentent leur autonomie. Leur longévité permet d’envisager une utilisation comme alimentation de secours. Enfin, leur grande densité de puissance (la capacité de libérer rapidement l’énergie) montre leur potentiel pour des machines de jardin portatives comme une souffleuse à feuilles, sans qu’il y ait besoin de moteur.

Quelle est la prochaine étape ?

Jusqu’à maintenant, nous avons testé des ressorts à petite échelle (de quelques millimètres de long). Nous cherchons à améliorer leurs propriétés en testant de nouvelles approches de structuration des fibres et en commençant à les connecter pour tester leur capacité de charge.

Propos recueillis par Clémentine FulliasCarol Livermore est docteur en ingénierie mécanique au Massachusetts Institute of Technology (MIT) aux Etats-Unis.

« Géo-ingénierie du climat : science, gouvernance et incertitude »

A quelques semaines de la conférence de Copenhague sur le climat, la Royal Society de Londres a publié début septembre un rapport intitulé « Géo-ingénierie du climat : science, gouvernance et incertitude ». Il estime que les risques d’une manipulation délibérée du climat restent encore à évaluer. Ken Caldeira, directeur du Caldeira Lab à la Carnegie Institution de Washington et l’un des 12 scientifiques auteurs du rapport, répond aux questions de Techniques de l’Ingénieur.

Techniques de l’Ingénieur : Le rapport classe les méthodes de géo-ingénierie en deux catégories. Pour autant, peut-on mettre la capture du CO2 ( de l’anglais Carbon Dioxide Removal methods ) sur le même plan que la gestion du rayonnement solaire (de l’anglais, Solar Radiation Management methods) ?
Ken Caldeira : Non. Il s’agit de deux types d’interventions très différents. A l’origine, j’étais même contre le fait que les méthodes de capture du CO2 apparaissent dans le rapport car pour moi ce n’est pas de la géo-ingénierie.Les méthodes de capture du CO2 n’ajoutent pas de nouveau risque climatique (mais elles peuvent créer de nouveaux types de risques environnementaux). Fondamentalement, il s’agit de renverser le processus des émissions. En général, ces méthodes sont très lentes à agir mais elles ont le mérite de traiter le problème à la racine.Les méthodes pour occulter une partie du rayonnement solaire créent un nouveau risque climatique, mais elles ont le potentiel de réduire le risque climatique global. Certaines peuvent agir vite et peuvent donc être utiles en cas d’urgence ou de crise climatique. Je crois que cette « réponse à une urgence climatique » est la raison primordiale pour laquelle nous devons poursuivre nos recherches dans cette direction.

Si on prend en compte le risque d’effets secondaires, la géo-ingénierie est-elle « un mal nécessaire » ?
Les options étudiées dans ce rapport sont si diverses qu’il est impossible de généraliser. J’espère que nous sommes assez intelligents ou chanceux pour éviter une catastrophe climatique qui nous oblige à injecter des sulfates dans la stratosphère ou à recourir à d’autres mesures désespérées similaires. Pour moi, la géo-ingénierie est une boîte à outils, certains très efficaces. Or, une scie à chaîne peut être utilisée pour le bien ou le mal. L’objectif de ces propositions est de réduire les risques globaux. Si nous sommes confiants dans la capacité d’une option à les réduire, il y a du sens à la développer. Dans le cas contraire, ce serait une erreur.

Sans possibilité de test grandeur nature, sur quoi avez-vous basé votre évaluation ?
Notre évaluation se base sur des études théoriques, des simulations par ordinateur et des calculs d’ordre de grandeur.

La géo-ingénierie ne risque-t-elle pas de servir d’excuse pour ne pas réduire les émissions de CO2 ?
Il est admis que les émissions de gaz à effet de serre augmentent la probabilité d’une crise climatique. En être convaincu doit nous encourager à tout faire pour réduire ces émissions. Et en même temps, il nous faut développer des plans de secours en cas de crise.

D’après vous, quelle devrait être en conséquence la place de la géo-ingénierie lors de la conférence de Copenhague sur le climat en décembre ?
Je ne vois aucune raison pour laquelle les méthodes de gestion du rayonnement solaire devraient être discutées en décembre. Certaines méthodes de capture du CO2 (comme de planter des arbres) seront étudiées à Copenhague. « L’objectif ultime » de La Convention-cadre des Nations unies sur le changement climatique (CCNUCC) est « de stabiliser les concentrations de gaz à effet de serre dans l’atmosphère à un niveau qui empêche toute perturbation anthropique dangereuse du système climatique ». La capture du CO2 concerne la stabilisation des concentrations de gaz à effet de serre mais ce n’est pas le cas de la gestion du rayonnement solaire. Propos recueillis par Clémentine FulliasTélécharger le rapport (en anglais) Ken Caldeira dirige le Caldeira Lab dans le Department of Global Ecology de la Carnegie Institution à Washington. Ses recherches portent, entre autres, sur l’acidification de l’océan, les émissions de gaz à effet de serre et la manipulation du climat (‘géo-ingénierie’).

140 compagnies éoliennes offshore demandent à l’UE d’agir

La conférence de l’EWEA (Association européenne de l’énergie éolienne), qui s’est tenue a Stockholm ce mois-ci, n’en finit pas de faire des vagues. Dernière en date cette déclaration commune signée par plus de 140 entreprises d’énergie éolienne de 38 pays, appelant l’Union Européenne et ses gouvernements nationaux à apporter plus de soutien politique et législatif pour développer l’industrie éolienne au large des côtes du continent européen.Quand on sait que ce qui se passe en Europe dans le domaine de l’éolien offshore est regardé par les Etats-Unis comme un exemple à suivre, cela laisse songeur (sur la situation de l’éolien offshore aux Etats-Unis s’entend !). Mais ce qui est surtout intéressant dans l’European Offshore Wind Déclaration c’est qu’elle ne se contente pas de montrer du doigt les institutions gouvernementales mais engage également les entreprises concernées à veiller à ce qu’un nombre suffisant de turbines, composants, fondations et navires poseurs de câbles reliant les installations au réseau soient disponibles pour l’exploitation du vent en mer, considéré par l’EWEA comme une source d’énergie gratuite à capter. Personne n’a encore songé à monnayer le vent qui souffle sur son territoire et encore moins au large : pourvu que ça dure ! En signant cette déclaration, rédigée par l’EWEA, les signataires se mettent d’accord sur la nécessité de :

  • s’engager à fournir, à un ratio coût-efficacité réaliste, des composants de turbines fiables et cela en quantité suffisante pour que les parcs éoliens offshore puissent être installés,
  • s’engager à fournir en quantité suffisante les fondations nécessaires à l’installation des éoliennes offshore,
  • s’engager à fournir rapidement la quantité suffisante de câbles de transmission haute-tension sous-marins aux normes internationales destinés à assurer l’acheminement du courant à terre,
  • augmenter les investissements dans le domaine de la formation et des compétences pour répondre à l’objectif de l’EWEA de faire de l’éolien en mer la source d’énergie la plus compétitive sur le marché d’ici à 2030.
Afin d’atteindre ces objectifs, la déclaration a appelé la Commission Européenne :
  • à publier sa conception d’un réseau en mer du Nord, sa conception d’un approvisionnement en électricité abordable pour l’Europe, ses objectifs de réduction d’émissions de CO2 en la matière de façon à permettre l’accès à la plus grande source d’énergie domestique actuellement disponible gratuitement,
  • à publier ses normes de sécurité énergétique en matière d’infrastructures pour permettre la construction d’un réseau offshore et onshore européen qui intègre de grandes quantités d’énergie éolienne,
  • à publier sa communication sur le financement des technologies à faible émission de carbone, en précisant le montant de l’appui budgétaire consacré à l’innovation pour que 150GW d’énergie éolienne offshore puisse être installés d’ici à 2030.
La Déclaration s’adresse également séparément aux Etats membres de l’Union Européenne et à leurs gouvernements en demandant :
  • aux États membres de mettre en place des outils législatifs efficaces pour permettre un déploiement éolien offshore et offrir l’accès à des milliers de nouveaux emplois,
  • aux autorités nationales, qui édictent les règlements intérieurs, d’éliminer les obstacles qui empêchent les éoliennes d’être raccordées au réseau d’électrique,
  • à la Banque européenne d’investissement (BEI) d’accroître son financement de parcs éoliens offshore et de réseaux d’électricité offshore.
Parmi les grandes entreprises dont les représentants ont signé cette déclaration, on peut compter les fabricants d’éoliennes Vestas Wind Systems, Gamesa, Airtricity (filiale énergies renouvelables de Scottish and Southern Energy), DONG Energy, Siemens Wind Power, Iberdrola renewables, GE Energy, Suzlon Wind Energy, E. ON Climate & Renewables, Acciona Energia, Goldwind, NEO Energia – Grupo EDP, Mainstream Renewable Power Ltd EnBW, Renewable Energy Systems, Vattenfall Vindkraft … autrement dit : la majorité des géants de l’industrie éolienne. Des représentants des gouvernements, des universités, des médias et des ONG ont également signé le document.Christian Kjaer, directeur général de l’EWEA, a déclaré : « Si les décideurs nationaux et l’UE prennent des mesures rapides, l’énergie éolienne offshore peut devenir une nouvelle industrie générant des milliards d’euros, offrant des milliers d’emplois verts et une nouvelle forme d’économie dans les énergies renouvelables ».La déclaration soutenait également les points clés du rapport publié par l’EWEA la semaine dernière (cf. notre article du 18/09/09) et notamment la nécessité d’investir 16,5 milliards €par an d’ici 2030.  Pour télécharger la déclarationFrancis Rousseau est rédacteur en chef de plusieurs blogsportant sur l’environnement et les énergies renouvelables, dont unspécialisé dans les énergies marines : Les Energies de la mer. Cesblogs sont réalisés pour 3B Conseils, cabinet conseil en communicationscientifique et technique et bureau d’études, organisateur desEntretiens Science et Ethique.

Des batteries à circulation d’oxydoréducteur améliorées pour les véhicules électriques

http://www.bulletins-electroniques.com/actualites/60602.htm

Pour relever le défi de faire circuler un million de véhicules d’ici 2020 en Allemagne, l’un des problèmes qui reste à régler est celui du stockage de l’énergie. L’une des solutions envisagées est l’utilisation d’accumulateurs lithium-ion ; cependant leur recharge dure actuellement quelques heures, ce qui représente une durée non négligeable pour les conducteurs. Les batteries à circulation d’oxydoréducteur représentent une alternative possible. « Ces batteries sont basées sur des électrolytes liquides. Il est donc possible de les recharger en quelques minutes dans une station : l’électrolyte déchargé est évacué et remplacé par un électrolyte chargé », explique Jens Noack, ingénieur à l’ICT. L’électrolyte qui a été déchargé à la station pourrait y être rechargé, par exemple via une éolienne ou une installation solaire.

Le principe de ces batteries n’est pas nouveau : deux électrolytes liquides contenant des ions métalliques, séparés par une membrane qui laisse passer les protons, circulent à travers des électrodes constituées de feuilles de graphite poreux. Lors de cet échange de charges, de l’électricité circule à travers les électrodes.Jusqu’à présent, les batteries à circulation d’oxydoréducteur présentaient un inconvénient : la quantité d’énergie qu’elles pouvaient stocker était beaucoup moins grande que celle stockée par les accumulateurs lithium-ion. L’autonomie des véhicules n’était ainsi que d’environ 25 km, soit le quart de celle des véhicules alimentés par les accumulateurs lithium-ion, ce qui multipliait la fréquence de recharge par 4. « Nous avons pu multiplier l’autonomie par quatre ou cinq, nous approchant ainsi de l’autonomie des véhicules alimentés par des batteries lithium-ion », continue Jens Noack. Le prototype d’une cellule existe déjà, et à présent les chercheurs allemands veulent assembler différentes cellules en une batterie, puis l’optimiser.Ce développement est mené en commun avec des chercheurs de l’Université de sciences appliquées Ostfalia à Wolfenbüttel et Brunswick. Moteurs électriques et moyens de stockage y sont testés sur des véhicules modèles à l’échelle 1/10 (soit d’une taille d’un dixième de celle de véhicules usuels). Une batterie à circulation d’oxydoréducteur a déjà été intégrée dans un véhicule modèle et sera présentée du 13 au 15 octobre 2009 lors du salon eCarTech à Munich. Dans les années à venir, les chercheurs de l’ICT comptent intégrer la nouvelle batterie à plus grande autonomie dans un véhicule.

Source :
BE Allemagne numéro 452 (23/09/2009) – Ambassadede France en Allemagne / ADIT – http://www.bulletins-electroniques.com/actualites/60602.htm

Nadia Heshmati est rédactrice pour les Bulletins électroniques de l’ambassade de France en Allemagne.

La crise : bonne ou mauvaise pour le climat ?

La crise économique et financière que nous traversons aujourd’hui est-elle une chance pour le climat ? Elle est susceptible de changer les comportements à l’égard de la société de consommation et donc d’ouvrir la voie à des évolutions qu’il est essentiel d’analyser.La consommation de produits manufacturés est indirectement responsable du changement climatique car pour produire un objet, quel qu’il soit, il faut extraire la matière première, la transformer, la modeler, puis transporter l’objet là où il sera acheté et utilisé. La crise économique, en diminuant la consommation, diminue la production et donc les émissions de gaz à effet de serre. Par exemple, en France la demande de charbon pour la sidérurgie a reculé de 13 % sur les douze derniers mois, ce qui équivaut à un million de tonnes de charbon en moins. Les premières estimations montrent que, pour l’union européenne, les émissions de CO2 ont diminué d’environ 6 % en 2008 et diminueront de la même manière pour 2009.

La crise peut participer à augmenter les émissions
Mais cette baisse s’arrêtera au moment où la croissance reprendra. Et après ? Sur le long terme, la crise peut mettre la production de gaz à effet de serre sur une trajectoire plus polluante que celle suivie avant 2008. En effet, le faible prix des énergies fossiles et les difficultés financières peuvent inciter les entreprises et les ménages à moins investir dans les technologies propres, augmentant ainsi le besoin en énergie fossile et par là même, accroissant les émissions de CO2. Par exemple, aux Etats-Unis, la vente de voitures hybrides a diminué de 46 % alors que celle des voitures thermiques n’a chuté que de 34 %.  De plus, il existe aussi un risque que les préoccupations économiques mondiales entraînent une baisse de l’intérêt pour le climat. Alors que les capitales européennes, et notamment Paris, estiment que la situation actuelle est l’occasion d’accélérer des changements nécessaires, le Conseil européen de printemps des 19 et 20 mars n’a trouvé aucun moyen de financer la lutte contre le changement climatique en vue du rendez-vous de Copenhague.Les discussions ont été principalement tournées vers la situation économique et financière. De plus, en France, les mille projets de relance retenus pour bénéficier de l’investissement public ontété choisis pour leur capacité à démarrer immédiatement. Ils sont sensés accélérer l’activité et favoriser l’embauche mais ils oublient des objectifs à plus long terme tel que la lutte contre le réchauffement climatique ou la transformation des modes de consommation pourtant affichés par Paris.

La crise impacte les comportements
Il faut aussi prendre en compte le comportement des consommateurs. La crise impacte les comportements de trois manières différentes :
  •  Les consommateurs dépensent moins dans les biens durables retardant le déploiement d’une nouvelle génération d’équipement plus efficaces.
  •  Ils sont moins disposés et capable de payer plus cher pour des biens plus écologiques d’autant que leurs revenus et le prix de l’énergie diminuent.
  •  Ils prennent plus soins de leurs biens, et donc achètent moins.
Une autre tendance est aussi apparue que la crise seule n’explique pas : un phénomène de saturation vis-à-vis de la société de consommation. Pendant cette période de restriction, les ménages ont expérimentés « le système D » et la réflexion avant un achat. Alliés aux discours sur l’écologie, ils ont changé leurs mentalités : ils s’aperçoivent que cela ne les rends pas moins heureux. Il y a trois ans, 60 % des Français consommaient par nécessité et non par plaisir contre, 84 % aujourd’hui. Si ce comportement reste durable, la crise ne sera un élément favorable dans la lutte contre le réchauffement climatique que si les états mettent en place des politiques favorisant l’écologie : la taxe carbone en serait-elle le premier pas ? 

Sources :
  • A. CARASCO,S. MAILLARDet C.REBUFFEL. ( 26/11/2008). Ledéveloppement durable est aussi une réponse à la crise ,[en ligne]. Adresse URL : www.la-croix.com 
  • YannCOHIGNAC. (21/03/2009). Conseileuropéen : c’est mal parti pour Copenhague ,[en ligne]. Adresse URL : http://www.developpementdurable.com/politique/2009/03/A1233/conseil-europeen-cest-mal-parti-pour-copenhague.html  
  • HélèneTOUTCHKOV. (7/04/2009). Criseéconomique : la consommation énergétique française en baisse ,[en ligne]. Adresse URL : http://www.developpementdurable.com/conso/2009/04/A1378/crise-economique-la-consommation-energetique-francaise-en-baisse.html
 Laurence Royer est étudiante à l’Ecole Centrale de Paris. Elle a été primé au concours organisé par SIA-Conseil, L’Expansion et RTE sur le thème Energies et Avenir.

Quels modes de charge pour les véhicules électriques ?

Poussés par les avancées technologiques dans le domaine des batteries et l’appui des acteurs publics qui promeuvent les modes de transports alternatifs, les véhicules électriques reviennent sur le devant de la scène. La question des modes de charge s’invite de plus en plus dans les réflexions autour des modèles d’affaires envisageables pour les voitures électriques. Trois modes principaux de charges sont plébiscités : la charge à calibre normal (3 ou 6 KVA), la charge rapide qui peut se faire soit à fort calibre (à partir de 24 KVA) soit via l’échange rapide de batteries dans des stations dédiées et la charge douce à calibre minimal, permettant une recharge à faible puissance qui s’étale sur toute la durée de disponibilité du véhicule.

La charge à calibre normal sera, sans doute, le mode qui sera majoritairement adopté puisqu’elle se fait sur une prise électrique classique de 3 KVA (kilovoltampère) que l’on retrouve chez la plupart des particuliers. Ce mode de charge requiert donc moins de coûts d’aménagement et sollicite un appel de puissance unitaire raisonnable sur le réseau. La durée d’un épisode de charge étant proportionnelle au calibre de charge utilisé, la charge sur un calibre normal nécessitera plus de temps que sur un calibre rapide.Typiquement la recharge complète d’une batterie de 30 kWh [1] nécessitera 6 heures [2] sur un calibre normal et seulement environ 1 heure sur un calibre rapide de 24 KVA.

Toutefois, la charge rapide implique des courants forts (32 à 63 Ampères) et des niveaux de tension élevés (400V) qui nécessitent des infrastructures électriques particulières et des dispositifs sécurisés. Il ne sera donc, à priori, possible d’utiliser ce mode de charge que dans des stations dédiées où l’utilisation pourra être mieux encadrée.

La durée de la charge dépendra pour beaucoup de la disponibilité des usagers à effectuer des épisodes de charge au cours de la journée. Il ressort de l’enquête nationale sur le déplacement des ménages que, hormis le stationnement nocturne, les voitures particulières restent stationnées pendant 4 heures en continu au moins deux fois au cours d’une journée moyenne. Il ressort également que les stationnements les plus longs en journée se produisent à domicile (en moyenne 3 h 30 min de stationnement en continu) et sur le lieu de travail (en moyenne 6 h de stationnement en continu).

Les véhicules particuliers sont donc potentiellement disponibles pendant des durées suffisantes pour se recharger avec un calibre normal au cours de la journée (cf. figure1 ci-dessous). Au besoin, la charge rapide pour les véhicules particuliers pourra se faire en moins d’une heure dans des stations dédiées ou en quelques minutes dans des stations d’échange de batterie.

reference

 

Les véhicules de flottes (type la Poste ou les bus urbains), qui effectuent des kilométrages importants avec des phases de stationnement plus courtes, auront sans doute plus recours à la charge rapide au cours de la journée. Parmi les idées innovantes pour optimiser leur temps de charge, on peut citer celle qui sera investiguée dans le cadre du projet WATT [3] qui consiste à charger des bus électriques via des caténaires installés aux arrêts.

original

 

Dans le but d’accroître l’ergonomie de l’opération de charge, la charge sans contact est de plus en plus envisagée. Ce mode de charge s’effectue généralement grâce à un transfert d’énergie par induction électromagnétique au moyen de deux inducteurs, l’un intégré au véhicule et un autre sur le point de charge.

La charge inductive implique par ailleurs des niveaux de puissances réduits (typiquement de l’ordre du kW) même si des avancées récentes permettent d’espérer des puissances plus importantes. Des épisodes de charge à puissance réduite (charge douce), effectués grâce au transfert d’énergie par induction électromagnétique, pourraient être envisagés vue la grande disponibilité potentielle des voitures particulières à être chargées durant la journée en continu (cf.figure 1).

original

Figure 3-Principe de la charge inductive

D’autres éléments seront décisifs dans les choix d’aménagement des infrastructures de charge. Il s’agit principalement du coût et de l’impact du mode de charge sur la consommation d’électricité. En effet, la charge rapide entrainera des appels de puissance sur le réseau électrique qui seront beaucoup plus importants que la charge normale. L’implantation de bornes de charge rapide nécessitera également des infrastructures électriques onéreuses.

La stratégie d’implantation des points de charge des véhicules électriques devra donc reposer sur une optimisation technico-économique des coûts d’infrastructures et garantir un déploiement adéquat vis-à-vis des habitudes de déplacements des usagers.

 

[1] La capacité moyenne de la batterie d’un véhicule électrique offrant 150 Km d’autonomie est 30 Kwh.
[2] Une batterie déchargée à 80 % de sa capacité sera totalement rechargée en 6h
[3]Le projet WATT est un projet de recherche sur les véhicules électriques financé par le fonds démonstrateur de l’ADEME

Abdoulkarim Ahmoud est Ingénieur Energéticien diplômé de l’Ecole des Mines de Paris (Mastère Spécialisé Optimisation des Systèmes Energétiques) et de l’Ecole Nationale Supérieure de Mécanique et d’Aérotechnique (ENSMA). Il intervient aujourd’hui à la R&D d’EDF dans des études techniques et économiques autour des potentiels de développement des véhicules électriques et des enjeux pour le réseau.

Des puces hybrides Silicium-Nitrure de Gallium pour des transistors plus rapides

http://www.bulletins-electroniques.com/actualites/60701.htm

Dans la recherche en microélectronique, les chercheurs ont souvent essayé de combiner des matériaux semi-conducteurs ayant des propriétés différentes et potentiellement complémentaires, pour améliorer les performances des puces classiques. Une équipe du MIT, menée par Tomas Palacios, professeur assistant au Department of Electrical Engineering and Computer Science, a réussi cet effort d’hybridation, ce qui donne un bon espoir de repousser un peu la barrière de la vitesse et de la miniaturisation des transistors dans la microélectronique d’aujourd’hui. Le matériau semi-conducteur le plus utilisé dans la microélectronique est le silicium. L’augmentation de la cadence des processeurs augmentait jusqu’à présent en mettant plus de transistors sur une puce, donc en les faisant de plus en plus petits. Mais les technologies d’impression de transistors sur le silicium atteignent aujourd’hui leurs limites, et les ingénieurs et scientifiques pensent à remplacer le silicium par du carbone (nanotubes, graphène). Cependant, on est encore loin du tout carbone pour nos puces électroniques. Cette équipe du MIT a donc pensé à l’hybridation du silicium et du nitrure de gallium, pour utiliser d’autres semi-conducteurs ayant de meilleures performances que le silicium en terme de rapidité de transport des électrons. Mais jusqu’à maintenant, il était impossible de mettre dans la même puce du silicium et un autre semi-conducteur. Autre écueil. Un microprocesseur peut aujourd’hui contenir plus d’un milliard de transistors identiques. Mais les chercheurs font face à plusieurs problèmes lorsqu’ils essaient d’intégrer le même nombre de transistors sur un autre matériau semi-conducteur. Ils peuvent en faire un, dix voire quelques centaines, qui sont certes très rapides, mais en quantité bien trop faible. Les industries de la microélectronique ont passé des décennies et des milliards de dollars pour faire du silicium la technologie la plus efficace et la plus sûre. Étant donnés la durée et le prix des procédés de développement, il est difficile, dans ces conditions, pour un nouveau matériau de venir concurrencer le roi silicium. Cependant, les chercheurs se sont penchés sur le fait que la plupart des transistors sur une puce, par exemple sur de la mémoire flash, n’ont pas réellement besoin de fonctionner à la vitesse maximum. Seuls un petit nombre, de 5 à 10 %, travaillent et ont besoin de fonctionner à leur vitesse maximum. La solution que Palacios et son étudiant Will Chung ont développée consiste à utiliser le silicium pour la majorité des transistors, ceux qui travaillent moins, et le nitrure de gallium pour le petit nombre de ceux qui travaillent à haut débit, tout ceci étant sur le même substrat silicium. Au lieu d’essayer de fabriquer les transistors haute performance sur les transistors classiques, Palacios et Chung ont fabriqué cette puce hybride en enchâssant la couche de nitrure de gallium dans le substrat en silicium. Cela permet non seulement d’obtenir des puces plus rapides, mais aussi plus efficaces d’un point de vue énergétique (les transistors travaillant moins rapidement consomment moins d’énergie). De plus, les puces peuvent être fabriquées en utilisant les standards de l’industrie du silicium. Pour le moment, la nouvelle technique a été utilisée pour la fabrication de puces dont la taille est d’un pouce carré (6.4 cm²). Les substrats standards utilisés dans l’industries sont de 8 ou 12 pouces de diamètre, ce qui reste un obstacle à franchir pour l’équipe, mais les chercheurs semblent confiants. Ils sont en discussion avec différentes compagnies pour la commercialisation de cette technologie et pour fabriquer des circuits plus complexes. Cela pourrait aussi ouvrir la porte à d’autres applications, comme par exemple à une nouvelle classe de systèmes hautes fréquence, ou à des hybrides qui combinent laser et électronique en une puce unique, ou encore à des systèmes de glanage d’énergie. De tels systèmes hybrides pourraient ainsi améliorer les téléphones portables qui utilisent des circuits haute fréquence. Aujourd’hui, les téléphones utilisent en général au moins quatre à cinq puces séparées faites de différents matériaux semi-conducteurs. Avec cette technologie, il serait possible d’intégrer toutes ces fonctions dans une seule et même puce.

Photo : © Patrick Gillooly

Sources :
– « MIT team finds way to combine microprocessor materials », 16 Septembre 2009
– « Hybrid Chips of Gallium Nitride and Silicon », 22 Septembre 2009
– « MIT researchers build silicon/gallium nitride combo wafer », 16 Septembre 2009

Rédacteur : Alban de Lassus, [email protected]

Origine : BE Etats-Unis numéro 179 (2/10/2009) – Ambassade de France aux Etats-Unis / ADIT – http://www.bulletins-electroniques.com/actualites/60701.htm

Le prix Nobel de physique récompense la fibre optique et les capteurs CCD

Le palmarès est tombé aujourd’hui, mardi 6 octobre. Cette année, le prix Nobel de physique récompense deux innovations majeures en matière de technologies de la communication et de traitement de l’image. La première moitié du prix, soit 5 millions de couronnes suédoises (488.000 euros), a été décernée à deux chercheurs : l’Americano-canadien Williard Boyle et l’Américain Georges Smith. Employés tous les deux en 1969 par les laboratoires américains Bell, ces derniers sont à l’origine du premier capteur photographique CCD (Charged-Coupled Device, dispositif à transfert de charge). Une technologie qui depuis a totalement révolutionné le monde de la photographie puisqu’elle a permis de transformer la lumière en signal électrique et de capturer cette dernière par voie électronique et non plus sur un film argentique. C’est cette innovation qui est à l’origine de la photo et de la vidéo numérique, mais qui a conduit également à de nombreux progrès dans des domaines aussi variés que la microchirurgie, l’exploration spatiale via l’œil des télescopes ou encore les lecteurs de codes barres. 

L’autre moitié du prix revient à l’Américano-britannique Charles Kao pour ses recherches sur la fibre optique. Menés en 1966, ses travaux ont permis de comprendre comment transmettre la lumière sur de longues distances par l’intermédiaire de fibres de verre optiques et ont servi de base à la production, quatre années plus tard, de la première « Ultra » fibre qui ouvrira la voie au très haut débit que nous connaissons aujourd’hui. © Richard Epworth
Après la médecine et la physique, le prix Nobel de Chimie sera attribué demain, mercredi 7 octobre 2009. En savoir plus Voir les site des prix Nobel et les autres palmarès A.L B

Les biocarburants de troisième génération

Les recherches scientifiques et l’étude de la faisabilité industrielle de la mise en œuvre des biocarburants de troisième génération sont nées des polémiques provoquées par les biocarburants de 1ère génération et de l’industrialisation à court terme des biocarburants de deuxième génération.Ces trois générations de biocarburants ont en commun d’être des énergies non fossiles, renouvelables et donc permettent de répondre à l’épuisement des ressources fossiles. Toutefois, la particularité et les avantages de la dernière génération de biocarburant peuvent s’apprécier notamment à travers trois paramètres :

  •  Les émissions globales de GES (gaz à effet de serre) nécessaires à la production de biocarburant ; 
  •  L’efficacité énergétique pour produire le biocarburant c’est-à-dire la quantité d’énergie produite rapportée à la surface nécessaire pour sa production ; 
  •  Et la concurrence éventuelle des dispositifs de culture vis-à-vis de cultures agricoles pouvant servir à l’alimentation humaine ou animale
Le tableau ci-dessous synthétise les performances de différentes générations de biocarburants en fonction des paramètres susmentionnés : La première génération de biocarburant
  • Origine de la production
Les biocarburants de première génération sont produits à partir d’amidon ou d’huile végétale provenant de graines de blé, de colza ou de tournesol.
  • Produit final
L’amidon du blé est fermenté pour donner du bioéthanol. Les graines de tournesol ou de colza sont pressées pour produire de l’huile végétale qui peut être utilisée pour la fabrication de biodiesel.
  • Rendement de production
Les rendements énergétiques sont de l’ordre de 1 à 4 TEP (Millions de Tonnes Equivalent Pétrole)/ha/an.
  • Inconvénients
Les matières premières utilisées pour produire ce type de biocarburant peuvent être utilisées dans une chaîne alimentaire animale ou humaine ; par conséquent ils entrent en concurrence directe avec celle-ci. De plus, le bilan énergétique et les émissions de CO2 liés à la production de cette génération de biocarburant ne sont pas toujours très favorables à cause notamment de l’énergie nécessaire à leur extraction (par exemple : chauffage pour la distillation du bioéthanol) La deuxième génération de biocarburant
  • Origine de la production
La production de la seconde génération de biocarburants peut être réalisée à partir d’une variété importante de cultures non alimentaires. Il s’agit notamment de la biomasse des déchets, les tiges de blé, de maïs, du bois, de cultures de biomasse fibreuse (par exemple le miscanthus) ou de macroalgues. Ces biocarburants (aussi appelés « 2G ») peuvent être produits selon deux voies : enzymatique ou thermochimique.
  • Produit final
Les produits finaux peuvent du bioéthanol, du biodiesel, du biohydrogène ou du biogaz.
  • Rendement de production
Les rendements sont très variables mais peuvent atteindre 3,5 à 5 TEP/ha/an.
  • Inconvénients
Les procédés de type gazéification manquent encore de référence et de retour d’expériences industrielles. Cette génération de biocarburant ne permettrait pas encore de couvrir l’ensemble des besoins en carburant. La troisième génération de biocarburant
  • Origine de la production
Les biocarburants de troisième génération sont principalement produits par des microalgues. On distingue deux façons de les cultiver. D’une part avec des procédés dit « intensifs » où les microalgues croissent dans des photobioréacteurs fermés où l’on contrôle les paramètres physico-chimiques et d’autre part, les procédés dit « extensifs » dans des bassins en extérieur. Le milieu de culture circule grâce à des roues à aubes. Les éléments nutritifs sont apportés de manière à garantir, dans les conditions standards, une croissance optimale des algues. Un bullage assure l’apport en CO2. Ces systèmes, de part leur caractère ouvert, sont très sensibles à la contamination.
  • Produit final
Les microalgues peuvent subir différentes transformations pour être valorisées en biocarburant. Elles peuvent accumuler des acides gras jusqu’à 80 % de leur poids sec, permettant d’envisager des rendements à l’hectare supérieurs d’un facteur 30 aux espèces oléagineuses terrestres. Ces acides gras doivent être extraits puis trans-estérifiés pour produire du biodiesel. D’autres espèces de microalgues peuvent contenir des sucres et ainsi être fermentées en bioéthanol. Enfin, les microalgues peuvent être méthanisées pour produire du biogaz.
  • Rendement de production
Le rendement et la production de ces microalgues peut être supérieur aux végétaux terrestre du fait d’un taux de photosynthèse plus important, d’une culture annuelle et de concentration en CO2 plus importante. En effet, le CO2 peut être capté par exemple dans les fumées de centrales thermiques ou d’incinérateurs. Le rendement de production peut atteindre 20 à 40 TEP/ha/an [1].
  • Inconvénient
La mise en œuvre industrielle de la production de biocarburant à partir de microalgues reste à démontrer. Un tableau synthétisant une partie des particularités des trois générations de biocarburants est proposé ci-dessous :   Sylvain Frédéric est directeur Recherche et Développement de Naskeo Environnement. 

Notes :
[1] Extrapolation à partir de données de réacteur pilote industriel

Véhicules électriques : 14 mesures pour structurer la filières

Fini les actes isolés en matière de production de véhicules électriques et hybrides. Place à l’action concertée sous la houlette de l’Etat.  » Dans ce domaine, aucun acteur ne peut agir tout seul, a déclaré ce matin Jean-Louis Borloo, ministre de l’Ecologie et de l’Energie, en introduction de la conférence de présentation du plan de développement des véhicules électriques. En revanche, si tout le monde agit ensemble, tout devient possible.  »

Et les objectifs tombent : 2 millions de véhicules électriques en France en 2020 contre 15.000 en 2010 et 4 millions en 2025, soit un peu plus de 25 % du parc de véhicules neufs. Cette activité devrait générer, selon le ministère, 15 milliards d’euros à l’horizon 2030, contribuer au maintien de l’emploi dans la filière automobile, permettre une réduction des importations de pétrole de 4 millions de tonnes équivalent pétrole ainsi qu’une réduction des émissions de CO2 d’environ 17,5 millions de tonnes en 2020 (soit 3 % de moins qu’en 2007).

Un planning ambitieux qui se concrétise par 14 actions qui concernent aussi bien la recherche, que la production, les infrastructures ou encore les modes de consommation.

Créer une filière batterie

Côté recherche, la plate-forme Steeve (Stockage d’Energie Electrochimique pour Véhicules Electriques), qui permet la réalisation de batteries en petites séries, a été dotée d’une enveloppe de 7,5 millions d’euros par les pouvoirs publics auxquels viendront s’ajouter 3,5 autres millions d’euros. Parallèlement, l’Etat investira 1,8 million d’euros pour veiller à la sécurité et à la fiabilité de ces batteries.

Au-delà, le gouvernement a décidé d’investir 125 millions d’euros sur les 625 prévus par Renault pour créer en partenariat avec le CEA à Flins, une usine de batteries lithium-ion. Objectif : produire 100.000 batteries par an destinées non pas uniquement à la marque au losange, mais à tous les constructeurs français.

Un projet qui vient s’ajouter à ceux conduits par Bolloré, Saft et Dassault.

Dès 2010, des nouveaux démonstrateurs de charge

Soucieux de faire une large place à l’expérimentation, le gouvernement, via l’ADEME, lancera début 2010 un nouvel appel à projets qui vient s’ajouter aux deux précédents, dotés respectivement de 56,9 et 50 millions d’euros. Baptisé  » Infrastructure de charge « , il aura pour objectif de soutenir les expérimentations alliant infrastructures, usages et territoires ciblés. Ceci afin de valider le fonctionnement des véhicules rechargeables in situ et de familiariser la population avec cette technologie. A cette fin, le fonds démonstrateur de l’ADEME sera doté de 70 millions d’euros.

Inventer de nouvelles solutions de mobilité

Dans cette perspective, l’ADEME sera chargée début 2010 d’élaborer une feuille de route pour de nouvelles solutions de mobilités à l’intérieur desquelles les véhicules électriques occuperont une place importante. Un appel à projet devrait d’ailleurs prolonger cette initiative, mais aucune date n’a été communiquée. En revanche, on en connaît déjà le budget : 25 millions d’euros.

Des initiatives similaires, telles que Mu by Peugeot , sont également à l’étude.

L’achat de 50.000 véhicules par les entreprises publiques

Annoncée le 23 septembre, l’information a été confirmée ce matin. 50.000 véhicules électriques destinés aux entreprises publiques seront achetés sur une période de 5 ans. Le cahier des charges fonctionnel est d’ores et déjà finalisé. Il s’agit de véhicules électriques (véhicules utilitaires légers et véhicules de 3 à 5 places) d’une autonomie de 150 km.

Un chiffre auquel pourrait venir s’ajouter 50.000 autres commandes dans la mesure où les loueurs de voitures, les taxis et les artisans s’associent à l’initiative.

Bonus de 5.000 euros jusqu’en 2012

Les 5.000 euros de bonus versés à toute personne achetant un véhicule dont les émissions de CO2 sont inférieures ou égales à 60g/km seront maintenu jusqu’en 2012, date à laquelle, le gouvernement estime que le prix des véhicules électriques sera similaire à celui d’un véhicule à moteur thermique.

Pour le chargement, une prise standard suffit

Afin de permettre la pénétration large, rapide et à moindre coût des véhicules électriques dans la population, le gouvernement a privilégié les infrastructures privées. Moins de 10 % des infrastructures nécessaires au parc de voitures électriques seront pourvues par les infrastructures publiques. En revanche, l’installation sera simple. Il ne sera pas nécessaire d’installer des prises spécifiques. Une prise standard, dédiée à cet effet, sera suffisante.

Dès 2012, les immeubles neufs équipés de prises

Par ailleurs, dès 2012, il sera fait obligation aux promoteurs de logements neufs avec garages, d’équiper ces derniers de prises afin de pouvoir recharger facilement les voitures. Cette disposition fait l’objet d’un amendement gouvernemental à la loi Grenelle 2. Cet amendement a été adopté à l’unanimité au Sénat le 28 septembre 2009.

Un droit à la prise pour l’immobilier déjà construit

Pour les copropriétés déjà construites, leur statut devrait évoluer pour faciliter la présentation de devis d’équipement de recharge. Au-delà, un droit à la prise sera également prévu pour les locataires.

Et les immeubles de bureau ?

Dès 2015, les équipements de recharge seront obligatoires au profit des salariés dans les parkings des immeubles de travail.

Pousser un standard de prise au niveau européen

D’ores et déjà, un accord a été trouvé entre la France et l’Allemagne sur les caractéristiques techniques d’une prise commune et unique. Désormais, des discussions au niveau européen sont en cours sur la base de ce groupe de travail. Première conclusion : décembre 2009.

Des communes mobilisées

Fin 2009, des assises nationales seront organisées sur les questions de mobilité électrique et d’infrastructures à charge.

Le déploiement du réseau

Plusieurs mesures sont prévues dans ce cadre. La première d’entre elles est la création d’une filiale à 100 % d’ERDF pour accompagner les communes et répondre aux appels d’offres éventuels. Par ailleurs, le grand emprunt pourrait venir financer à hauteur de 900 millions d’euros les investissements nécessaires pour mettre en place des infrastructures publiques (budget prévu :1,5 milliard d’euros)

Développer les compteurs intelligents

Enfin, afin d’assurer la charge des véhicules sans pour autant contraindre le pays à acheter de l’électricité à l’étranger, le gouvernement encourage la recherche et le développement des compteur intelligents et des dispositifs permettant le dialogue entre le véhicule et sa borne de recharge.

Penser au recyclage

Pour finir, les constructeurs automobiles et les producteurs français de batteries se sont engagés à prendre en compte, dès la conception, le cycle de vie des batteries.
 
A.L B

Image : Renault Twizy Z.E. Concept, Crédits : Renault Design

Quel rôle la géo-ingénierie doit-elle jouer dans la lutte contre le changement climatique ?

Vivrons-nous dans le futur dans des « villes blanches » ? Notre quête pour refroidir la planète nous amènera-t-elle à construire des versions modernes des villages traditionnels des Grecs et des Espagnols, dont les couleurs pâles réfléchissent les rayons du soleil ? Cela peut sembler un peu tiré par les cheveux mais c’est la vision de Steven Chu, Secrétaire américain à l’énergie, qui a récemment suggéré de peindre tous les toits en blanc.Il n’est pas le seul à se tourner vers la géo-ingénierie comme solution au changement climatique. Il y a deux ans, Richard Branson avait lancé un concours avec 25 millions de dollars à la clé pour la technologie capable de capturer au moins un milliard de tonnes de CO2 par an dans l’atmosphère. Celui-ci cherche toujours son gagnant. Alors que de nouvelles données montrent que les émissions atteignent le seuil critique, les gouvernements du monde entier sont de plus en plus à la recherche d’une technologie miracle.

Limiter la concentration en CO2, réduire les effets du rayonnement

Certaines de ces propositions ont le potentiel pour changer la face du monde. Nos côtes pourraient ainsi dans l’avenir être dominées par d’immenses tours destinées à capturer le CO2 et à le réinjecter dans des aquifères salins ou dans des serres pour faire pousser des fruits et légumes. Des bateaux robots propulsés à l’énergie solaire pourraient croiser nos océans en diffusant une fine brume d’eau de mer dans l’atmosphère pour créer des nuages qui réfléchiront une partie de la lumière du soleil dans l’espace et feront un écran de protection.Derrière ces technologies que l’on croirait tout droit sorties de la science-fiction se cachent deux approches de la lutte contre le changement climatique :

  • la première regroupe les dispositifs qui visent à réduire la concentration atmosphérique de CO2 (par exemple, en semant dans l’océan des agents chimiques qui absorbent le CO2 par réaction).
  • la seconde regroupe les méthodes qui visent à occulter une partie du rayonnement solaire (par exemple, en faisant pousser des cultures de couleurs claires visant à modifier l’albédo).

Ces méthodes n’impliquent pas toutes des manipulations très poussées. Le biochar ou charbon vert, par exemple, est une méthode aisée pour séquestrer le CO2 dans les sols et l’idée a déjà fait son chemin (voir Burn the trees to save the world ?).

La géo-ingénierie obstacle aux négociations futures ?

Mais il n’est pas surprenant que la géo-ingénierie fasse l’objet d’une polémique. Alors que ses partisans pensent que nous devons intervenir par tous les moyens pour contrôler notre climat déjà déstabilisé, ses adversaires estiment ainsi que c’est jouer avec le feu. Ils s’inquiètent par ailleurs du fait que la géo-ingénierie ruine toute négociation internationale future sur le climat.Je suis persuadé que la géo-ingénierie verra le jour sous une forme ou une autre. Les techniques pour séquestrer le CO2 seront très certainement appliquées si la concentration de CO2 dans l’atmosphère dépasse le seuil critique. Elles pourraient nous permettre d’échapper au cercle vicieux : l’augmentation des émissions dans l’atmosphère entraîne ainsi une hausse de la température qui est à son tour à l’origine d’une augmentation des émissions de gaz à effet de serre de sources naturelles comme le méthane (avec la fonte du permafrost).Nous devons simplement nous assurer que ces nouvelles technologies ne détournent pas notre attention d’autres qui sont peut-être moins séduisantes mais qui ont déjà fait leurs preuves.

Source :

Green FuturesPeter Madden dirige Forum for the Future qui publie le magazine indépendant Green Futures.

Un nanomatériau pour lutter plus efficacement contre la grippe

http://www.bulletins-electroniques.com/actualites/60289.htm

 

Des scientifiques ont mis à l’essai un nanomatériau qui augmenterait l’efficacité des vaccins contre la grippe.

 

Les chercheurs du CSIC en collaboration avec l’Institut National de Recherche, de Technologie Agraire et Alimentaire (INIA) ont constaté lors de tests réalisés sur des animaux, que l’utilisation d’un nanomatériau du groupe des bio-nanocomposites, préparé avec des composants souvent employés dans l’alimentation et la biomédecine, pourrait améliorer l’efficacité et réduire les coûts de production des vaccins contre la grippe dans ses différentes variantes, y compris la grippe H1N1, ainsi que contre d’autres agents infectieux.

 

Les bio-nanocomposites basés sur le silicate naturel de magnésium sépiolite et le polyoside que constitue la gomme xanthane, pourraient permettre aux vaccins d’immuniser avec des doses inférieures en antigènes (la substance qui donne lieu à la création d’anti-corps dans l’organisme). De fait, cela permettrait une réduction des coûts et une augmentation des personnes immunisées. Ce genre de vaccins pourrait selon les chercheurs s’administrer par injection intramusculaire ou intronasale.

 

Les vaccins contre la grippe constituent la première réponse afin de réduire l’impact d’une pandémie. Ces dernières années, des avancées ont été faites dans les technologies de production de vaccins contre la grippe, cependant il n’est pas rare que ces derniers présentent une capacité immunogénique plus faible. Cet inconvénient peut être surmonter en administrant de fortes doses d’antigène lors des vaccins afin d’induire une réponse efficace d’anticorps protecteurs dans l’organisme.

 

Cependant, cette solution reste inappropriée car actuellement la capacité de production mondiale de vaccins est limitée et cela conduirait à un plus petit nombre de personnes pouvant y avoir accès. Il est donc nécessaire et urgent d’utiliser des composants adjuvants qui augmentent l’immunogénéité des vaccins, ce qui permettra de réduire la dose d’antigène requise et d’élargir la population vaccinée. Cela pourrait par exemple être d’un grand bénéfice face à une pandémie de grippe A.

 

Le nano-matériau concerné par l’étude est le bio-composite xanthane-sépiolite qui sert d’adjuvant de vaccin. Afin de vérifier s’il peut remplir cette fonction, les chercheurs ont réalisé des essais sur des souris immunisées avec un antigène viral. Ils leur ont administré des doses léthales de grippe, et ont constaté que les souris ont survécu à l’infection qu’il s’agisse de l’injection intra-musculaire comme l’intranasale. De plus, les souris n’ont pas eu de perte de poids contrairement aux animaux ayant reçu le vaccin avec l’antigène viral sans le bio-composite.

 

Enfin, ce nanomatériau n’altère pas la structure et la stabilité des antigènes qui sont importants notamment lorsque les vaccins doivent être conservés pendant de longues périodes avant leur administration.

 

Contacts : Consejo Superior de Investigaciones Cientificas (CSIC) ; Instituto Nacional de Investigación y Tecnologia Agraria y Alimentaria (INIA) : http://www.inia.es/inia/
Source : Servicio de Información y Noticias Cientificas (SINC), 19/08/2009
Rédacteur : Sophie Palmier, Chargée de mission, [email protected]
Origine : BE Espagne numéro 85 (1/09/2009) – Ambassade de France en Espagne / ADIT – http://www.bulletins-electroniques.com/actualites/60289.ht

&l

Le soleil a rendez-vous avec l’atome

(Article corrigé le 1er octobre 2009) Le géant du solaire First Solar vient de signer un protocole d’accord avec le gouvernement chinois pour la construction d’une centrale solaire d’une capacité de 2.000 MW en Mongolie Intérieure. Si le projet aboutit, la centrale solaire d’Ordos sera la première au monde d’une envergure suffisante pour autoriser des comparaisons avec la plus importante source d’énergie à faible émission de CO2 : le nucléaire.Depuis des années, j’entends parler de propositions pour recouvrir des zones entières du désert avec des panneaux solaires. Ce projet me paraît être le plus important jusqu’à aujourd’hui, dans les limites du faisable. 65 km2 sont concernés, près de la ville d’Ordos en Chine. Certes, le projet Desertec en Afrique du Nord pourrait au final être plus important, mais nous n’en verrons pas la couleur avant longtemps même si First Solar insiste bien dans son communiqué de presse sur le fait que le projet démarrera sur une base modeste de 30 MW avant de monter en puissance. Je me demande si les dernières phases du projet sont conditionnées à la baisse des tarifs actuels de l’énergie solaire.En effet, comme je l’ai souligné récemment, même avec des modules solaires à moins de 1 dollars/Watt comme ceux à couche mince de First Solar, le coût total de l’installation peut dépasser les 4 dollars/Watt. Le projet Ordos joue donc dans la même catégorie qu’une nouvelle centrale nucléaire en termes de coût, et pas seulement de production notionnelle.

La même quantité d’énergie qu’une centrale à charbon ?
En parlant de production, nous devons considérer dans quelle mesure une installation de panneaux solaire de 2.000 MW peut se comparer à deux centrales à charbon ainsi que de nombreux articles en ont fait mention. Bien que je n’ai pas pu obtenir les données réelles pour Ordos, un coup d’œil à la carte de l’ensoleillement en Chine suggère que cette zone reçoit environ 6 kW/m2/jour, soit 6 heures d’ensoleillement par jour. Le projet a ainsi un facteur d’efficacité moyen de 0,25, ce qui signifie que 2.000 MW d’énergie solaire génèreraient à peu près la même quantité d’électricité par jour qu’une centrale à charbon de 700 MW ou une centrale nucléaire de 550 MW.L’intérêt principal du projet est peut-être sa progressivité. A la différence d’une nouvelle centrale nucléaire qui mettrait probablement aussi longtemps à se construire, les Chinois n’auront pas besoin d’attendre l’achèvement du projet prévu pour 2019 pour produire de l’électricité. Chaque module serait ainsi indépendant et le premier pourrait commencer à générer de l’électricité d’ici un an ou deux.

Un coût de revient problématique
Cette centrale solaire pourrait ainsi produire autant d’énergie que deux centrales nucléaires (ou deux grosses centrales à charbon) en un instant donné mais moins d’énergie que chacune de ces deux technologies sur toute l’année, tout en coûtant presque aussi cher qu’un gros réacteur nucléaire. Même en misant sur une amélioration considérable des coûts entre le moment où le premier et le dernier panneau solaire sera installé, la donne ne change pas. Le degré d’utilité de l’installation dépendra en grande partie de la nature des besoins énergétiques de la Chine : ceux-ci seront-ils plus importants aux heures d’ensoleillement ou seront-ils réguliers tout au long de la journée ? Je me réjouis autant que tout le monde que la Chine cherche à diversifier ses sources d’énergie, même à une échelle modeste. Rien n’exclut non plus de développer l’énergie nucléaire dans le futur puisqu’à long terme le solaire et le nucléaire seront certainement amenés à se compléter. Toutefois, si on laisse de côté le fait que ce projet pourrait contribuer dans l’avenir à faire baisser les prix du solaire, en termes d’efficacité/coût, ce choix ne semble pas le plus évident.  Geoffrey Styles est gérant de GSW Strategy Group, LLC, une firme de consultants sur l’énergie et les stratégies environnementales. Il a également un blog : Energy Outlook.

Géothermie : quelles opportunités ?

Le Grenelle de l’Environnement a traduit en objectifs chiffrés les contributions attendues pour les différentes énergies renouvelables à l’horizon 2020, en réponse aux objectifs affichés par l’Union Européenne début 2007 (objectif des 3 fois 20 à l’échelle européenne : – 20 % de consommation d’énergie en 2020, – 20 % de rejets de CO2, 20 % d’énergies renouvelables produites).Pour la France, l’objectif fixé le 17 novembre 2008 par le ministre de l’Ecologie, de l’Energie, du Développement durable et de l’Aménagement du territoire est d’atteindre une production de 23 % d’énergies renouvelables à l’horizon 2020 (20 millions de tonnes équivalent pétrole). Soit une contribution représentant 3 à 4 fois celle d’aujourd’hui et une augmentation de 120 % de la production d’ici 2020. Les attentes sont encore plus importantes dans les DOM, la contribution attendue des énergies renouvelables ayant été portée à 50 % pour 2020.L’effort demandé est donc considérable et nécessitera que toutes les énergies renouvelables soient mises à contribution. En effet, aujourd’hui ces dernières représentent en France 6,6 % du bilan énergétique du territoire français.

La géothermie aujourd’hui
Parmi les énergies alternatives les plus prometteuses figurent certes le photovoltaïque, la biomasse, l’éolien, mais aussi la géothermie, qui bien que moins médiatisée, représente une réelle opportunité essentiellement pour deux grands domaines d’application. Le premier est la production de chaleur. Présente dans une cinquantaine de pays, c’est la deuxième source de chaleur renouvelable dans le monde en capacité installée et en énergie produite, après la biomasse. Le second est la production d’électricité. A ce titre, c’est la troisième source de production d’électricité par énergie renouvelable dans le monde, très loin derrière l’hydraulique, et à peu près au même niveau que la production d’électricité par biomasse et par l’éolien. La capacité mondiale installée est de l’ordre de 10.000 MW répartie dans une vingtaine de pays, avec des installations d’une puissance électrique unitaire qui s’échelonne de quelques MW à quelques dizaines de MW. En France, cette activité qui nécessite une ressource à une température supérieure à 90 °C concerne plutôt les DOM (Guadeloupe, Martinique et Réunion) avec notamment un site équipé en Guadeloupe à Bouillante (puissance installée de 15 MW) qui assure environ 10 % des besoins en électricité de l’île.Des chiffres encourageants, mais qui ne sont pas suffisants. Ici aussi, les objectifs à 2020 sont clairs et ambitieux. Jean-Louis Borloo les a rappelé lors de la présentation de la feuille de route issue du Grenelle de l’Environnement pour les infrastructures énergétiques de la France le 3 juin 2009.

Les objectifs à 2020
Pour la production de chaleur, c’est-à-dire essentiellement pour la Métropole, la contribution de la géothermie est évaluée à 2,3 millions de tonnes équivalent pétrole (Tep), soit 11,7 % de la production totale de chaleur par l’ensemble des énergies renouvelables (19,7 Mtep). Un objectif ambitieux qui place cette énergie au deuxième rang des sources de chaleur renouvelable derrière la biomasse (15 Mtep) et devant le solaire thermique (0,9 Mtep), les unités d’incinération d’ordures ménagères (0,9 Mtep), et les biogaz (0,6 Mtep).Pour la production d’électricité, donc essentiellement pour l’instant les DOM, les objectifs affichés au niveau national sont plutôt marginaux, puisqu’ils s’élèvent, avec les énergies marines à 0,1 million de Tep, soit 0,8 % de l’ensemble. Par contre, ils sont concentrés sur les trois DOM îliens. La géothermie, dans ces départements, pourrait alors représenter une part importante (par exemple au moins 25 % de l’énergie électrique produite en Guadeloupe).Il faut donc faire vite et fort car il reste du chemin à parcourir.En matière de production de chaleur, il s’agit de multiplier par 6 les chiffres de 2006. Cela revient à multiplier par deux le nombre actuel d’opérations de géothermie profonde avec réseau de chaleur en région parisienne. Un objectif qui ne pourra être atteint qu’en équipant 2 millions de foyers de pompes à chaleur et en relançant à grande échelle les programmes en Ile-de-France, Alsace, Aquitaine, Midi-Pyrénées et Centre. Qu’est-ce que la géothermieLa géothermie peut se définir simplement comme l’exploitation de la chaleur de la Terre. Cette chaleur provient pour l’essentiel de l’énergie libérée lors de la désintégration d’éléments radioactifs contenus dans les formations rocheuses constituant la croûte terrestre et pour une faible part de la dissipation de la chaleur interne du globe terrestre.La présence de cette chaleur peut s’appréhender par la notion de gradient géothermal, c’est-à-dire l’augmentation de la température avec la profondeur. En France le gradient géothermal moyen équivaut à une augmentation de la température de 3,3 °C tous les 100 m.Sous le terme de géothermie se cache une diversité de techniques. Pour les techniques, l’éventail va de la chaleur puisée à grandes profondeurs jusqu’à l’utilisation des propriétés du sous-sol à faible profondeur, en passant par l’exploitation de la chaleur des zones volcaniques. De nouvelles formes de géothermie, notamment celles qui permettent de s’affranchir de la présence d’aquifères, ouvrent des perspectives vers la généralisation de la géothermie en tout lieu. C’est le cas par exemple de la géothermie des roches profondes et fracturées – un projet pilote européen est en cours à Soultz-sous-Forêts, en Alsace (voir l’article sur le projet de Soultz) – ou de la géothermie domestique pour le chauffage de maisons individuelles grâce aux techniques des pompes à chaleur sur capteurs enterrés horizontaux ou verticaux.Par la rédaction en collaboration avec Philippe Laplaige responsable de la géothermie à l’Ademe

Forces et faiblesses de la géothermie

Le sous-sol français recèle un véritable trésor énergétique. Il ne s’agit ni de gaz, ni de pétrole mais tout simplement de chaleur. Et dans ce domaine, le potentiel est considérable, car les possibilités qu’offre la géothermie sont nombreuses, et parce qu’elle peut être exploitée presque partout.

Les principaux atouts de la géothermie
Premier atout incontestable : la géothermie offre de nombreuses applications. En matière de production de chaleur, elle peut aussi bien être utilisée pour le chauffage que pour le refroidissement de tous types de bâtiments. En effet, elle s’intègre à de l’immobilier neuf mais aussi à de l’ancien, au chauffage d’une maison individuelle avec une pompe à chaleur géothermique sur capteurs enterrés, aussi bien qu’à la desserte en chaleur de grands ensembles de plusieurs centaines de logements avec un réseau de chaleur connecté à un doublet de forages profonds. Mais elle peut également être utilisée pour le chauffage et le refroidissement de bâtiments de bureaux, d’hôpitaux, de grandes surfaces commerciales, grâce à une pompe à chaleur sur aquifère superficiel, ainsi que pour le chauffage de serres horticoles ou de bassins de pisciculture.Autre avantage, pour tous ces usages, les technologies sont assez mûres pour pouvoir être déployées à des coûts compétitifs, que ce soit celle des réseaux de chaleur à partir de ressources géothermales profondes, ou celle des pompes à chaleur sur des ressources superficielles. D’autres techniques existent par ailleurs telles que les puits canadiens, les champs de sondes, le stockage thermique souterrain, les géostructures… offrant toutes de multiples possibilités pour concevoir des bâtiments à faible consommation d’énergie.Côté production d’électricité, la géothermie peut jouer à terme un rôle prépondérant dans les DOM. Mais pas seulement. La technologie des EGS (Enhanced geothermal systems) développée en Alsace (voir article de ce dossier) et qui s’inscrit dans un domaine de recherche en rupture, offre des perspectives prometteuses qui permettraient de produire de l’électricité et de la chaleur sur une grande partie du territoire français.
Forces Faiblesses
Couvre tous types d’usage (électricité, chauffage, froid, eau chaude sanitaire) Les investissements initiaux nécessaires au déploiement de cette énergie sont élevés
Grande variété de techniques disponibles Les installations sont peu visibles, donc peu médiatisées
S’adapte à tous types de bâtiment La géothermie n’est pas une filière portée par une industrie, pas de lobby
S’adapte également à des activités industrielles Peu de projets industriels à ce jour
Techniques fiables et éprouvées
Source d’énergie très proche de la rentabilité économique
N’émet pas de gaz à effet de serre ou en quantité très limitée
S’intègre bien au niveau paysager

Ses principales faiblesses
Mais la géothermie n’offre pas que des avantages. Elle présente quelques faiblesses qui conduisent à en faire une énergie renouvelable moins médiatisée que les autres.Energie capitalistique, comme toute énergie renouvelable, la géothermie coûte cher à l’investissement mais reste très économique en exploitation. Toutefois, ce n’est pas ce qui fait la différence avec les autres énergies.Au-delà, c’est une filière sur laquelle il est difficile de communiquer, car le plus souvent les installations sont peu visibles (hormis pour les centrales de production d’électricité). C’est d’ailleurs de toutes les énergies renouvelables celle qui est la moins médiatisée. Sait-on par exemple que le Collège des Bernardins à Paris, bâtisse prestigieuse du 13ème siècle situé en face à Notre Dame sur l’autre rive de la Seine et qui a été ré-ouvert il y a peu de temps au public après des travaux de rénovation, est chauffé par géothermie ? Enfin, la géothermie n’est pas une filière portée par une industrie. Il n’y a pas d’industriels de la géothermie. Il y a certes des fabricants de turbines, de pompes à chaleur, d’échangeurs de chaleur, de tubes de forages, des foreurs, des exploitants de chauffage… Chacun va intervenir sur une installation de géothermie mais sans pour autant que la géothermie soit son activité principale. D’où la difficulté à créer un lobby et à se faire entendre.Pour finir, même si la géothermie offre un potentiel considérable, force est de constater qu’il existe très peu de réalisations chez des industriels en France. Un projet est à l’étude pour alimenter en eau chaude géothermale à température de 160 °C le process industriel (utilisation de la chaleur géothermale pour déshydrater des produits amidonnés, en substitution de gaz naturel brûlé en chaudière) de l’usine de la société Roquette à Beinheim en Alsace. Quatrième amidonnier mondial et deuxième au niveau européen, Roquette devrait investir 30 millions d’euros dans ce projet qui pourrait démarrer avec le forage de deux puits profonds de 2.500 m en 2009.Quelques opérations de chauffage de bassins de pisciculture existent par ailleurs. C’est le cas de l’opération de Mios le Teich sur le Bassin d’Arcachon, où la chaleur d’une ressource géothermale est utilisée pour maintenir en température des bassins où sont élevés des esturgeons. Enfin, un projet est en cours de construction, dans la région de Parentis, de 17 hectares de serres chauffées par géothermie (production de tomates – avec à la clef la création de 120 emplois au niveau local).Enfin, la géothermie est utilisée chez les « industriels » pour chauffer leurs bâtiments. C’est le cas de plusieurs grandes surfaces ou d’entrepôts de stockage comme la plate-forme LIDL en Alsace. Mais il reste encore beaucoup à faire.Par la rédaction en collaboration avec Philippe Laplaige responsable de la géothermie à l’Ademe

Les aides pour financer un projet utilisant la géothermie

Afin d’accélérer le développement de la géothermie et lui permettre de tenir son rôle dans le nouveau bouquet énergétique, une série de dispositifs ont été mis en place en Europe mais aussi en France dans le sillage du Grenelle de l’Environnement. Voici les principales mesures sur lesquelles les industriels et les collectivités locales peuvent s’appuyer.

Le fonds chaleur
L’une des mesures emblématiques pour la géothermie est le fonds chaleur. Directement issu du Grenelle Environnement et doté d’un milliard d’euros pour les trois prochaines années, son objectif est de faciliter le financement de systèmes de production de chaleur et d’accélérer la concrétisation de projets dans l’habitat collectif, le tertiaire et l’industrie. Plusieurs grands projets seront financés en 2009 de cette manière : les réseaux de chaleur de la Courneuve, de Clichy-sous-Bois, de Saint-Cloud et de Val Maubuée, ainsi que les bâtiments d’Aéroports de Paris à Orly.Les fonds sont débloqués dans deux cas de figure :
  • pour des appels à projets nationaux pour de grosses chaufferies industrielles, où les porteurs de projets demandent une bonification par mégawatt-heure de chaleur renouvelable produit ;
  • pour des aides à l’investissement (éventuellement couplées avec une bonification par mégawatt-heure), notamment pour les collectivités et les réseaux de chaleur, pour lesquels la procédure de délégation s’accorde mal avec en plus un appel d’offre pour la chaudière.
A ce jour, un premier appel d’offres a été lancé tout début janvier 2009 par l’Ademe. Réservé au secteur de l’industrie, de l’agriculture et au tertiaire privé sur l’ensemble du territoire national (DOM-TOM inclus), celui-ci a pour objectif de financer entre 50 et 100 installations produisant plus de 1.000 tep par an pour un budget de 50 millions d’euros environ. Les installations retenues devront être mises en service au plus tard le 1er janvier 2012.

Les financements européens pour la recherche
L’Union européenne propose trois instruments pour financer la recherche et l’utilisation des énergies renouvelables dans l’industrie.
  • Le premier d’entre eux est le 7ème programme cadre communautaire de recherche et développement (FP7). 2,35 milliards d’euros sont destinés au financement de projets utilisant des énergies renouvelables, notamment pour produire de la chaleur et du froid. Les subventions peuvent être attribuées sous trois formes : le remboursement des coûts éligibles, une somme globale, ou un financement forfaitaire (basé sur les dépenses directes, mais aussi, des coûts indirects). Cette aide peut être débloquée pour des projets individuels ou collaboratifs, mais aussi pour des projets de développement du savoir faire et des compétences techniques.
  • Le programme cadre pour l’innovation et la compétitivité (CIP). Celui-ci s’adresse exclusivement aux PME et soutient les activités d’éco-innovation, dont font partie les applications géothermiques. Parallèlement, les entreprises peuvent faire appel au programme Energie Intelligente pour l’Europe (IEE) pour financer les projets et réalisations visant à utiliser les énergies renouvelables pour la production d’électricité, de chaleur et de froid.
  • Enfin, les PME peuvent faire appel aux fonds structurels qui sont gérés par les fonds de cohésion et les fonds européens de développement régionaux (FEDER). Les fonds de cohésion s’adressent à tous les Etats membres dont le PIB est inférieur à 90 % de la moyenne européenne. Dans ce cadre, le programme le plus approprié pour la géothermie en milieu industriel est Jessica.

Les aides techniques
Afin d’aider les professionnels et les maîtres d’ouvrage à mettre en œuvre leurs projets, l’Ademe, en partenariat avec le BRGM (Bureau de recherches géologiques et minières), et notamment avec son département Géothermie créé en 2006, a mis en place un centre technique piloté par le BRGM. Objectifs : développer des actions de R & D et assurer une veille technique sur le sujet.Parmi les autres outils disponibles figurent les SIG (Systèmes d’informations géographiques) sur les ressources géothermales superficielles, ainsi qu’une plate-forme d’essais, situé sur le site central du BRGM à Orléans, pour tester des capteurs géothermiques enterrés, de toute nature.

La couverture des risques
Un autre moyen d’accompagner le développement de la géothermie est de garantir les risques géologiques et miniers. Dans ce domaine, l’Ademe gère deux fonds spécifiques : le fonds Aquapac et le fonds de garantie géothermie. Le premier, créé en collaboration avec le BRGM et EDF, est une assurance qui couvre les risques géologiques liés à la possibilité d’exploiter une ressource en eau souterraine située à moins de 100 mètres (garantie de recherche), puis, le maintien de ses capacités dans le temps (garantie de pérennité). Le deuxième concerne quant à lui, les ressources aquifères profondes. Géré par SAF environnement, ce fond couvre le court et le long terme.

Un apport d’information
Enfin, partant du constant que les exemples concrets d’utilisation de la géothermie par des industriels étaient relativement isolés malgré l’opportunité qu’elle représente pour eux, il existe désormais un consortium chargé d’aider à la diffusion des systèmes géothermiques dans le monde de l’industrie. Baptisé IGEIA (Integration of Geothermal Energy into Industrial Applications), celui-ci regroupe des bureaux d’étude allemand, estonien, français, portugais et suédois, qui interviennent tous dans le domaine de la géothermie. Leur rôle : étudier la faisabilité de la géothermie pour quelques sites représentatifs et mettre à disposition des décisionnaires industriels différents outils permettant d’apprécier l’intérêt de la géothermie dans le contexte qui est le leur. En décembre 2008, cet organisme a d’ailleurs publié un rapport circonstancié sur les applications et le potentiel de la géothermie pour l’industrie en France (voir le rapport).Pour en savoir plusPour connaître plus en détail les modalités des aides qu’il est possible de percevoir, consultez La géothermie, guide des aides financières européennes et nationales, octobre 2008, publié par Saunier et Associés

Le projet Soultz ou la géothermie des roches fracturées

Le projet Soultz, situé à 50 km au nord de Strasbourg, est un projet de recherche à long terme qui vise le développement d’une nouvelle forme de géothermie (dite Géothermie profonde des roches fracturées ou géothermie HFR – Hot Fractured Rocks). Son objectif est de développer les techniques nécessaires pour extraire l’énergie contenue dans des roches fracturées profondes et chaudes, trop peu perméables pour constituer des réservoirs géothermiques classiques.

Le principe
Le principe de base est le suivant : il s’agit de profiter de la fracturation naturelle que présentent en profondeur certains sites pour créer un échangeur thermique profond et chaud, constitué d’un réseau de fractures dans lequel circulerait de l’eau injectée depuis la surface par un forage. L’eau se réchauffant au contact des roches serait ensuite captée par un ou plusieurs autres forages, puis réinjectée dans l’échangeur par le biais du premier forage après exploitation, en surface, de son contenu énergétique.Atteindre cet objectif permettrait d’accroître considérablement le potentiel d’énergie exploitable contenu dans le sous-sol, dans la mesure où les sites fracturés naturellement en profondeur sont relativement nombreux et sachant, qu’en théorie, 1 km³ de roches refroidi de 20 °C par circulation d’eau permet de libérer une quantité de chaleur équivalente à la combustion de 1.275 millions de tep. Ceci traduit bien l’importance des enjeux des recherches menées.

Le pilote de Soultz
A Soultz, la chaleur est recherchée entre 4.500 et 5.000 mètres de profondeur, là où la température des roches fracturées dépasse les 200 °C (Voir schéma ci-contre). L’eau présente est ramenée en surface grâce à une pompe de production. La température attendue du fluide naturel, une fois les 4,5 km parcourus dans le tubage, est d’environ de 180°C, le débit de 35 litres/s par puits de production.Une fois l’eau remontée, on lui enlève les calories en la diffusant à travers un échangeur de chaleur, elle est ensuite renvoyée dans son milieu d’origine par un puits d’injection. De retour à 5.000 m de profondeur, elle se fraye un chemin dans le réseau de fractures existant, pour s’y réchauffer avant d’être récupérée à nouveau par un des deux puits de production distants chacun d’environ 500 mètres du puits d’injection. On a créé ainsi une boucle de circulation.En surface, l’eau chaude récupérée réchauffe un fluide de travail qui fait tourner une turbine couplée à un alternateur électrique qui injecte l’électricité produite sur le réseau.

Historique du projet Soultz
Le projet est né d’un accord de coopération franco-allemand signé en 1987, suite à des travaux préliminaires conduits par le BRGM avec le soutien de l’Ademe pour la France et par le Geologisches Landesamt du Bade-Wurtemberg pour l’Allemagne. La Commission européenne s’est intéressée au projet et a contribué à son financement dès 1989. Le projet Soultz est soumis à chaque étape à une évaluation indépendante permettant de statuer sur la poursuite du programme. 

Les différentes étapes du projet
Ce projet est aujourd’hui le plus avancé au monde en termes de résultats acquis pour ce type de recherches. La mise en place d’un premier groupe turboalternateur de 1,5 MW est actuellement en cours. Les premiers kWh seront ensuite délivrés sur le réseau électrique.

Financement et organisation du programme
Le coût du programme s’est élevé à ce jour à environ 114 millions d’euros, dont 96 millions ont été investis également par la Communauté européenne, l’Allemagne et la France. Depuis 1995, le projet est conduit par un GEIE (le GEIE « Exploitation Minière de la Chaleur ») qui assure la maîtrise d’ouvrage. Il regroupe des industriels français et allemands producteurs et/ou distributeurs d’électricité. La présidence du GEIE est assurée par le Directeur Général d’Electricité de Strasbourg.De nombreuses équipes scientifiques françaises (BRGM, CNRS, universités) et allemandes (BGR, GGA, Mesy, GTC, Stadtwerke Bad Urach), mais aussi suisses, anglaises, japonaises, américaines participent aux travaux scientifiques. Elles sont pour la plupart regroupées ou représentées au sein de l’« European Hot Dry Rock Association » qui assure le pilotage et la coordination scientifique du projet.

Rôle de l’Ademe
L’Ademe est présente sur ce programme depuis son origine. Elle a contribué à sa naissance en 1987 dans le prolongement du programme de Géothermie Profonde Généralisée dont elle s’était vue confiée la coordination en 1984, par le Ministère de la Recherche.Elle a assuré l’essentiel du financement français et organisé les différents audits du programme aux étapes cruciales (Audit Centrale Management en 1992, Mission Curien en 1996, Audits technique et financier via un groupe d’experts indépendants en 2002).C’est aussi à l’Ademe qu’a été confiée en 1995 la mission de définir une structure de maîtrise d’ouvrage adaptée (Mission ERDYN Consultants). Cette mission a abouti en 1996 à la création du GEIE « Exploitation Minière de la Chaleur ». Enfin, l’ADEME a régulièrement contribué aux actions de communication réalisées autour du programme.

L’avenir
Les conditions hydrogéologiques un peu particulières nécessaires au développement de la technologie décrite limitent le potentiel économiquement accessible. Néanmoins, en Alsace, ces conditions semblent être réunies sur une superficie de 4.000 km², ce qui représente un potentiel d’énergie électrique à produire exploitable de façon pérenne de 2.000 à 3.000 MW, en limitant l’exploitation à 5 % environ de la surface favorable. Sur le reste du territoire français, des conditions assez similaires se retrouvent dans le couloir rhodanien et dans la plaine de la Limagne, avec des potentiels équivalents. Le potentiel global français pour une production pérenne à terme serait ainsi de 6.000 à 9.000 MW.Le calendrier prévisionnel pour l’émergence d’une véritable filière industrielle fondée sur cette technologie est aujourd’hui envisagé comme suit :
  1. La phase d’évaluation de la faisabilité économique (jusqu’à 2010). C’est le projet actuellement en cours à Soultz-sous-Forêts. Son objectif est de fournir les éléments qui permettront de déterminer les paramètres économiques de production, les stratégies de développement et de valorisation, les enjeux réels relatifs à l’exploitation de ces ressources géothermiques très profondes. Pour réduire les incertitudes et les risques, un programme d’essais de circulation longue durée doit être engagé à Soultz dans les prochains mois pour une durée de l’ordre de 2 ans.
  2. La phase de test industriel (prototype industriel) – horizon 2010-2020. En cas de validation des hypothèses technico-économiques étudiées dans la phase précédente, l’objectif sera de construire un premier module prototype de dimension et de structure véritablement industrielles, et de le tester pour en améliorer ensuite les performances et organiser la fabrication de série de modules standards. La puissance serait dans un rapport de quatre à cinq avec celle du pilote (25 MW).
  3. La phase de réalisation industrielle et de diffusion – après 2020. Elle consistera sur chaque site en des combinaisons de modules avec des valorisations adaptées aux débouchés. La standardisation des modules et le type de gestion industrielle permettent d’escompter des baisses de coût substantielles comme la démonstration en a déjà été faite en Toscane (Italie), en Islande, ou en Indonésie à la faveur d’exploitations géothermiques plus classiques.
 Le projet en chiffres– 21 années de recherches menées dans un cadre européen– 15 laboratoires de recherche impliqués et plusieurs centaines d’entreprises sous-traitantes– 430 publications scientifiques de rang A, 34 thèses de doctorat– Trois forages à 5.000 m (20.000 mètres forés, 60.000 m³ d’eau injectés en six grandes phases de stimulation des fractures)– 114 millions d’euros investisLe site de Soultz : Soultz.net Par Philippe Laplaige, responsable de la géothermie à l’Ademe

Quelle place pour les carburants alternatifs dans l’aéronautique ?

Aujourd’hui, la grande majorité des avions civils et militaires utilisent le kérosène (« jet fuel » pour les spécialistes). Seuls les avions légers équipés de moteurs à pistons font appel à l’essence d’aviation. Le kérosène correspond à la coupe de distillation du pétrole située entre les coupes essence et les coupes gazole et il représente globalement entre 5 et 6 % du pétrole distillé. En 2007, la consommation mondiale de kérosène aviation s’est élevée à 1,9 milliard de barils (soit 216 Mt), la plus grande part de cette celle-ci relevant du transport aérien.Pourtant, la recherche de carburants alternatifs susceptibles de remplacer le kérosène est relativement ancienne. Mais parce que pendant longtemps le pétrole a été une ressource abondante et peu coûteuse, donc difficile à concurrencer, les recherches n’ont pas abouti. Depuis quelques années toutefois, la situation a changé et de nouvelles priorités se sont fait jour. En particulier dans le transport aérien. Le secteur a pris conscience qu’il ne pourra continuer à croître (5 % par an jusqu’à début 2007) qu’en relevant plusieurs défis :

  • Energétique tout d’abord (en relation avec la déplétion des ressources fossiles) ;
  • Environnemental (impact de l’aviation sur le changement climatique et sur la qualité de l’air sur et autour des aéroports) ;
  • Economique (la part relative du carburant dans le coût opérationnel d’un avion de transport long-courrier dépassait un tiers lorsque le baril de kérosène a atteint 170 dollars mi-2008) ;
  • Et géopolitique (sûreté d’approvisionnement).
Le défi environnemental est devenu prioritaire et a conduit l’Europe à définir un objectif ambitieux de réduction de la consommation, exprimée en litres de carburant par passager et pour 100 km en 2020 : ce qui correspond à une réduction de 50 % par rapport à l’état de l’art en 2000 (ACARE). Les carburants alternatifs participent, au même titre que les progrès technologiques en matière d’aérodynamisme, de propulsion, de matériaux et de structures ainsi que de gestion du trafic aérien, à la diminution de l’impact environnemental comme l’illustre la figure ci-dessous.

Rôle des carburants alternatifs dans le contrôle des émissions de CO2 du transport aérien (source IATA)
Compte tenu que l’hydrogène ne présente pas aujourd’hui, du fait qu’il est produit à partir du gaz naturel, d’avantage dans le cadre d’une Analyse du Cycle de Vie (ACV), les recherches ont été orientées vers un carburant « drop-in », c’est-à-dire susceptible de remplacer, partiellement à court terme et en totalité à long terme, le kérosène conventionnel avec le minimum de modifications des avions, des moteurs et des aéroports, existants ou en développement. Dans cette perspective, tout carburant alternatif devra respecter des spécifications internationales proches de celles requises pour le kérosène conventionnel.Dans ce cadre, les travaux menés ont montré qu’il existait deux voies principales de production de carburants « drop-in » :
  • La voie XTL (Anything-To-Liquid) reposant sur la transformation thermochimique d’une ressource hydrocarbonée et conduisant à un SPK (Synthetic Paraffinic Kerosene). Les CTL (Coal-To-Liquid) et GTL (Gas-To-Liquid) obéissent à un souci d’indépendance énergétique. Seuls les BTL (Biomass-To-Liquid) laissent espérer un gain environnemental, sans qu’il soit possible d’avancer des chiffres fiables, du fait qu’il n’existe pas encore d’accord international pour la mise en œuvre de la méthodologie ACV.
  • La voie HVO (Hydrogenated Vegetable Oil) consistant à produire un carburant à partir d’huiles fournies par l’agriculture ou l’aquaculture (micro-algues), voire d’huiles produites par transformation microbienne, et à les hydrotraiter. Ce sont des HVO qui ont été utilisées pour les démonstrations en vol réussies, réalisées en 2008.
Ce faisant, il subsiste toutefois un certain nombre de questions, et non des moindres, à instruire. Un accord international est à rechercher pour la méthodologie ACV. Par ailleurs, il faudra aussi encourager les investissements qui permettront de passer d’une production à l’échelle de pilotes à une production industrielle pouvant satisfaire la demande.Par Paul Kuentzmann, Haut conseiller à l’Onera© crédit photo vignette : air-safety-security.com

Quand l’hologramme devient tactile

Jusqu’à présent, les hologrammes ne sollicitaient que notre vue : d’abord en deux dimensions, puis désormais en trois, poussant ainsi le réalisme encore un peu plus loin. Mais l’illusion disparaît dès lors que l’on essaye de les toucher. La main ne rencontre aucune résistance, les doigts ne sentent aucun contact. Un écueil qui pourrait être bientôt levé, grâce aux travaux d’une équipe de chercheurs japonais de l’université de Tokyo.  Takayuki Hoshi, Masafumi Takahashi, Kei Nakatsuma et Hiroyuki Shinoda ont en effet mis au point un dispositif, baptisé « Touchable Holography » permettant de ressentir une sensation tactile au contact des hologrammes. Comment ont-ils réalisé cette prouesse ? En combinant trois technologies différentes. Tout d’abord, un générateur d’hologrammes, baptisé « Holo ». Celui-ci produit des images flottant dans l’air grâce à un vidéo projecteur LCD et des miroirs concaves. L’image ainsi créée flotte à environ 30 centimètres du projecteur, permettant ainsi à une personne d’approcher sa main et de la toucher. A cela, s’ajoute un générateur d’ultrasons, réalisé lui aussi par le laboratoire japonais. Baptisé « Airborne Ultrasound Tactile Display« , celui-ci utilise une propriété non linéaire des ultrasons : la pression de radiation sonore ou acoustique. Lorsqu’un objet, comme une main, interrompt la propagation de l’ultrason, une pression s’exerce à la surface de celle-ci, créant un sensation tactile comme pourrait le faire un jet d’air pulsé (pour plus d’explication lire le document de l’université de Tokyo). Actuellement, le prototype utilisé par l’université de Tokyo est constitué de 324 capteurs à ultrason, et fonctionne avec une fréquence de résonnance de 40 kHz. 

Voir la vidéo Voir la vidéo
 Enfin, le dispositif est complété par des télécommandes ou manettes de Nintendo Wii (Wiimote), équipées d’une caméra sensible à l’infrarouge. Installées au dessus de l’endroit où s’affichent les hologrammes, ce sont elles qui vont permettre de suivre la position des mains de l’utilisateur grâce à un petit marqueur rétro-réfléchissant attaché au bout de son majeur. Les DEL infrarouges vont illuminer ce marqueur et permettre ainsi, par un procédé de triangulation, aux deux Wiimotes de calculer rapidement et précisément la position des mains. L’utilisateur pourra ainsi avoir l’impression de manipuler les hologrammes, comme le petit éléphant que l’on voit dans la vidéo. Des tests sont encore en cours pour améliorer cette technologie qui peut trouver de nombreuses applications. On pense bien sûr aux jeux vidéo, aux modèles en 3D, mais aussi à des interrupteurs virtuels qui pourraient être très utile dans des milieux critiques, comme dans des services hospitaliers où il faut éviter toute contamination. Cette technologie a été présentée début août au salon Siggraph 2009. Elle fait suite à une première innovation, présentée sur le même salon un an plus tôt par la même équipe de chercheurs : « L’Airborne Ultrasound Tactile Display« . A.L B