5 expériences incroyables qui ont vraiment eu lieu

Les hommes-singes d’Ilya Ivanov

Né en 1870, Ilya Ivanov était un éminent biologiste russe spécialisé dans l’insémination artificielle et l’hybridation animale.

Il fut l’un des premiers scientifiques à obtenir un zébrâne (hybride de zèbre et d’ânesse) artificiellement, et entre autres manipulations, il parvint à croiser une vache et une antilope.

En 1910, au congrès mondial de zoologie de Graz, Ivanov évoqua la possibilité de passer à l’étape supérieure : la création d’un hybride homme-singe.

Il finit par s’atteler au projet en 1926, lorsque l’institut Pasteur lui permit de mener ses expériences en Guinée française. Soutenu par le gouvernement soviétique, qui souhaitait promouvoir le Darwinisme au détriment de la religion, Ivanov insémina 3 femelles chimpanzé avec du sperme humain.

A sa grande déception, toutes les tentatives furent infructueuses.

Il décida alors de pratiquer l’opération inverse, en fécondant des femmes avec de la semence de singe, mais les autorités coloniales s’y opposèrent. De retour en Union Soviétique, Ivanov n’abandonna pas ses ambitions. En 1929, avec le support de l’Association des Biologistes Matérialistes, il put reprendre ses projets d’hybridation, et il rechercha des femmes prêtes à se faire inséminer.

Aussi étonnant que cela puisse paraitre, il reçut plusieurs lettres de volontaires, mais l’expérience ne put jamais être menée à bien : le seul singe mature qui était à la disposition d’Ivanov mourut d’une hémorragie cérébrale avant le début des essais.

En 1930, suite à des remous politiques qui affectèrent les institutions scientifiques russes, Ilia Ivanov fut arrêté puis exilé à Alma Ata, où il travailla pour l’institut kazakh de zoologie. Il y mourut deux ans plus tard, sans jamais avoir accompli son idée fixe.

 

Les implants cérébraux du Dr Delgado

José Delgado est un neuro-physiologiste dont la majeure partie de la carrière fut consacrée à un seul but : contrôler le cerveau.

Diplômé de l’université de Madrid, et infirmier militaire durant la guerre d’Espagne, il rejoint le département de physiologie de Yale en 1950 où il devient l’un des pionniers de la stimulation électrique cérébrale (ESB).

L’ESB consiste à implanter des électrodes à l’intérieur du crane pour stimuler différentes régions du cerveau. Cette opération est capable de provoquer des effets impressionnants, comme des mouvements involontaires, des émotions violentes, ou même des hallucinations.

La grande innovation de Delgado fut un système de contrôle à distance qu’il baptisa « Stimoceiver ». Avec ce dispositif, il pouvait littéralement télécommander les réactions de ses sujets, dont les mouvements n’étaient plus contraints par des câbles qui leur sortaient de la tête.

Grâce au Stimoceiver, Delgado fut notamment capable de manipuler un singe comme une marionnette : en appuyant sur des boutons, il parvint à lui faire bouger la tête, les yeux, le corps, ainsi qu’à le faire grogner ou encore à contrôler son sommeil.

Sur des sujets humains, le Docteur déclencha des émotions intenses allant de l’euphorie à la rage en passant par l’amour, comme chez une patiente qui lui déclara sa flamme durant l’expérience. Un autre sujet s’avoua incapable de garder sa main ouverte lorsque la stimulation avait lieu.

Mais l’expérience qui rendit Delgado célèbre se déroula en Espagne, en 1963, dans une arène de Cordoue.

Pour démontrer l’efficacité de ses méthodes, il fit face à un taureau de combat qu’il avait préalablement « implanté ». La bête chargea, et lorsqu’elle arriva à quelques pas de Delgado, celui-ci appuya sur le bouton de son transmetteur, coupant net l’élan de l’animal.

La stimulation électrique du cerveau fut l’objet de vives controverses durant les années 70 et 80, certains l’accusant d’être un outil de contrôle promis aux pires dérives totalitaires. Les subventions s’affaiblirent en conséquence, et Le Dr Delgado s’attela à des travaux moins sulfureux. Son héritage n’en reste pas moins vivant, comme en atteste ce pigeon télécommandé mis au point par des chercheurs chinois en 2007…

Duncan MacDougall et le poids de l’âme

Au début du 20ème siècle, un médecin américain du nom de Duncan McDougall voulut prouver scientifiquement l’existence de l’âme.

Il partit du principe que si l’âme existait réellement, elle devait avoir une base matérielle, et par conséquent, un poids.

Pour s’en assurer, McDougall ne voyait qu’une solution : peser un homme sur le point de mourir, avant et après son trépas. Il démarra sa macabre entreprise en 1900, après qu’un centre pour tuberculeux l’ait autorisé à mener son expérience sur des patients mourants. Le lit du premier sujet fut placé sur une grande balance, et lorsque le moribond poussa son dernier soupir, MacDougall nota une perte de 21 grammes (trois quarts d’once) avant et après la mort.

Comme il ne trouvait pas d’explications biologiques à cette différence, le docteur en déduisit que ces 21 grammes correspondaient nécessairement au poids de l’âme.

MacDougall réitéra l’expérience à 5 reprises et il obtint des résultats similaires, le confortant dans l’idée qu’il avait prouvé sa théorie. Par la suite, il reproduisit l’opération sur 15 chiens, mais sans observer de perte : selon lui, cela démontrait que seul l’homme était doté d’une âme.

Lorsque les recherches du docteur furent publiées, en 1907, les médias s’en emparèrent avec frénésie, mais la communauté scientifique prit ses travaux avec d’avantage de pincettes. Les résultats de MacDougall n’étaient pas très précis, variant d’un sujet à l’autre, et son échantillon de patients était trop faible pour être vraiment significatif. Sans compter qu’il expédiait un peu rapidement les autres causes possibles de variation de poids.

Enfin, il tombait typiquement dans le biais dit de « confirmation », qui consiste à privilégier les informations qui vont dans le sens de nos hypothèses, en s’arrangeant avec les éléments contradictoires : dans l’un des cas, la perte de poids se produisit 1 minute après la mort, mais MacDougall en conclut que cela devait venir de la personnalité flegmatique du sujet, dont l’âme n’était pas pressée de partir.

Le mythe du poids de l’âme se propagea néanmoins à travers le siècle, jusqu’à être récupéré par la culture populaire, comme avec le film « 21 grammes » d’Alejandro Iñárritu. Quant à MacDougall, il mourut en 1920, sans que personne ne vienne le peser…

Des éléphants sous acide

En 1962, deux chercheurs de l’Université d’Oklahoma, Louis West et Chester Pierce, décidèrent de répondre à une question fondamentale : que se passerait-t-il si on donnait du LSD à un éléphant ?

Avec la complicité de Warren Thomas, le directeur du zoo d’Oklahoma city, ils injectèrent 297 milligrammes de LSD à un éléphant male de 14 ans nommé Tusko. Cette dose peut sembler dérisoire pour un animal aussi volumineux, mais elle correspond à 3000 fois la dose nécessaire pour déclencher de violents effets psychotropes chez l’humain, et elle reste à ce jour la plus importante jamais assimilée par un être vivant.

Les expérimentateurs voulaient savoir s’ils pouvaient provoquer artificiellement un « musth », un état de furie induit chez l’éléphant par une sécrétion des glandes temporales, et comme ils se doutaient que l’opportunité ne se présenterait pas deux fois, ils tenaient à s’assurer que la dose serait suffisante. Et malheureusement, elle ne le fut que trop : sitôt la drogue injectée, Tusko commença à barrir violemment en courant autour de son parc, avant de s’effondrer au sol, les yeux révulsés. Horrifiés, les chercheurs essayèrent de le ranimer en lui administrant des antipsychotiques, mais une heure et demie plus tard, Tusko était mort.

Dans l’article qu’ils publièrent quelques mois plus tard, West, Pierce et Thomas conclurent penaudement que « les éléphants semblaient hautement sensibles aux effets du LSD ».

Durant les années qui suivirent, une controverse éclata à propos de ce qui avait vraiment tué Tusko. S’agissait-il du LSD lui-même ? Ou des drogues utilisées pour le ranimer ? Ou bien encore du mode d’administration ?

Un professeur de psychopharmacologie nommé Ronald Siegel décida de trancher ce point en 1982 : à son tour, il donna du LSD à deux éléphants, mais pour ne pas reproduire l’erreur de ses prédécesseurs, il se contenta de verser la drogue dans l’eau des animaux.

Cette fois-ci, non seulement les éléphants ne succombèrent à aucune crise, mais en plus ils semblèrent assez détendus, se balançant légèrement sur place, et laissant échapper quelques vocalises étranges avant de revenir à la normale, 24h plus tard. L’experience de Siegel démontra que dans d’autres circonstances, Tusko aurait pu vivre le plus extravagant des trips éléphantesques depuis celui de Dumbo.

Les trois Christs d’Ypsilanti

Le 1er juillet 1959, trois hommes furent réunis dans la clinique psychiatrique d’Ypsilanti, dans le Michigan. Ils avaient pour nom Clyde Benson, Joseph Cassel et Leon Gabor, mais chacun d’eux était convaincu d’être Jesus-Christ.

Pendant deux ans, ils durent se côtoyer dans le cadre de l’une des expériences les plus étranges de l’histoire de la psychologie.

A l’origine de cette rencontre, il y avait la curiosité de Milton Rokeach, un psychologue passionné par la question de l’identité : Rokeach voulait explorer les relations qu’il y a entre nos convictions les plus profondes, et la perception que nous avons de notre identité.

Dans quelle mesure notre identité peut-elle être remise en question? Et quelles en sont les limites? Pour essayer de répondre à ces questions, Rokeach eut donc l’idée de rassembler trois patients psychotiques persuadés d’être la même personne, et d’étudier leurs réactions. Si leur croyance erronée pouvait être ébranlée par cette confrontation, alors peut être que leur condition s’améliorerait.

Le moins que l’on puisse dire, c’est que leurs premières entrevues n’allèrent pas dans ce sens : chacun des patients avait une bonne explication pour l’imposture des deux autres. Pour Benson, ils n’étaient pas vraiment vivants, et c’était les machines à l’intérieur d’eux qui parlaient à leur place.

Pour Cassel, les deux autres ne pouvaient pas être Jesus pour la simple raison qu’ils étaient patients d’un hopital psychiatrique. Gabor, enfin, pensait que ses deux camarades se faisaient passer pour le Christ uniquement pour le prestige.

Le psychologue les encourageait à débattre régulièrement, mais les trois patients s’accrochaient à leur convictions, et, dans un style assez peu christique, ils finirent même par en venir aux mains. Un jour, Rokeach leur montra un article consacré à l’expérience dans un journal local, en leur demandant ce qu’ils en pensaient. Aucun des trois ne reconnaissait les patients dont il était question (leurs noms n’était pas précisés dans l’article), et pour Benson, il était clair que la place de ces malades était dans un asile.

En avril 1960, Gabor annonça qu’il attendait une lettre de sa femme. Comme il n’avait jamais été marié, Rokeach vit là une opportunité d’aller plus loin dans l’expérience, et il commença à se faire passer pour l’épouse imaginaire de son patient en lui envoyant des lettres. Gabor obéissait aux petites demandes et conseils que sa « femme » lui écrivait, sauf quand elle lui suggérait de remettre en question son identité divine.

Ce fut ensuite Cassel qui commença à recevoir de fausses lettres du Directeur de l’hôpital, lui demandant de changer son comportement pour accélérer sa guérison, mais sans plus de succès. Deux ans après leur rencontre, les trois Christs d’Ypsilanti n’avaient quasiment pas modifié leurs croyances.

Milton Rokeach décida alors d’arrêter l’expérience, en concluant que ces hommes avaient préféré trouver des moyens de vivre en paix plutôt que de régler le problème de leur identité. Il confiera ses remords 20 ans plus tard, déclarant qu’il n’avait « aucun droit, même au nom de la science, de jouer à Dieu avec ses patients ». Une formule pour le moins appropriée.

Par Patrick Baud

Source : Blog www.axolot.info

Se former à distance à l’écoconception

Le Centre régional d’innovation et de transfert de technologies (CRITT), rattaché à la CCI, souhaite favoriser une réduction de l’empreinte environnementale du tissu industriel réunionnais. Pour ce faire, il doit sensibiliser les industriels aux intérêts économiques que représente pour eux l’écoconception, « conception ou design d’un objet selon les besoin du marché, mais avec des critères environnementaux pour le choix des éléments qui le composent », selon les mots de Gérald Lefebvre, expert de Techniques de l’Ingénieur en charge de la formation Les outils de l’écoconception.

C’est cette formation qu’a voulu suivre David Lary, ingénieur conseil au sein du CRITT de la Réunion, afin de pouvoir en transférer par la suite les enseignements aux industries réunionnaises, et favoriser ainsi les procédés respectueux de l’environnement. La session à laquelle il était inscrit ayant été annulée, Techniques de l’Ingénieur a donc proposé à Monsieur Lary de suivre cette même formation à distance, et de façon personnalisée. Un cours particulier sur l’écoconception, en quelques sortes.

« Notre mission consiste notamment à accompagner les entreprises sur l’innovation, et en partie vers le développement durable. L’une des préoccupations majeures des industries réunionnaises, c’est le traitement des déchets. Partant de là, on a commencé à travailler en amont, sur la conception des produits, et donc à s’intéresser à l’écoconception », explique David Lary. N’étant pas lui-même un expert dans le domaine, il doit s’y former en premier lieu. « Cette formation était celle qui correspondait le mieux à nos attentes. Et puis la signature Techniques de l’Ingénieur, c’était pour moi un gage de qualité, de rigueur, de technicité », poursuit-il.

Les séances de formation par téléphone commencent début janvier entre Gérald Lefebvre, le formateur, et David Lary, le stagiaire. « La Réunion, c’est un cadre exceptionnel d’un point de vue environnemental. Comment intégrer cela dans la conception des produits, via le solaire, le vent, les algues, le sel ? Comment se baser sur ces ressources et flux locaux ? Telle a été l’objet de ces séances », présente le premier. « Pendant les premières séances, il a présenté sa vision de l’écoconception, d’un point de vue politique et social, les impacts de la réglementation sur l’homme, l’environnement, c’était très intéressant. Puis nous sommes passés à des exercices d’application, aux outils d’analyse de cycle de vie (ACV) des produits », ajoute David Lary.

A la fin de la formation, David Lary avait acquis avec pour armes les éléments nécessaire à la réalisation d’un ACV, une base de données sur la dangerosité des produits, une liste exhaustive de la réglementation en vigueur. « Des outils concrets permettant de démontrer aux entreprises locales la valeur ajoutée de telle ou telle solution propre et locale » explique Gérald Lefebvre.

« Maintenant, il me reste à aller voir les entreprises et à les sensibiliser aux intérêts économiques de l’écoconception, de l’utilisation de ressources énergétiques locales et durables, ainsi qu’aux bénéfices en termes d’image, à mettre en place la méthode pour l’ACV. J’ai réadapté la méthode à mes besoins, à moi de la mettre en place auprès des entreprises sélectionnés. Au début, ça sera un peu à tâtons ! » conclut David Lary.

Bruno Decottignies

Revue du web #42

Cette semaine dans la revue du Web :

  • Les larmes de verre, ou larmes bataviques, équilibre étonnant entre solidité et fragilité poussée à l’extrême ;
  • Un serpent robotique qui s’enroule, qui s’accroche, et qui fait le tire-bouchon, mis au point par les chercheurs de l’université de Carnegie Mellon ;
  • Dustin Kleckner et William T. M. Irvine sont parvenus à créer des nœuds tourbillonnaires en laboratoire ;
  • Le gadget (inutile ?) de la semaine : un hybride de voiturette de golf et d’aéroglisseur ;
  • Enfin, en bonus : tester le pouvoir de résolution des avions et des satellites.

Bonjour tristesse : les larmes bataviques

Ce secret, ce « tour de magie » scientifique est connu depuis près de 400 ans maintenant mais n’a rien perdu de sa beauté ni de son pouvoir de fascination : débutons cette quarante-deuxième Revue du Web avec un grand classique et une curiosité à la fois scientifique et historique, les larmes bataviques. Les larmes de verre – ou larmes bataviques – auraient vu le jour, contrairement à la croyance populaire, dans le Mecklembourg, une région de l’Allemagne septentrionale, et non dans la Hollande qui lui a pourtant légué son nom.

Les larmes bataviques, aussi baptisées Prince Rupert’s Drops – en hommage au prince Rupert qui, le premier, les présenta devant le roi d’Angleterre Charles II en 1660 – sont composées de deux parties bien distinctes : la tête de la larme, de forme ovoïde, ainsi qu’une pointe fine et très déliée, la « queue » de la larme de verre. Leur réalisation est très simple puisqu’il suffit de faire tomber des gouttes de verre fondu dans de l’eau froide, gouttes de verre qui se solidifient brusquement et se figent dans cette forme particulière.

Ce qui nous intéresse ici, c’est qu’elles ont le bon goût de pouvoir résister vaillamment à l’assaut d’un marteau sur leur partie « charnue », bien qu’elles ne puissent souffrir le moindre petit choc sur leur queue. Cette caractéristique spectaculaire est due au changement brutal de température que subissent les gouttes de verre fondu en tombant dans l’eau froide.

Alors que la partie extérieure de la goutte se refroidit subitement au contact de l’eau, la partie intérieure est, elle, encore en fusion. En se refroidissant, le verre de la partie charnue se contracte et accumule une tension formidable, lui permettant de résister aux pressions extérieures. Pourtant, il suffit de rompre l’équilibre de l’ensemble au niveau de la queue pour que toutes les tensions se libèrent d’un seul coup, pulvérisant alors notre larme batavique.

Un « serpent » robotique pour le moins affectueux

Les chercheurs de l’université de Carnegie Mellon, en Pennsylvanie, ont développé dans leur laboratoire un serpent robotique capable de s’enrouler autour d’objets divers et variés. Le laboratoire de bio-robotique de l’université américaine a publié il y a peu une vidéo du serpent modulaire sur son compte youtube, montrant la capacité de son poulain à s’accrocher dans un premier temps, puis à se verrouiller consciencieusement autour de sa cible, comme pour sécuriser sa prise, rappelant un boa constrictor en train de serrer une proie.

Le laboratoire de bio-robotique est loin d’être novice en matière de développement de serpents modulaires, travaillant sur des prototypes de robots depuis maintenant plusieurs années afin de reproduire au mieux les mouvements naturels de ces reptiles.

L’idée de départ était de créer un robot capable de se faufiler dans des espaces étroits, pour effectuer des missions de reconnaissance tout aussi bien que des missions de sauvetage. Les chercheurs ont également pourvu leur serpent robotique de mouvements qui ne sont pas propres aux serpents, comme le « tire-bouchon », permettant au reptile de grimper à l’intérieur d’un tuyau ou d’une canalisation en effectuant un mouvement hélicoïdal rappelant celui de l’outil du sommelier.

Il serait par contre impossible de s’en servir afin d’étrangler un petit animal ou un être humain, les concepteurs garantissant que leur serpent déploie juste assez de force pour s’accrocher et se maintenir perché.

Créer des nœuds tourbillonnaires en laboratoire

Dustin Kleckner et William T. M. Irvine, physiciens officiant à l’université de Chicago, sont parvenus à créer un nœud tourbillonnaire dans leur laboratoire, une première mondiale qu’ils ont décrit le mois dernier dans un article paru dans la revue scientifique Nature Physics.

Les tourbillons se forment naturellement dans les liquides, les gaz ou les plasmas, mais les nœuds tourbillonnaires – dont l’existence avait été suggérée il y a de cela près d’un siècle – n’existaient jusqu’ici qu’en théorie, et aucun n’avaient encore pu être observés. On suppose que ces nœuds tourbillonnaires existent au cœur des étoiles à neutrons ainsi que dans le plasma solaire.

Après avoir essuyé une longue série d’échecs inspirés par les anneaux de bulles d’air créés par les dauphins (qui sont des anneaux dits de vorticité), les deux physiciens américains se sont orientés vers une structure créée à l’aide d’une imprimante 3D qui, une fois accélérée de manière brusque et sèche dans l’eau, donnent naissance au Saint-Graal du nœud tourbillonnaire.

Les chercheurs ont enregistré le résultat grâce à une caméra filmant à très grande vitesse, afin d’étudier plus avant l’évolution et le comportement de ces nœuds en laboratoire. Le nœud tourbillonnaire est visible dans la vidéo qui suit, avec en bonus une seconde vidéo de dauphins jouant avec leurs fameux anneaux de bulles d’air.

Le gadget (inutile ?) de la semaine : un hybride de voiturette de golf et d’aéroglisseur

Pour conclure en beauté cette quarante-deuxième Revue du Web, jetons un œil à la folie mégalomaniaque qui devrait accompagner désormais le golfeur professionnel américain Bubba Watson, sans conteste notre gadget (inutile ?) de la semaine : la voiturette de golf la plus tendance du moment, hybride hype de la molle « golfette » et d’un aéroglisseur.

Dans l’imaginaire collectif, la voiturette de golf n’est pas exactement l’incarnation absolue de la puissance virile, ni une porte ouverte vers de nouvelles aventures exotiques mâtinées d’épices chamarées – et on aurait probablement tort de ne pas suivre le mouvement. Pourtant, c’est bien une version modifiée – tunée ? – d’un aéroglisseur que le golfeur américain Bubba Watson chevauche gaillardement, offrant ses muscles au vent comme s’il venait de s’injecter une triple dose de testostérone. Oui, pas exactement.

Bien que l’information ait été révélée bien près du premier avril, il ne semble pas que l’on ait affaire à l’un de nos fumeux poissons. C’est le fabricant d’articles de sport Oakley qui est à l’origine de ce coup de pub, mais l’aéroglisseur n’est pas sorti des usines de l’équipementier américain : c’est une petite société basée à Terre Haute, dans l’Indiana, qui a fourni le bolide en modifiant légèrement sa copie. Neoteric n’est pas un nouveau-venu sur le marché des aéroglisseurs : la société américaine, fondée en 1960, possède une clientèle sérieuse répartie sur les cinq continents dans plus d’une cinquantaine de pays.

Si, épris d’une soudaine envie de grands espaces – et de golf – vous vous sentez pousser des ailes d’argent, il faudra alors vous délester de plus de 32 000 dollars pour acquérir l’un de ces petits bijoux. Le prix de la liberté.

Bonus : tester le pouvoir de résolution des avions et des satellites

En bonus de cette revue du web, voici quelques photos d’étranges motifs répétitifs que l’on peut trouver un peu partout aux États-Unis, tout particulièrement dans les déserts et près des aéroports, mais qui pourtant ont un usage bien précis. Pas de signes cabalistiques, de théorie du complot ou autres explications farfelues : ces dessins représentent la mire de résolution 1951 USAF, établie par l’US Air Force en 1951 et respectant les standards militaires de l’époque, le MIL-STD-150A, (qui n’est plus en vigueur depuis octobre 2006).

Le motif de la mire est constitué de plusieurs séries de trois barres parallèles, barres dont la taille décroit petit à petit. Il suffisait alors aux satellites ou aux avions américains de tarer leurs instruments optiques sur l’une de ces nombreuses mires, et le tour était joué. La limite du pouvoir de résolution est déterminée par la plus grosse des barres que l‘instrument optique ne peut discerner convenablement.

Par Moonzur Rahman

Produire du courant à partir d’eau de mer

Un peu d’eau, une pincée de sel et quelques nanotubes. Voilà une liste simple d’ingrédients. Pourtant, ces trois éléments sont suffisants pour produire de l’électricité !

Parus dans Nature le 28 février, les résultats  obtenus par les scientifiques de l’Université de Lyon et de l’Institut Néel de Grenoble ouvrent la voie à une méthode alternative de source d’énergie. Des résultats qui font déjà l’objet d’un brevet. Mais comment ça marche ?

Le système repose sur des nanotubes introduits dans une membrane imperméable.

Plus précisément, le nanotube est inséré à l’intérieur d’un trou de quelques dizaines de nanomètres fait dans la membrane en nitrure de silicium. Puis, l’espace entre la paroi des nanotubes et la membrane est comblé par un scellement en carbone.

Une fois plongé dans de l’eau salée, ce dispositif permet de récupérer un courant électrique : les charges positives liées au potassium sont séparées des charges négatives liées au chlore, chaque groupe de charges étant positionné de part et d’autre de la paroi.

La faible épaisseur de l’ensemble, inférieure au micromètre, impose un gradient de concentration très important. D’où un déplacement de charges plus efficace qu’à  l’échelle macroscopique. Tellement plus efficace que les chercheurs restent tout d’abord perplexes devant leurs mesures, avant réaliser l’importance de leur découverte.

Mais un tel dispositif est très délicat à réaliser. D’ailleurs, les chercheurs avaient comme objectif premier d’utiliser des nanotubes de carbone. Mais devant les échecs successifs, ils décident de se servir de tubes en nitrure de bore. Cette fois le résultat est probant et le procédé fonctionne.

Pour Lyderic Bocquet, professeur au CNRS et à l’Institut Matière de Lyon, ce dispositif est extrêmement prometteur. « Si nous extrapolons ce résultat à une membrane percée de milliards de tels tubes par centimètre carré, nous obtenons des puissances électriques 100 à 1 000 fois plus grandes qu’avec les dispositifs actuels d’énergie osmotique » s’enthousiasme-t-il.

L’étape suivante consiste à fabriquer un système percé de plusieurs canaux et non plus d’un seul, dans l’espoir de créer des déplacements de charge d’autant plus importants, et pourquoi pas à terme produire de l’énergie à partir d’eau de mer et de marais salant.

Par Audrey Loubens, journaliste scientifique

 

Découvrez les formations Techniques de l’Ingénieur :

De l’obsolescence des supercalculateurs

Un jour en haut de l’affiche, le lendemain déjà déclassé… Roadrunner, premier supercalculateur américain ayant dépassé la puissance de 1 pétaFLOPS (« Floating point Operations Per Second », opérations à virgule flottante par seconde), fierté en son temps du laboratoire national de Los Alamos – l’une des plus grandes institutions multidisciplinaires du monde, située au Nouveau-Mexique – a été mis à la retraite après seulement cinq ans de bons et loyaux services.

Cinq ans est bien un âge « canonique » pour les ordinateurs de ce niveau, allant presque encore corroborer les prédictions du cofondateur d’Intel, Gordon Earle Moore, connues sous le nom de lois de Moore, qui avait prédit en 1975 que le nombre de transistors des microprocesseurs sur une puce de silicium doublerait tous les deux ans.

Construit par le géant américain IBM, Roadrunner fut l’ordinateur le plus puissant au monde, de sa mise en route en juin 2008 jusqu’en novembre 2009, où il fut détrôné par le Jaguar de Cray Inc., et ses 1,75 petaFLOPS. Pour mieux mesurer l’obsolescence des supercalculateurs, il suffit de jeter un œil à Titan, nouveau champion de la catégorie depuis novembre 2012 et également construit par Clay Inc. pour le laboratoire national d’Oak Ridge, dans le Tennessee : Titan affiche sous le capot une vitesse de calcul de 17,59 pétaFLOPS, avec une vitesse de pointe atteignant les 27 pétaFLOPS.

Bien que le gros du travail de Roadrunner soit désormais terminé, les chercheurs de Los Alamos se sont donnés un mois pour effectuer des tests sur leur bécane et mieux comprendre le fonctionnement de la mémoire d’un supercalculateur, chose qu’ils n’ont jamais pu faire lorsqu’il fut en service.

Par Moonzur Rahman

 

Découvrez les formations Techniques de l’Ingénieur :

L’eau minérale est-elle touchée par la pollution ?

60 millions de consommateurs vient de jeter un pavé dans la mare !

Toutes les eaux, sans exceptions, sont susceptibles de contenir des polluants. Même les eaux minérales, réputées plus sûres, plus pures et meilleures pour la santé, ne sont pas épargnées par ce fléau. Ainsi, les travaux menés conjointement par la revue 60 millions de consommateurs et la fondation Danielle Mitterrand France Libertés, font frémir les embouteilleurs. En effet, sur les quarante-sept échantillons de bouteilles d’eau de différentes marques, dix présentaient des traces de polluants.

Et pas des marques discount ! Non, il s’agit de poids lourds de l’eau tels que Cristaline, La Salvetat, Saint-Yorre, Hépar, Mont-Roucous, Saint-Amand, Vittel, Volvic, Carrefour Discount et Cora. Le plus troublant est la nature des polluants retrouvés puisqu’il s’agit de molécules médicamenteuses et des perturbateurs endocriniens. Des particules qui ne sont pas soumises à contrôle. Pour le moment du moins.

Dans les bases documentaires

 

 

 

 

Dès la prise de connaissance des résultats des analyses menées pour 60 millions de consommateurs, de nombreux scientifiques ont exprimé leur étonnement quand à la possible présence de particules médicamenteuses dans l’eau minérale, dont la source est souterraine et inaccessible pour de telles molécules. De son côté, la revue a déclaré avoir testé deux fois les échantillons et confirme le résultat : « La méthode que nous avons employée a permis d’abaisser grandement le seuil de détection. Nous avons pu traquer des molécules à des degrés extrêmement fins.

Procéder à des contrôles à grande échelle

Pour lever toute incertitude, il faut que les pouvoirs publics procèdent à des contrôles à grande échelle », explique Thomas Laurenceau, rédacteur en chef de la revue. Sous la pression des médias, 60 millions de consommateurs chiffre enfin ce seuil et précise que les quantités détectées sont de l’ordre du nanogramme par litre d’eau. Ces mesures sont issues d’une analyse chromatographique et d’une analyse spectrométrique.

Les formations Techniques de l’Ingénieur

 

 

 

 

 

Ce qui fait débat n’est pas tant la présence de polluants dans les eaux minérales, mais leur nature. Il est désormais connu que l’activité humaine, notamment agricole, introduit dans les sols des résidus de pesticides, qui peuvent se retrouver dans les cours d’eau et donc contaminer eau du robinet et eau minérale. La présence d’infimes traces de pesticide même dans certaines eaux minérales n’est pas choquante. En revanche, aucun mécanisme connu ne permet d’expliquer la présence de résidus médicamenteux dans les eaux de source.

La chambre syndicale des eaux minérales a donc mené une contre-enquête pour vérifier les résultats annoncés par la revue. Pour cela, elle a mandaté le Laboratoire de Physico-Toxico Chimie de l’Environnement du CNRS à Bordeaux. La responsable du groupe de recherche en charge des analyses, Hélène Budzinski, s’est  vu remettre par la chambre syndicale des eaux minérales des bouteilles issues des mêmes lots que ceux testés par 60 millions de consommateurs, dans le but d’y rechercher la présence de trois molécules médicamenteuses bien particulières: le tamoxifène, le fluoxétine et la carbamazépine. Le premier est un anticancéreux et les deux autres des antidépresseurs.

Des doutes sur la fiabilité des résultats

La chambre s’est intéressée exclusivement à ces résidus médicamenteux-là car l’enquête de 60 millions de consommateurs révèle la présence de fluoxétine mais pas de carbamazépine. Or, la carbamazépine est très consommée en France et la présence dans des échantillons d’eau de fluoxétine est toujours associée à celle de carbamazépine. Les résultats publiés par 60 millions de consommateurs sont les premiers à détecter la présence de fluoxétine sans traces de carbamazépine. C’est d’ailleurs une des raisons qui poussent certains à s’interroger sur la fiabilité des résultats.

Du côté du Laboratoire de Physico-Toxico Chimie de l’Environnement, les analyses se sont donc concentrés sur trois molécules  « Nous avons effectué une étape de pré-concentration suivie d’une extraction en phase solide. Nous avons établi des protocoles spécifiques pour chacune des trois molécules recherchées. La méthode employée repose sur la chromatographie et la spectrométrie de masse en tandem. » explique Hélène Budzinski. Les analyses ont été effectuées en mode NPRM, c’est-à-dire que plusieurs signaux permettent de quantifier la molécule. Après un travail en dilution isotopique, le groupe de recherche du laboratoire bordelais a réalisé une réelle analyse quantitative. 

« Notre limite de déctection avoisine les 10 à 50 picogramme/L » précise Hélène Budzincki. Soit mille fois plus précis que les analyses effectuées par 60 millions de consommateurs. 

Résultats ? Rien du tout, aucune trace de l’une des trois molécules recherchées. Ces résultats contredisent donc ceux de la revue, qui restent inexpliqués concernant les résidus médicamenteux.

Par Audrey Loubens, journaliste scientifique

Peut-on produire une céramique sans défauts ?

Les céramiques sont des composés d’une grande dureté, chimiquement inertes et qui présentent une résistance remarquable aux températures les plus extrêmes.

Ces qualités font des céramiques les composants parfaits pour certaines pièces de moteurs, les disques de freinage haute performance, mais se retrouvent également dans les toutes dernières générations d’implants médicaux.

Cependant, les céramiques ont un défaut majeur : elles peuvent être cassantes, et les outils d’usinage conventionnels – perceuses et foreuses en tête – sont souvent à proscrire. Au lieu de cela, les industriels font appel à une technique bien maîtrisée : l’usinage par ultrasons.

Usinage par ultrasons

Le principe de l’usinage par ultrasons est simple et ingénieux : on utilise les vibrations d’un porte-outil perpendiculairement à la pièce à usiner – à une fréquence généralement comprise entre 16 000 et 20 000 Hertz, et à une amplitude variant entre 0,005 à 0,07 millimètre – afin de travailler convenablement la pièce et d’en retirer le matériau nécessaire.

Le porte-outil est aidé dans sa tâche par un abrasif en poudre (carbure de bore, carbure de silicium ou diamant) qui se retrouve en suspension dans une solution aqueuse, la barbotine céramique, insérée entre l’outil (appelé sonotrode) et la pièce à usiner. Ce sont les vibrations du sonotrode combinées aux frottements de l’abrasif qui permettent alors d’usiner la pièce, le tout sous contrôle numérique.

Selon Gnian Cher Lim, chercheur à l’A*STAR Institute of Manufacturing Technology de Singapour et qui a dirigé une étude sur le sujet, c’est l’utilisation de cette barbotine contenant la fine poussière abrasive qui serait à l’origine de la fragilité accrue de certaines céramiques.

Aux termes de cette étude, l’équipe de chercheurs aurait mieux compris le processus de formation des fissures, fêlures et autres ébréchures, ouvrant la porte à une nouvelle approche de l’usinage des céramiques, un secteur en pleine expansion dans la ville-état de Singapour.

Des particules plus fines ?

L’usinage par ultrasons fragiliserait la céramique à deux endroits clés : aux deux extrémités d’un trou, et il rendrait par ailleurs l’intérieur du trou rugueux, défauts qui ne sont bien souvent observables qu’à l’aide d’un bon microscope. L’usure naturelle de la céramique serait démultipliée par ces défauts, selon Gnian Cher Lim.

Les chercheurs auraient étudié la formation des défauts en perçant des trous de 0,7 à 3 millimètres de diamètre dans des plaques de trois céramiques particulièrement répandues : le carbure de silicium (formule brute SiC), le zircone (formule brute ZrO2) et l’alumine (formule brute Al2O3), puis en observant de manière minutieuse l’évolution du matériau au niveau des zones sensibles, ainsi que le transfert de force du sonotrode à la barbotine, puis de la particule abrasive contenue dans la barbotine à la céramique.

Au fur et à mesure que la poussière abrasive travaille la céramique, faisant de petits trous dans le matériau, les défauts se forment et peuvent être jusqu’à quatre fois plus grands que la particule elle-même, tout en se prolongeant de manière radiale à partir du trou.

Une solution s’est alors présentée d’elle-même pour réduire sensiblement le risque et la taille de ces défauts (mais non les éradiquer), l’utilisation de particules… plus fines.

Par Moonzur Rahman

 

Découvrez les formations Techniques de l’Ingénieur :

Filières industrielles de l’économie verte : mise à jour du potentiel français

La crise économique, les avancées technologiques, la modification des dispositifs de soutien, l’évolution des marchés mondiaux depuis ces trois dernières années ont conduit le ministère de l’Ecologie à mettre à jour ses orientations pour le développement des filières industrielles françaises de l’économie verte. Dans un document du Commissariat général au développement durable (CGDD), les 18 filières vertes identifiées en 2010 sont à nouveau auscultées afin de connaître leur niveau de développement et le positionnement de la France dans le panorama international. 

De nouvelles filières matures

« L’analyse de l’évolution des filières entre 2009 et 2012 indique une progression globale de la majorité de celles-ci. Cette progression apparaît cependant plus marquée pour des filières en émergence ou qui étaient en décollage en 2009 », peut-on lire dans l’étude. Ainsi les filières du solaire photovoltaïque, de l’éolien terrestre, des véhicules décarbonés et du stockage de l’énergie peuvent désormais être qualifiées de filières matures aux côtés des filières de l’eau et du génie écologique, du recyclage ou encore des agrocarburants de première génération identifiées comme telles dès 2010.

Lire la suite de l’article

 

Découvrez les formations Techniques de l’Ingénieur :

Innovation : les bons élèves s’améliorent, les cancres décrochent

Sans surprise, les économies du Nord de l’Europe tiennent le haut du pavé dans le classement de l’innovation, publié mardi 26 mars. Fondée sur plusieurs critères (nombre de doctorants, investissements publics et privés, publications scientifiques, demandes de brevets, innovation des PME…), l’analyse de la Commission européenne place en tête la Suède, l’Allemagne, le Danemark et la Finlande.

Vient ensuite un peloton aux performances assez satisfaisantes, dont la France, l’Autriche ou encore le Luxembourg font partie. Les Etats du Sud (Italie, Espagne, Grèce) et la République tchèque engrangent des résultats inférieurs à la moyenne européenne, quand les Etats de l’Est comme la Pologne, la Bulgarie et la Roumanie, sont carrément à la traîne.

Disparités régionales Fait notable, les pays moins innovants ne rattrapent plus les meilleurs. En clair, l’ascenseur de l’innovation serait en panne : parmi tous les Etats de l’UE, seule la Lituanie est parvenue à se hisser de la dernière à l’avant-dernière catégorie, dite des « innovateurs modestes ».

Notés sur une échelle de 0 à 1, neuf Etats* subissent une détérioration de leurs performances par rapport à 2011 et la Pologne est même rétrogradée dans le groupe des Etats les plus en retard. La France oscille aux alentours de 0,55. Pour rattraper les meilleurs élèves (autour de 0,7), elle doit progresser pour espérer combler la faible part de PME innovantes, d’exportations de services et de dépenses hors R&D (équipements, diffusion de l’innovation, etc. ).

Une analyse plus fine à l’échelle régionale fait davantage ressortir les déséquilibres : la région de Lisbonne est innovante au même titre que l’Ile-de-France, l’Auvergne, Rhône-Alpes ou les Länder de l’Ouest. L’Andalousie et la région de Murcie sont en revanche au même niveau que l’Europe de l’Est.

Par Marie Herbet

Source : Euractiv.fr

Le secteur des TIC peut enfin chiffrer son empreinte carbone

Réduire les émissions de dioxyde de carbone, limiter l’effet de serre, diminuer la pollution, c’est l’obsession de Bruxelles. Après le secteur automobile et plus particulièrement le diesel, c’est au tour des technologies de l’information et de la communication (TIC) d’être visées.

Et pour cause, d’après l’union européenne, l’utilisation des TIC représenterait entre 8 et 10% de la consommation électrique en Europe et entre 2.5% et 4% des émissions de dioxyde de carbone.

D’un côté les TIC ont un impact positif sur l’environnement du fait de la dématérialisation de nombreux outils et pratiques : moins de trajet grâce au télétravail et les visioconférences, moins de papier grâce aux e-mails…

En contrepartie, les besoins en énergie et les  émissions en CO2 ont explosé.

Bruxelles n’est pas très précis sur les chiffres car justement, on ne connait pas précisément l’empreinte carbone de ce secteur. Non pas qu’il n’existe pas d’outil de mesure, c’est tout le contraire, il en existe trop ! Or, ces différentes approches développées et mises en place par des organismes de normalisation ne sont pas comparables les unes avec les autres. Difficile en l’état de coordonner les efforts de chacun. 

C’est pourquoi l’Europe souhaite se doter d’un outil de mesure commun à toute l’industrie des TIC, reconnu, validé et accepté par tous. Une fois cet outil défini, la réduction des émissions de gaz à effet de serre pourra s’engager concrètement.

C’est dans cet objectif que Bruxelles a travaillé conjointement avec 27 grandes entreprises et associations du domaine des TIC sur la comparabilité des méthodes de mesure. Pendant 10 mois, jusqu’à septembre 2012, ce sont pas moins de 10 normes internationales qui ont été testées par ces industriels dont Alcatel-Lucent, AMD, Dassault Système, Dell, Ericsson, HP, Intel, Nokia ou encore Orange.

Sur la base de ces essais, la Commission européenne a publié une étude concluant à la comparabilité de 10 instruments de mesure et normes. Désormais, les acteurs des TIC sont encouragés à se les approprier de façon à les intégrer à leur quotidien.

Pour en savoir plus sur ces outils : ict-footprint.com

Par Audrey Loubens, journaliste scientifique

 

Découvrez les formations Techniques de l’Ingénieur :

L’essentiel de REACH 2/2 (mars)

 

04/04/2013 : Webinar sur  : « Le processus d’évaluation : que devez-vous savoir ? »

La prochaine conférence en ligne organisée par le Ministère de l’Ecologie et l’UIC aura lieu le 4 avril 2013 de 9h à 10h et portera sur « Le processus d’évaluation : que devez-vous savoir ». Information et inscription sur : http://www.uic.fr/REACH-webinars.asp

Donner votre avis pour la prochaine version de IUCLID (IUCLID 6)

18/03/2013

Une enquête a été lancée afin de préparer les prochaines étapes de développement de IUCLID 6. Plus d’information sur :

http://echa.europa.eu/view-article/-/journal_content/title/give-us-your-feedback-for-the-development-of-iuclid-6

Enquête disponible sur :

http://www.webropolsurveys.com/Answer/SurveyParticipation.aspx?SDID=Fin631533&SID=4683b6f7-f134-4e0f-a803-27d901c369a6&dy=1906243664

Consultation publique sur un projet d’avis du SEAC sur une proposition de restriction pour le 1,4-dichlorobenzène dans les désodorisants et des blocs sanitaires

19/03/2013

L’ECHA lance une consultation publique sur un projet d’avis du comité d’analyses socio-économiques (SEAC) sur une proposition de restriction du 1,4-dichlorobenzène dans les désodorisants et des blocs sanitaires. Les commentaires sont à soumettre pour le 17 mai 2013. Ils seront examinés et considérés par le comité dans son avis final, qui devrait être adopté avant le 19 Juin 2013.

Modification de l’étiquetage des générateurs aérosols en application du règlement CLP

19/03/2013

Une directive européenne du 19 mars 2013 vient modifier l’étiquetage des générateurs d’aérosols contenant des mélanges de produits chimiques. Les générateurs aérosols contenant des mélanges, étiquetés avant le 1er juin 2015 et mis sur le marché jusqu’à cette date, pourront être commercialisés sans faire l’objet d’un nouvel étiquetage, grâce à la période transitoire instituée par la directive CLP.

Mise à jour des redevances liées à REACH

20/03/2013

La Commission européenne informe l’ECHA qu’elle a modifié les redevances liées à REACH et a demandé l’introduction immédiate des nouveaux tarifs, ce qui profitera aux PME. Ces modifications entrent en vigueur le 22 mars 2013, après la mise à jour de REACH-IT.

Evaluation des substances dans REACH : mise à jour annuelle du CoRAP publiée

20/03/2013

La première mise à jour annuelle du CoRAP à l’horizon 2013-2015 est maintenant disponible. Il contient 115 substances, dont 62 sont nouvellement affectés et 53 proviennent du CoRAP adoptée en 2012. Les États membres évaluent ces substances dans le cadre du processus d’évaluation de la substance, du règlement REACH en 2013, 2014 et 2015.

L’ECHA prolonge le délai pour les déclarants principaux au 2 avril 2013

20/03/2013

L’ECHA encourage tous les déclarants principaux à soumettre leur dossier d’enregistrement avant le 2 avril 2013. Ces dossiers pourront alors passer l’étape de vérification dans les 3 semaines (au lieu de 3 mois si le dépôt se fait ultérieurement). Cette soumission 2 mois avant l’échéance du 31 mai 2013 permettrait également aux déclarants de soumission conjointe de soumettre leur dossier dans les temps.

Mise à jour de la FAQ pour les utilisateurs en aval

La nouvelle version du document comprend une explication de l’obligation de notification des classifications différentes de celles des fournisseurs, lorsque cela est nécessaire, et comment le faire. Il indique également quand les formulateurs doivent déclarer à l’ECHA, et comment supprimer ou modifier les déclarations des utilisateurs en aval.

Conférence en ligne du 8 avril 2013

L’ECHA organise le 8 avril prochain (11:00-14:00 heure d’Helsinki (GMT +2)) un webinar sur « Comment et quand les utilisateurs en aval doivent déclarer à l’ECHA ». L’objectif de ce webinar est d’indiquer quand les utilisateurs en aval doivent déclarer à l’ECHA, y compris quand ils doivent signaler les différences de classification.

Consultation publique sur la restriction du plomb et ses composés dans les articles de consommation

21/03/2013

La proposition visant à limiter le plomb et ses composés dans les articles de consommation a été présentée par la Suède en janvier 2013. Le plomb se trouve généralement dans les alliages métalliques, les pigments/colorants, et dans une moindre mesure, il est utilisé en tant que stabilisant dans du plastique et du métal.

Cette proposition de restriction porte sur les articles qui pouvant être mis en bouche par des enfants en bas âge, tels que vêtements, chaussures, accessoires, décorations intérieures et des articles de sport et de loisirs. La consultation publique sur la restriction du plomb dans les articles de consommation a débuté le 21 mars 2013. Les parties intéressées sont invitées à transmettre leurs commentaires avant le 1er Juin 2013.

Substances UVCB

L’ECHA a publié un document permettant une meilleure caractérisation, représentation et modélisation chimique des substances UVCB (Substances of Unknown or Variable composition, Complex reaction products or Biological materials). Ce document, proposé par un prestataire extérieur, se présente sous la forme d’une méthodologie.

Suivez la progression des enregistrements REACH (deadline 31/05/2013)

22/03/2013

L’ECHA publie maintenant des informations sur la progression des enregistrements dans le cadre de REACH (échéance de fin mai 2013). Ces informations sont disponibles sur la page web de l’ECHA REACH 2013 et seront mises à jour toutes les semaines.

Nouvelle consultation publique pour la classification et l’étiquetage harmonisé de substances

26/03/2013

L’ECHA sollicite des commentaires sur de nouvelles propositions de classification et d’étiquetage harmonisés (CLH) pour trois nouvelles substances (deux pesticides et un produit industriel) :

  • bifenazate (ISO); isopropyl 2-(4-methoxybiphenyl-3-yl)hydrazinecarboxylate (N°CE : 442-820-5 et N°CAS : 149877-41-8)
  • lithium sodium 3-amino-10-{4-(10-amino-6,13-dichloro-4,11-disulfon
  • atobenzo[5,6] [1,4]oxazino[2,3-b]phenoxazine-3-ylamino)-6-[methyl(2-sulfonato-ethyl)amino]-1,3,5-triazin-2-ylamino}-6,13-dichlorobenzo[5,6][1,4]oxazino[2,3-b]phenoxazine-4,11-disulfonate ; Direct Blue FC 57087 (N°CE : 418-870-9 et N°CAS : 154212-58-5)
  • triflusulfuron (ISO) ; 2-[4-dimethylamino-6-(2,2,2-trifluoroethoxy)-1,3,5-triazin-2-ylcarbamoylsulfamoyl]-m-toluic acid (N°CAS : 126535-15-7)

Les consultations publiques sont ouvertes pendant 45 jours et prendront fin le 10 mai 2013.

Un nouveau comité commence à travailler pour la sécurité des produits biocides

28/03/2013

Un nouveau comité scientifique de l’ECHA a été créé pour contribuer à la disponibilité de produits biocides sûrs sur le marché européen. Le comité des produits biocides aura un rôle important dans l’approbation des substances actives et l’autorisation des produits biocides relevant du règlement sur les produits biocides, qui entrera en vigueur le 1er Septembre 2013.

 

Par Céline GABORIAUD NECTOUX, Ingénieur Environnement aux Ateliers d’Orval

Pour aller plus loin :

Découvrez les fiches pratiques de Techniques de l’Ingénieur :

Participez aux formations Techniques de l’Ingénieur :

Les voitures, solution future au stockage de l’électricité ?

Pour David J.C MacKay, Conseiller scientifique en chef au Département britannique de l’énergie et du changement climatique, la plus grande opportunité du stockage de l’énergie repose dans l’alliance véhicule électrique/énergies renouvelables.

Pour Jeremy Rikfin, fondateur et président de la fondation pour les tendances économiques, c’est dans l’alliance véhicule à hydrogène/énergies renouvelable. Ils défendent tous deux leur vision respectivement dans les livres « La troisième révolution industrielle » et « L’énergie durable, pas que du vent ! » .

En cas de pointe de la demande électrique, en période de calme de la production éolienne ou solaire, ou en cas de changements rapides de fourniture et de demande, il faut répondre en temps réel aux attentes du réseau.

On peut alors soit allumer une nouvelle source de puissance, soit « effacer » une source de puissance, soit les deux. La nouvelle source de puissance peut être une centrale à biomasse, un incinérateur de déchets ou une centrale hydroélectrique (on évitera dans le futur les centrales thermiques au gaz, au pétrole ou encore au charbon !) ou bien encore le déstockage d’électricité préalablement stockée.

L’effacement peut prendre différentes formes, c’est le rôle des opérateurs d’effacement pour diminuer la demande de pointe. Enfin, il n’existe pas aujourd’hui de méthode de stockage performante permettant de stocker plusieurs jours de consommation électrique en cas de non production d’électricité renouvelable. Cela pourrait être le rôle des véhicules électriques ou à hydrogène.

Une voiture pour stocker de l’électricité ?

L’adoption à large échelle des voitures électriques permettrait de jouer cette source de stockage. « Avec 3 000 nouveaux véhicules électriques diffusés à chaque fois que 3 MW d’éolien sont installés, et si l’on s’assure que les systèmes de recharge pour les véhicules sont intelligents, cette synergie pourrait bien résoudre une bonne partie du problème des fluctuations de l’éolien » propose David J.C MacKay.

L’accord entre énergies renouvelables et énergies renouvelables intermittentes pourrait être celui-ci : « sitôt garées, à la maison ou au travail, les voitures électriques pourraient être branchées à des chargeurs intelligents. Ces chargeurs intelligents connaîtraient à la fois la valeur de l’électricité (très demandée ou peu demandée), et les besoins de l’utilisateur de la voiture (par exemple, « ma voiture doit être à pleine charge à 7 heures du matin lundi matin »).

Le chargeur satisferait sagement les exigences de l’utilisateur en pompant de l’électricité lorsque le vent souffle, et s’arrêterait lorsque le vent tombe, ou lorsque d’autres types de demande apparaîtraient. Ces chargeurs intelligents fourniraient alors un service utile d’équilibrage du réseau, un service qui pourrait être rétribué financièrement. » propose David J.C MacKay dans son livre disponible en intégralité sur : withouthotair.com

Ce professeur de philosophie naturelle du département de physique de l’Université de Cambridge va encore plus loin.

En effet, si les batteries étaient échangeables facilement, elles pourraient être selon lui échangées dans des stations de remplissage qui auraient la responsabilité de recharger les batteries aux meilleurs moments. Elles réduiraient la pointe au maximum et utiliseraient les surplus d’électricité lorsque la production est maximale pour recharger les batteries.

Si c’est l’hydrogène qui s’avère être le futur, la même correspondance sera valable, l’hydrogène étant produit et stocké dans les piles à combustible lorsque l’électricité est disponible. C’est la vision défendue par Jeremy Rifkin.

L’hydrogène sera capital pour Jeremy Rifkin

Pour le président de la fondation pour les tendances économiques, il faut convertir tous les bâtiments en de véritables centrales personnelles qui fonctionnent grâce à la géothermie, au vent, au soleil et grâce à la transformation des déchets.

Quand des millions de bâtiments produiront des surplus d’électricité, ils les stockeront sous forme d’hydrogène.

Un système de programmation permettrait de revendre en partie ce surplus dans les zones qui n’ont pas d’électricité à un moment particulier en raison des intermittences de production. En ce sens, la technologie internet doit être utilisée pour créer un « internet de l’énergie ». La nouvelle infrastructure de rechargement des véhicules à hydrogène devra y être reliée. 

Par Matthieu Combe, journaliste scientifique

Énergies d’après-demain : les 5 meilleures pistes

Le thorium, une alternative crédible à l’uranium ?

Le thorium est souvent présenté comme un combustible alternatif dans la production d’énergie nucléaire. Non seulement, ce minerai est trois fois plus abondant que l’uranium mais il génère également bien moins de déchets.

Moins de déchets, plus d’énergie !

Des réserves immenses et exploitables, un volume de déchets 200 fois moins important que l’uranium… Le thorium dispose de sérieux atout. Malheureusement, il serait plus difficile à transformer… Faux ! répondent certains scientifiques. Il suffirait de le mélanger à un peu d’uranium pour que le thorium puisse être utilisé comme combustible dans les réacteurs nucléaires.

Un combustible liquide

D’autres types de réacteurs sont envisageables, comme le réacteur à sels fondus (MSFR), une piste sérieuse remarquée en 2008 lors du Forum international Génération IV. Plus stable et plus sûr, ce réacteur permettrait d’exploiter 100% de la ressource et de produire une énergie durable et écologique. Plusieurs chercheurs du CNRS de Grenoble travaillent actuellement sur ce procédé.

L’uranium fait de la résistance

Le thorium se heurte à deux obstacles majeurs : les partisans du nucléaire contestent fermement les avantages supposés de ce minerai providentiel et la France souhaite réduire la part du nucléaire dans sa production d’énergie de 75% à 50% d’ici à 2025. Un objectif peu compatible avec le développement du thorium nécessitant au contraire la relance de la filière.  Mais, dans le monde, la réticence n’est pas générale : la Chine investit massivement dans ce nouvel eldorado énergétique  quand l’Inde exploite déjà ses propres réserves dans des réacteurs de troisième génération.

 

Les formations Techniques de l’Ingénieur


 

Du biocarburant truffé de bactéries

C’est une première mondiale, la société française Deinove serait parvenue à  isoler et à optimiser une souche de bactéries déinocoques capable de produire de l’éthanol à partir d’une biomasse végétale industrielle à base de blé.

Un processus de fabrication simplifié

Les biocarburants de première génération (bioéthanol) étaient obtenus à partir de biomasse alimentaire et présentaient de nombreux inconvénients en termes de temps, de coût et de ressources alimentaires. Ce biocarburant deuxième génération repose entièrement sur la présence d’une bactérie, le deinocoque, qui facilite considérablement le processus en se chargeant de dégrader elle-même la biomasse et de convertir le glucose en éthanol. Résultat : une seule étape est nécessaire pour obtenir un titre en alcool de 3%.

Une bactérie particulièrement résistante

Deinocoque est capable de réparer son ADN s’il a été endommagé par des radiations et supporte de très hautes températures, ce qui a pour avantage de réduire les dépenses d’énergie lors du refroidissement des cuves. Où la trouve-t-on ? Principalement dans les sources d’eau chaude. La société Deinove a passé une convention avec le Bureau de recherches géologiques et minières (BRGM) afin de récupérer des souches partout en France.

Un développement possible dès 2014

Le directeur général de Deinove a déposé deux brevets : « l’un pour produire des biocarburants et l’autre pour de futures applications médicales ». Il a pour objectif d’obtenir une plus grande concentration en éthanol (jusqu’à 8 ou 10°) puis d’augmenter les volumes utilisés. Si le pari est réussi, il envisage le développement industriel de son procédé dès l’année prochaine.

 

Une ceinture solaire autour de la lune

« Luna Ring », c’est le nom de ce projet pour le moins original : une entreprise japonaise (Shimizu Corporation) a pour objectif de récupérer l’énergie du soleil en installant des panneaux solaires tout autour de la lune.

Une « ceinture » de 10 920 kilomètres

Un réseau de cellules solaires mesurant jusqu’à 40 kms entourerait l’équateur lunaire. L’énergie produite à partir de ces cellules serait transférée aux stations terrestres de réception grâce à des antennes de 20 kms de diamètre. Cette transmission serait assurée par une balise de guidage.

La construction de Luna Ring

La majorité des ressources nécessaires à la construction de la ceinture solaire serait fournie par la lune elle-même. L’eau et le ciment seraient produits à partir d’éléments constitutifs du sol lunaire quand  l’hydrogène serait importé. Quant aux ouvriers, ils seraient embauchés sur Terre. Mais inutile de poser votre candidature : seuls des robots télé-opérés seraient envisagés.

Une production d’énergie illimitée

Contrairement aux panneaux photovoltaïques classiques installés sur Terre, la quantité d’énergie produite par les cellules solaires disposées autour de la lune ne dépendrait pas des variations météorologiques. Luna Ring pourrait fournir de l’énergie solaire, partout dans le monde, 24h/24 !

Du pétrole à base… d’air !

Il s’agit de capturer le dioxyde de carbone et l’hydrogène contenus dans l’air et de les transformer ensuite en méthanol, puis en carburant ! Si l’idée n’est pas nouvelle, son application est une première. Les ingénieurs britanniques qui ont accompli cet exploit sont parvenus à fabriquer un pétrole de synthèse si proche de l’original qu’il est parfaitement compatible avec nos voitures actuelles.

Comment capture-t-on l’air ?

Le CO2 et l’hydrogène sont extraits séparément. Dans un premier temps, l’air est mélangé à de l’hydroxyde de carbone, puis séparé du carbonate de sodium par électrolyse de façon à capturer le CO2. Dans un second temps, l’eau présente dans l’air est condensée et l’hydrogène est obtenu par électrolyse de l’eau.

Le CO2 enfin recyclé !

Ce procédé permettrait donc non seulement de réduire les rejets de gaz à effet de serre mais aussi de produire de l’énergie ! La solution miracle ? Pas tout à fait. L’électrolyse consomme de l’électricité. Pour que le procédé constitue une réelle avancée en termes d’efficacité énergétique, il faudrait utiliser une énergie renouvelable, comme l’éolien ou le solaire.

Une production encore insuffisante

La compagnie qui a mis au point cette technologie (Air Fuel Synthesis) a produit à peine 5 litres de carburant en trois mois. Mais elle envisage de produire d’ici deux ans une tonne de pétrole de synthèse par jour, soit sept barils. Un beau pari, même si le volume peut paraître faible en comparaison des 80 millions de barils de pétrole naturel produits quotidiennement dans le monde. Mais la promesse est de taille : produire de l’énergie à partir de notre propre pollution…

 

Du chauffage gratuit grâce aux supercalculateurs

Les serveurs informatiques des entreprises dégagent une chaleur phénoménale. Pourquoi ne pas exploiter cette source de chaleur pour chauffer les particuliers ? C’est l’idée de Qarnot Computing, une startup française qui envisage de créer des radiateurs électriques intégrant des processeurs.

Aucune déperdition de chaleur

Selon le directeur de Qarnot Computing, il suffirait d’installer les calculateurs directement chez les particuliers qui profiteraient de la chaleur générée. Quant aux entreprises, elles réduiraient leurs dépenses car les data-centers qui hébergent habituellement les serveurs représentent un coût important. Une grande banque européenne pourrait ainsi fournir du chauffage pour 10 000 foyers par an.

Une installation simple

Des microprocesseurs intégrés à un radiateur en aluminium et… c’est tout. L’installation chaufferait le logement tout en traitant les données des entreprises. Les bureaux de la société (300 m2) sont déjà chauffés grâce à ce procédé. Un thermostat permet de réguler la température. En cas de grand froid, il sera possible d’augmenter la chaleur en offrant la capacité de calcul non utilisée à la recherche scientifique.

Bémols… 

Malgré les nombreux avantages, quelques zones d’ombre persistent. D’une part, la maintenance pourrait être difficile à assurer puisque les serveurs se trouveront disséminés chez les particuliers au lieu d’être regroupés dans un data center. D’autre part, le système ne fonctionnerait pas uniquement l’hiver, mais toute l’année : que faire de cette chaleur en pleine canicule ? 

Par Iris Trahin

 

Découvrez les formations Techniques de l’Ingénieur :


Génie énergétique : Maîtrisez les processus thermiques pour contrôler votre consommation d’énergie

 

Limiter nos émissions de dioxyde de carbone et protéger notre environnement, voilà le challenge qui attend les ingénieurs en génie énergétique. Les industries doivent pour cela maîtriser les processus thermiques et optimiser leur consommation d’énergie.
 
 
Descriptif :
  • Les aspects théoriques et pratiques de la transformation et de l’utilisation de l’énergie,
  • Des éléments pratiques relatifs à l’optimisation énergétique,
  • L’ensemble des informations nécessaires à la mise en œuvre des processus thermiques,
  • Des exemples de réalisations industrielles: échangeurs, fours, isolation.

En savoir plus

Environnement : développez une politique environnementale efficace tout en respectant les intérêts économiques de votre entreprise

Un panorama complet des thèmes environnementaux à prendre en compte dans les projets industriels, complété par l’ensemble des outils d’aide à la décision.

 
Descriptif :
  • Une information claire et complète par thème (eau, air, déchets, sols, bruit, odeurs) sur la caractérisation des polluants, l’évaluation de leurs impacts et les techniques de dépollution,
  • La prise en compte des aspects économiques, juridiques et stratégiques spécifiques à chaque type de pollution,
  • La présentation détaillée des outils environnementaux d’aide à la décision et leur mise en œuvre.

En savoir plus

Innovations technologiques : la veille technologique comme moteur d’innovation pour anticiper les prochaines évolutions de marché

 

Facteur clé du développement économique, l’innovation est plus que jamais au cœur des préoccupations des entreprises. Elle est un levier essentiel de croissance à long terme, pour faire face au contexte de crise et de concurrence mondiale, mais aussi pour se différencier des autres, s’adapter aux besoins du marché et continuer de séduire ses clients.
 
Descriptif :
  • Un outil de veille technologique pour identifier les enjeux industriels de demain:
  • les dernières avancées scientifiques et techniques: description des grands projets de R&D et des innovations en cours dans le secteur de la recherche privée et publique,
  • les grandes tendances technologiques: panoramas de réalisations au stade industriel ou pré-industriel,
  • des études sectorielles et des analyses prospectives pour anticiper les prochaines évolutions de marché,
  • l’ensemble des outils et des méthodes pour maîtriser les grandes étapes du processus de l’innovation: de l’analyse des besoins au management de projet innovant, jusqu’au financement et à la protection de l’innovation,
  • l’ensemble des pratiques d’éco-conception à disposition des professionnels, sans oublier les aspects marketing et de financement, ainsi que de nombreuses études de cas.

En savoir plus

Vers l’auto-consommation de sa production photovoltaïque

Les experts prévoient que l’électricité solaire photovoltaïque deviendra moins chère que l’électricité traditionnelle du réseau vers 2016.

Dès lors, il deviendra intéressant pour les personnes équipées de panneaux photovoltaïques d’auto-consommer leur production. Ainsi, l’idée sera de consommer au maximum sa production directement chez soi avant de revendre le surplus.

Dans cette perspective, SMA développe le Sunny Home Manage, une centrale de gestion intelligente de l’énergie.

Les mesures montrent qu’un générateur solaire permet une auto-consommation naturelle dans le bâtiment variant entre 20 et 40 % de la production photovoltaïque.

En ajoutant le Sunny Home Manager, il sera possible d’augmenter cette auto-consommation d’environ 15 %. Une base météo intégrée permettra de prévoir du jour au lendemain le niveau d’ensoleillement et donc la production électrique du jour suivant. 

« Par apprentissage, le système sait figurer les blocs de consommation qui peuvent être déclenchés dans le cadre de la courbe d’auto-consommation du générateur », confie Pascal Richard, Directeur commercial de SMA France.

En fonction de la météo, le boîtier permettra de programmer la mise en route de groupes d’appareils via bluetooth. Ainsi, la machine à laver le linge ou la vaisselle démarrera, par exemple, à 14 heures, lorsque vous êtes au travail et que le soleil brille. A votre retour, et sans que vous n’ayez à appuyer sur le bouton, tout sera propre !

Avec un système de stockage, il devrait être possible d’augmenter l’auto-consommation d’encore 15%. Les fonctionnalités du Sunny Home Manager seront présentées plus en détails lors de l’Intersolar du 19 au 21 juin prochain à Munich.

Par Matthieu Combe, journaliste scientifique

 

Découvrez les formations Techniques de l’Ingénieur :

Un futur incertain pour la cogénération

En France, il existe environ 800 installations de cogénération pour une puissance électrique installée de 5 000 MW. Elles produisent en moyenne 16 TWh d’électricité et 22 TWh de chaleur. Ces installations ont été lancées entre 1997 et 2001 pour un investissement total d’environ 5 milliards d’euros. Elles ont bénéficié d’une obligation d’achat sur 12 ans qui se termine donc entre 2009 et 2013. 

« En France, la situation n’est pas au développement de la cogénération, mais à sa disparition progressive », révèle Jean-Claude Boncorps, Président de Fédération des Services Energie Environnement (Fedene).

Les installations de plus de 12 MW, représentant une capacité totale de 2 800 MW, ne pourront pas repartir sur un tarif d’obligation d’achat. Elles pourront cependant vendre leur production sur le marché, mais à des prix non rentables. Certaines installations sont déjà en cours de démantèlement.

Les installations de moins de 12 MW, représentant un total de 2 200 MW, pourraient repartir en obligation d’achat. Malgré des opérations récentes de rénovation, une remise en cause des conditions de rémunération des obligations d’achat et un manque de visibilité complet noircissent le tableau.

« A priori, la situation devrait se dégrader très sensiblement ; nous ne sommes donc pas certains de pouvoir continuer à fonctionner avec des cogénérations à des conditions économiques viables », analyse Jean-Claude Boncorps.

« Aujourd’hui, il y a un frein au développement de la cogénération, mais il y a surtout une disparition progressive d’installations performantes qui ont permis d’économiser 1,7 millions de tep par an et une réduction des émissions de CO2 de 9 millions de tonnes par an, du fait qu’elles se substituent à des centrales moins performantes », insiste-t-il.

Quel est le mix énergétique de la cogénération ?

Avec des centrales nucléaires, on ne fait que très rarement de la cogénération. On chauffera à un endroit des serres pour tenter de montrer sa bonne foi.

Toutefois, de façon générale, la cogénération ne se fait pas avec le nucléaire, car les centrales sont trop éloignées des centres de consommation. Les pertes sur le réseau et son coût seraient trop importants.

D’après le bilan électrique 2012 de RTE en France, le mix électrique est très particulier. Avec plus de 75 % d’électricité d’origine nucléaire et 12 % d’hydraulique, il ne reste que 9 % pour les centrales thermiques.

Dans ces circonstances, il n’y a quasiment aucune centrale thermique classique gérée par EDF équipée de cogénération. Dans d’autres pays d’Europe, sans nucléaire, la moitié des centrales peut pourtant en être équipée.

En France, les installations de cogénération sont donc décentralisées. Elles peuvent fournir de la chaleur alimentant des réseaux de chaleur ou des chaufferies, desservant principalement des logements sociaux, des hôpitaux, des copropriétés, des universités ou des industries.

Elles fonctionnent à 90 % au gaz. Les cogénérations avec du charbon ou de la biomasse restent relativement marginales.

La cogénération et les réseaux de chaleur

Sur les 458 réseaux de chaleur en fonctionnement en France en 2011, 204 réseaux (pour environ 235 installations de cogénération) sont équipés de cogénération dans 190 villes.

Ils permettent de produire 4,5 TWh d’électricité en complément de la chaleur qu’ils délivrent. En 2011, la chaleur issue de gaz venant de cogénération représentait 21 % de la chaleur totale des réseaux de chaleur.

Le reste provenait  à 36 % d’énergies renouvelables ou de récupération, à 22 % de gaz sans cogénération, 6 % de fiouls, 8 % de charbon et 7 % d’autres énergies.

La situation n’est pas bonne. Pourtant la cogénération permet un rendement de 80 %. Avec le mix énergétique français actuel, à production d’électricité et de chaleur égale, la cogénération permet une économie de 15 % d’énergie primaire.

Dans le cadre du débat national sur la transition énergétique, ne devrait-on pas lui redonner ses lettres de noblesse plutôt que de la condamner ?

Par Matthieu Combe, journaliste scientifique

Piles à combustible : c’est pour aujourd’hui ou pour demain ?

Une pile à combustible est une pile – ou un générateur de courant – qui produit de l’électricité par la réaction chimique suivante : l’oxydation sur une électrode d’un combustible réducteur (cela peut être de l’hydrogène) simultanément à la réduction sur l’autre électrode d’un oxydant (par exemple, l’oxygène). L’énergie produite par cette réaction est ensuite transformée en courant électrique de façon continue, c’est en cela qu’elle se distingue d’une pile classique. Cette transformation est opérée au moyen d’un catalyseur : le platine ; un métal de transition qui a pour vertu d’accélérer l’oxydation de l’hydrogène.

Le principe de la pile à combustible date de 1939. On doit cette découverte à l’allemand Christian Schönbein et à l’anglais Sir William Grove. Néanmoins, il s’écoulera une centaine d’années avant qu’une application de ce principe soit mise en pratique. C’est au cours des années 60, dans le cadre des programmes spatiaux GEMINI et APOLLO que les premières piles ont vus le jour, destinées aux capsules de vol. L’eau produite par les générateurs de courant servait alors à alimenter les astronautes. Depuis, les secteurs de l’aérospatiale et de l’automobile – principalement – développent son utilisation.

Des avantages uniques

Les piles à combustible stockent trois fois plus d’énergie qu’une batterie lithium-ion et disposent d’une autonomie très appréciable. Contrairement aux piles classiques, elles ne se déchargent pas si l’on ne s’en sert pas. De plus, elles supportent de fortes variations de température et peuvent avoir une longue durée de vie. Cela peut aller jusqu’à plusieurs années.

 

 

 

 

 

 

 

 

 

L’hydrogène est une ressource non polluante et disponible en quantité bien qu’on n’en trouve pas à l’état naturel. Une pile à combustible ne rejette que de la vapeur d’eau, le taux d’émission en CO2 est donc nul. Si vous aviez des doutes concernant les vertus écologiques de la pile à combustible, balayez-les d’un revers de main. Il s’agit bel et bien d’une énergie verte et qui plus est sans bruit. À l’intérêt environnemental s’ajoute donc l’absence de nuisances sonores.

La légèreté des piles permettrait dans certains cas un gain de masse offrant ainsi aux véhicules pourvus de cette technologie une diminution de la consommation de carburant.

Pourquoi leur utilisation n’est-elle pas encore généralisée ?

Et bien parce que la recherche avance, mais pas forcément assez vite. Ensuite, aussi parce que la viabilité industrielle demeure trop faible par rapport au rendement de cette technologie. Les étapes de fabrication étant très nombreuses. Or, c’est un point clé qui conditionne les investissements. Cependant, la recherche avance et l’amélioration des rendements incite toujours plus les entreprises à passer le pas.

En outre, le catalyseur a un coût relativement élevé. Le platine, généralement utilisé pour l’accélération de l’oxydation, se révèle être une denrée précieuse par son caractère limité. Or c’est bien connu, ce qui est rare est cher. Le prix du métal dépasse d’ailleurs celui de l’or. Cela a un impact direct sur le prix d’une pile à combustible puisqu’il représente 25 % de son coût total.

Pour qu’il y ait oxydation, de l’hydrogène est nécessaire. Or l’hydrogène n’est pas disponible naturellement. Présent dans l’eau ou l’ammoniaque, ce gaz est obtenu par électrolyse. Un procédé, pensé en 1800 par les chimistes anglais William Nicholson et Sir Anthony Carslile, consistant à décomposer l’eau en ions d’hydroxyde et d’hydrogène au moyen d’un courant électrique. Mais voilà, l’utilisation de cette méthode n’est pas encore courante. À l’heure actuelle, la majorité de la production d’hydrogène découle de la décomposition d’hydrocarbures. Malheureusement cette technique s’avère fortement polluante. Sans compter les risques non négligeables liés à l’usage d’un tel gaz, notamment le risque d’explosion en raison de son inflammabilité. Enfin, il présente à nos chercheurs la difficulté de le stocker. Il s’agit d’un vrai problème.

Quelles applications ?

ils sont nombreux et variés ! La pile à combustible sert, entre autres, pour l’alimentation des téléphones portables, l’automobile et plus généralement pour le transport, l’alimentation électrique des satellites, l’aérospatial, l’aéronautique, la production électrique stationnaire… Les piles à hydrogènes inspirent les constructeurs parmi lesquels on peut citer Daimier, Ford, Honda, Hyundai, Mercedes ou encore General Motors.

Son utilisation est classée en trois grandes familles. Les piles à combustible embarquées destinées au transport. Elles équipent ainsi les véhicules légers et les véhicules lourds. Les piles à combustible stationnaires, elles-mêmes déterminées en deux catégories : la production individuelle (de 200 kW à plusieurs MW) et la production collective (de 2 à 7 kW). Les projets, dans lesquelles elles sont inscrites (par exemple, celui d’EDF d’alimenter un groupe HLM) fonctionnent bien souvent par cogénération. Il reste les piles à combustible miniaturisées. Ici, ce sont les téléphones portables, le rechargement des batteries qui rentrent dans ce domaine d’application.

Des tests combinant la technologie des piles à combustible avec une batterie hybride lithium-ion seraient en cours sur des avions afin de les faire voler. Toutefois, bien que l’idée soit séduisante, ce sujet d’étude semble loin d’être exploitable pour le moment.

La start-up nommée Pragma Industries, située à Bidart, vient d’inventer la première machine à bobiner des piles à combustible. Leurs piles ont pour objectif d’alimenter des vélos électriques, des outils portatifs et mobiles ainsi que des groupes électrogènes. Pierre Forté, le PDG de la PME, estime que le marché des vélos électrique, en pleine expansion, devrait quadrupler d’ici 2017.

La société israélienne CellEra s’est faîte connaître récemment pour son invention d’une pile à combustible  » révolutionnaire « . Cette start-up serait parvenue à passer outre l’utilisation de platine pour accélérer l’oxydation de l’hydrogène via un procédé vraisemblablement déjà connu mais dont elle serait la première à l’avoir élaboré. Ce qui change, ce sont les électrolytes. CellEra utilise un électrolyte polymère solide permettant la conduction d’ions OH- en milieu alcalin là ou ses concurrents s’appuient habituellement sur des piles à membrane pour lesquels les électrolytes liquides sont nécessaires au fonctionnement. À la place du platine, on retrouve des métaux moins onéreux qui offrent un avantage économique indéniable !  Pour info, pas moins de sept brevets sont en cours de dépôt. Grâce cette technologie, CellEra compte bien ouvrir de nouvelles perspectives quant à la fabrication de piles à grande échelle. Ses collaborations avec Vodafone et Volkswagen ainsi que le développement de nouvelles applications, à priori tournées vers les stations de télécommunication, devraient lui assurer un bel avenir.

Des innovations à la pelle

Depuis 2011, la start-up new-yorkaise SiGNa Chemistry propose un chargeur de smartphones un peu spécial… Il s’agit d’un chargeur équipé de mini-piles à combustibles appelées PowerTrekk capable de produire de l’électricité par ajout d’eau, voire d’urine. Ne riez pas, l’armée estime même que le package d’un soldat pourrait être réduit de 11 kilos grâce à cette technologie. La maniabilité, le faible poids de transport (une minuscule cartouche d’hydrogène) et surtout la possibilité de recharge n’importe ou en font un outil attractif dont l’armée pourrait envisager l’utilisation prochaine. SiGNa Chemistry tourne désormais sa recherche sur la recharge d’appareils électroniques plus importants.

Le constructeur Hyundai a dévoilé lors du salon de l’automobile de Genève son premier modèle ix35 à hydrogène de série. Destiné au grand public d’ici 2015, date à laquelle débutera la production de 10 000 unités, ce modèle fonctionnera à la pile à combustible et sera donc totalement écologique. Pour mieux connaître la future Hyundai, voici quelques chiffres. Elle disposera de deux réservoirs hydrogènes, d’un moteur de 136 chevaux, d’une batterie en lithium-ion polymère de 24 kW et pourra rouler plus de 594 kilomètres par recharge. Cette alternative aux carburants traditionnels aurait déjà séduit quelques responsables européens.

Panasonic est un acteur majeur de la recherche sur les piles à combustible. On se souvient de l’annonce deux ans auparavant de l’ouverture d’un centre de R&D en Allemagne. La société nippone conçoit et développe depuis 1999 des piles à combustible à micro-cogénération qui ont la particularité de produire de l’électricité tout en se servant de la chaleur générée par le processus. Une méthode efficace qui ne laisse plus de place au gaspillage d’énergie.

La pile à combustible est une technologie qui n’a jamais vraiment cessée de faire l’objet de recherches. Les techniques progressent constamment. On remarque toutefois qu’elles ont tendance à s’intensifier avec l’arrivée des starts-up qui leur permettent d’acquérir un second souffle. SiGNa Chemistry et CellEra en sont les parfaits illustrateurs. Le développement des piles vers de nouvelles applications toujours plus ambitieuses est en bonne voie. Dans un processus de collaboration, les entreprises échangent et s’ouvrent à des perspectives réjouissantes en poussant des concepts connus tels que la voiture et le vélo électrique, l’alimentation de téléphones portables et d’objets plus lourds (ordinateurs portables) ou encore la cogénération.

Ces entreprises font office de catalyseur comme le platine l’est pour la réaction chimique. Le rendement et la puissance des piles à combustible sont en hausse significative. Les perspectives en termes d’innovation paraissent donc plus folles. Tout ça bien sûr en raison de multiples qualités. Le fait notamment qu’elle propose une alternative séduisante aux carburants traditionnels et puisse avoir un réel impact environnemental, qu’elle offre de bons rendements énergétiques et soit peu encombrante. Présentée comme une source d’énergie révolutionnaire à l’époque, la pile à combustible trouve aujourd’hui une utilisation, potentielle ou concrète, dans des domaines divers et variés. Ce qui est sûr, c’est qu’elle n’a pas fini de révéler ses possibilités.

Par Sébastien Tribot

sources :

http://pileacombustible.free.fr/historique.htm

http://www.autodeclics.com/article/47482-quel_avenir_pour_la_pile_a_combustible.html

http://www.enerzine.com/14/15116+le-marche-des-piles-a-combustible-stationnaires-semble-lance+.html

http://www.enerzine.com/14/12549+panasonic-mise-sur-les-piles-a-combustible-residentielles+.html

http://siliconwadi.fr/6172/une-startup-israelienne-invente-une-pile-a-combustible-revolutionnaire

http://aviondufutur.e-monsite.com/pages/l-electricite-dans-l-avion/les-piles-a-combustibles.html

http://www.actu-environnement.com/ae/news/filiere-francaise-hydrogene-piles-combustible-13694.php4

Quel est le potentiel d’innovation des technologies existantes ?

Ainsi, l’émergence des productions d’énergies :

Toutes ces technologies de production d’énergie ont vu leurs rendements  s’améliorer au fur et à mesure, jusqu’à devenir des solutions économiquement envisageables.

 

Pour autant, aucune de ces technologies n’a aujourd’hui remplacé le pétrole, le gaz ou le nucléaire. Les raisons sont nombreuses, mais deux explications se dégagent : les prix de revient, et les investissements à consentir ne permettent pas aujourd’hui, de construire de modèles économiques satisfaisant par rapport à l’existant.

Il est également compliqué de remettre en cause un modèle bâtit et intégré pour consommer des énergies fossiles.

Il est donc indispensable, pour généraliser l’usage des énergies renouvelables, de proposer un modèle présentant un modèle économique voisin voire meilleur que celui existant aujourd’hui, ainsi que des performances en termes de rendement révolutionnaires par rapport à ceux offerts par l’exploitation des énergies fossiles.

La production d’énergie éolienne est à la mode depuis plusieurs décennies.

L’innovation autour de cette technique de production d’énergie n’a cessé depuis plus de vingt ans et a permis de créer des éoliennes exploitant l’énergie du vent sur terre, sur mer. Et même sous la mer, avec le développement des hydroliennes.

Malheureusement, l’industrie éolienne  souffre de deux défauts majeurs :

  • La productivité : déjà relativement faible, elle est totalement dépendante de la continuité et de l’intensité du vent. Le recours à d’autres énergies est alors souvent nécessaire.
  • Les matériaux : l’installation d’un mât requiert une grande quantité de matériaux et le bilan carbone de l’opération n’est pas toujours très positif (surtout si l’on compte le démantèlement). Enfin, on accuse les éoliennes, qu’elles soient sur terre ou en mer, de générer une pollution visuelle dans les paysages, voire une pollution sonore susceptible de déranger les habitations alentours.

Les projets concernant l’éolien visent donc à faire de ce type de production d’énergie une voie d’avenir, en s’affranchissant de ces deux limites.

Deux entreprises américaines, Joby Energy et Makani Power, ont trouvé la solution pour rendre l’éolien plus productif, plus économique, et moins gênant à mettre en place physiquement : il s’agit d’installer des éoliennes… dans le ciel.

En effet, ces sociétés viennent de présenter des prototypes d’éoliennes semblables à des cerfs-volants, et qui auraient la capacité de s’élever à plus de 400 mètres pour capter des vents plus constants et plus puissants. Les estimations en termes de gains de production laissent penser un doublement par rapport aux techniques actuelles.

L’électricité, elle, serait transmise via des câbles attachés à l’édifice aérien.

Autre atout : les coûts en matériaux seraient drastiquement réduits (absence de travaux). Makani Power estime que sa machine serait cinq à dix fois moins chère qu’une éolienne classique. Et Joby Energy annonce des dépenses 20 fois moindre.

Ces innovations offriraient en outre l’avantage d’être facilement déplaçables, ce qui permettrait de suivre les vents et de répondre à d’éventuelles plaintes pour nuisances visuelle ou sonore. Les premiers produits devraient être commercialisés en 2015.

L’énergie osmotique est pour le moment une source de production d’énergie sous exploitée de par le monde. Mais cela pourrait changer.

En effet, l’énergie osmotique, qui utilise les différences de concentration entre deux milieux pour créer de l’énergie, est tout ce qu’il y a de renouvelable.

L’exemple le plus connu est l’utilisation de la différence de concentration en sel entre l’eau de mer et l’eau douce pour générer de l’énergie.

Mais dans un avenir proche, les nanotechnologies pourraient permettre de casser une barrière technologique et d’atteindre des rendements compétitifs, ce qui n’est pas du tout le cas aujourd’hui.

En effet, des physiciens de l’Institut Lumière Matière (CNRS / Université Claude Bernard Lyon 1), en collaboration avec l’Institut Néel (CNRS), ont pu, pour la première fois, mesurer l’écoulement osmotique traversant un nanotube unique de Bore-Azote.

C’est en séparant l’eau salée de l’eau douce avec cette technique qu’ils ont pu produire à travers le nanotube un courant électrique d’une intensité d’un nanoampère, c’est-à-dire mille fois plus puissant que celui produit par les autres méthode d’exploitation de l’énergie osmotique.

Si on rapporte ces données à une échelle plus importante, il apparaît qu’une membrane de 1 m2 de nanotubes de Bore-Azote pourrait, en théorie, produire 30 000 kWh, c’est-à-dire de quoi alimenter en électricité une dizaine de foyers (hors chauffage). Il suffirait donc d’un hectare de ce type de membranes osmotiques pour alimenter en électricité tous les foyers d’une ville comme Toulon !

Mais pour l’heure, reste à évaluer la faisabilité d’une production industrielle de ce type de membrane en nanotubes de Bore-Azote.

La production hydroélectrique. Quelques chiffres : les centrales hydrauliques fournissent environ 16% de l’électricité mondiale, mais cette part varie selon les pays. Elle atteint :

  • 80% au Brésil ;
  • 99% pour cent en Norvège ;
  • 6% aux États-Unis
  • En France, la puissance installée vaut 25 400 MW et la production environ 68 térawattheures (TWh) par an, soit 12 % du total.

La France se place donc au 8ème rang mondial en termes de puissance installée et au 9ème pour l’énergie produite. Le parc français d’EDF est constitué de 447 centrales hydroélectriques et de multiples STEP ; ces dernières avaient en 2008 une capacité de 4 300 MW. Cependant, cette puissance fournie ne peut l’être que pendant quelques heures. Il y a donc une intermittence dans la production d’électricité qui n’est pas sans rappeler les limites que l’on touche avec l’énergie éolienne par exemple.

Mais ces limites technologiques ne semblent pas irrémédiables. Les experts estiment que le potentiel de développement de cette technique de production est 3 fois supérieur à son niveau actuel ! Si l’investissement nécessaire ainsi que les impacts humains et écologiques pèsent sur les projets de grands barrages, l’avenir semble prometteur pour la petite hydroélectricité.

L’énergie hydraulique exige peu de frais d’exploitation et d’entretien. Sa durée de vie est exceptionnelle et son exploitation très fiable grâce une technologie bien éprouvée. Rien qu’en France, parmi la soixantaine de grands barrages encore en activité, nombreux sont ceux à avoir été construits avant 1960. Le plus ancien, situé dans la Nièvre, a été achevé en 1858.

L’énergie hydraulique répond aux besoins d’ajustement de la production électrique lors des brusques fluctuations de la demande.

Elle apporte également une réponse aux besoins d’ajustement de la production électrique lors  des pics de consommation ou de brusques fluctuations de la demande d’électricité. Car, si l’on ne peut stocker l’électricité à grande échelle, on peut en revanche retenir l’eau dans de grands réservoirs au moyen de barrages ou de digues. Une façon simple et efficace d’emmagasiner de l’énergie potentielle. D’autant plus qu’une centrale hydroélectrique peut atteindre sa puissance maximale en quelques minutes. À titre de comparaison, une dizaine d’heures sont nécessaires à une centrale thermique pour monter à sa pleine puissance. Un délai multiplié par quatre pour un réacteur nucléaire.

A priori, l’énergie hydraulique semble réunir tous les atouts. Mais l’implantation d’ouvrages colossaux et la création de retenues d’eau ne sont pas sans conséquences sur l’environnement et l’activité humaine :

  • si elles ne sont pas prises en compte, certaines conséquences de la création d’un barrage peuvent se révéler graves sur un plan écologique : blocage de la migration de certaines espèces aquatiques, affection du niveau des nappes phréatiques, transferts de matières en suspension et sédiments, pollution sonore, etc. En outre, les structures écologiques en place sont perturbées par la création de la retenue d’eau en amont et la baisse du débit en aval ;
  • Pour retrouver un équilibre écologique durable, plusieurs décennies peuvent être nécessaires. Dans tous les cas, des études longues et coûteuses s’imposent pour mesurer l’impact écologique de l’édification d’un barrage ;
  • outre des impacts écologiques, l’implantation d’une retenue d’eau a des conséquences sur l’activité humaine. Un déplacement de populations ou d’activités économiques (agricoles par exemple) peut parfois se révéler nécessaire : en amont, en raison de la création d’une étendue d’eau, et en aval, en raison de l’assèchement de certaines zones limitrophes au cours d’eau.

Par ailleurs, les grands et moyens barrages coûtent très cher : les gouvernements cherchent de plus en plus à faire appel à des fonds privés ou aux grands organismes internationaux comme la Banque mondiale pour les financer. Mais jugés trop longs à amortir et rentabiliser, les projets hydroélectriques peinent à convaincre les investisseurs.

L’avenir de l’hydroélectricité dépend donc, pour une bonne part, de la force de persuasion des États et de potentiels accords public / privé.

La géothermie exploite la chaleur de la Terre pour produire du chauffage ou de l’électricité. Écologique, mais encore peu exploitée, elle pourrait représenter une piste intéressante pour le développement durable des énergies.

Plus on descend en profondeur dans la croûte terrestre, plus la roche est chaude. La géothermie est l’utilisation par l’homme de cette chaleur pour produire de l’énergie.

Les ressources mondiales en géothermie haute température (production d’électricité) se concentrent dans un nombre limité de pays, autour des zones volcaniques actives du globe. Elles sont surtout localisées en Asie, dans les îles du Pacifique, en Afrique de l’Est et des Grands Lacs, en Amérique du Nord, dans les Pays Andins de l’Amérique du Sud, en Amérique Centrale et aux Caraïbes. Au total, une vingtaine de pays dans le monde produisent de l’électricité géothermique, pour une puissance d’environ 10 926 MW. Celle-ci joue un rôle essentiel dans certains pays comme les Philippines, où elle représente 17 % de l’électricité produite, ou l’Islande (30 %).1 On prévoit pour 2020 un quasi doublement de la puissance mondiale installée.2

Pour la production de chaleur (géothermie basse énergie) la puissance installée est estimée à 27 000 MW. En 2005, plus de 70 pays déclaraient utiliser la géothermie pour produire de la chaleur, notamment le Japon, la Chine, l’Islande, les États-Unis et les pays d’Europe (2 500 MW)

Toutefois, le potentiel géothermique de la planète reste largement sous-exploité, en particulier dans de nombreux pays en développement. Mais dans ce cas, comme souvent pour les énergies renouvelables, le frein au développement est le manque de capitaux. Un puits géothermique coûte cher ; son étude préliminaire, son exploitation et sa surveillance nécessitent du personnel compétent et bien formé. Les pays en développement restent pour la plupart dépendants d’une aide extérieure…

En outre, la disponibilité de l’énergie géothermique est limitée géographiquement. Le transport de la chaleur sur de longues distances génère en effet d’importantes pertes thermiques. Il en résulte une difficulté à faire correspondre lieux de production et lieux de consommation pour couvrir les besoins en énergie.

 

Par Pierre Thouverez

Sources : planète énergie, CNRS, RTflash, L’expansion

News Environnement : mars 2013

NucAdvisor, l’exemple unique d’une jeune start-up du secteur nucléaire

Même si cela reste une aventure parfois difficile, créer une start-up n’étonne plus vraiment personne aujourd’hui. Pour autant, quand ce sont d’anciens grands patrons de l’industrie et de la recherche qui décident de ne pas opter pour une retraite paisible mais de sauter le pas, qui plus est dans un secteur comme le nucléaire, on ne peut qu’être surpris. Aujourd’hui, après quatre années d’existence, ponctuées d’obstacles, classiques pour une start-up, mais aussi traversées par des événements majeurs comme le Printemps arabe et la catastrophe de Fukushima, la petite entreprise NucAdvisor, que préside Alain Bugat, ancien Administrateur Général du CEA, a acquis une solide image dans ce petit monde très fermé du nucléaire. Retour sur l’émergence et le développement de cette expérience originale.

« Je voulais vivre une expérience nouvelle. J’ai toujours rêvé de créer une entreprise », rappelle d’emblée Alain Bugat. Durant les dernières années de sa vie professionnelle comme Administrateur Général du CEA, plusieurs voyages effectués en compagnie notamment des Présidents Jacques Chirac et Nicolas Sarkozy dans de nombreux pays où le nucléaire est présent, afin de promouvoir la technologie française dans ce domaine, l’amène a se rendre compte, comme aux Emirats, que la France arrive trop tard. « Les Américains et, plus généralement, les Anglo-Saxons disposent de sociétés de conseil en ingénierie positionnées très en amont des opérations industrielles de ventes de réacteurs ce qui leur permet d’influence les orientations stratégiques et, ultérieurement, d’imposer leurs approches, leurs standards et leurs produits », résume-t-il. Or à l’époque, la France ne possède pas de structure équivalente. C’est dans ce contexte que Alain Bugat décide en 2008 de créer « aux forceps », comme il tient à la souligner, l’Agence France Nucléaire International (AFNI). Mais cette structure ne répondant pas vraiment aux problèmes auxquels est confrontée l’industrie nucléaire française, celui-ci, une fois en retraite, franchit une nouvelle étape en créant, avec quelques partenaires comme Dominique Vignon, l’ancien président du groupe Framatome, une start-up baptisée « NucAdvisor » au capital de laquelle entre Ingérop. « Pour être crédible, il fallait nous appuyer sur un groupe industriel », précise-t-il.

Après 18 mois de prospection commerciale au cours desquels 36 pays sont visités, les responsables de NucAdvisor, dont l’unique mission est alors l’assistance à maîtrise d’ouvrage pour les pays étrangers souhaitant s’engager dans le nucléaire, disposent alors d’une cartographie relativement précise des pays intéressés. En cette fin des années 2000, on parle d’une renaissance de l’énergie nucléaire dans le monde. Tunisie, Libye, Koweit, Lituanie … NucAdvisor enregistre ses premières « touches » sérieuses. Mais l’échelle de temps de l’industrie nucléaire est longue ce qui est quasiment « invivable » pour une start-up. Et avant même qu’explose le Printemps arabe et survienne la catastrophe de Fukushima, les créateurs de la start-up ont pris la décision de recentrer le tir en ouvrant une seconde activité de conseil au sein de l’entreprise qui s’adresse cette fois-ci à des clients déjà présents sur le marché du nucléaire. Une activité qui démarre bien mais va rapidement subir les effets des soubresauts dans les pays arabes et de la catastrophe au Japon. « Nous avons alors perdu plusieurs contrats. D’où un nouveau ralentissement de nos activités », se rappelle Alain Bugat qui compare ces moments à la traversée d’une tempête.

Depuis quelques mois, des frémissements sont perceptibles selon le président de NucAdvisor. Ainsi l’entreprise a fini par signer un contrat avec la Jordanie où elle assiste l’organisation atomique de ce pays dans le cadre de la construction d’un réacteur de recherche par les Coréens. Parallèlement, la jeune entreprise française a répondu a différents appels d’offres, en particulier au Kenya, où il s’agit de conseiller le gouvernement de ce pays pour le démarrage d’un programme nucléaire, mais aussi en Afrique du Sud, où là encore, il s’agit de conseiller le gouvernement sud-africain à propos de la gouvernance de leur programme, mais aussi sur la façon d’attirer des investisseurs financiers et d’organiser la sélection des technologies. « Nous venons justement d’être sélectionné par l’Afrique du Sud, pour une mission de six semaines », se réjouit Alain Bugat qui ajoute : « C’est le signe d’un redémarrage, d’autant plus que nous attendons également des résultats de la Banque Européenne de Développement et de la Banque Européenne d’Investissement ». Dans la foulée, NucAdvisor ouvre une troisième activité centrée sur l’assistance à maîtrise d’ouvrage sur les programmes de démantèlement.

Aujourd’hui, NucAdvisor dispose d’une équipe permanente de 4 personnes et de dix experts-partenaires actifs et s’appuie sur une soixantaine d’experts associés. « L’aventure se poursuit, même si la mise en place a été plus longue que prévue », reconnaît son président. Pour Alain Bugat, le principal atout de cette entreprise est de « proposer une expertise collective » et de couvrir toute l’étendue du spectre, depuis les aspects financiers, réglementaires, internationaux, politiques, jusqu’aux aspects plus techniques du cycle et du réacteur. Or en cela, NucAdvisor peut se targuer de ne pas avoir d’équivalent dans le monde. Seul handicap de cette start-up, mais peut-on parler d’un handicap, le fait que l’industrie nucléaire française soit considérée comme la meilleure du monde. « Dans ces conditions, les acteurs anglo-saxons du secteur ont tendance à nous considérer, bien à tort, comme des french cookies », déclare Alain Bugat non sans une pointe d’ironie. D’où le travail, en termes d’image de l’entreprise réalisé avec succès, en particulier auprès de Westinghouse, qui a fini par lui transmettre des éléments sur l’AP1000, « afin que nous puissions avoir une bonne connaissance technique de leur produit », se félicite-t-il.

Source : bulletins électroniques

Désinvestir : le modèle anti-apartheid appliqué à l’industrie des énergies fossiles

A travers le pays, des centaines d’étudiants participent à une campagne « Divest for Our Future » pour que leurs universités cessent d’investir des fonds dans les entreprises liées aux énergies fossiles. Cette initiative s’inspire de la campagne menée dans les années 80 contre l’apartheid en Afrique du Sud. Près de 156 universités avaient alors cessé d’investir dans des entreprises ayant des activités dans ce pays. Une campagne similaire a eu lieu dans les années 90 contre l’industrie du tabac. La campagne « Divest for Our Future », lancée par le mouvement 350.org et plusieurs autres organisations, vise à affaiblir le pouvoir économique et politique (à travers les activités de lobbying) des compagnies liées aux énergies fossiles.

Après un tour dans 21 villes au cours des derniers mois pour encourager ce projet et sensibiliser la population aux enjeux du réchauffement climatique, Bill McKibben, fondateur de 350.org, estime que des mobilisations en faveur du « divestment » sont en train d’être organisées dans 256 universités. Comme il l’expliquait dans un article paru dans Rolling Stone au mois de juillet dernier « Global Warming’s Terrifying New Math », il faudrait se tenir en deçà de 565 gigatonnes de dioxyde de carbone supplémentaires pour éviter un réchauffement supérieur à 2°C. Or, cela représente un cinquième des réserves actuelles d’énergies fossiles et les entreprises pétrolières et gazières cherchent constamment de nouvelles ressources. Il estime donc qu’il est nécessaire et urgent de limiter la production et la consommation d’énergies fossiles. L’ancien vice-président américain Al-Gore, fortement engagé dans la lutte contre le changement climatique depuis plusieurs années, a apporté son soutien à cette initiative.

Les défenseurs de la campagne expliquent que les universités sont investies d’une responsabilité particulière pour la lutte contre le réchauffement climatique et doivent donc veiller à l’éthique de leurs investissements. Ils avancent plusieurs raisons pour cela. Tout d’abord, c’est dans les universités et leurs laboratoires qu’ont eu lieu les avancées scientifiques permettant de mieux comprendre la réalité du réchauffement climatique et ses impacts. Les universités ont toujours eu un rôle important dans la diffusion des connaissances.

Des efforts ont d’ailleurs été faits au cours des dernières années dans un grand nombre d’universités américaines pour pendre en compte ces nouveaux enjeux dans leurs formations et la gestion de leur campus. Ce sont 665 présidents d’universités qui ont déjà signé le « President’s Climate Commitment » par lequel ils s’engagent à prendre des mesures pour rendre leur curriculum et leur campus plus durables (et même neutres en carbone). Pour les étudiants, professeurs et anciens étudiants qui portent cette campagne, il est maintenant nécessaire que les universités traduisent également cette préoccupation dans leur politique d’investissement. Les fonds des universités ne sont pas négligeables. Une étude menée par le journal USA Today l’an dernier a montré qu’ils représentaient une somme totale de 400 milliards de dollars. A titre d’exemple, Middlebury College, une petite université de 2 500 étudiants qui a été la première à dévoiler la répartition de ses investissements, a investi 3,6% de ses fonds de dotation (qui s’élèvent à 900 millions de dollars), soit 32 millions de dollars investis dans des industries liées aux énergies fossiles.

Ils évoquent aussi la responsabilité des universités vis-à-vis de leurs étudiants qui, compte tenu des frais d’inscription très élevés contribuent aux fonds des universités. Or ceux-ci seront les premiers à souffrir des conséquences du réchauffement climatique. Les promoteurs de la campagne estiment qu’une modification des portefeuilles d’investissements des universités ne devrait pas entraîner de pertes. Ils ne demandent pas une interruption brutale mais un gel et un désengagement progressif des investissements liés à l’industrie des énergies fossiles en 5 ans. Ils ont pour cela établi une liste de 200 entreprises liées à l’industrie du charbon, du pétrole ou du gaz. Les organisateurs de la campagne considèrent d’ailleurs que ces sommes seraient bien plus rentables si elles étaient investies dans des projets d’efficacité énergétique sur les campus, qui assurent de forts taux de retour sur investissement et comportent peu de risque. Un récent rapport estime le taux moyen annuel de retour sur investissement de tels projets à 30%.

Plusieurs succès ont déjà été enregistrés. Hampshire College, dans le Massachusetts a été la première université à s’engager à cesser ses investissements dans le domaine des énergies fossiles. Il est intéressant de noter que c’était déjà la première université à interrompre ses investissements dans des entreprises ayant des activités en Afrique du Sud en 1979. Deux autres universités (Unity College dans le Maine et Sterling College dans le Vermont) ont également suivi. Parmi les universités disposant d’un fond de dotation supérieur à un milliard de dollars (qui étaient au nombre de 74 en 2011), aucune n’a pour l’instant accepté de reconsidérer ses investissements. A Harvard (dont le fond de dotation dépasse 31 milliards de dollars), une coalition d’étudiants (Students for a Just and Stable Future) s’est formée pour porter cette revendication et a organisé un vote parmi les étudiants (favorable à 72%) mais elle s’est heurtée à une réponse négative de l’administration : « nous apprécions toujours d’entendre le point de vue de nos étudiants mais Harvard n’envisage pas actuellement de cesser ces investissements dans les entreprises liées aux énergies fossiles » (« We always appreciate hearing from students about their viewpoints, but Harvard is not considering divesting from companies related to fossil fuels »)

Le mouvement rencontre néanmoins un important succès, y compris médiatique. Le sénateur démocrate Sheldon Whitehouse l’a mentionné comme un exemple d’action face à l’inaction du Congrès sur les questions climatiques, le magazine Time  et le New-York Times y ont consacré un article. Il semble également que l’impact de la campagne s’étende au-delà des universités. En décembre dernier, le maire de Seattle, Mike McGinn, a appelé sa ville à adopter des mesures pour que ses fonds de pension (la ville aurait actuellement 17,6 millions de dollars investis dans Chevron et ExxonMobil, ainsi que d’autres plus petites entreprises de pétrole et de gaz) ne soient pas investis pour les énergies fossiles, arguant du fait qu’investir dans ces compagnies était contre-productif pour la ville. Plus les énergies fossiles sont encouragées, plus les émissions de carbone, responsables du réchauffement climatique, augmentent et plus la ville aura à souffrir de ses conséquences, notamment de la montée du niveau des eaux. Début février, une résolution a également été proposée appelant le bureau du système de retraite des employés de San Francisco à cesser les investissements dans les entreprises liées aux armes à feu et aux énergies fossiles (ce qui représenterait 1,9 milliards de dollars) d’ici 5 ans.

Si l’impact global de ce mouvement est pour l’instant difficilement perceptible, sa rapide propagation, dans les universités et au-delà, montre l’importance croissante de la mobilisation au niveau local aux Etats-Unis pour lutter contre le changement climatique.

Source : bulletins électroniques

Un projet européen pour la production industrielle d’hydrogène

Le centre de recherche madrilène IMDEA Materials pilote un nouveau projet européen dédié à la production d’hydrogène : CARINHYPH. Le projet, soutenu par la Commission Européenne dans le cadre du 7ème PCRD, a débuté au 1er janvier pour trois ans. Il réunit des laboratoires, universités et entreprises de 5 pays européens avec un budget de 3,8 M euros. La réunion de lancement du projet a eu lieu à Madrid en février.

L’hydrogène pourrait être la base d’un nouveau système énergétique mondial, remplaçant les énergies fossiles. Cependant, de nombreux obstacles sont à surmonter avant de faire de cela une réalité. Parmi ceux-ci, la production en masse d’hydrogène est le défi le plus important.

La photosynthèse est un processus naturel qui se base sur des réactions chimiques assurant dans les premières étapes la production d’hydrogène. Les chercheurs veulent ainsi mettre au point des matériaux photocatalytiques qui utilisent l’énergie solaire pour entraîner la photolyse des molécules d’eau et produire ainsi l’hydrogène. Dans ce cadre, les nanotechnologies offrent de nouvelles possibilités aux chercheurs.

La maîtrise de nouveaux matériaux et de leurs propriétés permet d’envisager la mise au point de structures multipliant le rendement de production d’hydrogène à partir d’énergie lumineuse par 25 par rapport aux structures utilisées actuellement. En combinant des nanomatériaux carbonés (nanotubes, graphène) avec des oxydes métalliques photoactifs réduits à des tailles nanométriques, les structures produites présenteraient des caractéristiques intéressantes.

Par leurs dimensions nanométriques, elles offriraient une surface extrêmement élevée par rapport à la quantité de matière mise en jeu, augmentant ainsi la surface utile de photolyse de l’eau. Ensuite, les composés carbonés présentent une large bande d’absorption de la lumière par rapport aux matériaux actuels. Enfin, le couplage de différents matériaux assurent une durée de vie plus longue de la séparation de charge nécessaire à la dissociation de la molécule d’eau, laissant plus de temps à la réaction pour se produire. Ces trois propriétés permettent d’améliorer fortement le rendement des réactions chimiques en jeu.

L’objectif du projet européen est de réaliser ces structures nanométriques, d’en démontrer l’efficacité et d’en assurer ensuite une production industrielle. Chaque acteur aura son rôle à jouer que ce soit dans la production des matériaux de base, leur association pour créer la structure finale, l’évaluation de ses capacités et la production des dispositifs de fabrication à l’échelle industrielle. Ce projet est un exemple de l’utilisation de compétences réparties dans différents laboratoires européens afin de parvenir à résoudre des problèmes scientifiques et techniques dont l’utilité pour la société est très grande.

Source : bulletins électroniques

Publié par Pierre THOUVEREZ

« Six photos noircies », ou quand deux scientifiques enquêtent sur l’étrangeté de la nature

Six photos noircies relatent les travaux de deux scientifiques de terrain du XIXème siècle, l’un biologiste et photographe, l’autre médecin et chercheur. Les deux savants ont consacré leur vie à l’étude de l’étrange et de la bizarrerie de la nature humaine et animale, et pour cela, ont arpenté le monde dans les zones les plus insolites de notre planète.

Les deux héros prennent systématiquement six photos, et uniquement six, des créatures ou phénomènes qu’ils découvrent. Au cours de cette enquête scientifique, le surnaturel et l’étrange se confrontent délicieusement au caractère méthodique et organisé des chercheurs.  

Le livre met en avant la curiosité et la soif de découverte de deux scientifiques passionnés par leurs sujets d’étude et que rien ne peut arrêter dans leur exploration de la matière, de l’humain et de la nature.

Vous, chercheurs, ingénieurs et scientifiques de tout poil, savez bien que la réalité révélée par certaines découvertes dépasse parfois l’imagination, et qu’une bonne dose de curiosité et un goût certain pour l’extraordinaire sont indispensables à toute démarche scientifique.

Voilà pourquoi nous vous recommandons ce livre ovni, une expérience aussi poétique que fantastique. 

 

  • Six photos noircies par Jonathan Wable

Illustration de couverture d’Hélène Delprat – 200 pages – 978291-7084-687 – 14 €

Aller sur le site des éditions Attila

Être reconnu par son écran tactile ?

Marre de n’être qu’un doigt parmi tant d’autres pour votre écran tactile ? Une équipe de chercheurs du laboratoire Disney Research – financée par la Walt Disney Company – aurait peut-être trouvé une solution. Son petit nom à l’accent français : « Touché ».

Pour la grande majorité des écrans tactiles, la présence d’un doigt se traduit par de simples modifications d’états liées à leur technologie de fonctionnement : un changement dans un courant électrique, dans les figures d’interférences, ou encore dans les faisceaux de lumière infrarouge modulée. En d’autres termes, les écrans tactiles n’ont guère d’égard pour les propriétaires des doigts qui les manipulent.

Mesurer l’impédance électrique du corps humain

« Touché » se veut différent. Pour reconnaître un utilisateur d’un autre, le joujou de Disney Research envoie de petites séries de courants – inoffensifs à en croire les chercheurs – à travers notre corps afin de sonder notre densité minérale osseuse, notre masse musculaire, notre volume sanguin ou encore la teneur de notre corps en eau.

Ces données seraient selon eux suffisamment discriminantes pour pouvoir différencier deux utilisateurs lambdas.

Les différences physiologiques de tout un chacun se traduisent par des différences d’impédance électrique du corps humain (en quelque sorte « l’opposition » du corps humain au passage du courant), et c’est cette signature capacitive unique que « Touché » serait à même de mesurer.

Reconnaissance de la signature capacitive

L’équipe du laboratoire Disney Research, en collaboration avec la prestigieuse université américaine de Carnegie-Mellon (à Pittsburgh, Pennsylvanie) ainsi qu’avec l’école polytechnique fédérale de Zurich, se propose d’appliquer la reconnaissance de cette signature capacitive à tous les écrans tactiles, comme une alternative complètement innovante à la reconnaissance des empreintes digitales.

Les chercheurs proposent d’aller encore plus loin, en appliquant ce type de reconnaissance à d’autres objets de notre vie quotidienne, tels les poignées de porte, les tiroirs d’un meuble… transformant ainsi notre environnement en un gigantesque – et effrayant ? – espace interactif sécurisé.

Oxyde d’indium-étain

Les capteurs capacitifs présents dans la plupart des écrans tactiles, pavés tactiles, ou encore les écrans à affichage OLED (« Organic Light-Emitting Diode ») utilisent de l’oxyde d’indium-étain (ITO) en guise d’électrode, un matériau présentant le double-avantage d’être transparent tout en ayant une très bonne conductivité électrique.

Le courant est injecté directement dans la couche d’ITO, puis l’impédance du corps de l’utilisateur est mesurée à diverses fréquences. Pourtant, il reste un problème, et de taille : quelle est l’influence de menus changements (déshydratation, don du sang, maladies, régime…) sur cette fameuse signature capacitive ?

Bien qu’aucune annonce officielle de commercialisation n’ait pour le moment été faite, il faudra a priori encore attendre avant d’exister aux yeux de votre écran tactile.

Par Moonzur Rahman

News Informatique : mars 2013

Un logiciel informatique permet de modéliser l’impact d’un tsunami sur différents bâtiments à l’aide de simples PCs

Une équipe de recherche de l’université du Tohoku a développé un logiciel permettant de modéliser l’impact d’un tsunami sur des infrastructures, telles que des centrales électriques, des usines ou des maisons.

Le modèle utilise des données numériques et des animations dans le but de montrer les types de forces subis par les bâtiments dans le cas d’un tsunami, utilisant des voitures et d’autres objets comme projectiles.

La majorité des modèles de simulation se focalise sur la dynamique du tsunami et sur les régions inondées sur des centaines de kilomètres.

Ce nouveau modèle simule l’impact d’un tsunami à une échelle plus locale, incluant les effets d’éléments naturels tels que les arbres arrachés et emportés par la vague. Aussi, à la différence des logiciels classiques s’exécutant sur des superordinateurs, ce nouveau logiciel n’utilise qu’un ordinateur personnel et présente une vision plus localisée de ces impacts.

Ce logiciel de simulation utilise des informations détaillées sur l’environnement côtier comme la position des bâtiments, la densité de voitures ou d’arbres supposément présents sur un lieu.

La simulation prend aussi en compte le fait que la vitesse de la vague peut changer au cours de sa progression en fonction des obstacles rencontrés. Le calcul prend 10 jours et présente le résultat sous la forme d’une animation afin d’avoir une représentation visuelle de la tournure éventuelle des événements.

L’objectif d’un tel logiciel est de rendre accessible ces simulations à des entreprises ou des organisations gouvernementales dans le but de construire des infrastructures plus résistantes.

L’équipe développant ce nouveau logiciel est dirigée par le Professeur Jun Ishimoto en collaboration avec deux compagnies japonaises privées, l’Explosion Research Institute Inc. et l’entreprise Lancemore Co. elle-même spécialisée dans l’analyse de l’intégrité structurelle des infrastructures. Une version commercialisable devrait être disponible à partir de 2016.

Le développement de ce logiciel de simulation fait suite aux événements du 11 mars 2011. En effet, les simulations effectuées avant le 11 mars avaient largement sous-évalué l’impact du tsunami. Les dégâts engendrés ont été jusqu’à 10 fois supérieurs aux prévisions.

 

Les Etats-Unis souhaitent libérer une bande de fréquence d’ondes pour répondre aux exigences de demain (l’Internet des Objets)

Cette semaine, le gouvernement fédéral a renouvelé son souhait de voir naître un réseau WiFi national gratuit.

L’idée n’est pas nouvelle ; elle avait déjà fait du bruit en 2010 lorsque la FCC, Commission Fédérale des Communications, l’équivalent de l’ARCEP aux Etats-Unis, avait annoncé vouloir libérer une partie du spectre dédiée à la télévision en rachetant les licences aux opérateurs télévisuels et en la mettant à disposition de tout un chacun, sans avoir payé une licence.

La relance de ce dossier n’est pas pour plaire à l’industrie des télécoms qui voit ce projet comme un danger pour leur marché représentant plus de 178 milliards de dollars.

En effet, la proposition promeut ainsi les initiatives de réseaux WiFi publics gratuits qui sont déjà en train de se développer dans certains endroits, Google ayant déjà installé des bornes WiFi publiques gratuites près de Manhattan et dans certaines partie de la Silicon Valley. Certaines villes essayent aussi de mettre en place leur propre réseau WiFi gratuit comme on peut en trouver à Denver, Ocean City ou encore Houston.

Les vertus de ces installations sont nombreuses. Elles doivent permettre à toute la population de bénéficier d’un accès gratuit à Internet, en particulier pour les plus pauvres qui n’ont souvent pas les moyens de s’acheter un appareil souvent couteux et d’investir dans un forfait mensuel.

Cette initiative est largement supportée par les géants de l’informatique comme Google ou Microsoft qui considèrent qu’un « service WiFi gratuit pour tous déclencherait une explosion des innovations et des appareils qui profiterait à la plupart des Américains » nous informe le Washington Post.

Le journal nous rappelle qu’en 1985, le gouvernement des Etats-Unis a libérer une bande de fréquences d’ondes qui a été suivi d’une explosion d’innovations sans précédent. « Les babyphones, systèmes d’ouverture automatique de garage et autres microphones sans fil ont été créés. Des millions de maisons ont maintenant leurs propres réseaux sans fil, connectant tablettes, consoles de jeux, appareils éléctroménagers et systèmes de sécurité à Internet ».

Elle répond aussi aux besoins d’interconnections de plus en plus d’objets. De multiples appareils qui n’avaient auparavant aucun besoin de se connecter à Internet proposent maintenant de nouveaux services en les connectant à Internet. Du réfrigérateur à la télévision, en passant par les nouveaux compteurs EDF, les objets proposent de plus en plus de services innovants en accédant à Internet et l’Internet des Objets prend peu à peu forme dans la société.

De l’autre côté, les grandes entreprises télécoms font leur possible pour avorter l’initiative. Certains républicains soulignent la perte de plusieurs milliards de dollars qui seraient revenu à l’Etat dans le cas d’une mise en enchères de cette bande de fréquence comme cela se fait normalement.

La FCC a de même reçu une lettre émanante des grands opérateurs télécoms tels que Verizon, T-Mobile, AT&T, ainsi que des équipementiers comme Intel et Qualcomm, soutenant le fait que les fréquences seront plus bénéfiques pour la société et le déploiement de réseaux en étant vendues sous licence. Des arguments aussi soutenus par Cisco qui pointe du doigt la possibilité d’une interférence de ces ondes avec les autres fréquences d’ondes actuellement utilisés.

Située dans la bande de fréquence appelée UHF [3], la plage de fréquences des ondes ainsi libérer devrait se située entre 470 et 763 MHz. Une fréquence donc plus faible que la bande de 2,4GHz actuellement utilisée par de nombreuses technologies sans fil telles que le Bluetooth ou le WiFi, mais une fréquence proche de celles utilisées par les nouveaux réseaux mobiles 4G.

L’avantage de ces fréquences plus basses est qu’elles ont une portée plus forte et qu’elle peuvent traverser plus facilement les obstacles tels que des murs épais ou certains éléments naturels. Un avantage indéniable si l’on veut mettre à disposition ces fréquences au plus grand nombre.

Cependant, l’EFF (Electronic Frontier Foundation) rappelle qu’en aucun cas il ne s’agit pour la FCC de mettre en place elle-même un réseau WiFi. Le rôle de la FCC est de gérer le projet de libération d’une plage d’ondes qui sera libre et par conséquent utilisable sans licence. Libre aux villes, aux états, aux entreprises, aux particuliers de développer leurs propres réseaux/appareils/applications qui pourront profiter de l’utilisation libre de ces ondes.

C’est ainsi que ces fréquences pourraient très bien être utilisées par le gouvernement dans son projet de réseau haut-débit sans-fil de sécurité. Le gouvernement a d’ailleurs mis en place FirstNet, l’Autorité responsable du réseau d’urgence placé sous la responsabilité du NTIA. Le gouvernement souhaite mettre en place un réseau solide qui pourrait être utilisable en cas d’urgence, alors que les américains font régulièrement face à des interruptions du services Internet lors d’importants phénomènes météorologiques tels que les tempêtes, cyclones, tornades, derechos ou tremblements de terre qui sévissent partout aux Etats-Unis.

Ce réseau serait ainsi utilisable par les secouristes et les services d’urgences et ainsi permettre de sauver plus de vies.

Le projet est encore phase de discussion et la FCC a ouvert la discussion au public avant de prendre sa décision. Les cinq membres de la commission chargée de voter le projet devraient cependant prendre une décision cette année. Il faudra toute fois attendre plusieurs années avant que les utilisateurs puissent bénéficier des retombées de cette initiative. Ce qui est sûr, c’est que le jour où la FCC validera ce projet, le marché des télécoms en sera complètement bouleversé.

A lire aussi dans les bases documentaires :

Le gouvernement fédéral renforce la recherche en sécurité informatique

« Internet des objets » et « Industrie 4.0 » – Ces deux concepts représentent l’interconnexion croissante qui a lieu dans notre vie.

La communication entre appareils et machines, appelée « Internet des objets », se développe de plus en plus en tant que base de fonctionnement de nos sociétés industrielles modernes. Les systèmes intelligents connectés, embarqués à bord des machines et des appareils, permettent que ceux-ci communiquent les uns avec les autres de manière autonome, une fonction qui prend de plus en plus d’importance dans de nombreux domaines, notamment la production industrielle ou la télémédecine.

Ils rendent possible la mise en place de nouvelles fonctionnalités et de nouveaux modèles économiques. Cette interconnexion croissante accroît cependant le risque que ces réseaux soient la proie de cyber-attaques, qui non seulement causent des dommages financiers conséquents, mais mettent aussi en danger le fonctionnement des équipements techniques.

Dans le cadre du quatrième appel à projets du programme commun « Recherche en sécurité informatique » du Ministère fédéral de l’enseignement et de la recherche (BMBF) et du Ministère fédéral de l’intérieur (BMI), trois projets de recherche viennent d’être lancés, dont l’objectif est de développer de nouvelles solutions pour les systèmes embarqués et d’atteindre plus de sécurité à travers de nouvelles méthodes de cryptage pour les transmissions.

A ces projets participent des partenaires de tous horizons : établissements d’enseignement supérieur, organismes de recherche, entreprises. « Grâce au programme commun de recherche en sécurité informatique, nous contribuons à rendre l’Internet plus sûr et plus fiable, et à améliorer la protection des données.

C’est une condition préalable importante pour que l’Allemagne conserve sa position de tête en tant que lieu d’affaires sûr », a déclaré la Ministre fédérale de l’enseignement et de la recherche, Johanna Wanka, lors du lancement des projets.

Les trois projets de recherche financés lors du quatrième appel à projets sont décrits brièvement ci-après :

  • Pour prévenir les attaques sur les ordinateurs industriels de contrôle, le projet « Protection de l’intégrité des systèmes d’exploitation embarqués », coordonné par l’entreprise Wibu-Systems AG de Karlsruhe (Bade-Wurtemberg), développe une architecture matérielle innovante, qui assure un fonctionnement fiable et sûr des systèmes d’exploitation embarqués dans un environnement internet ouvert. Coût du projet : 2,21 millions d’euros.
  • Le projet « Solution de sécurité universellement configurable pour les systèmes cyber-physiques », coordonné par l’Ecole supérieure de Furtwangen (Bade-Wurtemberg) développe une solution de sécurité qui est adaptable à tous les appareils à systèmes embarqués. Pour cela, il vise tout d’abord à reconnaître les tentatives d’attaques et de manipulation. Coût du projet : 1,56 million d’euros.
  • Le projet « Gestion efficiente des clés de chiffrage pour plus de sécurité dans l’Internet des objets » s’interroge sur les questions de sécurité au sein de l’Internet des objets. Pour garantir une sécurité optimale, il vise à développer de nouveaux processus de cryptage des données lors de la transmission radio. Son coordonnateur est l’Institut Fraunhofer Heinrich Hertz de Berlin. Coût du projet : 3,37 millions d’euros.

Les projets s’échelonnent jusqu’au 31 août 2015.

 

Sources : Bulletins électroniques

 

Publié par Iris Trahin

Premiers vols commerciaux en apesanteur

13h. Aéroport de Mérignac. Un airbus A300 décolle avec à son bord 40 privilégiés qui vont goûter aux joies de l’apesanteur, leur corps ne ressentira plus les effets de la gravité terrestre.

L’appareil dans lequel ils viennent d’embarquer est un A300 zero-G de la société Novespace, filiale du CNES,  dédié aux vols paraboliques.

Les passagers vont connaitre à 15 reprises l’expérience de l’apesanteur, état qui durera à chaque fois 22 secondes.  Un temps de 330 secondes en cumulé, soit  5.5 minutes, pour un temps de vol total de 2 heures trente. Ces vols sont baptisés « Air Zero G »

Les vols paraboliques existent depuis longtemps, mais c’est la première fois en Europe qu’ils sont ouverts au public.

Désormais, n’importe quel citoyen pourra goûter à cette sensation si particulière et flotter tel un astronaute dans l’espace. Il faudra quand même débourser 5980€ pour avoir le droit de monter à bord. Ce qui est beaucoup plus abordable que les vols sur le SpaceShipTwo de Virgin Galactic qui emporte ses passagers à 110 km d’altitude pour 6 minutes en apesanteur, le tout pour la modique somme de 200 000 dollars.

Pour découvrir le vol en vidéo :

 

Et pour se laisser tenter : airzerog.fr

 

Par Audrey Loubens, journaliste scientifique

 

La dissonance cognitive, l’ennemie de l’écologisme

Nous pouvons faire un apprentissage direct, lire le rapport du Club de Rome sur les limites de la croissance (1972) ou un des nombreux ouvrages actuels sur la question écologique. Mais nous apprenons aussi par la confrontation avec l’opinion adverse ; par exemple la lecture du livre de Luc Ferry, Le nouvel ordre écologique (1992). Au-delà des outrances de ce philosophe de droite, il fallait y voir à l’époque une des rares présentations en langue française de l’écologie profonde.

En fait, ceux qui se déclarent comme des opposants de l’écologie sont des amis potentiels. La condition du succès des écologistes dépend en effet de leurs capacités à confirmer l’hypothèse suivante : si seulement l’opinion publique savait ce que les écologistes défendent, alors la majorité des gens serait de leur côté. Nous analysons dans ce Biosphere-Info le cas de Pascal Bruckner au travers de son livre, « Le fanatisme de l’apocalypse » : ce qui empêche Pascal de rejoindre le rang des écologistes, c’est le mécanisme de dissonance cognitive. Ce n’est pas une pathologie, simplement un symptôme qui frappe la plupart d’entre nous.

Pascal Bruckner cite à tout va les penseurs de l’écologisme comme Hans Jonas, Arne Naess, Ivan Illich, Jacques Ellul, Yves Cochet, Yves Paccalet, Theodore Kaczynski, Jared Diamond, Harald Welzer, Pierre Rabhi, Rob Hopkins, Colin Beavan, Paul Taylor, etc.

Pourtant son livre, « Le fanatisme de l’apocalypse », ne fait que reprendre les tartes à la crème de l’écoloscepticisme déjà étalées dans des livres aux titres redondants :  « Arrêtons d’avoir peur ! », de Maurice Tubiana, « L’apocalypse n’est pas pour demain » de Bruno Tertrais, « Les prêcheurs de l’apocalypse » de Jean de Kervasdouén, etc. Car Bruckner maîtrise parfaitement tous les éléments de langage que propagent les écolosceptiques. Il est anti-malthusien, climato-sceptique, contre l’interdiction du DDT, et bien sûr pro-OGM et pro-nucléaire. Il écrit : « Benoît Rittaud appelle la climatologie la climatomancie : art divinatoire visant à déduire du comportement humain l’avenir climatique de la terre, dans l’idée de prescrire à chacun des attisons de pénitence…

Après tout, le climat de la Riviera en Bretagne, des vignes au bord de la Tamise, des palmiers en Suède, qui s’en plaindrait ?

La prohibition du DDT a provoqué une recrudescence du paludisme dans le Sud, c’est-à-dire des millions de morts… Comment savoir si l’interdiction des OGM, dans un contexte de baisse mondiale des rendements agricoles, ne sera pas au final criminelle et ne condamnera pas à la sous-alimentation des nations entières ?

Il n’est pas sûr que l’atome ait dit son dernier mot, contrairement à ce que proclament ses détracteurs… » Pascal Bruckner souffre donc de dissonance cognitive.

Dans une première partie, nous montrerons que  Pascal Bruckner est carrément anti-écolo. Mais dans une deuxième partie, il paraît évident que Pascal est très au fait de l’urgence écologique. Comportement schizophrène ?

Pour ne pas médicaliser son cas, peaufinons le diagnostic : Bruckner fait preuve de dissonance cognitive.

Le psychosociologue Leon Festinger a appelé ainsi la situation de notre psyché lorsque se mettent à l’habiter deux croyances contradictoires, ce qui entraîne un malaise profond. De ce sentiment d’inconfort, nous tendons inconsciemment vers un état dans lequel cette tension puisse être résolue.

Que fait la conscience ? Ou bien elle intègre les informations nouvelles et veille à en tirer les conséquences ; Bruckner pourrait agir comme un écolo puisqu’il en a les connaissances. Ou bien la conscience refoule ces informations et trouve ainsi le moyen d’éviter d’y penser. Comme beaucoup d’entre nous, Bruckner choisit la voie du moindre effort. Il attaque les écolos pour se dédouaner de sa soumission au système techno-industriel.

Un anti-écolo, Pascal Bruckner

Pascal Bruckner accompagne systématiquement ses considérations objective sur l’écologie (partie suivante) par des commentaires à la fois désobligeants et bien dans l’air du temps.

Par exemple : « Nouer un pacte de courtoisie avec les éléments ? demande Michel Serres. Essayez donc la courtoise avec un tsunami ! » Ou bien : « Célébrer le chatoiement du monde, la mousseline des nuages, l’incroyable profusion des vies minuscules ne veut pas dire renoncer à toute action industrielle ou agricole. Nous continuerons à édifier des villes, nous ne cesserons pas de construire des barrages, de creuser des galeries de mines… »

Voici un florilège de ses accusations gratuites de l’écologie tout au cours de son livre:

  • Il n’est pas surprenant que l’apogée du film d’horreur soit contemporain de l’émergence de l’écologie depuis trente ans.
  • L’exhibition de l’horrible finit par engendrer une certaine accoutumance, on voudrait nos alarmer, on ne réussit qu’à nous désarmer.
  • Qui aurait pu prévoir il y a trente ans le formidable décollage indien, chinois… Mais pour les écologistes ce miracle est une calamité.
  • Tout immoler à cet ectoplasme conceptuel de « générations futures », c’est s’acheter une conscience à bas prix, fermer les yeux sur les scandales actuels.
  • L’écologie est la philosophie du crépuscule, du blafard.
  • A quoi reconnaît-on un écologiste ? A ce qu’il est contre tout, le charbon, le gaz de schiste, l’éthanol, le pétrole, le nucléaire, le TGV, l’avion… Comme la poupée de la chanson de Polnareff, il dit toujours non et non.
  • Les écologistes, tout à leur science-fiction éthique, se soucient plus de nos méfaits éventuels que des injustices présentes.
  • Un slogan fait fureur chez les néo-puritains verts : la simplicité volontaire. Il faut aimer l’indigence, la chérir comme notre bien le plus précieux.
  • Pour nos Robespierre de la bougie, il faudra donc renoncer au luxe, au consumérisme, aux voyages exotiques pour contribuer de manière infime mais décisive à la bonne marche de l’univers.
  • Ici triomphe l’usage de l’oxymore : la frugalité heureuse, l’abondance frugale et pourquoi pas « la misère riante » et la « famine sympa » ?
  • Le projet (de Serge Latouche) est autoritaire : il faut imposer la gêne matérielle, voire le retour à la bougie et à la traction animale et les présenter comme une avancée inouïe de l’espèce humaine.
  • Les liens de l’écologie et du fascisme ont souvent été soulignés et mériteraient une étude spécifique.
  • Les amis de la terre ont été trop longtemps les ennemis de l’humanité.
  • Ne prévoit-on pas de distribuer des tickets de rationnement climatique qui pénaliseraient les personnes coupables d’avoir dépassé leur bilan carbone ? C’est là que l’aimable verbiage de quelques originaux pourrait tourner facilement au fascisme si, par malheur, ils arrivaient au pouvoir.
  • Voitures, portables, écrans sont à tous égards non des gadgets, mais des agrandissements de nous-mêmes.
  • Rien ne serait plus triste que des objets increvables qui nous priveraient de la frénésie d’achat, nous épargneraient la séduction folle de la nouveauté.
  • Il faut accéder à l’abondance pour en combattre les maux. Le meilleur remède contre la dégradation de l’environnement, c’est l’enrichissement matériel du plus grand nombre, c’est l’industrialisation à marche forcée.
  • C’est à repousser les frontières de l’impossible qu’il faut travailler, jet hypersonique qui volera dans la stratosphère, fusion de l’hydrogène, mini-centrales nucléaires sous-marines, etc.
  • La vie continue. C’est cet énoncé banal qui faut opposer à tous les prophètes de malheur.

Pascal Bruckner, l’éloge de l’écologie

Seule force originale du demi-siècle écoulé, l’écologie, c’est son mérite, a remis en cause les finalités du progrès, posé la question des limites. Elle a réveillé notre sensibilité à la nature, souligné les effets du dérèglement climatique, constaté l’épuisement des ressources fossiles. Elle est devenue l’humeur dominante de ce début de siècle.

L’écologie est devenue une idéologie globale qui couvre l’intégralité de l’existence, les modes de production autant que les manières de vivre. En effet, notre vie quotidienne provoque chaque jour d’effroyables dégâts. Se soucier de son confort égoïste peut tuer autant qu’un meurtre prémédité.

Manger, se loger, voyager fait de nous des assassins en puissance dont les actes les plus anodins ont des répercussions incalculables. L’appétit du superflu est à la fois diabolique et médiocre ; outre qu’il engendre une abondance factice, il suscite l’envie du plus grand nombre qui s’efforce de rattraper en vain l’aisance des plus prospères. Des millions d’individus sont saisis par le démon de la rapacité. Quant à la viande, elle entraîne dans sa production intensive déforestation, ruine des sols, maintien de centaines de millions de têtes de bétail dont les gaz intestinaux contribuent à l’effet de serre.

Forêts tronçonnées, montagnes éventrées, animaux décimés, océans pollués, mégapoles invivables, notre époque est en pleine faillite, son naufrage ne laisse aucune place au doute. Au-delà d’un certain seuil critique, les systèmes les plus performants basculent dans des configurations hautement indésirables et se retournent contre leurs utilisateurs. Des conquêtes irréfutables, l’éradication d’un certain nombre de maladies, sont remises en cause par le retour d’anciens virus ou bacilles plus agressifs sans compter l’apparition de nouvelles souches ultra-résistantes face auxquelles les antibiotiques n’agissent plus.D’où le  caractère potentiellement tragique de toute innovation.

En voulant se libérer des contraintes naturelles, l’homme s’est soumis au joug d’un nouveau maître, les machines. Une domination technique inouïe va de pair avec l’impossibilité d’endiguer cette même puissance. L’homme est un démiurge pathétique. Nous nous conduisons en parasites qui détruisent leur hôte en l’envahissant. L’éclipse du meilleur et la persistance du pire : voilà ce que nous vivons. Les hommes se retrouvent dans l’enfer du développement dont ils doivent sortir sous peine de désintégrer leur planète.

Plus la terre se rétrécit et s’unifie sous l’effet des moyens de communications, moins nous en maîtrisons le cours. Les tribus humaines ne cessent de déborder les unes sur les autres, entraînant en retour un violent désir de séparation et de frontières. Mieux vaut pour les pouvoirs publics se tromper par défiance excessive que s’aveugler par crédulité.

On ne pardonnera jamais à un gouvernement de ne pas réagir de manière efficace à une calamité publique. La terre n’est jamais courroucée ou heureuse : elle obéit à ses lois propres qu’il vaut mieux connaître pour ne pas y succomber.

Il y aurait une pensée de type H qui tourne autour de l’homme, anthropocentrique, et une pensée de type non-H, biocentrique voire écosphérique, c’est-à-dire incluant la totalité des êtres vivants. Pourquoi pas ? Rabaisser la morgue de l’homme, ne plus en faire le seigneur du monde mais un habitant parmi d’autres. Des personnes sensibles peuvent plaider la cause des animaux ou des plantes. La valeur du lézard de Komodo, du puma de Floride, c’est leur profonde gratuité. Ils ne « servent » à rien au sens utilitaire du terme, même s’ils protègent à leur façon les écosystèmes et c’est pourquoi ils nous sont précieux. Ils manifestent l’exubérance baroque du vivant, poussant ses créatures dans tous les sens.

Le chef indien Seattle : « L’homme blanc traite sa mère la Terre et son frère le Ciel comme des choses à acheter, piller ou vendre. Son appétit dévorera la Terre et ne laissera derrière lui qu’un désert… Ce n’est pas l’Homme qui a tissé la trame de la vie, il en est seulement un fil. Tout ce qu’il fait à la terre, il le fait à lui-même. » Nous lisons ces lignes le cœur serré : elles résonnent à nos oreilles comme un avertissement que nous ne voulons pas entendre. Alors que notre culture inonde la planète sous sa trivialité, ne produit que taudis, bidonvilles et dépotoirs, les indigènes du monde entier, dans leur résistance à notre civilisation, ont beaucoup à nous apprendre.

Conclusion

Pour l’instant, Pascal Bruckner fait le lit de l’écofascisme. Il  laisse croire en effet qu’il y a deux écologies, l’une de raison, l’autre de divagation, l’une démocratique, l’autre totalitaire. Or, ces deux écologies ne sont pas simultanées, elles se suivent dans le temps : si la raison ne l’emporte pas, la démesure s’installera.

Si nous n’adoptons pas dès maintenant un comportement écologique (avoir le sens des limites), demain naîtront des dictatures qui nous feront faire n’importe quoi. Comme Bruckner le constate d’ailleurs, « la culture de la peur a toujours constitué l’instrument favori des dictatures » (p.48). Déjà, ici et là, les populistes font de plus en plus entendre leur voix pour engranger des voix. Pascal Bruckner fait leur jeu en nous incitant à l’inertie : pourquoi adopter un comportement écolo puisque les écolos sont des fanatiques de l’apocalypse ?!

Si les écrits de Pascal Bruckner et consorts sont dangereux pour la démocratie, la personne de Bruckner mérite la considération. On ne naît pas écolo, on le devient ; chacun de nous peut prendre conscience.

En 2007, Pascal Bruckner s’était amusé de la fascination ambiguë que Nicolas Sarkozy exerçait alors sur les intellectuels de gauche, lui compris. Cinq ans plus tard, il faisait partie du comité de soutien de François Hollande. Pascal Bruckner a changé au niveau politique. Il peut changer face à l’urgence écologique. Il faut miser sur l’intelligence des personnes, pas faire de fixation sur leurs errements passagers.

Source : biosphere.ouvaton.org

Revue du web #41 : les vidéos de la semaine

Cette semaine dans la revue du Web :

  • « Triple E », le plus grand bateau au monde, dans un time-lapse de 76 secondes ; 
  • « SpaceTop », interface 3D pour écran transparent ; 
  • Le retour de « Big Dog », plus mécontent que jamais ; 
  • Plaisir des yeux : faire geler une bulle de savon ; 
  • Le gadget (inutile ?) de la semaine : se débarrasser de la crème d’un Oreo ; 
  • Bonus : photo de l’éruption du volcan Sachyrev, vue depuis l’ISS.

 

 

« Triple E », le plus grand bateau au monde en 76 secondes

Débutons cette quarante-et-unième revue du web avec une vidéo en time-lapse pour le moins bluffante, illustrant en 76 secondes et 50 000 images les trois mois nécessaires à la construction du plus grand bateau au monde, appartenant à la classe dite « Triple-E » du constructeur danois Maersk, le plus grand armateur de porte conteneurs (au monde, lui aussi). Ce géant des mers, construit en Corée du Sud et prévu pour naviguer au début de l’année prochaine, dispose de mensurations hors-normes : une longueur de près de 400 mètres, pour une largeur maximale de 59 mètres et une capacité de 18 000 EVP (« équivalent vingt pieds », une unité approximative de mesure de conteneurs).

Après son inauguration à la fin du mois de juin, le Triple-E arpentera les routes commerciales reliant l’Europe et l’Asie, et aura un rayon d’action bien spécifique du fait de sa taille inhabituelle… et de son tirant d’eau. Le tirant d’eau de ces super-bateaux, atteignant les 14,5 mètres, ne leur permettra pas de traverser le canal de Suez (8 mètres de profondeur), ni d’être utilisé dans la grande majorité des ports du continent américain.

 

 

« SpaceTop », interface 3D pour écran transparent

Continuons avec un prototype sorti tout droit d’un laboratoire de recherche du MIT, dévoilé lors du TED 2013 (Technology, Entertainment & Design), l’une des rencontres les plus importantes se tenant chaque année à Monterey, en Californie, et dont la principale vocation serait d’être un « propagateur d’idées ».

« SpaceTop » est une interface tridimensionnelle pour écran LED transparent, qui se propose de fusionner les interactions 2D et 3D en un seul et unique espace de travail. Les fonctionnalités d’une interface traditionnelle sont élargies à l’aide d’une technologie réellement interactive, ainsi que par de nouvelles techniques de visualisation rendant le passage de la 2D à la 3D fluide et homogène. 

L’utilisateur de « SpaceTop » peut se servir de son clavier, cliquer ou dessiner en 2D, mais il peut aussi manipuler des objets évoluant dans l’espace 3D au-dessus du clavier et c’est là tout l’intérêt du dispositif. Le passage d’un mode à l’autre est relativement simple, mais il est également possible de se servir de ses deux mains pour utiliser la 2D et la 3D en simultané. Deux caméras permettent d’accomplir cette prouesse : la première détecte la position des mains ainsi que les mouvements qui seront traduits en informations et en commandes, alors que la seconde caméra s’occupe de la position du visage afin d’ajuster au mieux l’affichage et la perspective. La grande réussite de cette interface – encore au stade du prototype – est son utilisation intuitive, un bel exemple d’espace de travail hybride et de réalité augmentée.

Le petit groupe de chercheurs à l’origine de « SpaceTop » travaille au Massachusetts Institute of Technology et est affilié au géant américain Microsoft par l’intermédiaire de l’un des laboratoires du MIT Media Lab.

 

 

« Big Dog » est de retour, et il n’est pas content…

Big Dog, mule-robot qui fait les beaux jours de la prestigieuse et prolifique société américaine Boston Dynamics, nous revient plus terrifiante que jamais, avec une nouvelle fonctionnalité à son actif. Big Dog est désormais doté d’un bras articulé qui lui permet d’envoyer valser les parpaings, comme si ce n’étaient rien de plus que de simples blocs de polystyrène. Comme un lanceur de poids professionnel, le quadrupède se sert à la fois de ses jambes et de son « torse » pour donner force et vitesse au lancer.

Big Dog est une mule-robot quadrupède, ayant plus ou moins l’allure d’un gros chien trapu, développé par la Boston Dynamics en collaboration avec le fabricant de robots à usage militaire Foster-Miller, le Jet Propulsion Laboratory (coanimé par la NASA), la Harvard University Concord Field Station et financé par la DARPA (Defense Advanced Research Projects Agency), agence affiliée au Département de la Défense américain, et chargée de la recherche et du développement des nouvelles technologies destinées à des fins militaires.

Big Dog a été conçu dans un but bien précis : transporter du matériel militaire sur des terrains impraticables pour des véhicules traditionnels sur roues, à l’aide d’un moteur deux temps à un cylindre activant les quatre pattes de la mule. Le moteur entraine une pompe hydraulique qui, à son tour, entraine les quatre actionneurs de chaque jambe, à raison de deux pour la hanche, une pour l’articulation du genou et une au niveau de la cheville. Le bon fonctionnement de chacun des actionneurs est assuré par un cylindre hydraulique, un servo-distributeur hydraulique, un capteur de position ainsi qu’un capteur de force.

Le poulain de la Boston Dynamics, en constante évolution, a d’ores et déjà essuyé le feu du conflit afghan.

 

 

Plaisir des yeux : faire geler une bulle de savon

Un passe-temps en Suède, par -22 degrés Celsius ? Un internaute a trouvé une solution, au charme désuet et poétique : faire geler de simples bulles de savon. Une bulle de savon est un ensemble à la stabilité relative, composé d’une paroi d’eau à laquelle se sont fixées les phospholipides du savon. La bulle de savon est un ensemble extrêmement fragile puisqu’elle elle n’est composée que d’une seule molécule de savon d’épaisseur (on dit alors qu’elle est monomoléculaire).

Dans les deux vidéos postées par notre internaute suédois, on peut voir que les bulles de savon se parent d’un magnifique ornement… avant qu’il ne menace définitivement la stabilité de celles-ci.

 

Le gadget (inutile ?) de la semaine : se débarrasser de la crème d’un Oreo

Pour conclure cette quarante-et-unième revue du web, penchons-nous sur le cas de David Neevel, artiste et inventeur farfelu qui fait des pieds et des mains pour parvenir à résoudre un problème d’une importance capitale : réussir à tirer le meilleur d’un Oreo afin de satisfaire les préférences et les maniérismes de tout un chacun. Les amoureux de la crème d’un côté, ceux des deux biscuits de l’autre, clivage ô combien intemporel.

Oreo, célèbre biscuit en sandwich produit par la marque américaine Nabisco, se compose donc dans sa forme la plus courante d’une garniture blanche – appelée crème – coincée entre deux biscuits ronds au chocolat. Le problème, c’est que David Neevel n’aime pas la crème, et se contente généralement (lorsqu’il en a le courage) de manger les biscuits et de se débarrasser de la crème. Plutôt que d’adopter un comportement sensé et arrêter d’acheter les fameux biscuits-sandwichs, notre ami artiste se met au travail, une idée en tête : construire une machine capable de débarrasser les deux biscuits de cette satanée crème qui lui gâte tant son plaisir.

Le résultat, présenté dans la vidéo ci-dessous, pourrait nous rappeler vaguement une machine de Rube Goldberg simplifiée (installation ayant pour leitmotiv la transformation d’une tâche excessivement simple en une série de tâches complexes, impliquant le plus souvent une réaction en chaîne). Mission accomplie pour David Neevel… et pour Oreo qui, pas loin derrière et bien évidemment à l’origine de la vidéo, s’offre ici un coup de pub à peu de frais.

 

Bonus : photo de l’éruption du volcan Sachyrev, vue depuis l’ISS

En bonus cette semaine, une photo et une vidéo saisissantes de l’éruption du volcan Sachyrev (au mois de juin 2009) vues… depuis la Station Spatiale Internationale (ISS). Les astronautes à bord  de l’ISS ont en effet pu jouir d’un point de vue exceptionnel sur l’éruption, qui a eu lieu il y a de cela près de quatre ans déjà. Le Sachyrev est l’un des volcans les plus actifs des iles Kouriles,  un archipel d’iles volcaniques formant une ligne discontinue de près de 1200 kilomètres reliant la pointe sud du Kamtchatka à l’extrême nord du Japon. Pomme de discorde entre la Russie et le Japon depuis quelques siècles, l’archipel volcanique – qui comprend une centaine de volcans dont plus d’une quarantaine seraient actifs – appartient au géant russe depuis la fin de la seconde guerre mondiale.

La photo et la courte vidéo ont été réalisées le 12 juin 2009 par l’un des astronautes de l’ISS, et montrent un impressionnant panache de cendres et de fumée, qui a pu atteindre jusqu’à plus de 12000 mètres d’altitude, une broutille pour l’ISS qui évolue à une altitude comprise entre 350 et 400 kilomètres. L’observation de l’éruption avait été rendue possible grâce à un trou de forme circulaire apparu dans la couche nuageuse entre la Terre et l’ISS, provoqué selon toute vraisemblance par l’onde de choc causée par l’explosion. L’éruption du 12 juin avait assez fortement perturbé le trafic aérien, d’une grande densité dans la région, et ce durant plusieurs jours.

 

Par Moonzur Rahman

Un avenir pas si lointain

Pas de paradoxe temporel à l’horizon, mais une perception tout ce qu’il y a de plus subjective du temps qui nous sépare d’un évènement.  C’est ce que révèle une étude menée par Eugène Caruso, professeur associé de sciences comportementales de la Booth School of Business de l’université de Chicago publiée  dans Psychological Science. 

Le postulat de base de l’étude est que nous nous croyons plus proches des objets vers lesquels nous nous dirigeons que de ceux desquels nous nous éloignons, alors que nous sommes à égale distance de chacun.

Cette illusion spatiale a-t-elle une influence sur notre perception du temps ?

Eugène Caruso le pense : « « Il nous semble que les experts en psychologie ont négligé un fait important : au quotidien, nous n’évaluons pas le passé et le futur exactement de la même manière ». Une telle influence pourrait être à l’origine d’un phénomène de « Doppler temporel ».

Les scientifiques basés à Chicago ont donc enquêté. Ils ont commencé localement, en interrogeant des étudiants universitaires et des voyageurs en transit dans une gare. 

Les questionnaires ont mis en évidence que les personnes perçoivent effectivement un même intervalle de temps comme plus court quand il sépare de l’avenir que quand il sépare du passé.

Cette observation a été confirmée par une étude en ligne au travers de laquelle les personnes interrogées une semaine avant la Saint Valentin s’en sentaient plus proches que ceux interrogés une semaine après.

Pour gagner en clairvoyance, les équipes d’Eugène Caruso ont réalisé un test  utilisant la réalité virtuelle. Des étudiants étaient immergés dans un espace les plaçant sur une route à deux voies, marchant soit vers une fontaine bouillonnante située au bout de la route, soit marchant à reculons, s’éloignant donc de cette fontaine. Les cobayes devaient ensuite exprimer à quelle distance  leur semblait être une date (trois semaines avant ou trois semaines après).

Finalement, seuls les étudiants qui allaient de l’avant ont déclaré un avenir plus proche que le passé. Ceux en marche arrière n’ont pas signalé de différence.

Il y aurait donc  bien une influence de nos mouvements sur la perception du temps, la notion de direction du temps étant  un concept qui dépasse le simple domaine de la philosophie.

« Cette étude est très importante car l’idée de la distance psychologique est essentielle dans la théorie et la recherche, dans chacun des sous-domaines de la psychologie (sociale, du développement, cognitive, clinique). Cependant, l’hypothèse implicite que la distance avec le passé est la même que celle avec le futur, existe toujours. » déclare Eugène Caruso, précisant « […] qu’il existe chez les personnes une différence systématique des perceptions de la distance avec le passé et avec le futur »

Par Audrey Loubens, journaliste scientifique

 

Découvrez les formations Techniques de l’Ingénieur :

Consacrez plus de temps à l’ingénierie qu’à la résolution de problèmes.

 

Dans le monde de l’industrie, les cycles se réduisent et sont si courts qu’il est impossible d’effectuer les calculs techniques à la main ou à l’aide d’un tableur

 

Nouveauté !   Vous pouvez désormais télécharger une licence gratuite à vie de Mathcad Express.

Téléchargez le logiciel dès maintenant et bénéficiez gratuitement des fonctionnalités suivantes :

  • Une facilité d’utilisation: une notation mathématique en langage naturel, sans besoin de programmation.
  • Algèbre symbolique: manipulez des calculs symboliques et numériques en temps réel.
  • Une prise en charge dynamique des unités: vérification et validation des calculs importants améliorées.
  • Des feuilles de calcul documentées, contenant des calculs, des graphiques (2D/3D), des images et du texte, en vue d’une réutilisation et d’un partage facilités

Cerise sur le gâteau, vous pourrez profiter des fonctionnalités étendues de calcul de Mathcad Prime 2.0 pendant les 30 jours suivant le téléchargement de Mathcad Express!

Au terme de la période d’essai de 30 jours, vous pourrez soit continuer à utiliser les fonctionnalités de base de Mathcad Express pendant une durée illimitée, soit mettre votre logiciel à niveau de manière à profiter de la version intégrale de Mathcad Prime 2.0.

Téléchargez Mathcad Express dès maintenant