NIweek 2013 : résumé du 2 ème keynote

Le second keynote, introduit par Jeff Kodosky, le « père » de LabVIEW, est dédié aux applications utilisateurs.

Après avoir expliqué, exemples à l’appui, les progrès faramineux réalisés via l’utilisation des outils mis à disposition par National Instriuments dans la recherche en neurosciences ou les traitements contre le cancer par exemple, il passe le relai à Mike Santori, NI fellow. 

Ce dernier commence par résumer la philosophie qui guide la conception de l’instrumentation NI : « Le but de l’instrumentation NI est de laisser les ingénieurs et les chercheurs se concentrer sur leur recherche et de faciliter au maximum la conception de leurs systèmes de tests, pour que ces derniers ne soient pas chronophages ».

Ensuite, place donc à la présentation des applications utilisateurs les plus remarquables.

Permettre aux chercheurs et aux ingénieurs de se concentrer sur leurs recherches

Mr Santori invite sur scène Johannes Gutleber (ci-dessous), du CERN, qui travaille sur le Grand Collisioneur de Hadrons. Ses recherches permettent, en marge de la recherche fondamentale, de développer ce qu’on appelle la « thérapie ionique », qui a pour finalité de traiter plus efficacement les cancers, en ciblant plus efficacement les tumeurs : « Les recherches au CERN trouvent des applications notamment pour combattre le cancer. Cela permet de stopper des tumeurs avec des conséquences beaucoup moins invasives, et atteindre des endroits innaccessibles avec les techniques existantes », explique Mr Gutleber.

Utilisant pour ce faire des PXI, CompactRIO, NI FlexRIO et biensûr LabVIEW, ces recherches mobilisent plus de 150 ingénieurs et impliquent pas moins de 35 entreprises.

Le deuxième exemple d’application est à l’oeuvre en Inde, où les températures et le manque de réseau électrique rendent la conservation du lait très difficile. Il faut savoir qu’en moyenne, le lait tiré des vaches a dans ce pays une durée de vie moyenne de cinq heures avant de devenir impropre à la consommation. Sorin Grama (ci-dessous), CEO de l’entreprise Promethean Power, explique la mise au point d’un système optimisé de refroidissement et de stockage du lait.

La batterie thermique est un grand conteneur qui stocke un liquide spécifiquement conçu qui ne gèle pas, même sous le point de congélation. Les gens versent le lait qui vient d’être trait des vaches dans un réservoir ayant la forme d’un cylindre, refroidi par le liquide de la batterie thermique. À mesure que le lait coule dans le cylindre, il est rapidement refroidi à une température appropriée pour son stockage.

Lorsque le réseau électrique n’est pas disponible, la batterie thermique peut fonctionner pendant plusieurs heures sur celle d’une voiture, ce qui évite d’avoir recours aux générateurs diesel polluants. Le système utilise un NI Single-Board RIO pour répondre à sa nécessaire optimisation, étant donné les conditions particulières d’utilisation.

Plus de flexibilité pour plus de productivité

Mike Santori acceuille ensuite Tony Alfonso, ingénieur chez Thales. Il est responsable des test sur les trains londoniens, dans le but d’améliorer la gestion du traffic ferroviaire. Ce genre de test est incroyablement contraignant. Il faut bloquer des voies, mobiliser des dizaines de salariés qui travaillent le week-end pour moins perturber le traffic. Aussi, ces tests sont très longs puisqu’il faut mobilier des trains. Il ne s’agit en rien d’une simulation !

Grâce au CompactRIO et à LabVIEW, les ingénieurs responsables des tests ont pu accompir l’équivalent d’une semaine de test en… 30 minutes ! Les gains sont donc énormes en termes de temps, et bien évidemment en termes d’économies sur les budgets et les hommes. Pour cela, ils ont crée le « Virtual Test Train » (photo ci-dessous), qui n’utilise qu’une voie ferroviaire pour fonctionner et qui simule l’intégralité du trafficvoulu pour ces tests.

Le Big Analog Data, mine d’or pour les ingénieurs

Mike Santori sait quel est l’outil qui produit le plus de data au monde. C’est le Grand Collisioneur de Hadrons, qui génère 40 Terabits (40 000 Gigas) de data par… seconde ! 

La gestion des data et son utilisation en temps réel est un défi depuis plusieurs années. Il ne s’agit plus de collecter le plus de data possible mais de les analyser en temps utile pour les rendre « intelligentes ». A côté du big data, que tout le monde connaît aujourd’hui, le « big analog data » intéresse beacoup plus les ingénieurs, et représente la source de données la plus importante au monde.

Ainsi, le temps, la vidéo, la température , le voltage, la vitesse, les vibrations, les particules, le courant, toutes ces données ne représentent plus un défi en terme de mesure. Par contre, en termes de collecte et d’analyse, le challenge est immense. Surtout en temps réel. 

C’est ce vers quoi veut tendre aujourd’hui National Instruments dans le développement du traitement et de l’analyse des données en temps réel, comme le rappelle Mr Santori : « Il ne s’agit plus de savoir qui peut collecter la plus grande quantité de données, mais plutôt qui peut les interpréter le plus rapidement possible ».

La gestion de l’énergie, un défi nécessaire

Dernier exemple d’application, et pas des moindres, la gestion de l’énergie, de sa production à sa distribution. Invités du keynote, Bernie Cook de Duke Energy et Brian Hollingshaus de l’Electric Power Reaserch Institute sont venus témoigner de leur expérience.

La problématique de la production d’énergie, d’origine renouvelable ou pas, son transfert dans les réseaux, sa distribution et son utilisation par le client final posent des problématiques dont les solutions constituent des clés stratégiques vitales pour les Etats-Unis, et pour chaque pays du monde pour ainsi dire.

Duke Energy, la plus grande société de production et de distribution d’énergie aux Etats-unis, a choisi de revoir la façon dont elle traite ses données. La plupart des générateurs électriques aux Etats-Unis ont plus de 30 ans. Ils sont donc compliqués – et chers – à maintenir. Ainsi, pour récolter et analyser les données de ces générateurs, des ingénieurs se rendaient tous les mois sur les sites pour récupérer les données.

Ces ingénieurs passaient 80 % de leur temps pour la collecte de données et 20 % seulement pour l’analyse de ces données.

Aujourd’hui, l’utilisation des outils NI permet d’avoir les données et d’adapter la production en temps réel. L’utilisation de plus de 2 000 compact rio permettent d’analyser les mesures prises par plus de 30 000 capteurs, à distance et 24h/24. Aujourd’hui, les ingénieurs ne se déplacent plus sur les sites où les générateurs sont installés, et consacrent leur temps plus efficacement à l’analyse des données.

D’autre applications présentées donnent une idée des potentialités liées à l’instrumentation et à la simulation via labVIEW en rapport avec l’internet des objets, comme ce distributeur de boisson imaginé par PEPSI, et qui permet, entre autre, d’offrir une boisson à un collègue à l’autre bout du monde en la payant à distance, où de jouer à des jeux vidéos directement sur le distributeur !

Rendez-vous vendredi 9 août pour le compte-rendu du dernier Keynote de NIWEEK 2013. Déjà !

  • Suivez également NIWEEK 2013 sur Twitter : @Instant_tech

Par Pierre Thouverez

 

A propos de NIWEEK 2013

REACH : l’actualité du mois de juillet (2/2)

Travailler avec des substances dangereuses

L’Agence européenne pour la sécurité et la santé au travail (EU-Osha) a publié sur son site Internet, un nouvel « e-fact » qui fournit des conseils pour aider les travailleurs et les employeurs à comprendre les risques liés aux substances dangereuses. La fiche pratique revient sur les deux règlements européens (REACH et CLP) qui visent à améliorer la communication sur les substances dangereuses sur le lieu de travail. Le document propose une checklist aux travailleurs pour qu’ils s’assurent de leurs connaissances sur le sujet et une autre aux employeurs pour vérifier que l’entreprise informe efficacement ses employés.

Plus d’informations sur : https://osha.europa.eu/en/publications/e-facts/e-fact-75-dangerous-substances-and-successful-workplace-communication/view

L’ECHA publie deux nouveaux documents d’orientation concernant les biocides

16/07/2013

L’ECHA a publié deux nouveaux documents d’orientation concernant les produits biocides. Ces documents d’orientation sont applicables à partir du 1er Septembre 2013, la date d’entrée en application du règlement sur ​​les produits biocides (BPR).

Ces guides sont disponibles sur http://echa.europa.eu/guidance-documents/guidance-on-biocides-legislation

Amélioration des rapports sur la sécurité chimique (REACH) et des fiches de données de sécurité

17/07/2013

L’ECHA a publié une feuille de route pour améliorer la qualité de l’information communiquée dans les scénarios d’exposition figurant dans les rapports sur la sécurité chimique et dans les fiches de données de sécurité étendues (FDSe). Cette feuille de route a été élaborée par l’ECHA en collaboration avec quelques parties intéressées. L’ECHA invite d’autres parties intéressées à se joindre au groupe.

Plus d’information sur : http://echa.europa.eu/view-article/-/journal_content/title/echa-and-stakeholders-set-out-actions-to-improve-chemical-safety-reports-and-safety-data-sheets

La loi Ddadue publiée

17/07/2013

La loi portant diverses dispositions d’adaptation au droit de l’Union européenne dans le domaine du développement durable (Ddadue) a été publiée le 17 juillet au Journal officiel (loi n° 2013-619 du 16/07/2013). Ce texte permet certes de transposer la partie législative de la directive Seveso 3, mais contient également des dispositions susceptibles d’intéresser plus largement l’ensemble des installations classées (ICPE), notamment avec l’entrée en vigueur du règlement CLP.

Cette loi est téléchargeable sur : http://www.legifrance.gouv.fr/affichTexte.do?cidTexte=JORFTEXT000027713399&dateTexte=&categorieLien=id

Substances contenues dans les articles

18/07/2013

Un avis aux opérateurs économiques est paru le 18 juillet 2013 au Journal Officiel Français (JORF n°0165 du 18 juillet 2013),sur l’obligation de communiquer des informations sur les substances contenues dans les articles (art. 7.2 et 33 de REACH).

Cet avis est disponible sur : http://www.legifrance.gouv.fr/affichTexte.do;jsessionid=?cidTexte=JORFTEXT000027722315&dateTexte=&oldAction=rechJO&categorieLien=id

Les substances CMR interdites dans les jouets

20/07/2013

Depuis le 20 juillet 2013, les substances chimiques classées cancérogènes, mutagènes et toxiques pour la reproduction(CMR) sont interdites dans la composition des jouets dans l’Union européenne, conformément à la directive de juin 2009visant à renforcer leur sécurité sanitaireet leur traçabilité. Phtalates,retardateurs de flammes bromés, formaldéhyde ou encore formamide… figurent parmi les substances prohibées. De même, cinquante-cinq allergènes seront interdits d’utilisation.

Directive du 18 juin 2009 : http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:L:2009:170:0001:0037:FR:PDF

L’Efsa fixe les priorités pour l’évaluation des mélanges de substances chimiques

23/07/2013

Les effets des substances chimiques peuvent s’additionner, s’annuler ou encore être augmentés lorsque celles-ci se retrouvent en mélange. L’évaluation des risques chimiques tend à évoluer vers l’approche par groupes de substances. L’autorité européenne de sécurité alimentaire (Efsa) a publié un rapport sur l’évaluation des mélanges chimiques. Elle a passé en revue les approches de différents pays et institutions (Norvège, Etats-Unis, Royaume Uni, OMS et Commission européenne) et défini les priorités futures pour une harmonisation des terminologies et des méthodologies.

Ce rapport est disponible sur : http://www.efsa.europa.eu/en/efsajournal/doc/3313.pdf

Tutoriel vidéo sur la procédure d’autorisation

23/07/2013

L’ECHA propose un tutotriel video “How to prepare and submit an application for authorisaton to ECHA ». Ce tutoriel reprend les étapes pour préparer et soumettre une demande d’autorisation et fournit aussi des conseils concernant REACH-IT et IUCLID.

Ce tutoriel est téléchargeable sur le lien :http://www.youtube.com/watch?v=kaVMi31Kx4w&feature=youtu.be

Utilisez IUCLID pour préparer votre résumé des caractéristiques du produit biocide

24/07/2013

Le générateur de rapports IUCLID aide les déclarants à préparer le résumé des caractéristiques du produit (RCP) pour les demandes d’autorisation de produits biocides. Cet outil prend également en charge la création de rapports sur la sécurité chimique (CSR) dans le cadre de REACH et remplace le plug-in RSE.

Plus d’informations sur : http://echa.europa.eu/view-article/-/journal_content/title/use-iuclid-to-prepare-your-summary-of-biocidal-product-characteristics

Nouvelle consultation pour éviter les tests sur les animaux

19/07/2013

L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. 16 consultations sont lancées. Les informations relatives à ces substances sont à soumettre pour le 2 septembre prochain.

Plus d’information sur : http://echa.europa.eu/information-on-chemicals/testing-proposals/current

Par Céline GABORIAUD NECTOUX, Ingénieur Environnement aux Ateliers d’Orval

 
 

 

 

Pour aller plus loin :

Découvrez les fiches pratiques de Techniques de l’Ingénieur :

Participez aux formations Techniques de l’Ingénieur :

NIweek 2013 : résumé du 1er keynote

Introduit par James Truchard (photo ci-dessous) alias « Docteur T », président et CEO de National Instruments, ce keynote a été l’occasion de revenir en détail sur la révolution présente et à venir que représente l’internet des objets et le big data.

Selon Mr Truchard, « la mise à disposition sur une même plateforme des capacités de contrôle et de mesure, transmises en temps réel, permet de passer à un véritable internet des objet, mais également à un internet de services et de data ».

C’est aujourd’hui vers quoi tend le travail des ingénieurs de National Instruments pour l’amélioration des produits existant et le développement de nouveaux produits.

L’importance, pour les entreprises de construire une plateforme de commande et de mesure reconfigurable est vitale dans un monde ou la capacité de réaction et d’adaptation est un facteur clé de réussite. Et l’entreprise américaine l’a bien compris.

C’est notamment dans cette veine que le nouveau cRIO-9068, présenté plus bas, a été imaginé.

Industrie 4.0, Cyber-physical systems, Internet des objets…

Prenant le relai de Docteur T, Eric Starkloff, vice-président marketing, a d’abord présenté la version 2013 du logiciel de conception de système phare de National Instruments, LabVIEW, dont voici les 4 principales innovations :

  • Le support natif des matériels provenant de fournisseurs comme ARM et Xilinx, y compris le système sur puce ZynQ All Programmable de Xilinx intégré dans les matériels haute performance de National Instruments.

  • Une qualité et une fiabilité accrues pour les applications complexes grâce à une suite d’outils de gestion, de documentation et de révision de code.

  • Des technologies de déploiement rationalisé.

  • La disponibilité de systèmes de tableaux de bord sur les plateformes mobiles de dernière génération pour iOS et Android (et bientôt les google glass), développées pour le contrôle et la surveillance à distance.

 

Créer une plateforme adaptable et reconfigurable pour l’ensemble des systèmes

Parmi toutes les autres nouveautés présentées, on retiendra également le nouveau contrôleur cRIO-9068 (photo ci-dessous). Bien qu’entièrement repensé, il garantit une parfaite compatibilité avec la plate-forme NI CompactRIO existante aussi bien au niveau de NI LabVIEW que des Entrées/Sorties.

Le contrôleur intègre des technologies de pointe telles que le système sur puce totalement programmable Zynq-7020 de Xilinx, qui combine un processeur ARM Cortex-A9 double cœur et un circuit FPGA de la Série 7 de Xilinx.

Enfin, le nouveau système d’exploitation temps réel basé sur Linux, offre une plus grande souplesse pour les développeurs d’applications LabVIEW Real-Time et C/C++.

Pour résumer, le cRIO-9068 illustre la volonté de National Instruments d’offrir à ses clients des temps de développement toujours plus courts, et donc des coûts inhérents au développement moins importants.

Le choix d’un système d’exploitation Linux Real-Time permet quant à lui aux développeurs d’accéder à un vaste ensemble de bibliothèques et d’applications alimenté par la communauté pour développer leurs systèmes de contrôle et de surveillance.

Le VST, un succès commercial

Eric Starkloff est revenu sur le lancement du VST (Vector Signal Transciever), nouveauté phare de l’édition 2013. Le produit est un succès commercial qui a dépassé les attentes de l’entreprise américaine, Mr Starkloff qualifiant le VST comme « le plus grand succès de l’histoire de National Instruments ».

Rendez-vous jeudi 8 août pour le compte-rendu du second Keynote.

  • Suivez également NIWEEK 2013 sur Twitter : @Instant_tech

Par Pierre Thouverez

 

A propos de NIWEEK 2013

Vivez NI WEEK 2013 en direct

Comme chaque année au mois d’août, la NI WEEK organisée par National Instruments se tient à Austin, où se trouve le siège de l’entreprise américaine. L’occasion de faire le point sur les innovations en termes de tests et d’automatisation.

Plus de 3 400 ingénieurs sont présents à Austin pour ce rendez-vous incontournable des professionnels du secteur.

Le premier Keynote se tient aujourd’hui mardi à 15 heures (heure française), et permettra aux nombreux participants de découvrir les nouveaux produits développés par National Instruments, en plus des applications sélectionnées et présentées au public.

Vous pourvez suivre en live cet événement ICI.

Outre la présentation de la nouvelle version de Lab View, des nouveautés seront dévoilées, comme le NI cRIO-9068 ou encore le NI cDAQ-9188XT…

Retrouvez un résumé complet de la première journée demain mercredi, sur la Veille Actualité des Techniques de l’Ingénieur.

Par Pierre Thouverez

La Nasa à la conquête du soleil

Base militaire de Vandenberg, Californie. 7 juin. En fin d’après-midi, un avion Lockheed L-1011 décolle. Cet avion triréacteur porte à son bord une fusée Pegasus XL, larguée à environ 10 000m d’altitude, après un premier passage de vérification des conditions de lancement. La fusée a permis de mettre en orbite polaire à 643 km au-dessus de la Terre le satellite IRIS (Interface Region Imaging Spectrograph). Celui-ci fait 2 mètres de long pour 1.2m de large, avec une envergure de 3.65 mètres une fois ses panneaux solaires déployés.

Equipé d’un télescope ultra-violet, le satellite IRIS va pouvoir prendre des photos  en haute résolution avec des intervalles de temps d’à peine quelques secondes. Ses clichés se concentreront sur la zone de la basse atmosphère du soleil, une région entre la surface et la couronne solaire. Ce cercle lumineux est une zone male connue, visible uniquement lors des éclipses.

Les photos prises par IRIS seront transmises une fois par semaine et accessibles par tous, scientifiques et grand public. Elles devraient permettre de mieux comprendre comment se forment les vents solaires, avec pour objectif final de pouvoir les anticiper et donc prévenir les perturbations engendrées sur les systèmes de communication terrestres. Avec 182 millions de dollars de financement, cela devraient être de très belles photos !

Voir le lancement d’IRIS :

Par Audrey Loubens, journaliste scientifique

Waterloo Labs, deuxième épisode

Dans le domaine de la recherche autour des possibles applications de la Kinect, les chercheurs des Waterloo Labs au Texas ont travaillé et combiné le contrôleur Kinect de Microsoft et un vieil « Ecran Magique » (Etch-a-Sketch) afin de créer un outil unique et original :

Le système permet de contrôler l’Ecran Magique tout simplement en se tenant debout en face de la Kinect, vous permettant d’utiliser un énorme crayon ou tout simplement votre main pour contrôler la Etch-a-Sketch et dessiner !

Démonstration en vidéo :

Publié par P.T

Faire parler les « traces » d’empreintes digitales

Contrairement à ce que laissent présager les séries policières, il est généralement difficile de faire parler les empreintes digitales laissées sur des armes ou d’autres surfaces métalliques. Une nouvelle méthode de détection et de révélation des empreintes digitales utilisant des films fluorescents à couleur variable devrait permettre d’améliorer cette identification. Cette technique a été développée par l’Université de Leicester, l’Institut Laue-Langevin et la source pulsée de neutrons et de muons ISIS.

Sur les scènes de crimes, les assassins essayent d’essuyer leurs empreintes. Ils arrivent généralement à enlever les empreintes visibles mais ont plus de mal à supprimer toutes les traces non visibles à l’œil nu. Ce sont ces empreintes que la police scientifique voudrait pouvoir davantage exploiter. Car il n’est pas aisé de les faire ressortir de façon nette.

Améliorer les techniques existantes

La méthode de révélation la plus répandue repose sur l’application d’une poudre colorée qui va adhérer aux dépôts de sueur et d’huiles naturelles déposées par les extrémités des doigts. Elle crée ainsi un contraste qui révèle l’empreinte digitale. Malheureusement, les empreintes sont dégradées par le temps, les agressions extérieures et les lavages. Ainsi, cette technique ne permet d’identifier clairement que 10 % des empreintes digitales relevées sur les scènes de crimes. Les 90 % restant ne peuvent pas être utilisées devant un tribunal !

Pour ne pas laisser fuir impunément les assassins, la technique devait être améliorée. C’est le travail entrepris par des chercheurs de l’Université de Leicester. Leur principe ? Utiliser les caractéristiques d’isolant électrique des résidus ! La technique consiste à déposer un film polymère électroactif coloré sur des objets métalliques. Comme les résidus agissent comme un écran, le film ne se dépose qu’entre les espaces de résidus, ce qui crée une sorte de négatif de l’empreinte. Une fois déposés, il est possible de les exposer à une tension électrique qui les fait changer de couleur et permet de révéler l’empreinte. Mais il y a encore mieux ! L’équipe a affiné la technique en intégrant dans le film des molécules fluorophores qui réémettent la lumière d’une troisième couleur quand elles sont exposées à la lumière ou à toute autre forme de radiation électromagnétique comme des rayons ultra-violets.

Ainsi, la technique combine électrochimie et fluorescence. Il est possible de jouer à la fois sur l’électricité et la lumière car la tension électrique pour changer la couleur du polymère n’a aucun effet sur les molécules fluorophores. Ces deux leviers renvoyant une couleur différente, il est possible de joueur sur les deux techniques pour améliorer l’image finale de l’empreinte et obtenir le contraste optimal avec la surface métallique.

Cette technique est ultra-sensible et permet d’exploiter les résidus d’empreintes de quelques nanomètres d’épaisseur. La sensibilité de la technique permet donc de faire parler beaucoup plus d’empreintes que les techniques traditionnelles !

« Cette combinaison entre l’analyse par absorption optique et les observations à base de fluorescence élargit considérablement le champ des échantillons d’empreintes analysables, notamment en cas d’érosion due au vieillissement ou à un environnement agressif », estime leProfesseur Robert Hillman, chef du projet à l’Institut Laue-Langevin.

En utilisant cette nouvelle technique sur des empreintes de laboratoire, le Professeur Hillman et son équipe ont déjà démontré une amélioration des identifications formelles due à une meilleure résolution des échantillons. Néanmoins, comme tient à le souligner l’équipe, ces empreintes ont été prises dans des conditions de laboratoire. La prochaine étape consistera à appliquer la méthode à des empreintes digitales exposées à des conditions plus conformes à la réalité : eau, chaleur d’un incendie ou produits de nettoyage.

Par Matthieu Combe, journaliste scientifique

Google, l’incontournable moteur de recherche

100 milliards de recherche. Par mois ! C’est en 2012 que Google franchissait pour la première fois le seuil symbolique du nombre de recherches effectuées sur son moteur de recherche. Inutile de préciser que Google concentre la très grande majorité des recherches, captant 77 % des requêtes tapées par les américains et 90% de celles des français.

Cette domination vaut sur les ordinateurs de bureau mais aussi pour les terminaux mobiles, tablettes et Smartphones. Un quasi monopole que peinent à faire vaciller ses concurrents comme Yahoo ! et Bing. Seuls Baidu en Chine et Yandex en Russie tiennent tête au géant américain avec respectivement 71 % et 60.5% des recherches.

En Occident, même Microsoft échoue à détrôner le roi Google. Ce n’est pas faute d’essayer, notamment en imposant Bing dans ses produits. Mais cela ne suffit pas puisque Bing ne pèse encore que 17 % du marché. Un score qui satisferait bien Yahoo !, en troisième position avec 12 % des recherches aux Etats-Unis.

Mais Yahoo ! a une botte secrète. Il s’agit d’un nouveau moteur de recherche baptisé DuckDuckGo. Celui-ci utilise un mode de fonctionnement opposé à celui de Google puisqu’il ne propose pas de publicité et ne tient pas compte de l’historique de l’internaute. Le choix de la différence semble lui réussir puisqu’il comptabilise déjà 77 millions de recherches.

Alors que la guerre des moteurs de recherche fait rage, un frenchie se lance dans la bataille. Son projet baptisé Qwant devrait être opérationnel dès la rentrée.

Par Audrey Loubens, journaliste scientifique

Bientôt une carte du sous-sol français en 3D

Objectif affiché : doter la France d’une connaissance tridimensionnelle, continue, cohérente et sans cesse actualisée des corps géologiques. Cet ambitieux projet conçu par le Bureau de recherches géologiques et minières (BRGM) peut d’ores et déjà s’appuyer sur la carte géologique du pays à l’échelle 1/50 000. Pour rappel, le programme de la carte géologique avait duré 70 ans, mobilisé 3 000 géologues et coûté environ 300 millions d’euros. Heureusement, le succès était au rendez-vous avec la réalisation de 1060 cartes couvrant la totalité du territoire français. Mais le BRGM veut plus qu’une cartographie 2D et a décidé de créer un système d’information géologique en 3D, le Référentiel géologique de la France.

Pour y arriver, le BRGM va compiler les données de la carte géologiques avec celles de la Banque de données du sous-sol. Ces milliers d’informations hétérogènes seront complétées par des acquisitions de données géophysiques (BSS), et si nécessaire des forages profonds. Ce travail se fera en plusieurs étapes. Tout d’abord la collecte puis la réinterprétation des données issues des cartes géologiques, de la BSS, des forages pétroliers et géothermiques. Puis viendra le moment d’intégrer les données géophysiques, gravimétriques et sismiques. Une fois ces milliers d’informations compilées, le BRGM procédera aux mesures complémentaires nécessaires. Ce n’est qu’une fois la totalité des informations de ces origines multiples intégralement prises en compte que la base de données du référentiel géologique français (RGF) pourra être créée.

Pour avoir une idée de ce de la faisabilité du projet, le BRGM a passé un an et demi à réaliser un démonstrateur en Alsace, le Vosges-Fossé-Rhénan. Dès 2014, c’est la chaine des Pyrénées qui débutera le déploiement officiel du RGF. Cette carte 3D devrait aussi profiter d’une 4ème dimension, le temps. « Nous souhaitons réaliser une carte numérique évènementielle, en intégrant les différents marqueurs géologiques qui se sont succédés dans le temps pour aboutir aux Pyrénées d’aujourd’hui », précise Thierry Baudin, responsable du projet.  Le « temps réel » est une notion qui fait partie intégrante du RGF qui permettra donc de visualiser l’évolution du sous-sol français au cours du temps.

Le RGF sera accessible gratuitement via internet. L’accès à la plateforme permettra aux utilisateurs d’en extraire les données dont ils ont besoins. Car les applications sont multiples : quantifier les ressources en énergie, en gaz, en eau ou encore en matières premières, prévenir le risque sismique, définir des zones de stockage…

Par Audrey Loubens, journaliste scientifique

Les réacteurs nucléaires au thorium : quels avantages ?

Les avantages des réacteurs au thorium sont très nombreux  :

  • le Thorium 232 est plus abondant que l’uranium, on peut l’utiliser à 100% contre quelques pourcents pour l’uranium, et il n’y a pas besoin de l’enrichir.
  • le 232Th étant fertile et non fissile, il ne peut pas produire de réaction en chaîne. Une centrale ne peut pas s’emballer, et elle peut s’arrêter d’elle même en cas de défaut de refroidissement
  • les déchets du 232Th ne sont dangereux que quelques siècles, contre des centaines de milliers d’années pour ceux de l’uranium.
  • les centrales au thorium peuvent « incinérer » les déchets des centrales à uranium, y compris le plutonium.
  • on ne peut pas produire d’armes nucléaires avec une centrale au thorium.

Coté désavantages, en cherchant bien, il y en a quelques uns, mais le principal est : on ne peut pas produire d’armes nucléaires avec une centrale au thorium. Selon Jean-Christophe de Mestral, c’est ce qui a favorisé la filière de l’uranium pendant la guerre froide alors que plusieurs expériences ont démontré la faisabilité et la sécurité des solutions au Thorium. Entre autres :

Le réacteur expérimental de Shippingport aux USA qui a fonctionné comme surgénérateur au Thorium entre 1977 et 1982

  • Plusieurs réacteurs à très haute température (HTGR) ont fonctionné avec des barres de combustible mixant Uranium 235 et Thorium 232 aux USA, mais aussi en Allemagne entre 1966 et 1989
  • Les réacteurs expérimentaux et 7 réacteurs CANDU de 220 MW chacun utilisant un mix Uranium/Thorium qui fonctionnent actuellement en Inde. L’Inde est le seul pays mentionnant clairement le thorium dans son programme énergétique, pour une raison simple : l’Inde a très peu d’Uranium, et ne peut pas en importer facilement car elle n’a pas signé le traité de non prolifération. Par contre elle dispose de gros gisements de Thorium.
  • Et aussi le « Molten-Salt Reactor Experiment » (MSRE) qui fonctionna entre 1965 et 1969 avec divers combustibles, dont de l’Uranium 233 produit à partir de Thorium dans un autre réacteur.

Les réacteurs à sels fondus (MSR) sont prometteurs à moyen terme. Ils sont d’ailleurs prévus par le « Forum International Génération IV » dans les technologies disponibles d’ici 2030, mais hélas seulement dans leur version à l’Uranium. Les Réacteurs au Fluorure de Thorium Liquide (LFTR)  n’ont pas été projetés dans cet horizon de temps, tout comme le « Rubbiatron » qui nécessite un accélérateur de particules d’ailleurs. Ce qui n’empêche pas l’AIEA d’en penser du bien, ni la Chine de démarrer un ambitieux projet de LFTR, qui sera probablement une première mondiale…

Du point de vue nucléaire, les réacteurs à sels fondus n’ont que des avantages :

  • le combustible est dissous dans un sel, solide à basse température, liquide en fonctionnement et servant en même temps de fluide de refroidissement primaire.

  • la réaction ne se produit que dans le coeur car il faut à la fois une source de neutrons et un volume suffisant pour que la probabilité que le neutron soit absorbé soit assez élevée.
  • l’installation fonctionne à pression ambiante : le très haut point d’ébullition du sel empêche que le système devienne une cocote-minute
  • si l’installation surchauffe, un bouchon (« Freeze Plug » sur le dessin) fond et le sel s’écoule par gravité dans des réservoirs (en bleu) dont la géométrie stoppe les réactions nucléaires. C’est d’ailleurs comme ça que le MSRE était arrêté pour maintenance.

Les difficultés et inconnues sont surtout liés à la chimie de ces sels. Il faut installer une usine chimique pour les purifier à côté de la centrale, notamment pour en enlever le Xenon 135. On ne sait pas trop bien comment un LFTR vieillira, notamment en raison de la corrosion par les sels.

ARE Thorium : plus besoin de réservoirs, on va pouvoir mettre des passagers aussi dans les ailes…

Au passage, j’ai découvert l’existence du projet Aircraft Reactor Experiment qui visait la propulsion nucléaire d’avions. C’était un MSR dont les sels à 850 ° chauffaient l’air dans les réacteurs, qui fonctionna 1000 heures en 1954, quand on avait peur de rien sauf peut être des rouges. Donc je ne le savais pas mais oui, il existe dans les cartons une alternative au turboréacteur.

Le livre « L’atome vert » est très intéressant et convaincant pour l’initié, mais il m’a semblé parfois trop technique pour le grand public. Je le trouve aussi inutilement provocateur pour les écolos irréductibles, notamment le passage comparant les risques des diverses sources d’énergie par TWh produit et celui comparant les taux de cancers dans les zones à forte radioactivité naturelle, même si c’est très intéressant.

Enfin, même la conclusion me semble trop touffue pour les politiciens lambda qui sont pourtant les personnes à convaincre, alors je résume pour eux : « Thorium pouvoir produire Térawatts propres et pas chers pour remplacer pétrole et charbon. Vous y’en a donner feu vert, nous s’occuper du reste ». Je ne sais pas ce que ça donne en hindi ou en mandarin, mais là bas ils ont compris.

Livre de Jean-Christophe de Mestral, « L’atome vert : Le thorium, un nucléaire pour le développement durable », Editions Fabre

 

Par Philippe Guglielmetti dit « Dr Goulu »
Blog Pourquoi Comment Combien

 

Les nuages pourraient rendre les planètes habitables par l’homme

Une étude publiée dans Astrophysical Journal Letters fait grimper le nombre de planètes potentiellement habitables à 60 milliards. Ce chiffre explose car des scientifiques américains se sont intéressés aux planètes gravitant autour des naines rouges. Ces étoiles moins chaudes que notre soleil pourraient voir graviter autour d’elles des planètes suffisamment proches pour que de l’eau y existe sous forme liquide.

Jusqu’à aujourd’hui, il était admis qu’en moyenne une à deux planètes étaient situées à bonne distance de leur naine rouge pour être habitables. Mais les chercheurs américains viennent de révéler que la présence de nuages modulait la température de la planète. Ce phénomène es  suffisamment remarquable pour réchauffer une planète qui serait a priori trop éloignée de l’étoile pour être habitable. Ceci est aussi valable pour des planètes a priori trop près, mais que la présence d’une couverture nuageuse refroidirait.

 « Les nuages causent à la fois le réchauffement et le refroidissement de la Terre. Ils reflètent la lumière du soleil pour refroidir les choses et ils absorbent les radiations infrarouges depuis la surface pour provoquer un effet de serre. C’est ce qui contribue à garder la Terre suffisamment chaude pour abriter la vie » précise Dorian Abbot, co-auteur de l’étude.

Une telle découverte sur l’impact des nuages double donc le nombre de planètes proches d’une naine rouge et susceptibles d’être habitées.

Par Audrey Loubens, journaliste scientifique

Les laitiers d’aciérie : un matériau d’avenir !

Longtemps considérés comme des «scories» issues de la fabrication de l’acier, les laitiers d’aciérie sont aujourd’hui reconnus comme de véritables matériaux valorisés. Ils constituent une ressource industrielle pérenne et régulière, soumise à une assurance qualité qui permet de générer des produits haut de gamme, conformes aux normes techniques en vigueur.

Utilisés principalement comme granulats dans les travaux publics et ouvrages routiers, les laitiers d’aciérie constituent un matériau alternatif fiable et compétitif. Ils répondent aux nouvelles exigences fixées pour les cahiers des charges dans le cadre du Grenelle de l’Environnement et de la réforme du code des marchés publics.

Qu’appelle-t-on laitiers d’aciérie ?

Les laitiers sidérurgiques sont des matières minérales artificielles produites par l’industrie de l’acier. Ces matériaux sont co-générés sous forme liquide (à environ 1500°C) en même temps que la fonte sidérurgique (laitier de haut-fourneau) ou l’acier (laitier d’aciérie). Les laitiers de convertisseur (ou de conversion) sont des laitiers d’aciérie obtenus lors de l’affinage de la fonte sidérurgique, alors que les laitiers d’aciérie électrique sont obtenus lors de la fusion de ferrailles.

Si les laitiers cristallisés de haut-fourneau sont depuis longtemps connus et utilisés sur le marché des granulats, le non renouvellement de la ressource disponible rend les laitiers d’aciérie d’autant plus attractifs que leurs caractéristiques géotechniques sont meilleures. Ils constituent un gisement régulier et une ressource pérenne. Ainsi en 2010, près de 2 millions de tonnes de laitiers d’aciérie ont été produites, constituées de 60% de laitiers de conversion et 40 % de laitiers de four électrique.

Des filières d’utilisation diversifiées 

Les laitiers sont gérés sous assurance de la qualité et sont aptes à répondre aux normes techniques (encadré ci-dessous) concernant leur utilisation :

  • NF EN 13043 Granulats pour mélanges bitumineux et enduits superficiels ;
  • NF EN 13242 Granulats pour graves traitées et non traitées ;
  • NF EN 13383-1 Enrochements ;
  • NF EN 13450 Granulats pour ballasts ;
  • NF P 18-545 Granulats – Eléments de définition, conformité et codification.

              –  Art. 7 et 8 : Granulats pour chaussées (couches de fondation, de base, de liaison et de roulement – enrobés hydrocarbonés),

              – Art. 11 et 12 : Granulats pour voies ferrées (ballast et gravillons),

              – Art. 14 : Enrochements.

Même si l’essentiel des laitiers d’aciérie est utilisé comme granulats en travaux publics (près de 70 % de la production totale), leur emploi varie selon la filière de production considérée.

Les granulats de laitier d’aciérie de conversion sont généralement employés :

  • en graves non traitées (GNT) pour la réalisation de couches de forme ;
  • comme matériaux pour les remblais non recouverts, sans construction sus-jacentes ;
  • pour les revêtements superficiels de chemins forestiers, de halage, pistes de chantier ;
  • pour la réalisation de merlons phoniques ;
  • ou encore comme enrochements pour la construction de digues.

Leur utilisation en assises de chaussées (couches de fondation et de base), et en couches de roulement est également possible après une sélection à la source fondée sur leur composition chimique, ou après une phase de maturation des granulats sur stock.

Les granulats de laitier d’aciérie électrique, de par leurs caractéristiques géotechniques similaires ou supérieures à celles des granulats de roches éruptives, sont des matériaux «haut de gamme» généralement employés :

  • pour l’élaboration de sables, de graves (0/D), et/ou de granulats (d/D) de laitiers, utilisés pour la construction d’assises de chaussées,
  • en tant que gravillons (d/D) pour la fabrication de couches de surface (couches de liaison et de roulement) ou pour la réalisation d’enduits superficiels.

Un impact environnemental minimal, maîtrisé et encadré

La production et la mise sur le marché des laitiers d’aciérie électrique sont strictement encadrées par le Ministère de l’Environnement et les DREAL/DRIEE.

Tous les laitiers d’aciérie valorisés par les sites adhérents au Centre Technique et de Promotion des Laitiers sont régulièrement suivis dans le cadre d’un plan de caractérisation environnementale. Cette approche volontariste de la profession permet d’assurer aux clients un engagement sur la qualité environnementale des granulats de laitier d’aciérie mis sur le marché en France, et l’adéquation de leurs caractéristiques avec les usages visés (Cf. Guide d’application SETRA, octobre 2012).

La charge environnementale des laitiers d’aciérie, sur la base de leur statut juridique actuel, est nulle. Si, pour leur majorité, ils sont conformes aux critères de fin de statut de déchet (Art. 6 Directive 2008/98 CE) et peuvent être considérés comme des matériaux valorisés, leur Déclaration Environnementale Produit (EPD – Environmental Product Declaration – prEN 15804:2011) en tant que matières secondaires témoigne d’un impact plus faible que celle des matériaux de démolition/déconstruction et similaire à celle des granulats naturels.

Les laitiers d’aciérie ont également été enregistrés dans le cadre du Règlement REACH et les tests réalisés ont démontré que ceux-ci ne sont ni toxiques, ni écotoxiques. Seul leur pH basique, par ailleurs similaire à celui des mâchefers (MIOM) ou des granulats de béton recyclé, incite à les employer avec précaution à proximité d’eaux stagnantes.

Ainsi, et à la différence d’autres matériaux alternatifs, les granulats de laitier d’aciérie sont de réels produits , ayant un impact environnemental et sanitaire minimal, maîtrisé et encadré.

Ce qu’il faut retenir

  • Performances et avantages spécifiques

Tous les granulats alternatifs ne sont pas équivalents, tant du point de vue géotechnique qu’environnemental. La publication par le SETRA du Guide d’application relatif à l’acceptabilité environnementale des laitiers dans les ouvrages routiers et assimilés (otobre 2012), est prétexte à rappeler un certain nombre de propriétés, souvent méconnues, de ces matériaux.

Des caractéristiques mécaniques et environnementales constantes et homogènes

Ceci s’explique par leur production industrielle, en flux continu, qui les différencie des matériaux de démolition recyclés dont les caractéristiques dépendent des chantiers d’approvisionnement et des pratiques de centre de tri, et des mâchefers dont la qualité varie en fonction de la nature des ordures ménagères incinérées.

Des performances géotechniques « haut de gamme »

Dureté, propriétés anti-glissement et anti-polissage : autant de propriétés pour ces matériaux qui, lorsqu’ils sont employés en couches de roulement, contribuent à l’augmentation de la sécurité des utilisateurs.

Une densité élevée

Elle est intéressante pour certains ouvrages, tels qu’enrochements contre l’érosion hydraulique, remblais de pré-chargement…

Une grande souplesse d’approvisionnement des chantiers

La production régulière en continu au niveau des sites permet de disposer d’une ressource industrielle de proximité, pérenne et régulière.

Un coût de production très compétitif

Ce coût de production reste comparable, voire inférieur, à celui des granulats naturels ou des matériaux de construction recyclés.

Des nuisances réduites pour les populations

Les nuisances liées au transport (pollution atmosphérique et sonore, production de gaz à effet de serre, saturation du trafic, dégradation des infrastructures, …) sont plus faibles que pour les autres matériaux alternatifs, en raison de leur traitement qui s’effectue directement sur le site de production. Le contrôle réalisé à la production du laitier permet de garantir la non toxicité/éco-toxicité des produits fabriqués.

Un impact environnemental minimal, maîtrisé et encadré

Tous les laitiers d’aciérie mis sur le marché sont conformes aux exigences du Guide SETRA relatif à l’acceptabilité environnementale des laitiers dans les ouvrages routiers et assimilés. Un programme de recherche sous Convention ADEME a permis de caractériser précisément les différents couples laitier/usage sur le plan environnemental.

Une préservation accrue des ressources minérales naturelles

Outre l’économie des ressources naturelles qu’ils remplacent, l’utilisation de laitiers d’aciérie de four électrique permet également la préservation de minerai de fer et de charbon, puisqu’ils sont générés lors du recyclage de ferrailles.

 

 

 

Le Satellite CoRot prend une retraite bien méritée

Le 2 novembre dernier, le télescope CoRot cesse d’émettre. Alors qu’ils avaient réussi à prolonger sa mission d’observation à deux reprises en 2009 et 2012, cette fois les équipes techniques du CNES et du CNRS n’arrivent pas à le remettre en service. Il faut se rendre à l’évidence, après six années de bons et loyaux service, CoRot n’est plus en état de continuer, probablement victime du rayonnement cosmique de particules à hautes énergies. Avec nostalgie mais fierté, les scientifiques vont donc  abaisser l’orbite de CoRot puis passiver le satellite qui achèvera son incroyable mission en se consumant dans l’atmosphère terrestre.

Durant ses six années, CoRot n’a pas chômé. Il a révélé pas moins de trente-deux planètes (une centaine d’autres sont en cours de confirmation), livrant sur elles de précieuses informations : rayon, masse, densité, orbite… Le satellite a permis de découvrir des planètes très différentes, comme CoRot-7b et une orbite de 24h, CoRot-9b, une exoplanète tiède ou encore CoRot-20b dont la densité est deux fois celle de la Terre. Plus que de la simple détection, le satellite a réussi à caractériser ces nouvelles planètes, en livrant une analyse complète.

Mais CoRot s’est aussi intéressé à la fréquence et l’amplitude de vibrations des étoiles, des paramètres essentiels pour connaitre l’âge, la structure et le fonctionnement d’une étoile. CoRot a d’ailleurs permis de démontrer que les propriétés des oscillations des géantes rouges caractérisent précisément leur masse, leur rayon et leur âge.

En hommage au travail et aux données précieuses recueillies par CoRot, une exposition de tiendra jusqu’au 29 décembre 2013 au Musée de l’Air et de l’Espace du Bourget.

Découvrir en vidéo comment les ingénieurs vont rapatrier CoRot :


 

Par Audrey Loubens, journaliste scientifique

5 paradoxes qui retournent le cerveau

Le paradoxe du pendu 

Un juge déclare à un condamné à mort qu’il sera pendu lors d’une matinée de la semaine suivante, mais que le jour de l’exécution sera une surprise totale pour le pauvre homme.

Il ne connaitra le jour de sa pendaison que le matin ou le bourreau viendra frapper à sa porte, sa seule certitude étant que les pendaisons n’ont pas lieu le week-end. De retour dans sa cellule, le prisonnier réfléchit à sa sentence : il commence par se dire que la « pendaison surprise » ne pourra avoir lieu le vendredi, car s’il survit tous les jours de la semaine jusqu’au jeudi soir, il ne restera plus que le vendredi pour l’exécution. Et dans ce cas, ça ne sera pas une surprise. Il se dit ensuite que la pendaison ne pourra pas avoir lieu le jeudi non plus, car s’il est encore vivant mercredi soir, le vendredi étant éliminé d’office, il ne restera plus que le jeudi. Et par conséquent l’exécution ne sera toujours pas une surprise.

En suivant cette même logique, le prisonnier élimine également le mercredi, le mardi et le lundi. Rassuré, il en déduit que la sentence ne sera jamais exécutée. La semaine suivante, le bourreau vient frapper à la porte du condamné le mercredi matin, ce qui, malgré toutes les réflexions de ce dernier, reste effectivement une surprise totale.

Le juge avait raison. Ce paradoxe, en apparence simple, a divisé les écoles de pensée. Encore aujourd’hui, il n’a pas de solution clairement établie.

Le paradoxe du faux positif 

Une maladie mortelle fait son apparition, qui touche une personne sur 10000. Inquiet, vous décidez de passer un test de dépistage. Votre médecin vous assure que le test est fiable à 99%. Une semaine après la prise de sang, vous recevez les résultats : ils sont positifs. Désespéré, vous pensez en toute logique que vous êtes condamné, avec une certitude de 99%. Cependant, et heureusement pour vous, les probabilités produisent parfois des résultats contre-intuitifs : en réalité, vous avez 1% de chances d’être réellement malade.

Comment est-ce possible ? Imaginons qu’un million de personnes fasse le test. La maladie touche une personne sur 10000. Il y aura donc 100 personnes contaminées.

Sur ces 100 personnes, 99 seront correctement diagnostiquées positives, et une personne sera dans l’erreur, puisque le test à une fiabilité de 99%. Maintenant, sur les 999 900 personnes qui ne seront pas touchées par la maladie, il y aura toujours 1% de faux diagnostics, mais ce 1% représente ici 9999 personnes. Par conséquent, en recevant un résultat positif, vous avez 100 fois plus de chances de faire partie des 9999 personnes victimes d’un faux diagnostic, que des 99 correctement diagnostiquées.

Les chiffres peuvent se révéler dramatiquement trompeurs, pensez-y la prochaine fois que vous entendrez des statistiques sortir de la bouche d’un homme politique.

Le paradoxe de Monty Hall

Imaginez que vous soyez dans un jeu télévisé, où l’on vous demande de choisir entre trois portes. Derrière une des portes, il y a une voiture. Derrière les deux autres, il y a des chèvres.

Les règles du jeu sont les suivantes : une fois que vous avez choisi une porte, on ne l’ouvre pas tout de suite. L’animateur du jeu, Monty Hall, qui sait ce qui se trouve derrière les portes, doit ouvrir une des deux portes restantes. S’il reste la voiture et une chèvre, Monty le sait, et il ouvre la porte qui cache une chèvre. S’il reste les deux chèvres, Monty ouvre une des deux portes, indifféremment.

Après avoir ouvert sa porte, qui donne donc dans tous les cas sur une chèvre, Monty vous demande si vous restez sur votre choix de départ, ou si vous préférez changer et ouvrir la dernière porte restante. Par exemple, vous choisissez au départ la porte A. Monty ouvre la porte C, qui cachait une chèvre. Est-il dans votre intêret de rester sur votre premier choix, ou de changer pour la porte B ?

Normalement, il semble logique de penser que les deux portes ont exactement les mêmes chances de cacher la voiture, par conséquent il n’y a aucun intérêt à changer son choix initial. Mais en réalité, et même si ça semble incompréhensible, il faut toujours changer : quand il fait son premier choix, le joueur a une chance sur trois de tomber sur la voiture.

Il y a donc deux chances sur trois pour que la voiture se trouve derrière une des deux autres portes. Lorsque Monty dévoile une des deux mauvaises portes, les probabilités ne changent pas : il y a toujours une chance sur trois pour que le choix initial soit le bon, et deux chances sur trois pour que la porte restante cache la voiture. Changer multiplie donc les chances de trouver la voiture par deux.

Pour ceux qui ont du mal à accepter cette réalité particulièrement contre-intuitive, il est parfois plus clair d’imaginer 100 portes au lieu de 3. Dans ce cas, il y a 99 portes derrière lesquelles se trouvent des chèvres, et une porte derrière laquelle se trouve la voiture. Le joueur choisit une porte, et l’animateur en ouvre 98 qui cachent des chèvres. Le joueur a donc le choix entre conserver sa porte, qui a 1 chance sur 100 de camoufler la voiture, ou bien changer pour l’autre porte restante, qui a 99 chances sur 100 d’être la bonne.

Si pour vous les chances sont toujours de 50/50, relisez ce paragraphe.

Le paradoxe de Newcomb

Un medium surnommé « Le Prédicteur » est capable de prévoir les comportements humains de façon quasi infaillible. Il vous propose un jeu : devant vous se trouvent deux boites, A et B. Vous pouvez prendre le contenu des deux boites, ou juste celui de la boite B. La boite A contient 1000 €.

Le contenu de la boite B est déterminé de la sorte : avant que le jeu ne commence, Le Predicteur essaye de deviner si le joueur prendra juste la boite B, ou les deux. Si le Predicteur pense que les deux boites seront prises, alors la boite B ne contiendra rien.

Si le Predicteur pense que seule la boite B sera prise, alors cette dernière contiendra 1 000 000 €. Quand le jeu commence et que le joueur doit faire son choix, la prédiction a déjà été faite. Le million d’euros a déjà été mis ou non dans la boite par le Prédicteur, et ce dernier ne peut plus rien y changer. Avant le début du jeu, le joueur est conscient de toutes les règles, il sait que le contenu de la boite B dépend des prédictions du medium, et il connait la réputation d’infaillibilité de celui-ci.

Cette expérience de pensée imaginée par le professeur William Newcomb est un paradoxe parce qu’elle génère 2 stratégies en apparence aussi logiques l’une que l’autre, mais pourtant radicalement opposées : la première consiste à penser qu’il faut toujours prendre les deux boites sans se préoccuper de la prédiction. Si le medium a prédit que le joueur choisirait A et B et qu’il n’a rien mis dans la boite B, alors dans le doute il vaut mieux prendre les deux boites pour avoir au moins 1000 €. Et si le medium a prédit que le joueur choisirait seulement la boite B et qu’il a placé 1 000 000 € à l’intérieur, alors en prenant les deux boites on obtient 1 000 000 € plus 1000 €.

En toute logique, prendre les deux boites est donc toujours la meilleure solution. « Pas du tout » disent les défenseurs de la seconde stratégie : il faut toujours prendre B. On sait que le medium ne se trompe quasiment jamais. Donc, si on prend les deux boites, il l’aura prévu presque à coup sur, et on ne gagnera que 1000 €.

En revanche, si on prend seulement B, comme il l’aura certainement deviné, on recevra 1 000 000 €. Par conséquent, B est la meilleure solution.

Dans un article de 1969, le philosophe Robert Nozick écrivit que face à ce problème, les gens semblent toujours se diviser en deux parties assez égales, chaque moitié estimant que la solution est évidente, et que les partisans de l’autre stratégie sont simplement des imbéciles (dites-moi de quel camp vous faites partie dans les commentaires).

Le paradoxe du voyageur temporel

Souvent utilisés en science-fiction, les paradoxes induits par le voyage dans le temps sont multiples. L’un des plus typiques est sans doute le paradoxe dit du « Grand père » : un voyageur temporel remonte le temps et tue son grand père biologique avant que celui-ci n’ait pu concevoir le père du voyageur. En conséquence de quoi le voyageur ne vient jamais au monde, et ne peut donc pas remonter dans le temps une fois adulte.

Le paradoxe logique inhérent à cette expérience de pensée a été utilisé pour démontrer que le voyage dans le temps était impossible. Cependant, plusieurs solutions ont été proposées pour résoudre le problème, comme celle des univers parallèles : lorsqu’il tue son grand père, le voyageur génère un univers alternatif dans lequel il ne nait jamais, ce qui ne l’empêche pas d’exister dans son univers original.

Un autre paradoxe temporel classique est le paradoxe dit de « prédestination », dans lequel le voyageur est pris dans une boucle causale. Quoi qu’il fasse, le voyageur ne peut rien changer à l’histoire, car ce qu’il fait dans le passé est, par définition, déjà arrivé. Son présent est en réalité déterminé par son voyage dans le temps. Le premier « Terminator » est une des nombreuses œuvres de fiction qui exploite le paradoxe de prédestination : Dans ce film, le soldat Kyle Reese est envoyé dans le passé pour protéger la mère de son supérieur, John Connor, avec laquelle il finit par concevoir John Connor lui-même, qui une fois adulte enverra Kyle Reese dans le passé protéger sa mère.

Le paradoxe de prédestination se confond parfois avec le paradoxe « ontologique », qui concerne plus spécifiquement les objets et informations générés à partir d’une boucle temporelle : dans « Retour vers le futur » Marty McFly joue « Johnny B. Goode » lors d’un bal de promo en 1955.

Chuck Berry entend la prestation par téléphone, et décide de s’inspirer du morceau. Cela provoque un paradoxe dans lequel « Johnny B. Goode » n’a en fait jamais été écrit par personne…

Source : blog Axolot

Jouer à la console avec les yeux chez vous, c’est facile !

Imaginez-vous piloter vos jeux vidéo à l’aide de vos… yeux !

Plus de manette, de volant ou de joystick encombrants pour vos pauvres petites mains : juste vous et vos jeux préférés, en « tête à tête ».

Les joueurs portent des électrodes à gauche, à droite, en dessous et au-dessus des yeux, ainsi que derrière l’oreille. Reliés par un circuit électronique avec une Nintendo ES, ces capteurs mesurent les mouvements des globes oculaires, et les transforment en mouvements de Mario dans ses aventures de Super Mario Bros 2.

Plus besoin de la manette, seuls les yeux assurent pour le jeu. Quelle gymnastique pupillaire ! Ce qui paraît facile dans la vidéo de présentation est en réalité un défi de coordination.

L’équipe de Waterloo Labs est composée de jeunes ingénieurs. Sur leur site web, ils mettent à disposition les codes sources et tous les outils nécessaires pour suivre le développement du jeu.

Démonstration en vidéo :

Publié par P.T

Respecter la biodiversité fait du bien à l’économie

« 40 % de l’économie mondiale repose sur les services rendus par la nature. Or, ces services sont actuellement en déclin de 60 % », rappelle Alain Bougrain-Dubourg, Président de la Ligue de Protection des Oiseaux (LPO). Peut-on inverser la tendance ? Le respect de la biodiversité passe forcément par une volonté politique forte. Pour tenter de reconquérir cette biodiversité, la feuille de route de la transition écologique prévoit une loi-cadre biodiversité dont le projet doit être soumis au Parlement d’ici l’automne. Cette loi prévoit la création d’une agence nationale la biodiversité.

Mieux prendre en compte la biodiversité

Il faudrait comprendre que la biodiversité a valeur autant que le social et l’économie. Quelques exemples montrent que cette vision n’est pas encore adoptée. En ce qui concerne les ressources halieutiques, le cas du thon rouge est assez singulier. Vendu au grand marché du poisson de Tokyo, une femelle thon rouge de 224 kg a été vendue à 1,38 millions d’euros, soit plus 6 000 euros le kilo ! Avec de tels prix, le braconnage a de beaux jours devant lui et l’espèce sera pêchée jusqu’à son dernier représentant. Dans cette perspective, reconstituer les ressources halieutiques semble être compliqué.

Le cas des nitrates en Bretagne est aussi singulier. Depuis des années, Bruxelles menace la France de sanctions à cause de cette pollution. Les actions mises en œuvre n’ont pas été à la hauteur des enjeux  et les amendes risquent aujourd’hui d’être salées. Pour compléter ce manque de vision, rappelons que les poules en batteries sont interdites depuis le 1er janvier 2012. Si les nouvelles contraintes étaient connues depuis 10 ans, les élevages ont essayé de décaler l’application de la réforme de quelques années, plutôt que de se préparer et provisionner les dépenses. Dommage pour eux, aucun délai n’a été accordé et les mises à jour ont été faites en urgence, entraînant une augmentation passagère du prix des œufs.

Prenons un dernier exemple d’actualité symptomatique : l’aéroport de Notre-Dame-Des-Landes. Des zones agricoles et d’intérêt écologique seront détruites pour laisser place à un aéroport dont la plupart des études montrent l’inutilité. Ce dossier est médiatisé en raison de l’emprise au sol de 340 hectares, l’équivalent de 500 terrains de football. Mais « il ressemble à tous les autres dossiers d’implantation qui consomment de l’espace », note Jean-Marc Michel, Directeur général de l’aménagement, du logement et de la nature.

Ces quelques exemples peuvent à première vue être indépendants les uns des autres. Et pourtant, ils montrent que la biodiversité et l’environnement sont quasiment systématiquement opposés à l’économie par les hommes politiques et les entreprises. La biodiversité est toujours vue comme une contrainte dont il conviendrait de pouvoir s’affranchir. Une fois cette vision primaire dépassée, on s’aperçoit que le respect de l’environnement ne passe pas forcément par des actions coûteuses. Par exemple, « Plus de la moitié du territoire français est agricole, la manière dont on cultive impacte directement la biodiversité », rappelle Alain Bougrain-Dubourg. Si des efforts sont faits dans le cadre de la révision de la PAC, les objectifs sont loin d’être à la hauteur des enjeux.

Par Matthieu Combe, journaliste scientifique

Des français en mission pour évaluer l’impact environnemental de la catastrophe de Fukushima

Deux ans et demi après le terrible accident nucléaire de Fukushima, une mission française va passer six semaines sur place pour réaliser une étude visant à déterminer l’impact de la catastrophe sur la faune et la flore. Les membres du Laboratoire d’écologie des hydrosystèmes naturels anthropisés (CNRS/Université Lyon 1/ENTPE), et du Service de recherche et d’expertise sur les risques environnementaux de l’Institut de radioprotection et de sureté nucléaire (IRSN) vont s’intéresser à des amphibiens, plus précisément la rainette japonaise (Hyla japonica).

Celle-ci est considérée comme un modèle de référence pour ce type d’étude.  Et cela tombe bien car elle est très répandue au Japon.

Les zones étudiées se situent à 40 et 100 km de la centrale, un vaste territoire à l’intérieur duquel la radioactivité présente des taux parfois très supérieurs aux valeurs seuils. Le travail de cette équipe française s’appuie sur la complémentarité des compétences : l’IRSN dispose des meilleurs outils pour les mesures de doses radioactives environnementales et internes, le LEHNA est spécialisé dans l’étude du comportement des rainettes vertes, très proches des rainettes japonaises.

L’analyse couplera donc les mesures et les observations pour conclure sur les conséquences environnementales du drame de Fukushima dans cette région.

Cette mission, financée dans le cadre du Défi NEEDS (Nucléaire énergie environnement déchet société) du CNRS, pourrait conduire à une reconsidération des normes de radioprotection actuelles.

Par Audrey Loubens, journaliste scientifique

Les parisiens respirent mieux

Voilà un argument dont pourra se servir madame Hidalgo : l’air parisien est moins pollué qu’il y a dix ans. L’actuelle adjointe à la municipalité de Paris et future candidate à la Mairie a fait de l’écologie un thème fort de sa campagne.

Le dernier rapport d’Airparif devrait donc lui faire plaisir puisque globalement, la qualité de l’air respiré par les parisiens s’est améliorée. La mairie de Paris en a d’ailleurs profité pour rappeler les efforts qu’elle a mis en œuvre pour diminuer le trafic routier au cœur de la capitale tout en abaissant la vitesse de circulation.

Cela a porté ses fruits puisqu’effectivement les concentrations en dioxyde d’azote et en particules fines ont diminué. Cette baisse a aussi bénéficié d’actions nationales et européennes sur le chauffage et les industries. Seul bémol, cette baisse s’est stabilisée à partir de 2007, souffrant d’une proportion accrue de véhicules diesel.

Mais attention, si l’air est meilleur, il serait plus juste d’écrire que sa qualité est « moins médiocre ». Airparis a déclaré à l’AFP que « les niveaux de pollution restent supérieurs à la réglementation, notamment le long du trafic ». Avec 22 % des particules fines et 97 % du dioxyde d’azote présents dans l’air parisien, ces valeurs restent au-dessus des normes qui ne sont donc toujours pas respectées.

Un rapport aux résultats mitigés donc, avec une amélioration certes, mais nettement insuffisante pour que les parisiens redécouvrent le plaisir d’inspirer profondément…

Par Audrey Loubens, journaliste scientifique

Le vaccin ROR peut-il provoquer l’autisme ?

Alors que la méfiance vis-à-vis des médicaments enfle, voilà une décision de justice qui pourrait raviver la polémique sur le lien éventuel entre le vaccin contre la rougeole, les oreillons et la rubéole (ROR) et l’autisme. Un tribunal américain a reconnu que le ROR avait provoqué l’autisme chez deux enfants, leur accordant plusieurs millions de dollars en guise de dédommagement des souffrances subit et à venir. Attention, il ne s’agit pas d’un tribunal de justice classique car ce type de plainte ne peut être pris en charge par une Cour civile fédérale.

Il s’agit de la « Vaccine court », le bureau dédié aux litiges entre individus et firmes pharmaceutiques fabriquant les vaccins. Ce système a été validé par le congrès américain dans les années 80. Assez paradoxalement, alors qu’aucune étude scientifique n’a à ce jour établi de lien entre le ROR et l’autisme, la vaccine court est pilotée par le département de la santé.

Il s’agit d’un tribunal sans juré. En réalité, ce dispositif permet de protéger les fabricants de vaccin de la législation civile tout en garantissant la possibilité aux citoyens d’attaquer en justice. D’ailleurs, suite à ce jugement, la Département de la santé américain niait avoir reconnu que la vaccination avait provoqué l’autisme mais rappelait son rôle d’aide auprès des familles.

Mais d’où vient cette peur du ROR ? En 1998, Andrew Wakefield publie un article dans la prestigieuse revue The Lancet. D’après ses travaux, il y avait bien un lien entre la vaccination et la survenue de l’autisme.

Problème : aucun autre chercheur n’arrivait à reproduire ces résultats. Apres plusieurs enquêtes, il s’est avéré que ces travaux ne concernaient que douze enfants sur lesquels ce chercheur britannique a d’ailleurs mené des examens invasifs inutiles, dans le non respect de l’éthique. Pire, Wakefield était sponsorisé par des activistes anti-vaccin et avait falsifié ses résultats.

L’étude a donc été officiellement retirée de la revue et Wakefield radié de l’ordre des médecins. Le journaliste Brian Deer a ensuite révélé en 2011 que ces travaux relevaient d’une fraude avec comme objectif la préparation du lancement d’une entreprise commercialisant des tests de dépistage de l’autisme. Mais le mal était fait. La peur de l’autisme a fait chuter le nombre de vaccination et les cas de rougeoles se sont multipliés causant la mort de plusieurs enfants.

En France, la vaccination complète intègre deux doses de vaccin administrées à un mois d’intervalle, la première injection devant se faire avant les un an de l’enfant.

Par A.L

Maîtrise des propriétés magnétiques d’un multiferroïque sous contrainte

Une équipe de chercheurs a réussi à mesurer et analyser la réponse magnétique de films minces soumis à une déformation connue. Parus dans la revue Nature Materials, leurs travaux montrent notamment la disparition des modes de faible énergie lorsque la contrainte dépasse un certain seuil. Les physiciens dont des français de l’Unité Mixte de Physique CNRS/Thales, du Groupe de Physique des Matériaux – GPM (CNRS/Univ. Rouen/INSA Rouen) et du Laboratoire Matériaux et Phénomènes Quantiques – MPQ (CNRS/Univ. Paris Diderot) ont choisi de travailler avec l’oxyde de bismuth et de fer (BiFeO3).

Les composés multiferroïques présentent la rare propriété de posséder simultanément des paramètres différents mais dépendants les uns des autres. Dans le cas du BiFeO3, il s’agit de propriétés anti-ferromagnétique et ferroélectrique. Des déformations dans de tels films minces peuvent permettre d’en moduler les propriétés magnétiques.

En le faisant croître de façon à obtenir un film mince de 70 nm d’épaisseur et en utilisant des substrats avec une périodicité différente du BiFeO3 massif, les chercheurs ont imposé une déformation au film mince. En effet, ce dernier cherche à s’adapter à la périodicité du substrat sur lequel il croît et doit donc se mettre en tension ou en compression. Ce faisant, l’équipe a réussi à imposer jusqu’à -2.6% de compression et jusqu’à 1.3% de tension. Une fois la déformation créée, ils ont déterminé l’ordre magnétique de la couche d’oxyde par spectroscopie Mossbauer et Raman. Il ne leur restait plus qu’à coupler les mesures avec la modélisation pour connaitre les ordres magnétiques ainsi que leur domaine de stabilité.

Ces mesures permettent de progresser vers la maîtrise des propriétés magnétiques via les déformations élastiques. L’équipe de chercheur espère désormais pouvoir contrôler en continu les propriétés magnétiques. Pour cela ils vont combiner le BiFeO3 à des matériaux piézoélectriques qu’ils déformeront en les soumettant à une tension électrique.

Par Audrey Loubens, journaliste scientifique

Les hydrocarbures ont-ils leur place dans la transition énergétique ?

Les industriels décident du mix énergétique en considérant la disponibilité physique des ressources d’énergie, la maturité technologique, la compétitivité des prix de marché et l’acceptabilité sociale. « Qu’on le veuille ou non aujourd’hui, c’est sur ces quatre critères que les acteurs de notre industrie, au plan mondial et en France, se prononcent », affirme Helle Kristoffersen, Directrice Stratégie et Intelligence économique de Total. « Sur la base de ces quatre critères, ce sont les grandes énergies historiques fossiles, le pétrole et le gaz, l’hydraulique et le nucléaire qui arrivent en tête sur la disponibilité, maturité et compétitivité », précise-t-elle. Du côté de l’acceptabilité sociale, les énergies renouvelables sont évidemment invitées à se développer.

Ainsi, Total estime que la part du charbon devrait diminuer, notamment à cause d’une acceptabilité sociale faible. En revanche, la part du gaz devrait augmenter. Le gaz serait promu à un fort développement pour le chauffage et l’électricité, car il émet moins de CO2 que le pétrole ou le charbon. Il constitue aussi un bon vecteur d’accompagnement des énergies renouvelables pour gérer l’intermittence. Il pourrait également prendre des parts de marché pour les  véhicules et les transports maritimes.

Quel avenir pour le pétrole ?

Le pétrole reste la meilleure énergie pour la mobilité. Il y a encore énormément d’innovations possible pour les carburants, les lubrifiants, les voitures et les moteurs à combustion. « Nous n’avons pas fini de voir les usages du pétrole évoluer, y compris dans le cadre d’une transition énergétique », affirme Mme Kristoffersen.

Le pétrole représente 32 % du mix énergétique mondial. À l’horizon 2035, Total prévoit une part située entre 25 et 28 %. « Nous ne pourrons pas nous en passer de façon réaliste avant de nombreuses années », précise la Directrice Stratégie et Intelligence économique de Total.

La demande en pétrole est encore très dynamique et en hausse, tirée essentiellement par les pays émergeants. Selon l’Agence internationale de l’Energie, la demande devrait augmenter de plus de 1 % par an d’ici 2017. Pour le gaz, sur le même intervalle de temps, la hausse mondiale serait de 2,7 %. De son côté, la Chine devrait doubler sa demande.

Des énergies fossiles de plus en plus cher ?

S’il n’y a pas de pénurie sur l’offre, les barils deviennent de plus en plus technologiques et demandent des investissements supplémentaires. Sans aucun doute, les prix augmenteront. Pour Total, leur moyenne ne devrait toutefois pas trop évoluer dans les 10 prochaines années et rester aux alentours de 100 dollars.

Pour le gaz, les prix sont régionaux et resteront toujours très différents entre les gaz de schiste des Etats-Unis, les importations en Asie et les prix européens.

Les énergies fossiles sont soumises à de grands marchés mondiaux. Leur prix est fixé en dollars selon le mécanisme de l’offre et de la demande. L’Europe se retrouve donc face à des taux de change fluctuants, dans un contexte d’euro à la hausse par rapport au dollar. Cela n’aide pas à la baisse des prix.

Total représente 2,4 millions barils par jour. Sa production de pétrole et de gaz ne représentent qu’environ 1 % des productions mondiales. Le groupe insiste donc pour affirmer qu’il n’a aucune façon de faire levier sur prix des hydrocarbures.

Par Matthieu Combe, journaliste scientifique

Dans l’espace, les microstructures se solidifient de façon oscillante

Impossible de mener cette expérience sur le sol terrestre. Dans le cas d’alliages, les différences de masse entre les constituants génère de la convection de masse. Cela modifie la concentration dans le soluté, l’interface solide-liquide se courbe, faisant dériver les cellules du bord vers le centre et les empêchant d’avoir leur dynamique propre. 

Il aura donc fallu la mise en place d’un instrument spécifique, DECLIC (dispositif d’Etude de la Croissance et des LIquides Critiques), pour pouvoir espérer observer cette solidification avec sa dynamique non parasitée par la gravité. Parmi les différents modules existants, le module DSI (Directional Solidification Insert) est dédié à l’observation des microstructures qui se forment à l’interface liquide-solide lors de la solidification d’un matériau transparent. Un dispositif permettant le suivi en temps réel et in situ du phénomène. C’est ainsi que des physiciens de l’Institut matériaux microélectronique et nanosciences de Provence (CNRS/AMU/ Université du Sud Toulon – Var) ont pu analyser les modes de croissance de ces microstructures.

Ils ont étudié du succinonitrile, une molécule organique à laquelle ils ont ajouté du camphre. Travailler sur cet alliage transparent présente plusieurs avantages : possibilité d’observation directe optique, une température de fusion basse facile à atteindre, un comportement semblable aux alliage métallique ce qui en fait un alliage modèle.

Publiés dans Physical Review Letters, leurs travaux montrent une structure cellulaire possédant une dynamique oscillante, les cellules se dilatent puis se rétractent de façon périodique ! Du fait du désordre intrinsèque au réseau, cette solidification oscillante est aléatoire d’une cellule à l’autre. Globalement, si l’on considère la totalité du front, les oscillations sont désordonnées. Mais localement, il arrive que plusieurs cellules s’ordonnent entre elles pour former un réseau régulier. Dès lors, bien que chaque réseau soit indépendant et respire sans arrêt, leurs oscillations s’organisent entre elles. C’est ce que les chercheurs ont pu observer sur un réseau hexagonal où trois sous-réseaux oscillent avec un déphasage de 120°. « Prenons l’exemple d ‘un hexagone. Un sommet sur deux est à son maximum, un sommet sur deux à son minimum, et la cellule au centre est entre les deux » explique Jean-Marc Debierre, en charge des calculs sur ce projet. « Nous avions prédit l’existence de ces oscillations depuis longtemps et ce déphasage de 2π/3, mais sans savoir si nous pourrions les observer un jour. Nous avons eu un coup de chance. » se réjouit Jean-Marc Debierre, professeur à l’université d’Aix-Marseille.

Découvrez cette dynamique oscillante :

Le projet DECLIC-DSI a été installé dans la Station Spatiale Internationale dans le but d’éliminer les perturbations liées à la convection puis téléopéré depuis le centre des opérations en vol CADMOS à Toulouse. Le projet DECLIC-DSI est issu d’une collaboration entre des chercheurs de l’IM2NP (UMR CNRS 7334, Université d’Aix-Marseille), de Northeastern University (Boston) et de Iowa State University (Ames). Il est soutenu par la région PACA.

Simulation numérique (en accéléré) où se produit une mise en ordre hexagonal du réseau cellulaire et une oscillation de type 2pi/3

 

Par Audrey Loubens, journaliste scientifique

Travailler immergé dans un espace en 3D !

L’aéronautique, l’automobile, l’architecture, les systèmes d’information géographique (SIG), mais aussi la biologie et la génétique sont bouleversés par l’arrivée de la visualisation immersive et stéréoscopique en trois dimensions (3D). Cette technologie facilite le travail des designers et des ingénieurs en permettant d’explorer virtuellement un produit sous toutes ses facettes avant de lancer la phase de production.

La technologie permet de visualiser en grandeur nature et en 3D un prototype ou un modèle virtuel à partir de ses données contenues dans l’un des 200 logiciels de travail compatible. La projection se fait sans conversion de données et en temps réel. L’opérateur peut alors interagir avec l’environnement 3D pour changer un élément du design : une couleur de voiture, agrandir une distance, ajouter,  changer ou déplacer un objet… De nombreuses options, telles que l’enregistrement vidéo, l’assemblage virtuel, le « finger tracking », la fusion de scènes 3D ou l’annotation digitale sont possibles !

Un travail facilité et plus rapide

Grâce à cette technologie, il est par exemple possible de se « promener » à l’intérieur d’un sous-marin. Il est ainsi possible de vérifier la hauteur sous plafond, les distances entre les éléments, déplacer des objets pour améliorer l’agencement, etc. De leur côté, les constructeurs automobiles peuvent améliorer le design beaucoup plus facilement. Il leur est, par exemple,  beaucoup plus facile de choisir une couleur et la forme de la voiture grâce à un rendu « réel » en grandeur nature. Le fait de pouvoir zoomer et de vérifier chaque recoin permet d’améliorer le prototype avant sa construction.

Cette technologie est aussi utilisée par les constructeurs de centrales nucléaires et par les compagnies pétrolières pour décider de la réalisation d’un forage. Dans l’aéronautique, elle sert à construire les nouveaux modèles d’avions et, dans le secteur agricole, elle est très utilisée par les constructeurs de moissonneuses-batteuses américains.

ci-dessus : Vue externe de l’espace immersif de 50 m2. Les entreprises intéressées peuvent l’expérimenter au siège social de Techviz, au 63 boulevard Massena, Paris 13e. © TechViz

Les applications de la technologie sont presque infinies dès lors qu’elles nécessitent des constructions de modèles ou de prototypes coûteux. Le logiciel Techviz 3D permet d’améliorer le design dès les premières étapes, sans avoir à construire ces prototypes.« La solution immersive stéréoscopique de TechViz permet de réduire les coûts de production, plus besoin de construire systématiquement des maquettes physiques pour observer un produit sous tous les angles, explique Alexis Vartanian, Directeur Technique de TechViz.« La technologie permet aussi de vérifier les données et de faire des changements en temps réel », rappelle-t-il.

 

Des partenariats fructueux

Plusieurs entreprises se sont regroupées pour créer cet environnement 3D virtuel, immersif et interactif. Entre autres, la société TechViz édite le logiciel, Christie s’occupe des projecteurs, Da Lite des écrans, PNY des cartes graphiques, ART GmbH des capteurs de position, Volfoni des lunettes, HP des ordinateurs et Anticyp Simulation s’occupe de l’intégration finale. Il est possible d’acquérir le tout pour environ 400 000 euros, contre 2 millions d’euros y a encore quelques années. Le prix devrait encore sensiblement diminuer au fur et à mesure que les ventes se développeront.

Pour promouvoir cette technologie, TechViz et ses partenaires ont créé un espace immersif de 50 m2  en juin 2013, au sein d’une salle de visualisation sur quatre faces. Elle permet de nombreuses démonstrations de visualisation d’applications de modèles 3D  afin d’illustrer l’étendue des capacités de la solution. Les clients sont au rendez-vous et l’intérêt est grandissant. « Chaque jour, nous avons au moins deux entreprises importantes qui viennent  tester la technologie  », confie Alexis Vartanian. 

Ci-dessousGrâce aux lunettes et aux détecteurs de mouvement, il est possible de se déplacer à l’intérieur du prototype. © TechViz

Vidéo de présentation du showroom :

Par Matthieu Combe, journaliste scientifique

L’autonomie énergétique de l’île d’El Hierro : quand le rêve devient réalité

« La centrale hydro-éolienne d’El Hierro est techniquement opérationnelle. Le chantier est terminé, la construction est achevée » souligne d’emblée Gonzalo Piernavieja Izquierdo, directeur scientifique du projet et dont le laboratoire (ITC Canarias) est installé sur l’île voisine de Grande Canarie. « Mais nous attendions la publication de la réforme énergétique qui vient d’être adoptée en Espagne. Cette réforme brutale vient d’être publiée vendredi 12 juillet au bulletin officiel de l’état, et nous sommes actuellement en train de l’interpréter. »

La viabilité du système d’El Hierro dépend du tarif d’achat avec lequel va fonctionner le système. Il n’y a pas que l’archipel canarien qui est concerné, mais toute l’Espagne continentale. « Le système symbiotique  hydro-éolien d’El Hierro entrera en fonctionnement en septembre-octobre 2013, c’est à présent sûr, il  est prêt à fonctionner » insiste le scientifique. L’île deviendra ainsi électriquement autonome.

Le projet d’El Hierro consiste à utiliser l’énergie éolienne(photo ci-dessous), très abondante dans cette région du monde, pour stocker dans un bassin en altitude de l’eau douce provenant de l’océan mais dessalée. « L’idée a émergé il y a 20 ans et la volonté politique est apparue en 1999. La construction a commencé en 2008, et s’est terminée cette année » explique Gonzalo Piernavieja Izquierdo. L’énergie éolienne est ainsi convertie sous forme d’énergie potentielle. Quand il y a beaucoup de vent, l’électricité éolienne alimente des pompes qui transfèrent l’eau dans un bassin situé à environ 700 mètres au-dessus du niveau de la mer. Et quand la production éolienne est insuffisante, l’eau redescend, ce qui permet ainsi de générer de l’électricité, tout comme dans une station hydroélectrique classique.

Il s’agit d’une STEP, une Station de Transfert d’Energie par Pompage. En France, les 5000 MW de STEP dès à présent en place (photo ci-dessous), surtout dans la moitié sud du pays, assistent la production électrique en ruban des centrales nucléaires et offrent une adaptation rapide aux variations de la demande. Dans le cadre d’une baisse d’un tiers de la part du nucléaire dans l’hexagone, engagement pris par le président la république François Hollande, ces STEP pourraient bien entendu être mises à profit pour intégrer de hauts niveaux d’éolien terrestre et de solaire photovoltaïque, des énergies renouvelables fluctuantes.

Le mariage canarien de l’eau et du vent, une approche très innovante

« Le projet comporte beaucoup d’innovation technologique », souligne Gonzalo Piernavieja Izquierdo, directeur de la division recherche et développement au centre scientifique ITC Canarias. « Il n’est pas possible de simplement mettre un parc éolien et une station hydroélectrique, l’intégration est ce qui est le plus complexe. Nous sommes dans un système isolé. »

Il faut de plus respecter les exigences de l’opérateur du réseau, notamment en termes de sécurité. « Notre système est capable de réguler puissance, tension et fréquence, de compenser de manière synchrone. Nous avons notamment intégré des volants d’inertie, permettant des ajustements très fins. » Ceux-ci constituent une forme de stockage. Quand de l’énergie est produite en excès, la vitesse de rotation du volant augmente. Il y a ainsi conversion de l’énergie en énergie de rotation.

Quand au contraire la production d’énergie de vient insuffisante pour répondre à la demande, une partie de l’énergie de rotation est récupérée, ce qui permet de combler le déficit. Les volants d’inertie ont ainsi un rôle tampon. Les volants d’inertie de dernière génération sont en fibre de carbone, en suspension magnétique, et opèrent sous vide entre 20 000 et 50 000 rotations par minute. Il est possible de faire varier leur vitesse très rapidement, ce qui permet une réponse optimale.

Découvrez les bases documentaires


« Le système est paramétré pour utiliser en priorité l’éolien direct quand la ressource éolienne est disponible, puis la composante plus classique, c’est-à-dire l’hydro, puis seulement si nécessaire la centrale diesel », indique Gonzalo Piernavieja Izquierdo. La structure qui gère le projet, Gorona Del Viento SA, a fait appel à la société française Cap Ingelec pour relever les défis de stabilité posés par la ferme hydroéolienne. « La production des éoliennes est très aléatoire, avec beaucoup de pollution en fréquence et tension », explique le scientifique. « La transformation de l’énergie hydraulique, quant à elle, dépend essentiellement des temps de réaction des actionneurs de conduites d’eau forcée. Cap Ingelec a mené à bien ce projet innovant en résolvant les principales difficultés de stabilisation du réseau électrique. »

Un coût du kWh éolien particulièrement bas grâce à l’abondance de la ressource éolienne

Gonzalo Piernavieja Izquierdo met en avant la pertinence du choix de l’éolien dans la région macaronésienne. « Dans l’archipel canarien, nous avons de très bons vents, selon les sites, cela varie entre 3 500 et 5 000 heures par an. Nous avons  4 000 heures sur le site où va être implanté le parc éolien d’El Hierro. » Avec un facteur de capacité de 42 %, le parc éolien produira chaque année environ 46 GWh. Plus le facteur de capacité est élevé, plus l’investissement réalisé est rentable. « Le coût du kilowattheure en sortie de parc éolien sera de 4 centimes d’euro ».  C’est inférieur d’1 centime au coût de production du kWh nucléaire historique en France, 2,5 fois inférieur à celui du kWh nucléaire nouvelle génération (EPR), et 8 fois inférieur à celui du kWh produit actuellement dans l’île canarienne à partir de combustibles fossiles importés. Mais même si l’équation économique est très favorable, un tarif d’achat garanti est néanmoins nécessaire pour assurer la viabilité du système.

Dans la mesure où 70 % de la production éolienne passeront par la « pile à eau », et que les pertes liées à ce stockage sont d’environ 19 %, la station hydro éolienne fournira globalement environ 40 GWh. En 2009, l’île a consommé 42 GWh d’électricité, ce qui correspond à une puissance moyenne d’environ 4,8 MW. La puissance éolienne délivrée par le parc qui a été installé sur l’île n’est pas constante, et varie entre 0 MW et 11,5 MW. Il arrive que la production éolienne soit faible alors que la demande de l’île est en pointe. La STEP joue ici un rôle essentiel. Elle se compose d’un bassin inférieur de 150000m3, d’un bassin supérieur de 556000 m3 situé à 658 mètres au-dessus du bassin inférieur, d’une station de pompage de 6 MW et d’une station de turbinage de 11,3 MW. 150 000 m3 suspendus à 658 mètres correspondent à une énergie électrique disponible de 217MWh, ce qui permet d’avoir deux jours d’autonomie complète pour l’île (jours sans aucun vent).

Des véhicules 100% électriques propulsés grâce aux vents alizés

Produire une électricité d’origine renouvelable n’est pas suffisant pour les élus de l’île. Ils veulent mettre fin à leur addiction envers le pétrole.  « Sur El Hierro il y a dès présent trois bornes de recharge pour véhicules électriques. » Un accord a été signé entre  l’entreprise Endesa, le Cabildo (municipalité) d’El Hierro et le groupe français Renault-Nissan qui dispose de toute une gamme de véhicules électriques. « Quinze bornes additionnelles vont être ajoutées, il y a une volonté politique pour cela » estime Gonzalo Piernavieja Izquierdo.  L’objectif en perspective est de convertir intégralement le parc automobile de l’île à l’électrique, et de se servir de l’ensemble des batteries de cette flotte automobile pour aider le réseau électrique (approche dite V2G-G2V, Vehicule-2-Grid/Grid-2-Vehicule). Cinq mille batteries de 24 kWh, c’est 120 MWh, c’est-à-dire une journée d’autonomie électrique pour l’île. « Nous sommes en relation avec des responsables d’entreprises  pour étudier la mise en place d’une Smart Grid. Notre objectif est que plus une seule goutte de pétrole ne soit importée sur notre île » indique Javier Morales, un élu de l’île.

La première île du monde à devenir véritablement autonome

El Hierro est vraiment une île pionnière. Certes l’île danoise de Samsø – tout comme les Fox Islands du nord-est des États-Unis – produit avec ses éoliennes plus d’électricité que n’en consomme la population de l’île. Mais Samsø est reliée par câbles sous-marins au reste du Danemark, et les Fox Islands à l’État du Maine, ceci afin de gérer les fluctuations de la production éolienne. La production éolienne insulaire est injectée dans le réseau électrique danois, réseau géré de manière éco-intelligente, notamment via des transferts électriques avec la Norvège, et qui est capable ensuite de s’adapter à la demande de tous les habitants du Danemark dont ceux de Samsø. Il ne s’agit donc pas d’une île à proprement parler indépendante sur le plan énergétique, mais plutôt d’une île ayant établi un lien symbiotique avec le reste du Danemark, pays qui est lui-même dans une relation symbiotique avec la Norvège. « Dans le cas des îles de l’archipel canarien (2 millions d’habitants au total), du fait de la profondeur océanique [plus de 3000 mètres ndlr] rendant très difficile l’interconnexion avec la péninsule ibérique et l’interconnexion également des îles entres elles, l’insularité conduit à la nécessité d’installer des systèmes électriques isolés », souligne Gonzalo Piernavieja Izquierdo. Il en résulte qu’il n’est pas envisageable d’imiter Samsø ou les Fox Islands. El Hierro ne peut faire appel qu’à elle-même.

Le projet El Hierro 100 % énergies renouvelables est unique ; à ce stade, aucune autre île au monde n’est 100 % autonome en énergie, au sens strict. «  Nous avons 5 autres projet de couplage de l’éolien avec le pompage-turbinage sur l’ensemble de l’archipel canarien » s’enthousiasme Gonzalo Piernavieja, natif de l’archipel. « Il y a eu aussi beaucoup de visites de personnes étrangères très intéressées par ce que nous faisons. »

Les îles africaines du Cap Vert suivent le modèle canarien

L’ITC Canarias a une mission de conseil direct auprès du gouvernement des îles du Cap Vert, au large des côtes sénégalaises. « Celui-ci veut notamment mettre en place sur l’île de Brava (6000 habitants, ndlr) le même système symbiotique hydro-éolien que celui en place sur l’île d’El Hierro » se réjouit Gonzalo Piernavieja Izquierdo. Cet archipel, qui tire dès à présent 30% de son énergie de sources renouvelables, veut parvenir à court-terme à l’autonomie énergétique. Un accord de partenariat a été signé entre les gouvernements allemand et cap-verdien à propos de ce projet intitulé « Cape Verde 100% Renewable Energy». Des entreprises allemandes et chinoises sont intéressées par la dynamique Cap-Verdienne. « Dix-sept millions d’Européens et 600 millions de personnes dans le monde vivent sur des îles » rappelle Gonzalo Piernavieja Izquierdo. « Et tous auront la possibilité de suivre le modèle d’El Hierro. Une alternative concrète au pétrole, grâce à l’eau et au vent. »

Pour ce scientifique canarien visionnaire, « ce que le projet d’El Hierro montre, c’est que les îles peuvent être des laboratoires pour les nouvelles technologies énergétiques qui non seulement peuvent être utiles pour les petites îles, mais aussi pour les grandes îles que constituent les continents. ». Avec humanisme il estime que « le point important, c’est que les pays en voie de développement, comme par exemple la Guinée équatoriale, mais également d’autres pays africains, sont très intéressés par notre projet. » La Guinée équatoriale cherche à améliorer son image pour stimuler l’activité touristique, notamment sur les îles au climat très agréable de ce pays ouest-africain, et les responsables politiques ont compris que le verdissement de la production électrique pourrait y contribuer.

A quelques encâblures d’El Hierro, au Portugal, pays qui possède l’une des plus puissantes STEP du monde, 70% de l’électricité a été d’origine renouvelable – et principalement éolienne – au cours du premier trimestre 2013. Passer à de très hauts niveaux d’énergies renouvelables fluctuantes ne peut plus être considéré comme un délire d’écologistes illuminés. C’est à présent une réalité. Et pas seulement pour les petites îles.

L’astronome Ptolémée, dans sa « Géographie », a fait passer son méridien Zéro par l’île d’El Hierro, la plus occidentale des « « îles des Bienheureux » (ou « île des fortunés ») décrites par le poète grec Pindare.  Le roi de France Louis XIII décréta par ordonnance que tous les globes terrestres et cartes devraient prendre ce méridien comme référence de l’origine des longitudes. El Hierro est située dans les Champs Élisées d’Homère, à l’extrémité occidentale de la Terre, près d’Océan, où les héros et les personnes vertueuses et justes goûtent le repos après leur mort. Elle est devenue aujourd’hui un phare d’éco-conscience pour le monde entier, le méridien de référence des économies d’énergie et du développement vraiment durable.

Par Olivier Danielo

La difficile résistance d’un territoire breton désirant accéder à l’autonomie énergétique (interview)

Véritable cerveau stratège portant le projet d’autonomie énergétique de la communauté de Communes du Mené au nord de la Bretagne, Marc Théry (ci-dessous) explique aux Techniques de l’ingénieur les lourdes difficultés qui pèsent en France quand une collectivité veut mettre le cap vers l’autosuffisance énergétique.

Techniques de l’Ingénieur : Comment est né le projet d’autonomie énergétique de la communauté de commune du Mené, et quelles étaient les motivations initiales ?

Marc Théry : Ce projet du Mené est le résultat d’un processus. Le point de départ c’était un souci économique.  Ce territoire repose essentiellement sur l’agroalimentaire, un secteur, en Bretagne et à l’échelle de la France, de plus en plus difficile. Notamment l’élevage qui est assez en danger. Donc comme le Mené est un pays assez pauvre, les gens ont senti très tôt qu’il y avait un problème, et ils se sont demandé ce qu’ils pourraient faire pour améliorer la situation. On a ainsi lancé une étude qui a été faite en partie par Solagro et qui a assez vite aboutit a la conclusion qu’il y avait peut-être quelque chose à faire dans le domaine de l’énergie.

Techniques de l’Ingénieur : Vous êtes vous inspirés d’expériences menées dans d’autres pays que la France ?

Marc Théry : Le point de départ déclencheur a été une visite de trois jours en 2005 à Gussing, un territoire autonome  en Autriche (En savoir plus). On devait visiter des territoires, des choses qui se faisaient ailleurs, cela fait partie de la culture ici, les gens travaillent en allant voir. J’avais des contacts à Gussing, et ce territoire était déjà organisé pour le tourisme éco-énergétique. On a vu un territoire qui était exactement dans la même situation que nous, c’est-à-dire un territoire tout à fait enclavé au fin fond de l’Autriche sans voies de communication. Isolé et en train de dépérir. Les gens ont dit que cela ne pouvait pas durer, qu’il fallait cesser d’importer les matières énergétiques et exploiter les ressources présentes sur le territoire. Et c’est ce qu’ils ont fait.

Quand nous y sommes allés, ils étaient dans la quinzième année de leur processus et étaient déjà autosuffisants dans certains domaines, comme par exemple les carburants (8 millions de litres par an). Et ils avaient créé 1200 emplois sur un territoire de 28000 habitants, ce qui est un niveau considérable. Les gens du Mené sont rentrés très motivés, d’ailleurs toutes les visites que j’ai organisées ont été profitables de ce point de vue.  La visite de Gussing a été comme un coup de marteau qui est tombé sur la tête des gens, une prise de conscience immédiate, un déclic que c’était vraiment une piste extrêmement prometteuse, et qu’aucun des territoires comme le notre, territoires ruraux, ne pouvait passer à côté. C’était une évidence.

Mais malheureusement il est extrêmement difficile d’emmener des élus français voir des choses intéressants à l’étranger. C’est même quasiment impossible, je le dit franchement. Avec les élus du Mené, c’est un cas particulier. On avait un président de communauté de communes intelligent et entreprenant. J’ai proposé d’organiser des visites à des dizaines de collectivités, mais ils ne veulent pas y aller. On est obligé de tout leur apporter sur un plateau et encore ils disent « oui bon… ». Il manque un état d’esprit d’ouverture aux expériences extra-françaises et une volonté d’entreprendre, c’est à mon avis la chose la plus inexistante en France.

Dès que nous sommes rentrés de Gussing, les grandes lignes ont été tracées. La démarche a été balisée en 10 macro-projets, qui étaient pour l’essentiel d’exploiter les filières d’énergie renouvelable qui étaient à notre disposition, l’éolien terrestre, le bois-énergie, la biomasse-méthanisation, la biomasse-carburant. Pas le solaire à cette époque, car ce n’était pas frappant. Depuis nous avons évolué concernant le solaire. Il y a avait aussi les économies d’énergie, et enfin toute la partie animation économique et la création d’un centre de compétences. Le premier projet a été une huilerie. Voir les gens de Gussing rouler avec le carburant local (huile de colza et huiles recyclées) a été déterminant pour les élus du Mené.

Techniques de l’Ingénieur : Y a-t-il d’autres expériences que Gussing qui vous ont inspiré ?

Marc Théry : L’inspiration vient de nombreux endroits. Je suis en relation avec plusieurs territoires. Il y a, dans la région de Mecklenburg- Vorpommern, le district de Lübow-Krassow, un territoire historique au nord de l’Allemagne qui a démarré très tôt dans le domaine des énergies vertes. Brigitte et Ditmar Schmidt (Solarinitiative Mecklenburg-Vorpommern e.V. En savoir plus), deux ingénieurs, ont fait des choses vraiment superbes.

Nous avons également de nombreux contacts en basse-Bavière, notamment à Straubing, sur le Danube. Il y a un centre de compétence allemand tout à fait remarquable avec des chercheurs fondamentaux, des universitaires, et aussi un centre de recherche appliqué, qui s’appelle TFZ Straubing (En savoir plus). Ils font des choses fabuleuses notamment dans le domaine du bois-énergie, des chaudières, des combustions et surtout des huiles-carburant. C’est un creuset de référence où sont faites de nombreuses recherches dans ce domaine. Il y a aussi, à Straubing, le SonnenHaus Institute, l’institut des maisons solaires, une structure tout à fait remarquable également, qui nous a beaucoup inspiré pour les maisons zéro énergie et qui fait des choses vraiment impressionnantes.

Toutes ces initiatives allemandes nous inspirent et permettent aussi d’entretenir la flamme, car il n’est pas facile de tenir ce genre de projet dans le contexte franco-français. Tous les ans, je suis invité au congrès annuel à Lübow-Krassow, cela me permet de rencontrer d’autres acteurs, comme par exemple les chercheurs de l’université de Kassel. Cela fait vraiment du bien de rencontrer ces personnes.

Techniques de l’Ingénieur : Et Freiburg-im-Breisgau dans le Bade-Wurtemberg, avec son célèbre quartier Vauban ?

Marc Théry : Freiburg, c’est un contexte urbain, les enjeux sont différents. Le Mené est un territoire rural. Nous avons organisé des visites correspondant exactement aux besoins de notre territoire. Il y a bien entendu des idées très intéressantes mais ce ne sont pas les mêmes problématiques et les mêmes profils socio-économiques. La ville de Saint-Brieuc, près du Mené, s’y intéresse.

Techniques de l’Ingénieur : Y-a-t-il aussi des projets en France qui vous paraissent pertinents et qui vous inspirent ?

Marc Théry : Aujourd’hui, il y a une expérience qui me parait mieux amorcée que celle de la communauté de commune du Mené, c’est celle de la commune de Montdidier dans la Somme. Dans le Mené, nous nous nous heurtons au plafond de verre du carcan administratif et organisationnel hypercentralisé français. A Montdidier, ils ont plus de chance, ils ont une structure juridique adaptée. Ils ont conservé la Régie de distribution électrique municipale, et c’est le point clé.

Techniques de l’Ingénieur : Serait-il possible de créer aussi une régie chez vous au Mené ?

Marc Théry : Ce n’est plus possible, semble-t-il. La Loi de 1946, dans son interprétation par les hommes de loi, y est complètement opposée. Il y a aussi une autre régie du même type dans le département de la Vienne.

Techniques de l’Ingénieur : Quelles sont les filières renouvelables qui ont progressé au Mené ?

Marc Théry : Tout a bien progressé. Il faudrait faire un bilan fin, rien n’est complètement achevé. Il faut comparer par rapport aux ressources et par rapports aux besoins. Pour l’électricité, ce qui est gênant en France, c’est que l’on n’est pas vraiment dans une logique d’autonomie. Nous sommes au contraire, dans le modèle français, dans une logique « tu verses tout dans le grand pot et tu viens ensuite y puiser », ce qui est antinomique avec la philosophie de l’autonomie.

Techniques de l’Ingénieur : Le cadre réglementaire français n’est donc pas adapté aux projets d’autonomisation énergétique des territoires ?

Marc Théry : Complètement. C’est le plafond de verre. Au Mené, on a une production d’environ 30 GWh électrique par an. Tout ça part par le biais des systèmes de tarifs préférentiel chez EDF et cela ne s’inscrit pas dans une dynamique d’autonomisation.

Techniques de l’Ingénieur : Pensez-vous que ce cadre réglementaire puisse évoluer favorablement en France, notamment avec la transition énergétique affichée par François Hollande ? Un office franco-allemand des énergies renouvelables a par exemple été créé, et une réflexion sur la décentralisation est cours, pensez-vous que cela puisse faire bouger les choses ? Voyez-vous les premiers signes d’un progrès arriver ?

Marc Théry : Non, pas du tout, je ne vois pas ces premiers signes, au contraire. Je suis de ce côté-là très pessimiste. Tout se passe sous la coupe d’EDF. C’est antinomique avec la démarche d’autonomie, fondamentalement. Ce qui est en question ici ce n’est pas seulement de consommer localement l’électricité renouvelable produite localement. C’est toute la question du stockage et de l’équilibrage du réseau électrique.

Techniques de l’Ingénieur : Effectivement, une critique récurrente, concernant les énergies renouvelables, c’est leur nature fluctuante. Que répondez-vous à ces critiques ?

Marc Théry : Le 16 juin 2013, on s’est retrouvé avec un excès de production électrique en France, et comme l’a très bien montré Cédric Philibert de l’Agence Internationale de l’Energie, ce n’était pas du tout lié aux énergies renouvelables, contrairement à une dépêche de l’AFP reprise sans réflexion par de nombreux médias français.  La question de l’équilibrage se pose en termes de flexibilité et peut se régler en stockage. J’ai, sur le Mené des projets qui permettraient d’équilibrer une capacité d’environ 30 MW éolien en puissance installée. Nous disposons de trois moyens pour réaliser l’équilibre.

Premièrement, l’électricité provenant de la biomasse, notamment la méthanisation (en cogénération), on peut l’utiliser comme moyen de lissage. Il faut dimensionner de manière intelligente la puissance de production et la capacité de stockage et il se pose la question du modèle financier. Ce sont deux choses qui n’ont pas encore été faites, nous avons déposé des projets pour obtenir des financements, mais les autorités nous ont répondu que l’autonomie énergétique, « cela n’a aucun intérêt ». Donc on le l’a pas fait dès le départ et après c’est plus difficile.

Deuxièmement la flexibilisation-modulation de la consommation, c’est toute la gestion smart grid, pas à la Linky, mais avec une gestion par effacement et anticipation de production et consommation. C’est un projet que nous avons en cours mais qui est complètement saboté parce que dans le contexte actuel ; c’est une voie qui n’est pas du tout favorisée par l’état. C’est catastrophique. Investir pour économiser est pourtant une approche très pertinente économiquement.

Techniques de l’Ingénieur : Il y a pourtant de grandes annonces gouvernementales concernant les économies d’énergie…

Marc Théry : Bien sûr. Mais concrètement, les acteurs sont confrontés à de vraies difficultés. Ce n’est pas une difficulté technique, mais de modèle économique. Tant qu’on restera dans la logique centralisée du grand pot, cela n’avancera pas. L’Allemagne, elle, a expérimenté d’autres modèles, il y a plusieurs expériences très concluantes.
Le troisième point, c’est le stockage, intégrant différentes technologies. En France, on bricole, rien n’est fait pour encourager le stockage, les modèles économiques ne sont pas adaptés. J’ai un projet de stockage de 10 MW, avec des temps de réponse adaptés, et permettant un stockage de court-terme, de quelques heures. Il s’agit d’un ensemble de technologies, c’est complexe, on intègre les problématiques de temps de réponse et de capacité de stockage.

Techniques de l’Ingénieur : Peut-on aussi miser sur l’interconnexion électrique des communes voisines, voir des régions voisines, tout en restant dans la logique de l’autonomie ? 

Marc Théry : Oui, pour la communauté de communes du Mené, nous ne sommes pas dans une logique insulaire, on peut faire en effet beaucoup mieux. Nous ne sommes pas une île isolée, je ne suis pas dans cette logique d’absolu. Il serait tout à fait pertinent d’optimiser les échanges électriques entre territoires solidaires, avec toujours l’autonomie, relative, en perspective.

Un raisonnement régional permettrait sans doute des investissements communs, comme par exemple, en Bretagne, le projet de STEP de Guerlédan (700 MW), probablement plus judicieux que la multiplication de projets plus petits. Mais pour l’instant, c’est ni l’un, ni les autres. Les instances nationales et régionales préfèrent favoriser l’installation de centrales à turbine à gaz.

Techniques de l’Ingénieur : Vous resteriez alors face aux critiques de ceux qui estiment qu’une autonomie complète est impossible ?

Marc Théry : C’est une question de coût. L’autonomie complète est techniquement possible. Il n’est pas forcément pertinent d’installer d’énormes capacités de stockage qui ne serviront que quelques jours par an. 90% d’autonomie, c’est déjà très bien. Et l’électricité n’est qu’un volet de notre projet.

A des échelles plus petites, au niveau de maisons ou de bâtiments, il y a beaucoup à faire. Je pense d’ailleurs cesser de m’épuiser avec les collectivités pour privilégier à présent cet angle d’approche. Je travaille à présent beaucoup plus avec des particuliers, parce qu’il y a des gens qui sont beaucoup plus éco-conscients. Ces projets très locaux ne pourront qu’aider à l’atteinte des objectifs plus globaux. A titre d’exemple le danois Preben Maegaard, fondateur du Nordic Folkecenter, stocke le surplus d’électricité, surtout éolienne mais aussi solaire, en produisant de l’eau chaude par effet Joule.  Je travaille à présent sur un projet où le surplus d’électricité éolienne et solaire sera stocké dans de l’eau chaude qui servira au chauffage. Le système de chauffage reposera sur un système de pompe à chaleur, on multiplie par quatre l’efficacité énergétique, d’où de précieuses économies. D’autres solutions sont aussi à l’étude.

Au Danemark, et aussi dans le Mecklenburg au nord de l’Allemagne, le solaire photovoltaïque est très important non pas pour l’électricité totale produite mais pour diversifier le mix électrique et avoir un certain lissage, éolien et solaire étant complémentaires. Au Danemark comme en Bretagne, en général quand il y a du vent il y a des nuages et donc pas ou peu de soleil. Et au contraire quand il n’y a plus de vent on a des chances d’avoir du soleil. Cette complémentarité n’est pas forcément vraie dans d’autres régions, comme par exemple en Provence où le vent souffle quand il y a du soleil. C’est à étudier en fonction du contexte local.  A la communauté de Communes du Mené, nous développons le photovoltaïque dans la même finalité qu’au Danemark. Mais le cadre réglementaire français n’est pas adapté pour développer le solaire PV dans le nord de la France en tant qu’énergie complémentaire à l’éolien. Ce cadre est pensé à l’échelle nationale mais devient non pertinent à l’échelle locale dans une perspective de mix électrique équilibré. Depuis 2010, il n’y a presque aucun projet photovoltaïque au-dessus de 100 kWau nord de la Loire. On en revient au problème de fond, la logique centralisatrice.

Techniques de l’Ingénieur : en matière d’économies d’énergie, où en êtes-vous au Mené ?

Marc Théry : Dans le Mené, l’objectif c’est 2/3 de renouvelables et 1/3 d’économies d’énergie. Les économies se font au niveau de nos applications professionnelles et industrielles. Nous avons un très gros industriel qui est un abattoir, dont la consommation représente plus du tiers de la consommation du territoire. L’abattoir a un intérêt économique évident à réduire ses consommations énergétiques.

Les deux autres domaines d’économie sont le transport et l’habitat où nous visons une réduction de 40% de la consommation énergétique. Dans le domaine du transport, l’abattoir offre également de belles perspectives d’économies. Nous étudions la possibilité de passer en multimodal, c’est-à-dire d’abandonner son véhicule thermique à l’arrivée et d’effectuer les déplacements locaux en véhicule électrique, mais aussi de réduire les besoins de transport et de favoriser le covoiturage.

Techniques de l’Ingénieur : Et le vélo ?

Marc Théry : Malheureusement, chez nous, vélo, rollers, skateboard, trottinette et marche à pied sont difficiles car les routes sont dangereuses du fait du passage de camions. Il nous faudra à l’avenir favoriser ces transports doux, même si notre relief n’est pas plat et donc pas forcément adapté. Le problème principal reste la voirie non adaptée. L’habitat étant dispersé, les transports en commun ne sont pas développés.

Techniques de l’Ingénieur : Vous avez fait parti des pionniers du projet du Mené ?

Marc Théry : Au départ, j’étais intervenu en 2003 – 2004 pour expliquer aux élus du Mené que les parcs éoliens étaient extrêmement rentables, et qu’ils auraient bien tort de les laisser aux investisseurs financiers privés. J’avais déjà monté un parc éolien avec des membres de ma famille dans le Pas-de-calais et je savais que cela pouvait rapporter beaucoup, il y avait un retour sur investissement de 25% par an. Donc j’ai expliqué cela aux élus, j’avais soumissionné pour réaliser l’étude qui a été menée au final par Solagro, mais les élus ont considéré qu’il valait mieux que je me positionne de leur côté. Je suis à présent responsable du volet technique et j’effectue surtout les élaborations stratégiques, qui sont ensuite acceptées ou pas par les élus.

Techniques de l’Ingénieur : Un mot de conclusion ?

Marc Théry : Oui. En France, nous est complètement à côté de la plaque. Cela a été en fil rouge tout au long de notre échange. Tout se fait depuis Paris avec des idées loufoques qui favorisent les grosses boîteset qui stérilisent les ressources nécessaires aux projets locaux.

France et Allemagne (fédérale) n’ont pas du tout la même organisation territoriale. Il y a aussi de grosses entreprises de l’électricité en Allemagne : quatre grosses entreprises allemandes de l’électricité pèsent ensemble le même poids qu’EDF. Mais elles sont associées à de nombreuses Petites et Moyennes entreprises. En France, nous sommes complètement bloqués.

Propos recueillis par Olivier Daniélo

  • En savoir plus :

S’inscrire à la newsletter « EnergEthiques » mensuelle rédigée par Marc Théry et accéder aux archives (le mot « EnergEthique » est inspiré du livre « Der energethische Imperativ: 100 % jetzt », livre du député allemand Hermann Scheer, prix Nobel Alternatif, père des lois allemandes en faveur des énergies renouvelables et à l’origine du film-documentaire de Carl-A Fechner « La quatrième révolution : vers l’autonomie énergétique » qui a été diffusé sur ARTE en 2012)

Découvrez les bases documentaires


Revue du Web #47 : les vidéos de la semaine

Cette semaine dans la revue du Web :

  • T8, le robot araignée fabriqué à partir d’une imprimante 3D, à la fluidité impressionnante ;
  • Atlas, dernier poulain très prometteur de la très prolifique Boston Dynamics ;
  • Comment faire tomber un domino de près de cinquante kilos avec un domino de 5x1mm ? Facile !
  • Le gadget (inutile?) de la semaine : fascinantes machines de Rube Goldberg
  • Enfin, en bonus : un DVD qui fleure bon la pizza !

T8, le robot araignée fabriqué à partir d’une imprimante 3D

L’impression 3D a le vent en poupe, pas surprenant qu’on la retrouve maintenant absolument partout, des armes à feu aux technologies de pointe. Pour débuter notre quarante-sixième Revue du Web, laissez-vous bluffer par la fluidité de T8, le robot octopode estampillé Robugtix, une marque de la société Amoeba Robotics Ltd basée à Hong-Kong. Plutôt réaliste, le robot araignée, sobre et élégant, bénéficie des toutes dernières innovations en terme de robotique et de techniques d’impression 3D.

Seule la carapace de T8 est ici sortie d’une imprimante 3D, véritable exosquelette de couleur noire. Sous le capot, la bestiole possède pas moins de vingt-six servomoteurs – trois dans chacune de ses huit pattes, ainsi que deux dans l’abdomen – qui lui permettent des mouvements d’une très grande fluidité, inspirés des mouvements de son parent naturel et velu, la mygale. Le calcul des mouvements est assuré par un système embarqué baptisé Bigfoot Inverse Kinematics Engine, calcul qui se fait bien évidemment en temps réel, au fur et à mesure que l’araignée robotique se déplace. La coordination des pattes, la vitesse, l’allure, rien ne pèche ici.

Le robot, qui ne dépasse pas le kilo, est commandé sans fil à l’aide d’un module radio XBee intégré. La danse lascive de notre araignée peut alors commencer, danse qu’elle effectuera à partir de la fin du mois de septembre prochain pour la modique somme de 1350 dollars (disponible en précommande sur le site de Robugtix).

Atlas, dernier poulain très prometteur de la Boston Dynamics

Dire que la Boston Dynamics ne chôme pas est un pléonasme… Grande habituée de la Revue du Web, la prolifique société américaine, forte du prestige que lui accordent ses différents poulains (Alpha Dog, Big Dog, Proto PET), ne cesse de nous surprendre par la qualité de son travail, la grande polyvalence de ses robots ainsi que par la cadence infernale à laquelle elle améliore ses petits protégés.

La grande famille de la Boston Dynamics s’agrandit : le nouvel avorton, baptisé Atlas, est un robot humanoïde bipède anthropomorphe conçu pour se déplacer en extérieur en terrain difficile, à l’instar de la mule robot Big Dog. Atlas marche comme un être humain, en déroulant son pied à partir du talon, laissant ses membres supérieurs libres pour manipuler son environnement. En terrain particulièrement hostile, le robot humanoïde s’adapte et fait preuve d’une grande coordination, allant jusqu’à s’aider de ses mains pour se frayer un passage à travers les obstacles.

Articulées, les mains du robot Atlas ont été développées pour pouvoir utiliser des outils initialement conçus pour l’usage des humains. Articulée elle-aussi, la tête d’Atlas embarque de nombreuses caméras et un télémètre laser lui permettant de mesurer les distances (avec un mode de fonctionnement proche du sonar avec les ondes acoustiques).

Atlas – encore au stade de prototype – est développé par la Boston Dynamics en collaboration avec le fabricant de robots à usage militaire Foster-Miller, le Jet Propulsion Laboratory (coanimé par la NASA), Trelleborg Sealing Solutions (qui fournit les joints compacts haute performance, la Harvard University Concord Field Station et financé par la DARPA (Defense Advanced Research Projects Agency), agence affiliée au Département de la Défense américain, et chargée de la recherche et du développement des nouvelles technologies destinées à des fins militaires. 

Comment faire tomber un domino de près de cinquante kilos avec un domino de 5x1mm ?

Stephen Morris, professeur de physique à l’université de Toronto, au Canada, aime se poser de petits challenges. Dernier en date, comment parvenir à faire tomber un domino de près de cinquante kilos (cent livres) avec un minuscule domino de 5x1mm ? La réponse semble évidente : il suffit de mettre en place… une réaction en chaîne !

Les explications du professeur canadien sont pour le moins limpides, et font bien évidemment l’objet d’une démonstration. Un domino peut entraîner au maximum, dans sa chute, un domino aux dimensions 1,5 fois plus grandes que les siennes. Après un rapide calcul, on comprend vite qu’il nous faut en tout et pour tout treize dominos de taille croissante, disposés les uns derrière les autres. Le premier domino, minuscule, entraîne dans sa chute un domino 1,5 fois plus grand, qui à son tour entraîne un autre domino 1,5 fois plus grand, et ainsi de suite.

Joueur, Stephen Morris explique d’ailleurs qu’avec 29 dominos alignés les uns derrière les autres, chacun 1,5 fois plus grands que le précédent, on pourrait faire tomber un domino aussi haut que… l’Empire State Building de New-York (qui mesure tout de même la bagatelle de 381 mètres sans son antenne).

Le gadget (inutile?) de la semaine : fascinantes machines de Rube Goldberg

Pour venir conclure cette quarante-sixième Revue du Web, louons la patience, l’ingéniosité et le sens de la dramaturgie d’un petit studio de photographie canadien qui a définitivement plus d’une corde à son arc. Le violon d’Ingres des joyeux drilles de 2D House, un studio basé à Toronto, a de quoi surprendre de prime abord : nos Canadiens se sont spécialisés depuis maintenant quelques années dans l’élaboration de fantastiques machines de Rube Goldberg à la mise en scène particulièrement léchée.

Le gadget (inutile?) de la semaine est l’une des pépites du studio, pépite aussi inutile qu’essentielle, une œuvre d’art à part entière qui rend hommage au célèbre épisode de la pomme d’Isaac Newton, fruit qui en se détachant de son arbre est venu caresser le cuir chevelu de ce dernier et aurait inspiré au célèbre scientifique anglais la théorie de la gravitation. La vidéo est bien filmée, ce qui ne gâche rien.

Ce type d’installation s’inspire, on le rappelle, de l’œuvre prolifique et inventive de Rube Goldberg, un dessinateur et artiste américain mort en 1970, dont les installations avaient pour leitmotiv la transformation d’une tâche excessivement simple en une série de tâches complexes, impliquant la plupart du temps une réaction en chaîne. Chaque élément de la machine vient se frotter d’une manière ou d’une autre à l’élément suivant, remplissant humblement sa fonction, jusqu’à déclencher de fil en aiguille l’action finale, le but initial de la machine de Rube Goldberg.

2D House s’était déjà fait remarquer il y a tout juste deux ans, avec une autre machine de Goldberg qui avait pour thème principal… la photographie

Bonus : un DVD qui fleure bon la pizza

En bonus de notre Revue de cette semaine, voici une initiative pour le moins loufoque prise par une célèbre enseigne de livraison de pizza à domicile pour s’assurer un petit buzz sur internet. Conscients que le combo Pizza + DVD reste l’un des grands classiques des soirées entre amis (pas de discrimination, ça marche aussi si l’on est seul chez soi), les responsables de la communication de Domino’s Pizza ont eu l’idée d’une campagne de publicité faisant fusionner les deux éléments, dans la limite du raisonnable. Non, pas (encore) de Pizza avec des données numériques, lisibles dans un lecteur « adapté ». Ici, c’est plutôt le lecteur de DVD qui jouerait presque le rôle d’ersatz de four à pizza.

En partenariat avec une dizaine de magasin de location de DVD, l’enseigne américaine fondée par Tom Monaghan dans les années 60 a fait imprimer des étiquettes spécialement conçues pour vous mettre en appétit après avoir terminé Argo, le dernier James Bond ou encore The Dark Knight (entre autres titres disponibles). Sorti de son boîtier, le DVD arbore une étiquette noire imprimée avec de l’encre thermique, laissant seulement apparaître le nom du film par transparence. A la fin du film, lorsqu’on sort le DVD du lecteur (dont la température a drastiquement changé en raison de sa rotation dans le lecteur), apparaît alors une image de pizza avec le message suivant : « Vous avez apprécié le film ? Vous apprécierez encore un peu plus le prochain avec une délicieuse et chaude Pizza de chez Domino’s !». Pour couronner le tout, le DVD-pizza laisse s’échapper une « délicieuse » odeur de pizza au sortir du lecteur-four !

Par Moonzur Rahman

La sécurité énergétique entrera-t-elle dans le débat ?

Les énergies renouvelables intermittentes sont aujourd’hui prioritaires sur le réseau. Cela signifie que toute leur production est injectée dans le réseau électrique. Lorsqu’elle est importante, cela peut nécessiter l’arrêt de certaines centrales, qui vont donc « s’effacer » pour permettre l’équilibre entre la production et la demande. Avec le développement massif des énergies renouvelables dans certaines régions, cela peut poser différents problèmes, notamment des risques de black-out de plus en plus élevés à cause d’un écroulement de fréquence arrivant trop rapidement . Paradoxalement, le réseau est en situation de surcapacité, ce qui menace la fermeture des centrales de pointe.

« Le marché tel qu’il a été construit il y a 20 ans est totalement inadapté à la situation actuelle et notamment à la situation de l’intermittence », note Claude Mandil, ancien directeur exécutif de l’Agence internationale de l’énergie (AIE). D’autant plus que les centrales à gaz dont l’infrastructure a besoin pour répondre à l’intermittence des énergies éoliennes et solaires sont les premières à fermer. En cause ? Un prix du charbon trop faible et, en l’absence d’un prix du CO2 adéquat, une compétitivité trop faible. Pour tenter de sauver les installations en surcapacité qui ne fonctionnent qu’à certains moments et ne sont pas rentables, un marché de capacité est en cours de construction. Il donne un coût à l’intermittence, un coût à la pointe et en face, donne de la valeur au stockage, au lissage et à l’effacement.

Un marché à deux vitesses

Le système actuel où coexistent la production subventionnée et la production valorisée sur les marchés fonctionne au détriment des centrales de pointe. Les énergies renouvelables subventionnées matures  « doivent être sensibilisées aux signaux de marché le plus vite possible », estime Claude Mandil. La situation pour le gaz est similaire avec un marché spot et des prix indexés sur le pétrole hors marché. « Comme pour les renouvelables, quand on met une partie de l’activité hors marché, dans un marché, ça ne marche pas », estime-t-il. Il n’y a pas 36 solutions au problème, « Il faut faire reconnaître par un maximum d’acteurs le fait que l’architecture du marché est à rebâtir », affirme-t-il.

Cette transition visant à faire évoluer progressivement les dispositifs de soutien aux renouvelables pour les exposer au marché à partir d’un système de tarif d’achat sera complexe et difficile à mettre en œuvre. Cela est d’autant plus vrai que les énergies renouvelables intermittentes doivent encore être soutenues pour se développer. Pour preuve, la situation critique des installations de cogénération et la baisse de raccordement du nombre d’éoliennes et de panneaux solaires à cause, notamment de tarifs d’achats. Le casse-tête semble difficile à résoudre si l’on veut respecter les objectifs de développement des énergies renouvelables à l’horizon 2020.

Des certitudes bouleversées

Mais en fait, qu’est-ce que la sécurité énergétique ? Le consommateur parlera de sécurité d’approvisionnement, lorsque le fournisseur parlera plutôt de sécurité de la demande. Ces deux visions doivent être assurées à court, à moyen et à long termes et reposent notamment sur l’adaptabilité du réseau à des variations prévues ou non prévues. Pour ce faire, cela nécessite des investissements de long terme, notamment sur les infrastructures. 

Du côté des fournisseurs, la sécurité sera aussi la sécurité d’approvisionnement en matières premières. Cela ne signifie pas la fin des importations en pétrole, gaz ou uranium, mais plutôt une diversité des sources d’approvisionnement et du mix énergétique et électrique.

Aujourd’hui, la carte de l’énergie est en plein bouleversement. La demande est tirée par l’Inde, la Chine et les marchés émergents. La Chine est en train d’attirer la majorité de la production pétrolière du Golfe, le gaz se détourne de l’Europe pour aller en Asie … Les Etats-Unis sont en train de devenir auto-suffisants en gaz et en pétrole et « inondent » l’Europe de charbon bon marché. Quand les américains exploitent des huiles de schiste, cela rebooste leur industrie du raffinage et plombe la nôtre… Assurer la sécurité énergétique apparaît donc comme un défi capital.

Par Matthieu Combe, journaliste scientifique

Le casse-tête de l’eau contaminée à Fukushima

La situation s’aggrave de jours en jours.

Alors que la compagnie Tokyo Electric Power (Tepco) avait noté une élévation alarmante du niveau de césium radioactif, il semble que le phénomène progresse encore. En à peine quelques jours, le taux de césium radioactif 134 dans la nappe phréatique a bondi d’un facteur 100.

Le 5 juillet, Tepco mesurait 99Bq de césium 134 par litre et 210 Bq de césium 137 par litre. Le 8 juillet, soit trois jours après, ces taux grimpaient respectivement à 9000 Bq/L et 18 000 Bq/L. Les prélèvements du 9 juillets confirment l’évolution avec des taux de 11 000Bq/L et 22 000 Bq/L !

Ces relevés ont été effectués dans un forage situé entre les réacteurs de la centrale et le bord de mer.

« Nous ne sommes pas pour le moment en mesure de dire si l’eau contaminée s’écoule ou non dans la mer » déclare Tepco. L’ignorance de la compagnie ne s’arrête pas là puisqu’elle n’avance aucune explication quand à l’origine de cette élévation. Tepco en est réduite à renforcer les contrôles et les prélèvements. La société promet toutefois de bâtir une paroi enterrée étanche, positionnée entre la centrale et l’océan. Celle-ci devrait être achevée début 2014.

Le problème est qu’aujourd’hui, la contamination des eaux de mer  semble ne plus faire aucun doute. Même l’autorité de sûreté nucléaire japonaise reconnait qu’ « il existe de forts soupçons que l’eau hautement radioactive accumulée dans le sol ne se répande dans la mer ».

En effet, pour refroidir les réacteurs, Tepco verse en continu 5 m3 d’eau douce par heure  et par réacteur, soit des centaines de tonnes d’eau. Celle-ci  s’écoule au travers de nombreuses galeries et tranchées, et est finalement pompée. L’eau est ensuite partiellement décontaminée  puis réinjectée dans le circuit de refroidissement des réacteurs. Mais cette eau pourrait bien s’infiltrer dans la nappe phréatique située juste en dessous de la centrale et la contaminer. Les composés radioactifs qui auraient ainsi migrés depuis le début de la catastrophe remonteraient vers le bord de  mer, d’où ces mesures de radioactivités avec des seuils de plus en plus élevés.

Si cette hypothèse, émise par l’Institut de radioprotection et de sûreté nucléaire (IRSN), est la bonne, alors les seuils vont continuer à augmenter jusqu’à atteindre un pallier, avant de finalement redescendre.

Shunichi Anaka, directeur de l’autorité de sûreté nucléaire japonaise souhaite désormais que « tout en faisant la lumière sur l’origine de cette contamination, soient prises les mesures appropriées. Il est également nécessaire d’évaluer l’impact sur les espèces halieutiques et les fonds marins ».

Dévastée par un tsunami en mars 2011, la centrale de Fukushima pourrait bien mettre plus de quarante ans à être démantelée.

Par Audrey Loubens, journaliste scientifique

Première vidéo des mouvements de la matière de l’univers

Leur mission est de permettre à toute la communauté scientifique de disposer d’une cartographie dynamique de notre Univers local.

Défi réussi puisque une équipe de chercheurs impliquant des français de l’Institut de physique nucléaire de Lyon (Université Claude Bernard Lyon 1 / CNRS) et le CEA-Irfu, et des équipes de l’Institut d’astronomie de l’Université d’Hawaii et de  l’Institut de physique Racah de l’Université de Jérusalem, ont mis en ligne la première vidéo des mouvements de la matière de l’Univers.

Celle-ci couvre 300 millions d’années-lumière. On y découvre notamment la nette correspondance entre les puits de matière noire et la position des galaxies, ce qui confirme le modèle standard de la cosmologie. 

La vidéo de plus de 17 mn est explicitée grâce à une voix off et diverses animations permettant de bien comprendre les images.  Des zooms et des changements d’angles de vues suivent l’évolution de certaines structures ainsi que leurs mouvements dans les trois dimensions. Cette vidéo propose une plongée au cœur de l’univers, des galaxies et de la matière noire étonnante.

Un film qui se veut un outil original pour les scientifiques qui disposent désormais de cartes précisues de notre Univers proche.

Découvrir le film :

Par Audrey Loubens, journaliste scientifique

 

 

Le guide Ecofrugal, respecter plus pour dépenser moins

Le guide Ecofrugal est un recueil de 99 fiches, chacune décrivant une solution économique et écologique facile à mettre en œuvre dans la vie quotidienne.

Les fiches couvrent 12 domaines : alimentation, consommation, énergie, entretien, famille, finance, habitat, loisir, santé, technologie, transport, travail. L’ambition du guide est de montrer qu’il est possible d’améliorer sa qualité de vie et de réduire son impact environnemental tout en dépensant moins.

Le gaspillage alimentaire, la gourde d’eau ou encore les bienfaits du télétravail sont quelques exemples des sujets traités, tous bien documentés et certains accompagnés de témoignages.

La publication de cet ouvrage s’inscrit dans le cadre du projet fondé par Philippe Green, ancien conseiller financier, lEcofrugal project. L’objectif du projet est de sensibiliser les citoyens aux enjeux du développement durable. Un projet participatif car tous les internautes sont invités à partager leurs solutions écofrugales pour en faire bénéficier le plus grand nombre sur le site Internet (http://www.ecofrugalproject.org) : s’échanger des conseils, faire connaître ses bonnes pratiques, s’entraider en troquant, donnant, mutualisant, etc. Le projet mise sur les arguments sonnants et trébuchants pour convaincre les entreprises et les individus de réduire leur impact environnemental.

Le guide écofrugal existe en version papier et est aussi téléchargeable au format PDF en e-book sur le site (http://www.ecofrugalproject.org).

  • Le guide Ecofrugal par Philippe Green – 576 pages  – Prix : 29,90 €  – ISBN : 978-2-9542184-1-0

Liens complémentaires :