Rapport de l’ADEME : l’analyse d’un ancien directeur de centrale nucléaire

Le texte ci-dessous est une réponse à l’article publié le 23 avril 2015 : Energies Renouvelables en France. Un ex-directeur de centrale nucléaire et un expert de l’Agence Internationale de l’Energie livrent leurs analyses.

 

Voici la réponse d’Alain Marcadé :

Le contexte : un rapport explosif de l’ADEME qui valide la faisabilité d’un mix électrique avec 100% d’énergies renouvelables (EnR) en France dès 2050, et qui est contesté par plusieurs scientifiques (dont l’auteur de ces lignes).

Ce rapport a été favorablement accueilli par plusieurs médias ; l’auteur de l’article « Energies Renouvelables en France. Un ex-directeur de centrale nucléaire et un expert de l’Agence Internationale de l’Energie livrent leurs analyses« , journaliste collaborant avec la rédaction des Techniques de l’Ingénieur en a fait la promotion, en soulignant  que le coût de ce mix était sensiblement le même que celui du mix comprenant 40% d’EnR et 50% de nucléaire, retenu comme cible par le gouvernement.

Dans les commentaires des lecteurs j’avais qualifié ces conclusions d’irréalistes, notamment en raison des moyens de stockage démesurés qu’il faudrait créer. J’affirmais que les EnR ne pouvaient que jouer un rôle d’appoint – mais néanmoins utile –  au nucléaire dans notre pays.

Sortant mes propos de leur anonymat (j’écrivais sous mon pseudo), la direction éditoriale des Techniques de l’Ingénieur a alors publié le 23 avril un article destiné à  corriger mes propos « erronés » car  basés sur des « idées préconçues ». Puis le journal m’a conseillé gentiment de me procurer le rapport complet de l’ADEME et de l’analyser en détail, en vue de rédiger un « droit de réponse » : le voici donc.

Que penser de prime abord de ce rapport  de 118 pages ?

Il a fallu plusieurs lectures attentives de ce rapport, avec l’appui de quelques amis ingénieurs à la retraite, pour en faire le tour. La méthodologie utilisée semble rigoureuse, le niveau de détail et les moyens de calcul déployés sont impressionnants.

En bref, le document  fait des hypothèses sur :

  • la consommation du pays en 2050 ;

  • l’éventail des moyens de production renouvelables disponibles et de leurs « externalités » ;

  • l’évolution des coûts d’investissement dans ces nouvelles technologies ;

…  pour proposer in fine un mix optimisé à l’aide d’un modèle mathématique. 

Sans surprise, l’éolien et le photovoltaïque (PV) se taillent la plus grande part et l’intermittence est compensée par des moyens de stockage à différentes échelles de temps et de capacité.

La surprise vient en revanche du résultat de l’optimisation, qui décrit un dimensionnement relativement « raisonnable » et  des coûts du kWh modérés (à peine supérieurs de 30% à celui du kWh d’aujourd’hui) : bref, un résultat en totale contradiction avec toutes les évaluations que nous avions faites jusqu’alors, dont l’analyse s’imposait.

Avec nos modestes moyens, par quel bout prendre l’analyse du document de l’ADEME ?

Notre réflexe d’ingénieurs a été d’engager d’abord une analyse purement technique, avant de se pencher sur les hypothèses économiques. Nous avons donc entrepris d’examiner en détails la cohérence du dimensionnement physique proposé, et de vérifier que toutes les contraintes techniques avaient bien été prises en compte. Pas facile vu la complexité du mix…

Nos « stress tests » sont consignés dans la note suivante (ICI).

Ils sont particulièrement édifiants : plusieurs erreurs ou impasses majeures ont été détectées  dans l’étude de l’ADEME, et invalident totalement ses conclusions

Cette situation est  extrêmement troublante, quand on considère la qualité des scientifiques qui ont contribué à l’étude et la durée (14 mois) de son élaboration.

Nous serions-nous trompés nous-mêmes ? Nous avons la conviction que ce n’est pas le cas, mais nous soumettons notre démonstration à la perspicacité des lecteurs des « Techniques de l’Ingénieur »  pour qu’ils nous signalent d’éventuelles insuffisances. 

En l’état actuel, nous avons toutes les raisons de penser que les lacunes sont dans le document de l’ADEME  et que certaines sont rédhibitoires.

Quelles sont ces graves lacunes ?

Elles sont au nombre de trois : 

  • un sous-dimensionnement important des moyens de production et de stockage, car ont été purement et simplement omis dans le calcul les pertes d’énergie dans le réseau, et, plus grave, le très faible rendement du procédé de méthanation utilisé pour réaliser le stockage inter-saisonnier, (même si une valeur optimiste de ce rendement est mentionnée dans le rapport.)

  • une compensation très insuffisante de l’intermittence des EnR, qui conduirait avec le mix proposé à plusieurs « black-out » par hiver dans notre pays. La démonstration s’appuie sur des courbes réelles de production intermittente facilement accessibles sur le site de RTE, et irréfutables.

  • l’oubli d’examiner la capacité des moyens mis en œuvre à assurer l’équilibre instantané du système électrique, caractérisé par le maintien de la fréquence et de la tension dans des marges étroites. Les solutions technologiques envisagées dans ce but ne sont même pas évoquées (et probablement délicates à concevoir puis mettre en œuvre). En tout état de cause, elles sont aujourd’hui un frein majeur aux tentatives concrètes de développer des mix de production électrique avec des taux significatifs de moyens de production intermittents (par ex dans les îles).

À ce niveau de l’analyse, la conclusion s’impose d’elle-même : techniquement, le mix proposé ne peut satisfaire les besoins de notre pays en électricité, pour les trois raisons précitées dont chacune suffit à invalider les résultats de l’étude de l’ADEME.

On aurait pu s’arrêter là, mais la curiosité nous a conduits à poursuivre l’analyse.

En corrigeant les erreurs et oublis de l’étude, peut-on aboutir quand même à un mix 100% renouvelable qui reste viable ?

Les conclusions de cet exercice délicat (nous ne disposons pas d’outils de modélisation) sont exposées dans la note jointe : 

  • s’il est théoriquement possible d’augmenter de manière significative les moyens de production et de stockage inter saisonnier pour compenser les pertes « oubliées », le dimensionnement qui en résulte est déraisonnable (nombre d’éoliennes, taille des électrolyseurs…) car il conduirait à des investissements et à un impact environnemental inacceptables,
  • pour passer sans coupure les périodes critiques d’hiver, la seule solution industrielle consiste à installer des TAC (turbines à combustion) alimentées par le gaz de synthèse stocké, mais la puissance requise (plus de 30 GW !) condamne cette solution ultime,
  • il n’existe pas de solution immédiate pour assurer l’équilibre instantané du réseau avec le mix proposé dans l’étude (le PV notamment peut difficilement générer ces « services système »). En s’appuyant sur l’expérience d’autres pays, on peut affirmer qu’il sera difficile de dépasser en France le seuil de 30% de moyens intermittents, et que de la R&D sera nécessaire pour progresser.

Ce qui conduit à conclure qu’une prise en compte honnête de l’ensemble des contraintes techniques ne permet pas d’envisager un mix 100% renouvelable dans notre pays à une échéance de quelques décennies.

Faisons quand même l’hypothèse que les contraintes techniques non résolues le soient d’ici à 2050 : pourrait-on alors concevoir un système économiquement rentable ?

On a sommairement chiffré, sur la base des coûts actuels, le mix 100% renouvelable de référence de l’étude ADEME, corrigé des sous-dimensionnements détectés. L’investissement à consentir est colossal : près de 750 milliards d’€ !

Évidemment, des baisses de coût se produiront d’ici 2050 sur les matériels arrivant à maturité industrielle ; mais même avec des hypothèses optimistes, on aura du mal à descendre sous 600 milliards d’€, ce qui constitue un effort inenvisageable pour nos concitoyens, d’autant que la plupart des installations à construire ont une durée de vie d’une vingtaine d’années seulement.

Ce montant est à comparer à l’effort financier qui serait nécessaire pour reconstruire la totalité du parc nucléaire avec des EPR standardisés et optimisés dont la durée de vie est de 60 ans, qui s’élève à 240 milliards d’€.

En conclusion, le nucléaire reste incontournable dans les  décennies à venir ?

L’étude de l’ADEME a le mérite de mettre en perspective un mix idyllique composé de 100% de moyens de production renouvelables en utilisant, pour compenser l’intermittence de la majorité d’entre eux, des moyens de stockage à différentes échelles de temps. 

Malheureusement, elle a manifestement sous-estimé les conséquences de cette intermittence, ce qui ne permet pas de conclure qu’un tel mix serait accessible à l’horizon 2050 dans notre pays.

Les moyens de production pilotables restent donc incontournables, en particulier le nucléaire qui est la seule énergie à ne pas émettre de CO2 ; le mix optimal à moyen terme sera donc constitué d’une base de production nucléaire complétée par des énergies renouvelables, hydraulique en tête, avec d’autres EnR non intermittentes qui ne sont limitées que par leurs possibilités physiques et leur compétitivité coût.

Il reste à définir précisément la part de ces énergies renouvelables dans un mix optimal, en sachant que des valeurs supérieures à 30-40% d’électricité intermittente constituent une gageure.

Par Alain Marcadé

L’Union internationale des télécommunications fête ses 150 ans

Article premier : « Les hautes parties contractantes s’engagent à affecter au service télégraphique international des fils spéciaux, en nombre suffisant pour assurer une rapide transmission. » Nous sommes en 1865, alors non, on ne parle pas encore de 4G. L’Union internationale des télécommunications (UIT) vient d’être fondée avec pour rôle d’encadrer l’échange d’informations à l’échelle internationale. Depuis, les moyens de communications ont bien changé et l’Article 3 « L’appareil Morse reste provisoirement adopté pour le service des fils internationaux » parait bien désuet. Aujourd’hui, l’UIT s’est adapté aux nouvelles technologies. Cette institution spécialisée des Nations Unis établit les normes des télécommunications, attribue des bandes de fréquence, définit les orbites des satellites…

garantie du secret des échanges n’est plus

Parmi les évolutions, la garantie du secret des échanges n’est plus. Alors que l’Article 5 stipulait que les parties  « […] s’engagent à prendre toutes les dispositions nécessaires pour assurer le secret des correspondances et leur bonne expédition », l’actuelle constitution précise qu’elles se « […] réservent le droit de communiquer ces correspondances aux autorités compétentes ». Au 21ème siècle, les Etats sont obsédés par la surveillance des informations, essentielle pour anticiper d’éventuelles attaques terroristes. A tel point que l’espionnage s’intéresse à tous le monde. Les documents révélés par Edward Snowden, ancien agent des services secrets américains (NSA) illustre l’ampleur du phénomène. Quel que soit le mode de communication, l’information échangée est surveillée, de façon légale ou non. Ainsi la NSA  capte un maximum de métadonnées, n’hésitant pas à exiger les informations transitant par les réseaux sociaux et les moteurs de recherche. La France, pourtant signataire de la convention télégraphique, n’est pas en reste. L’année dernière, le journal Le Monde révélait via un document interne des services secrets britanniques comment la DGSE collaborait très étroitement avec Orange pour collecter des informations, et ce, sans le consentement des utilisateurs.

Réunissant désormais 193 Etats membres et près de 700 entités du privé, l’UIT contribue principalement à assurer le développement et le bon fonctionnement des réseaux de communication, du point de vue technique et d’exploitation. « Au cours de ses 150 années d’existence, l’UIT n’a cessé de promouvoir la coopération internationale, s’employant à trouver des moyens pratiques d’intégrer, au fur et à mesure de leur développement, les nouvelles technologies de la communication, dans l’intérêt de tous » résume Houlin Zhao, Secrétaire général de l’UIT.

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Un belge reçoit le « Prix Nobel » du logiciel libre

C’est le ministre wallon de l’Economie Jean-Claude Marcourt qui l’a annoncé, en marge de la mission économique princière au Qatar et aux Emirats arabes unis. Cette distinction est décernée pa la Free Software Foundation.

Cet ingénieur en imagerie médicale a été récompensé au Massachusetts Institute of Technology (MIT) de Boston pour son logiciel libre « ORTHANC », en recevant l' »Award for the Advancement of Free Software ». « Il s’agit d’une belle reconnaissance pour notre pays, qui doit être mise en relation avec les efforts de développement de logiciels libres et de données libres en Belgique », a commenté le ministre.

Source : bulletins électroniques

Et aussi dans les
ressources documentaires :

Clear, l’application qui détecte les messages honteux sur les réseaux sociaux

Si les réseaux sociaux, Twitter en  tête, peuvent s’avérer utiles pour trouver un emploi, ils peuvent aussi représenter une menace pour qui aura oublié une photo “intime” publiée sur Facebook il y a longtemps, mais susceptible de ressurgir un jour, ou un tweet ridicule ou vulgaire.

Pour régler le problème, l’application Clear (nettoyage, en anglais) propose de scanner vos comptes Twitter, Facebook ou Instagram, de les analyser, puis de vous signaler des “publications négatives” à supprimer. 

Fonctionnant avec les appareils iOS, Clear a été conçu par Ethna Czahor, qui a participé à la campagne politique du gouverneur de Floride Jeb Bush, et qui a été licencié à cause d’ancien tweets sexistes ou homophobes. Selon l’américain, interviewé par le magasine Time, son application devrait permettre à l’internaute de “ne plus perdre son temps à vérifier, page après page, toutes ses anciennes publications”. Même si “le système permettant d’analyser les tweets et déterminer ceux qui sont offensants” n’est pas encore parfait et reste à peaufiner.

A noter que pour l’instant, ce programme, qui utilise des algorithmes et le superordinateur Watson, d’IBM, n’analyse que les statuts en langue anglaise. L’application est encore en mode beta, et pour être prévenu lorsqu’elle sera disponible sur l’App Store, les intéressés peuvent s’inscrire sur une “waiting list”.

Par Fabien Soyez

Et aussi dans les
ressources documentaires :

Les rats éprouvent suffisamment d’empathie pour aider d’autres rats en détresse

Prenez une boite divisée en deux zones, l’une avec de l’eau et l’autre sans. Un sas sépare les 2 parties.

Placez un rat dans la moitié avec un fond d’eau de telle sorte qu’il soit à moitié immergé et un deuxième de l’autre côté. Si le rat bien au sec s’est déjà trouvé immergé dans la zone de la boite contenant de l’eau, alors il va s’empresser d’ouvrir le sas pour libérer son « ami » rat.

Une aide qu’il apportera même s’il ne s’est jamais retrouvé dans la situation du rat immergé, mais avec moins de rapidité.

A contrario, si aucune zone de la boite n’est inondée, les rats ne cherchent pas à ouvrir le sas.

Cette expérience prouve que les rats sont capables de ressentir de l’empathie vis-à-vis de leurs congénères. Mieux, cela témoigne qu’une mauvaise expérience passée renforce ce sentiment face à un congénère affrontant cette même mésaventure.

Cette aptitude à l’empathie avait déjà été suggérée en 2011 par des chercheurs de l’Université de Chicago. Ils avaient montré que des rats pris dans un appareil de contention pouvaient compter sur leurs congénères pour les délivrer.

Cette empathie, qui consiste se mettre à la place de l’autre et à ressentir ses émotions, n’est donc pas réservée à l’être humain. A ce jour, la capacité de ressentir de l’empathie est attribuée aux singes, aux dauphins, aux éléphants, et donc aussi aux rats.

  • Voir la vidéo de l’expérience :

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Un hacker affirme avoir réussi à prendre le contrôle d’un avion et à le dévier de sa trajectoire

« Je suis sur un Boeing 737/800, voyons voir la boite IFE ICE SATCOM. […] Mettez vos masques à oxygène ». Ce tweet publié le 15 avril vers 22h par Chris Robert n’a pas vraiment fait rire le FBI. Alors que ce spécialiste en sécurité informatique est tout juste débarqué à Syracuse, la police l’arrête pour un interrogatoire en règle. Et confisque son équipement informatique au passage. 

Chris Robert aurait réussi à s’infiltrer dans le système de l’avion en branchant son ordinateur au Seat Electronic Box grâce à un câble modifié. De quoi lui permettre d’atteindre l’In-flight Entertainement System (IFE) que sont les écrans placés à l’arrière des sièges pour visionner des films par exemple, puis le système de contrôle de l’avion, le Thrust management computer. Chris affirme avoir pu contrôler l’un des moteurs et fait faire un mouvement de côté à l’avion dans lequel il se trouvait.

Toutefois, la confusion règne sur les piratages réalisés en vol et ceux réussis sur des simulateurs de vol. Notamment la prise de contrôle de la trajectoire de l’avion qui ne serait « que » virtuelle, les seuls piratages réussis en vol se limiteraient à l’affichage de messages sur les écrans des passagers. 

A la tête d’une société de cybersécurité, Chris Robert aurait déclaré avoir hacké une dizaine d’avions entre 2011 et 2014. A ce jour, aucune charge n’est retenue contre lui. Chris Robert est connu pour s’intéresser de prêt à la sécurité des avions avec pour objectif affiché de l’améliorer, il donne même des conférences à ce sujet. Désormais sous étroite surveillance, le hacker ne devrait plus s’amuser à pirater des avions, réels ou virtuels, comme il l’a lui-même confirmé via twitter : « Vu la situation actuelle, on m’a conseillé de ne plus parler ».

Par Audrey Loubens

La directive Seveso 3 pourrait secouer les industriels

La troisième version de la directive 2012/18/UE, dite “Seveso 3”, qui concerne la maîtrise des dangers liés aux accidents majeurs impliquant des substances dangereuses, entre en application le 1er juin 2015. Un texte très important pour les industriels : le référentiel qui permet de déterminer la nature d’une substance dangereuse sera désormais basé sur le système de classification des substances et mélanges du réglement européen CLP (“Classification, Labelling, Packaging”). 

Ce référentiel international, promulgué en 2009 par le Parlement européen, et qui entrera en vigueur dans le même temps, était déjà obligatoire  pour les substances depuis 2011. Il s’appliquera désormais aux mélanges à partir du 1er juin.

Le référentiel du CLP distingue 16 classes de dangers physiques, alors que le système précédent n’en définissait que 5. Il distingue aussi 10 classes de dangers pour la santé (contre 9 précédemment). Les fiches de sécurité (FDS) et les étiquettes des mélanges de produits dangereux devront être modifiés en conséquences.

Le classement Seveso dépendant des quantités de substances dangereuses présentes, de nombreux établissements devraient entrer ou sortir du dispositif – selon Actu Environnement, les changements devraient concerner, en France, plus de 200 installations sur un total de 1200. Selon Anabel Lahoz, ingénieur à l’Ineris, interrogée par le site spécialisé, “pour les établissements qui étaient déjà classés Seveso et qui le restent, les changements sont moindres, la directive Seveso 2 ayant fait ses preuves.”

La législation Seveso aurait ainsi, selon la Commission européenne, “ joué un rôle fondamental dans la réduction de la probabilité d’accidents majeurs impliquant des substances dangereuses et l’atténuation de leurs conséquences, étant donné que le nombre d’accidents signalés a diminué de 10% entre 2000 et 2008, en dépit de l’augmentation du nombre d’établissements”.

Mais le 1er juin, des entreprises qui n’étaient pas classées Seveso pourraient entrer dans le champ de Seveso 3, en raison de ce référentiel, qui reconsidère les produits en fonction de leur dangerosité – des produits classés inflammables en Seveso 2 étant par exemple considérés comme “très inflammables” par Seveso 3. Pour ces industriels, une importante réorganisation sera probablement nécessaire.

Par Fabien Soyez

Publication du rapport sur l’énergie éolienne en Allemagne en 2014

En 2014, 4665 MW d’éolien terrestre ont été installés – un niveau maximal qui dépasse même le record de 2002 de plus de 45%. En puissance cumulée, ce sont désormais un total de 38 215 MW d’éoliennes qui sont en service à travers l’Allemagne. Pour la première fois, des nouvelles installations ont été réalisées dans tous les Lander allemands. La plus forte augmentation a eu lieu dans le Schleswig-Holstein avec 1 293 MW, suivi par la Basse-Saxe avec 600 MW (régions septentrionales plus venteuses). La plus grande augmentation en pourcentage est cependant à relever dans le sud de l’Allemagne, en Bavière (+27%). Les turbines de 3 et 4 MW occupent les plus grandes parts de marché. Les installations ont en moyenne un diamètre du rotor de 99 m et une hauteur de 115 m.

Dans le domaine offshore, 141 éoliennes ont été mises en service pour un total de 523 MW (dans les parcs éoliens de DanTysk, Mer Vent Sud / Est, Nord-Est et Riffgat (partiellement)), de sorte qu’à la fin de l’année 2014, un total de 1 044 MW a été installé dans les eaux allemandes. Par ailleurs, 286 éoliennes offshore supplémentaires, avec une capacité totale de 1 269 MW, ont été installées, mais n’étaient pas encore connectées au réseau à la fin de l’année 2014. Dans le monde entier un total de 2 693 éoliennes offshore ont été mises en service représentant une puissance cumulée de 8 493 MW dans 104 parcs éoliens offshore.

Avec une production totale de 161 TWh issue des énergies renouvelables, l’Allemagne couvre ainsi 27% de ses besoins en électricité. Pour la première fois, les énergies renouvelables (tous types confondus) étaient la principale source de production d’électricité en Allemagne : au cours des neuf premiers mois, davantage d’électricité a été produite par des sources renouvelables que par le lignite. En couvrant 9,7% de la consommation d’électricité en Allemagne, un pourcentage similaire au gaz naturel, l’énergie éolienne est en pleine expansion, et représente ainsi un solide pilier de la transition énergétique en Allemagne.

Le rapport sur l’énergie éolienne en Allemagne 2014 documente et illustre le rôle de l’énergie éolienne dans le mix des énergies renouvelables, le développement de l’énergie éolienne onshore et offshore, et les défis de l’intégration du réseau à l’aide de nombreuses exemples. Dans ce rapport annuel, le Fraunhofer IWES fournit, des statistiques sur le développement de l’utilisation de l’énergie éolienne depuis 1991. Depuis 2009, le rapport inclut des informations sur le développement de l’énergie éolienne offshore. Depuis 2011, des rapports spéciaux (« Special Reports ») donnent un aperçu des tendances et priorités actuelles. En 2014, les auteurs ont identifiés les thèmes de recherche suivants :

  1. Les matières premières critiques pour l’expansion de l’énergie éolienne
  2. La performance des éoliennes
  3. Les facteurs régionaux du marché de l’éolien
  4. L’impact de la nouvelle procédure d’appel d’offres en Allemagne
  5. Les scénarios pour l’expansion de l’éolien offshore en Allemagne

Source : Bulletins électroniques

Et aussi dans les
ressources documentaires :

Les routes électriques : une possible réalité pour l’avenir des transports ?

Les scientifiques japonais s’intéressent à un nouveau type de route pouvant alimenter une voiture électrique. Le concept étudié par le professeur Takashi Ohira de Toyohashi University of Technology serait de transmettre l’énergie nécessaire au moteur via les pneus du véhicule. Depuis 2011 son équipe de chercheurs travaille sur le sujet en collaboration avec l’entreprise Taisei et a pu réaliser une démonstration en octobre dernier lors du salon Ceatec Japan : un petit véhicule a parcourant 5 mètres sans batterie.

Pour que les pneus puissent servir de relais entre la route et le moteur, la structure en caoutchouc isolante a été renforcée par des ceintures de métal et des câbles. Cela permet ainsi de créer un champ électrique entre 2 métaux proches mais sans contact grâce à un courant très haute fréquence.

En Janvier dernier, l’équipe a réussi à faire progresser cette technologie en faisant avancer un véhicule à 6km/h sur une vingtaine de mètres. Cette méthode élimine ainsi tout besoin de recharger son véhicule, qui peut rouler tant qu’il se trouve sur une route électrique. Taisei a ainsi pour objectif d’obtenir une version commercialisable durant l’année fiscale* 2016 afin dans de faire rouler, dans un premier temps, les véhicules se déplaçant à l’intérieur de bâtiments tels que les aéroports ou les usines. Cependant, l’entreprise espère également conquérir les routes extérieures et devrait pour cela construire dès cette année une piste extérieure et essayer de faire fonctionner un petit véhicule à environ 30km/h.

De son côté Toyota aurait testé une méthode de rechargement inductif, venue des Etats-Unis. Permettant de recharger le véhicule sans fil, une batterie reste nécessaire à son fonctionnement car cette technologie n’est pas un système d’approvisionnement permanent. De plus, certains experts estiment que cette technologie est plus coûteuse que le système de route électrifiée.

Néanmoins, la solution des routes électrifiées se heurte à de nombreux défis : le coût d’installation sous l’asphalte de la technologie, le fonctionnement des véhicules qui pourraient dévier des rails électriques de la route et seraient privés d’alimentation, l’humidification de l’asphalte modifiant la transmission route-pneus, l’effet des champs électromagnétiques sur le comportement des véhicules électriques et non-électriques…

Source : Bulletins électronqiues

Et aussi dans les
ressources documentaires :

Les députés confirment le plafond nucléaire de 63,2 GW

Les sénateurs avaient décidé que la capacité maximale de la production d’électricité d’origine nucléaire serait 64,85 gigawatts, afin que la mise en service de l’EPR de Flamanville (Manche) ne se traduise pas, dès 2017, par l’arrêt de deux réacteurs supplémentaires.

L’UMP Julien Aubert comme le MRC (chevènementiste) Jean-Luc Laurent ont tenté en vain de défendre la suppression de ce seuil au nom de la défense de « la filière d’excellence » de l’industrie nucléaire française.

« Pareille limitation aurait pour effet d’affaiblir notablement notre indépendance énergétique et la compétitivité de nos centrales à l’exportation », a jugé M. Aubert

La fermeture de Fessenheim, réaffirmée début mars par François Hollande pour la fin du quinquennat et qui permettrait de respecter ce plafond « sera une fermeture idéologique, pour l’exemple », a déploré M. Laurent.

L’objectif de ce seuil est « de réduire notre vulnérabilité à une seule technologie », leur a répondu l’écologiste Denis Baupin.

Ce seuil est par ailleurs en cohérence avec l’objectif du projet de loi de réduction à 50% à l’horizon 2025 de la part du nucléaire dans la production d’électricité, a-t-il souligné.

Les députés achevaient dans la nuit de jeudi à vendredi l’examen du projet de loi qui sera soumis à leur vote solennel mardi 26 mai

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Le soleil est-il la solution au manque d’eau potable ?

Alors qu’un tiers de la population souffrirait du manque d’eau potable selon l’OMS, ce problème éminemment urgent risque fort de s’aggraver dans les années à venir avec l’accroissement de la population. Si les techniques de production à l’échelle industrielle n’évoluent pas, un milliard d’êtres humains pourraient ne pas avoir accès à cette ressource vitale en 2050. L’une des questions qui se pose aujourd’hui est comment apporter ce service aux pays qui en ont le plus besoin, en tenant compte du fait qu’ils n’ont parfois pas accès à l’électricité non plus. Il faudrait une solution économique, écologique, autonome, et avec un haut rendement.

Ce sont ces contraintes qu’ont dû considérer l’équipe d’ingénieurs du MIT et son partenaire Jain Irrigation Systems, une entreprise spécialisée dans les systèmes d’irrigation et d’alimentation solaire. Ensemble, ils ont créé une usine mobile capable de dessaler l’eau des océans en utilisant l’énergie du soleil pour faire fonctionner un électrodialyseur. 

L’électrodialyse, comment ça fonctionne ? « L’électrodialyse est une technique qui assure une extraction des ions suffisamment ionisés d’une solution. » Elle est notamment utilisée pour le dessalement de l’eau, et consiste alors à faire migrer les ions vers les électrodes sous l’effet d’un courant électrique. Des membranes seraient ensuite employées pour la séparation de l’eau salée et de l’eau douce.

Le système serait très efficace à en croire David L. Chandler, un des membres de l’équipe, « 90% de l’eau salée pompée pourra ressortir de l’usine en étant potable ». Un rendement bien supérieur aux résultats obtenus normalement, estimés entre 40 et 60%. Et surtout, moins cher. Ce système pourrait subvenir aux besoins d’un village dit-on, si le nombre d’habitants ne dépasse pas 5 000.

Gagnante du concours Securing Water For Food, dont le but est depuis 2013, d’accélérer les innovations dans le domaine de l’eau et la nourriture (au niveau production notamment) afin de les rendre accessibles dans des conditions optimales aux régions démunies, l’équipe du MIT s’est vu attribuer le prix Desal 2015 pour son invention. Elle a ainsi touché 127 000 euros afin de l’aider à poursuivre ses tests dans le monde entier; après avoir déjà essayé son usine mobile au Mexique et en Inde.

Par sébastien Tribot

Et aussi dans les
ressources documentaires :

L’intelligence artificielle joue aux jeux d’arcade

L’intelligence artificielle est un pan de la recherche que Google entend développer coûte que coûte. Le célèbre moteur de recherche procède depuis quelque temps à de nombreuses acquisitions de sociétés dans ce but, notamment DeepMind, une start-up londonienne rachetée en janvier 2014 pour 400 millions de dollars et dont l’IA est le coeur de réflexion. 

Cette dernière est à l’origine d’un système baptisé Deep-Q-Network (DQN) au croisement de deux technologies : le Deep Neural Network (DNN) et le Q-Learning. Placé dans les mêmes conditions qu’un être humain – l’usage d’une manette devant un écran -, DQN s’est servi de sa mémoire et de son expérience pour établir des schémas de jeux pertinents. En deux semaines d’apprentissage, l’algorithme s’est montré capable de développer ses propres stratégies, jusqu’à se révéler plus performant que l’homme dans 22 des 49 jeux d’arcade testés.

Pour le moment, les jeux conçus dans les années 80 sont les plus prisés par DQN car ce sont les plus simples en terme de stratégie et de modélisation. Mais ils demandent malgré tout un minimum de réflexion. Pour Breakout et Space Invaders, par exemple, l’algorithme a su trouver seul la méthode la plus efficace pour engranger le plus de points possible. Ce qui n’a pas été le cas pour certains jeux, tel que Montezuma’s Revenge, qui sont restés incompris. Les jeux des années 90 vont également avoir droit à ce traitement mais leur complexité supérieure – du fait de la 3D et du nombre plus important de pixels à analyser – va rendre plus difficile l’apprentissage. 

Vous vous demandez peut-être jusqu’où ira DQN aux jeux vidéo. Rassurez-vous, son développement impressionnant a beau être assez rapide, il n’est pas près de venir concurrencer l’homme dans des jeux plus complexes et à l’environnement plus vaste style Warcraft ou Gran Theft Auto. Car bien que l’algorithme, comme le rapporte Volodymyr Mnih, chercheur à DeepMind, soit « capable d’apprendre directement de ses expériences – et donc plus proche de la manière dont les humains apprennent, et dont nos cerveaux construisent des modèles », le nombre de paramètres des jeux actuels est tel qu’il n’est pas encore en mesure de tous les assimiler et de développer une vision du jeu à long terme comme peut le faire l’homme. On peut aussi se demander si DQN comprend réellement le sens des actions entreprises – outre le fait de savoir qu’elles rapportent des points.

Quoi qu’il en soit, tout cela est vraiment encourageant. Et même si de gros progrès sont encore attendus, cette avancée ouvre de nouvelles perspectives. Des applications pourraient en effet être envisagées à plus long terme, comme les voitures sans pilote mais aussi dans l’imagerie médicale, si l’intelligence artificielle continue son avancement.

Par Sébastien Tribot

Et aussi dans les
ressources documentaires :

TEST- Avez-vous la personnalité pour faire carrière ?

Êtes-vous plutôt introverti ou extraverti ? Les premiers puisent l’énergie en eux-mêmes, quand les seconds la trouvent au contact des autres. Et cela n’a rien d’anodin… pour la carrière professionnelle. Selon une étude américaine réalisée par l’éditeur de tests californien Truity, et dévoilée en février 2015, les personnes extraverties réussissent mieux professionnellement. Elles sont mieux payées, accèdent à des postes plus élevés et sont plus heureuses dans leur travail que les introvertis. En chiffres : les extravertis gagnent environ 50 000 dollars annuels (44 369 euros), encadrent près de 5 personnes et notent leur satisfaction professionnelle à  4/5, quand les introvertis culminent à 40 000 dollars annuels (35 495 euros), ne gèrent pas plus de 3 personnes et attribuent à peine plus de 3/5 à leur satisfaction pro.

44 369 euros annuels pour les extravertis, 35 495 pour les introvertis

Intitulée « Personnality type & career achievement, Does your type predict how far you’ll climb ? » que l’on peut traduire par « Types de personnalités et carrière, Votre personnalité prédit-elle jusqu’où vous irez ? », cette étude repose sur les réponses à des questionnaires en ligne fournies par 4 367 volontaires sur la question du salaire, 2 501 sur les responsabilités managériales et 2 053 sur la satisfaction au travail. Des volontaires qui avaient, au préalable, passés le célèbre test MBTI (Myers Briggs Type Indicator).

Les 16 types de profils psychologiques

Ce test de personnalité inventé en 1962 permet, notamment, de savoir si une personne est extravertie ou introvertie. Il évalue aussi 3 autres dimensions psychologiques pour aboutir à 16 types de profils psychologiques. Pour savoir à laquelle vous correspondez, faites le test (en choisissant la langue française). Selon votre résultat, vous saurez à quoi vous en tenir… Mais vous pourrez aussi découvrir votre profil psychologique et les métiers qui y correspondent (dans l’infographie en anglais ci-dessous, réalisée par Truity).

Par Elodie Buzaud

Source : cadremploi
Premier site emploi privé pour les cadres et les dirigeants en France

Les performances impressionnantes du train à lévitation Maglev

Voilà que le TGV est à la traîne. Autrefois détenteur du record de vitesse (avec une pointe à 574,8 km/h en 2007), le fleuron des trains français s’apprête à être relégué en deuxième position avec l’arrivée prochaine des trains à sustentation magnétique.

Cette nouvelle génération de train, dont on parle de plus en plus, est encore en phase de test. Dernièrement, la compagnie centrale ferroviaire ‘Central Japan Railway’ a fait part des performances impressionnantes de son poulain, le dernier Maglev, suite à un test effectué dans la préfecture de Yamanashi – au centre de la région du Chūbu. Le prototype, en reliant les villes d’Uenohara et Fuefuki, a pu atteindre les 600 km/h, alors qu’il tractait sept wagons, apparemment sans passagers. Il s’agit du nouveau record de vitesse en la matière.

Une performance rendue possible grâce au procédé de mise en lévitation magnétique. Le Maglev se sert en effet des forces magnétiques pour se déplacer. De fait, il n’entre jamais en contact avec les rails et supprime donc la résistance au roulement (la déformation des roues due au poids du train), ce qui lui permet de gagner en rapidité.

L’objectif de la compagnie japonaise est la mise en service effective en 2027 du JR-Maglev. Seuls les habitants de Tokyo et Nagoya seraient pour le moment concernés. Il est prévu que le train relie ces deux villes, distantes de 260 kilomètres, en quarante minutes soit un gain de temps de quarante minutes par rapport à la version actuelle. Le montant des travaux est estimé à 42,7 milliards d’euros pour la ligne, et environ 65 milliards concernant le projet dans son intégralité.

Par Sébastien Tribot

Et aussi dans les
ressources documentaires :

En vidéo : Méthodes pour l’efficacité énergétique des procédés industriels

Cette conférence comporte deux parties principales :

La première, présentée par Assaad Zoughaib, proposera une méthodologie de conception et d’amélioration de procédés industriels pour atteindre la haute efficacité énergétique. Après avoir introduit quelques éléments de contexte spécifiques à l’utilisation de l’énergie dans l’industrie, le regard sera porté sur les différentes étapes de l’analyse énergétique allant de l’audit énergétique, des méthodologies d’analyse énergétique, jusqu’à la proposition de solutions usuelles et/ou innovantes.

La seconde partie, présentée par Jérémie Fricker et Karim Besbes, sera une mise en pratique de la démarche sur un cas industriel réel. En effet, l’étude portera sur un procédé énergivore de l’industrie agroalimentaire. Nous verrons comment l’analyse énergétique proposée a permis la conception d’un procédé innovant. La réalisation et l’utilisation d’un prototype industriel a démontré des économies d’énergie et d’eau considérables tout en respectant les exigences de qualité du produit.

UE : +6,9% pour les immatriculations de voitures neuves en avril

Lors de ce meilleur mois d’avril en volume depuis 2009 pour le marché automobile européen, les groupes français ont tous deux progressé mais c’est de loin Renault qui s’est le mieux comporté avec un bond de 14,9%, tandis que PSA Peugeot Citroën n’a gagné que +2,1%, a précisé l’Acea.

Le mois dernier, « tous les grands marchés ont contribué à l’expansion totale » du marché européen, a noté l’organisation. Le premier en volume, l’Allemagne, a ainsi crû de 6,3% et le deuxième, le Royaume-Uni, de 5,1%.

Suivent la France (+2,3%) et l’Italie, où 148.800 voitures neuves ont été mises sur les routes le mois dernier, une hausse de 24,2%. L’Espagne, cinquième en nombre d’unités dans l’UE, croît quant à elle de 3,2%. Ces deux derniers pays avaient vu leurs marchés fondre de moitié au cours de la crise de 2008-2013.

Cette crise, même si les volumes n’ont pas encore retrouvé leur niveau de 2008, semble n’être plus qu’un mauvais souvenir, puisque avril a constitué « le vingtième moins consécutif de croissance » du marché automobile européen, a remarqué l’Acea. Sur les quatre premiers mois de 2015, le curseur reste très largement installé dans le vert: +8,2%.

Toujours groupe préféré des Européens, VW voit ses immatriculations progresser de 5,6% sur un mois, soit moins bien que le marché dont il détient toutefois plus du quart (26,1%). Depuis le début de l’année, il épouse la tendance du marché, croissant de 8,3% grâce à la forme de sa marque Volkswagen (+9,3%).

Effritement des positions en revanche pour PSA, qui passe de 11,3% à 10,8% de parts de marché sur un mois. Peugeot progresse de 5,6% mais Citroën est atone (+0,6%) et DS, en manque de nouveaux modèles, sombre (-17,9%).

Renault affiche de son côté une santé éclatante en avril: les immatriculations des voitures frappées du losange ont progressé de 15% et celles de la marque à bas coût Dacia de 14,5%. Le groupe Renault a du coup grimpé à 10,6% de part de marché (+0,7 point) et avec 124.195 voitures, n’est qu’à 1.400 unités derrière PSA.

Sur la période janvier-avril, l’entreprise dirigée par Carlos Tavares caracole loin devant son rival français avec 504.287 unités contre 459.185. La croissance de PSA reste toutefois en retrait de celle du marché (+3,3%), et pâlit face à celle de Renault (+11,4%).

tq/cb/pre/jh

 

 

 

 

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Le projet de loi de transition énergétique de retour mardi à l’Assemblée

Les députés vont réaffirmer l’objectif de 2025, que les sénateurs avaient supprimé, pour réduire à 50% la part du nucléaire dans la production d’électricité. De même pour une réduction de 50% de la consommation énergétique finale en 2050.

Trois jours de débats ont été prévus dans l’hémicycle, jusqu’à jeudi soir. Le vote global sur le texte aura lieu mardi 26 mai, avant qu’il ne reparte au Sénat puis revienne à l’Assemblée pour une adoption définitive avant la pause estivale ou à la rentrée.

En tout cas, en amont de la conférence mondiale sur le climat (COP 21) qui se tiendra à Paris en décembre, et dont François Hollande a fait un enjeu important de son quinquennat.

Le texte ne devrait pas bouger dans ses grandes lignes mais le sujet du gaspillage alimentaire, dans la lignée du rapport remis en avril au gouvernement par l’ancien ministre délégué à l’Agroalimentaire Guillaume Garot, doit s’inviter.

L’élu PS de la Mayenne a travaillé avec des parlementaires de tous bords à une série d’amendements visant notamment à « interdire aux grandes surfaces de jeter » de la nourriture consommable, d’en détruire, ainsi qu’obliger ces grandes surfaces à signer un protocole avec une association de solidarité afin de faciliter les dons alimentaires.

Au sein de la commission spéciale sur la transition énergétique courant avril, les députés ont déjà rétabli l’essentiel de la version du projet de loi qu’ils avaient voté en première lecture à l’automne et que les sénateurs avaient ensuite remanié pour en réduire les ambitions, notamment sur les grands objectifs de consommation et de production d’énergie.

Rénovation des bâtiments, essor de la voiture électrique et des énergies renouvelables, recyclage des déchets: le projet de loi décline par secteurs les moyens d’atteindre ces grands objectifs.

Cette lecture sera une nouvelle occasion d’afficher une certaine entente entre les députés EELV et la ministre de l’Ecologie, qui « a eu une volonté d’écoute et l’a bien joué » avec ces parlementaires tiraillés sur leur retour ou non au gouvernement, selon un responsable socialiste.

Lors du scrutin d’octobre, l’ensemble de la majorité s’était prononcée pour le projet de loi, malgré un « sentiment double, espoir et déception » des écologistes face aux manques du texte, qu’avait exprimé l’ancienne ministre Cécile Duflot.

Les députés UMP et du Front de gauche s’étaient prononcés contre, ceux de l’UDI s’étaient majoritairement abstenus.

Mme Royal, qui a dû chercher une voie entre pro et anti-nucléaire, escompte globalement « un beau texte de consensus ».

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Boites noires : l’utilisation de DPI semble inévitable

Le nouveau texte de loi relatif au renseignement, très loin de faire l’unanimité, prévoit de “détecter, par un traitement automatique, une succession suspecte de données de connexion” en utilisant des “boites noires”.

Peu d’informations ont filtré sur la nature de ces “boites noires”, mais il s’agirait d’installer des appareils de “traitement de données” sur les équipements réseaux des opérateurs télécoms, des hébergeurs et des fournisseurs de services. Selon le gouvernement, les boites noires contiendront des algorithmes, qui devraient permettre de retrouver, dans une énorme masse de données transitant sur Internet, de possibles suspects – grâce au data mining

La CNCTR, la Commission nationale de contrôle des techniques de renseignement, vérifiera les algorithmes – qui nécessiteront d’être régulièrement mis à jour, les terroristes étant susceptibles de trouver des parades pour leur échapper. Cette commission validera au cas par cas la désanonymisation des données collectées – des métadonnées (adresses IP de sites web, heures et dates de connexion) principalement, assure le gouvernement.

Un “travail ciblé” grâce à une surveillance massive

Selon l’exécutif, la surveillance sera “localisée”, et non massive. Pour détecter les menaces sur Internet, les algorithmes se baseront sur une compilation de modèles de comportements suspects.

Mais pour nombre d’experts, ce “travail ciblé” risque d’être très difficile. Alexandre Archambault, ancien cadre chez Free, constate, dans l’émission d’Arrêts sur Image “14h42”, que les algorithmes risquent d’être “inopérants” sur les “données de flux”, qui circulent en permanence sur le réseau des FAI. “Pour que cela fonctionne, il faudrait stocker ces données, pour pouvoir ensuite les analyser. Le texte parle d’analyse de mots-clés en temps réel, ce qui signifierait que le trafic d’un abonné serait routé dans une interface dédiée, accessible aux policiers”, indique-t-il.

Selon Alexandre Archambault, pour cibler quelque 3000 terroristes dans la masse gigantesque de données circulant sur les réseaux des hébergeurs, des fournisseurs de service et des opérateurs, il faudrait en outre installer 50 000 raccordements sur les équipements des FAI, les DSLAM. Ce qui reviendrait à travailler, au final, avec les métadonnées et les données de l’ensemble de la population française.

Pour filtrer, classifier et analyser les flux Internet chez les FAI, il semble inévitable, aux yeux d’un grand nombre d’experts, que les services de renseignement auront recours à des outils de DPI (deep packet inspection). Cette technique consiste à inspecter, en profondeur, des paquets réseau (IP, le plus souvent). Ces paquets peuvent être “bloqués” selon une liste de critères définis par le FAI, et être ensuite routés, afin d’être analysés à part.

Des métadonnées au payload

Problème : les DPI sont tristement connus pour être utilisés par certains régimes dictatoriaux, afin de surveiller des opposants, ou de pratiquer la censure sur Internet – car les paquets peuvent aussi être bloqués. Un DPI permet de lire les couches 2 (liaison de données) et 3 (réseau) du modèle OSI, modèle de référence d’interconnexion des systèmes ouverts, mais parfois, l’analyse peut aller jusqu’à la couche 7 (application), ce qui permet d’accéder au “payload” – les entêtes HTTP (ce qui permet d’obtenir des informations détaillées sur la navigation d’un internaute), ou les “sujets” d’un mail, voire son contenu.

“Si vous voulez des mots-clés sur des recherches ou des vidéos, cela se passe au niveau du fournisseur de service, pas du fournisseur de réseau. Mais si vous voulez les obtenir, discrètement, via un FAI, ou via les opérateurs télécoms, il faut taper dans la couche 7, et la seule solution, c’est le DPI”, affirme Alexandre Archambault. En outre, “le gouvernement parle de regarder des vidéos, des mots-clés, ou des mots de passe. Ce ne sont pas des métadonnées, mais des contenus, et pour les analyser, il faut un DPI”, ajoute-t-il.

Ce système de surveillance massive et d’interception de communications électroniques permettrait ainsi aux services de renseignement d’intercepter et d’examiner le contenu d’un paquet IP, à la fois l’entête et les données, d’e-mails ou d’appels VoIP (par exemple, sur Skype). Si des éléments de navigations sont déclarés comme suspects grâce aux algorithmes de la boite noire, les FAI pourraient être contraints de transmettre l’identité de l’internaute aux enquêteurs, sans avoir besoin de l’autorisation d’un juge.

En réaction au projet de loi, Tristan Nitot, membre du CNN (conseil national du numérique), a lancé un mouvement de protestation, “Ni pigeons, ni espions”. Des hébergeurs ont rejoint les rangs de ce groupe, comme Gandi, Ikoula, ou OVH, qui menace de délocaliser ses activités si la loi est adoptée.

Par Fabien Soyez

Et aussi dans les
ressources documentaires :

Mesurer, analyser et innover : CIM 2015

Lieu d’échanges techniques entre les différents acteurs de la mesure (utilisateurs industriels de moyens de mesure, experts techniques, laboratoires publics et privés, fabricants et prestataires), ce congrès est unique en Europe.

Il présente les évolutions des techniques de mesure, les avancées R&D et leurs implications pour l’industrie, et montre comment la mesure améliore, au quotidien, les processus industriels et la maîtrise des risques.

6 tables rondes industrielles sont organisées autour de thématiques très variées :

  • Les bonnes pratiques en santé

  • Transition énergétique : la métrologie relève le défi
  • L’analyse sensorielle au service de la métrologie
  • Externaliser la fonction métrologie : rêve ou réalité ?
  • Agroalimentaire : le plus métrologique
  • Mesure et maîtrise des risques : nouvelle approche ISO 9001

Près de 180 conférences seront présentées sur des sujets très variés, abordant les grands  domaines  techniques  :  mécanique,  température,  dimensionnel  et  3D,  débit,  électricité, optique. Sans oublier les sujets répondant aux préoccupations actuelles : la sécurité dans le secteur médical et l’agroalimentaire, les défis liés à la transition énergétique, les nanotechnologies…

Plus de 1 000 participants venant d’une cinquantaine de pays sont attendus, l’occasion de mieux comprendre la mesure tout en entretenant son réseau.

Le CIM 2015 est organisé conjointement avec ENOVA, Les 2 organisateurs ont créé le point de rencontre entre le congrès et le Salon au cœur de l’exposition : le Village Métrologie.

Les temps forts du CIM 2015

  • L’animation quotidienne sur le Village Métrologie : sur cet espace ouvert à tous se retrouvent les visiteurs du salon, les exposants qui souhaitent se rapprocher du Congrès et les participants inscrits au CIM.

Les exposants enregistrés sur le Village Métrologie au 7 avril sont les suivants : A+ Métrologie, Acalime, Aérométrologie, Alicona, AOIP, Aremeca, Automated Precision Europe, Beamex, Bruker, Carl Zeiss, Cetiat, Cofrac, Czech Metrology Institute, Delta Mu, E+E Elektronik, E2M, Ecole Supérieure de Métrologie, Endress & Hauser, Eotech, Felix Informatique, Furness Controls, GE Measurement & Control, Geomnia, Guildline Instruments, Hexagon Metrology, Implex, Innovalia Metrology, Insavalor, Insidix, JRI, Kréon Technologies, LNE,  Manumesure,  MB  Electronique,  MCE  Microvu,  Measurements  International,  Meatest,  Metrologic Group, Mettler Toledo, Nikon Metrology, Olympus, Rotronic, Sematec, Sika France, Symetrie, Testo Industrial Services, TME, Trescal, Werth Messtechnik, Wika Instruments.

  • La session d’ouverture du 21 septembre avec 2 interventions sur des sujets émergeants en métrologie :

– La métrologie dans les services par le groupe La Poste

– Métrologie et criminalistique par la Police Judiciaire de la Gendarmerie Nationale

  • La  conférence  plénière  du  23  septembre  « Métrologie  4.0 »  avec  des  interventions  des  plus  grands organismes  mondiaux  de  métrologie –  le  NIST  américain,  le  NPL  anglais  et  la  PTB  allemande  –  sur  la métrologie de demain qui pointe déjà son nez dans notre quotidien …
  • L’intervention de Monsieur Claude Cohen Tannoudji, Prix Nobel de Physique 1997, lors de la session de Clôture du jeudi 24 septembre après-midi

Participer au CIM c’est …

  • rencontrer les « bonnes » personnes qui vont conduire plus rapidement aux « bonnes » solutions,
  • nouer une vraie relation professionnelle avec des homologues,
  • comprendre l’apport décisionnel de la métrologie dans les processus industriels,
  • découvrir les technologies et les solutions de notre quotidien de demain.

Le programme complet et l’inscription en ligne sont accessibles sur le site www.metrologie2015.com

Par C.C

Best of des IG Nobels… de littérature

La cérémonie des Ig Nobel vient chaque année bousculer avec beaucoup d’humour la très conventionnelle et poussiéreuse saison des Nobel, en mettant sur le devant de la scène les découvertes scientifiques les plus absurdes, les plus décalées, voire les plus nuisibles d’entre elles. La cuvée 2014 – dont nous vous avons parlé ici – fut un excellent cru, et nous encourage à nous replonger dans vingt-quatre années de prix parodiques, et ce de manière très exhaustive tant les palmarès regorgent de pépites hilarantes.

Mettez les pieds sous la table, nous avons compilé pour vous la crème de la crème des Ig Nobel, classés par catégories. Pour commencer, gros plan sur les IG Nobel… de littérature !

 

  • 1997 : le prix Ig Nobel de littérature a été décerné aux Israéliens Doron Witztum, Eliyahu Rips et Yoav Rosenberg, ainsi qu’à l’Américain Michael Drosnin pour s’être laissés convaincre que la Bible dissimulerait un code secret. Les trois Israéliens ont publié leurs travaux, « Séquences de lettres équidistantes dans le livre de la Genèse », alors que Michael Drosnin s’est rendu célèbre en utilisant ce séquençage de lettres dans son livre, « La Bible : le code secret », prétendant que ces codes pouvaient servir de base pour prédire l’avenir.

Pour la petite histoire, deux mathématiciens ont appliqué cette méthode à « Guerre et Paix » de Tolstoï, trouvant ainsi de nombreux messages « cachés » et invalidant quelque peu la méthode du séquençage. Mis au défi par Michael Drosnin de trouver dans « Moby Dick » un message caché concernant l’assassinat d’un quelconque premier ministre, un chercheur et professeur de mathématiques australien, Brendan McKay, aurait trouvé des allusions aux meurtres d’Indira Gandhi, de Léon Trotski, de Lincoln, de John Fitzgerald Kennedy, de Martin Luther King, ainsi qu’à l’accident de Lady Diana.

Léon Trotski, assassiné d’un coup de piolet. Copyright Brendan McKay

 

  • 1999 : prix décerné à l’institut britannique de standardisation qui, dans son souci méticuleux de tout vouloir standardiser, a tout de même écrit une spécification de six pages (qui se cache derrière l’obscur BS-6008) ayant trait à la méthode idoine d’infusion du thé.

 

  • 2005 : les « arnaqueurs nigérians » sont à l’honneur cette année, le prix venant récompenser leurs talents de griots, dans la création de petites histoires avec des personnages fictifs hauts en couleur, mais réunis par la même volonté de partager généreusement un confortable butin avec la bonne âme qui voudra bien les sortir du pétrin.

La fraude 4-1-9 (du numéro de l’article du code nigérian sanctionnant ce scam) ferait encore aujourd’hui de nombreuses victimes.

George Abed, un homme qui a très envie d’investir tout son argent avec vous

 

  • 2009 : le prix Ig Nobel de littérature de cette année fut décerné aux services de police irlandais, pour avoir émis plus d’une cinquantaine de contraventions au multirécidiviste le plus coriace de l’île, « Prawo Jazdy », dont le nom en polonais veut en fait dire… « permis de conduire ». Pas évident de s’y retrouver… Une Polonaise, détentrice d’un permis de conduire polonais, est venue chercher le prix, au nom de tous ses compatriotes, profitant de l’occasion pour saluer les policiers irlandais.

Le vrai Prawo Jazdy, un garçon bien sous tous rapports

 

  • A venir : le best of des IG Nobels… de physique

Par Rahman Moonzur

5 paysages de science-fiction (qui existent pour de bon)

La Structure de Richat

Également surnommée « l’œil de l’Afrique », la Structure de Richat est une gigantesque formation circulaire de 50 km de diamètre située en plein désert du Sahara, près de Ouadane (Mauritanie). Vue du ciel, elle ressemble à un monumental œil bleu-vert, ou à un fossile géant. Elle fut découverte lors d’un vol spatial Américain, en 1965, et à cause de sa taille et de son aspect caractéristique, elle est longtemps restée un point de repère pour les astronautes. On pensait à l’origine que la Structure de Richat était due à l’impact d’une météorite, mais cette théorie n’expliquait pas la relative platitude de la formation, dont les dénivelés atteignent environ 40 m. L’interprétation la plus couramment acceptée aujourd’hui est celle d’un dôme volcanique géant qui se serait effondré sur lui-même au cours d’une érosion de plusieurs millions d’années. Cependant, jusqu’à ce que les hypothèses soient confirmées, l’origine exacte de ce phénomène unique reste une énigme pour les chercheurs.

L’île de Socotra

Arbres Sang de Dragon sur l’île de Socotra.

Au Nord-Ouest de l’Océan Indien se trouve une île qui redéfinit toute notion de paysage « terrestre ». Située à 350 km des côtes du Yemen, l’île de Socotra est la plus grande de l’archipel qui porte son nom. Elle fut détachée du continent Africain il y a 6 millions d’années, et cet isolement géologique a donné naissance a une biodiversité phénoménale : Socotra abrite 800 espèces de plantes rares dont un tiers sont endémiques, ce qui signifie qu’elles n’existent nulle part ailleurs sur la planète. Parmi les spécimens les plus étranges, on trouve notamment l’arbre concombre, le figuier de Socotra et son aspect improbable, ou encore l’arbre Sang de Dragon, dont la sève rouge servait de teinture et d’onguent magique dans l’antiquité. La faune n’est pas en reste et compte plusieurs espèces d’oiseaux uniques au monde. Les 42 000 habitants de l’archipel parlent le soqotri, une langue non-écrite, et leur mode de vie est encore très traditionnel : la première route n’a été installée qu’en 2008 par le gouvernement Yéménite. C’est d’ailleurs suite à ce projet controversé que Socotra à été inscrite au patrimoine mondial de l’Unesco, afin de limiter le développement des infrastructures, et garantir la préservation des trésors naturels de l’île.

La Grotte des cristaux

La Grotte des cristaux – Photo © Carsten Peter/Speleoresearch & Films.

En l’an 2000, des mineurs de la compagnie Peñoles ont fait une découverte extraordinaire en forant une galerie dans les mines de Naica, au Mexique. À  300m de profondeur, ils ont trouvé par hasard une grotte dont la chambre principale contient les plus grands cristaux jamais découverts. Dans cette cavité de 30 m sur 10, de gigantesques colonnes de cristal s’entremêlent dans une configuration surréaliste qui n’est pas sans rappeler les visions de Jules Verne, ou encore la « Forteresse de la Solitude » de Superman. Le plus impressionnant des cristaux mesure 11 m de long pour un poids de 55 tonnes. Hormis son incroyable beauté, la grotte est également un endroit très dangereux pour l’homme : la température y approche les 60 °C, et le taux d’humidité y est de 100 %, ce qui fait qu’une exposition de plus d’un quart d’heure sans protection peut s’avérer fatale pour l’organisme. L’exploration de la grotte est aujourd’hui possible grâce aux opérations de pompage de la compagnie minière, mais en temps normal, elle est submergée par une eau sous haute pression saturée de minéraux, et chauffée par une poche de magma souterraine. Ces conditions extrêmes expliquent la formation de cristaux, qui n’ont cessé de grandir durant des millénaires.

Le Salar de Uyuni

Jeep traversant le Salar de Uyuni – Photo © Volker Banken.

Situé à plus de 3 600 m d’altitude, sur les hauts plateaux de la Bolivie, le Salar de Uyuni est le plus grand désert de sel du monde. Formée suite à l’asséchement d’un gigantesque lac préhistorique, cette étendue blanche de 12 500 km² offre également l’un des paysages les plus « extra-terrestres » qu’il puisse être donné de contempler. Lorsque le Salar est recouvert d’eau, sa surface devient réfléchissante comme un miroir, et il devient presque impossible de dire où s’arrête le sol et où commence le ciel. Les rares objets visibles à l’horizon donnent l’impression de flotter dans l’air, et les visiteurs ont souvent l’impression d’être perdus au milieu d’un océan blanc, sans point de référence. Au centre du Salar, on peut voir des « îles » couvertes de cactus géants, vestiges de volcans submergés durant la préhistoire, comme l’île d’Incahuasi. Les touristes venus apprécier ce paysage irréel peuvent même trouver des hôtels dans la zone, entièrement fabriqués en blocs de sel du fait de l’absence de matériaux de construction, et de la distance des villes. Hormis ses réserves de sel quasi illimitées, le Salar de Uyuni contient 50 à 70 % du lithium exploitable sur la planète. On estime qu’avec la production toujours grandissante de batteries d’appareils portables et de voitures hybrides, la demande de lithium devrait tripler durant les 15 prochaines années, ce qui pourrait bouleverser l’avenir de la Bolivie, aujourd’hui pays le plus pauvre d’Amérique du Sud.

Le Wulingyuan

Les piliers brumeux du Wulingyuan.

Inscrit depuis 1992 au patrimoine mondial de l’Humanité, le Wulingyuan est un parc national qui se trouve dans la province du Hunan, au sud de la Chine. Le site est connu pour ses spectaculaires piliers de grès, sculptés par des millénaires d’érosion, et qui constituent une véritable forêt de pierre. Environ 3 000 pics s’élèvent ainsi vers le ciel, dont certains dépassent les 400 m. À cause de son humidité, la région est fréquemment recouverte d’une mer de brume dont seuls les sommets émergent, comme suspendus dans le ciel. La végétation luxuriante qui longe le flanc des pics achève de donner à l’ensemble l’aspect d’une jungle de science-fiction. Les peintres chinois ont fait du Wulingyuan une source intarissable d’inspiration, mais, et c’est plus surprenant, certains cinéastes hollywoodiens aussi : James Cameron aurait utilisé des photos du Wulingyuan pour créer les montagnes flottantes de la planète Pandora, où se déroule l’action du film Avatar. Suite au succès colossal de l’œuvre, les autorités locales ont d’ailleurs décidé de rebaptiser un des pics jusqu’ici connu sous le nom de « Pilier du ciel et de la terre » en « Montagne Alleluia Avatar ». La boucle est bouclée…

Source : Axolot

10 façons dont votre esprit vous manipule

L’effet Forer

Également connu sous le nom d’effet « Barnum », célèbre homme de cirque américain qui disait qu’« à chaque minute naît un gogo », l’effet Forer désigne l’impression qu’une description vague s’applique spécifiquement à notre personnalité. Ce phénomène fut découvert en 1948 par le psychologue Bertram Forer, lorsqu’il fit passer un test de personnalité à ses étudiants. En guise de résultat, Forer rendit à chacun le même assemblage de phrases types qu’il avait recueilli dans divers horoscopes : « Vous avez besoin d’être aimé, mais pourtant vous êtes critique avec vous-même. Vous avez certains points faibles, mais vous savez généralement les compenser. Vous pouvez être bavard et sociable, mais à certains moments vous êtes plutôt réservé… ». Quand Forer demanda à ses étudiants d’évaluer l’exactitude des analyses qu’ils avaient reçues sur une échelle de 1 à 5, la moyenne des notes fut de 4,26 ! La puissance de l’effet, jamais démentie, s’explique notamment par la tendance que nous avons à écarter les descriptions inexactes pour nous concentrer sur celles qui nous conviennent. Sans l’effet Forer, l’astrologie, la voyance, la numérologie et la plupart des pseudo-sciences n’auraient sans doute pas le même succès…

La dissonance cognitive

Lorsque nos croyances sur le monde entrent en contradiction avec les faits, ou quand la vision que nous avons de nous-même est en décalage avec nos actes, nous éprouvons une tension mentale qu’il nous faut réduire à tout prix, quitte à réinterpréter la réalité. Ce phénomène s’appelle la « dissonance cognitive ». Le psychologue Léon Festinger développa ce concept en 1956, après avoir étudié le cas d’une secte dirigée par une certaine Marian Keech. Cette dernière prétendait recevoir des messages d’extraterrestres, qui lui annoncèrent la fin du monde pour le 21 décembre 1954. Seuls les adeptes de la secte seraient secourus à bord de soucoupes volantes. Quand le jour de la prophétie arriva, mais qu’aucune soucoupe ne manifesta le bout de ses hublots, Marian ne se démonta pas : elle expliqua à ses adeptes que grâce à leur ferveur, l’apocalypse avait été reportée. Fait surprenant, seules deux personnes quittèrent le mouvement suite à ce flop cosmique, les autres virent leur foi redoublée. Ils préférèrent « adapter » la réalité à travers le filtre de leur croyance plutôt que de remettre cette dernière en question. Cette façon de sélectionner les informations qui confirment notre vision du monde fait partie de notre arsenal de défense face aux dissonances…

Le conformisme

Imaginez que vous soyez convié à un test de vision. On vous assoit dans une pièce en compagnie de 6 autres volontaires, et un expérimentateur fait son entrée pour vous expliquer la marche à suivre : l’exercice consistera à dire si des lignes présentées sur une série d’affiches sont plus petites ou plus grandes qu’une ligne de référence tracée sur un tableau. Les participants devront donner leur réponse à l’oral, chacun à leur tour. Au début, l’expérience se déroule normalement ; les réponses semblent évidentes, et tous les participants sont d’accord. Mais au bout d’un moment, alors que l’expérimentateur présente une ligne manifestement plus longue que la ligne de référence, tout le groupe la désigne comme étant plus courte. C’est à votre tour d’exprimer votre opinion : allez-vous suivre la majorité, ou dire ce que vous pensez ? Ce qu’a découvert le psychologue Solomon Asch lorsqu’il a mené cette expérience en 1951, c’est que sur une série de questions où le groupe a manifestement tort, 37 % des questionnés se rallient systématiquement à la majorité, reniant leurs propres perceptions. Bien sûr, il n’y a qu’un seul véritable cobaye, les autres participants étant des complices de l’expérimentateur. 75 % des sujets suivent le groupe au moins une fois, et seuls 25 % ne se laissent jamais influencer. Notre tendance au conformisme s’explique par la pression sociale : nous craignons d’être rejetés par nos semblables, et si le plus grand nombre n’est pas d’accord avec nous, on se persuade qu’il a probablement raison…

La paréidolie

La paréidolie est un effet psychologique très puissant qui nous pousse à percevoir des formes précises à partir de stimuli vagues et indéterminés. Elle témoigne d’un besoin très humain qui consiste à donner du sens au chaos. Les exemples au quotidien sont nombreux : voir un visage dans les motifs d’une tapisserie ou distinguer des animaux dans les nuages sont des cas de pareidolie que nous connaissons tous. Le phénomène est particulièrement présent dans le contexte religieux : on ne compte plus les visages du Christ identifiés sur des chips, des taches d’humidité ou encore des écorces d’arbres. Dans certains cas, les apparitions présumées déclenchent un engouement colossal, comme à Clearwater en Floride où plus d’un million de personnes se déplacèrent pour voir la Vierge sur les vitres d’un bâtiment, ou encore à Singapour en 2007 lorsque des milliers de pèlerins crurent voir un dieu-singe sur un tronc d’arbre. Le célèbre test de Rorschach pendant lequel des patients doivent dire ce qu’ils perçoivent dans une série de taches est un exemple de paréidolie utilisée à des fins psychothérapeutiques. Enfin, le « visage de mars » est un des cas de pareidolie les plus connus. Mais le phénomène ne se limite pas aux stimuli visuels, et il peut notamment expliquer les hallucinations auditives qui nous font percevoir des paroles de chansons qui n’existent pas, ou encore des « messages sataniques » dans certains morceaux passés à l’envers…

Les corrélations illusoires

C’est toujours quand on est en retard que les feux sont rouges, il se met toujours à pleuvoir quand on vient de laver sa voiture, et c’est toujours quand on est sous la douche que le téléphone sonne. Si vous vous retrouvez dans ce genre d’affirmations, popularisées par la célèbre loi de Murphy, c’est que vous êtes victimes des corrélations illusoires. Cette tendance à créer des relations entre des événements qui n’en ont pas s’explique notamment par le besoin que nous avons de donner du sens à ce qui nous arrive. En réalité, les feux ne sont pas plus rouges quand on est pressé, mais nous préférons nous focaliser sur les cas qui confirment notre théorie, en oubliant les autres. C’est le « biais de confirmation ». Les corrélations illusoires sont la source de nombreuses croyances populaires : vous avez sans doute entendu dire que le nombre de suicides augmentait les nuits de pleine lune, ou que certaines personnes sentaient leurs rhumatismes se réveiller en fonction de la météo. Dans les deux cas, les recherches ont montré qu’il n’y avait aucun lien statistique entre ces événements, mais les personnes qui y croient se concentrent sur les fois où leur théorie fonctionne. Les corrélations illusoires expliquent aussi la persistance de certains préjugés raciaux ou sexistes : il est plus simple de se cramponner à des stéréotypes préétablis plutôt que d’analyser chaque cas rationnellement…

Les faux souvenirs

En 2003, le Dr Elizabeth Loftus confronta des étudiants qui avaient tous visité Disneyland dans leur enfance à un prospectus vantant les mérites du célèbre parc d’attractions. On pouvait y voir Bugs Bunny serrant la main d’un enfant. Quand on leur demanda d’évoquer leurs souvenirs du parc, 35 % des étudiants se rappelèrent de leur rencontre avec Bugs Bunny, allant parfois jusqu’à préciser qu’il tenait une énorme carotte. Évidemment, Bugs Bunny étant un personnage de la Warner, il n’a jamais foulé le sol de Disneyland. La publicité était fausse, tout comme les souvenirs des participants. Cette expérience fait partie des nombreuses recherches qui mettent en avant le syndrome des « faux souvenirs », cette tendance que nous avons à nous rappeler de choses que nous n’avons pas vécu. Si les conséquences de ce phénomène semblent anodines dans l’exemple mentionné, elles peuvent être bien plus graves lorsqu’elles s’appliquent à des témoignages de crimes, ou encore dans le cadre de la psychothérapie : certains praticiens peuvent influencer les patients à se souvenir de traumatismes imaginaires, qui permettent ensuite d’expliquer leurs troubles. Dans d’autres cas, des souvenirs réellement vécus peuvent être altérés, voire transformés, par l’environnement socio-culturel, ou par l’influence de personnes persuasives. Ainsi, on pense que les témoignages d’ordre surnaturel tels que les enlèvements d’extraterrestres peuvent en partie découler du phénomène.

La cécité d’inattention

Dans une expérience célèbre, les psychologues Simons et Chabris demandèrent à des étudiants de regarder un petit film dans lequel deux équipes jouaient au basket. Leur tâche consistait à compter le nombre de passes que se faisaient les joueurs. À la fin du film, les participants donnèrent pour la plupart un chiffre correct, mais lorsqu’on leur demanda s’ils avaient remarqué quelque chose de bizarre dans la vidéo, quasiment personne ne mentionna le comédien déguisé en gorille qui avait traversé l’écran en s’arrêtant à mi-parcours pour se frapper la poitrine des deux poings. La « cécité attentionnelle » définit cette tendance parfois spectaculaire que nous avons à ignorer ce qui se trouve sous nos yeux lorsque notre attention est concentrée sur autre chose. De la même manière, notre cerveau est très peu compétent lorsqu’il s’agit de repérer des changements dans une scène après une coupure, comme lorsqu’on détourne le regard quelques instants : dans une expérience de Simons et Levin, l’expérimentateur demande son chemin à des inconnus dans la rue. Pendant qu’ils parlent, deux ouvriers passent entre l’expérimentateur et son cobaye avec un grand panneau. Un deuxième expérimentateur caché derrière le panneau en profite pour prendre la place du premier, qui s’en va discrètement avec les deux complices. Une fois le panneau passé, la plupart des passants testés continuent à renseigner leur interlocuteur comme si ce dernier n’avait pas changé. On parle alors de « cécité au changement ». Ces deux phénomènes impressionnants témoignent de la façon dont le cerveau n’enregistre qu’un petit nombre de détails pour fabriquer notre perception de la réalité, en privilégiant des blocs d’informations, sans quoi nous serions submergés. C’est aussi pour ça que vuos arrievz à lrie cette prhase fcailenmet, bein que les lerttes soeint dans le désrdore : vrote cevraeu lit cahque mot cmmoe un tout.

La croyance en la justice du monde

Face aux malheurs d’autrui, nous préférons parfois penser que rien n’arrive par hasard, et que ceux qui souffrent ont mérité leur sort. L’idée d’un monde injuste dans lequel nous pourrions souffrir sans raison est intolérable, et il est plus rassurant de croire que chacun est responsable de ce qu’il lui arrive. En psychologie, cette vision d’un destin prévisible en fonction de nos actes est appelé « croyance en la justice du monde ». En 1987, une expérience fut menée dans plusieurs hôpitaux : une infirmière demandait à différents patients s’ils voulaient bien prêter leur montre à d’autres malades qu’ils ne connaissaient pas. Les patients choisis étaient classés en 3 catégories distinctes : ceux qui allaient être opérés, ceux qui avaient déjà été opérés, et ceux qui ne savaient pas encore s’ils allaient être opérés ou non. Ce furent ces derniers, plongés dans l’incertitude, qui acceptèrent le plus largement de prêter leur montre, comme si l’altruisme pouvait influencer le sort en leur faveur. Ce concept de justice immanente nous rend le monde plus supportable, et nous donne une illusion de sécurité tant que nous agissons dans les règles. On le retrouve en religion à travers des idées telles que la punition divine, ou le karma. Malheureusement, c’est aussi cette croyance qui pousse certains à blâmer les victimes pour les malheurs qu’elles subissent, qu’il s’agisse de viols ou de maladies…

Les prophéties auto-réalisatrices

Imaginons que vous soupçonniez votre nouveau collègue de bureau d’être acariâtre et renfermé sur lui-même. Vous évitez alors de lui parler, lui disant à peine bonjour. En retour, votre collègue va se sentir indésirable et préférera rester à l’écart. Vous interprétez son attitude comme une confirmation de vos soupçons, sans réaliser que vous en êtes la cause. Lorsqu’une prédiction influence ainsi directement la réalisation de ce qu’elle prédit, on parle de « prophétie auto-réalisatrice ». On retrouve les effets pervers de ce phénomène dans de nombreux domaines, comme celui de la course aux armements : un pays redoute que son voisin prépare une attaque, et décide d’augmenter le nombre de ses missiles. En conséquence, le pays soupçonné va traduire cette attitude comme une menace, et va lui aussi accroître son armement. Les deux protagonistes vont ainsi alimenter un cycle d’hostilité où chacun verra ses doutes confirmés par la réaction de l’autre. Les prophéties auto-réalisatrices font partie des phénomènes qui, avec entre autres l’effet Forer, permettent d’expliquer l’efficacité apparente de l’astrologie ou de la voyance. Si vous lisez dans votre horoscope que la journée se passera mal, vous vous focaliserez probablement sur les événements négatifs, vous serez de mauvaise humeur, et la prédiction sera directement responsable de ce qu’elle annonçait. De la même façon, si une voyante vous prédit que vous rencontrerez l’âme sœur dans un délai de 3 semaines, vous aurez probablement une attitude beaucoup plus chaleureuse et engageante que d’habitude, facilitant par conséquent la réalisation de la prophétie. Le psychologue Richard Wiseman avance que le phénomène peut faire office d’effet placebo lorsqu’on se l’applique à soi-même : une personne qui est persuadée d’avoir de la chance saisira d’avantage d’opportunités et participera à plus de concours, augmentant ainsi nécessairement ses chances de réussite.

La connaissance rétrospective

Combien de fois avez-vous entendu des gens prétendre qu’ils connaissaient la bonne réponse après qu’elle ait été donnée ? « Je le savais déjà », « j’étais sûr que ça se passerait comme ça », « je savais qu’il serait élu », « la crise était prévisible », autant de déclarations auxquelles nous somme confrontés quotidiennement. Vous-même, en lisant cet article, vous vous êtes peut-être dit que vous connaissiez déjà tous les phénomènes mentionnés. Si c’est le cas, vous pourriez être victime du « biais de connaissance rétrospective ». Cette illusion psychologique, liée à l’organisation de la mémoire, nous donne l’impression que nous savions depuis longtemps une information que nous venons d’apprendre. Dans une expérience qu’il mena en 1975, le psychologue Baruch Fishhoff fit lire à plusieurs groupes d’étudiants un article concernant la guerre qui opposa les Anglais aux Gurkas du Népal en 1814. Il raconta ensuite à chacun des groupes comment s’était terminée la guerre, en donnant à chaque fois une fin différente. Il demanda ensuite aux participant s’ils auraient pu deviner l’issue de cette guerre avant qu’elle ne leur soit révélée. Tous les étudiants affirmèrent qu’ils en auraient été capables, aussi bien ceux qui avaient été trompés que les autres. La connaissance rétrospective explique pourquoi les événements semblent si prévisibles à certains analystes une fois qu’ils sont arrivés, qu’il s’agisse d’économie, de politique ou de société…

Source : Axolot

EADS: il n’y aura pas de procès pour délit d’initiés

Cette décision est tout sauf une surprise et la conséquence de la récente décision du Conseil constitutionnel qui a interdit la possibilité de poursuivre un délit d’initiés devant deux juridictions différentes. Or les prévenus avaient déjà été poursuivis par l’Autorité des marchés financiers (AMF), le gendarme de la Bourse, avant d’être blanchis.

Le dossier EADS (aujourd’hui Airbus Group) était le plus emblématique de cette évolution du fonctionnement de la justice, initié par la jurisprudence européenne.

Dans un arrêt du 4 mars 2014, la Cour européenne des droits de l’Homme (CEDH) avait, en effet, condamné l’Italie pour n’avoir pas respecté le principe du « non bis in idem » (pas deux fois pour la même chose) dans une affaire de délit boursier.

Dans le cas d’EADS, sept cadres ou anciens cadres dirigeants dont Noël Forgeard, l’ancien président, et John Leahy, l’actuel directeur commercial d’Airbus, étaient poursuivis aux côtés des sociétés Lagardère et Daimler, anciens actionnaires de référence du groupe.

La justice leur reprochait de s’être enrichis indûment, en 2005 et 2006, en vendant des titres alors qu’ils avaient connaissance d’informations confidentielles de nature à influer sur le cours de l’action EADS.

« Nous sommes particulièrement heureux de cette décision qui met un point final à des années de procédures. L’innocence de M. Forgeard est définitivement reconnue », a commenté Me Jean-Alain Michel, conseil de Noël Forgeard.

« Sur le plan juridique ce n’est pas une surprise, c’est une conséquence logique. Sur le fond, en revanche, c’est décevant. On aurait pu faire un réexamen plus détaillé du fond », a regretté Me Frédérik-Karel Canoy, avocat de parties civiles.

Au total, la décision du Conseil constitutionnel devrait avoir des conséquences pour une dizaine de dossiers en attente au tribunal correctionnel et treize autres en cours de traitement au parquet financier, selon une source proche du dossier.

S’il a prohibé immédiatement la possibilité de poursuivre deux fois, le Conseil constitutionnel a donné au législateur jusqu’au 1er septembre 2016 pour mettre les textes en conformité avec sa décision.

tu-est/ger/jag

 

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Au Canada, les sables bitumineux plombent la lutte contre le réchauffement

« A elle seule, l’Alberta est reponsable de 73 % de l’augmentation totale des GES entre 1990 et 2012 », assure cette nouvelle étude. Elle précise par ailleurs que le coupable principal est l’industrie des sables bitumineux. En effet, « le secteur du pétrole et du gaz est responsable de 67 % de l’augmentation de la pollution au Canada depuis 1990, et les émissions de tous les sous-secteurs du pétrole et du gaz […] sont demeurées stables ou ont diminué depuis l’an 2000, laissant la production des sables bitumineux assumer à elle seule la principale responsabilité de cette augmentation », note le rapport. Les sables bitumineux risquent donc de plomber tous les efforts entrepris au Canada pour lutter contre le réchauffement climatique.

L’Alberta, vilan petit canard des émissions de GES

La situation est déjà alarmante. L’Alberta est de loin la province canadienne la plus émettrice de gaz à effet de serre (249 millions de tonnes), soit près de 36 % des émissions du pays. Ses émissions dépassent celles de l’Ontario et du Québec combinées. La situation pourrait rapidement empirer. « Si l’exploitation des sables bitumineux poursuit sa croissance comme le prévoient l’industrie et le gouvernement canadien, les émissions de l’Alberta (une province qui compte seulement 11 % de la population du pays) approcheront en 2020 les niveaux combinés des trois plus grandes provinces du pays : l’Ontario, le Québec et la Colombie-Britannique (qui, ensemble, comptent 75 % de la population canadienne) », prévoit l’étude. 

Cette perpective bloquera toute avancée future dans le domaine de la lutte contre le réchauffement climatique. Après avoir dénoncé le protocole de Kyoto, le gouvernement Harper s’est fixé un objectif de réduction, certes plus modeste, de 17 % de ses émissions en 2020, par rapport au niveau de 2005, mais celui-ci est encore loin d’être atteint. Pour y parvenir, le reste du pays devrait réduire ses émissions de 30 % pour compenser les augmentations dues à la croissance de l’insutrie albertaine. Dans cette perspective, 11 % de la population canadienne représentant  2% du PIB canadien émettrait à elle seule l’équivalent de 93 % des émisisions du reste du pays. Pas sûr que les autres provinces jugent ce calcul très équitable.

Limiter l’extraction des sables bitumineux ?

Si l’industrie des sables bitumineux poursuit son développement comme prévu, l’étude identifie 3 options pour que le pays respecte ses objectifs de réduction de GES : l’ensemble des véhicules du pays doivent se mettre à l’électrique, produit à partir de sources renouvelables, tous les bâtiments et les fermes du pays ne doivent plus émettre de GES ou la Colombie-Britannique, les provinces de l’Atlantique, et les territoires deviennent carboneutres. « La réalisation de l’une ou de l’autre au cours des cinq prochaines années est évidemment illusoire », préviennent les auteurs. La seule conclusion qui s’impose est que pour atteindre ses objectifs, le gouvernement fédéral doit limiter la production des sables bitumineux. Il doit aussi assurer l’équité entre les provinces et ne pas favoriser un secteur au détriment de tous les autres. 

Avec 174 milliards de barils, le Canada possède les troisièmes plus importantes réserves de pétrole brut au monde, derrière l’Arabie Saoudite et le Venezuela. Selon les projections, la production quotidienne devrait atteindre 6,7 millions de barils d’ici 2030. Une étude scientifique publiée en janvier 2015 dans la revue Nature remarquait que le Canada devrait laisser plus de 85 % de ses ressources pétrolières connues dans le sol pour limiter la hausse des températures mondiales en dessous de 2°C d’ici la fin du siècle.

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

Peugeot revendique un record de consommation pour une voiture de série

Cette voiture, une 208 équipée d’un moteur diesel de 1.600 cm3, a parcouru 2.152 km avec 43 litres de gazole, « soit une consommation moyenne de carburant de seulement 2 litres/100 km », a affirmé Peugeot dans un communiqué.

Peugeot a précisé que ce record, qui s’est déroulé sur 38 heures, des conducteurs se relayant toutes les trois ou quatre heures, avait été réalisé fin avril sur le circuit d’essais de PSA à Belchamp (Doubs), « sous le contrôle de l’organisme d’homologation français UTAC ».

Cette voiture « établit ainsi le record absolu de consommation d’un véhicule de grande diffusion sur une longue distance », selon la marque au Lion.

En 2011, une Skoda (groupe Volkswagen) Fabia diesel avait consommé 2,21 litres aux 100 km sur un parcours autoroutier de 2006 km.

tq/fz/jag

 

 

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Powerwall, la nouvelle batterie pour maison de Tesla

Elon Musk, PDG de Tesla Motors vient d’annoncer en grandes pompes la commercialisation d’une toute nouvelle batterie révolutionnaire.

En effet, la Powerwall est une batterie lithium-ion capable de stocker jusqu’à 10kWh. Ses dimensions, 1.3m de haut pour 86cm de large et 18 cm de profondeur, permettent de l’accrocher au mur de sa maison. L’objectif est de stocker l’électricité, qu’elle soit délivrée par le réseau électrique aux heures les moins chères ou produite par des panneaux solaires ou même des éoliennes, puis de fournir l’électricité nécessaire à la demande. Les particuliers disposent ainsi d’un outil pour optimiser leurs dépenses énergétiques, mais aussi pallier aux éventuelles coupures réseaux, fréquentes aux Etats-Unis.

Une telle batterie pourrait ouvrir l’ère aux maisons totalement indépendantes du réseau électrique. Pas de quoi faire plaisir à EDF ! Mais le milliardaire Elon Musk assume : « Notre but est de transformer totalement l’infrastructure énergétique mondiale pour la rendre totalement durable et sans produire d’émissions de carbone ».

La Powerwall est la version pour les particuliers, mais Tesla n’oublie pas les entreprises. Les acteurs du privé ont droit à leur batterie Powerpack, aux capacités bien supérieures puisqu’elle pourra stocker 100 kWh. Cette solution va être testée auprès d’un data center d’Amazon et de supermarchés Target.

Les Powerwall et Powerpack seront fabriqué sur le site Gigafactory, la plus grande usine de batterie du monde basée au Nevada.

La Powerwall sera commercialisée sous deux versions, 7kWh et 10kWh, d’ici un an au prix de 3500$.

Par Audrey Loubens

L’ingénieur geek #6 : le bracelet sport de l’Apple Watch

Vendue à partir de 399€, la montre connectée d’Apple permet de faire la liaison entre le porteur et le terminal Apple. Si cette montre permet de recevoir des alertes directement sur son poignet, de répondre en dictant un SMS, elle sert également de coach sportif. Dotée d’un accéléromètre et d’un capteur de fréquence cardiaque, il est aussi possible de télécharger la Fitness App pour étendre la quantité de données (calories brûlées, nombre de pas, distance parcourue…) ou la Workout App pour se fixer des objectifs. 

L’Apple Watch devrait ainsi séduire les sportifs. Il fallait donc la doter d’un bracelet « sport ». La firme à la pomme a choisi un fluoropolymère. Plus précisément, pour profiter de propriétés élastiques, Apple a opté pour des fluoroélastomères. Résultats : une très bonne résistance à la chaleur, aux produits chimiques, aux acides/bases, à la lumière, à l’air ainsi qu’aux flammes. Pour assurer les meilleures performances, Apple a développé un fluoroélastomère exclusif, aux propriétés dopées, afin de proposer un bracelet « […] durable et résistant, mais aussi étonnamment doux ». 

Ce bracelet sport existe en 5 coloris : noir, blanc, rose, bleu et vert. Il est vendu 59€ à l’unité. Attention à un petit détail, le poids des bracelets, bien que composés de la même matière, diffère selon le coloris choisi. Ainsi, pour l’Apple Watch Sport 38 mm, le bracelet noir pèse 37g alors que le blanc en pèse 47.

Par Matthieu Combe, journaliste scientifique

Et aussi dans l’actualité :

Et aussi dans les
ressources documentaires :

Les radiations cosmiques menacent les voyages vers Mars

La mauvaise nouvelle est arrivée de Californie. Les chercheurs de l’Université à Irvine ont étudié l’influence des rayons cosmiques sur des souris. Les cobayes ont été soumis à des radiations de particules à haute énergie. Menées au Laboratoire national de Brookhaven à New York, ces expériences ont provoqué une inflammation du cerveau des souris. Les résultats publiés dans la revue Science Advances précisent grâce à des scanners comment la structure même des neurones est modifiée, de quoi perturber la transmission du signal nerveux. La conséquence directe est une diminution de la capacité d’apprentissage. 

Toutefois, ces symptômes ne surviennent qu’au bout de plusieurs mois, une exposition de courte durée reste donc acceptable. Sauf qu’un voyage vers Mars implique aux voyageurs de s’exposer un à deux ans. Trop long. Pour Charles Limoli, co-auteur de l’étude menée justement dans le cadre du programme de recherche de la Nasa sur les séjours spatiaux de longue durée, « Ces radiations cosmiques pourraient altérer les capacités cognitives des astronautes pendant toute leur vie ». De toute façon, l’efficacité des astronautes est de facto remise en cause. Comment être sûre qu’ils seront aptes à effectuer les manœuvres nécessaires s’ils souffrent de déficit de mémoire, de difficultés de concentration ou pire, de pertes de connaissance ?

Ces travaux, bien que menés sur des souris, alertent sur la dangerosité pour l’homme de s’exposer aux rayons cosmiques plusieurs mois. Faut-il abandonner les voyages vers la planète rouge pour autant ? Pas forcément. Il reste à réfléchir au renforcement de la protection des engins spatiaux qui pourraient suffire à limiter l’exposition aux radiations des voyageurs. 

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Au moins 1 Européen sur 3 est exposé à l’amiante

L’année 2015 verra-t-elle le risque amiante pris en charge dans tous les pays européens ? Rien n’est moins sûr, si l’on en croit un rapport publié jeudi 30 avril par la branche Europe de l’Organisation mondiale de la santé (OMS). Parmi les 53 pays européens, 16 continuent à l’autoriser, tandis que les autres disposent de réglementations plus ou moins exigeantes.

Encore une bonne résolution qui prend l’eau: en 2010, les 53 pays de la zone Europe de l’OMS s’étaient engagés, dans le cadre de la cinquième conférence ministérielle sur la santé et l’environnement organisée à Parme (Italie), à mettre en place, d’ici 2015, des législations en vue d’éliminer les maladies liées à l’amiante. Ce qui exigeait, au minimum, d’interdire l’usage de ce matériau.

Nous en sommes bien loin, comme le révèle le rapport de L’OMS Europe publié en marge d’une réunion organisée à Haïfa (Israël), qui s’est terminée jeudi. Sur les 53 pays de la zone Europe, 16 n’interdisent toujours pas l’amiante. Il s’agit pour la plupart d’anciennes républiques soviétiques, dont la Russie, la Géorgie, l’Ukraine, la Biélorussie, l’Ouzbékistan, le Kazakhstan, mais aussi l’Albanie et la Bosnie-Herzégovine. Pur l’OMS, «un Européen sur trois au moins peut être exposé à l’amiante dans son milieu de travail et dans l’environnement».

Même parmi les pays ayant interdit l’amiante, la situation est loin d’être idéale: seuls 62% de ceux l’ayant interdit disposent de plans pour mettre fin aux maladies liées à ce matériau, objectif principal de l’OMS pour 2015. Et 32% ont mis en place des mesures pour empêcher l’exposition du public lors du désamiantage des bâtiments, du transport et de la gestion des déchets.

Un risque professionnel encore ignoré

Aucun des pays continuant à autoriser l’amiante ne dispose de tableaux des maladies professionnelles: dès lors, le mésothéliome ne peut y être reconnu comme tel. Pire, aucun d’entre eux ne distingue cette maladie des autres cancers dans ses registres cancers. Mais même parmi les pays interdisant l’amiante, 23% ne reconnaissant pas officiellement le mésothéliome comme une maladie professionnelle.

Pour la directrice régionale de l’OMS pour l’Europe, Zsuzsanna Jakab, «nous ne pouvons pas nous permettre de perdre près de 15.000 vies chaque année en Europe, surtout des travailleurs, en raison des maladies causées par une exposition à l’amiante».

«Chaque décès de ce type est évitable (…) Nous exhortons tous les pays à remplir les engagements pris en 2010, et ce dès la fin de la réunion de Haïfa, et à élaborer pour la fin de l’année des politiques qui permettront d’éliminer les maladies liées à l’amiante en Europe. Il reste très peu de temps pour cela», ajoute Zsuzsanna Jakab.

Selon l’OMS, la moitié des 15.000 décès annuels liés à l’amiante dans les 53 pays européens seraient liés au mésothéliome, devant divers autres cancers (poumon, ovaire, larynx) et l’asbestose. Le mésothéliome constitue un réel fardeau économique pour les États: parmi les 15 plus pays les plus peuplés de l’Union européenne, l’OMS estime qu’il coûte à lui seul plus de 1,68 milliard d’euros par an.

Source : Euractiv

Et aussi dans les
ressources documentaires :

La prothèse rétinienne Argus II commence à être implantée en France

Il coûte 95897€. Le dispositif capable de compenser la dégénérescence de la rétine est hors de portée de nombreuses finances. Pourtant, l’Argus II fonctionne et les patients atteints de maladie dégénérative de la rétine peuvent retrouver la capacité de discerner des formes grâce à lui et ainsi retrouver une autonomie perdue. Grâce à l’arrêté du 14 août 2014 et la prise en charge à 100%, des malades français peuvent enfin profiter du cet œil bionique

Les trois premiers patients viennent tout juste d’être opérés. L’un a été pris en charge au centre hospitalier universitaire (CHU) de Strasbourg le 22 janvier, les deux autres, une femme de 70 ans et un homme de 72 ans ont été opérés au CHU de Bordeaux. Ces français sont atteints d’une rétinopathie pigmentaire, c’est-à -dire que l’œil et les bâtonnets rétiniens ne remplissent plus leur rôle du fait de leur dégénérescence. Or ce sont eux qui convertissent la lumière en impulsions, transmises au cerveau via le nerf optique. Les malades atteints par cette maladie commencent à perdre la vision nocturne puis voient leur champ de vision rétrécir. A terme, ils peuvent perdre la vue.

Suite à leur opération, alors que les patients du CHU de Bordeaux ne discernaient qu’un simple halo lumineux, ils sont désormais capables distinguer les ombres des personnes dans leur environnement proche, et ce en à peine deux semaines de convalescence.

L’implant rétinien développé par la société américaine Second Sight consiste en une petite caméra positionnée sur des lunettes portées par le patient. L’image est transmise par connexion sans-fil à l’implant, lui-même connecté au nerf optique par des électrodes. Ces dernières émettent des impulsions électrique et stimule les cellules encore fonctionnelles de la rétine en contournant celle déficientes.

En 2015, une trentaine d’autres patients français pourront bénéficier de la prise en charge à 100% de la pose de l’implant.

Par Audrey Loubens

Et aussi dans les
ressources documentaires :