« Responsabilité climatique » : une nouvelle méthodologie appliquée à la Chine

La « responsabilité » de ce pays pourrait cependant croître rapidement dans les années à venir, assez paradoxalement en raison de futures politiques visant à améliorer la qualité de l’air dans le pays. Les chercheurs tirent ces résultats d‘une nouvelle méthodologie mise au point pour déterminer les impacts, sur le climat d’un pays, de ses émissions de gaz à effet de serre, d’aérosols et de composés chimiquement actifs dans l’atmosphère. Ces travaux sont publiés dans Nature le 17 mars 2016.

Les chercheurs ont quantifié la contribution actuelle de la Chine au « forçage radiatif » planétaire (le déséquilibre d’origine humaine du bilan de rayonnement de notre planète), en en distinguant les contributions des gaz à effet de serre à longue durée de vie, de l’ozone et de ses précurseurs, et des aérosols. Pour cela, ils ont établi un modèle couplant :

  • les grands cycles biogéochimiques de la Terre (cycle du carbone, chimie atmosphérique des gaz à effet de serre) ;
  • une reconstitution 3D du transport et de la chimie des particules dans l’atmosphère ;
  • des reconstructions d’albédo provenant de données satellitaires.

Ils ont ainsi estimé que la Chine contribue à hauteur de 10 % en moyenne, au forçage radiatif global actuel. Sa contribution au forçage réchauffant (induit par les gaz à effet de serre, l’ozone troposphérique et le « carbone suie » 3 ) est de 12 % en moyenne. Sa contribution au forçage refroidissant (induit par les aérosols dispersant le rayonnement solaire, tels que les sulfates ou les nitrates) est de 15 % en moyenne.

Cette « responsabilité climatique » de la Chine, premier consommateur d’énergie dans le monde, est moindre que ne le laissaient présager sa consommation énergétique et ses émissions de CO2, pour deux raisons. La première est le fort effet masquant (refroidissant) des aérosols émis par la Chine – aérosols également à l’origine de la mauvaise qualité de l’air dans le pays. La seconde est que la méthode développée intègre les effets de toutes les émissions depuis 1750 (le début de l’ère industrielle), prenant ainsi en compte le fait que la Chine est un pollueur relativement récent.

Les contributions principales de la Chine démontrées dans l’étude sont :

  • 0,16 Wm-2 (watt par mètre carré) en moyenne pour le CO2 issu des énergies fossiles ;
  • 0,13 Wm-2 en moyenne pour le méthane (CH4) ;
  • – 0,11 Wm-2 en moyenne pour les aérosols sulfatés ;
  • 0,09 Wm -2 en moyenne pour les aérosols de « carbone suie », produits par les combustions incomplètes de combustibles fossiles et de la biomasse.

Le but, affiché par la Chine, d’améliorer la qualité de l’air dans les années à venir modifierait ce forçage radiatif, avec l’effet – assez contre-intuitif – d’augmenter la contribution chinoise au réchauffement. En effet, réduire les émissions de précurseurs de particules polluantes (telles que le dioxyde de soufre) diminuerait l’effet masquant des aérosols chinois, et accélérerait le réchauffement, à moins que cet effet ne soit compensé par ailleurs, par exemple en réduisant significativement les émissions de gaz à effet de serre de longue durée de vie et du « carbone suie ». Cette nouvelle méthodologie pourrait donc constituer un outil intéressant pour réévaluer l’impact climatique des pays.

Références : “The contribution of China’s emissions to global climate forcing”, Bengang Li et. al., Nature, DOI: 10.1038/nature17165.

Source : cnrs

Voie Lactée : une source accélère des rayons cosmiques galactiques à des énergies inégalées

Le trou noir supermassif situé en son centre. H.E.S.S, auquel contribuent le CNRS et le CEA, détecte indirectement le rayonnement cosmique depuis plus de dix ans et a dressé une cartographie, en rayons gamma de très haute énergie, des régions centrales de notre Galaxie. L’identification de cette source hors du commun est publiée ce 16 mars 2016 dans Nature.

Des particules du rayonnement cosmique jusqu’à des énergies d’environ 100 téraélectronvolts (TeV) sont produites dans notre Galaxie par des objets comme les vestiges de supernova et les nébuleuses à vent de pulsar. Divers arguments théoriques, couplés aux observations directes des rayons cosmiques atteignant la Terre, indiquent que les « usines » galactiques de rayons cosmiques devraient être capables de produire des particules jusqu’à des énergies d’au moins un pétaélectronvolt (PeV), énergies 100 fois plus élevées que celles jamais atteintes par l’Homme. Alors que ces dernières années ont vu la découverte de nombreux accélérateurs au TeV et à quelques dizaines de TeV, les sources de plus haute énergie restaient inconnues.

Artwork of an active galactic nucleus, or AGN. Many, perhaps most large galaxies, are thought to harbour supermassive black holes in their central regions. These enormous gravitational powerhouses can weigh anything from a few hundred thousand to several billion times the mass of a normal star. In some galaxies, such as our own Milky Way, these black holes may be dormant. But in active galaxies such as quasars and Seyfert galaxies, those with unusually bright central regions, the black hole is probably feeding off a vast accretion disc - a donut-shaped gas cloud. The gas in the disc spirals around and is heated to extremely high temperatures by friction, before falling into the hole. In some cases, magnetic fields thread the disc, and lead to the formation of beams of charged particles, which are expelled at great velocities, approaching light speed, along the rotation axis.

CdvW6QXWoAADQV-L’analyse détaillée de la région du centre galactique observée pendant près de dix ans par le réseau de télescopes H.E.S.S. (High Energy Stereoscopic System), en Namibie, auquel contribuent le CNRS et le CEA., est publiée aujourd’hui dans la revue Nature. Lors de ses trois premières années d’observation, H.E.S.S a permis de découvrir une source ponctuelle et très puissante de rayons gamma au centre galactique, ainsi qu’une émission diffuse provenant des nuages moléculaires géants qui l’entourent dans une région d’environ 500 années-lumière de large. Ces nuages moléculaires, lorsqu’ils sont bombardés par des protons de très haute énergie, émettent des rayons gamma produits lors de l’interaction des protons avec la matière des nuages. La correspondance spatiale entre l’émission diffuse observée et la quantité de matière dans les nuages (déduite d’autres observations) indiquait la présence d’un ou plusieurs accélérateurs de rayons cosmiques (en particulier de protons) tapis quelque part dans cette région, mais cette source restait inconnue.

Les observations plus approfondies, obtenues par H.E.S.S. entre 2004 et 2013, apportent un nouvel éclairage sur cette question. Le volume record de données récoltées ainsi que les progrès effectués dans les méthodes d’analyse permettent de mesurer la répartition spatiale des protons et leur énergie et de localiser l’origine de ces rayons cosmiques. Il s’agit d’une source cosmique située au centre exact de la Voie Lactée, capable d’accélérer des protons jusqu’à des énergies voisines du pétaélectronvolt. Les chercheurs pensent qu’elle émet sans interruption depuis au moins mille ans. Elle constituerait ainsi le premier « Pévatron » jamais observé.

Le centre de notre Galaxie abrite de nombreux objets susceptibles de produire des rayons cosmiques de très haute énergie, dont en particulier un reste de supernova, une nébuleuse à vent de pulsars mais aussi un amas compact d’étoiles massives. Cependant, le trou noir supermassif localisé au centre de la Galaxie, Sagittarius A*, est de loin le candidat le plus vraisemblable. Plusieurs régions d’accélération sont envisageables : soit le voisinage immédiat du trou noir soit une région plus éloignée, où une fraction de la matière tombant sur le trou noir est réinjectée dans l’environnement et peut initier de l’accélération de particules.

L’observation des rayons gamma permet de mesurer indirectement le spectre en énergie des protons accélérés par le trou noir central. Ce spectre indique que Sagittarius A* accélèrerait encore maintenant des protons jusqu’au PeV. L’activité actuelle de la source ne permet pas d’expliquer à elle seule l’intensité du rayonnement cosmique observé sur Terre. Mais si le trou noir central avait été encore plus actif dans le passé, il a pu produire à lui seul la quasi-totalité du rayonnement cosmique galactique observé à ces énergies. Un argument décisif au débat centenaire sur l’origine des rayons cosmiques galactiques !

La détection des rayons cosmiques par H.E.S.S

La Terre est bombardée en permanence par des particules de haute énergie (protons, électrons et noyaux atomiques) en provenance du cosmos, particules qui constituent ce que l’on appelle le « rayonnement cosmique ». Ces particules étant chargées électriquement, elles sont déviées par les champs magnétiques du milieu interstellaire de la Galaxie et il est impossible d’identifier directement les sources astrophysiques responsables de leur production. Ainsi, depuis plus d’un siècle, l’identification de l’origine du rayonnement cosmique reste l’un des plus grands défis de la science.
Heureusement, les particules cosmiques interagissent avec la lumière et le gaz au voisinage de leur source et produisent alors des rayons gamma qui, eux, se déplacent en ligne droite, permettant ainsi de remonter à leur origine. Ceux d’entre eux qui atteignent la Terre, au contact de la haute atmosphère, produisent une gerbe de particules secondaires émettant une lumière très brève et ténue. De nombreuses sources du rayonnement cosmique ont donc pu être identifiées ces dernières décennies en détectant cette lumière à l’aide de grands télescopes munis de caméras à haute définition temporelle comme le réseau de télescopes H.E.S.S. .Ce réseau, le plus performant au monde dans son domaine, est géré par une collaboration de 12 pays regroupant des scientifiques de 42 organismes.

Source : cnrs

Les bonobos se souviennent de leurs anciens compagnons

Une équipe internationale impliquant Florence Levréro, Sumir Keenan et Nicolas Mathevon, trois chercheurs de l’Institut des neurosciences Paris-Saclay (CNRS/Université Paris-Sud), basée à l’Université de Saint-Etienne, a mis en évidence la reconnaissance à long terme des voix familières chez les bonobos. Un point commun entre les grands singes et nous qui vient de faire l’objet d’une récente publication dans Scientific Reports.

Chez de nombreux primates, la vie sociale est caractérisée par des associations de longue durée entre les individus. Ces associations nécessitent une reconnaissance entre les membres du groupe, qui passe préférentiellement par l’identification du visage et de la voix. Nous, humains, sommes des experts lorsqu’il s’agit de reconnaître la voix de nos proches — tout un chacun en a fait l’expérience au téléphone. Cette mémoire vocale persiste même après une longue séparation, et nous pouvons reconnaître une voix qui fut familière — celle d’un acteur de cinéma par exemple — sans l’avoir entendue depuis plusieurs années. Cette expertise à identifier vocalement nos congénères est d’une grande aide pour naviguer dans nos réseaux sociaux complexes. Qu’en est-il chez nos plus proches cousins les grands singes ?

L’ancêtre commun aux bonobos, chimpanzés et humains vivait il y a 6 à 8 millions d’années, et les deux grands singes partagent avec nous de nombreuses caractéristiques, tant du point de vue de leurs gènes que de leurs comportements. En milieu naturel, les bonobos vivent dans la forêt équatoriale du centre de l’Afrique. Les individus forment de vastes communautés où chacun se connaît, interagit, s’associe, se reproduit ou entre en compétition avec les autres. Les membres d’une communauté se séparent régulièrement en petits groupes, pendant des heures, des jours ou des semaines. De plus, les jeunes –surtout les femelles- quittent leur communauté d’origine mais continuent à interagir avec d’anciens compagnons au cours de rencontres ultérieures entre les communautés. Ainsi, une navigation sociale efficace dépend de la capacité à reconnaître les partenaires sociaux présents et passés. Pour voir si les bonobos mémorisent la voix de leurs congénères, Sumir Keenan — doctorante à l’Université Jean Monnet, Saint-Etienne — et ses collaborateurs ont étudié ces animaux en passant de longues heures à les observer, les enregistrer, et faire des expériences de repasse de signaux acoustiques — lesquelles consistent à faire écouter des vocalisations précédemment enregistrés et à observer les réactions des animaux (“playback”). Les résultats montrent que des bonobos séparés depuis plusieurs années réagissent fortement lorsqu’ils entendent leurs anciens compagnons. Ces grands singes se souviennent donc pendant longtemps de voix qui leur ont été familières.

Pour tester la reconnaissance vocale à long terme chez les bonobos, les scientifiques ont d’abord enregistré la voix de nombreux bonobos présents dans différents parcs zoologiques européens. Profitant du fait que certains bonobos ont connu plusieurs parcs — et donc formé des liens présents et passés avec des congénères dans différents endroits — les scientifiques ont ensuite mis en œuvre des expériences de playback pour observer la réaction comportementale des singes à des voix familières ou inconnues. Les bonobos comprenant aisément les leurres, il a fallu mettre en place une minutieuse mise en scène mimant tous les évènements caractérisant l’arrivée d’un nouveau bonobo, en cachant le haut-parleur avec soin.

Les résultats des expériences sont clairs : lorsque les cris émis par le haut-parleur étaient ceux d’un individu familier, le bonobo testé s’approchait, et parfois criait en retour, visiblement fort excité par la perspective de revoir un ancien camarade. Au contraire, aucune réaction particulière n’était notée en réponse à une voix inconnue.

Les bonobos sont donc capables de reconnaître la voix d’un congénère, même après plus de cinq années de séparation. La vie sociale complexe des bonobos exige de grandes capacités d’interaction avec autrui. Se souvenir de “qui est qui” est important, parfois même vital. Nous, humains, le savons bien, ainsi cette reconnaissance sur le long terme des voix familières vient constituer une autre caractéristique partagée avec nos si proches cousins.

Références :
Enduring voice recognition in bonobos, S. Keenan, N. Mathevon, JMG Stevens, JP Guéry, K Zuberbühler, F.Levréro, Scientific Reports, 24 Février 2016.
L’article scientifique peut être téléchargé gratuitement ici.

La fin de l’hégémonie américaine sur le système des adresses Internet

C’est chose faite. Dirigé depuis mai 2015 par le Suédois Göran Marby (qui dirige actuellement le régulateur des postes et des télécoms de son pays), l’Icann a adopté une nouvelle charte après deux ans de négociations (et 600 réunions) qui le dote d’une direction pluripartite non gouvernementale. Le conseil d’administration de cette société installée en Californie sera rééquilibré avec une sorte d’assemblée générale qui représentera la diversité des acteurs, où toutes les parties prenantes seront présentes, société civile, associations, chercheurs, professionnels et gouvernements. Le financement de l’organisation continuera de venir de contrats signés avec les propriétaires de noms de domaine et d’annuaires électroniques.

« Le principal changement qui en résulte est le renforcement du principe de l’État de droit. Auparavant les décisions étaient prises par le gouvernement américain, désormais le conseil d’administration devra rendre des comptes. Il y aura une Cour d’appel qui pourra siéger en cas de litiges sur ses décisions et l’AG aura la possibilité de démettre le conseil si ce dernier s’éloigne trop des statuts de l’Icann, comme cela a pu se produire par le passé », explique Mathieu Weill, Directeur général de l’Afnic qui gère les domaines français comme le .fr.

Avant d’entrer en vigueur, cette nouvelle organisation devra être acceptée par les autorités américaines. Leur réponse pourrait intervenir que dans trois mois, le temps pour elles d’étudier cette nouvelle structure. Si cette étude prend trop de temps avec par exemple des auditions du Congrès américain, les élections américaines et le changement d’administration pourraient reporter cette décision…

Depuis 1998, les États-Unis assuraient en effet l’administration des fonctions de l’IANA (Internet Assigned Numbers Authority). Vitales pour Internet, ces fonctions étaient autrefois assurées par l’Université de Californie du Sud et auparavant par le Département de la Défense. Mais en 2014, l’administration de Barack Obama avait annoncé qu’elle allait laisser l’Icann superviser ces fonctions.

Deux grands axes essentiels de réforme ont également été adoptés lors de ce congrès au Maroc. Premièrement, les décisions prises par le Conseil d’administration de l’Icann (telles que l’octroi d’un nouveau nom de domaine de premier niveau comme le .vin) pourront faire l’objet d’un recours par toute personne intéressée devant une instance d’appel, composée de sept juges. L’avis de cette « cour d’appel » s’imposera au Conseil d’administration, alors que celui-ci est jusqu’à présent souverain. Deuxièmement, les organismes qui représentent les différentes parties prenantes au sein de l’Icann (gouvernements, utilisateurs, NIC, gTLD,…) pourront imposer leur veto aux décisions du Conseil d’administration, par un vote majoritaire.

Mais pour Fadi Chehadé, ancien président de l’Icann, cet accord ne résout pas tout. « Il ne faut pas un régulateur unique, mais des régulateurs par sujets. L’Icann s’occupe des noms de domaine. Il faudra créer d’autres Icann sur des sujets qui vont au-delà de ce dont nous nous occupons. Par exemple, il faut un autre régulateur pour la protection des enfants sur Internet, et d’autres sur la fiscalité et la taxation du numérique entre les États ».

Philippe Richard

L’informatique quantique et le casse du siècle

Après la mise en demeure d’Apple par un tribunal fédéral américain (après une plainte du FBI) de débloquer l’iPhone 5C, c’est au tour des équipes du MIT (Massachusetts Institute of Technology) et de l’Université autrichienne d’Innsbruck de partir à l’assaut des clés de chiffrement. Cette fois, il ne s’agit pas d’utiliser l’arme judiciaire, mais la puissance d’une machine quantique afin de factoriser très efficacement les nombres entiers (en un temps proportionnel à la longueur de la clé).

Si ces scientifiques arrivent à relever ce défi, ils pourraient accéder aux chiffrements employés pour protéger les cartes bancaires et toutes les transactions sensibles qui transitent sur les réseaux comme l’Internet notamment. De quoi ébranler tout le système bancaire ! Un casse du siècle réussi par une machine.

Comme Google, les chercheurs du MIT et d’Innsbruck affirment avoir développé une technique pour augmenter la stabilité des « qubits », ces particules élémentaires qui sont à la base du calcul quantique. Jusqu’à présent, le nombre 15 pouvait être, en informatique quantique, décomposé à partir de 12 qubits. Grâce à un laser capable de maintenir des atomes de calcium de manière stable, ils seraient parvenus à atteindre les 5 qbits avec « un niveau de confiance supérieur à 99 % ».

Ce n’est pas la première fois que ce genre d’annonce est faite. Début 2014, la National Security Agency (NSA) avait décidé de financer (à hauteur de 80 millions de dollars) des travaux menés à l’Université du Maryland. Appelés « Penetrating Hard Targets », ils visent à mettre au point un ordinateur quantique.

Mais la résistance s’organise afin que les algorithmes de chiffrement asymétrique (le plus connu étant le RSA en référence aux initiales de ses trois inventeurs, Ron Rivest, Adi Shamir et Len Adleman) soient plus robustes lorsque les ordinateurs quantiques deviendront une réalité. C’est l’objet du partenariat signé en 2015 entre Microsoft Research, le fabricant de semi-conducteurs NXP et l’Université de technologie du Queensland (en Australie). Leurs recherches visent à renforcer le protocole de sécurisation des échanges sur Internet TLS (Transport Layer Security).

Autre initiative, celle de deux mathématiciens de la Washington State University, Nathan Hamlin et William Webb. En mars 2005, ils ont présenté une nouvelle manière de faire du chiffrement asymétrique, en modifiant un vieil algorithme des années 70 (« Knapsack »).

Mais pour l’instant, seul le chiffrement quantique peut résister à l’ordinateur quantique ! « C’est une technologie qui tourne très bien au quotidien et qui commence à être déployée massivement par des sociétés commerciales. Mais c’est très contraignant : la distance est limitée à 100 km et cela ne fonctionne que de point à point. Pour le Web, ce n’est donc pas envisageable », explique Renaud Lifchitz, chercheur à l’Université de Duisburg-Essen. En février 2002, entre Genève et Lausanne (deux villes situées sur la rive suisse du lac Léman et distantes de 67 kilomètres), un message avait été échangé par un canal de communication sécurisé à 100 %. Ce sont des photons (de petits grains de lumière) qui ont permis à Nicolas Gisin et à ses collègues du groupe de physique appliquée de l’Université de Genève de réaliser ce tour de force.

De son côté, Mazyar Mirrahimi, qui dirige Quantic (une équipe commune à 5 écoles ou instituts de recherche) estime que « d’autres applications verront le jour avant l’apparition d’un tel calculateur universel, c’est-à-dire capable de résoudre des problèmes non accessibles à des ordinateurs classiques. Pour l’instant, l’enthousiasme actuel s’explique par les perspectives touchant au développement d’ordinateurs universels quantiques, comme la factorisation de grands nombres utilisée par les algorithmes de cryptage. »

Philippe Richard

Route solaire Wattway : le temps de retour énergétique est « un réel défi pour les ingénieurs » (CNRS)

« Je peux voir deux problèmes avec la route solaire. Le premier vient du réchauffement des panneaux solaires car quand la température augmente, l’efficacité décroit et le processus de vieillissement est accéléré » explique Hervé Pabiou, chercheur du CETHIL, Centre d’Energétique et de Thermique de l’INSA Lyon, en conclusion du documentaire de National Geographic.

« Un autre paramètre intéressant est le temps de retour énergétique (energy payback time) qui est le temps nécessaire pour produire la même quantité d’énergie qui a été utilisée pour fabriquer les panneaux. C’est un réel défi pour les ingénieurs » ajoute le scientifique. Cette honnêteté intellectuelle est vraiment remarquable.

Le documentaire a été réalisé par Claire Jeantet et Fabrice Caterini de l’Agence INEDIZ basée à Lyon. L’angle est particulièrement pertinent car il illustre vraiment bien qu’il s’agit d’un projet de R&D qui n’en est qu’à ses balbutiements, avec encore beaucoup d’inconnues, y compris au niveau de la viabilité même de l’approche sur le plan énergétique, et par ricochet sur le plan économique. Ceci en fort contraste avec la façon dont ce sujet avait été traité dans les médias auparavant.

rendement aerovoltaique

« Discuter la route solaire »

Une semaine avant la diffusion du documentaire de National Geographic, c’est une intéressante piste pédagogique qu’a proposé ENGAGE sur cette page :

« Avec le projet français « Wattway« , on retrouve également plusieurs actualités qui abordent le sujet de manière très générale : L’Esprit sorcierL’ExpressLe Monde, par exemple. Mais, on retrouve des retours critiques : Le blogueur EELV créé une nouvelle vidéo (avec sous-titres français) pour critiquer le projet de routes solaires françaises (le 12 février 2016 ndlr), le journaliste Olivier Danielo publie cet article (le 1er février 2016 ndlr) qui regroupe des sources qui remettent en cause l’efficacité et l’utilité du projet de route solaire. »

ENGAGE mentionne la presse généraliste, mais plusieurs médias français spécialisés en vulgarisation scientifique ont traité de sujet de la même manière. Dans un article intitulé « Route solaire, rupture technologique ? », le magazine Sciences et Avenir estime par exemple que « simple et robuste, la technologie pourrait accélérer le développement des énergies renouvelables ». Non sans emphase le magazine ajoute : « et si on tenait là l’une de ces innovations de rupture apte à faire changer d’ère l’humanité toute entière ? ». Pas un mot dans l’article sur le bilan environnemental et énergétique de cette innovation, ni sur son coût. Du côté des médias écolos, pas mieux.

Un second article publié sur Techniques de l’ingénieur est mentionné dans le dossier d’ENGAGE, article portant sur une innovation très prometteuse: « Très récemment, un autre projet, créé par l’architecte suédois Måns Tham, revient dans l’actualité : le Solar Serpent. Il a été dévoilé en 2010 à Berkeley en Californie et consiste non pas en une route mais en un tunnel de cellules photovoltaïques qui recouvrirait une route existante et aurait également des fonctions de dépollution de l’eau et de l’air ».

Financé par le septième programme-cadre pour la Recherche et le Développement de la Commission Européenne, « le projet ENGAGE réunit 14 partenaires de 12 pays différents ayant une vaste expérience de l’enseignement des sciences basé sur la démarche d’investigation et de la recherche et de l’innovation responsables (RIR), en particulier dans la formation des enseignants et la conception des programmes. » Les spécialistes de la pédagogie et auteurs du dossier invitent les enseignants à muscler leur esprit critique, fondement de l’esprit scientifique, ainsi que celui des élèves:

« En conclusion, on peut se poser les questions suivantes et pourquoi pas les aborder en classe avec vos élèves:

  • Selon vous, les médias se sont-ils emparés du sujet (les routes solaires ndlr) de manière critique, constructive et en étudiant le sujet sur le fond ?
  • Que pensez-vous de l’efficacité réelle ainsi que des avantages et des inconvénients de cette nouvelles technologie ? Avons-nous à l’heure actuelle assez d’informations pour trancher ces questions ?
  • Pensez-vous que les routes solaires soient la solution/une solution ou pas une solution pour le futur énergétique en France et dans le monde ?
  • Avez-vous trouvé d’autres sources intéressantes sur le sujet des routes solaires que vous souhaiteriez partager ? N’hésitez pas à nous donner votre avis ou faire des commentaires sur cet article ! »

« Madame Ségolène Royal, avez-vous les bons conseillers? »

D’autres questions peuvent être posées:

La France a-t-elle un problème avec le solaire photovoltaïque ? Comment est-ce possible qu’une Ministre de l’écologie puisse annoncer (annonce réitérée à de nombreuses reprises) le lancement de 1000 km de route solaire alors que le coût annoncé est de 6€/W, soit 6 à 7 fois plus que le coût du grand solaire au sol aujourd’hui ? Sans parler des coûts de fonctionnement.

Les ONG environnementales ont-elles informé correctement les éco-citoyens, notamment sur les réseaux sociaux ? Certes, le solaire peut être aveuglant, mais ont-elles pris soin d’appliquer le principe de précaution ?

Comment est-il possible que Colas, la filiale de Bouygues, ait pu recevoir un « trophée solutions climat » lors de la COP21 alors que l’EROI n’a pas été estimé ? Et qu’il n’est donc pas possible à ce stade d’affirmer s’il s’agit d’une solution pour le climat ou au contraire d’un gouffre énergétique pervers sur le plan climatique si l’EROI s’avérait inférieur à 1:1.

« Lors des trophées solutions climat (dans le cadre de la COP21 ndlr) des experts ADEME étaient associés à la présélection » a rappelé Hervé Le Treut, directeur de l’Institut Pierre-Simon Laplace et qui présidait le jury, joint par téléphone. Ce physicien membre de l’Académie des sciences renvoie-t-il la patate chaude vers cette agence de l’état ? Le 25 février 2016 Pierre-Henri Guignard, secrétaire général de la COP21, précise sur Twitter que « la route solaire était présente au Bourget, à la COP21, dans le cadre d’un accord de mécénat. » Ces justifications laissent pour le moins à désirer.

Benjamin Vadant, chef de pôle chez ERDF et créateur de l’application Info-Travaux visant à éviter les rues barrées lors de travaux sur les routes, a écrit à la Ministre le 16 février : « Madame Ségolène Royal, avez-vous les bons conseillers? Mettre des panneaux solaires sur les routes n’est pas une bonne idée : http://www.eevblog.com/forum/blog/eevblog-850-french-wattway-solar-roadways-bullshit/  ». Une conseillère du Ministère de l’écologie a réagit de la manière suivante à ce message: « A mon avis cela n’est pas la bonne question, ça serait plutôt « écoutez-vous vos conseillers, parfois ? » »

Techniques de l’ingénieur a contacté Valérie Masson-Delmotte, co-présidente du groupe 1 du GIEC, le panel intergouvernemental des experts du climat, pour lui demander sa réaction face à cette réalité: de l’aveu même de l’ADEME, aucune ACV, aucun calcul d’EROI n’ont été réalisés concernant la technologie de route solaire Wattway de Bouygues-Colas. Qui a pourtant obtenu un trophée solutions climat et par conséquent un très large écho médiatique dépassant les frontières hexagonales. Dans son message de réponse (avec Hervé Le Treut en copie) cette scientifique du LSCE, le Laboratoire des Sciences du Climat et de l’Environnement dirigé par Jean Jouzel, médaille d’or du CNRS, déclare: « Il me semble que l’analyse intégrée en cycle de vie soit une grille de lecture pertinente pour tout projet d’atténuation ».

Les thématiques liées au développement durable, et en particulier le solaire PV qui sera au cœur du système énergétique de demain, méritent en effet d’être traitées de façon sérieuse. Surtout dans le cadre d’une COP qui implique le monde entier.

De la publicité à la communication responsable

Fabrice Bonnifet, directeur Développement Durable & QSE (Qualité Sécurité Environnement) du groupe Bouygues et directeur du Collège des Directeurs du Développement Durable a partagé le 24 février 2016 l’article « De l’art périlleux de « parler vrai » » publié dans Les Echos Business deux jours avant et signé Ariane Gaudefroy.

L’un des paragraphes de l’article s’intitule « Fournir des preuves » et un autre « Rester humble ».  « Pour se mettre en valeur, il faut savoir parler de ses faiblesses » souligne dans ce remarquable article Yonnel Poivre-Le Lohé, consultant en communication responsable chez MIK Partners et auteur du livre « De la publicité à la communication responsable ». « Exposer ses défauts d’emblée permet de faire baisser le niveau d’attente des consommateurs » souligne l’expert.

« Il faut absolument attendre des avancées concrètes avant de communiquer », ajoute Florence Touzé, professeur à Audencia Group, cotitulaire de la chaire RSE. « Aujourd’hui, les consommateurs ont affûté leur esprit critique et toute déclaration non prouvée expose à des accusations de « greenwashing ».

Grâce au documentaire éco-responsable diffusé par le biais de National Geographic, l’équipe Wattway ne pourra pas être accusée de la sorte. Vive l’innovation française. Et vive la Démocratie énergétique participative.

Olivier Daniélo

Les néonicotinoïdes toujours sur la sellette

Les néonicotinoïdes, ces insecticides qui agissent sur les systèmes nerveux des abeilles, n’ont pas fini de faire parler d’eux. En mars 2015, l’Assemblée nationale avait voté deux amendements dans le projet de loi Biodiversité pour restreindre l’utilisation de cette famille d’insecticides, contre l’avis du gouvernement. Retirés en juillet 2015 par la Commission du Développement durable du Sénat, ils n’ont pas été réintroduits en séance lors de l’examen du texte en janvier 2016 par le Sénat. Les sénateurs ont également rejeté un amendement visant à étendre le moratoire européen existant sur 3 néonicotinoïdes à l’enrobage des semences des céréales d’hiver, conformément à l’avis de l’Anses du 7 janvier 2016.

Les sénateurs ont néanmoins adopté un amendement qui renvoie à un arrêté du ministre de l’Agriculture le soin de déterminer les conditions d’utilisation des néonicotinoïdes prenant en compte l’avis de l’Anses. Il s’agira de mieux encadrer les « usages en traitement de semences pour les céréales d’hiver et des usages en pulvérisation après la floraison sur vergers et vignes ». Ce texte devra être « pris dans les trois mois après la promulgation de la loi ». Un sous-amendement a également été adopté afin que le ministre prenne aussi en compte les « conséquences sur la production agricole au regard des alternatives de protection des cultures disponibles ».

Mais rien n’y fait. 62 députés reviennent à la charge et ont signé un nouvel amendement qui stipule que « l’utilisation des produits contenant des substances actives de la famille des néonicotinoïdes, y compris les semences traitées avec ces produits, est interdite à partir du 1er janvier 2017 ».

Il semble néanmoins peu probable que cette interdiction puisse être décidée au niveau français. « Les décisions d’interdiction ne peuvent pas se prendre de cette manière, sur un amendement présenté au Parlement Français », relativise Maître Bernard Fau, Avocat à la Cour de Paris et Avocat de l’Union Nationale de l’Apiculture Française (UNAF). « Seule l’administration compétente en charge de ces questions selon les procédures mises en place par le réglement européen peut en décider », prévient-il. En revanche, le droit européen permet bien d’encadrer davantage les usages de ces produits en France.

Néonicotinoïdes : l’Europe schizophrène?

Sept substances néonicotinoïdes sont désormais autorisées dans l’Union Européenne. Depuis 2013, le règlement 485/2013 restreint l’usage de 3 néonicotoninoïdes (imidaclopride, clothianidine et thiaméthoxame) à l’enrobage de semences des céréales d’hiver uniquement et à la pulvérisation après la floraison des cultures attractives pour les abeilles. Mais ni les céréales à paille semées en hiver, ni les betteraves, ni les traitements en forêts ne sont concernés par cette interdiction. Par ailleurs, cette interdiction ne couvre que les usages précédant et pendant la floraison.  « Ces produits présentent pourtant une très grande persistance dans le sol, les rendant ainsi capables de contaminer les cultures suivantes ou les plantes adventices », prévient l’UNAF. La contamination des abeilles se poursuit donc.

En parallèle de ce moratoire, l’Europe a récemment autorisé deux nouvelles substances néonicotinoïdes. En juillet 2015, la Commission européenne autorisait le Sulfoxaflor de Dow Agrosciences, malgré les mises en garde de l’Efsa : « un haut risque pour les abeilles n’est pas à exclure pour les utilisations en champs ». L’EFSA a pointé l’absence de données sur le couvain, les abeilles sauvages et la mortalité des colonies. Des données absentes, similaires à ce qui avait entraîné le moratoire sur les 3 néonicotinoïdes en 2013… Tout en autorisant ce produit, la Commission demande des informations supplémentaires sur la toxicité à long-terme pour les abeilles. En Octobre 2015, la Commission autorisait la Flupyradifurone de Bayer CropScience, malgré l’absence d’une évaluation appropriée de sa toxicité chronique et sublétale pour les abeilles.

Francesco Panella, président de Bee Life, critique la schizophrénie des institutions européennes, qui restreignent l’usage de certaines molécules pour leurs risques pour les abeilles et les lacunes dans les évaluations des risques, tout en autorisant des molécules similaires, présentant les mêmes risques et lacunes.

Le feuilleton des néonicotinoïdes n’est pas prêt de s’achever.

Par Matthieu Combe, journaliste scientifique

Rosetta met à jour une cavité diamagnétique autour de Tchouri

Avant même d’arriver à proximité de Tchouri, les scientifiques espéraient bien observer de près une région sans champ magnétique autour de la comète. Une cavité diamagnétique telle qu’avait pu détecter la sonde Giotto auprès de la comète de Haley il y a 30 ans. Rosetta avait été équipée d’un magnétomètre à cet effet, en vu de prouver que le noyau de la comète n’était pas magnétisé.

Quand tout espoir part en poussières

ESA
ESA

Comme Tchouri est beaucoup plus petite que Haley, les astronomes avaient prévu que la cavité serait de l’ordre de 50-100 km autour du noyau (contre plus de 4000 km pour Haley) et qu’elle ne se formerait que pendant la période où la comète est la plus proche du Soleil (périhélie). Malheureusement, au cours de l’année 2015, les poussières dégagées par la comète devinrent telles qu’il a fallu écarter Rosetta à plus de 170 km du noyau pour la sauvegarder. Les scientifiques avaient perdu presque tout espoir de détecter une éventuelle cavité diamagnétique. « C’est pourquoi, nous avons vraiment été très étonnés quand nous l’avons finalement trouvé ! », explique Charlotte Götz, de l’institut allemand de Géophysique et de physique extraterrestre de Braunschweig, qui signe l’étude de cette cavité dans Astronomy et Astrophysics et qui présente ses résultats à l’occasion du 50eme symposium ESLAB « de Giotto à Rosetta », qui se tient actuellement à Leiden aux Pays-Bas.

Comment expliquer une cavité aussi grande ?

Au final, depuis juin 2015, c’est plus de 700 détections de régions sans champ magnétique qui ont été mises à jour.  Pour comprendre pourquoi cette cavité était aussi grande, Charlotte Götz et ses collègues ont vérifié si les autres instruments détectaient une activité anormale qui aurait pu « pousser les limites de la cavité » de manière momentanée. Mais seule, une des mesures correspond à un fort rejet de gaz et de poussières. Pour expliquer la taille de cette bulle démagnétisée, ne reste plus qu’une explication liée à la dynamique de la frontière de la cavité.

Une bulle aux frontières oscillantes

Les frontières entre des régions aux propriétés physiques très différentes sont souvent instables. Et la chevelure d’une comète active est tellement chargée en gaz et poussières qu’elle est capable de bloquer les vents solaires, flots de particules chargées électriquement. Sur le côté où la comète fait face au Soleil, c’est comme si les vents solaires rencontraient un mur, un peu élastique. Ils s’accumulent avant d’être repoussés sur les côtés et de petites oscillations sont créées le long de la frontière. Ces oscillations s’amplifient dans la direction opposée au Soleil et font que la cavité s’agrandit périodiquement.

Une hypothèse qui concorde avec les enregistrements

Cette hypothèse est confortée par le fait que les enregistrements de l’absence de champ magnétique sont sporadiques et séparés de plusieurs minutes : ce n’est pas Rosetta qui traverse la cavité, mais cette dernière qui englobe Rosetta à intervalles répétés. Les scientifiques analysent maintenant les différents enregistrements pour mieux comprendre les propriétés du plasma autour de la comète et son interaction avec les vents solaires. Bien que la comète ait maintenant dépassé son périhélie depuis plusieurs mois, des zones sans champ magnétique ont été trouvées jusqu’à maintenant (février 2016), plus près du noyau, duquel Rosetta a de nouveau pu s’approcher. 

Sophie Hoguin

D’ici 2018, Bpifrance va engager 15 milliards d’euros pour l’industrie

A l’occasion de la semaine de l’industrie qui se tient partout en France du 14 au 20 mars 2016, Bpifrance fait le point sur son engagement en faveur du secteur industriel et annonce qu’elle va mobiliser 15Mds d’euros sur la période 2015-2018 sur ce secteur. A l’heure actuelle, l’industrie mobilise 25% des montants d’intervention de Bpifrance. Ceux-ci profitent principalement aux TPE et PME (plus de 60%).

Des montants en augmentation en 2015

En 2015, les montants des prêts de développement vers l’industrie ont enregistré une augmentation de 12%. Ces prêts très spécifiques sont cruciaux pour les chefs d’entreprise car ils couvrent des investissements immatériels pour lesquels les banques classiques rechignent à s’investir. Ils facilitent la prise de risque car ils peuvent être obtenus sans prise de garantie sur le patrimoine de l’entrepreneur, ni sur l’entreprise. En outre ces prêts sont remboursables en 7 ans avec un différé de 2 ans. L’effort à destination de l’industrie s’est aussi concrétisée par une augmentation des financements de court terme (+11%), notamment pour les montants de préfinancement Crédit d’Impôt Compétitivité Emploi (CICE), qui ont crû de 27%.

Par ailleurs, la Bpi a annoncé que le fonds SPI (Société de projets industriels),  initialement doté de 452M€, sera porté à 700M€ en 2016. Ce fonds a pour vocation de soutenir « les projets les plus porteurs de perspectives d’activité et d’emplois », précise l’institution.

Le plan « Usine du futur » dispose de 1,2Md€

Dans le cadre du programme d’investissement d’Avenir à destination de l’industrie, une gamme de prêts de développement « Usine du futur », représentant 1,2Md€ sera mobilisée. Cette gamme comprend : 340M€ de « prêts verts » pour les entreprises investissant dans la transition écologique, 300M€ de « prêts robotique » pour des projets structurants d’intégration d’équipements de production automatisés comme les robots, 270M€ de « prêts pour l’industrialisation », destinés à financer l’industrialisation et la commercialisation d’un produit, procédé ou service innovant après sa phase de R&D ou encore 300M€ de « prêts numériques » pour les entreprises qui s’engagent dans une transition numérique nécessaire au renforcement de leur compétitivité.

Sophie Hoguin

Les compteurs Linky à la merci des pirates ?

Résultat, plusieurs communes et collectifs d’habitants boudent ce compteur. D’autres lancent des pétitions sur le web, inquiets des risques (supposés ou réels) pour la santé (électrosensibilité).

Reste la question du piratage informatique. Comme tout appareil connecté, les compteurs intelligents ont été « testés » par des hackers. En janvier 2012, des Allemands du célèbre Chaos Computer Club s’étaient attaqués à un Smart Meter de la marque allemande Discovergy. Ils avaient démontré qu’il était possible d’intercepter des données privées passant par le compteur. Pire, ils avaient pu déterminer le nombre d’ordinateurs et de téléviseurs raccordés dans un foyer, voire même la chaîne regardée à la télévision. Mais le plus inquiétant avait été la modification des informations envoyées à l’opérateur. Les hackers lui avaient indiqué que le foyer n’avait pas consommé d’électricité pendant deux mois !

Les compteurs Linky sont-ils aussi vulnérables ? Officiellement, tout est sous contrôle. « Le signal est transmis via les câbles électriques en utilisant la technologie des courants porteurs en ligne (CPL avec chiffrement AES 128 bits) et le concentrateur (situé la plupart du temps dans le poste de distribution) agrège les données d’une grappe de compteurs et les transmet, par GPRS, au système d’information centralisé Linky », précise ERDF.

De son côté, l’ANSSI (Agence Nationale de la Sécurité des Systèmes d’Information) rappelle qu’une puce spéciale détecte si quelqu’un tente d’ouvrir le compteur. Mais pour des chercheurs en sécurité, la présence de cette protection pourrait signifier justement qu’une vulnérabilité se trouve à l’intérieur des boitiers. S’il y a une puce, cela pourrait indiquer qu’il y a un moyen d’apporter des modifications sur le compteur en injectant des commandes particulières. Avec cette protection, cette manipulation serait en effet repérée par ERDF. Sans cette puce, une personne malhonnête pourrait peut-être controler ce compteur et d’autres de son quartier…

Selon des experts, d’autres vecteurs d’attaque seraient possibles. Une faiblesse pourrait peut-être se trouver au niveau du CPL. Il est difficile de savoir ce qui est envoyé par ces compteurs, car ERDF n’a pas publié de documentation très détaillée sur les trames circulant sur le réseau. Ces trames sont-elles chiffrées ? Une chose est sûre, ces compteurs Linky s’appuient en effet sur du CPL G3. Or, les spécifications de la couche basse G3 sont pratiquement les mêmes que pour les HomePlug.

Autre point faible envisageable : le signal GPRS. Les concentrateurs sont en effet reliés par une connexion radio de type GPRS (2,5G) au Système d’Information de ERDF. Si cette connexion est mal configurée, elle pourrait être détournée.

Philippe Richard

 

A Hawaï l’eau chaude sert à stocker l’électricité solaire photovoltaïque. Elon Musk inspire les géants français Engie et EDF EN.

Dans son rapport de prospective sur le thème d’une France 100% renouvelable à horizon 2050, l’ADEME a retenu les ballons d’eau chaude comme l’un des outils de modulation de la demande contribuant à l’intégration de très hauts niveaux d’énergies renouvelables fluctuantes. Ceci aux côtés des batteries des véhicules électriques.

« L’intégralité du chauffage des ballons d’eau chaude sanitaire (chauffe-eau) du secteur résidentiel est supposé pilotable au sein d’une journée, ce qui représente 7 TWh annuels, avec une pointe à 3 GW » souligne le rapport (page 32). Le potentiel est donc vraiment colossal. Il existe déjà en France « une programmation statique de la consommation d’eau chaude sanitaire, sous la forme d’un système d’heures creuses et pleines » ajoutent les co-auteurs.

Ce gisement n’a bien sûr pas échappé aux stratèges californiens de SolarCity et de Tesla Energy, entreprises fondées par le serial entrepreneur et multimilliardaire Elon Musk. Aux USA la rumeur court : tout ce que touche cet ingénieur devenu légendaire, également à l’origine de Paypall et de SpaceX, se transforme en or.

Réinventer l’eau chaude

Avec la nouvelle offre de SolarCity révélée le 24 février 2016, plus besoin d’installer des capteurs solaires thermiques sur les toits pour chauffer l’eau. Le solaire PV fait tout ! D’une pierre deux coups. Cet écosystème particulièrement judicieux permet au solaire PV en toiture de charger la batterie stationnaire de la maison, et aussi éventuellement celles des véhicules électriques du foyer : trottinette, skate, vélo, voiture. Puis de chauffer l’eau par simple effet Joule. Le ballon d’eau chaude est un système de stockage de l’énergie électro-solaire sous forme thermique. Les centrales thermodynamiques à concentration peuvent elles aussi stocker la chaleur dans l’équivalent de grands thermos à café, mais remplis de sels fondus.

Les systèmes de climatisation / chauffage sont également modulables. SolarCity a intégré le « Nest Learning Thermostat ™ » à son offre. « Baissez la température en allant vous coucher. Nest prend note et commence à mémoriser vos horaires. 20 °C l’après-midi, 18 °C la nuit. C’est réglé. Un réveil tout chaud. Si vous avez monté la température plusieurs jours de suite, Nest comprend que 20 °C est l’atmosphère idéale pour prendre votre petit déjeuner. Désormais, il chauffera la maison dès que vous vous réveillerez » explique le site officiel de Nest (en français), une compagnie basée à Palo Alto en Californie.

hawai2
Smart Energy Home, SolarCity

L’ensemble de l’offre éco-technologique proposée par SolarCity a vocation à fournir une réponse intelligente en fonction de l’énergie solaire disponible. Les maisons sont alors en symbiose avec leur environnement météorologique. Les solutions informatiques high-tech sont ainsi mises au service des énergies vraiment durables. L’éco-intelligence numérique permet de s’adapter à la variabilité naturelle des ressources solaires et de la demande des consommateurs. Le consommateur peut suivre en direct depuis son smartphone l’évolution de l’écosystème énergétique de sa maison.

Une batterie ayant environ 6 heures d’autonomie est classiquement suffisante pour la gestion journalière (intra-day) du solaire PV. Un back-up thermique via les microgrids locales des îles hawaïennes permet de venir en secours pour les rares longues périodes sans soleil.

Point très important dans une perspective de développement vraiment durable, le coût énergétique d’une batterie lithium (stockage électro-chimique) impacte de manière marginale, de l’ordre de -10%, le taux de retour énergétique (EROI) d’un système photovoltaïque. C’est ce qu’explique avec pédagogie le rapport (2015) de la Fondation Nicolas Hulot sur le solaire + stockage.

Eco-éthique: Elon Musk inspire les géants français de l’énergie

hawai1
L’île de Kaua’i, The Garden Island

Parallèlement à la diffusion de la solution « Smart Energy Home » SolarCity va également expérimenter une microgrid solaire sur une île hawaïenne de 66.000 habitants, Garden Island, « l’île jardin », appelée aussi Kaua’i. Avec une centrale PV de 12 MW couplée à une batterie de 52 MWh (13 MW x 4 heures). Le tout sous la houlette de la Kauaʻi Island Utility Cooperative, un modèle de démocratie énergétique participative.

L’île de Kaua’i a une surface de 1430 km² et une densité de population de 45 habitants au km² contre 112 en France. 91% de l’électricité de l’île provenait de générateurs diesel et 9% de la micro hydroélectricité en 2009. En 2015 la part du diesel a été réduite à 62%, les 38% restants étant partagés entre la micro-hydroélectricité (9%), la bioélectricité (12%) et le solaire PV (17%). Objectif pour 2023 : 50% de renouvelables. Et 100% en 2050. En janvier 2016 un maximum de 77% de solaire PV pendant 61 minutes a été réalisé sur cette île, ce qui constitue un record à l’échelle de l’ensemble des USA. Le réseau électrique de l’île a très bien supporté ces 77%.

La dynamique Tesla / SolarCity semble inspirer des acteurs français : Engie Ineo (ex Cofely Ineo) présidé par Yann Rolland a inauguré fin 2015 une « SmartGrid Solaire » à Alata en Corse (vidéo ci-dessous) : un parc PV de 4,4 MW, où des chèvres viennent s’abriter des puissants rayons solaires inondant l’île de beauté, couplé à une batterie dont la capacité de stockage est de 4,3 MWh. Le tout géré par un système digital. « La solution de stockage et de gestion intelligente de l’énergie a été conçue par Cofely Ineo sous la marque GridPow’ER » précise Engie.

Les batteries sont placées dans des conteneurs climatisés. Ces conteneurs, chargés de panneaux solaires et de batteries, en kit, peuvent être transportés facilement par voie maritime. La pollinisation solaire du monde entier depuis la France peut alors opérer.

ENGIE est à l’origine de la création de Terawatt initiative, une réponse au lancement de l’Alliance Solaire Internationale (ISA) par le Premier ministre indien Narendra Modi.

Isabelle Kocher souligne la pertinence de l’approche microgrid pour un pays comme l’Indonésie qui est constitué de plus de 17.000 îles et peuplé de 250 millions d’habitants. De nombreux villages isolés africains, indiens et sud-américains (Amazonie, Andes) constituent eux aussi des îles virtuelles.

La chercheuse américaine Yan Xu, du laboratoire national d’Oak Ridge (Tennessee) utilise le mot « islanding » pour décrire cette approche visant la résilience locale des communautés. Soit exactement la philosophie Swaraj de Gandhi, résistant face au colonisateur britannique et père de l’indépendance indienne. Swa- « par soi-même », raj-, « gouvernement ». Pouvoir devenir le maître de son destin énergétique est le signe d’une démocratie en bonne santé.  « La vie sera un cercle dont le centre sera les individus » disait Gandhi. « C’est swaraj quand nous apprenons à nous contrôler par nous-mêmes. »

Dans le cadre d’un entretien publié le 7 mars 2016 et mené par les journalistes Sandrine Bajos et Hélène Haus, la CEO d’Engie, Isabelle Kocher, a expliqué dans Le Parisien la révolution stratégique en cours au sein du géant français de l’énergie : « pour mener à bien cette transformation, nous allons vendre 15 Mds€ d’actifs et développer les activités d’avenir, comme les renouvelables couplées avec du stockage et du digital. Les énergies renouvelables sont intermittentes, elles nécessitent donc d’être stockées. Et dans ce domaine, le digital a un rôle à jouer. » Engie va par ailleurs injecter 1,5 Mds€ pour le développement des nouvelles technologies solaires dans les trois années à venir.

Engie (ex-GDF-Suez) a changé de nom, mais pas que. Le nouveau slogan du groupe est : « le solaire éclaire maintenant le jour et la nuit ». Un pied de nez à la vieille rengaine des solaro-sceptiques. Pire, Isabelle Kocher, ingénieur des Mines, ose affirmer ceci : « l’avenir de notre groupe n’est ni dans le pétrole, ni dans le nucléaire, ni dans le gaz de schiste. Nous redessinons l’ensemble de notre portefeuille. » Une touche féminine au dossier énergétique, diffusée précisément le 8 mars, journée internationale de la Femme.

engie

Isabelle Kocher, 49 ans, sera nommée, le 3 mai 2016, CEO (directrice générale) de ce mastodonte du CAC 40 qui compte plus de 150.000 salariés. Mère de 5 enfants Isabelle Kocher a tenu le 30 novembre 2015 sur BFM TV, dans le cadre d’une interview animée par Stéphane Soumier sur le thème de l’avenir solaire, des propos d’une importance cruciale pour l’avenir de notre pays : « pour nous lever le matin nous avons besoin d’une bonne raison. Nous avons besoin de sens. Nous avons besoin de sentir que ce nous faisons tous les jours est utile ». Dans le contexte de la montée de la violence et de l’état d’urgence Isabelle Kocher a ajouté: «  Tous ces jeunes qui n’ont pas de racines, à qui on n’a offert ni vision ni espoir, ça doit nous interpeller. Les politiques sont en panne de projet à proposer, et ce n’est pas propre à la France. L’entreprise a son rôle à jouer ».

« Elon Musk n’en finit pas de faire des émules » remarque Manuel Moragues. Ce journaliste scientifique a révélé dès le 24 février 2016 dans l’Usine Nouvelle un projet particulièrement intéressant : « Interrogé sur son appréciation du potentiel du stockage résidentiel, le dirigeant (Antoine Cahuzac, Directeur Général, ndlr) a annoncé qu’EDF EN lancerait « dès cette année » un système couplant photovoltaïque et batteries pour le résidentiel ».

Une information confirmée le 8 mars 2016 par le blog spécialisé Tecsol fondé par l’ingénieur André Joffre : « conformément à ce qu’a annoncé Antoine Cahuzac, une offre pour les particuliers combinant solaire et stockage sera effectivement proposée d’ici cet été en France. L’entité qui proposera ces offres aux particuliers dans le solaire sera EDF ENR Solaire ».

En Allemagne le nombre de raccordements de systèmes solaires PV + stockage batterie a dépassé les ventes de voitures électriques durant l’année 2015 souligne le site spécialisé PV-magazine.com. Avec par exemple le système BPT-S 5 Hybrid mis au point par Bosch le niveau d’autonomie d’une maison de 4 personnes peut dépasser les 75% en Allemagne, ceci à l’échelle annuelle. L’entreprise bavaroise Sonnen GmbH (SonnenBatterie) a livré sa 10.000ème batterie début 2016 et s’intéresse à présent au marché américain.

Le marché australien s’annonce également très prometteur, pays où les incendies de végétation détruisent les lignes électriques lors des grandes périodes de sécheresse et où l’habitat est très dispersé, ce qui rend particulièrement coûteux le transport de l’électricité.

Elon Musk estime qu’il suffirait de 160 millions de PowerPacks Tesla pour alimenter totalement les Etats-Unis en électricité avec le solaire PV, et 2 milliards à l’échelle de la planète. Le MIT a montré qu’il n’y a aucun facteur limitant, ni surfacique, ni en matières premières, pour atteindre cet objectif.

La compétition s’intensifie : selon The Guardian (UK) et Le Temps (Suisse) ARPA-E, un laboratoire du Département à l’énergie du gouvernement américain, aurait mis au point une batterie révolutionnaire de technologie «flow cell», grillant la priorité à Elon Musk.

« Angie, Angie, where will it lead us from here? » (The Rolling Stones)

Au Pérou, Engie, via sa filiale SolaireDirect, vient de signer un contrat solaire PV à 4,4 c€/kWh (48,5 $/MWh). Dans le sud de la France le grand solaire PV au sol est dès aujourd’hui à 7-8 c€/kWh. Soit presque deux fois moins que le nouveau nucléaire, qui lui pose beaucoup de soucis à EDF et à l’état français. Et qui en outre repose sur une ressource très rare, l’uranium 235. La révolution stratégique entreprise par Engie est particulièrement pertinente sur le plan économique et donc social.

Selon Isabelle Kocher « le solaire est une solution très puissante, et à l’échelle de la planète » (BFM). Et cette dirigeante visionnaire ajoute dans Le Parisien : « le solaire va totalement transformer notre monde. Non seulement, son gisement est quasi illimité, mais en plus, il devient économiquement — et donc financièrement — rentable à exploiter ».

Olivier Daniélo

Les sursauts radio rapides auraient-ils plusieurs sources ?

La revue Nature du 24 février 2016 contenait deux articles concernant les sursauts radio rapides (fast radio burst – FRB en anglais). Le premier relate la détection d’un FRB qui se répète. Une première. Le second article annonce que l’on a localisé une galaxie source d’un de ces signaux. Mais cette conclusion fait encore controverse.

Quezako les FRB ?

space2Les sursauts radio rapides sont des signaux radio extrêmement puissants (une énergie équivalent à ce qu’envoie notre Soleil en 10 000 ans) compacté en quelques millisecondes qui proviennent de sources extragalactiques inconnues. Leur origine lointaine est signée par ce qu’on appelle la « dispersion dans le plasma » ; plus une impulsion électromagnétique voyage longtemps dans l’espace, plus ses hautes et basses fréquences nous parviennent avec un décalage important en fonction de la matière qu’elle a rencontrée. Détecté seulement depuis 2007, avec une existence vraiment confirmée en 2014, les scientifiques estiment que leur source est toujours extrêmement localisée, de l’ordre de quelques centaines de kilomètres.

Le mystère des sursauts qui se répètent

Une équipe de l’Université McGill de Montréal a détecté pour la première fois une succession de sursauts radio. Les enregistrements étudiés, réalisés en mai et juin 2015 par le radiotélescope d’Arecibo (Porto Rico), proviennent d’une mystérieuse source qui produit parfois plusieurs sursauts en moins d’une minute.

Jusqu’alors les FRB semblaient n’être que des phénomènes ponctuels, attribués à des événements cataclysmiques aboutissant à la destruction de leur source.

Cette répétition est donc d’autant plus intrigante. Si ces FRB semblent aussi provenir du lointain univers, ils possèdent cependant des particularités par rapport à ceux étudiés auparavant : leur brillance et leur spectre sont différents. Les chercheurs ont alors émis l’hypothèse que les FRB pourraient être des phénomènes issus de plusieurs types d’objets et qu’il y en aurait donc plusieurs classes. Les FRB étudiés dans cette étude, pourraient par exemple provenir d’un objet inhabituel, une étoile à neutrons en rotation de très grande puissance. Pour le vérifier, il faut encore réussir à localiser précisément la source de tels signaux. Ce que pensaient avoir réussi une autre équipe internationale.

Un FRB issu d’une vieille galaxie lointaine ?

La deuxième étude concernant les FRB a aussitôt suscitée la controverse. Ses auteurs, Evan Keane et ses collègues du Square Kilometer Array Organization, affirment avoir pu localiser la source d’un FRB datant du 18 avril 2015. Détecté « en direct » depuis le téléscope de Parkes, l’équipe a aussitôt mis en branle de nombreux autres téléscopes tout autour du monde pour trouver la source space3possible de ce signal en traçant les émissions supposées secondaires à ce signal. Les auteurs concluent que la source serait située dans une galaxie de forme elliptique située à 6 milliards d’années-lumière de la Terre. Reste que l’objet lui-même source du FRB est inconnu. L’hypothèse formulée par les auteurs est celle d’une fusion d’étoiles à neutrons. Cependant, l’article vise aussi à montrer que grâce à la connaissance de la dispersion du signal d’une part et du calcul de la distance de la galaxie source par d’autres moyens, on a pu évaluer la « matière manquante » de l’univers et elle semble correspondre au modèle théorique accepté jusqu’à maintenant. Le hic c’est que les résultats de cette étude, bien que publiée dans Nature, ont été réfuté quelques jours plus tard par des chercheurs américains, Peter Williams et Edo Berger du Harvard-Smithsonian Center for Astrophysics.

Une controverse toujours en cours

space1Les américains expliquent dans un article sans comité de lecture que les émissions secondaires suivies par Keane sont certainement, selon eux, des signaux communs envoyés par le noyau galactique actif de cette galaxie et qu’ils n’ont rien à voir avec le FRB détecté. Aussi celui, pourrait tout aussi bien venir de plus loin. Ils en avancent pour preuve que cette émission supposée secondaire était déjà présente avant le FRB. Leur article définitif est actuellement en relecture pour une prochaine parution. Keane a pour l’instant refusé de commenter plus avant les résultats annoncés par les Américains.

Sophie Hoguin

Rosetta : l’âge des comètes dévoilé grâce à l’identification de leur type de glace

Cette découverte a été obtenue par une équipe internationale pilotée par un chercheur du LAM (CNRS/Aix Marseille Université) et comprenant également des chercheurs du laboratoire J.-L. Lagrange (OCA/CNRS/Université Nice Sophia Antipolis) et du Centre de recherches pétrographiques et géochimiques (CNRS/ Université de Lorraine), avec le soutien du CNES. Leurs résultats proviennent de l’analyse de données fournies par l’instrument Rosina, placé à bord de la sonde Rosetta de l’Agence spatiale européenne. Ces travaux ont été publiés le 8 mars 2016 dans The Astrophysical Journal Letters.

La mission Rosetta nous dévoile peu à peu les secrets des comètes et a permis de trancher une question vieille de plusieurs décennies : la nature de leurs glaces. Deux grandes hypothèses s’affrontaient jusqu’ici: celle d’une glace cristalline, où les molécules d’eau sont arrangées de manière périodique, et celles d’une glace amorphe, où les molécules d’eau sont désordonnées. Un problème rendu d’autant plus sensible par ses implications sur l’origine et la formation des comètes et du système solaire.

C’est l’instrument Rosina de la sonde Rosetta qui aura permis de répondre à cette question. Ce spectromètre de masse a d’abord mesuré, en octobre 2014, les abondances du diazote (N2), du monoxyde de carbone (CO) et de l’argon (Ar) dans la glace de Tchouri. Ces données ont été comparées à celles obtenues en laboratoire dans des expériences sur de la glace amorphe, ainsi qu’à celles de modèles décrivant la composition d’hydrates de gaz, un type de glace cristalline où les molécules d’eau peuvent emprisonner des molécules de gaz. Les proportions de diazote et d’argon retrouvées sur Tchouri correspondent bien à celles du modèle des hydrates de gaz alors que la quantité d’argon déterminée sur « Tchouri » est cent fois inférieure à celle que la glace amorphe peut piéger. La glace de la comète possède donc bien une glace de structure cristalline.

Figure 1. Rapports N2/CO and Ar/CO mesurés par Rosina dans Tchouri comparés aux données de laboratoire et aux modèles. Les surfaces vertes et bleues représentent respectivement les variations des rapports N2/CO et Ar/CO mesurés par l'instrument Rosina (Rubin et al. 2015 ; Balsiger et al. 2015). Les courbes noire et rouge montrent respectivement l'évolution des rapports N2/CO et Ar/CO calculés dans les hydrates de gaz en fonction de leur température de formation dans la nébuleuse primitive. Les points noirs et rouges correspondent aux mesures de laboratoire des rapports N2/CO et Ar/CO piégés dans la glace amorphe (Bar-Nun et al. 2007). Les deux lignes verticales pointillées encadrent le domaine de température permettant la formation d'hydrates de gaz avec des rapports N2/CO et Ar/CO compatibles avec les valeurs mesurées dans Tchoury.
Figure 1. Rapports N2/CO and Ar/CO mesurés par Rosina dans Tchouri comparés aux données de laboratoire et aux modèles. Les surfaces vertes et bleues représentent respectivement les variations des rapports N2/CO et Ar/CO mesurés par l’instrument Rosina (Rubin et al. 2015 ; Balsiger et al. 2015). Les courbes noire et rouge montrent respectivement l’évolution des rapports N2/CO et Ar/CO calculés dans les hydrates de gaz en fonction de leur température de formation dans la nébuleuse primitive. Les points noirs et rouges correspondent aux mesures de laboratoire des rapports N2/CO et Ar/CO piégés dans la glace amorphe (Bar-Nun et al. 2007). Les deux lignes verticales pointillées encadrent le domaine de température permettant la formation d’hydrates de gaz avec des rapports N2/CO et Ar/CO compatibles avec les valeurs mesurées dans Tchoury.

Cette découverte est capitale car elle permet de dater la naissance des comètes. En effet, les hydrates de gaz sont des glaces cristallines qui se sont formées dans la nébuleuse primitive du système solaire,  à partir de la cristallisation de grains de glace d’eau et de l’adsorption de molécules de gaz sur leurs surfaces au cours du lent refroidissement de la nébuleuse. Si les comètes sont composées de glace cristalline, cela signifie qu’elles se sont forcément formées en même temps que le système solaire, et non auparavant dans le milieu interstellaire. La structure cristalline des comètes prouve également que la nébuleuse primitive était suffisamment chaude et dense pour sublimer la glace amorphe qui provenait du milieu interstellaire. Les hydrates de gaz agglomérés par Tchouri ont dû se former entre -228 et -223 °C pour reproduire les abondances observées. Ces travaux confortent également les scénarios de formation des planètes géantes, ainsi que de leurs lunes, qui nécessitent l’agglomération de glaces cristallines.

© ESA Le noyau de la comète « Tchouri » vue par la sonde Rosetta
© ESA
Le noyau de la comète « Tchouri » vue par la sonde Rosetta

Source : cnrs

La Bolivie se lance dans le nucléaire

El Alto

C’est sur un terrain de 15 hectares, situé dans la localité de El Alto, que sera construit « le plus grand centre nucléaire de toute l’Amérique du sud », assure Wilerema Alacona, chef de ce projet. Estimée à 300 millions de dollars (272 M€), l’installation dédiée à la recherche et à la santé, sera construite avec l’aide de la compagnie russe Rosatom. Le projet est supervisé par le Dr Silverio Chávez  directeur de l’Instituto Boliviano de Ciencia y Energía Nuclear (IBTEN), qui a réalisé son cursus nucléaire en France, à Paris puis Grenoble. S’il est encore trop tôt pour savoir s’il sera effectivement le plus grand centre nucléaire du continent, il est en revanche certain que, juché à 4 000 mètres d’altitude, il sera le plus haut. Il aura également l’inconvénient d’être à côté de l’aéroport international et très proche (15 km) du centre de la capitale La Paz, ce qui n’est pas sans poser quelques questions de sécurité…

Grands projets

Pourquoi ce petit pays coincé dans les Andes, en queue de peloton des nations sud-américaines en terme de développement, se lance-t-il dans une telle aventure ?

09 marzo 2016, Oruro.- El presidente Evo Morales inaugura vuelos de la aerolínea Boliviana de Aviación (BoA) ampliando red de destinos a Bolivia. (Fotos: Freddy Zarco)

Avant tout, sous l’impulsion de son président, Evo Morales, qui a décidé de lancer une politique de grands projets pour redorer l’image du pays et le projeter dans le XXIème siècle. Le nucléaire civil, est l’un d’eux. Les télécommunications sont l’autre pilier de la stratégie présidentielle. Très isolé, le pays a compris que les nouvelles technologies pourraient plus rapidement le sortir de son isolement. C’est pourquoi La Paz a acheté à Pékin le satellite de télécommunications Túpac Katari. Il a été mis en orbite depuis la Chine le 20 décembre 2013. En aval, le gouvernement a créé l’entreprise publique Quipus, dédiée à la fabrication d’ordinateurs et de téléphones portables. La Bolivie est en effet l’un des principaux producteurs de silicium, matière indispensable à la fabrication de ces appareils. Cette politique doit permettre au pays de diversifier une économie tournée essentiellement vers les matières premières.

Diversification

L’économie bolivienne est très largement dépendante de l’exploitation des matières premières (gaz naturel, pétrole et minerais). Elles représentent près de 90% des exportations du pays. De fait, il a longtemps été l’objet de la malédiction des Etats rentiers qui se caractérise par des taux de corruption et d’inégalité très élevés. A l’image de la plupart des pays sud-américain, la Bolivie a basculé à gauche dans les années 2000, avec l’arrivée au pouvoir en 2006 d’Evo Morales, premier amérindien à occuper un tel poste. Il s’engage à réduire la pauvreté par des programmes sociaux très populaires qui lui permettront de se faire réélire à deux reprises (2010, 2014). Il engage aussi ces fameux grands projets destinés à diversifier l’économie du pays andins et à réduire sa dépendance. Une tâche difficile et longue.

Chute des cours

La Bolivie peut s’appuyer sur un taux de croissance relativement élevé (entre 4 et 5% par an), des réserves de devises importantes et une inflation sous contrôle. Pour autant, la chute des cours du pétrole, du gaz et des matières premières en général a largement impacté la balance commerciale du pays. Elle est devenue négative en 2015 pour la première fois depuis 12 ans. Reste à savoir si le pays aura les moyens de ses ambitions si les cours restent durablement bas. L’expérience montre en effet qu’il est politiquement plus acceptable de retarder ou d’abandonner des projets plutôt que de couper dans les aides sociales. Il reste à Evo Morales 4 ans de présidence pour faire avancer ces dossiers, les électeurs ayant rejeté par referendum sa candidature à un quatrième mandat.

Romain Chicheportiche

Les leçons de Fukushima : de nouvelles inquiétudes pour l’avenir

Fukushima, nous dit-il en conclusion, « nous a offert l’opportunité de mener un vaste débat sur les défis auxquels sous sommes confrontés, au carrefour de multiples besoins humains : énergie décarbonée, sûreté, santé environnementale, sécurité des populations et préservation pour les générations futures. Ce sont là des questions qui définiront notre société humaine pour les siècles à venir. Nous ne devons donc pas rater l’opportunité d’en discuter en mettant sur la table tous les éléments dont on dispose. »

ob_d2ccee_temporary-housing
Photo prise le 17 février 2015 : femme habitant un ensemble de logements provisoire couvert de neige à Aizuwakama, dans la préfecture de Fukushima. Ce complexe abrite des réfugiés nucléaires d’Okuma, une ville située à l’intérieur de la zone d’exclusion autour de la centrale nucléaire de Fukushima Daiichi de TEPCO (Tokyo Electric Power Co.) REUTERS/Toru Hanai

De multiples aspects de la crise continuent à affecter la santé de la population et la sécurité environnementale.

Au total, 178 000 réfugiés (dont 99 750 à Fukushima) ne savent toujours pas quand ils pourront rentrer chez eux. Chaque jour, 400 tonnes d’eau contaminée s’écoulent dans l’océan. Des pluies torrentielles balaient les matériaux radioactifs encore présents sur le site pour les déverser dans la mer. 814 782 tonnes d’eau contaminées sont stockées dans plus d’un millier de citernes et chaque mois, de nouvelles citernes sont mises en place. Les 7 000 travailleurs de la centrale accomplissent chaque jour des tâches dangereuses. Ces ouvriers qui prennent leur travail à cœur ont résolu jusqu’ici bon nombre de problèmes, mais certains problèmes continuent à mettre en difficulté les responsables et les équipes de nettoyage. Nul ne peut s’approcher des réacteurs 1, 2 et 3 en raison de l’intensité des radiations et il n’y a pas de solution scientifique à attendre pendant au moins 40 ans. Malheureusement, on ne peut pas exclure de nouvelles perturbations à venir : la probabilité d’un nouveau séisme important n’est pas nulle.

Depuis l’accident de Fukushima, nous avons eu la chance de recevoir rapidement des opinions et des recommandations de divers horizons. Physiciens nucléaires, médecins, militaires, sismologues, biologistes, océanographes, vulcanologues, journalistes, chefs spirituels, parlementaires, étudiants, organisations de citoyens et leaders d’opinion ont tous exprimé leur point de vue. La perspective horizontale qui a ainsi émergé a permis d’appréhender la situation d’une toute autre manière que si l’on s’en était tenu à une seule discipline, quel que soit le degré d’expertise du spécialiste. Les Japonais ont tiré profit de tous ces messages qui ont réussi à percer à travers la confusion régnant à l’époque dans les médias.

À l’occasion du 5è anniversaire de l’accident nucléaire de Fukushima, j’aimerais rappeler les premiers stades de l’événement et partager avec vous ma propre vision des choses et les recommandations tirées des leçons de ce douloureux événement.

Dans les deux premières semaines, les experts comme le public cherchaient des solutions techniques.

Est-ce que les cœurs avaient fondu ? Jusqu’à quelle distance fallait-il évacuer la population ? Comment maintenir les systèmes de refroidissement quand tant d’éléments ne fonctionnaient plus ? Les systèmes de ventilation marchaient-ils ? La situation était-elle pire qu’à Tchernobyl ? Les hélicoptères des Forces d’auto-défense pouvaient-elles arroser les piscines de combustible irradié des réacteurs 3 et 4 ?

Il est peut-être impossible de décrire précisément la panique qui s’est saisie alors des dirigeants et du public japonais. Les agences gouvernementales et l’opérateur chargé de la centrale, la Tokyo Electric Power Company, n’étaient pas préparés à une catastrophe nucléaire de cette ampleur. Le public les a accusés tous deux et eux se sont renvoyé la balle pour expliquer le manque de communication et les retards.

Confusion et panique n’étaient d’ailleurs pas limitées au Japon, mais ont aussi affecté le gouvernement américain. L’écart dans la manière dont les deux gouvernements ont évalué les dégâts des six réacteurs a été considérable, particulièrement en ce qui concerne le réacteur 4, qui se trouvait dans une situation unique, étant justement en arrêt pour maintenance. La confusion des messages sur la sûreté et les dégâts a encore accru la panique : le gouvernement japonais décidait que 20 km (12,5 miles) était la limite d’évacuation adéquate, tandis que le gouvernement américain fixait une limite de 80 km (50 miles) pour ses ressortissants. Le Royaume-Uni, la France, l’Allemagne et d’autres pays quant à eux recommandaient à leurs ressortissants de quitter Tokyo, qui se trouve à 200 km (125 miles) de la centrale.

Depuis le début, certains experts savaient que la crise dépassait largement les capacités techniques du moment mais que pour pouvoir avancer, il allait falloir plus d’information.

Très tôt au milieu de toute cette confusion, mon ami Hans-Peter Durr, depuis décédé, ancien directeur du département d’Astrophysique à l’Institut Max Planck en Allemagne, m’a appelé pour me suggérer d’informer le Premier ministre japonais que l’accident de Fukushima était bien pire que le gouvernement japonais ne l’avait laissé entendre. Quoique le Japon n’ait pas encore à l’époque admis la fusion des cœurs, Hans-Peter savait que Fukushima nous avait amenés à la limite de nos savoirs scientifiques. Il était d’avis que le Japon devait inviter une équipe d’évaluation indépendante formée des meilleurs physiciens nucléaires et ingénieurs structurels pour développer une solution. J’ai fait passer son message urgent au cabinet du Premier ministre et aux chefs de partis.

Quelle était l’ampleur du problème ? Un an après la crise et l’on n’avait toujours pas vraiment idée de l’importance de la situation. Une façon de commencer à réaliser ce qui se passait réellement était de savoir combien il y avait de barres de combustible irradié sur le site. TEPCO n’avait pas communiqué cette information et j’ai donc dû demander à l’Ambassadeur Mitsuhei Murata de se renseigner discrètement auprès de sources internes. Il nous a fait savoir que le total des assemblages de combustible irradié sur le site de Fukushima Daiichi se montait à 11 421, sans compter celles qui étaient contenues dans les cuves. J’ai ensuite demandé à Robert Alvarez, qui a été haut conseiller à la sécurité nationale et l’environnement au ministère de l’Énergie américain, d’expliquer l’impact potentiel de ces 11 421 assemblages.

Le 3 avril 2012, Bob a interprété ce chiffre pour nous. Les résultats étaient ahurissants : il y avait 85 fois plus de césium 137 entreposé à Fukushima que la quantité émise par l’accident de Tchernobyl.

Même si ce césium ne risquait pas nécessairement d’« exploser » comme une bombe atomique, une telle quantité de radioactivité avait un potentiel de destruction énorme. Les gens ont été choqués d’apprendre cela. L’article a rapidement été lu par plus d’un million de lecteurs et s’est propagé de manière virale sur la Toile. Il ne fait aucun doute que sans les avertissements des scientifiques internationaux sur le désastre potentiel représenté par le réacteur 4, le gouvernement japonais n’aurait pas fait une priorité de l’enlèvement des 1 535 barres [du réacteur 4], l’équivalent de 14 000 fois la radioactivité de la bombe d’Hiroshima.

Sans l’avis d’experts issus de domaines différents, des informations importantes seraient restées entre les mains du gouvernement et de l’opérateur nucléaire, plutôt que d’être communiquées au public.

Mais même compte tenu de ces informations, des pans entiers de la crise et de ses causes restent dans le noir si l’on s’en tient aux questions techniques. M. Kiyoshi Kurokawa, président de la commission d’enquête indépendante du Parlement japonais sur l’accident de Fukushima, présente une vision différente, mais très claire.

Le séisme et le tsunami du 11 mars 2011 sont des catastrophes naturelles dont l‘ampleur a choqué le monde entier. Quoiqu‘il ait été déclenché par ces cataclysmes, l‘accident de Fukushima Daiichi qui s‘en est suivi ne peut pas être considéré comme une catastrophe naturelle. Ce fut un désastre d’origine spécifiquement humaine ‒ qui aurait pu et aurait dû être prévu et empêché. De plus, ses effets auraient pu être atténués par une réponse plus efficace.

Comment un tel accident a-t-il pu se produire au Japon, une nation qui a une telle préoccupation de sa réputation d’excellence en ingénierie et en technologie? Cette Commission est d’avis que le peuple japonais ‒ et la communauté mondiale ‒ méritent une réponse complète, honnête et transparente à cette question. Ce qu‘il faut admettre, aussi douloureux soit-il, c‘est que nous avons à faire à un désastre « made in Japan ».

Les raisons fondamentales sont à chercher dans le souci des convenances qui fait partie intégrante de la culture japonaise : notre obéissance automatique, notre réticence à remettre en cause l‘autorité, notre attachement au « respect du programme », notre dépendance au groupe et notre insularité.

Personnellement, ce que je retiens de Fukushima, c’est que nous vivons entourés de nouvelles menaces et que ces menaces sont présentes depuis des dizaines d’années.

J’ai appris qu’un accident frappant une centrale nucléaire peut avoir des conséquences inimaginables sur la vie humaine durant des siècles. L’accident a causé des préjudices indicibles à ceux dont la vie a été bouleversée par la centrale. Si la situation s’était encore aggravée, quel aurait été l’impact de 24 000 années de dommage environnemental sur les générations futures ?

La situation aurait pu être acceptable si le public avait été conscient de ces risques et les avait acceptés quand la centrale a été construite. Malheureusement ce n’a pas été le cas au Japon. Même les responsables n’ont pas admis ces risques, que ce soit au moment de la construction ou au moment de l’accident. Et ils ne les admettent toujours pas, même maintenant.

Ce n’est que le mois dernier que TEPCO a admis, cinq ans plus tard, avoir mis deux mois à utiliser le terme de « fusion » sur le site de la centrale. Arnie Gundersen de Fairewinds et Mycle Schneider, auteur du Rapport sur l’état de l’industrie nucléaire, ont indiqué qu’à partir du moment où avaient eu lieu des rejets considérables de gaz de fission, il était évident que les cœurs étaient en train de fondre. Mais le déni de TEPCO a influencé la manière dont l’entreprise a géré la panique. Comme l’avait suggéré Helen Caldicott, il était évident que le gouvernement japonais aurait dû évacuer les femmes et les enfants plus tôt et les envoyer beaucoup plus loin. Helen a écrit pour notre blog cet article : Le sacrifice nucléaire de nos enfants : 14 recommandations pour aider le Japon contaminé par la radiation. En ignorant les avertissements de nombreux experts, TEPCO et les autorités gouvernementales ont refusé d’entendre l’appel à réagir.

Après cinq ans de réflexion, Fukushima m’a fait entrevoir de nouvelles inquiétudes à propos des centrales nucléaires.

L’accident de Fukushima m’a fait faire une découverte importante, à savoir que nous n’avions pas réalisé que les radiations causées par les bombes atomiques et celles de l’accident nucléaire sont très similaires en termes de risque pour la vie humaine. Nous avons longtemps admis les dangers d’attaques à l’arme nucléaire perpétrées par des États et aujourd’hui nous comprenons la menace que représentent pour les centrales nucléaires le danger de l’erreur humaine et les catastrophes naturelles, comme les séismes, les tsunamis et les volcans. Et si les centrales nucléaires devenaient une cible ? Je crains surtout la possibilité d’attaques terroristes contre des centrales nucléaires dans les pays instables, en particulier le Pakistan.

ob_516074_china-pakistan-nuclear-shake
Le Premier ministre Nawaz Sharif et le Président Xi Jinping se serrent la main : la Chine accepte de construire de nouvelles centrales nucléaires au Pakistan.

Il devient de plus en plus probable qu’un groupe terroriste décide de s’en prendre à une, voire plusieurs centrales nucléaires dans le monde. Ces centrales et nombre d’autres installations du même genre restent exposées à de multiples menaces et les gouvernements ont encore beaucoup de mal à partager les résultats de leur renseignement. Les États-Unis ne pourraient pas avertir le Japon, pourtant un proche allié, de certaines menaces, même s’ils le voulaient ! D’autres formes de menace nucléaire, par exemple un engin de la taille d’une petite valise qui exploserait à Times Square, continuent à donner des cauchemars aux experts et au Président. Étant donné le degré de probabilité de ces risques dans les années à venir, que nous vivions en démocratie ou sous un régime autoritaire, il est très surprenant de voir que le public n’a aucune information sur la question. Comme nous l’avons vu à Fukushima, une grande détresse provient de la réalisation soudaine qu’on nous a demandé de vivre avec des risques qu’on nous a cachés jusqu’au moment où il était trop tard.

Les experts feront comme il se doit une grande partie du travail pour ce qui est de définir, étudier et recommander des solutions pour répondre à ces risques. Cette responsabilité augmente au fur et à mesure que de nouvelles centrales nucléaires sont construites et prévues, en particulier en Chine, en Inde, dans les Émirats arabes unis, au Vietnam et en Indonésie. Mais des échanges ouverts avec le public sont très utiles pour prévenir les attaques et les accidents et réagir de façon appropriée après coup. Les médias sociaux peuvent fournir un lien entre la société et les experts en divers domaines en cas d’accident ou d’attaque nucléaires. De fait, cela pourrait être un outil très intéressant pour compléter les efforts de ces autres organisations qui œuvrent à empêcher les catastrophes nucléaires. N’importe quelle autorité a du mal à accepter de perdre le contrôle de l’information, mais Fukushima et d’autres crises comme celle du virus Ebola ont bien montré les limites des canaux de communication venue d’en haut.

Les hommes politiques doivent faire face à bien des défis et intérêts contradictoires dans la mission qu’ils ont reçue de faire avancer la société. L’énergie nucléaire peut ainsi sembler une solution adaptée aux défis du changement climatique. Mais aucune évaluation ne peut être considérée comme correcte ou honnête si les risques de la solution envisagée ne sont pas présentés ouvertement à toutes les parties prenantes, y compris au public. Fukushima nous a offert l’opportunité de mener un vaste débat sur les défis auxquels sous sommes confrontés, au carrefour de multiples besoins humains : énergie décarbonée, sûreté, santé environnementale, sécurité des populations et préservation pour les générations futures. Ce sont là des questions qui définiront notre société humaine pour les siècles à venir. Nous ne devons donc pas rater l’opportunité d’en discuter en mettant sur la table tous les éléments dont on dispose.

Le mot de la fin : Sir Brian Flowers, éminent physicien nucléaire britannique, a fait remarquer que si des centrales nucléaires avaient été construites et déployées en Europe avant la Seconde guerre mondiale, de vastes zones d’Europe seraient inhabitables de nos jours car ces centrales auraient été la cible des méthodes de guerre et de sabotage classiques.

Par Akio Matsumura (Traduction française : Odile Girard)

Article paru sous le titre original « Our Lessons from Fukushima: New Concerns for the Future » le 6 mars 2016 sur le site Finding the missing link.

Source : fukushima-blog

Charbon : l’Allemagne a éliminé l’équivalent de la production de 2 EPR

C’est une très curieuse intervention d’Isabelle Jouette à laquelle ont assisté les auditeurs du « téléphone sonne » le 10 mars 2016, émission animée par Nicolas Demorand sur France-Inter. A la 33ème minute de l’émission on peut en effet entendre la porte-parole de la SFEN, Société Française de l’Electricité Nucléaire (association Loi 1901), dénoncer la politique allemande, mais avec un argumentaire erroné.

Un EPR de 1650 MW, dans l’hypothèse d’un facteur de capacité de 90%, produit chaque année 13 TWh. Selon les données AGEB (AG Energiebilanzen e.V.) entre 2003 et 2015 la production d’électricité à base de charbon à chuté de 28,5 TWh en Allemagne. Dont 9 TWh entre 2013 et 2015, c’est-à-dire ces deux dernières années. 28,5 TWh, c’est l’équivalent de la production électrique de deux EPR. Ce n’est donc pas du tout négligeable.

Charbon 1Le nucléaire a-t-il si peu d’avantages objectifs pour qu’il faille chercher à salir les renouvelables en les associant au charbon ? Isabelle Jouette était également à l’antenne de France 5 le 7 mars 2016.

La baisse de la production d’électricité à base de lignite en Allemagne entre 2003 et 2015 est en revanche beaucoup plus modeste : -3,2 TWh, soit environ la production annuelle d’un quart d’EPR. Avec des fluctuations durant ces 12 années, à la baisse, puis à la hausse (2010-2013), puis de nouveau à la baisse. Bien sûr c’est la tendance de fond à l’échelle décennale qui est pertinente. Ne focaliser uniquement que sur la période 2010-2013 ne serait pas intellectuellement honnête. La chute de l’électricité à base de gaz naturel (- 5,9 TWh) correspond de son côté à environ la production annuelle d’un demi-EPR.

Non seulement l’Allemagne est parvenue à éliminer l’équivalent de presque 3 EPR de production électrique à base de combustibles fossiles, mais elle a en plus diminué massivement sa production nucléaire : -73,6 TWh, l’équivalent de 5 EPR et demi !

Isabelle Jouette affirme qu’en Allemagne, « il n’y a plus de nucléaire ». C’est de nouveau factuellement faux : en 2015 les réacteurs nucléaires allemands ont délivré 92 TWh d’électricité, l’équivalent de la production de 7 EPR. Les réacteurs nucléaires correspondants seront fermés dès 2022, car l’Allemagne a une politique énergétique très claire. Et ce sont les énergies renouvelables, en premier lieu le solaire PV et l’éolien terrestre, qui prendront le relais.

L’équivalent d’un EPR 100% EnR installé chaque année

L’Allemagne a augmenté depuis 2003 sa production EnR de 148,5 TWh ! C’est équivalent à la production de 11 EPR et demi ! L’équivalent, en volume de production électrique, d’un EPR 100% renouvelable a été installé en Allemagne chaque année pendant 12 ans. La construction d’un véritable EPR prend au contraire de très nombreuses années, comme en témoignent les chantiers en France (Flamanville) et en Finlande.

En 2015 pas moins de 32,5% de l’électricité allemande a été d’origine renouvelable, contre 27,3% en 2014. Ce qui est remarquable dans ce pays où le potentiel hydroélectrique est bien plus faible qu’en France. Comme le souligne le magazine ConsoGlobe, « l’Allemagne bat des records pour les énergies renouvelables, la France l’ignore ».

Ségolène Royal est-elle solaro-sceptique ?

Ségolène Royal a affirmé sur TF1 le 7 mars 2016 que « dans les 5 ans qui viennent il y a aura 10 réacteurs qui vont arriver à échéance de ces 40 ans. Est-ce qu’on peut remplacer 10 réacteurs uniquement par des énergies renouvelables, la réponse est non. Il faut faire preuve de bon sens ».

En réalité ce sont 21 réacteurs totalisant 18,9 GW qui auront atteint leur limite d’âge de 40 ans dans les 5 ans qui viennent (2021) : Fessenheim 1 & 2, Buguey 2, 3, 4 & 5, Tricastin 1, 2, 3 et 4, Gravelines 1, 2 , 3 & 4, Dampierre 1, 2, 3 et 4, Saint-Laurent B 1 & 2, Blayais 1. Tous d’une puissance de 0,9 GW pièce.

Charbon 2

Selon RTE (2014) le facteur de charge du parc nucléaire français est de 75%. 18,9 GW correspondent ainsi à environ 124 TWh, soit exactement les 25 points nécessaires pour faire passer la part du nucléaire de 75 à 50% dans le mix électrique français (500 TWh/an).

En partageant l’effort pour moitié entre l’éolien et le solaire PV, cela correspond à la production annuelle d’un parc solaire PV de 55 GW, ceci dans l’hypothèse d’un facteur de capacité de 13%, soit celui de la centrale solaire de Cestas. 55 GW correspondent à 183 centrales de Cestas (300 MW), soit une moyenne d’1,8 centrale par département. Une partie peut être réalisée en toiture de supermarchés, d’usines et de maisons. Une centrale solaire au sol de 300 MW par département, est-ce inacceptable ?

Installer 55 GW de solaire PV en 5 ans correspond à 11 GW par an. Est-ce techniquement impossible ? L’Allemagne a installé 7,4 GW de solaire PV durant l’année 2010, auxquels se sont ajoutés 7,5 GW en 2011 et 7,6 GW en 2012. La Chine a installé 18,5 GW de solaire durant la seule année 2015. La France, pays organisateur de la COP21, n’a installé que 0,9 GW de solaire PV en 2015. La France est-elle condamnée à faire 20 fois moins bien que la Chine ?

Démocratie énergétique

Le « bon sens » dont parle Ségolène Royal ne repose donc pas sur une base solide en matière de potentialités EnR. Et, peut-être pire, ce « bon sens » est en déphasage complet avec la promesse qu’a fait François Hollande à ses électeurs pour pouvoir accéder à la présidence de la République en 2012. Il se pose un très sérieux problème de déontologie politique.

Durant l’entretien sur TF1 Ségolène Royal a proposé de transformer le site de Fessenheim en usine Tesla. Pourquoi pas. Mais où en est le projet d’ « Airbus du solaire » dont François Hollande parlait il y a quelques années ? SolarCity est en train de terminer la construction dans l’état de New-York d’une giga-usine de panneaux solaires qui aura un débit de 1 GW de capteurs solaires chaque année.

C’est uniquement en investissant dans de telles usines que la France pourra baisser les coûts et ainsi tenter de rattraper son retard massif de compétitivité sur l’Asie dans ce domaine clé.

Aux USA, ils agissent.

Olivier Daniélo

Expérience#2: « Je sais ! Je sais ! Du savoir à la compétence »

« Tout ça je le sais déjà ; c’est la centième fois que tu me le dis ! ».
« Nous connaissons cette technique. C’est la énième fois qu’on nous la rabâche ! ».
« Nous avons déjà eu des formations à ce sujet mais ça n’a rien changé ».

Vous avez probablement déjà entendu – ou prononcé – ces phrases dans votre vie professionnelle. Mais que signifient-elles sinon votre exaspération face à une incompréhension qui se répète ? Ces complaintes expriment des reproches croisés au sujet de ce que vous êtes supposés savoir, d’une part, et de votre manque de zèle dans sa mise en application, d’autre part. Le problème c’est que rien ne change. Mais est-il suffisant de savoir quelque chose pour qu’un changement apparaisse comme par magie ?

Rappelons que « savoir » c’est avoir conscience de quelque chose ; c’est avoir à l’esprit un ensemble de concepts, de notions, de représentations, de « figures » disent les gestaltistes.

Prétendre que vous savez ce n’est rien d’autre qu’annoncer les capacités de votre mémoire. C’est signaler que vous êtes informé. Le verbe savoir vient du latin « sapere » qui signifie avoir la saveur, le goût, le parfum de quelque chose. Il y a une grande nuance entre savoir l’heure  et être à l’heure. Savoir l’heure signifie que vous êtes en mesure d’intercepter l’odeur, la notion du temps. Cela ne signifie pas que vous soyez en capacité de mettre en œuvre les comportements nécessaires à votre ponctualité ou à la maitrise de votre agenda. Savoir les règles du management ou du leadership ne signifie pas que vous en ayez les compétences. Si le savoir est nécessaire à l’acquisition d’une compétence, il n’est pour autant pas suffisant.

Mais comment passer du savoir à la compétence ?

tabEn d’autres termes, comment transformer une information, une notion, un concept, une vision en un résultat tangible, que ce soit un produit, une solution, un comportement ou toute forme de manifestation du génie humain ? Le modèle, ci-contre, du cycle de l’expérience de la Gestalt [1] nous fournit la réponse.

Le savoir c’est de l’information stockée dans votre mémoire. Seul l’usage, la mise en application de cette information, pourra conduire à sa mise en forme concrète. Vous l’avez compris, c’est l’action qui favorise le passage du savoir à la compétence. Lorsque vous êtes en mesure de démontrer votre aptitude à effectuer certains actes indispensables à l’exercice de votre profession, alors votre compétence professionnelle est incontestable.

Comment se fait-il que la mise en action des savoirs soit si problématique chez certains cadres ?

La non-prise de conscience qu’ils doivent en faire quelque chose, la non-décision d’en faire quelque chose, la non-action, la non-évaluation… bref, la réponse est : « les résistances au changement».

Dans le cas présent, ces résistances sont des réponses inconscientes de votre organisme, exprimées sous forme d’opposition passive à tout ce qui apparaît comme nouveau. Le but de ces résistances est de vous préserver du danger d’exposition au risque de l’inconnu. Cette exposition pourrait révéler, par exemple, une incapacité ou une maladresse dans l’exercice de quelque chose que vous ne maitrisez pas. Et, si rien ne vous y oblige, pourquoi chercher à se faire du mal ? Vous n’êtes probablement pas d’avantage pressés de troquer des compétences maitrisées, même si elles sont devenues obsolètes, contre d’hypothétiques compétences nouvelles que vous n’êtes pas sûr de pouvoir exercer avec efficacité. Après tout, il faut bien se rendre compte que ces « anciennes » compétences ont tout de même contribué à vous installer dans vos responsabilités actuelles. Elles ne peuvent pas être si « mauvaises » que ça! Enfin pourquoi, dans un élan précipité, prendre le risque d’un rejet de votre groupe d’appartenance qui ne manquerait pas de vous soupçonner d’un coupable excès de zèle ? E. Schein attribue ces résistances à « l’anxiété d’apprentissage ». Cette anxiété nourrit le processus d’opposition passive décrit ci-dessus. Pour faciliter la compréhension du phénomène, donnons-lui les caractéristiques d’un frein qui bloque notre motivation à explorer ce qui nous est étranger.

Cette anxiété est inhérente à chacun d’entre nous, elle l’est davantage lorsque nous sommes ensemble c’est à dire dans nos organisations.

Toujours selon les recherches menées par E. Schein, un engagement vers le changement, requiert que cette force de freinage, à la fois utile et aliénante, soit contrecarrée par une autre force, motrice cette fois ci : « l’angoisse de survie ». L’horrifiante et néanmoins mobilisatrice révélation que, pour vous en sortir, vous allez devoir changer quelque chose. Lorsque l’intensité de cette force antagoniste n’est pas suffisante, personne ne se risque à la mise en action de son savoir. La différence entre les intensités de ces deux angoisses représente votre niveau de résistance ou d’appétence au changement. Elle conduit soit à une mobilisation vers l’action soit à une immobilisation en faveur du statu quo.

Ce modèle « mécanique » montre que l’angoisse ne doit pas toujours être considérée comme négative. Le désir de réduire une angoisse conduit à mobiliser une énergie motrice d’accomplissement, de réalisation de soi.

Au niveau individuel, pour être acquise, une compétence réclame donc la mise en action régulière des savoirs, de telle sorte à pouvoir s’enrichir de l’accumulation de l’expérience. Cette mise en action devient possible dès lors que vous avez pris conscience et que vous vous êtes mis en mesure de gérer l’intensité de ces deux forces antagonistes. Pour y parvenir, répondez sans ambigüité à cette question : « Que se passera-t-il si je ne mets pas régulièrement en application – à partir de maintenant – ces savoirs enfouis ? ». Si vous n’avez pas de réponse ou si votre réponse est « rien » ou « pas grand-chose », alors vous vous contenterez de vous déclarer informé et vous continuerez de nourrir votre illusion de compétence. C’est le statu quo assuré.

Au niveau des organisations, la gestion sage et astucieuse des angoisses d’apprentissage et de survie décrites ci-dessus favorise le processus de mobilisation au changement.

Comment les organisations peuvent-elles encourager cette mobilisation vers la mise en action des savoirs soigneusement rangés dans les oubliettes de notre raison ?

Le management dispose de deux alternatives. Il peut choisir d’augmenter l’angoisse de survie, en menaçant les collaborateurs de tomber en disgrâce, de perdre leur emploi ou de supprimer leurs avancements. Ils peuvent également décider de réduire l’angoisse d’apprentissage en renforçant la sécurité de l’environnement pour favoriser le processus d’initiation.

Hélas, lorsque la compétence managériale en accompagnement du changement est insuffisante, les managers choisissent le plus souvent la première option car elle leur paraît plus facile. Le modèle ci-contre montre que cette tactique n’est pas fiable car elle s’appuie sur une mise sous tension supplémentaire – le stress- qui ne pourra pas perdurer et qui peut même être contreproductive. Notre démarche mesurer-rassembler-transformer vise à favoriser les forces favorables au changement en privilégiant la production de sens collectif partagé (conscience et confiance). Elle prend le parti de la réduction de l’angoisse d’apprentissage plutôt que celui de l’exacerbation de l’angoisse de survie, sans pour autant, ignorer cette dernière. Cette démarche consiste, par exemple, à réaliser une appréciation collective des menaces et opportunités attachées à la conquête de nouvelles compétences et à les comparer avec les menaces et opportunités attachées au statu quo. A cette occasion, pour assurer la crédibilité de ses messages, le management s’évertue à éduquer le reste de l’organisation sur ses réalités économiques, sociales, structurelles, etc. Parce qu’elle combine conscience et confiance, l’énergie consacrée à cette analyse collective conduit à un consensus fort en faveur d’objectifs de développement hautement respectables au sein de l’organisation. Cette démarche de canalisation des deux angoisses du changement, conduit naturellement l’organisation vers une mobilisation générale. A partir de cette étape, chacun collabore à l’évolution vers un environnement sûr et sain. L’expérimentation nécessaire à la consolidation de nouvelles compétences devient non seulement possible, mais constitue surtout un défi motivant qu’il conviendra d’entretenir constamment.

Et si le management ne parvient pas à ses fins et que rien ne change ; que faire?

Si les protagonistes ne parviennent pas à soutenir le processus de consolidation et donc à s’enrichir de l’accumulation de l’expérience, c’est le retour à la case « illusion ». Une intéressante opportunité est alors offerte aux dirigeants de montrer l’exemple en reconnaissant humblement les failles du système ainsi que leurs propres vulnérabilités. En tirant les leçons de cette pratique, ils attestent de leurs dispositions à apprendre et à renforcer leurs compétences. Cette sage posture leur permet de relancer ces deux piliers du changement que sont la confiance et la conscience. N’est-ce pas un moyen séduisant de rouvrir le chemin et de remobiliser les énergies vers cet environnement sûr et sain, facteur clé du succès des démarches de développement de l’efficacité des entreprises ?

L’erreur – hélas souvent commise par des managers inexpérimentés- serait d’essayer de passer en force et de provoquer un niveau de stress démobilisateur. Nous invitons ces managers peu éclairés à méditer sur cette citation d’Einstein : « la folie, c’est se comporter de la même manière  et s’attendre à des résultats différents ».

Exemples

tab2

FFC : Force Favorable au Changement
FFSQ : Force Favorable au Statu Quo

Application

En tant que manager, vous avez à plusieurs reprises demandé à l’une de vos collaboratrices de respecter les plages horaires contractuelles de votre entreprise. A chaque fois, elle vous a promis qu’elle s’y conformerait. Vous constatez pourtant que, au cours d’une période d’observation supplémentaire de 4 mois, cette dernière est arrivée à 6 reprises avec plus d’une heure de retard par rapport aux limites horaires contractuelles de prise de poste.

Comment allez-vous réagir cette fois ci ?

  1. Vous lui envoyez une lettre recommandée de mise en demeure.
  2. Vous cherchez avec elle une solution pour qu’elle respecte à coup sûr le règlement de la société.
  3. Vous ne dites rien car vous ne voulez pas faire de vagues pour si peu de choses.

N’hésitez pas à nous donner votre avis via le post d’un commentaire dans la zone prévue à cet effet à la suite de l’article .

Par Dino Ragazzo

[1] Voir « Manager d’élite- Gestalt guide du leadership dans les organisations du XXIe siècle » p.43

12 expériences de management réelles

    1. Expérience #1 : « Je ne vaux plus rien »
    2. Expérience #2 : « Je sais ! Je sais ! Du savoir à la compétence »
    3. Expérience#3: « ça ne marche pas« 
    4. Expérience#4 : Managers attention : le succès rend aveugle !
    5. Expérience#5 : Passe-droits, privilèges et courage
    6. Expérience#6 : Justice pour les collaborateurs, solitude pour les managers
    7. Expérience#7 : Le soi du Gestalt consultant comme outil d’observation des processus
    8. Expérience#8 : Perfectionnisme : une coûteuse erreur de management

Ecophyto : les pesticides continuent leur expansion !

Selon les chiffres publiés par le Ministère de l’agriculture, de l’agroalimentaire et de la forêt, le nombre de doses-unités épandues à l’hectare (NODU), l’indicateur d’utilisation des pesticides du plan Ecophyto, ne cesse d’augmenter depuis 2009. Il a augmenté de 5,8 % en moyenne triennale entre la période 2011-2013 et 2012-2014 pour les usages agricoles. La hausse est spectaculaire entre 2013 et 2014 : + 9,4 %, après une hausse de 9,2 % entre 2012 et 2013. Au final, la consommation de pesticides a augmenté de plus de 5 % en moyenne, chaque année, entre 2009 et 2014.

Concernant les quantités de substances actives vendues, les résultats sont encore plus terrifiants. Les agriculteurs ont acheté 16 % de produits phytosanitaires en plus en 2014. Parmi ces derniers, les molécules suspectées d’être cancérigènes, mutagènes ou toxiques pour la reproduction humaine, accusent une hausse de 12,9 % du NODU et de 22,6 % des tonnages substances actives vendues.

Du côté des jardiniers amateurs et gestionnaires d’espaces verts, le NODU a diminué de 2,2 % en moyenne triennale entre 2011-2013 et 2012-2014. Mais l’indicateur est reparti à la hausse entre 2013 et 2014 : + 10,1 %. La loi « Labbé » prévoit pourtant l’interdiction des pesticides pour les zones non agricoles en 2017 pour les collectivités et en 2019 pour les jardiniers amateurs.

Le ministère accuse les mauvaises conditions climatiques de 2014 qui ont engendré une pression élevée des maladies causées par les champignons et donc un recours accru aux herbicides et fongicides. Par ailleurs, dans un contexte de concurrence mondial et de crise agricole, les pesticides représentent une « assurance-récolte » pour les agriculteurs qui ne veulent prendre aucun risque.

Et si toutes les fermes devenaient Dephy ?

Les résultats sont moins sombres dans le réseau des 1 900 fermes Dephy, réseau de Démonstration, d’Expérimentation et de Production de références du plan Ecophyto. « Entre 2012 et 2014, le nombre de traitements moyen a diminué de 10 % en grandes cultures et polyculture-élevage, de 12 % en arboriculture et en viticulture, de 15 % en cultures légumières, de 38 % en horticulture et de 22 % en canne à sucre », se félicite le Ministère de l’agriculture. Si ces résultats sont effectivement encourageants, ils demeurent néanmoins loin de l’objectif initial d’une baisse de 50 % à l’horizon 2018.

La mise en application du plan Ecophyto 2 est donc plus que jamais capitale. Présenté en octobre 2015 par le gouvernement, ce nouveau plan reporte la réduction de 50 % de la consommation de pesticides de 2018 à 2025. Un palier intermédiaire, en 2020, prévoit une baisse de 25 %.

Selon le ministère,les fermes « modèles » Dephy accompagnent chacune dans leur transition une dizaine de fermes grâce à des ingénieurs agronomes cofinancés par les conseils régionaux ou les agences de l’eau. Le nouveau plan prévoit donc de recruter 1 000 fermes pionnières supplémentaires pour accélérer le mouvement.

Les fermes Dephy ont leur importance, mais il faut élargir la dynamique au-delà de ce cercle réduit. Selon le recensement agricole de 2010, la France compte 326 000 exploitations professionnelles. La route reste donc longue… Pour s’y attaquer, la grande nouveauté du plan Ecophyto 2 est la mise en place d’un système de certificats d’économie de produits phytosanitaires (CEPP), inspiré par le modèle des Certificats d’économies d’énergie. Les distributeurs de pesticides et les grandes coopératives devront engager des services et conseils pour réduire les produits phytosanitaires chez leurs clients de 20 % d’ici 2020. Ce système doit entrer en vigueur au mois de juillet 2016. Une large concertation portant sur les indicateurs des CEPP, le dispositif de pénalités et les modalités d’incitation se tiendra courant mars avec les professionnels, pour des propositions au Ministre pour la fin mars 2016.

Par Matthieu Combe, journaliste scientifique

AlphaGo, l’I.A Deep Mind de Google, gagne son premier match de go

match1
Lee Sedol à l’entame de la partie décisive du match : la pierre « d’invasion » blanche située au milieu du bord droit du damier a décidé de la victoire d’AlphaGo.
match2
Lee Sedol à la fin du match, forcé de constater sa défaite.

Le match, organisé à Séoul en Corée du Sud, s’est déroulé cette nuit et s’est achevé un peu avant 8h, heure française, au bout de 3 heures et 20 minutes. Cette défaite dès la première manche a surpris tous les spécialistes qui estimaient AlphaGo encore incapable de rivaliser avec les meilleurs joueurs mondiaux. Myungwan Kim, joueur du top niveau, commentant en direct la partie pour le compte de l’Association américaine de go [1], a fini par avouer : « AlphaGo est plus fort que moi ». La partie a été serrée, et Lee Sedol choisissant un déroulement calme, n’est pas parvenu à mettre la machine en défaut, malgré quelques coups questionnables de celle-ci. AlphaGo a prouvé la sûreté et la justesse de ses procédures d’analyse et d’évaluation des coups et des positions de jeu inscrites dans sa programmation. Cette première partie pourrait servir de coup d’essai à Lee Sedol, préparé à complexifier son jeu dans les parties à venir et à ferrailler plus durement. Mais elle pourrait au contraire annoncer un effondrement du champion, déjà dépassé et déstabilisé par ce premier match.

Par Etienne Monin

[1] https://www.youtube.com/user/USGOWeb/live

Une nouvelle source de lumière quantique

Cette prouesse a été rendue possible grâce au positionnement, avec une précision nanométrique, d’une boîte quantique dans une microcavité optique. Un contrôle électrique permet en outre de réduire le « bruit » autour des boites quantiques, bruit qui rend habituellement les photons différents les uns des autres. Obtenus en collaboration avec des chercheurs de Brisbane (Australie), ces résultats permettront de réaliser des calculs quantiques d’une complexité sans précédent, premier pas vers la création d’ordinateurs quantiques. Ils sont publiés dans Nature Photonics le 7 mars 2016.

Le domaine de l’information quantique est un enjeu majeur pour l’économie à venir, les ordinateurs quantiques pouvant, théoriquement, être des centaines de millions fois plus rapides que les ordinateurs classiques. De nombreux systèmes sont explorés aujourd’hui pour développer ces futures technologies quantiques : atomes, ions, photons, etc. Les technologies quantiques optiques, qui utilisent la lumière comme vecteur de l’information quantique, ont connu des succès remarquables ces dernières années, tels que la communication de clés cryptographiques ou la téléportation quantique sur des centaines de kilomètres.

image_lpn
© Niccolo Somaschi – Laboratoire de photonique et de nanostructures (CNRS) Cette image représente plusieurs sources de photons uniques : représentée par un point rouge au centre de la cavité, la boîte quantique semi-conductrice (de taille nanométrique) est insérée au centre de la cavité qui consiste en un pilier de 3 µm connecté à un cadre circulaire par des guides de 1.3 µm de large. Grâce à la tension électrique appliquée sur la cavité, la longueur d’onde des photons émis peut être accordée et le bruit de charge totalement supprimé.

Cependant, les sources de photons disponibles aujourd’hui ne sont pas suffisamment efficaces pour utiliser l’information quantique à grande échelle. Ces sources doivent permettre l’émission d’un seul et unique photon par impulsion lumineuse, ce que l’on appelle la brillance, et il est nécessaire que chacun de ces photons soient parfaitement identiques à ceux précédemment émis, c’est-à-dire qu’ils soient indiscernables les uns des autres. Alors que le premier frein a été levé grâce à l’utilisation de boîtes quantiques, qui permettent l’émission d’un seul photon par impulsion lumineuse, aucune technologie ne permettait, jusqu’à aujourd’hui, l’émission de photons parfaitement identiques à des rendements suffisants pour une utilisation en optique quantique.

Le principal défi pour les chercheurs a été de réduire le « bruit » autour de la boîte quantique, tout en obtenant une forte brillance, qui limite habituellement l’indiscernabilité des photons. Les scientifiques ont donc positionné, avec une précision nanométrique, une boîte quantique dans une microcavité optique, une sorte de pilier micrométrique confinant la lumière. L’application d’une tension sur la microcavité permet de supprimer toute fluctuation électronique qui rendrait les photons émis discernables. En collaboration avec l’équipe du Pr. Andrew White à Brisbane (Australie), ils ont pu comparer ces nouvelles sources aux sources usuelles. Ils démontrent que ces sources de photons uniques indiscernables à 99,5% sont environ 15 fois plus brillantes que les sources usuelles : un photon unique indiscernable est collecté toutes les 6 impulsions excitatrices, contre 100 impulsions pour les sources lumineuses utilisées aujourd’hui. Par ailleurs, le processus de fabrication utilisé est le seul, à ce jour, à être parfaitement contrôlé et reproductible.

Ce résultat, attendu depuis longtemps par la communauté internationale, devrait donner un nouveau souffle aux technologies quantiques optiques grâce auxquelles des milliers de photons tous identiques pourront être manipulés pour réaliser des calculs quantiques d’une complexité sans précédent, un premier pas vers la création d’ordinateurs quantiques.

Source : cnrs

L’intelligence artificielle Google DeepMind prête à détrôner le cerveau humain

Alpha Go a défrayé la chronique en janvier 2016, lorsque ses concepteurs ont annoncé, publication dans le magazine Nature à l’appui, avoir battu le champion européen en titre, Fan Hui, par cinq parties à zéro lors de rencontres organisées en octobre 2015.

Lee Sedol, challenger humain d’AlphaGo, en vidéoconférence avec Demis Hassabis, directeur du projet Google DeepMind qui l’a mis au point, lors de la conférence de presse annonçant leur confrontation, en février 2016.
Lee Sedol, challenger humain d’AlphaGo, en vidéoconférence avec Demis Hassabis, directeur du projet Google DeepMind qui l’a mis au point, lors de la conférence de presse annonçant leur confrontation, en février 2016.

Le programme d’intelligence artificielle de Google s’appuie sur la technologie informatique des réseaux neuronaux (neural network), configurée pour apprendre et s’améliorer par l’entraînement [1]. En affrontant au Pays du matin calme l’un des meilleurs joueurs professionnels de go de la planète, l’équipe de Google compte bien réitérer son exploit de l’automne et affirmer sa suprématie dans le domaine de l’intelligence artificielle, capitalisant de manière décisive ces étapes vers les premières applications industrielles, médicales et autres.

La communauté des joueurs de go, et particulièrement les scènes chinoises, coréennes, japonaises, où ce jeu [2] fait figure de religion, n’en continue pas moins de soutenir Lee Sedol et donne peu de chance à AlphaGo de triompher. Le vainqueur empochera un prix d’un million de dollars.

Les faiblesses d’Alpha Go

Depuis la défaite de Gary Kasparov au jeu d’échecs face à DeepBlue, le super-ordinateur d’IBM, en 1997, le jeu de go était invoqué pour illustrer les limites de l’intelligence artificielle. Le défi de sa complexité figurait le plafond de verre la séparant encore des capacités cognitives et de l’intuition des cerveaux humains. Google DeepMind est parvenu à renverser ce défi.

Gary Kasparov face à Deep blue, en 1997

La même fièvre a saisi depuis plus d’un mois les informaticiens, pourtant habitués aux annonces fracassantes du géant de Moutain View, et le monde du go, ses afficionados et ses sponsors. La stupeur passée, les cinq parties disputées entre Fan Hui et AlphaGo ont été largement commentées sur les réseaux de joueurs et dans les médias spécialisés, en particulier par des joueurs professionnels plus qualifiés que Fan Hui lui-même, classé au plan international « 2p » (c’est-à-dire 2e dan professionnel) alors que Lee Sedol est « 9p », le plus haut grade autorisé. Ces observateurs ont certes reconnu l’étonnante aptitude d’AlphaGo à « jouer comme un être humain », comme ils ont souligné maintes erreurs de Fan Hui, dominé dans le jeu et émotionnellement fragilisé au fil des parties. Myungwan Kim (classé 9p) pointe néanmoins plusieurs écueils du logiciel [3] : une certaine passivité, la tendance à (re)produire des schémas de jeu trop conventionnels et, en situation complexe, le risque d’engager des coups vraiment mauvais, parce qu’ils miment des options de jeu en mémoire.

Les subtilités du jeu « professionnel »

 Le jeu de go se joue sur un damier de 19 x 19 lignes, à l’intersection desquelles les joueurs posent successivement des pierres, noires ou blanches. L’objectif consiste au fil de la partie à occuper au mieux l’ensemble du damier (le goban), en s’efforçant de constituer des territoires tout en envahissant ou réduisant ceux de l’adversaire, et de capturer les pierres adverses par enfermement. Le vainqueur est celui qui réunit les plus grands territoires, auxquels s’ajoutent les pierres capturées. La complexité du go réside dans l’équilibre fondamental qui prévaut entre positions locales, dans chaque secteur du goban, et position d’ensemble. À cette perception globale s’ajoutent des subtilités : un combat disputé localement est affecté dans son résultat par les pierres situées à distance, et les affecte en retour. L’influence désigne ainsi le potentiel d’un groupe de pierres à créer ultérieurement du territoire. L’initiative, ou sente, décide dans les séquences jouées de l’ordre des coups, elle dépend de leur importance relative. « L’arrière-goût », aji, révèle le potentiel d’une pierre dans le déroulement du jeu. Certains coups astucieux, dits tesuji, tirent le meilleur partie d’une situation et renversent le cours d’un combat. Ces divers aspects du sens du jeu, l’habileté et la créativité, sont le sceau des meilleurs joueurs. AlphaGo est mis en demeure de les simuler par ses algorithmes [4].

Quel champion est Lee Sedol ?

lee-sedol
Lee Sedol, en 2010

Le jeu de go moderne s’est développé dans le Japon de l’après-guerre, autour d’une génération géniale qui a révolutionné les schémas de jeu développés durant l’ère Meiji (1868-1912). À partir des années 1990, les joueurs coréens commencent à faire figure d’épouvantails contre les ténors japonais. Lee Changho, au tournant des années 2000, puis Lee Sedol à sa suite, imposent la suprématie du jeu coréen, dans des styles opposés. Le premier est défensif et ordonné, le second tire parti du chaos. Leur maîtrise apparaît aussi en fin de partie, lorsque s’échangent des demi-points pour décider de la victoire. Plus récemment, les joueurs chinois ont à leur tour commencé de briller au plan international. Après 2012, Lee Sedol a connu une traversée du désert. Revenu au premier plan, il est actuellement à la 2e place du classement professionnel coréen. Il a perdu en janvier 2016 en finale du titre coréen, le Myeongin, contre le n°1 Park Hunghwan, après en avoir été le détenteur en 2007, 2008 et 2012. Il a aussi perdu contre le meilleur joueur chinois du moment, Ke Jie, en janvier en finale de la Coupe MLily, et en mars dans la Coupe Nongshim, où s’affrontent des équipes nationales. Lee Sedol, né en 1983, n’est donc ni invincible, ni le meilleur joueur actuel sur le circuit. Son palmarès et sa personnalité lui confèrent un grand prestige. Son retour au plus haut niveau témoigne que ses capacités sont aiguisées et son appétit de victoire intact.

Ce n’est pas un champion esseulé qu’affronte AlphaGo mais bien une communauté professionnelle très dense rompue aux compétitions sous haute tension nerveuse, à laquelle sont adossées toute une culture et des institutions dans les pays souches du go, le Japon, la Corée et la Chine. Au vu des matchs disputés en octobre, Lee Sedol s’est déclaré confiant dans sa victoire, sur un score final de 5 à 0 ou de 4 à 1. Toute la communauté du go partage son pronostic. Face à eux, les ingénieurs de Google DeepMind ont eu près de 5 mois pour améliorer leur IA et l’entraîner spécifiquement. Ils ne cachent ni leur excitation ni leur ambition. Toby Manning, l’arbitre anglais du match d’octobre, faisait remarquer qu’AlphaGo se révélait beaucoup plus audacieux lorsqu’il était mené dans la partie [5]. Susceptibilité de machine ou étoffe de champion du monde ? Le premier match a été disputé cette nuit, à 13h, heure de Séoul, 4h à Paris. Les spéculations ne sont dès lors plus de mises.

Par Étienne Monin

[1] Voir articles précédents.

[2] L’expression jeu de go est reprise du japonais, le jeu se dénomme weiqi en chinois, baduk en coréen.

[3] https://gogameguru.com/strengths-and-weaknesses-deepmind-alphago/

[4] https://gogameguru.com/can-alphago-defeat-lee-sedol/

[5] http://britgo.org/files/2016/deepmind/BGJ174-AlphaGo.pdf

Myfood, la serre solaire autonome

Sublimé grâce aux remarques et aux contributions réunies lors de POC21 durant l’été 2015, Myfood est un projet de serre solaire autonome associant aquaponie et permaculture. A l’occasion du Salon International de l’agriculture, du 27 février au 6 mars à Porte de Versailles, les trois concepteurs, Mickaël Gandecki, Johan Nazarely et Matthieu Urban, ont présenté leur version commerciale à l’entrée du pavillon 2.2.

Une serre connectée

Cette serre de 22 m2 peut être autonome grâce au déploiement de 4 panneaux photovoltaïques semi-transparents. Pour les régions froides, un poêle à granulés thermostaté, proposé en option, complète le chauffage. Des capteurs open-source surveillent les paramètres clés (pH, température, ammoniac, oxygène dissous). Ils permettent aussi d’alimenter une base de données indépendante sur la qualité de l’air et la radioactivité.

myfood2 (1)Un logiciel traite ces données et fournit les résultats sur un écran situé dans la serre. L’écran notifie l’utilisateur lorsqu’une intervention manuelle est nécessaire, que cela soit pour remplir le bac d’alimentation des poissons, récolter les cultures, retirer les algues de l’eau, nettoyer le filtre de la pompe… De ce fait, les concepteurs l’assurent : le temps de maintenance journalier est inférieur à 20 minutes ! Les semences proposées sont biologiques et biodynamiques, certifiées Demeter ou AB. Ces graines sont « ouvertes » et peuvent donc être resemées sans être achetées à nouveau. Les plans de la serre sont également ouverts, publiés selon la licence Creative Common BY-NC.

Une serre alliant aquaponie et permaculture

myfood (2)L’aquaponie exploite la symbiose naturelle entre les végétaux et les poissons. Concrètement, entre 6 et 24 tours verticales, surplombent un bassin contenant quelques poissons. Celles-ci hébergent les racines des plantes et l’écosystème bactérien et permettent de faire pousser hors-sol tous les légumes à racines courtes, des salades, tomates, aubergines, concombres et plantes aromatiques, mais aussi des fruits tels que des fraises. Les poissons peuvent être variés, selon vos préférences : truites, carpes ou tilepias. Dans la serre, des légumes bio à racines longues – carottes, blettes, pommes de terre… – peuvent aussi pousser au sol, en permaculture, un millefeuille de terre, compost et bois qui recrée le sol des forêts.

Le système fonctionne en boucle fermée. Dans le bassin, l’eau se charge en nutriments grâce aux déjections des poissons. Cette eau est filtrée, pompée et injectée au goutte à goutte dans les tours verticales où elle irrigue les racines des végétaux. Le substrat en polyéthylène téréphtalate (PET) alimentaire contient l’écosystème bactérien nécessaire à la transformation de l’ammoniac. Le système nécessite entre 1 000 et 1 200 litres d’eau par an.

L’alliance de la permaculture et de l’aquaponie permettent d’obtenir un haut rendement de production. Selon les concepteurs, la serre permet de produire entre 200 et 300 kg de fruits et légumes et entre 50 et 60 kg de poissons par an. Avec un prix demeurant assez accessible (entre 5 600 et 10 000 €), le retour sur investissement se ferait en moins de 4 ans. Les prochains déploiements chez 30 citoyens pionniers auront lieu entre mai et juin 2016. Ils se feront en France, mais aussi en Espagne, Belgique, Angleterre et Allemagne. La commercialisation au grand public débutera en 2017.

Par Matthieu Combe, journaliste scientifique

Femmes ingénieures : quelle situation, quelle perception ?

C’est bien sûr, le 8 mars, journée internationale des droits des femmes, que l’association Elles bougent® a choisi pour dévoiler les résultats de son enquête menée avec l’institut CSA : « les femmes, l’industrie, la technologie et l’innovation».

L’étude sera présentée aujourd’hui au ministère de l’économie, lors de la remise des prix du premier challenge Innovatech – Elles bougent® (voir encadré) organisé pour fêter les 10 ans de cette association qui fait la promotion des métiers techniques de l’industrie auprès des collégiennes, lycéennes et étudiantes.

Un intérêt marqué avant le bac

Collégiens et lycéens se déclarent prêts à faire des études scientifiques pour travailler ensuite dans les secteurs industrie / techno / numérique (60% filles, 70% garçons). Chez les filles, tant élèves qu’étudiantes, la demande d’accès à davantage d’information  sur les filières d’ingénieurs et techniciens est forte (63% et 70%).

Leur préférence allant à la rencontre avec des professionnelles en poste. Christelle Fumey,  directrice adjointe du pôle Society de CSA nuance cependant ces résultats : « si l’on peut être agréablement surpris de cette grande proportion de filles attirées par les filières technologiques, on voit cependant avec les autres réponses qu’il y a un décrochage plus tard et que les filles vont finalement se diriger plus vers la pharmacie, la médecine et qu’elles ne vont peut-être pas penser ou se sentir capables d’aller vers l’industrie. Les secteurs de l’aéronautique, de l’automobile ou la robotique restent ainsi dans les esprits et la pratique, plus masculins. »

Un manque de valorisation

Quelle que soit la population interrogée, le peu de femmes dans l’industrie est imputée à trois causes principales : une méconnaissance des métiers de l’industrie par les filles, peu de femmes valorisées ou dirigeantes capables de jouer un rôle de modèle, et un recrutement favorisant les hommes.

La passion avant tout

« Pour moi, c’est un des points importants à souligner dans cette enquête, explique Christelle Fumey, ce sont des métiers qui restent animés par la passion ! L’intérêt et le goût pour les sciences et techniques prend le pas sur les compétences relationnelles. Le savoir-faire reste au centre de la vie professionnelle et c’est vraiment là une particularité par rapport à d’autres secteurs ».

Discrimination, encore et toujours

A près de 90%, les femmes, quel que soit leur âge, pensent qu’elles peuvent être victimes de discrimination dans le monde professionnel (être moins payée à travail égal, postes inférieurs à formation égale, moindre respect, remarques sexistes, carrière freinée par la maternité etc…). Deux tiers des filles s’attendent à en être victime. L’association appelle en la matière à lutter contre l’installation d’une banalisation de la discrimination qui a pour conséquence : d’entériner la situation, de rendre plus difficile l’accès aux niveaux supérieurs de responsabilité pour les femmes, voire pour une part d’entre elles d’inhiber toute velléité en ce sens.

Poste à responsabilité : l’autocensure persiste

Quelque 80% des femmes ingénieurs s’estiment capables d’exercer un poste à responsabilité plus élevée. Mais la moitié d’entre elles ne se sent pas  à l’aise pour postuler réellement. En outre, seule une petite minorité fait confiance à leur entreprise pour promouvoir autant des femmes que des hommes à des postes de direction. « Une posture qui ne m’a pas vraiment étonnée, appuie Christelle Fumey, car on rencontre cette autocensure encore très fréquemment dans d’autres secteurs ou d’autres contextes ».

« Elles ont 5 heures pour imaginer l’industrie du futur »

Le  1er challenge Innovatech Elles bougent® va mettre en avant les femmes ingénieures ce 8 mars 2016 : en 5 heures, de petites équipes composées d’étudiantes, de lycéennes et de marraines de l’association Elles bougent® imagineront ensemble l’Industrie du Futur, à partir de 5 thèmes : Ville durable, Médecine du futur, Impression 3D, Objets intelligents, Réalité augmentée. Vous pouvez suivre le challenge sur Facebook ou sur Twitter.

Sophie Hoguin

EDF : La grogne atteint le sommet

Il est de notoriété publique que Thomas Piquemal émettait de sérieux doutes sur le viabilité financière d’un projet estimé à 18 milliards de livres (23,3 mds €).

piquemal
Thomas Piquemal

Beaucoup d’employés au sein de l’électricien mettent en garde leur direction contre ce projet mais c’est la première fois que la grogne atteint ce niveau. Pourtant, le projet bénéficie d’un soutien politique important des deux côtés de la Manche, et Emmanuel Macron, ministre de l’Economie, a récemment confirmé la volonté de l’Etat de le voir aboutir. La décision finale d’investissement serait prévue pour avril prochain selon des sources proches du dossier. L’action d’EDF a dévissé de près de 7% dans la journée de lundi.

Par Romain Chicheportiche

Hyperions : l’éco-quartier le plus ambitieux au monde

Jaypee est la première ville nouvelle indienne consacrée au sport. Sur plus de 1 000 hectares, elle accueillera le Grand Prix indien de Formule 1, un stade de cricket, un stade de hockey et une académie des sports. Mais l’ambition d’Hypérions est de la « métamorphoser en ville pionnière de l’agroécologie urbaine », explique Amlankusum, l’agro-écologiste du projet. Hypérions, du nom du séquoïa le plus grand au monde (115,55 mètres), est un concentré d’innovations pour un bien-être social, économique et environnemental.

« Intégrant le meilleur de la Low-Tech et de la High-Tech, […], ma démarche vise à réconcilier la renaturation urbaine et le développement agricole artisanal avec la protection de l’environnement et de la biodiversité […] pour prouver qu’il existe des liens stratégiques à mettre en œuvre entre le changement climatique, l’alimentation durable et le développement urbain », résume Amlankusum.

Rendre l’agriculture invasive

L’agriculture urbaine, basée sur l’agroforesterie et la permaculture, y sera invasive. L’aquaponie et la permaculture foisonneront dans les rues, les jardins, les balcons, les parois et les toits. On y trouvera des arbres fruitiers tropicaux, des plantes aromatiques et médicinales, des potagers familiaux, des élevages, des bassins à poissons… Des étangs et des lagunes de phytho-épuration seront situés aux pieds des tours-arbres dans les vergers communautaires dédiés aux épices. On y trouvera aussi des serres spécialisées et de petits élevages produisant des œufs et des laitages.

19 COMMUNITY ORCHARDS

Pour protéger la santé des habitants, les engrais et pesticides chimiques y seront bannis. L’irrigation se fera par l’eau des bassins d’élevage de plusieurs espèces de poissons et de mollusques dont les déjections fourniront les engrais naturels. Le rendement serait de plus de 20 kg de fruits et légumes biologiques par mètre carré par an.

L’agriculture foisonnera aussi dans de petites exploitations voisines. Les sols seront fertilisés au moyen de composts issus des déchets organiques produits par les habitants et d’engrais verts. Pour accroître la biodiversité, l’ensemble des parcelles seront en polyculture, alternant les cultures céréalières et les légumineuses. Elles ne seront pas labourées pour préserver les micro-organismes et présenteront un couvert végétal permanent pour structurer les sols et en limiter l’érosion. La lutte contre les parasites sera assurée par les méthodes alternatives de lutte biologique. Les traitements phytosanitaires naturels et biodégradables y seront à l’honneur.

L’utilisation de la ressource en eau de pluie sera optimisée par la mise en place de micro barrages et de diguettes filtrantes rechargeant les nappes phréatiques. Cela permettrait d’économiser jusqu’à 90 % des besoins en eau.

12 GREENBELT VIEW

Une structure et des énergies pensées pour limiter l’empreinte écologique

Les tours présentent une structure mixte composé de 25 % de matériaux inertes et de 75 % de matériaux bio-sourcés. L’acier et le béton sont réservées aux fondations antisismiques, aux parkings et à la base des noyaux verticaux. La superstructure est constituée de poteaux, poutres et panneaux en bois massifs, renforcés par des lames en acier. Le bois nécessaire proviendra d’une forêt de Delhi gérée durablement. Pour chaque mètre cube de bois utilisé, cela éviterait l’émission de 1,1 tonne de CO2 par rapport à l’utilisation d’acier ou de béton.

L’énergie nécessaire au fonctionnement du quartier et à la recharge des véhicules électriques sera produite sur place via des « écailles bleutées solaires photovoltaïques et thermiques venant enrober les façades en suivant la course du soleil d’Est en Ouest » et des lampadaires éoliens. Cette énergie sera complétée par la méthanisation des déjections animales et des résidus de cultures.

Dans ce climat subtropical, chaud et humide, la climatisation sera naturelle, semblable à la climatisation d’une termitière. Du haut de leurs 128 mètres, les tours seront reliées par des passerelles et unifiées par une grande toiture-verger, véritable lieu convival pour les habitants. Elles seront agrémentées d’un gymnase, d’une piscine biologique et d’aires de jeux. Ces passerelles seront irriguées en récupérant les eaux de pluies et les eaux grises des habitants.

07 AERIAL VIEW

Par Matthieu Combe, journaliste scientifique

Mars : un grand basculement a refaçonné sa surface

Par sa masse hors du commun, le dôme volcanique de Tharsis a entraîné la rotation des enveloppes superficielles de Mars (sa croûte et son manteau) autour de son noyau. L’existence de ce grand basculement donne un nouveau visage à la planète Mars durant le premier milliard d’années de son histoire, à un moment où la vie aurait pu apparaître. Elle offre aussi une réponse unique à trois mystères : on comprend enfin pourquoi les rivières se sont formées à l’endroit où on les observe aujourd’hui, pourquoi certains réservoirs souterrains de glace d’eau, qualifiés jusqu’ici d’anomalie, se situent loin des pôles de Mars, et pourquoi le dôme de Tharsis est aujourd’hui centré sur l’équateur. Ces résultats sont publiés le 2 mars 2016 dans la revue Nature, par une équipe essentiellement française comprenant des chercheurs de Géosciences Paris Sud (CNRS/Université Paris-Sud), de Géosciences environnement Toulouse (CNRS/Université Toulouse III – Paul Sabatier/IRD) et du Laboratoire de météorologie dynamique (CNRS/École polytechnique/UPMC/ENS), ainsi qu’un chercheur du Lunar and planetary laboratory (Université d’Arizona).

Mars n’a pas toujours eu le visage que nous lui connaissons. Il y a 3 à 3,5 milliards d’années, la planète a subi un grand basculement, que vient de mettre en évidence le travail conjoint de géomorphologues, géophysiciens et climatologues. Ce n’est pas l’axe de rotation de Mars qui a bougé (phénomène que l’on appelle variation de l’obliquité) mais les parties externes (manteau, croûte) qui ont tourné par rapport au noyau interne – un peu comme si l’on faisait tourner la chair d’un abricot autour de son noyau ! Ce phénomène avait été prédit théoriquement, mais jamais encore démontré. L’origine de ce basculement ? Le gigantesque dôme volcanique de Tharsis. Sa formation a débuté il y a plus de 3,7 milliards d’années, vers 20° de latitude nord et l’activité volcanique s’est  poursuivie pendant plusieurs centaines de millions d’années jusqu’à former un plateau de plus de 5000 km de diamètre, environ 12 km d’épaisseur en moyenne et 1 milliard de milliards de tonnes (1/70e de la Lune). Une masse telle qu’elle a fait pivoter la croûte et le manteau de Mars. Le dôme de Tharsis s’est alors retrouvé sur l’équateur, ce qui correspond à sa nouvelle position d’équilibre.

Avant ce basculement, les pôles de Mars étaient donc différents. En 2010, Isamu Matsuyama (Université d’Arizona) avait déjà démontré grâce à un modèle géophysique que, si on retire le dôme de Tharsis de la planète, celle‐ci s’oriente différemment par rapport à son axe. Dans cette nouvelle étude, les géomorphologues Sylvain Bouley (Université Paris-Sud) et David Baratoux (Université Toulouse III – Paul Sabatier) montrent pour la première fois que les rivières étaient à l’origine réparties sur une bande tropicale sud d’une planète Mars tournant autour de pôles décalés d’une vingtaine de degrés par rapport aux pôles actuels. Ces pôles sont cohérents avec ceux calculés de manière indépendante par Isamu Matsuyama. Cette corrélation remarquable est confortée par des observations d’autres équipes scientifiques qui avaient déjà observé dans la région de ces anciens pôles des traces de fonte et de retrait de glaciers, et des preuves de glace souterraine.

Un tel basculement n’est pas anodin sur la physionomie de la planète. La forme de la planète dans cette configuration primitive a été recalculée par Isamu Matsuyama, afin d’en examiner les conséquences sur le visage de la planète Mars primitive. Cette étude modifie profondément le scénario généralement accepté, selon lequel le dôme de Tharsis se serait majoritairement formé avant 3,7 milliards d’années et préexisterait aux rivières puisque c’est lui qui leur imprimerait leur sens d’écoulement. A partir de la topographie calculée, Sylvain Bouley, Antoine Séjourné (Université Paris-Sud) et François Costard (CNRS) ont démontré que malgré un relief différent avec ou sans Tharsis, la plupart des rivières coulent, dans les deux cas, des hauts terrains cratérisés de l’hémisphère sud vers les plaines basses de l’hémisphère nord. Cette observation suggère que les rivières peuvent tout à fait être contemporaines de la formation du dôme de Tharsis.

La topographie de Mars avant le basculement permet également d’étudier le climat primitif de la planète. En utilisant les modèles climatiques du Laboratoire de météorologie dynamique, François Forget (CNRS) et Martin Turbet (UPMC) mettent en évidence, en présence d’un climat froid et d’une atmosphère plus dense que celle d’aujourd’hui, une accumulation de glaces autour de 25° Sud, dans les régions qui correspondent aux sources des rivières aujourd’hui asséchées.

Cette étude bouleverse notre représentation de la surface de Mars telle qu’elle a dû être il y a 4 milliards d’années, et modifie aussi profondément la chronologie des évènements. Selon ce nouveau scénario, la période de stabilité de l’eau liquide permettant la formation de vallées fluviales est contemporaine, et sans doute une conséquence, de l’activité volcanique du dôme de Tharsis. Le grand basculement déclenché par Tharsis a eu lieu après la fin de l’activité fluviale (-3,5 milliards d’années) et a ainsi donné à Mars le visage qu’on lui connaît aujourd’hui. Désormais, quand on s’intéressera à l’époque primitive de Mars – pour chercher des traces de vie ou d’un océan, par exemple – il faudra apprendre à penser avec cette nouvelle géographie.

mars
© Didier Florentz Le nouveau visage de la planète Mars primitive. Voici à quoi devait ressembler la planète Mars il y a 4 milliards d’années, d’après cette nouvelle étude. Une position différente des pôles, des précipitations sur une bande tropicale sud à l’origine des réseaux de rivières et des volcans actifs permettant au dôme de Tharsis de se développer et de faire basculer la surface de Mars après la fin de l’activité fluviale (survenue il y a 3,5 milliards d’années).

Source : cnrs

Ces emplois cadres qui se sont développés avec la transition énergétique

Dans l’énergie, l’impact de la transition énergétique est visible dans deux domaines.

Premièrement, on constate une montée en puissance des spécialistes en efficacité énergétique. En 2014, les offres d’emploi concernant les ingénieurs / chefs de projet en efficacité énergétique représentaient 12 % des offres étudiées dans le secteur de l’énergie, contre 6 % en 2005. Ces spécialistes en efficacité énergétique ont une compétence forte en génie énergétique et sont souvent employés par des bureaux d’études qui conseillent les entreprises et collectivités sur l’optimisation de leur consommation d’énergie.

Deuxièmement, on assiste au recrutement d’ingénieurs / chefs de projets en énergies renouvelables. En 2014, 8 % des offres analysées dans le secteur de l’énergie portaient sur ce type de poste, une proportion similaire à celle relevée en 2005. Les ingénieurs / chefs de projet en énergies renouvelables ont pour mission de développer et coordonner des projets d’installations d’équipements d’énergies renouvelables (parcs éoliens, unités de production de biomasse, centrales photovoltaïques) dans toutes leurs dimensions : études préalables ; lien avec les autorités administratives, les collectivités et les riverains ; suivi des travaux, etc. Certains de ces postes peuvent avoir une dimension plus technique : développement technologique, coordination technique des travaux d’installation, etc.

Dans l’industrie automobile, les constructeurs produisent les véhicules de demain qui seront écoconçus, basés davantage sur la propulsion électrique et qui seront plus connectés et communicants. Dans cette perspective, les phases et démarches de recherche et développement sont primordiales et doivent être intégrées dans les processus de conception et de fabrication. Par ailleurs, des verrous technologiques mais aussi sociétaux sont encore à lever pour proposer ce type de véhicules à un large public.
On observe ainsi une progression importante du poids relatif des offres du secteur pour des postes d’ingénieurs et chefs de projet en recherche & développement.

Ces métiers représentaient 18 % des offres diffusées par l’Apec en 2014, soit presque le double de la proportion relevée en 2005 (10 %). Il en est de même pour les métiers du numérique dans ce secteur.
Ainsi, les métiers d’ingénieur systèmes embarqués et d’ingénieur  logiciel représentaient 12 % des offres étudiées pour l’année 2014 dans le secteur, contre 7 % en 2005.

Dans le bâtiment, on constate le développement de certains métiers dans les bureaux d’études et les sociétés de service et de contrôle sur les calculs de performance énergétique. En outre, les experts du secteur rencontrés indiquent que des métiers de coordination pourraient servir de socle au développement de métiers directement liés à la transition énergétique. Ils évoquent par exemple le conducteur de travaux en rénovation énergétique ou le technico-commercial spécialisé en aménagement durable. On retrouve quelques exemples de ce type de poste dans les offres publiées par l’Apec en 2014.

Source : Etude menée par l’Apec « Transition énergétique : Impacts sur les métiers cadres »

Changement de carrière : les 4 signes qui ne trompent pas

Nouvelles compétences ? Nouvelles responsabilités ? Nouvelles stratégies d’entreprises ? Vous avez l’impression que ces notions sont floues dans votre tête ? C’est le signe que les choses commencent à devenir un peu  lassantes professionnellement non ?

Je sais ce que vous vous dites. J’ai un bon boulot, dans une entreprise réputée, j’aime bien mes collègues et en plus mon boss est sympa. Là aussi je sais ce que vous vous dites : Garder cette situation telle quelle jusqu’à la fin de ma carrière serait un accomplissement non négligeable.

Si par contre votre tempérament vous entraine plutôt à toujours voir plus haut, dans votre métier mais aussi dans votre vie professionnelle, il est temps pour vous de comprendre à quel point le métier que vous exercez affecte votre carrière ET votre vie personnelle.

Vous ne serez promu que si votre chef s’en va…

… ou se fait renverser par un bus en arrivant au travail ! Si vous faites partie de ces structures d’entreprise extrêmement verticales, où tout le monde essaie de grimper à la même échelle,  et que votre supérieur est parti pour rester un bout de temps, alors prenez conscience qu’une grosse promotion n’est probablement pas à l’ordre du jour.

Si tel est le cas, vous devez alors vous entretenir avec votre supérieur. Il y a peut-être des responsabilités auxquelles vous n’aviez pas songé et qui sont potentiellement de votre ressort. Et s’il n’y a pas d’occasion nouvelle pour vous dans votre département, peut-être qu’il faut changer de département ! Une fois cela accomplit, eh bien si vous en êtes toujours au même point c’est que vous êtes plus près de la sortie que le contraire.

Vous éviterez de renouveler ce genre de mésaventures en posant les bonnes questions dans vos prochains entretiens d’embauche. Des questions comme : « quelle est la politique de l’entreprise en ce qui concerne l’évolution de carrière de vos employés ? », ou encore « quel est le parcours classique de nouveaux arrivants chez vous après quelques années ? »

Se faire accepter par son entourage pro est très important pour accumuler les promotions

Si vous n’êtes pas promu alors que vous êtes persuadé de réunir toutes les compétences pour l’être, c’est que quelque chose ne tourne pas rond et vous empêche d’atteindre votre but. Quelque chose ou quelqu’un. Il est donc important de discuter autour de vous, avec votre supérieur également, pour comprendre ce qui ne va pas. Il est possible que ce qui vous sépare de la promotion que vous voulez soit un trait de votre comportement dont vous ignorez qu’il est mal perçu par votre entourage professionnel direct. Il se peut également qu’un problème humain soit à l’origine de votre stagnation. Le savoir ne résoudra pas le problème immédiatement, mais vous donnera les éléments nécessaires pour affiner votre réflexion.

Si les raisons évoquées – depuis quelques temps – pour justifier votre absence de promotion sont floues et que personne ne semble pouvoir vous donner des explications satisfaisantes, alors la solution devient plus évidente. Selon toute vraisemblance vous êtes au placard.

Comment votre entreprise se comporte-t-elle sur son marché ?

En temps de crise, les entreprises ont tendance à se replier sur elles-mêmes, à assurer leurs arrières et consolider ce qui peut l’être. Mais ce n’est pas tout le temps la crise. Quand la crise est passée, quelle est la réaction de la direction ? Le PDG a-t-il la volonté de faire repartir l’entreprise de l’avant ? A-t-il changé sa façon de justifier certains de ses refus concernant vos demandes ? Le retour à une économie moins morose doit être observé attentivement. Soit  votre entreprise profite d’une économie plus clémente pour entreprendre et innover, soit elle reste en retrait de ses concurrents, pour assurer ses arrières. Ces signes sont fondamentaux pour vous permettre de repérer les indices positifs et négatifs quant à l’avenir de votre entreprise.

Si votre entreprise enchaine les plans sociaux, gèle les salaires, que les offres d’emplois diminuent, que tous les acteurs majeurs de votre secteur, sauf votre entreprise, prennent une certaine direction… vous tenez alors tous les indices pour faire le choix qui s’impose.

Le secteur industriel dans lequel vous évoluez est dans l’impasse

Ce dernier point nécessite une certaine prise de recul. Il est courant, normal, que des secteurs entiers de l’industrie déclinent quand d’autres secteurs innovants observent une forte croissance. Il est souvent difficile d’appréhender ce genre de changements avec justesse, d’autant plus quand on est dans l’action. Mais soyez objectifs. Passé le petit coup de blues, vous rendre compte que votre secteur d’activité n’est plus porteur vous épargnera de lourdes déceptions bien plus tard.

Y a-t-il des bonnes nouvelles ?  OUI ! Beaucoup de gens font des changements de carrière drastiques qui sont couronnés de succès. Profitez de ce changement de cap pour faire le point. Quels sont les pans de votre métier qui vous passionnent ? Quelles ont les activités des salariés de votre entreprise qui vous font envie. Comment verriez-vous votre activité à l’avenir ? Prenez tous ces facteurs en compte avant de choisir le domaine d’activité dans lequel vous allez vous lancer.

Une fois le problème identifié, il vous faut agir. Pour ne rien vous cacher, cette mise en action aboutira de manière certaine – je l’espère pour vous – à une recherche d’emploi. Si vous n’êtes pas encore prêt pour vous mettre en mode recherche, préparez le terrain, améliorez votre réseau – ou créez-en un nouveau – avant de vous lancer dans votre nouvelle vie !

Par Lily Zhang

Source : http://uk.businessinsider.com/4-signs-its-time-for-a-career

30 petits neurones unis contre la douleur

Ce coup de marteau sur les doigts du bricoleur du dimanche a dû lui faire mal. Mais il aurait eu encore plus mal si l’ocytocine, un peptide synthétisé par une région du cerveau appelée hypothalamus, n’intervenait pas très tôt dans les processus cérébraux modulant la réponse douloureuse. De la contraction de l’utérus au moment de l’accouchement, à l’éjection du lait maternel après la naissance, en passant par son implication dans la régulation des interactions sociales, de l’anxiété ou de la douleur, l’ocytocine est un messager essentiel mais, pour l’instant, assez mystérieux. En effet, les mécanismes qui aboutissent à sa diffusion n’avaient jusqu’à présent pas été décryptés.

Une équipe internationale de chercheurs, coordonnée par Alexandre Charlet de l’Institut des neurosciences cellulaires et intégratives du CNRS, s’est penchée sur le processus de libération d’ocytocine lorsqu’une douleur est perçue. Elle a découvert que le centre de contrôle, dans le cerveau, qui coordonne la libération de l’ocytocine n’est constitué que d’une petite trentaine de neurones de l’hypothalamus.

Lors de douleurs aiguës ou d’une sensibilisation inflammatoire (brûlure, pincement, coupure, etc.), l’information est acheminée par les nerfs périphériques jusqu’aux neurones de la moelle épinière. Ceux-ci interprètent l’intensité du message et le codent en conséquence. L’information est alors adressée à d’autres neurones, parmi lesquels une petite population de 30 cellules de petite taille du noyau paraventriculaire de l’hypothalamus, identifiés par l’équipe d’Alexandre Charlet. En retour, ils activent une famille de gros neurones, les neurones magnocellulaires, dans une autre région de l’hypothalamus, qui libèrent l’ocytocine dans la circulation sanguine. La cible : les neurones périphériques qui continuent d’envoyer au cerveau le message responsable de la sensation douloureuse. L’ocytocine vient les « endormir » et de ce fait, diminuer la douleur.

© Thomas Splettstoesser - http://www.scistyle.com/ 30 petits neurones de l'hypothalamus exercent un double effet analgésique. En effet, ils provoquent une libération d'ocytocine à la fois dans la moelle épinière profonde, grâce à leurs longs prolongements (axones), et dans le sang afin d'inhiber les neurones sensibles au stimulus douloureux. Ces deux mécanismes sont représentés, respectivement, par la région en rouge dans la moelle épinière, et par la goutte de sang.
© Thomas Splettstoesser – http://www.scistyle.com/
30 petits neurones de l’hypothalamus exercent un double effet analgésique. En effet, ils provoquent une libération d’ocytocine à la fois dans la moelle épinière profonde, grâce à leurs longs prolongements (axones), et dans le sang afin d’inhiber les neurones sensibles au stimulus douloureux.
Ces deux mécanismes sont représentés, respectivement, par la région en rouge dans la moelle épinière, et par la goutte de sang.

Mais les trente donneurs d’ordre ne s’arrêtent pas là. En parallèle, le prolongement de ces cellules, appelé axone, qui mesure jusqu’à un mètre chez l’humain, atteint la plus profonde des dix couches de la moelle épinière. C’est précisément à cet endroit, où le message sensoriel est codé en intensité, qu’ils libèrent l’ocytocine. Ils diminuent donc, par deux voies simultanées, la reconduction du message douloureux au cerveau.

Les travaux de l’équipe ont donc permis d’expliquer la manière dont différentes populations de neurones à ocytocine se coordonnent afin de contrôler l’interprétation du message « douleur » par le système nerveux. La découverte de ce centre de contrôle analgésique est prometteuse dans le cadre du traitement des douleurs pathologiques. Cibler cette poignée de neurones permettrait en effet de limiter les effets secondaires d’un potentiel traitement. Pour l’heure, l’équipe continue de les étudier, cette fois-ci pour découvrir leur implication dans la libération de l’ocytocine permettant la lactation et certains comportements sexués.

Source : cnrs

Le numérique et la robotique, au service de l’agriculture

Le 29 février, les ministères de l’agriculture, de la recherche et de l’économie  ont lancé le plan « Agriculture innovation 2025 ». Parmi 4 priorités, ce plan retient la nécessité de développer le numérique et l’agriculture connectée.  La dynamique de recherche de nouvelles technologies de capteurs et de services numériques associés sera amplifiée. « L’appel à projets « Recherche Technologique » financé par le CASDAR sera renforcé et atteindra 4 millions d’euros/an, notamment pour développer des bio-capteurs à visée de prévention sanitaire précoce », font savoir les 3 ministères dans un communiqué conjoint.

Par ailleurs, ce plan vise à développer un portail de données agricoles pour faciliter l’accès à un ensemble de données permettant l’émergence de solutions nouvelles pour tous les acteurs de la filière agricole. Les services de l’Etat promettent également d’accompagner les startups agricoles pour mieux les structurer.

Des capteurs au service de l’agriculture

Les nouvelles technologies foisonnent d’applications pour le monde agricole. Informatique embarquée, GPS, applications mobiles, logiciels de gestion pour alléger les tâches administratives, financement participatif, drones, robotisation du travail agricole… sont autant de voies explorées par les agriculteurs !

Une large gamme de capteurs intelligents autonomes, embarqués sur les engins agricoles ou sur des drones, permettent d’optimiser les traitements grâce à une meilleure connaissance des besoins du sol et des plantes.

L’heure du Big data agronomique arrive !

Le traitement de données géolocalisées permet d’évaluer les besoins au quotidien, suivre l’état des sols et gérer les risques. L’agriculteur peut ainsi connaître au mieux les besoins d’arrosage, les besoins spatiaux en engrais ou en produits phytosanitaires, pour ne traiter que les parcelles nécessaires. Par exemple, Weenat propose des capteurs connectés permettant de mesurer la température de l’air, l’hygrométrie, la pluviométrie, la température du sol… et fournit l’information météorologique et agronomique à la parcelle en temps réel pour aider à la prise de décision. De son côté, Ekylibre fournit un logiciel permettant une gestion complète de l’exploitation via des solutions open source. Par ailleurs, Picore, un système embarqué sur les tracteurs permet à l’agriculteur d’optimiser les réglages de son pulvérisateur de produits phytosanitaires. Il peut ainsi facilement réduire les quantités épandues de 15 à 20 %.

Les robots, au service de l’agriculture

Les robots se développent dans les champs et dans les élevages. Les robots de traite sont déjà présents dans 3 800 exploitations agricoles de vaches laitières. Des robots d’alimentation se trouvent dans 7 % des élevages. Ce taux devrait atteindre 10 % d’ici 3 ans. Les robots d’intervention sous serre, en milieu fermé, commencent aussi à s’implanter.

Les chercheurs développent des robots de collecte de données pour l’élevage, la viticulture et l’arboriculture. Ils développent aussi  des robots d’entretien (semis, fertilisation, pulvérisation) et des robots d’assistance capables de suivre le pas de l’agriculteur pour lui épargner des tâches rébarbatives. Au Salon de l’agriculture, Terrena présente Oz, un robot de désherbage qui permet de s’affranchir des herbicides. Oz peut désherber mécaniquement 48 rangées de cultures de 100 mètres de long grâce à ses 4 heures d’autonomie.

Des robots autonomes capables d’aider à la récolte des fruits et légumes sont particulièrement attendus par les agriculteurs. Irstea démontre les performances du robot Effibot, issu du projet Baudet-Rob. Il s’agit d’un robot porteur chargé de transporter du matériel ou des produits en suivant automatiquement l’agriculteur pendant la récolte.

D’autres recherches sont encore en cours. Le projet « jeunes chercheurs » AdAP2E vise à réaliser un robot capable de traiter les vignes de manière autonome et d’aider à planifier et contrôler la pulvérisation en temps réel.  Le projet PUMAgri  cherche quant à lui à développer un robot désherbeur d’ici 2023 pour les filières du maraîchage, de la viticulture, de l’arboriculture, voir pour les grandes cultures.

Par Matthieu Combe, journaliste scientifique