Modéliser les interactions sociales pour améliorer les prises de décisions collectives

Ils ont ainsi identifié cinq comportements présents dans les deux pays : une majorité des sujets font un compromis entre leur opinion et celles des autres (59% des personnes en France), certains conservent leur opinion (29% en France), alors que les autres suivent fidèlement, amplifient, ou contredisent les informations reçues. L’étude montre également comment un groupe peut accroître collectivement ses performances et la précision de ses estimations grâce à l’information sociale. Ces analyses ont permis d’élaborer un modèle reproduisant les résultats de l’étude et prédisant la performance d’un groupe selon la quantité et la qualité de l’information échangée entre ses membres. L’objectif serait in fine de développer des algorithmes d’aide à la décision. Les résultats de cette étude sont publiés le 6 novembre 2017 dans la revue PNAS.

Nous interagissons de plus en plus grâce au développement des technologies et contenus numériques. Ainsi, les réseaux sociaux sont d’importantes sources d’informations sociales dont nous décidons de tenir compte ou non. De plus, de nombreux sites de commerce en ligne utilisent très largement des systèmes de réputation et de notation qui permettent à leurs clients d’exploiter les avis d’autres utilisateurs pour réaliser leurs propres choix. La quantité d’information à laquelle chacun d’entre nous est soumis est cependant bien trop importante pour être toujours traitée correctement, sans compter les fausses informations qui sont parfois difficiles à déceler.

Ces constatations appellent au développement d’outils d’aide à l’intelligence collective, pouvant favoriser le traitement de l’information et la prise de décision dans un groupe par l’intermédiaire des interactions sociales. Le groupe de chercheurs s’est donc intéressé à l’impact de l’information sociale, c’est-à-dire la manière dont nous sommes affectés par ce que font les autres. Dans quelles conditions cette information sociale peut-elle accroître l’efficacité de nos prises de décisions collectives ?

Les expériences réalisées ont impliqué 186 personnes en France et 180 au Japon. Chaque participant devait estimer des valeurs, telles que l’âge de Gandhi lorsqu’il est décédé ou le nombre d’étoiles dans notre galaxie, tout en précisant son degré de confiance dans sa réponse. Suite à cette étape, la moyenne des réponses de participants précédents – l’information sociale – lui était fournie, et le sujet devait répondre à nouveau pour donner son estimation finale. L’une des originalités de cette étude réside dans l’introduction d’agents virtuels contrôlés par les chercheurs, à l’insu des participants, et donnant systématiquement la bonne réponse. Ces agents, dont le nombre pouvait varier, influençaient donc favorablement l’information sociale transmise aux sujets.

Ces travaux montrent comment l’information sociale conduit le groupe à accroître collectivement ses performances et la précision de ses estimations. Ils permettent également de mesurer précisément la sensibilité des sujets à l’information sociale. Les chercheurs ont ainsi identifié cinq profils de sensibilité indépendants du biais culturel, car présents dans les deux pays. En France, l’analyse de près de 11000 réponses montre que 29% des personnes interrogées maintiennent leur opinion, 4% suivent strictement l’information qui leur est fournie et 59% font un compromis entre leur avis initial et l’information sociale. Par ailleurs, 6% des personnes amplifient l’information sociale reçue, pensant que le reste du groupe a, de la même manière qu’eux, sous-estimé sa réponse initiale. Enfin, 2% finissent par contredire leur propre estimation et celle du groupe, le plus souvent sans pouvoir justifier leur décision. En outre, plus l’estimation personnelle d’un participant est éloignée de l’information sociale reçue, plus ce sujet est sensible à cette information. Autre résultat plus surprenant, les scientifiques montrent que la performance d’un groupe peut être améliorée grâce à une quantité limitée d’information incorrecte, celle-ci compensant un biais cognitif humain consistant à sous-estimer des quantités.

Par ailleurs, un modèle mathématique basé sur ces expériences a été développé. Il reproduit fidèlement les mécanismes de sensibilité à l’information sociale observés expérimentalement et prédit l’impact de la quantité et de la qualité de l’information échangée entre les individus d’un groupe sur leur performance collective. La compréhension des processus gouvernant l’influence de l’information sociale sur les choix individuels et collectifs ouvre ainsi de nouvelles perspectives. Des algorithmes personnalisés pourraient être développés afin d’anticiper les différents types de réponses selon la forme des informations sociales reçues et ainsi contribuer à l’amélioration de la coopération et de la collaboration à l’échelle des groupes.

Modéliser les interactions sociales pour améliorer les prises de décisions collectives
© Guy Theraulaz Dispositif expérimental utilisé pour analyser l’impact de l’information sociale sur les performances de groupes de sujets dans des tâches d’estimation collectives.

 

Notes :

1 Les laboratoires français impliqués sont :
Le Centre de recherches sur la cognition animale (CNRS/Université Toulouse III – Paul Sabatier)
Le Laboratoire de physique théorique (CNRS/Université Toulouse III – Paul Sabatier)
TSE Recherche (CNRS/Université Toulouse 1 Capitole/INRA/EHESS) laboratoire de l’école d’économie de Toulouse

Références :

How social information can improve estimation accuracy in human groups. Jayles, B., Kim, H-R., Escobedo, R., Cezera, S., Blanchet, A., Kameda, T., Sire, C., and Theraulaz, G., Proceedings of The National Academy of Sciences USA (sous presse)
DOI: www.pnas.org/cgi/doi/10.1073/pnas.1703695114

Source : cnrs

La COP23 lance une année clé pour le climat

La COP23 a été l’occasion de dresser un constat alarmiste de la situation climatique. La conférence s’est ouverte sur fond d’une année 2017 marquée par les catastrophes naturelles. L’ONU a jugé la situation du climat «catastrophique».

Elle a appelé l’urgence de revoir l’ambition des engagements nationaux pris lors de l’Accord de Paris pour limiter le réchauffement climatique à 2°C maximum d’ici 2100. Car la trajectoire actuelle mène la planète vers un réchauffement de 3°C. 15.000 scientifiques ont rejoint le débat pour alerter le monde sur l’urgence climatique. Et le rapport annuel du Global Carbon Project projette une hausse des émissions de gaz à effet de serre de +2 % en 2017, après trois ans de stabilité. Elles atteindront un record de 36,8 milliards de tonnes. Pour finir, les Etats-Unis ont confirmé leur volonté de sortir de l’Accord de Paris en 2020.

Quelles avancées à la COP23 ?

Le bilan n’est pas tout noir et il y a eu des avancées. La COP23 a notamment lancé le dialogue dit de Talanoa, «un dialogue facilitateur». Il  vise à revoir l’ambition des engagements étatiques d’ici 2020 en vue de mettre le monde sur la trajectoire d’un réchauffement sous les 2°C. Les pays auront douze mois pour répondre aux questions «Où sommes-nous ? Où voulons-nous aller ? Et comment y arriver ?»  Les décisions de fond sont donc renvoyées à la COP24, en décembre 2018 à Katowice, en Pologne. Mais l’Accord de Paris n’étant pas juridiquement contraignant, les différents engagements resteront volontaires. Rien ne garantit donc qu’ils suffiront à combler le fossé avec les besoins réels.

La COP23 a aussi été l’occasion de lancer de nouvelles alliances mondiales. Citons par exemple l’Alliance pour la sortie du charbon qui réunit 25 pays, États et régions, y compris la France. Elle vise à accélérer l’élimination du charbon et aider les travailleurs et les communautés touchés à faire leur transition. On regrettera néanmoins que cette alliance ne représente qu’une faible part de la consommation mondiale de charbon. Et l’absence d’engagements sur cette question de la Chine, de l’Inde, de l’Asie du Sud-Est ou encore de l’Allemagne.

Il y a eu aussi des avancées dans plusieurs autres secteurs. « Nous quittons Bonn avec, à notre actif, quelques réussites significatives, comme notre Ocean Pathway, l’accord historique sur l’agriculture ou encore celui sur le Plan d’action pour l’égalité des sexes et la Plateforme des peuples autochtones, relate Frank Bainimarama, président de la Conférence et Premier ministre des Fidji. Nous avons également obtenu plus de financement pour l’adaptation au changement climatique et lancé un partenariat mondial pour fournir à des millions de personnes vulnérables au climat, dans le monde entier, l’accès à un régime d’assurance abordable. »

Le One Planet Summit à Paris

Si la COP23 s’est clôturée le 18 novembre, les débats ne sont pas pour autant achevés pour l’année. Le déblocage des 100 milliards de dollars par an d’ici 2020 pour aider les pays en développement à prendre des mesures en faveur du climat pâtine toujours. Ainsi, la France organise le One Planet Summit à Paris le 12 décembre. Ce sommet devrait dévoiler de nouveaux engagements financiers. Ce sera l’occasion de mettre en évidence les premiers résultats concrets du combat climatique. Mais surtout de mobiliser les financements publics et privés et mettre sur la table le plan de bataille à venir. Emmanuel Macron souhaite aussi qu’il soit l’occasion de montrer que les engagements des villes, des Etats et des entreprises américaines sauront compenser le retrait du gouvernement fédéral de l’Accord de Paris.

Par Matthieu Combe, journaliste scientifique

En route pour des modulateurs acousto-optiques nanométriques

Les modulateurs acousto-optiques (MAO ou AOM en anglais) sont des systèmes qui permettent de modifier l’intensité d’ondes lumineuses via des ondes sonores. Ces MAO sont notamment utilisés dans des lasers pour la commutation-Q (technique de lasers pulsés), pour moduler des signaux de télécommunication ou pour le contrôle de fréquence en spectroscopie. Actuellement, un modulateur acousto-optique est composé d’un cristal dans lequel des ondes acoustiques sont générées et qui forment un réseau de diffraction. Ce réseau permet de moduler la lumière qui le traverse de manière dynamique par l’interaction entre ondes sonores et ondes lumineuses. Comme l’effet est faible par rapport au volume du cristal, il faut à la fois que le volume soit suffisant et que la modulation intervienne sur un temps long. Mais, des chercheurs de l’institut Femto-ST proposent, dans un article de la revue Optica, un modèle pour des MAO nanométriques.

modulation-lumiere-nano

La surface plutôt que le volume

Dans le modèle proposé par ces chercheurs, les interactions se produisent en fonction de la surface plutôt que du volume. En outre, le fonctionnement s’appuie sur une double résonance permettant d’atteindre une forte modulation dans les longueurs d’onde du proche infrarouge.

Le système présenté est composé d’un réseau de fentes en argent de 100nm de largeur et 300nm de hauteur disposées sur un substrat piézoélectrique de niobate de lithium. Quand les ondes acoustiques (signal radio) excitent ces fentes, elles vibrent à la manière d’un diapason et leur géométrie fluctue. La lumière qui passe dans ces fentes subit un phénomène de résonance qui dépend de leur forme. Dans les travaux décrits par les chercheurs, pour une fréquence acoustique de 0,5 GHz les fentes fléchissent d’une amplitude de 30nm et provoquent une modulation optique à 80% dans le proche infrarouge.

Cette structure nano-optique devrait pouvoir trouver des applications pour des outils photoniques ultra compacts.

Sophie Hoguin

Origine de la vie : une nouvelle pièce dans le puzzle moléculaire

Les scientifiques qui étudient les origines de la vie sur Terre s’accordent à dire que la phosphorylation est une réaction chimique centrale et essentielle pour l’assemblage de trois ingrédients clés des premières formes de vie : nucléotides pour stocker de l’information génétique, acides aminés pour initier les protéines qui assurent le travail cellulaire et précurseurs de grandes chaînes lipidiques pour former des structures d’encapsulation comme les parois cellulaires.

Jusqu’à maintenant, personne n’a réussi à trouver un agent de phosphorylation qui puisse à la fois avoir été plausiblement présent au début de l’existence de la Terre et qui puisse être capable d’initier la phosphorylation de ces trois classes de molécules dans des conditions identiques et réalistes.

Un agent unique ?

Les chimistes du TSRI (The Scripps Research Institute) en Californie pensent avoir trouvé le candidat idéal: le diamidophosphate (DAP).

Précédemment, L’équipe de Ramanarayanan Krishnamurthy avait montré que le DAP pouvait efficacement phosphoryler une variété de sucres simples pour construire des hydrates de carbones contenant des groupement phosphores que l’on suspecte d’être impliqués dans les premiers stades de la vie.

Cette fois, dans l’article de Nature où les chercheurs relatent leur découverte, le DAP s’est révélé capable d’initier la phosphorylation et la construction de chaînes de l’ensemble des classes de molécules que l’on retrouve dans les cellules.

L’action du diamidophosphate a été mise en évidence tout d’abord dans la phosphorylation de quatre nucléosides qui forment les briques élémentaires de l’ARN. La réaction s’est tenue dans de l’eau ou dans un milieu apparenté et ce sous une large plage de températures et des conditions très diverses. En ajoutant un autre catalyseur, l’imidazole, un composé organique simple que l’on pense présent facilement aux premiers âges de la Terre, l’activité du DAP a aussi amené à des chaînes de ces quatre blocs, ressemblant à des brins d’ARN.

Reprenant alors le même modus operandi, les chimistes ont montré que l’alliance DAP + imidazole permettait à des molécules élémentaires des lipides comme le glycérol et des acides gras de s’assembler pour former de petites capsules de phospholipides, des vésicules que l’on pourrait assimiler à des versions primitives des cellules.

De la même manière, le DAP dans de l’eau à température ambiante a aussi entraîné une réaction de phosphorylation de trois acides aminés (glycine, acide aspartique, glutamate) et les a aidés à construire une petite chaîne peptidique – une version courte d’une protéine.

La preuve impossible

Evidemment, plusieurs milliards d’années plus tard, il est difficile de prouver que c’est vraiment le DAP qui était présent à l’origine pour tous ces processus. La seule chose que l’on peut dire c’est que la chimie du DAP est très proche de ce qui se passe au cœur du métabolisme cellulaire aujourd’hui. L’équipe de Ramanarayanan Krishnamurthy compte poursuivre les recherches sur le DAP et devrait s’associer à des géochimistes pour identifier les sources potentielles de DAP ou d’un autre composé agissant de la même manière dans l’environnement de la Terre primitive. Une quête qui va de pair aussi avec le travail des astrobiologistes qui depuis quelques années découvrent des molécules prébiotiques dans le gaz et la poussières de l’espace interstellaire.

Sophie Hoguin

Ciel, mon avion a été piraté !

Le doute n’est plus permis. Comme d’autres moyens de transport, les réseaux de communication des avions présentent des failles de sécurité. Cette fois, ce ne sont pas quelques hackers qui alertent l’opinion et les autorités, mais les autorités elles-mêmes qui le démontrent !

Même cela remonte à septembre 2016, l’information révélée récemment donne froid dans le dos. Des experts du Département de la Sécurité intérieure des États-Unis ou DHS (Department of Homeland Security) ont réussi à prendre le contrôle d’un Boeing 757.

Cette opération de hacking a été présentée le 8 novembre dernier par Robert Hickey, chef de programme aviation au sein de la division cybersécurité du directoire Science & Technologie du DHS, à l’occasion du CyberSat (Security in Aerospace) Summit en Virginie

Équipements radio : le maillon faible ?

Jusqu’à présent, il fallait entrer en contact physiquement avec l’avion pour tenter d’infiltrer ses connexions. En 2014 et 2016, des chercheurs en sécurité avaient réussi à accéder à l’avionique en exploitant des vulnérabilités dans des systèmes de divertissement embarqué (IFE). Mais cette fois, les hackers n’ont pas eu besoin de « toucher à l’appareil ; je n’avais pas de complicité interne », a déclaré Robert Hickey. Ils sont passés par des équipements radio. Difficile d’en savoir plus, car les détails techniques de l’opération conduite par le DHS sont classés secret défense.

« D’un point de vue technique si tout est sur le même réseau alors, c’est assez simple d’infiltrer dès que vous avez une prise RJ45. Il est possible aussi d’intercepter des ondes radio», constate un spécialiste français qui s’inquiète à propos de la flotte assez ancienne.

« Aujourd’hui, les avions sont totalement cybersafe. Le système informatique concernant le pilotage de l’appareil est physiquement séparé de celui dont les passagers se servent par exemple pour utiliser l’internet », explique Patrick Ky lors de la conférence « Cybersécurité dans l’aviation civile » qui s’est tenue le 8 novembre dernier en Pologne. Implicitement, le patron de l’Agence européenne de la sécurité aérienne (EASA) confirme les inquiétudes de notre expert français à propos des avions moins récents…

Or lors du colloque américain, Robert Hickey a précisé que « changer une ligne de code dans les avions coûte un million de dollars et prend un an ». Heureusement , le Boeing 757 n’est plus en production depuis 2004, mais la majorité des autres modèles reprenne de nombreuses caractéristiques du 757. « Ils représentent plus de 90 % des avions commerciaux encore utilisés aujourd’hui », a-t-il précisé. Il n’y a que les Boeing 787 et l’Airbus A350 qui ont été conçus dans un souci de sécurité.

L’erreur humaine

Mais les appareils ne sont pas les seuls « maillons faibles » du transport aérien. Des compagnies et des aéroports ont été victimes de piratage. Ce fut le cas en 2015 pour la compagnie polonaise Lot qui avait dû suspendre ses opérations. Plus récemment, les cyberattaques visant l’Ukraine ont eu un impact sur l’aviation notamment.

Et il ne faut pas oublier l’erreur humaine. En mai 2017, le code d’accès aux cockpits (instaurés après les attaques du 11 septembre 2001) des avions de la United Airlines aurait été divulgué par erreur. Un membre de l’équipage aurait mis en ligne les codes d’accès secrets par inadvertance. Il a fallu réinitialiser les codes d’accès de toute la flotte…

Par Philippe Richard

Piratage : transformer un robot en tueur

Selon le cabinet d’analystes, ABI Research, le marché des robots pour le grand public, pourrait atteindre 6,5 milliards d’ici quelques années. Tous les grands noms de l’high-tech commencent à s’intéresser à ce secteur, développent des projets ou commercialisent leurs modèles.

Leur principal objectif est l’ergonomie et l’imitation de la gestuelle humaine ou animale. Mais ces robots sont des objets connectés ; comme un ordinateur, ils pourraient donc être piratés ! Ces fabricants ont-ils intégré ce risque pour leurs clients, mais aussi pour elles, en terme d’image de marque ?

Tournevis

Apparemment, ce type de menace est loin d’être leur priorité. Pour l’instant ! Car les démonstrations de piratage se multiplient. La dernière en date a été menée par des hackers de l’IOActive, une entreprise américaine spécialisée en sécurité informatique, connue pour avoir révélé des vulnérabilités concernant des smartphones et des voitures.

Diffusés sur le web, leurs tests font froid dans le dos. Ils ont pu en effet modifier le comportement de robots afin qu’ils aient des comportements dangereux (prendre un tournevis et l’enfoncer sur tout ce qui se présente devant eux) ou pour écouter et voir leurs propriétaires sans que ces derniers ne le sachent.

L’une des vidéos prête à sourire avec ce robot Alpha 2 (du chinois UBTech) qui enfonce un tournevis dans une tomate. Imaginons la même scène avec une fourchette et un bambin… Tous les grands noms du secteur comme Softbank (avec ses robots NAO et Pepper), UBTech ou encore Universal présentent des failles qu’il est possible d’exploiter.

Jouets connectés, jouets piratés…

Le bilan est d’autant plus inquiétant que les marques semblent indifférentes à ce type d’alerte. Parmi la cinquantaine de robots testés, seulement quelques-uns ont vu leur système de sécurité logiciel renforcé alors que les tests ont été menés par l’IOActive il y a quelques mois…

Hélas, cette négligence ne concerne pas uniquement les fabricants de robots. Il y a quelques mois, l’association de consommateurs britannique Which? en collaboration avec l’Allemande Stiftung Warentest, avait mené des tests de sécurité sur les jouets connectés. Sur 7 produits testés, 4 se sont révélés vulnérables aux piratages. Très souvent, la connexion sans fil Bluetooth n’était pas assez sécurisée.

Bref, il s’agit dans la plupart des cas de failles connues et qui sont répertoriées sur le web… Certes, le risque zéro n’existe pas. Mais les marques jouent peut-être avec leur réputation.

Par Philippe Richard

Mémoire : des images vues pendant quelques secondes, reconnues une dizaine d’années plus tard

Le nombre de répétitions ou encore la dimension émotionnelle sont connus dans ce processus de mémorisation sur le long terme mais qu’en est-il d’une information sans réel contenu émotionnel et vue un petit nombre de fois ? C’est pour répondre à cette question que des chercheurs du Centre de recherches cerveau et cognition (CNRS/Université Toulouse III – Paul Sabatier)1 ont rappelé des participants qu’ils avaient testés au laboratoire il y a environ dix ans pour mettre à l’épreuve une nouvelle fois leur mémoire. Les résultats obtenus montrent que des images vues pendant quelques secondes peuvent être reconnues une dizaine d’années plus tard. Ces travaux sont disponibles en ligne depuis le 5 novembre 2017 dans le journal Cognition.

Lors de tests en laboratoire, il est difficile de contrôler les paramètres d’apprentissage dans le processus de mémorisation. Il est pourtant connu que plus une information est présentée et plus celle-ci pourra être maintenue en mémoire sur le long terme. Ou encore, qu’une seule exposition peut suffire pour conserver un souvenir tout au long d’une vie lorsque la dimension émotionnelle est impliquée.

Dans cette étude, les chercheurs ont pu maitriser ces paramètres clés – contexte émotionnel et nombre de répétitions – pour étudier une nouvelle forme de mémorisation. Pour ce faire, 24 participants, précédemment testés au laboratoire il y a environ dix ans et ne présentant pas de troubles de mémoire particuliers, ont été rappelés pour de nouveaux tests. A l’époque, des images très simples de type « clipart » leur avaient été présentées successivement quelques secondes seulement sans instruction particulière de les mémoriser. Les participants recontactés en 2016 ont dû identifier l’image qu’ils avaient vue dix ans plus tôt parmi deux choix d’images possibles.

En moyenne, les participants ont obtenu une performance de 55% de réponses correctes. Un score qui se révèle supérieur à celui de participants qui n’avaient jamais vu ces images auparavant (51%). De plus, les chercheurs ont montré que ce pourcentage montait à 57% de réponses correctes pour les images vues trois fois ou plus initialement et pouvait aller jusqu’à 70% pour certains participants (un tiers des sujets ont eu 60 à 70% de réponses correctes).

Dans les conditions de l’expérience, il semble donc que trois présentations puissent suffire pour maintenir une image en mémoire pendant 10 ans. Bien qu’un maintien en mémoire à un niveau implicite (c’est-à-dire sans accès conscient) était déjà connu depuis quelques années, cette nouvelle étude montre en plus que ces traces en mémoire peuvent influencer de manière directe le choix des participants allant, jusque dans certains cas, à produire un fort sentiment de familiarité.

Les chercheurs tentent maintenant de comprendre comment une telle mémorisation est possible d’un point de vue biologique. Les chercheurs suggèrent que ces mémoires puissent être sous-tendues par un petit groupe de neurones hyperspécialisés plutôt qu’un large réseau de neurones distribués.

Notes :

1En collaboration avec une chercheuse de l’institut de neurosciences des systèmes (AMU/INSERM)

Références :

Extremely long-term memory and familiarity after 12 years, C.Larzabal, E.Tramoni, S.Muratot, S.Thorpe, E.Barbeau, Cognition, 170: 254-262, doi: 10.1016/j.cognition.2017.10.009 Consulter le site web

Challenge « Industrie du Futur » : une finale riche en rebondissements

Une centaine de personnes étaient présentes pour assister à la finale du Challenge « Industrie du Futur », sur le site de SKF à St-Cyr-sur-Loire. Start-ups finalistes, collaborateurs et clients de SKF, Atos et Techniques de l’Ingénieur composaient l’assemblée.

Lancé en mai dernier par SKF et Atos, en partenariat avec Techniques de l’Ingénieur, pour accompagner la transformation digitale des usines de SKF en France, ce challenge a mis en lumière 14 start-ups françaises porteuses de solutions innovantes pour l’industrie.

Ce mercredi 8 novembre, les finalistes ont eu l’opportunité de pitcher devant plus de 100 personnes pour présenter leurs projets et tenter de décrocher l’un des 4 prix en jeu (Prix SKF, Prix Atos, Prix Industrie 4.0 et Prix Coup de Cœur).

2 lauréats du Prix Coup de Cœur

A l’issue de chaque pitch, le public était invité à évaluer les start-ups pour déterminer celle qui recevrait le Prix Coup de Cœur.  A la surprise générale, avec plus de 500 votants, cumulant les résultats des votes en salle et les votes sur le site Techniques de l’Ingénieur en octobre dernier, deux start-ups sont arrivées ex æquo !

Yves Valentin, Directeur Général de Techniques de l’Ingénieur, a donc remis le Prix Coup de Cœur aux start-ups Enovasense, spécialisée dans le contrôle non destructif, et Skeyetch, concepteur de drone pour la sécurité des sites industriels. Toutes deux ont remporté un accès à la ressource documentaire Techniques de l’Ingénieur de leur choix, pour une valeur de 3 000€.

Remise du Prix Coup de Coeur
Remise du Prix Coup de Cœur par Yves Valentin

Remise des Prix SKF, Atos et Industrie 4.0

Continuant sur sa lancée, Enovasense, finaliste dans la catégorie Matériaux & Procédés du futur, a également reçu le Prix SKF. Le Prix Atos a récompensé à nouveau Skeyetech, deux fois lauréate, et Tellmeplus, qui propose une solution pour automatiser la création de modèles prescriptifs. Toutes deux concouraient dans la catégorie Cybersécurité et Data science.

Enfin, le jury a distingué la start-up Energiency et son logiciel d’analyse de la performance énergétique de l’usine, avec le Prix Industrie 4.0.

Belle conclusion pour ces 14 start-ups qui, gagnantes ou non, ont eu la chance de participer à cette aventure aux côtés d’acteurs de renom et de présenter leurs solutions devant un public conquis. De quoi leur offrir visibilité et identification de nouvelles opportunités !

Retrouvez les présentations des 14 finalistes ici.

Glyphosate: la décision finale sera connue fin novembre !

Nouvel échec pour la Commission européenne sur le dossier du glyphosate. Lors de la réunion de ce matin, 14 pays ont voté pour un renouvellement du glyphosate de cinq ans dans l’Europe. Mais neuf pays ont voté contre. Parmi eux, on comptera la voix de la France, de l’Italie et de la Belgique. Et cinq pays, dont l’Allemagne, se sont abstenus. Ainsi, les pays en faveur du renouvellement ne représentent que 37 % de la population européenne. Pour passer, le vote devait obtenir la majorité qualifiée, à savoir 55 % des pays de l’Union européenne, représentant au moins 65 % de la population. Nicolas Hulot avait affirmé hier que la France ne voterait pas une autorisation supérieure à trois ans.

La Commission européenne aura le dernier mot

La proposition d’un renouvellement de cinq ans sera examinée par un comité d’appel fin novembre. Plusieurs issues sont alors possibles. Soit la proposition arrive à trouver une majorité qualifiée et elle est adoptée, soit il n y a pas de majorité qualifiée. Vu que ce comité est composé des représentants permanents des 28 Etats membres,  il semble peu probable que ces derniers changent de position en quelques jours.

En absence de majorité qualifiée, la commission européenne pourrait décider unilatéralement une extension de l’autorisation, comme elle l’a fait le 30 juin 2016. Mais le commissaire à la Santé, Vytenis Andriukaitis, a déjà rejeté plusieurs fois l’idée d’assumer seul la responsabilité d’une décision de renouvellement. Si la Commission ne prend pas cette décision unilatérale ou s’il y a une majorité qualifiée contre la proposition de la Commission, le glyphosate ne serait alors tout simplement pas réautorisé.

L’autorisation actuelle du glyphosate expire le 15 décembre prochain. En absence de renouvellement, il serait formellement interdit 18 mois plus tard.

Par Matthieu Combe, journaliste scientifique

Climate Policy Tracker décrypte les réglementations climatiques mondiales

Il peut être difficile de suivre les politiques climatiques pour les entreprises. En effet, selon la London School of Economics, il existe aujourd’hui environ 1.200 lois concernant le changement climatique dans 164 pays. Contre seulement 60 il y a 20 ans. Et depuis l’Accord de Paris, ces lois se multiplient pour mettre en oeuvre les contributions nationales (NDC). Elles transforment le paysage réglementaire pour les entreprises, secteur par secteur.

Suivre les réglementations climatiques mondiales

Un nouvel outil permettant de suivre l’évolution de ces réglementations vient d’être lancé : le Climate Policy Tracker. Il permet aux entreprises de suivre les politiques climatiques affectant leurs opérations et leurs chaînes d’approvisionnement dans différentes régions et pays. Pour le moment, l’outil inclut l’Union Européenne, les Etats-Unis, le Royaume Uni, la Corée du Sud, la Chine, le Japon, l’Inde, le Brésil et l’Afrique du Sud. D’autres pays sont à venir, tout comme certaines situations particulières, notamment des réglementations prises par des villes ou des régions.

Les entreprises peuvent rechercher les réglementations les plus pertinentes en les filtrant par activité et par pays. 15 activités y sont représentées, dont la cimenterie, la construction, l’énergie, la finance, l’alimentation, l’exploitation minière, la pharmacie, l’immobilier et les transports. Cet outil a été lancé par We Mean Business (WMB), une coalition engageant les entreprises à agir contre le réchauffement climatique et Business for Social Responsibility (BSR), un réseau mondial d’entreprises et d’expertise dédié au développement durable.

Le Climate Policy Tracker invite à l’action

Grâce à cet outil, les entreprises « peuvent être plus stratégiques dans leurs décisions d’investissement et tirer le meilleur parti de l’innovation, de la gestion des risques, de la compétitivité et des opportunités de croissance qu’offre la transition », estime WMB. En plus de fournir l’ensemble des réglementations et de rediriger vers les textes de loi en question, l’outil invite à l’action. Les entreprises peuvent voir ce qu’elles peuvent faire pour réduire le risque réglementaire, en s’appuyant sur la campagne Take Action de la coalition We Mean Business.

Déjà 630 entreprises sont engagées dans cette campagne/ Elles adoptent des mesures climatiques ambitieuses. Il y a les 317 entreprises qui s’engagent à adopter des objectifs de réduction d’émissions pour limiter le réchauffement à moins de 2°C. Mais aussi les 113 entreprises qui s’engagent à 100% d’énergies renouvelables. D’autres s’engagent à doubler la productivité énergétique (la production économique de chaque unité d’énergie consommée), d’autres à développer les véhicules électriques… «L’objectif est d’aider les entreprises à saisir l’une des opportunités d’affaires les plus significatives de ce siècle et de faciliter leur alignement sur la mise en œuvre de l’Accord de Paris», conclut David Wei, directeur du programme climat de BSR.

Par Matthieu Combe, journaliste scientifique

La réforme fiscale de Trump vise les renouvelables et protège les hydrocarbures

Le secteur vent debout

Le projet de loi présenté par les Républicains contient des articles visant les crédits d’impôt dont bénéficient les producteurs d’énergies renouvelables. La filière éolienne est la première touchée puisque son avantage est réduit d’un tiers, passant de 2,3 à 1,5 cents par kWh généré. Ce crédit d’impôt avait été négocié de haute lutte par le secteur et confirmé par un vote bipartisan (Républicains et Démocrates) en 2015 ce que n’a pas manqué de rappeler Tom Kiernan, président de l’American Wind Energy Association (AWEA) : «Malgré certains commentaires, cette proposition renie l’accord de réforme fiscale qui avait déjà été acceptée, et imposerait une hausse d’impôt rétroactive sur toute une industrie», déplore-t-il. L’association rappelle que les 3 759 MW éoliens actuellement en construction et 15 875 MW en développement pourrait pâtir de ce changement de cadre fiscal.

Les autres énergies renouvelables sont également impactées par le projet de réforme qui ne souhaite plus intégrer l’inflation dans les calculs des crédits d’impôts, ce qui élèvera mécaniquement les montants des taxes payées par les exploitants Enr. Les avantages fiscaux seraient supprimés au 1er janvier 2022 pour les Enr (éolien, solaire, pile à combustible, cogénération) et l’efficacité énergétique. La prime de 7 500 $ accordée aux acheteurs de véhicules électriques sera quant à elle supprimée. Une mauvaise nouvelle pour Tesla…

A l’inverse, les avantages fiscaux concédés à l’industrie pétrolière et gazière ont été, à de rares exceptions près, confirmés dans le texte de loi tout comme ceux liés à l’industrie nucléaire. Une décision qui intervient alors que les exploitants nucléaires ne parviennent plus à être rentables en raison de leurs coûts élevés, de la baisse des prix spot de l’électricité et de la concurrence féroce du gaz de schiste et des renouvelables.

Lobbying

Ces propositions doivent encore trouver une majorité à la Chambre des Représentants, puis au Sénat ce qui ne s’annonce pas si facile. En effet, Donald Trump ne bénéficie pas d’une majorité soudée, et les associations renouvelables mènent une campagne de lobbying actif auprès des représentants du Congrès pour amender le projet de loi. «La proposition de la Chambre mettrait en danger 100 000 travailleurs américains du secteur éolien et 500 usines américaines, y compris certains des emplois les plus dynamiques du pays. Nous attendons des membres de la Chambre et du Sénat qu’ils s’opposent à toute proposition qui ne respecte pas l’engagement (de 2015), et nous nous battrons pour que l’énergie éolienne continue de fonctionner en Amérique», a déclaré Tom Kiernan. Un premier signe en ce sens a été donné par Kevin Brady, élu Républicain siégeant au Comité responsable du texte, en indiquant que le projet pourrait encore être modifié.

Difficile pourtant de ne pas s’attendre à une baisse des investissements Enr aux Etats-Unis tant les signaux pro-hydrocarbures se multiplient au pays de l’Oncle Sam. Quelques jours après son intronisation, Trump a confirmé sa volonté de détricoter le Clean Power Act mis en place par Barack Obama pour favoriser les technologies propres. Il a également donné son feu vert à la construction de oléoducs contestés (Keystone XL et Dakota Access) qu’avait bloqués son prédécesseur. Plus récemment, et très discrètement, les Etats-Unis sont sortis de l’Extractive Industries Transparency Initiative, un groupe constitué de 52 pays s’engageant à plus de transparence dans le secteur des industries extractives (mine, pétrole et gaz) régulièrement mêlée à des scandales de corruption. Un nouveau signal négatif pour Corinna Gilfillan, directrice de Global Witness aux Etats-Unis : «Lorsque de grands groupes chinois et russes révèlent davantage d’informations sur leurs opérations internationales que leurs homologues américains, il faut se demander: que cherchent désespérément à cacher Exxon et Chevron ?». Une question à laquelle pourrait certainement répondre Rex Tillerson, ancien Pdg d’ExxonMobil, devenu responsable de la diplomatie américaine dans l’administration Trump…

Romain Chicheportiche

RTE pousse Hulot à reporter la baisse du nucléaire

Nicolas Hulot avait évoqué cet été la possible fermeture de «jusqu’à dix-sept» réacteurs nucléaires pour respecter l’objectif de la loi de transition énergétique française. Mais RTE est en charge de vérifier l’adéquation des objectifs de transition énergétique avec le réseau électrique français. Et le rapport du gestionnaire du réseau de transport d’électricité est formel: il n’est pas possible de réduire la part à 50 % en 2025 tout en fermant les centrales à charbon et en baissant les émissions de gaz à effet de serre.

Premier enseignement du rapport : les marges de manoeuvre seront très faibles cet hiver et ce jusqu’en 2020. RTE n’écarte pas la possibilité de procéder à des coupures d’électricité en cas de froid intense.

La fermeture des centrales au fioul françaises qui servaient de moyens de pointe en hiver ne sera pas compensée avant 2020. À cet horizon, les marges hivernales augmenteront grâce aux économies d’énergie, aux nouveaux parcs éoliens offshore, à une nouvelle centrale au gaz et à trois nouvelles interconnexions avec l’Angleterre et l’Italie, note RTE.

Réduire le nucléaire ou baisser les émissions de CO2?

Les marges nouvellement gagnées permettront alors soit de fermer les centrales à charbon soit les quatre réacteurs nucléaires atteignant 40 ans de fonctionnement. Mais «ces deux mesures ne peuvent être engagées conjointement», met en garde RTE. Cela sera donc soit les centrales à charbon, soit quatre réacteurs nucléaires. Et vu que le Plan Climat de Nicolas Hulot présenté en juillet prévoit la fin de la production électrique à partir de charbon d’ici 2022, le ministre peut difficilement repousser cette date.

Pour réduire la part du nucléaire à 50 % d’ici 2025, il faudrait fermer «de l’ordre de vingt-quatre» réacteurs nucléaire de 900 MW, estime RTE. Outre le maintien des centrales à charbon, il faudrait passer de 11,7 gigawatts (GW) d’éolien terrestre en 2016 à 30 GW en 2025 et de 6,7 GW de photovoltaïque à 24 GW. Et construire 11 GW de nouvelles centrales au gaz. Le mix électrique présenterait ainsi une part de 50 % de nucléaire, 34 % d’énergies renouvelables et 16 % de thermique contre 9 % en 2016. Mais dans ce scénario, les émissions de CO2 du système électrique français doubleraient, passant de 22 millions de tonnes (Mt) à 42 Mt en 2025.

Nicolas Hulot ne veut pas renier les engagements climatiques. Son Plan climat prévoit aussi la neutralité carbone en 2050.Il a donc décidé de repousser l’objectif hérité du précédent quinquennat. Le ministre promet toutefois que l’objectif de 50 % ne passera pas à la trappe. Il se donne quelques mois pour définir une «date réaliste». C’est-à-dire une date qui évite de devoir «relancer la production d’électricité à base d’énergies fossiles» sur la base des travaux de RTE.

Quel est le scénario réaliste pour RTE ?

En plus du scénario pour 2025, RTE en a établi quatre autres jusqu’en 2035. Le scénario le moins émetteur envisage de réduire les émissions à 9 Mt à cet horizon. Si la part du nucléaire reste dans ce cas à 56 % en 2035, l’objectif de 40 % d’énergies renouvelables dans le mix électrique serait en revanche respecté. Le scénario le plus ambitieux pour la réduction de la part du nucléaire qui atteindrait 11% en 2035 est aussi le plus émetteur : 32 Mt. Si ce scénario prévoit 52 GW d’éolien terrestre, 48 GW de photovoltaïque, il nécessiterait aussi 21 GW de nouvelles centrales au gaz.

Deux scénarios prévoient d’atteindre l’objectif des 50% de nucléaire en 2030 et conduisent à des émissions de CO2 comprises entre 12 et 19 Mt en 2035. Ils entérinent tous deux la fermeture des centrales au charbon. C’est sans doute le scénario le moins émetteur qui devrait retenir l’attention du ministre. Il ne demande pas de nouvelles centrales au gaz (contre 10 GW pour le scénario à 19 Mt) et mise sur 52 GW d’éolien et 48 GW de photovoltaïque.

Par Matthieu Combe, journaliste scientifique

Réchauffement climatique: une bombe pour la santé publique

C’est une nouvelle collaboration de recherche internationale qui va faire parler d’elle. Associant 24 institutions, dont l’OMS et la Banque mondiale, l’initiative Compte à rebours du Lancet : suivi des progrès sur la santé et la lutte contre les changements climatiques publiera désormais un rapport annuel de suivi des progrès en matière de santé et de climat dans le journal The Lancet. Cette initiative fait suite aux conclusions de la Commission 2015 du Lancet pour qui le changement climatique menaçait d’effacer tous les gains enregistrés en matière de santé publique depuis 50 ans. Et la première édition est riche d’enseignements.

D’abord, le réchauffement climatique n’est pas uniforme sur Terre. Et les populations sont malheureusement concentrées dans les zones où celui-ci est le plus important. Notamment en Inde, dans certaines parties de la Chine et en Afrique sub-saharienne. «Le réchauffement moyen auquel ont été confrontés les humains est de 0,9°C entre 2000 et 2016, soit plus du double de la hausse de la température moyenne mondiale sur la même période (0,4°C)», estime le rapport.

La population mondiale menacée par la chaleur

Ainsi, le nombre de personnes de plus de 65 ans exposées à des vagues de chaleur dans le monde a augmenté de 125 millions entre 2000 et 2016. Un nouveau record a été enregistré en 2015, à hauteur de 175 millions. Les experts s’attendent à ce que près d’un milliard de personnes supplémentaires soient exposées à des vagues de chaleur d’ici 2050.

Par ailleurs, la hausse des températures affecte particulièrement la productivité des travailleurs qui évoluent en extérieur en milieu rural. Le rapport estime que leur productivité a diminué de 5,3 % depuis 2000. En 2016, ce sont ainsi plus de 920.000 personnes qui ont été exclues du marché du travail, dont 418.000 en Inde.

Un air pollué qui condamne les plus pauvres

Dans le monde, 71% des 2.971 villes suivies par l’OMS présentent une concentration moyenne annuelle de particules fines (PM 2,5) dans l’air supérieure au seuil conseillé de 10 microgramme par mètre cube (µg/m3). L’exposition globale a augmenté de 11,2 % depuis 1990. Cela signifie que des milliards de personnes dans le monde sont exposées à des niveaux dangereux de particules fines. En France, cette concentration est en moyenne de 12 µg/m3, avec un pic national de 22 µg/m3 à Pantin.

La mauvaise qualité de l’air a des répercussions sur la santé en augmentant les taux d’accidents vasculaires cérébraux (AVC), de maladies cardiaques, de cancer du poumon et de maladies respiratoires chroniques et aiguës. Plus de 1,9 millions de décès prématurés ont été attribués à la pollution de l’air dans 21 pays d’Asie du sud-est en 2015. Deux pays, la Chine et la Corée du Nord, en ont comptabilisé plus de 700.000 chacun.

Sous-nutrition, dengue et dettes en perspective

Pour chaque degré de réchauffement climatique, les auteurs de l’étude estiment que la production mondiale de blé diminuera de 6 % et celle de riz de 10 %. La sous-nutrition serait ainsi l’une des principales menaces sanitaires liées au réchauffement. Dans un monde réchauffé, la dengue continuera aussi son expansion, alors que déjà 50 à 100 millions d’infections sont enregistrées chaque année. Deux types de moustiques ont en effet vu leur capacité vectorielle à transmettre la dengue augmenter de 3 % et 6 % depuis 1990.

Par ailleurs, plus d’un milliard de personnes dans le monde pourraient être forcés à émigrer d’ici 90 ans, en raison de l’élévation du niveau de la mer. Dernier enseignement et non des moindres : le monde aurait connu une augmentation de 46 % des catastrophes liées aux conditions météorologiques depuis 2000. Pour la seule année 2016, les pertes économiques causées par des événements climatiques se sont élevé à 129 milliards de dollars. Et 99 % de ces pertes ont eu lieu dans des pays à faible revenu et non assurés.

Malgré l’ampleur du défi, les auteurs restent convaincus que l’adaptation au changement climatique peut être l’occasion d’améliorer la santé publique mondiale. Les opportunités sont énormes : assainir l’air des villes polluées, offrir des régimes plus nutritifs, assurer la sécurité énergétique, alimentaire et hydrique, réduire la pauvreté, ainsi que les inégalités sociales et économiques. « Il est essentiel que les professionnels de santé fassent entendre leur voix afin de stimuler les progrès en matière de lutte contre le changement climatique et de tirer les bénéfices associés pour la santé », préviennent les auteurs.

Par Matthieu Combe, journaliste scientifique

La COP 23 en proie aux lobbies industriels !

Le Parlement européen a récemment appelé ses négociateurs à accorder la priorité à la lutte contre l’influence néfaste des intérêts industriels à la COP23.

Et ce n’est pas pour rien. Intitulé “Polluting Paris: How Big Polluters are undermining climate policy”, ce nouveau rapport analyse les diverses façons dont les entreprises, notamment celles des énergies fossiles, infiltrent les négociations. Elles orientent les discussions dans leur propre intérêt, dans des domaines aussi variés que l’agriculture, la finance, ou encore les technologies. Les négociations sont ainsi orientées vers des programmes commerciaux qui profitent aux groupes industriels, poussant parfois de fausses alternatives au dépit de solutions non marchandes, comme la finance directe et les réductions d’émissions contraignantes.

Première leçon : intégrer une association commerciale

Pour avoir une influence, il faut être très bien placé dans des associations commerciales. Les auteurs soulignent l’influence de telles associations, par exemple l’International Emissions Trading Association (IETA). Ses membres comprennent les géants pétroliers BP et Chevron, et des sociétés actives dans le charbon. L’IETA s’est immiscée directement dans les discussions, grâce à l’un de ses membres qui négocie au nom du Panama. Il est aussi l’un des co-coordinateurs sur les mécanismes de marché pour le G77 et la Chine.

Par ailleurs, des dirigeants de Shell et d’EDF ont occupé des postes importants au sein du comité consultatif du Centre et Réseau des Technologies Climatiques. Ce programme est en charge de la mise en œuvre des activités de transfert de technologies climatiques dans le monde. Et le Climate Technology Network compte comme membres l’Association mondiale du charbon et l’Institut mondial de capture et de stockage du carbone, qui représentent entre autres Shell et ExxonMobil. Ce groupe apporte une assistance et des conseils technologiques aux pays du Sud,

Deuxième leçon: Sponsoriser des événements climatiques

Des entreprises comme Suez et Engie ont pu accéder aux discussions sur le climat en finançant eux-mêmes la COP21. « Le parrainage de la COP par les entreprises est symptomatique d’un problème plus profond – les dirigeants politiques considèrent les entreprises qui détruisent le climat comme des partenaires pour résoudre une crise dont elles ont profité et dont elles ont retardé la résolution, estime Pascoe Sabido, chercheur à l’Observatoire des lobbies européens, Corporate Europe Observatory. Mettre fin à ce parrainage devrait être une évidence, et un pas petit, mais visible, dans la bonne direction.»

Pourtant, les grands sponsors de la COP23 comptent toujours de grandes entreprises polluantes comme BMW et Solvay. Les COP offrent ainsi aux pollueurs la possibilité de se faire passer pour la solution et non pour le problème, dénonce le rapport.

Troisième leçon: faire du neuf avec du vieux

Pour verdire des pratiques, il suffit de leur donner des noms modernes. Ainsi, les grandes entreprises agricoles qualifient désormais leurs pratiques dévastatrices sur le plan environnemental d’ « agriculture intelligente face au climat ». Ils retardent ainsi l’adoption de réglementations sur les émissions dans l’agriculture industrielle. C’est notamment le cas de Syngenta et Monsanto. Par exemple, le Roundup et le glyphosate deviennent une solution agroécologique moins polluante que le labour. En effet, les tracteurs utilisés pour labourer émetraient trop de gaz à effet de serre.

Au final, toutes ces techniques portent leurs fruits. Les investissements du Fonds Vert pour le climat sont attribués par des institutions internationales et des banques qui soutiennent le secteur privé. Ainsi, cinq banques et institutions transnationales seulement gèrent près de 75% des fonds et plus de 50% des fonds alloués jusqu’à présent ont été affectés à des projets du secteur privé.

Par Matthieu Combe, journaliste scientifique

Glyphosate: nouveaux éléments à charge dans son évaluation !

Il existe de nombreuses études indépendantes montrant la toxicité du glyphosate. Néanmoins, la plupart de leurs résultats ont été rejetés pour différentes raisons et n’ont pas été pris en compte pour le rapport d’évaluation des risques (RER) du glyphosate en vue de son renouvellement en Europe. Générations Futures a demandé à un consultant indépendant d’analyser les raisons qui ont poussé les régulateurs à rejeter ces études. Le rapport dénonce de nombreuses irrégularités.

tab

Premièrement, l’article 8.5 du règlement 1107/2009 demande à l’industriel qui fait la demande de joindre la documentation scientifique des 10 dernières années. Avec une petite recherche, les ONG ont trouvé 146 études portant sur la toxicité du glyphosate. Mais le RAR n’en a répertorié que 76, soit 51%. Sur l’ensemble de ces études non industrielles, seulement 24 ont été discutées. Quelques centaines d’études réalisées par l’industrie ont en revanche été évaluées. Au final, la plupart des études discutées proviennent donc de l’industrie.

Le rapport de Générations Futures s’intéresse à 16 motifs de rejets d’étude de toxicité du glyphosate, qu’elle soit réalisée par l’industrie ou par les universités. Au total, il a analysé 49 rejets de résultats de toxicité. Et sa conclusion est formelle : « sur 49 motifs de rejets ayant pu être expertisés, 45 l’ont été pour des raisons contestables ou très contestables scientifiquement ».

Glyphosate, des études injustement écartées

Grâce à ces techniques, l’industrie peut à la fois rejeter les conclusions de toxicité de la littérature scientifique, mais aussi de ses propres études. Les quatre raisons qui reviennent le plus? Les études ne suivent pas les lignes directrices et les Bonnes Pratiques de Laboratoire, elles ignorent les effets sur certains organes, les contrôles historiques sont malades bien que les contrôles négatifs de l’étude soient en bonne santé et elles ne montrent pas de relation dose/effet.

Lorsque les experts évaluent la qualité d’une étude, ils peuvent rejeter ses conclusions en faisant référence à des contrôles ou témoins issus d’autres études. Ces contrôles témoins sont souvent fournis par des bases de données secrètes de l’industrie, note Générations Futures. Résultat : il est possible de rejeter plusieurs études pour des raisons obscures. Par ailleurs, tout effet à faible dose peut être balayé sous prétexte qu’il n’y a pas de relation dose-réponse. « Il y a tout simplement trop de signes de toxicité en deçà de la dose qui serait la plus faible dose sans effet au monde; et trop de résultats n’ont pas été évalués », prévient le rapport de Générations Futures.

Un système d’évaluation des risques à revoir

Pour François Veillerette, porte-parole de Générations Futures, il faut revoir les méthodes de travail. Trop d’études sont écartées non pas sur leur fonds scientifique, mais pour des raisons de pratiques de laboratoire. De même, les effets à faible dose sont mis de côté : l’évaluation ne considère ainsi que les hautes doses. « Ce n’est pas une démarche scientifique », regrette-t-il . L’expert y voit aussi une question de charge de travail. Selui lui, les agences ne sont pas taillées pour pouvoir réellement vérifier et évaluer l’ensemble des études.

« Si on met systématiquement de côté les études dérangeantes, c’est problématique », assène François Veillerette. Générations Futures a donc commandé une étude similaire sur une dizaine d’autres pesticides. Son objectif : vérifier si ce dispositif de rejet systématique est généralisé et identifier les failles dans le système d’évaluation des pesticides pour proposer des améliorations.

Par Matthieu Combe, journaliste scientifique

Le Grand Jeu concours Techniques de l’Ingénieur

L’année 2017 a été une année riche en événements et innovations scientifiques et techniques. Vous les avez d’ailleurs retrouvées tout au long de l’année dans les articles du Magazine d’actualité.

Pour vérifier que vous n’avez rien oublié, Techniques de l’Ingénieur organise son grand jeu concours !

JOUER

Participez et tentez de gagner l’un des cadeaux suivants :

1 – Premier lot : 
Un ordinateur portable Asus
D’une valeur de 500 euros

2 – Deuxième lot : 
Un Google Home
D’une valeur de 150 euros

3 – Troisième lot : 
Un Google Home Mini
D’une valeur de 50 euros


JOUER

Il vous manque une réponse ? Retrouvez la dans l’un des articles suivants :

Bonne chance à toutes et à tous !

JOUER

 

La COP 23 marquée par les catastrophes naturelles meurtrières de 2017

Ouragans, feux de forêts et autres inondations, les catastrophes naturelles ont largement fait la une de l’actualité en 2017. C’est dans ce contexte particulier que s’ouvre la nouvelle conférence mondiale sur le réchauffement climatique, la COP 23. Les conséquences liées à de tels événements sont dramatiques pour les populations qui les subissent. Présidentes de cette nouvelle édition, les Îles Fidji ont elles-mêmes été confrontées en 2016 à un cyclone meurtrier. Bien que ce déchaînement de la nature soit inquiétant, la multiplication de ces phénomènes l’est davantage. En 2017, nombre d’épisodes de ce type ont causé des ravages sur toute la planète.

D’après « le Compte à rebours » du Lancet, les conditions météorologiques seraient à l’origine de 46 % de catastrophes naturelles de plus qu’en 2000. Le rapport indique également qu’en 2016, 129 milliards de dollars de pertes ont été causées par ces événements climatiques. La quasi intégralité des pays touchés par ces épisodes météorologiques sont des pays à faibles revenus et non assurés. Et selon l’observatoire des catastrophes et des risques naturels,selon l’observatoire des catastrophes et des risques naturels, 13.191 événements ont été recensés depuis 2001. La France est particulièrement concernée du fait des 1.600 épisodes survenus sur l’intégralité du territoire.

L’Europe en proie aux incendies et à la chaleur

Comme ailleurs, les épisodes météorologiques extrêmes se généralisent en Europe. En 2017, les catastrophes majeures en France ont été les feux de forêts. L’été dernier, les incendies du bassin méditerranéen ont causé l’évacuation forcée de plus de 20.000 touristes. Le drame portugais du mois d’octobre noircit le tableau. Attisés par l’ouragan Ophélia, plus de 700 départs de feux ont causé la mort de 41 personnes dans le nord du pays. Cela s’ajoute aux feux de forêts du début de l’été qui avaient déjà fait 60 victimes. Le gouvernement a estimé les pertes dans la région de Pedrógão Grande à environ 497 millions d’euros.

Ophélia a également fini par toucher l’Irlande, faisant trois morts. Cet ouragan de catégorie 3 a été le plus fort à frapper l’Irlande depuis 50 ans. Bien qu’Ophélia ait perdu de la puissance dans sa course, le pays a vécu des orages sans précédent. Le coût des dégâts est estimé entre 500 et 800 millions d’euros selon les assurances.

Par ailleurs, onze pays du sud et du centre de l’Europe ont connu d’importantes vagues de chaleur durant l’été, dépassant les 40°C. Les poids lourds n’étaient plus autorisés à circuler, et les viticulteurs italiens ont dû anticiper leurs récoltes. De telles températures sont évidemment extrêmement dangereuses pour l’homme. Les scientifiques estiment qu’actuellement les canicules estivales causent 3.000 décès par an en Europe. Si rien ne change, ce chiffre pourrait atteindre les 15.000 à la fin du siècle.

Le reste du monde en proie à des inondations violentes

Si l’Europe souffre de la sécheresse, d’autres régions du monde sont souvent inondées. En avril dernier, des précipitations ont causé inondations et glissements de terrains entre la Colombie, l’Équateur et le Pérou. Plus de 1,3 million de personnes ont été touchées, 90 ont perdu la vie au Pérou. 700.000 Péruviens se sont retrouvés sans abris. Le gouvernement a estimé que les reconstructions prendraient cinq ans et coûteraient 9 milliards de dollars. En Colombie, les coulées de boues ont causé le décès de 200 personnes. En septembre, les ouragans Harvey et Irma ont fait plus de 200 morts aux États-Unis et dans les Caraïbes. Ensuite, l’ouragan Maria a tué au moins 48 personnes à Porto Rico. D’autres chiffres avancent même que les victimes tuées pourraient être en réalité 450. L’accès à l’énergie et à l’eau potable n’était toujours pas rétabli un mois après le passage des ouragans.

Les inondations connues en Asie du sud-est sont aussi d’une violence rare. Cet été, plus de 1.200 personnes ont perdu la vie en Inde, au Bangladesh et au Népal. On estime qu’entre 30 et 40% des personnes décédées sont des enfants. Les dérèglements météorologiques ont malheureusement des impacts directs sur l’accès à l’école. Les pluies diluviennes ont dévasté environ 18.000 établissements scolaires, privant ainsi 1.8 million d’élèves de cours. Mais ces jeunes victimes ne sont pas les seules. Selon l’ONU, 41 millions d’habitants de cette zone auraient été affectés par ces pluies torrentielles. Les exploitations agricoles sont également en danger. Dans les trois pays précédemment cités, 2.4 millions de terres cultivées ont été réduites à néant en 2017.

Par Matthieu Combe, journaliste scientifique

Le raffinage menacé par le réchauffement climatique

Si l’on veut limiter le réchauffement à +2°C en 2100, le GIEC martèle à qui veut bien l’entendre qu’il faut laisser entre 80 et 90 % des réserves de charbon sous terre. Mais aussi 35 % des réserves de pétrole et 50% des réserves de gaz. Les différents rapports pointent aussi du doigt l’impact des politiques climatiques sur l’industrie et les transports. Mais ils ne portent jamais sur les entreprises intermédiaires, celles du raffinage. Dans le silence, celles-ci projettent d’ailleurs une demande en croissance régulière jusqu’en 2035. Carbon Tracker présente un nouveau rapport sur les capacités de raffinage mondiales et note que «cette prévision est incompatible avec les objectifs de l’accord de Paris sur le climat».

Un quart des raffineries fermeront d’ici 2035 !

Les carburants – diesel, essence et kérosène – sont les produits les plus rentables et comptent pour 70 % des marges du raffinage. Mais ce sont aussi «  les plus exposés à une baisse de la demande », prévient le think tank. Et selon une étude de février 2017, les compagnies pétrolières sous-estiment sérieusement la baisse de la demande dans le secteur des transports. Par exemple, les véhicules électriques pourraient représenter 35%  du transport routier en 2035, alors que BP table seulement sur une part à 6 % dans son « Energy Outlook ».

Dans ces circonstances, Carbon Tracker prévoit que dans un monde à 2°C, « un quart des capacités mondiales de raffinage ne seront plus viables économiquement et devront être fermées d’ici 2035 ». Et si les bénéfices cumulés du secteur étaient de 147 milliards de dollars en 2015, ils seront divisés par deux à cet horizon. Pour survivre, les raffineries devront donc diminuer leurs marges. En moyenne, elles s’élevaient à 5 dollars par baril en 2016. Elles diminueront de 3,5 dollars pour n’être que de 1,5 dollars en 2035. Ces calculs de l’organisation se basent sur le scénario 450 de l’Agence Internationale de l’Énergie (AIE) pour lequel la demande de pétrole culminera en 2020 puis diminuera de 23 % au cours des 15 prochaines années.

Total, Eni et les pays de l’OCDE seront les plus touchés

L’étude a porté sur 492 raffineries représentant 94 % de la capacité mondiale. Et environ 130 raffineries devront fermer. Les entreprises les plus touchées seront celles qui font beaucoup de raffinage mais à des marges faibles, prévient le think tank. C’est notamment le cas de Total dont 12 % du résultat opérationnel provient du raffinage mais dont la marge moyenne est seulement de 3 dollars par baril (contre 5 pour Shell et 7 pour BP). Le rapport estime ainsi que Total et Eni seront les plus exposés, risquant de perdre entre 70 % et 80 % de leurs bénéfices en 2035. Suivent Shell et Chevron avec une chute de 60 % à 70 % et ExxxonMobil et BP avec une baisse de 40% à 50%.

Pour les auteurs, les capacités mondiales des raffineries sont suffisantes pour répondre à la demande future. En revanche, les évolutions régionales de la demande pourront nécessiter de nouvelles capacités au Moyen-Orien et en Asie. Ainsi, l’industrie des pays de l’OCDE aura probablement besoin de réductions plus importantes que la tendance mondiale.Toutefois, ces fermetures pourraient menacer la sécurité d’approvisionnement de ces pays, note le rapport. Ces derniers pourraient donc décider de maintenir en activité des installations non rentables. Par exemple, 12 des 79 raffineries européennes sont menacées de fermeture. Et la France n’a plus que 8 raffineries contre 12 en 2008 et 20 en 1980. Le pays accepterait-il de laisser fermer toutes celles qui restent ? Rien n’est moins sûr.

Par Matthieu Combe, journaliste scientifique

L’ONU veut fortement durcir l’action climatique

En 2016, les émissions mondiales de gaz à effet de serre atteignaient 51,9 gigatonnes équivalent CO2 (GtCO2e). Pour atteindre l’objectif des 2°C, les émissions ne devraient pas excéder 42 Gt en 2030. Et s’il fallait réellement rester sous la barre des 1,5°C, elles ne devraient pas dépasser 36 Gt. Toutefois, l’ONU estime que si les contributions nationales (NDC) actuellement actées étaient respectées, le monde émettrait encore 52,8 Gt à cet horizon. De quoi faire grimper le thermomètre d’au moins 3°C à la fin du siècle. Si aucune mesure supplémentaire n’est mise en place, 80 % du budget carbone pour espérer limiter le réchauffement à 2°C sera consommé en 2030. Et il sera déjà trop tard pour limiter le réchauffement à 1,5°C.

Les contributions des pays ayant pris part à la COP21 ne représentent qu’un tiers de la réduction des émissions nécessaires d’ici 2030. Il devient donc urgent de les réviser fortement à la hausse  avant 2020. Et pour combler un écart entre 11 et 17 Gt, l’ONU propose plusieurs pistes.

Investir fortement dans des technologies éprouvées

Si les émissions mondiales de CO2 ont stagné entre 2014 et 2016, elles n’ont pas diminué. Et d’autres gaz à effet de serre, tels que le méthane, continuent à être de plus en plus rejetés. Rien n’est gagné. «Une accélération de la croissance économique mondiale pourrait facilement remettre faire repartir à la hausse les émissions de CO2», prévient l’ONU.

Grâce des solutions éprouvées, l’organisation propose de déployer rapidement des technologies dans six secteurs clés. À savoir l’agriculture, les bâtiments, l’énergie, la foresterie, l’industrie et les transports. Les experts identifient des réductions pouvant atteindre 36 Gt. Les investissements seraient inférieurs à 100 dollars la tonne de CO2 évitée. De quoi largement atteindre les objectifs.

Par ailleurs en concentrant l’action seulement dans quelques domaines – énergie solaire et éolienne, reboisement, efficacité énergétique, transports économes, fin de la déforestation – il serait possible de faire baisser les émissions jusqu’à 22 GtCO2e. «Toutes ces mesures peuvent être réalisées à des coûts modestes ou même négatifs, et dans la plupart des cas il y a des politiques éprouvées qui peuvent être répliquées», juge l’ONU.

D’autres actions en perspective

L’ONU propose aussi de faire jouer une plus grande part aux acteurs sous-nationaux et non étatiques. Les experts visent les régions, les gouvernements locaux et les entreprises. Particulièrement, les 100 entreprises les plus polluantes représenteraient environ un quart des émissions mondiales de gaz à effet de serre. Par ailleurs, le respect des engagements de l’amendement de Kigali au Protocole de Montréal pour mettre fin aux hydrofluorocarbures permettrait de diminuer les émissions de 0,7 GtCO2e en 2030.

Un secteur doit particulièrement être pris à bras le corps. C’est celui de la production d’électricité à base de charbon. L’ONU estime qu’il y a 6.683 centrales à charbon en activité dans le monde. Si elles sont opérées jusqu’à leur fin de vie sans système de capture et de stockage de CO2, elles émettront un total de 190 GtCO2e. Et avec les centrales en projet ou en cours de construction, elles pourraient entraîner l’émission de 150 GtCO2e. supplémentaires, pour un total de 340 GtCO2e. En comparaison, le budget restant pour espérer rester sous les 2°C est d’environ 1.000 GtCO2e et de 300 GtCO2e pour rester sous les 1,5°C. L’ONU prône donc leur fermeture progressive et leur remplacement par des énergies renouvelables.

Par Matthieu Combe, journaliste scientifique

Le G20, loin de décarboniser assez son économie

Pour limiter le réchauffement climatique à 2°C, il faudrait faire baisser l’intensité carbone de l’économie mondiale de 6,3 % par an jusqu’en 2100. C’est-à-dire baisser chaque année de 6,3 % les émissions de gaz à effet de serre liées à la consommation d’énergie par million de dollars de PIB. Et pour le moment, les contributions nationales actées par l’Accord de Paris sont largement insuffisantes. Elles prévoient une décarbonisation d’environ 3 % par an et elles doivent donc être renforcées d’ici 2020. Mais selon l’étude de PwC, le compte n’y est pas du tout. Si les objectifs sont déjà trop faibles, la baisse sur le terrain y est encore plus lente. En effet, l’intensité carbone de l’économie mondiale n’a diminué que de 2,6% entre 2015 et 2016.

Les bons et les mauvais élèves du G20

Seuls deux pays du G20 sont en accord avec l’objectif des 2°C: le Royaume-Uni et la Chine qui affichent un taux de décarbonisation de leur économie de 7,7 % et 6,5 % en 2016. «C’est le résultat d’une baisse de la consommation de charbon et d’une amélioration de l’efficacité énergétique, parallèlement à une croissance économique dynamique dans ces deux pays», juge PwC. Le Mexique et l’Australie ont également réussi à réduire leur intensité carbone de 4,6 % et 3,8 % tout en ayant une croissance économique supérieure à 2 %. Pour le Mexique, c’est plus que son engagement pris à Paris (2,4%), mais pour l’Australie, cela reste inférieur à ses objectifs (4,5%). Enfin, si le Brésil a décarbonisé son économie de 3,8 %, plus que promis à Paris, c’est surtout parce que le pays est en récession de 3,6 %.

À l’opposé, les pires élèves sont l’Indonésie, l’Argentine et la Turquie. Ces trois pays ont augmenté leur intensité carbone entre 2,5 % et 3,4 %. Il y a deux autres mauvais élèves qu’il convient de mentionner : l’Afrique du Sud et la France. Ces deux pays connaissent chacun une hausse inférieure à 1%. Mauvaise nouvelle, puisque l’Afrique du Sud a l’intensité carbone la plus élevée du G20. Pour la France, c’est un petit peu moins grave, puisqu’elle présente déjà la plus faible intensité carbone.

decarbonisation-G20

Une lutte impossible contre le changement climatique ?

La lutte contre le changement climatique est ainsi très loin d’être gagnée. Sans changement, le budget carbone sera épuisé en 2036 et il ne sera plus possible de limiter le réchauffement à 2°C, calcule PwC. Avec une croissance économique mondiale prévue à 2,1%, les émissions de gaz à effet de serre devront diminuer de plus de 4% chaque année en moyenne. Elles ont encore augmenté de 0,4% en 2016.

Au final, les efforts pour diminuer le charbon dans certains pays sont contrebalancés par l’augmentation de la demande dans d’autres pays, comme l’Inde, l’Indonésie ou la Turquie. En 2016, la demande en charbon n’a ainsi baissé que de 1,4%. Pendant ce temps, la demande en gaz et pétrole a continué de croître de 1,8%. Et si les capacités solaires et éoliennes ont augmenté de 30% et 15,9%, elles ne représentent toujours qu’une petite part du système énergétique mondial.

Par Matthieu Combe, journaliste scientifique

Chine: la pollution de l’air réduit le potentiel du solaire

On le sait : les aérosols émis par l’industrie chinoise et par la combustion des énergies fossiles et de la biomasse, diminuent l’ensoleillement dans de grandes parties de la Chine. L’Université de Princeton est allée plus loin. Selon sa nouvelle étude, la pollution de l’air empêche entre 20% et 25% de la lumière d’atteindre les panneaux solaires chaque année dans les régions les plus polluées du nord et de l’est du pays.

En combinant leur modèle de performance solaire avec des données satellites de la NASA, les chercheurs calculent une production en baisse jusqu’à 1,5 kilowattheure par mètre carré par jour en hiver. C’est une réduction du potentiel de production d’électricité solaire de 35%. Un effet comparable à celui des nuages. «Cela suffit pour alimenter un aspirateur pendant une heure, laver 5 kg de linge ou travailler sur un ordinateur portable pendant cinq à 10 heures», préviennent les auteurs.

Les chercheurs ont fait une autre découverte. Les aérosols diminuent encore davantage la production d’électricité des panneaux équipés d’un tracker solaire qui permet de suivre la course du soleil. A l’est de la Chine, la baisse y est de 21% pour les systèmes fixes à angle optimal, là où elle est de 34%  pour les systèmes de suivi à deux axes.

Combattre la pollution pour produire plus

Cette découverte est riche d’enseignements pour l’ensemble des pays en développement à forte pollution atmopshérique qui misent sur un développement important de l’énergie solaire. Outre des effets sanitaires bénéfiques certains, la lutte contre l’émission d’aérosols bénéficiera d’une rétroaction positive. La bonne nouvelle est qu’en plus de réduire la dépendance aux combustiles fossiles et les émissions liées, l’augmentation des capacités solaires entraînera aussi une hausse de la production des panneaux déjà installés.

Les chercheurs estiment que cette découverte incite les pays à prioriser les nouvelles centrales dans des zones reculées où la qualité de l’air est meilleure. Chaque pays pourra ainsi évaluer, au cas par cas, les coûts de transport de l’électricité à partir des régions les moins polluées pour alimenter en courant les plus polluées. Et voir si la production supplémentaire rentabilise ces délocalisations. L’Université de Princeton va désormais étendre ses analyses à d’autres régions du monde, à commencer par l’Inde. Elle examinera aussi si les polluants réduisent la production d’électricité en salissant la surface même des panneaux photovoltaïques.

Par Matthieu Combe, journaliste scientifique

Défaillances d’entreprises: la reprise économique est là !

Le cabinet Altares vient de publier son observatoire des défaillances d’entreprises en France au 3e trimestre 2017. « Le nombre trimestriel de défaillances d’entreprises est tombé sous le seuil des 11.000 pour la première fois en dix ans », se félicite Thierry Millon, Directeur des études Altares. C’est aussi 2.095 défaillances en moins qu’au deuxième trimestre 2017. Avec 33.800 emplois menacés par les procédures judiciaires, « le nombre d’emplois menacés est également le plus faible de la décennie », précise l’étude d’Altares. C’est 22.000 de moins qu’il y a trois ans et 6.700 de moins qu’au trimestre dernier.

La reprise pour les TPE et les grosses entreprises

Dans le détail, 7.460 entreprises (- 5,0 %) ont été placées en liquidation judiciaires. 3.150 sont en redressement judiciaire (- 5,1 %) et 220 (- 13,4 %) sont en sauvegarde. « La reprise économique est vraiment là, mais pour encore trop d’acteurs financièrement, la crise couve toujours », observe Thierry Millon. Pour redonner de la confiance aux agents économiques, il faudrait notamment inverser la tendance sur les retards de paiements. Car ceux-ci sont en cause dans nombre de défaillances. « Les deux tiers des clients allemands payent leurs fournisseurs à l’heure, c’est l’inverse en France », note Thierry Millon, notamment durant les congés d’été et en fin d’année. Mais lorsque la trésorerie fait trop longtemps défaut à une TPE, les procédures judiciaires arrivent vite.

Les plus fortes défaillances portent ainsi sur les petites entreprises : 75% concernent celles de moins de 3 salariés. Néanmoins, la baisse est importante, de 6,7%, identique à celle du deuxième trimestre. Pour les TPE de 3 à 9 salariés, le nombre de défaillances reste stable (-0,1%), tout comme pour celles de 50 à 99 salariés. Cette dernière catégorie était en croissance de 35% au second semestre. La baisse est de 3% pour les entreprises entre 10 et 49 salariés. Enfin, les plus grosses entreprises, de plus de 100 salariés, confirment leur reprise (-23%), alors qu’elles étaient en hausse de 11% au trimestre dernier.

Des différences régionales et selon les secteurs

Les régions observant les meilleures dynamiques de reprise sont les Hauts-de-France, la Nouvelle-Aquitaine, la Bretagne, l’Auvergne-Rhône-Alpes, l’Occitanie et les Pays-de-la-Loire. Ces territoires « enregistrent un nombre de défaillances au plus bas sur dix ans », note Altares. Et la Normandie est « au plus bas sur huit ans ». À l’opposé, les défaillances augmentent en Bourgogne-Franche-Comté (+5,7%), en Centre-Val-de-Loire (+5,6%) et en PACA (+3,4%). La Guadeloupe est en très mauvaise posture, avec 56 défaillances d’entreprises, alors qu’elle n’en avait enregistré que 5 au deuxième trimestre.

Certains secteurs profitent de la reprise économique. Les défaillances d’entreprises baissent fortement dans le secteur de la construction et de l’immobilier, de l’industrie, notamment l’agroalimentaire. Mais aussi dans l’habillement, la restauration traditionnelle, les salons de coiffure, les services d’architecture et d’ingénierie. En revanche, les services de soin de la personne et l’optique, l’hébergement, le conseil en communication et gestion, la programmation informatique sont en hausse. Les taxis, les infirmiers et les sages femmes souffrent particulièrement.

defaillances-entreprises-3e-trimestre
Evolution des défaillances d’entreprises entre le 3e trimestre 2016 et le 3e trimestre 2017. PHOTO//Altares

Par Matthieu Combe, journaliste scientifique

 

Un nouveau cristal 2D sur le point d’être isolé ?

Les cristaux en deux dimensions, constitués d’une seule couche d’atomes en « nid d’abeille » intéressent fortement les chercheurs depuis quelques années. Conducteurs ou semi-conducteurs nanométriques, ces matériaux possèdent en effet des propriétés électroniques fascinantes. Ils pourraient être des isolants topologiques utilisables dans la fabrication des ordinateurs quantiques. Toutefois, la mise en évidence de cette propriété n’est pas simple. La première difficulté réside dans le fait que dans la nature, on ne trouve sous cette forme que le graphène, constituant du graphite. D’autres cristaux bidimensionnels peuvent aujourd’hui être obtenus par synthèse, comme le silicène, le stanène et le germanène, respectivement à base de silicium, d’étain et de germanium. Leur synthèse se fait sur un support cristallin comme l’aluminium, l’or ou l’argent. Mais jusqu’à présent, le cristal 2D n’a pu être dissocié de son substrat … Impossible donc de les étudier isolément ! Grâce aux travaux des chercheurs de l’Institut de Science des Matériaux de Mulhouse une étape cruciale vers cette séparation vient d’être franchie.

L’étude des chercheurs de l’Institut de science des matériaux de Mulhouse porte précisément sur le germanène. Pour la synthèse, une méthode consiste à déposer sous ultravide et très lentement (0,005 nm/min) du germanium sur la face (111) d’un cristal d’aluminium. Ce  substrat est maintenu entre 80 et 100 °C pendant le dépôt. Les scientifiques ont montré qu’en appliquant de petites impulsions de tension avec la pointe de leur microscope à effet tunnel (STM), le germanène change de structure atomique. Il peut présenter deux formes distinctes, et l’on peut passer de l’une à l’autre à volonté ! Ces deux structures ont été modélisées à l’aide de la théorie dite de la fonctionnelle de la densité, une méthode de calcul quantique. Les images de microscopie à effet tunnel simulées s’accordent parfaitement avec les images expérimentales, comme cela est visible sur l’image ci-dessous.

Cette étude, publiée dans la revue Journal of Physical Chemistry Letters, confirme dans un premier temps l’existence du cristal 2D de germanène. Elle met aussi en évidence la possibilité de modifier les interactions entre les atomes de germanium et ceux du substrat. Il parait alors possible de découpler le germanène du substrat par exfoliation. Ces cristaux pourraient maintenant jouer un rôle dans les dispositifs de la microélectronique et des énergies de demain.

2D

Source: CNRS

Linux : un maillon essentiel pour l’informatique mondiale

La lecture du rapport 2017 Linux Kernel Development révèle de nombreuses surprises. Et la principale: sans le kernel de Linux, point de salut pour l’informatique mondiale. Ce noyau (kernel en anglais) représente en effet la partie fondamentale de certains systèmes d’exploitation comme les distributions GNU/Linux Debian, Ubuntu, Opensuse ou encore Fedora pour ne citer que les plus connues du grand public (sans compter les versions professionnelles).

Il gère les ressources de l’ordinateur (ou d’un serveur) et permet aux différents composants – matériels et logiciels – de communiquer entre eux.

Seconde surprise de taille pour le grand public: Linux est partout ! Présenté il y a quelques jours, à l’occasion de la conférence Linux Kernel Summit en République Tchèque, ce rapport précise que le noyau Linux est utilisé dans 90 % des instances cloud public, 82 % des smartphones, 62 % du marché de l’informatique embarquée, sans oublier 99 % des superordinateurs. Sa dernière release (4.13) compte presque 25 millions de lignes de code.

500 entreprises

Résultat, près de 1700 développeurs, travaillant pour 225 entreprises, ont collaboré pour maintenir à jour, repérer des failles de sécurité 0-day et corriger les bugs de cette dernière version. Depuis le dernier rapport, publié l’année dernière, plus de 4 300 développeurs de plus de 500 entreprises ont apporté leurs contributions en lignes de code. Le kernel de Linux est donc un travail d’équipe parfaitement rodé qui rassemble des informaticiens de différents horizons.

Troisième surprise: la diversité des contributions. Ce dernier rapport indique que Intel, avec 13,1 % des contributions, est la société qui a le plus apporté au noyau entre les versions 4.8 et 4.13. Les développeurs indépendants représentent la deuxième force avec 8,2 % des contributions. Nous trouvons ensuite Red Hat (7,2 %), Linaro (5,6 %), IBM (4,1 %), des consultants (3,3 %), Samsung (3,2 %), Suse et Google (3 %) et AMD (2,7 %) pour ne lister que les 10 plus importants contributeurs de ce rapport.

La rapidité des correctifs

«Le kernel Linux est l’un des projets open source les plus importants et les plus réussis ayant pu voir le jour. Le développement du kernel prouve donc qu’il est capable de passer à l’échelle et de doubler sa vitesse de développement sans le moindre problème» concluent les auteurs du rapport.

Cette efficacité s’expliquerait-elle par la «surveillance» du Finlandais Linus Torvalds ? Le créateur de Linux (en 1991 lorsqu’il était encore étudiant en informatique) teste fréquemment les nouvelles versions du kernel. En cas d’erreurs ou de dysfonctionnements, il en informe les développeurs. «Peu de choses peuvent se targuer d’être aussi rapides qu’un développeur dont le dernier patch a cassé le poste de travail de Linus», constatent Jonathan Corbet (développeur du noyau Linux et éditeur du site LWN.net) et Greg Kroah-Hartman (mainteneur Linux), les deux auteurs de ce rapport…

Philippe Richard

Déformer un plastique à distance

Actuellement, pour mettre en mouvement, de manière contrôlée, des polymères conducteurs, on passe toujours par une connexion physique : un câble relie le polymère à une source d’électricité. Des chercheurs de l’Institut des sciences moléculaires (CNRS/Université Bordeaux/Bordeaux INP) ont réussi à déclencher des mouvements à distance en utilisant l’électrochimie bipolaire. Leurs travaux, publiés dans la revue Angew. Chem représentent un premier pas vers la possibilité d’actionner à distance des structures telles que des muscles artificiels.

Le concept d’électrochimie bipolaire

Le concept de l’électrochimie bipolaire repose sur le fait que lorsqu’un objet conducteur dans une solution est soumis à un champ électrique externe, il se polarise – un mouvement des électrons d’une extrémité à l’autre de l’objet conduit à la formation d’une anode d’un côté et d’une cathode de l’autre. L’objet se transforme en électrode bipolaire et une différence de potentiel va être générée entre ses deux extrémités. Si elle est suffisante, des réactions d’oxydoréductions peuvent se produire aux extrémités (oxydations à l’anode, réductions à la cathode).

cnrs déformation polymere

Appliqué à un polymère conducteur, ces réactions d’oxydoréduction aux deux extrémités du polymère conduisent à la déformation asymétrique de sa structure et donc à un mouvement. La déformation est réversible, le polymère reprenant sa forme par une réaction inverse quand le champ électrique s’arrête et l’amplitude de la déformation peut être contrôlée par la différence de potentiel entre les deux électrodes.

Vers de nouveaux muscles artificiels

La recherche sur les muscles artificiels s’intéressent de près aux polymères conducteurs car ils  présentent des caractéristiques de pression et de force supérieures aux muscles naturels. Parmi ces polymères, les polypyrolle semblent bien adaptés à ces applications. Aussi, pour essayer de dépasser les contraintes liées à une connexion physique obligatoire pour actionner ce type de polymères, l’équipe de l’institut de sciences moléculaires a synthétisé des films de polypyrolle dopés avec des dodécylbenzènesulfonate (DBS) dans une structure bi-couche intrinsèquement asymétrique. En les immergeant dans une solution aqueuse et les exposant à un gradient de potentiel, elle a pu constaté l’oxydoréduction asymétrique du polymère qui se traduit par une contraction et un gonflement le long de l’axe principal (voir schéma). Ces travaux devraient permettre d’orienter la recherche d’actionnement à distance des polymères conducteurs dans de nouvelles directions.

Sophie Hoguin

Le recyclage cherche toujours à se consolider

Jean-Philippe Carpentier, président de Federec veut rester optimiste. Tout comme les entreprises interrogées qui ambitionnent une hausse de leur chiffre d’affaires pour 2017. Du côté des bonnes nouvelles, la collecte atteint pour la première fois les 101 millions de tonnes. Soit une hausse de 2,2% par rapport à 2015. Et  les effectifs sont repartis à la hausse pour atteindre 26.750 employés.

Il y a aussi des nouvelles moins agréables. Malgré la hausse de la collecte, le chiffre d’affaires des entreprises du recyclage baisse de 1,8% pour atteindre 8,15 milliards d’euros. En cause, la baisse du coût des matières premières. Et les investissements reculent de 2,3%, à 465,1 millions d’euros. Par ailleurs, plusieurs entreprises ont récemment mis la clé sous la porte. Fin 2016, 1.250 entreprises étaient en activité pour 2.160 établissements en France. Soit 50 entreprises et 90 établissements de moins qu’en 2015. Mis à part la Corse, toutes les régions ont perdu entre 2 et 9 établissements.

Un bilan du marché du recyclage en demi-teinte

Dans le détail, certaines branches du secteur s’en sortent mieux que les autres. Pour toutes les branches, le volume entrant augmente. Il y a toutefois une exception. Si le recyclage des papiers et cartons est en hausse de 1,5%, ces bons résultats cachent une collecte en baisse de 1,4% pour les papiers, suite à une baisse de 9,5% en 2015.

Les seules branches qui connaissent une hausse de leur chiffre d’affaires sont les déchets organiques, les papiers-cartons, le verre et les textiles. Les plus fortes baisses de revenus liées à la vente des matières sont observées pour le bois, les métaux non ferreux, les plastiques et la ferraille. Pour les plastiques, la situation est particulièrement compliquée avec un chiffre d’affaires de 194 millions d’euros. Il était de 200 millions d’euros en 2015 et de 250 millions en 2014.

Capture d’écran 2017-10-27 à 12.30.04
Diagramme Volumes entrants estimés en millions de tonnes en 2016. Pour un total de 101,074 millions de tonnes. Chiffres FEDEREC

Quoi de neuf pour 2017 ?

Les cours des ferailles et des métaux non ferreux sont repartis à la hausse en 2017, donc l’année devrait être assez bonne. Grâce à la loi de transition énergétique pour la croissance verte, les branches biodéchets et du BTP devraient connaître une nouvelle année de développement.

En revanche, l’année devrait encore être compliquée pour le bois, car les professionnels misent sur sa valorisation par la technologie de combustibles solides de récupération (CSR), mais celle-ci peine à se développer en France. Aucune embellie n’est prévue non plus en 2017 pour les plastiques et le papier. En effet, la Chine a récemment décidé de restrictions importantes sur leur importation. Cela entraîne une chute des prix et les professionnels ont du mal à évacuer leurs flux en mélange. Ils pourraient être amenés à incinérer ces flux.

Par Matthieu Combe, journaliste scientifique

Le principal substitut au glyphosate retiré du marché français !

Les pays européens ne savent plus sur quel pied danser. D’un côté les agriculteurs militent pour la prolongation de l’homologation du glyphosate, principe actif du Roundup de Monsanto. De l’autre, leurs populations sont de plus en plus sensibles à ses risques sanitaires supposés. En cas d’interdiction, le glyphosate sera immédiatement remplacé par des produits autant, voire plus problématiques, à moins d’une révolution des pratiques agricoles conventionnelles.

Il existait bien une molécule aux qualités équivalentes: le glufosinate-ammonium. Il s’agit d’un «herbicide non sélectif» qui constitue «l’un des rares substituts du glyphosate», selon la Commission européenne. Mais nouveau coup dur pour les agriculteurs, l’Agence nationale de sécurité sanitaire (Anses) a retiré l’autorisation de mise sur le marché (AMM) de tous les produits en contenant. Ce n’était pas trop compliqué, le seul produit autorisé en France était le Basta F1 de l’entreprise Bayer. L’Anses a également interdit l’importation de neuf insecticides identiques au Basta F1, commercialisés par d’autres entreprises. C’était le 24 octobre, en plein débat européen sur la durée de renouvellement du glyphosate. Les agriculteurs pourront écouler leurs stocks jusqu’au 24 octobre 2018. À cet horizon, tous les pesticides contenant cette substance seront interdits sur le sol français.

Glufosinate: des risques qui ne peuvent pas être exclus

Cet herbicide classé reprotoxique présumé était utilisé sur les vignes, vergers, légumes et pommes de terre. L’Anses estime que «des risques pour la santé des utilisateurs et des travailleurs, et des personnes présentes à proximité des espaces traités, ne peuvent être exclus». C’est également le cas «des enfants habitant ou fréquentant une institution à proximité des espaces traités», ajoute-t-elle. En face, «Bayer est surpris de cette décision de retrait d’AMM», fait savoir l’industriel dans un communiqué. L’agence n’aurait pas pris en considération les dernières données disponibles, ce qui l’aurait conduit à «surestimer de 300 à 1000 fois le risque pour la santé humaine», regrette-t-il.

L’Anses est en charge de délivrer les AMM des pesticides et de leurs adjuvants depuis juillet 2015. Elle est également en charge du dispositif de phytopharmacovigilance, soit le contrôle des produits autorisés sur le terrain qui lui permet de reconsidérer l’AMM d’un produit. Depuis, l’agence a ainsi retiré 147 AMM «pour des raisons de sécurité sanitaire» contenant certaines substances actives. Soit 7 produits à base d’amitrole, 3 à base de chlorpyriphos-éthyl et 1 à base de diméthoate. Mais surtout, elle a interdit 126 produits à base de glyphosate associé au coformulant POE-tallowamine.

Par Matthieu Combe, journaliste scientifique

Chine : Naissance du plus gros électricien mondial

Un capital de 230 Mds €

Le gouvernement chinois, par le biais de l’Assets Supervision and Administration Commission, a approuvé la fusion de Shenhua Group Corp, le premier groupe charbonnier du pays, avec China Guodian Corp, l’un des principaux électriciens du pays. Le nouvel ensemble, nommé China Energy Investment Corp, pèsera 230 Mds€ et contrôlera 225 GW de capacités installées, ce qui le propulse au rang de premier électricien mondial devant EDF et l’italien Enel.

Différence de taille avec l’opérateur tricolore, le mix électrique du nouveau groupe chinois est très carboné: 77% de charbon (voir graphique ci-dessous). C’est en partie l’une des raisons du rapprochement avec la China Guodian Corp qui grâce à ses installations renouvelables, verdit un peu les actifs de Shenhua, dépendant à 90% de la houille avant la fusion. L’association des deux compagnies doit créer un groupe capable de virer vers les énergies décarbonées et financièrement assez solide pour supporter cette mutation.

-1x-1

Rationalisation

Cette opération s’inscrit également dans une politique de rationalisation assumée de la part de Beijing, qui a annoncé en juillet son intention de transformer les grands électriciens publics en Société à responsabilité limitée (SARL) d’ici la fin de l’année, indique CNBC. Plus généralement, le gouvernement chinois attend un effort desdits groupes pour améliorer leur fonctionnement avec l’ambition claire d’en faire des champions internationaux.

Un électricien chinois a d’ailleurs déjà mis un premier pied en Europe, au Royaume-Uni précisément. La China General Nuclear Power Corporation (CGN) a remporté en 2015, aux côtés d’EDF, le contrat d’Hinkley Point qui prévoit la construction non pas d’un, mais de plusieurs réacteurs EPR. Si l’électricien français est majoritaire sur Hinkley Point C, le partenariat prévoit que CGN mène à son tour les projets de Sizewell et Bradwell. EDF minoritaire doit lui permettre de faire certifier son réacteur de grande puissance (HPR1000). Ce dernier est issu du transfert de technologie franco-chinois du réacteur de Framatome à eau pressurisée de 900 MW. Dans cette optique, la Chine avait lancé une nouvelle compagnie, la General Nuclear International (GNI), pour promouvoir et vendre les modèles de la filière nucléaire chinoise à l’exportation.

A noter que les mêmes rumeurs de concentration agitent également le secteur européen de l’énergie. Certains observateurs s’attendent à une nouvelle série de fusions/acquisitions sur le Vieux continent dans les prochains mois. La naissance de la China Energy Investment Corporation ne risque pas de les en dissuader…

Romain Chicheportiche

Une énorme armée d’objets connectés en marche !

Un botnet fait trembler le web mondial. Contraction de bot (machine) et de net (pour network, réseau en français), il rassemble plus d’un million d’objets connectés qui sont sous le contrôle de pirates. C’est ce qu’on appelle un réseau de «zombies», c’est-à-dire des machines contrôlées à l’insu de leur propriétaire par des cybercriminels.

Les chercheurs en sécurité des sociétés Qihoo 360 et Check Point l’ont baptisé respectivement «IoT_reaper» et «IoTroop». «La cybertempête qu’il pourrait générer est suffisante pour casser Internet», souligne Check Point, un fournisseur mondial de solutions de sécurité des réseaux informatiques.

La plus importante attaque DDoS jamais enregistrée

Selon ces deux éditeurs, les pirates focalisent sur une dizaine de marques parmi lesquelles D-Link (routeurs et caméras IP), Netgear (routeurs et NAS), Linksys (point d’accès Wi-Fi), Synology (NAS). De nombreux particuliers et professionnels possèdent des modèles de ces marques ; ce sont autant de victimes potentielles…

À quoi pourrait servir cette armée de l’ombre ? Elle pourrait principalement servir à programmer des attaques par déni de service distribué (DdoS) et paralyser ainsi l’activité de l’entreprise ciblée. En septembre 2016, OVH avait été impacté par une très puissante attaque DdoS. Selon cet hébergeur français, la bande passante combinée s’élevait à 1 To par seconde. L’une des deux attaques avait atteint un pic de 799 Go par seconde à elle seule. Il s’agit là de la plus importante attaque DDoS jamais enregistrée.

Face à ce tsunami de requêtes produit par un botnet constitué de 145 607 caméras connectées piratées, les serveurs ont lâché et l’accès à de nombreux services et sites hébergés par OVH ont été indisponibles.

De plus en plus d’attaques

Face à une telle menace, que doivent faire les propriétaires de ce type d’appareils connectés ? Interviewé par 01net, Laurent Pétroque, spécialiste des attaques DDoS chez F5 Networks, précise qu’une «simple mise à niveau du mot de passe n’est pas suffisante pour se protéger du botnet, mais elle est tout de même fortement recommandée pour tous les appareils connectés à Internet. Pour empêcher la propagation de ce botnet, toutes les entreprises, et tous les consommateurs doivent s’assurer que leurs appareils connectés utilisent les toutes dernières versions logicielles bénéficiant des correctifs de sécurité».

Encore une fois, il faut appliquer les règles élémentaires : mettre à jour tous ses objets connectés, modifier le mot de passe (et surtout ne pas laisser le mot de passe par défaut qui est connu de tous les pirates), utiliser des mots de passe « forts » (lettres en minuscule et en majuscule, des chiffres et des signes).

Il est urgent que les particuliers et encore plus les entreprises et les industriels appliquent des mesures de sécurité pour limiter les risques. Car la situation ne devrait pas s’arranger. Les objets connectés se multipliant, de multiples groupes d’acteurs menaçants travaillent activement à étendre et améliorer les capacités d’attaque par déni de service distribué (DDoS) des botnets…

Philippe Richard

Un système de stockage de l’électricité qui «respire»

Basée sur la technologie des batteries à flux, cet accumulateur utilise une anode liquide (anolyte) à base de polysulfures qui contient des ions lithium ou des ions sodium et une cathode liquide (catholyte) constituée d’une solution saline oxygénée.

Une des particularités de cet accumulateur, c’est que ce n’est pas le même ion qui est impliqué dans la réaction d’oxydation et dans la réaction de réduction. En effet, lors de la décharge, l’anolyte libère des électrons dans un circuit extérieur et les ions lithium ou sodium voyagent vers la catholyte. Pour maintenir l’électroneutralité, la catholyte absorbe de l’oxygène de l’extérieur, créant des ions hydroxyde (OH-).

Lors de la charge, l’oxygène est expulsé et des ions hydrogène (H+) sont créés redonnant des électrons à la solution de l’anode à travers le circuit extérieur (voir schéma). On voit donc que l’équilibre des charges est assuré par une aspiration /rejet d’oxygène qui vient de l’extérieur du système, comme dans une respiration à base d’oxygène.

MIT-Air-Breathing-1_0

Un système low-cost

En réalité, cette utilisation de l’oxygène de l’air était déjà connue pour des accumulateurs lithium-air. Et le couple à forte densité massique d’énergie lithium-sulfure est déjà à l’étude dans d’autres systèmes. L’accumulateur proposé par ces chercheurs allie les deux dans un système à flux, original et surtout très peu coûteux. D’autant plus si on réussit à remplacer les ions lithium par des ions sodium. Les chercheurs affirment dans leur article que leur solution ferait drastiquement baisser le prix du stockage et qu’il pourrait facilement baisser de 100$ pour 1kWh actuellement à 20$/kWh.

Le prototype est pour l’instant de la taille d’une tasse à café mais à priori assez facilement industrialisable dans des systèmes plus grands. Cette solution de stockage de l’énergie semble adaptée pour stocker de l’énergie sur des réseaux d’électricité dont la source est intermittente comme les réseaux d’énergie renouvelable photovoltaïques ou éoliens. Il répond en effet parfaitement à trois obstacles actuellement rencontré pour le stockage intermittent de l’électricité :

  • l’encombrement des STEP (stations de transfert d’énergie par pompage) qui utilisent l’énergie hydraulique entre deux bassins d’eau situés à des altitudes différentes et qui ne peuvent être installés partout.
  • Le coût des solutions alternatives aux STEP comme les autres batteries à flux qui utilisent des produits chimiques rares et coûteux.
  • la sécurité environnementale et humaine car les produits utilisés jusqu’à maintenant sont généralement stockés dans des milieux acides et corrosifs.

Le prototype inventé par les chercheurs du MIT vient s’ajouter aux autres solutions telles que celles en cours de développement industriel à base d’électrolytes organiques pour rendre la production d’électricité par des énergies renouvelables plus rentable, plus souple et plus écologique.

Sophie Hoguin