Solaire : L’accord anti-dumping avec la Chine n’a servi à rien

Pour JA Solar l’accord signé avec l’Union européenne est obsolète. Le prix plancher, au-dessous duquel les fabricants chinois s’étaient engagés en 2013 à ne pas vendre sur le marché européen, fixé par la Commission européenne à 0,56 €/Watt ne serait plus d’actualité. La chute massive des prix du photovoltaïque partout dans le monde rendrait cette évaluation caduque. De fait, de plus en plus d’entreprises chinoises qui avaient signé l’accord (environ 90) pensent s’y retirer, voire le contourner.

Détournement

Si la course à la baisse des prix a mis à bat l’accord sino-européen sur le solaire, ce dernier était déjà largement usé par la découverte de fraudes massives de la part de plusieurs acteurs chinois ayant signé ledit accord. Ces derniers auraient modifié la « configuration de leurs échanges » pour mettre en place un système de fraude douanière. Afin de faire disparaître l’origine du module photovoltaïque (l’accord ne s’applique qu’à la Chine), les compagnies chinoises les facturaient à des sociétés (écran ou non) situés dans des pays-tiers (Taïwan, Malaisie) avant d’être à nouveau expédiés, cette fois-ci en Europe. Le 29 mai 2015, la Commission a estimé disposer de suffisamment de preuves pour ouvrir deux enquêtes contre l’industrie solaire chinoise pour « contournement des mesures compensatoires et des mesures antidumping ».

Force est de constater que l’accord signé il y a trois ans n’a pas servi à grand chose. Les acteurs chinois continuent à dominer outrageusement le marché des modules photovoltaïques et la tentative de juguler la concurrence n’a eu comme d’autre résultat que de doper les exportations de Taïwan et des autres pays limitrophes.

Romain Chicheportiche

Des scientifiques dessinent une nouvelle carte du cerveau

Des chercheurs américains (neurologues, ingénieurs, spécialistes en informatiques) ont établi une nouvelle cartographie du cerveau humain, avec un degré de précision inédit, en identifiant 97 nouvelles régions cérébrales.

Ce sont ainsi pas moins de 180 régions distinctes du manteau extérieur (le cortex), qui ont désormais été cartographiées – soit plus du double de celles connues jusqu’ici. Ainsi, avant cette étude, les neurologues n’avaient identifié que 83 régions cérébrales… ces identifications remontant à 1909, et aux travaux du neurologue allemand Korbinian Brodmann

1469026202421104

Scans IRM et Machine Learning

Pour réaliser leur prouesse, les chercheurs ont analysé des données issues de scans IRM du cerveau de 210 personnes, recueillies dans le cadre du projet “Human Connectome”, qui consiste à cartographier les connexions cérébrales de milliers de volontaires, afin de dresser un inventaire complet des connexions du cerveau.

Un logiciel et des algorithmes de Machine Learning ont permis aux scientifiques américains, non seulement d’identifier de nouvelle zones, mais aussi de générer des cartographies individuelles, afin de comparer les zones étudiées au sein du groupe de 210 personnes, lors de la réalisation de tâches précises (notamment cognitives), permettant d’activer différentes régions corticales.

« La situation est comparable à l’astronomie où les télescopes basés sur terre produisaient des images floues du ciel, avant l’arrivée d’optiques adaptatives et de télescopes spatiaux », selon Matthew Glasser, neuroscientifique à l’Université Washington de Saint-Louis, directeur de l’équipe de recherche.

Sur la nouvelle cartographie obtenue, différentes aires du cerveau sont associées à un code couleur : le bleu correspond à la vision, le rouge correspond à l’audition, le vert correspond aux capacités motrices et sensorielles. Et déjà, des observations peuvent être faites. “Il n’y a pas de frontière nette entre ce qui apparaît en bleu et ce qui apparaît en vert. On observe plutôt des transitions graduelles, ce qui indique qu’il existe un entremêlement et une coordination entre différentes modalités sensorielles et différents domaines cognitifs”, remarque ainsi David Van Essen, membre de l’équipe de chercheurs, dans Vice.

1469033651181585

 

 

 

 

 

Pas un “Google Maps du cerveau”

Pour David Van Essen, qui a publié ses travaux dans la revue Nature, ce travail de cartographie est analogue à celui effectué avec les cartes de la planète Terre. Ainsi, les plis du cerveau peuvent être comparés à la topologie terrestre, et les zones identifiées dans la carte seraient comparables aux “subdivisions politiques à la surface de notre planète” – elles ne sont pas, indique le scientifique, “basées sur les plis du cortex en soi”, mais sur la communication, les interactions, et “les connexions complexes entre les milliards de neurones qui composent le cortex cérébral”.

Selon David Van Essen, “ces travaux seront utiles à tous”, constituant une grande avancée dans le domaine neurologique et médical. Pour les neuroscientifiques, la nouvelle “carte” du cerveau dessinée devrait ainsi constituer un outil précieux pour repérer et identifier les zones du cerveau, dans les domaines de la chirurgie du cerveau et de la neuropathologie notamment. Pour Bruce Cuthbert, directeur de l’Institut américain de la santé mentale, qui a cofinancé les recherches, “ces nouvelles connaissances devraient aussi permettre d’expliquer comment notre cortex a évolué et le rôle de certaines zones”.

Mais les chercheurs nuancent vite la portée de leur cartographie du cerveau, loin d’être complète – reconnaissance la présence de zones encore inconnus dans notre crâne. “Notre ambition est de mettre au point les meilleures cartes possibles, mais nous devons rester honnêtes : avec nos connaissances actuelles, il ne s’agit en aucun cas d’une Google Map du cerveau”, indique David Van Essen à Vice. Ainsi, selon lui, “nous sommes encore loin de pouvoir explorer le cortex cérébral jusqu’au niveau des neurones individuels.”

Par Fabien Soyez

L’Argentine mise sur les réacteurs nucléaires à basse puissance

Buenos Aires mise beaucoup sur cette technologie pour atteindre un marché en développement, dominé jusqu’à présent par les Américains, Russes, et Chinois.

CAREM

Le réacteur prototype CAREM-25 est actuellement en construction à Atucha, au bord du fleuve Parana sous la supervision de la Commission nationale argentine de l’énergie atomique (CNEA). Il est issu d’un modèle plus ancien de réacteur à eau pressurisée de 100 MWt (27 MWe brut). Il sera équipé de 12 générateurs de vapeur et est conçu pour être utilisé comme un réacteur de recherche, pour la production d’électricité ou pour le dessalement de l’eau de mer (avec 8 MWe dans la configuration cogénération). Le système de refroidissement primaire du réacteur se situe dans la cuve sous pression du réacteur (11 m de haut, 3,5m de diamètre). Il est auto-pressurisé et ne se sert que de convection (pour les modules de moins de 150 MWe). La version finale destinée à l’export sera d’environ 300 MWe.

Car l’Argentine espère bien vendre son réacteur à l’étranger et prévoit de créer une entreprise publique à cet effet dès l’année prochaine. « Nous pouvons commercialiser un module de quatre réacteurs, soit 480 MW, ce qui est beaucoup plus pratique (pour les acheteurs) qui ne sont pas intégrés au réseau central comme les îles, certains réseaux d’Amérique latine et d’Asie », a déclaré Julian Gadano, sous-secrétaire argentin à l’énergie nucléaire. « Nous aurons besoin d’un partenaire financier pour cette entreprise, avec les épaules pour aller à l’international », estime-t-il. Certes les réacteurs à basse puissance sont peu connus, mais une certaine dynamique active ce marché. Si la commercialisation de CAREM n’est pas prévu avant 2022, Buenos Aires a déjà de grandes ambitions : « c’est un marché de dizaines de milliards de dollars, et il est possible et facile de capter 20% de ce dernier », estime un brin optimiste Julian Gadano. L’Argentine vient de signer son premier contrat (35 M$) avec le Brésil pour un réacteur multi-usage.

Avantage comparatif

Les réacteurs nucléaires à basse puissance (SMR en initiales anglaises) sont des réacteurs inférieurs à 300 MWe conçus avec des systèmes modulaires. Ils sont moins compliqués à fabriquer que les grands réacteurs de type EPR (1 700 MWe) mais ont longtemps joué un rôle mineur sur le marché mondial du nucléaire. Seuls quatre sont opérationnels dans le monde (Russie, Chine, Inde, Pakistan). Les nouvelles technologies sont variées mais il est possible de les classer en quatre catégories distinctes : réacteurs à eau légère, réacteurs à neutrons rapides, réacteurs graphite à haute température et réacteurs à sels fondus. Les projets de SMR se sont multipliés ces dernières années et la World Nuclear Association dénombre aujourd’hui 10 projets en construction avancée (Russie, Etats-Unis, Chine, Corée du sud) et 18 projets en stade préliminaire (Russie, Etats-Unis, Chine, Corée du sud, Japon, Afrique du sud, Inde, Canada). A noter que la France aussi développe une technologie de réacteur à basse puissance. Mené par Areva, ce projet baptisé ANTARES a été sélectionné aux Etats-Unis dans le cadre d’un projet pour les réacteurs de nouvelle génération.

Les réacteurs à basse puissance offrent plusieurs avantages sur les grandes installations. Leur construction est plus rapide et plus simple ce qui réduit les risques de dérapages dans les coûts. Leurs systèmes de sécurité passifs sont particulièrement adaptés aux pays n’ayant peu ou aucune expérience dans le nucléaire. Les économies d’échelle peuvent être multipliées grâce à la production en série permise par le système de modules. Les installations produisent moins de déchets, ont besoin de moins d’eau, et sont plus facilement déconstructibles. Enfin, en période d’insécurité grandissante, ces petits réacteurs peuvent aisément s’enterrer dans des installations souterraines, minimisant le risque terroriste. L’approche multi-usage semble également porter ses fruits puisqu’en mars 2015 la compagnie argentine INVAP et celle appartenant à l’Arabie Saoudite, Taqnia, ont mis en place une joint-venture, Invania, pour développer la technologie du programme nucléaire du Royaume, apparemment centrée sur CAREM.

Romain Chicheportiche

La mobilité vers l’aéronautique : les défis à relever

Les compétences transférables sont mises en œuvre lors du passage d’un poste à un autre, d’une entreprise à une autre, d’un métier à un autre, d’un secteur à un autre… Frédéric Lainé précise la définition des compétences transférables dans une note du Centre d’analyse stratégique :

« Les compétences transférables sont d’une part les compétences liées à un contexte professionnel particulier mais qui peuvent être utilisées dans un autre métier ou, au sein d’un même métier, dans un contexte professionnel différent, et d’autre part celles généralement acquises en dehors de l’activité professionnelle, mais utiles, voire indispensables, à l’exercice de certains métiers. » .

Elles relèvent principalement de trois registres : l’expertise technique, les compétences transversales et les qualités individuelles. Qu’en est-il de ces compétences transférables dans le cadre d’une mobilité sectorielle vers le monde de l’aéronautique ?

L’expertise technique est le préalable à toute mobilité vers l’aéronautique.

La filière aéronautique est marquée par une exigence de qualité totale, à chaque étape du cycle de production, tant la sûreté des vols et la sécurité des passagers restent la préoccupation majeure. Cet objectif incontournable explique le niveau de qualification élevé des salariés et la haute technicité qui leur est demandée.

Certaines certifications techniques sont à ce titre indispensables dans l’exercice de nombreux métiers de l’aéronautique (travail des métaux, de la mécanique, de l’électronique, de l’informatique, des matériaux…). C’est cette maîtrise technique qui constitue dès lors le premier critère de choix des recruteurs du secteur.

Ainsi, une mobilité sectorielle devra être argumentée avant tout sur les compétences transférables techniques du candidat, plutôt que sur ses compétences transversales ou aptitudes personnelles qui agiront simplement en complément.

« Il faut quand même avoir des compétences de base dans la périphérie de l’aéronautique : connaître soit l’avion, soit un produit dérivé de l’avion, soit les systèmes d’informations embarqués par exemple. » (Consultante, ex-recruteur aéronautique)

Connaître le secteur aéronautique : ses matériaux, son vocabulaire et ses enjeux.

La connaissance approfondie des produits et matériaux utilisés dans l’aéronautique, et des procédés qui leur sont associés (fusion, soudage, thermoformage), constitue inévitablement le premier élément technique à maîtriser.

L’un des défis technologiques les plus importants pour l’aéronautique des vingt prochaines années concerne en effet l’amélioration des matériaux.

La science des matériaux, et les experts en recherche et développement qui lui sont dédiés quel que soit leur secteur, forment dès lors un premier vivier de compétences particulièrement valorisables en aéronautique.

Des spécialistes en amélioration de l’équation poids résistance des équipements (via des matériaux composites ou de nouveaux alliages métalliques au niveau des structures ou des moteurs), sont ainsi très recherchés.

La double compétence sur les matières métal et composite est également précieuse. L’expertise technique repose également sur un vocabulaire spécifique, à apprendre et maîtriser pour comprendre et dialoguer avec tous les interlocuteurs du secteur.

Les cadres ayant connu une mobilité ont ainsi pu évoquer un « choc culturel, avec un vocabulaire spécifique et une codification difficile à assimiler »…

« Pour l’ingénieur, c’est vrai que la différence entre l’aéronautique et l’automobile par exemple n’est pas forcé- ment très grande sur le plan technique. C’est plus une question d’adaptation, de vocabulaire. » (Expert, pôle de compétitivité)

Maîtriser les outils et logiciels de l’avionique

L’avionique, c’est-à-dire l’ensemble des équipements électroniques, électriques et informatiques qui rentrent dans la fabrication et/ou qui aident au pilotage des avions, prend une place de plus en plus importante au sein de la filière aéronautique : cockpit avancé, navigation et gestion du vol, plateformes informatiques et réseaux embarqués, gestion de l’énergie de bord… Un enrichissement des compétences dans ces domaines est attendu.

La maîtrise d’un logiciel ou d’une machine peut alors constituer une clé de passage pour une mobilité sectorielle. La connaissance de ce type d’outil, même très spécifique à un secteur, peut en effet signifier la faculté d’adaptation à un nouveau logiciel de même type dans le secteur aéronautique. De plus, l’évolution actuelle des nouvelles technologies et l’expansion de logiciels, langages et outils informatiques communs favorise les mobilités sectorielles.

Dès lors qu’un cadre maîtrise un outil informatique et/ou un langage de programmation, il devient davantage « employable » par l’aéronautique. Cela concerne par exemple les métiers d’ingénieur électronique de puissance, d’ingénieur calcul, d’ingénieur systèmes aéronautiques, d’opérateur des machines à commande numérique, de programmeur des machines à commande numérique ou d’architecte logiciel aéronautique…

« Tous les logiciels qu’on utilise en modélisation, en simulation ou en gestion sont les mêmes entre le monde automobile et le monde aéronautique. Bon il y a quelques modules spécifiques, car bien sûr on ne dé- passe pas le mur du son en automobile, mais c’est très marginal. À 90 %, ce sont les mêmes codes de calcul. Alors qu’il y a des secteurs, dans le nucléaire par exemple, où ils sont habitués à utiliser d’autres codes de calcul. » (Directeur, établissement de formation)

La dimension technique est également au cœur des attentes des recruteurs pour les profi ls commerciaux. Malgré la dominante commerciale de ces métiers, leur légitimité sur le terrain passera par une reconnaissance de leurs compétences techniques.

Savoir appréhender un univers très normé aux méthodes de production exigeantes

Les besoins en compétences pour les prochaines années concernent en premier lieu la production et son optimisation. Or l’aéronautique présente un contexte et des méthodes de production qui lui sont propres quant aux notions de coût, série et qualité.

A l’inverse de la production agroalimentaire ou, dans une moindre mesure, automobile, la production aéronautique se fait en petite/ moyenne série et la contrainte de coût, bien que réelle, ne peut remettre en question la qualité du produit.

« Le monde de l’aéronautique est quand même resté très « artisanal ». On fabrique dix rafales par an, c’est vraiment une fabrication particulière, avec beaucoup de compagnons, etc. » (Directeur, établissement de formation)

Les cadres de l’aéronautique travaillent dans des entreprises où les normes et les contraintes sont draconiennes (contrôles, références ISO, certifi cation sur les matériaux, les produits…).

Le cadre en projet de mobilité sectorielle vers l’aéronautique devra donc connaître ou apprendre ces normes et contraintes de production. Cependant, ce n’est pas tant la connaissance des normes en elle-même qui est importante (elle est d’ailleurs souvent spécifique au secteur aéronautique et les entreprises pourront investir dans des formations internes), mais l’expérience de travailler dans un environnement fortement normé et contraint.

« Évidemment la production répond à des normes et des process bien spécifiques, mais à partir du moment où vous avez été amené à travailler dans des environnements très normés, peu importe la norme. » (RRH, recruteur aéronautique)

Par ailleurs, les exigences d’un cadre de travail structuré peuvent être fortes. Le secteur de l’aéronautique est fortement hiérarchisé, impacté par une organisation très structurée entre donneurs d’ordres et sous-traitants, et à l’échelle de l’entreprise, par un poids des règles et de la structure de l’organisation, notamment dans les grandes entreprises. Dans ces dernières, les périmètres de responsabilités sont marqués, avec des procédures laissant peu de place aux initiatives individuelles non contrôlées. Ce sera moins le cas dans les PME du secteur.

« Il y a énormément de hiérarchie [dans les grandes entreprises] Parfois, la culture d’entreprise aéronautique avec ses règles strictes plaît moins. » (Consultante, exrecruteur aéronautique)

« C’est vraiment une question de culture. Il y a quand même des procédures, un process assez bien cadré. Pour certains, ça peut être vécu comme une contrainte, parce qu’on n’a pas de marge pour beaucoup de fantaisie et beaucoup d’initiatives. Pour d’autres, c’est rassurant, confortable. Ça peut être bien vécu comme ça peut être mal vécu. » (Directeur, établissement de formation)

Valoriser son expérience de la production en petite et grande série

Côté séries de production, l’avion et ses équipements, comme le ferroviaire dans une moindre mesure, ont cela d’unique qu’ils sont produits en très petite quantité sur un temps long, auquel le cadre en mobilité devra s’adapter. « On connaît bien aussi le secteur ferroviaire. Comme le dit un de mes administrateurs, un train c’est fi nalement un avion qui ne vole pas ! Ce sont à peu près les mêmes séries entre les TGV et les Airbus, c’est très proche. Donc je pense que le passage se fait sans trop de souci. » (Directeur, établissement de formation)
Cependant, l’aéronautique évolue, et passe actuellement des petites séries « artisanales » à la moyenne série, du fait de la demande croissante.

Le secteur a donc tout à apprendre d’autres contextes de production tels que ceux développés au sein du secteur de l’automobile notamment. Les cadres issus d’autres secteurs peuvent donc présenter de vraies valeurs ajoutées aux yeux des recruteurs de l’aéronautique, particulièrement sensibles à ces nouveaux enjeux en interne.

Connaître et travailler dans un environnement de production industrielle en série devient en effet une compétence particulièrement recherchée, qui peut faciliter une mobilité sectorielle vers l’aéronautique.

« Ce n’est pas un critère discriminant de ne pas venir de l’aéronautique, et dans le cas précis de l’automobile, c’est même très valorisant pour nous. Parce que les personnes qui viennent de l’automobile ont en général connu des cycles de production beaucoup plus courts, et donc d’autres types de contraintes temporelles, avec une certaine forme de pression, de rapidité d’exécution, qui pour nous sont très intéressantes, même si on sera forcément dans des cycles de production beaucoup plus longs. » (RRH, recruteur aéronautique)

Au-delà de l’expertise technique du secteur, c’est bien la capacité à organiser des chaînes de production et à les optimiser qui est ici recherchée. Les spécialistes de l’industrialisation et des méthodes, les techniciens de la qualité et de la logistique, les experts du lean management sont tous concernés par cette diversification des recrutements à venir.

« L’aéronautique est en train de passer de petites séries à des moyennes séries. Donc ils sont intéressés par le fait que l’automobile leur passe un petit peu des savoir-faire qu’eux n’ont pas… » (Expert, pôle de compétitivité)

Valoriser une expérience du management d’équipe et de projets

Dans une filière qui travaille beaucoup en mode projet, dans une logique système, et sur des réalisations d’une grande complexité, les ingénieurs et techniciens supérieurs sont amenés à élargir leurs compétences relationnelles, en particulier pour occuper des fonctions de management.

Cette capacité à encadrer et à s’affirmer face à une équipe n’est pas spécifique au secteur d’activité dans lequel elle est exercée, et peut donc constituer un levier de mobilité vers l’aéronautique. Elle est d’autant plus attendue que certaines entreprises du secteur souhaitent renouveler leurs méthodes de management (par exemple les formations proposées en interne par Airbus à travers leur Leadership University). Cependant, même si le management d’équipe et de projets constitue une passerelle facilitant les mobilités sectorielles, il pourra rarement être le seul vecteur de transition vers l’aéronautique.

« Ils nous ont demandé de préparer les ingénieurs diplômés avec 10-15 ans d’expérience à la gestion de la complexité des grands projets. C’est vrai qu’on les sensibilise un petit peu au niveau de la formation initiale, mais il y a besoin de plus les muscler, parce que c’est très compliqué d’être chef de projet avec 300 ou 400 ingénieurs sous ses ordres, dans différents pays etc. » (Directeur, établissement de formation)

« Avec la digitalisation, on passe aux modèles californiens de Google, etc. Ils cherchent des gens qui justement ne sont pas clonés ‘aéronautique’, qui apportent cette façon différente de travailler que souhaitent les directions aujourd’hui. Des gens très leaders, très charismatiques, qui vont insuffler le changement. » (Consultante, ex-recruteur aéronautique)

Maîtriser les langues afin d’échanger dans un environnement de travail international

L’industrie aéronautique et spatiale est fortement internationalisée. De plus en plus d’entreprises, PME comme grands groupes, sont ainsi amenées à travailler à l’international parce qu’elles y sont contraintes par le marché ou parce que ce sont des filiales de groupes internationaux. Par ailleurs, la majorité des productions aéronautiques concernent aujourd’hui des projets transnationaux. De ce fait, ils se déroulent dans un environnement multiculturel et polyglotte peu présent dans les autres secteurs de l’industrie française.

La maîtrise d’une langue étrangère est une compétence transversale assez facilement transférable et souvent indispensable pour les cadres de l’aéronautique, quel que soit leur niveau. En dépit de la suprématie de la langue anglaise dans les conventions officielles, le choix et le contrôle des composants requièrent des compétences linguistiques dans les services commerciaux et des achats pour débattre et valider les options techniques dans la langue du vendeur.

Pour cela, les entreprises du secteur ont besoin de recruter des ingénieurs ou des techniciens supérieurs capables de dialoguer dans l’anglo-allemand technique, l’anglo-espagnol technique, l’anglo-italien, etc. Le multilinguisme, qualité rare en France, devient une compétence de plus en plus recherchée parmi les ingénieurs de la fi lière européenne dont l’excellence repose sur des contributions croisées entre la plupart des pays de l’UE.

« Chez Dassault, chez Airbus, on cherche de plus en plus des gens qui sont capables de négocier des prix, de parler des langues étrangères… Dans l’aéronautique vous avez l’obligation, quel que soit votre niveau, ouvrier, technicien ou ingénieur, d’avoir un minimum d’anglais. Ça, c’est un peu la différence par rapport à l’automobile. Je me rappelle avoir rencontré des gens de l’automobile avec qui j’avais insisté beaucoup sur la langue anglaise. Ils ont dit « Il faudra qu’on s’y mette. ». La langue est un frein. » (Expert, pôle de compétitivité)

 Source : Apec

Invasion des insectes : l’économie mondiale affectée

Pourquoi étudier les insectes ? Depuis des milliers d’années, les insectes ont été responsables de la propagation de maladies chez l’Homme et le bétail, et de dégâts considérables, depuis l’anéantissement des cultures et réserves, en passant par la destruction des infrastructures, jusqu’à la dévastation des forêts, altérant ainsi les écosystèmes et les rendant plus fragiles. Dans le règne vivant, la seule classe des insectes (environ 2,5 millions d’espèces) est probablement le groupe le plus coûteux. De plus, ils font partie des espèces envahissantes les plus virulentes : 87 % des 2 500 invertébrés terrestres ayant colonisé de nouveaux territoires sont des insectes.

Des dégâts sous-évalués

Les scientifiques ont estimé à 69 milliards d’euros par an le coût minimal des dégâts causés par les insectes envahissants dans le monde. Parmi les d’insectes étudiés, le termite de Formose1(Coptotermes formosanus) serait l’un des plus destructeurs : plus de 26,7 milliards d’euros par an dans le monde. Mais cette estimation provient d’une étude trop peu documentée, selon l’équipe de recherche. Des études plus renseignées (estimées reproductibles par les scientifiques) placent également « en haut du classement » la teigne des choux2 (Plutella xylostella), avec un coût de 4,1 milliards d’euros par an et le longicorne brun de l’épinette3 (Tetropium fuscum), avec un coût de 4 milliards d’euros par an rien qu’au Canada.

Par ailleurs, d’après cette étude, l’Amérique du Nord présente les plus importantes pertes financières avec 24,5 milliards d’euros par an, tandis que l’Europe n’est pour l’instant qu’à 3,2 milliards d’euros par an. Mais cette différence s’explique par un manque de sources d’évaluation et non par une réelle différence d’exposition au danger. Ainsi, selon les chercheurs, le coût annuel total estimé de 69 milliards d’euros est largement sous-évalué. De nombreuses régions du monde n’offrent pas assez de données économiques pour produire une estimation précise, qui a donc été minimisée. De plus, l’équipe de chercheurs s’est concentrée sur l’étude des dix espèces invasives les plus coûteuses, sans comptabiliser celles, très nombreuses, qui provoquent moins de dégâts. Enfin, si l’on considère les valeurs estimées pour les services écosystémiques à l’échelle globale (plusieurs centaines de milliards de dollars pour la seule pollinisation des cultures), les perturbations causées par les insectes envahissants pourraient atteindre un niveau bien au-delà de l’estimation actuelle.

La santé et l’agriculture sont les plus touchées

Les insectes dans leur ensemble pèsent particulièrement sur l’agriculture en consommant 40 % des biens de consommation (l’équivalent de ce qui pourrait nourrir un milliard d’êtres humains).

Sur la santé, le coût global attribuable aux insectes envahissants dépasse 6,1 milliards d’euros par an (sans prendre en compte le paludisme, le virus Zika, ou encore l’impact économique provoqué sur certains facteurs comme le tourisme, la productivité, etc). D’un point de vue géographique, les régions du monde où les dépenses médicales liées aux dégâts causés par les insectes envahissants s’avèrent les plus importantes, sont respectivement l’Asie (2,55 milliards d’euros par an), l’Amérique du Nord (1,85 milliards d’euros par an) et l’ensemble de l’Amérique centrale et du Sud (1,66 milliards d’euros par an). Et, parmi les maladies les plus lourdes financièrement, on trouve au premier plan la dengue, dont les dépenses représentent 84 % des 6,1 milliards d’euros.

Une plus grande vigilance et la mise en place de procédures de réponse à une invasion biologique permettraient de faire économiser à la société des dizaines de milliards d’euros, selon les auteurs. Ces mesures de prévention pourraient diviser au moins par dix les coûts des maladies provoquées par les moustiques.

Source : cnrs

La naissance du politique chez l’enfant : le cas de la hiérarchie

Les relations hiérarchiques constituent une des caractéristiques de notre vie sociale. L’enfant détecte très tôt la différence entre un individu dominant et un individu subordonné. Mais quel comportement adopte-t-il face à une asymétrie hiérarchique ? Va-t-il favoriser le dominant et ainsi préserver le statu quo ? Ou au contraire avantager le subordonné et instituer une forme d’égalité ? Comment ces prises de position évoluent-elles pendant l’enfance ?

Des chercheurs de l’Institut des sciences cognitives Marc Jeannerod (CNRS/Université Claude Bernard Lyon 1), des universités de Lausanne et de Neuchâtel ont examiné les prémices de ce positionnement politique chez des enfants âgés de 3 à 8 ans grâce à deux expériences : l’une de partage de ressources, l’autre de redistribution.

Dans la première expérience, les chercheurs ont demandé à 173 enfants de regarder une saynète jouée par deux marionnettes. L’une d’elles imposait systématiquement ses jeux à l’autre : les enfants reconnaissaient en elle le chef. Les chercheurs donnaient alors à l’enfant un grand chocolat et un petit chocolat, et observaient à quelle marionnette il distribuait chaque friandise. A 3 et 4 ans, une large majorité d’enfants avantage la marionnette dominante en lui attribuant le grand chocolat. A 5 ans, cette tendance disparait, pour s’inverser complètement à 8 ans. A cet âge, la quasi-totalité des enfants favorisent la marionnette subordonnée.

Les spécialistes ont intitulé la seconde expérience « paradigme de Robin des Bois ». Les enfants (au nombre de 132) devaient regarder une scène où trois personnages, dont l’un se déclarait être le chef, jouaient dans un parc. Par la suite, le chef et l’un des subordonnés recevaient chacun trois pièces, tandis que le dernier subordonné obtenait seulement une pièce. L’examinateur demandait à l’enfant de prendre une pièce de l’une des deux personnages les plus riches pour la donner au plus pauvre. Le même effet que dans la première expérience est alors observé : les plus jeunes protègent les ressources du dominant alors que les plus âgés protègent celles du subordonné.

Les enfants les plus âgés parvenaient souvent à expliquer leur choix. Ils donnaient le plus gros chocolat à telle marionnette «parce qu’elle ne choisit jamais le jeu », ou encore « parce qu’elle est moins chanceuse que l’autre ». D’autres, surtout les plus jeunes, n’y arrivaient pas, car produire une justification leur demandait un niveau d’abstraction trop élevé.

Les chercheurs suggèrent plusieurs facteurs pour expliquer l’avantage donné au dominant et pour comprendre l’inversion de cette tendance avec l’âge. Tout d’abord, les enfants plus jeunes sont plus dépendants des figures d’autorité parentale. De plus, à la crèche, les rapports de dominance entre enfants sont fréquents et relativement bien acceptés. Les très jeunes enfants pourraient également vouloir s’attirer les faveurs du dominant, ou éviter d’entrer en conflit avec lui. Mais la volonté des enfants de contrecarrer les inégalités se renforce à mesure que se complexifie leur vie sociale. En effet, plus ils grandissent, plus ils ont de partenaires de jeu, plus la notion d’égalité leur est nécessaire pour évoluer dans leur groupe.

Ces travaux montrent que les enfants commencent à être sensibles aux inégalités de statut vers cinq ans, et que cette tendance devient très prononcée vers huit ans. Toutefois, ces résultats ne signifient pas que les enfants de huit ans se montrent égalitaristes dans toutes les situations sociales. Les chercheurs s’attachent maintenant à comprendre l’effet du genre et l’influence de la culture sur cette tendance : une marionnette de genre masculin sera-t-elle perçue comme davantage dominante ? La sensibilité aux inégalités est-elle moins forte dans les pays où les hiérarchies sont culturellement plus marquées ?

Source : cnrs

Démoclès : améliorer le recyclage dans le bâtiment

L’ensemble des déchets issus du second oeuvre, c’est-à-dire non structurels au bâtiment, représentent 10 millions de tonnes chaque année. Actuellement, 90 % de ces déchets sont collectés en mélange, le plus souvent en benne. Cela constitue un véritable frein à leur recyclage, tout en entraînant des coûts supplémentaires de manutention et des risques sanitaires. En effet, les différents matériaux peuvent être contaminés par le mercure des lampes fluorescentes, ou par la poussière de plâtre, ce qui les rend impropre au recyclage. Selon l’ADEME, lorsque déchets sont collectés en mélange dans une benne, les taux de valorisation ne dépassent pas 35 % pour les déchets inertes et 15 % pour les déchets non dangereux. En adaptant la gestion de ces déchets, le projet Démoclès estime qu’il est possible d’en recycler jusqu’à 80 %, « sans surcoût ».

Le projet Démoclès, à travers un retour d’expériences de 18 mois sur 19 chantiers, propose de collecter les déchets séparément dans des contenants adaptés. « Ces contenants, plus petits que les bennes, sont plus maniables et transportables depuis le poste de travail des opérateurs jusqu’à l’aire d’évacuation des déchets », insiste le rapport du projet.

Repenser la gestion des déchets

Récylum a intégré dans le projet une quarante d’acteurs représentant l’ensemble de la chaîne, de la maîtrise d’ouvrage jusqu’aux industriels utilisant la matière recyclée. Et il en ressort que le frein pour améliorer le recyclage n’est pas réellement technique. Le faible taux de valorisation est à rechercher du côté du manque d’implication des maîtres d’ouvrage, puis de l’ensemble des autres acteurs, le long de la chaîne. « Une majorité [des maîtres d’ouvrage] ne se sent pas concernée par la gestion des déchets issus de leurs chantiers », relève le rapport de l’étude, alors qu’ils sont le premier maillon de la chaîne pour assurer une collecte performante.

L’ensemble de la logistique doit donc être repensée pour que l’ensemble des acteurs prennent leurs responsabilités. La maîtrise d’ouvrage doit définir un réel pilotage de la gestion des déchets et exiger la traçabilité des déchets pour la maîtrise d’oeuvre. « Les entreprises de travaux doivent connaître les filières de valorisation et les gestionnaires de déchets doivent proposer des services adaptés aux caractéristiques de chaque chantier et aux objectifs de valorisation des déchets », proposent les experts de Démoclès. Les auteurs recommandent également d’intégrer cette question à la formation initiale, notamment des architectes. Cela permettra d’atteindre les objectifs ambitieux de la loi de transition énergétique pour la croissance verte. Le texte vise à valoriser sous forme de matière 70 % du secteur du bâtiment et des travaux publics en 2020.

Qu’est-ce qui est recyclable ou valorisable ?

Les déchets du second oeuvre sont constitués à 48 % de déchets inertes (briques, carrelage…), 47 % de déchets non dangereux (plâtre, revêtements de sols, isolants…) et 3 % de déchets dangereux (lampes, bois traités, équipements électriques…). Sur 24 catégories de déchets identifiées sur les chantiers, 15 peuvent bénéficier d’un recyclage. Sur ces 15 catégories, 10 doivent faire l’objet d’une collecte séparée en pied de chantier pour permettre une « valorisation optimale ». Il s’agit notamment des équipements électriques, des lampes et tubes fluorescents, des moquette, des ouvrants, du plâtre, du polystyrène, du PVC rigide et souple et du verre plat. Les autres catégories, incluant par exemple les tapisseries et tissus murales, la laine minérale ou encore le polyuréthane, ne sont pas valorisables et pourront continuer à être collectées en mélange.

Par Matthieu Combe, journaliste scientifique

Il y a un copilote dans le drone Disco

Commercialisé depuis septembre à 1299 €, le drone Disco est un cas à part dans le catalogue de mini-drones civils du fabricant Parrot. Il n’a pas l’allure typique d’un aéronef multi-rotors, mais celui d’une aile volante dotée d’une belle envergure de 115 cm. Du fait de ce profil aérodynamique assurant une meilleure portance, le Disco est capable de filer à quelque 80 km/h.

Parrot-Disco-text-petit

Une telle vitesse n’est pas courante pour un tel engin grand public, encore moins pour des pilotes peu aguerris. Le risque de «casse» est de facto significatif. Parrot a résolu la problématique de deux manières. D’une part, le Disco, malgré sa taille assez imposante, ne pèse que 750 grammes. Quant à la voilure, elle est fabriquée en polypropylène expansé, matériau robuste et répandu dans l’aéromodélisme. Ces deux facteurs conjugués explique que le Disco résiste bien aux impacts en cas d’atterrissage en catastrophe.

Mais la légèreté est susceptible de compromettre la stabilité, en particulier quand le pilote exécute une manœuvre imprudente. Le mini-calculateur de bord, nommé Chuck (Control hub and universal computer for kit), joue donc le rôle d’un assistant qui analyse les paramètres de vol et ajuste la direction des gouvernes et la puissance du moteur. Ces corrections évitent ainsi l’embardée ou le décrochage. Les données proviennent d’une impressionnante quantité de capteurs : accéléromètre, gyroscope, magnétomètre, altimètre…  et même un tube de Pitot, qui en aéronautique sert à mesurer la vitesse du vent relatif.

Les utilisateurs expérimentés ont toutefois la possibilité de court-circuiter ce copilote électronique et d’accomplir les acrobaties de leurs choix, à l’aide d’un module de radio-commande optionnel.

Par Frédéric Monflier

Polémique sur un pipeline américain installé en terres indiennes

Le pipeline en question, dénommé Dakkota Access, est un projet évalué à 3,8 milliards de dollars (3,4 mds €) qui doit permettre d’évacuer les productions d’huiles de schiste de l’énorme gisement de Bakken dans le Dakota du nord vers le hub pétrolier de Patoka (Illinois). Il aura une capacité de transport opérationnelle de 470 000 barils/jour, avec extension potentielle à 570 000 b/j. Selon les opposants au projet, le tracé du tube près de la réserve de Standing Rock Sioux aurait entraîné la destruction de nombreux sites sacrés alentours par les engins de chantiers. La compagnie Energy Transfer en charge du projet dément.

Dakota_Acess_overview-map_14576473114633 (1)

Obama intervient

La contestation partie au niveau local s’est étendue jusqu’à atteindre la Maison Blanche. L’Administration Obama a suspendu le projet temporairement en raison du fait que le tracé passe par des terres fédérales. Le dossier a été renvoyé à l’Army Corps of Engineers, une agence fédérale sous le contrôle du département de la Défense, responsable du maintien des ressources environnementales. C’est elle qui devra se prononcer. Sauf que l’affaire a depuis été portée jusqu’au Nations-Unis à New-York sous le motif que le pipeline viole la charte de l’Institution internationale sur les droits des Peuples indigènes.

Il s’agit d’une nouvelle mauvaise nouvelle pour le secteur pétrolier américain qui a vu ces dernières années des projets phares tombés à l’eau, en raison des contestations locales grandissantes et de l’empreinte « green » qu’a souhaité marqué le Président Obama sur ses deux mandats. C’est ainsi qu’un autre grand projet de pipeline, Keystone XL, a été annulé après 7 années de controverses. Le malheur des uns faisant le bonheur des autres, l’abondance de gaz et huiles de schiste sur le marché américain et le manque de capacités d’export a fait chuter les prix ce qui a considérablement favorisé l’industrie chimique américaine et les grandes énergivores dont une part importante des coûts est directement liée aux hydrocarbures.

Romain Chicheportiche

Record du monde: le solaire PV trois fois meilleur marché que le gaz naturel aux Emirats Arabes Unis

En août 2016 un contrat solaire a été signé au Chili pour 2,910 US cents le kWh, écrasant le précédant record de 2,990 cents à Dubaï proposé en mai 2016.

Mais le chinois JinkoSolar en partenariat avec le japonais Marubeni vient de proposer une offre à 2,420 US cents pour la centrale solaire de Sweihan à Abu Dhabi, Emirats Arabes Unis. Ceci avec un taux d’intérêt annuel de 7% ce qui suggère que le projet est financièrement viable.

La centrale de Sweihan pourrait avoir une puissance dépassant 1,1 GW, soit les deux tiers de celle d’un réacteur nucléaire EPR. Le projet initial était de 350 MW mais la Abu Dhabi Electricity and Water Authority (ADWEA) a souhaité le muscler en triplant sa capacité. A ce stade l’ADWEA n’a sélectionné aucune des 6 offres proposées.

La seconde offre (2,533 cents) a été réalisée par le groupe Masdar en partenariat avec l’électricien français EdF ainsi qu’avec PAL Technology, entreprise basée à Abu Dhabi. Les quatre autres offres s’étalent entre 2,598 cents et 3,635 cents. Autrement dit l’offre la plus coûteuse, proposée par le sud-coréen Kepco (Korea Electric Power Corporation)  est 3,3 fois meilleure marché qu’avec l’EPR d’Hinkley Point en Grande-Bretagne.

Plusieurs facteurs peuvent expliquer ces offres à des prix aussi bas. Aux Emirats Arabes Unis le coût de l’argent est faible, tout comme celui du travail. Un autre facteur est que les acteurs anticipent une baisse des prix des modules photovoltaïques. Ils pourraient chuter de 50% dans les 18 mois à venir selon les analystes de l’agence Bloomberg dans un contexte de déséquilibre entre l’offre et la demande. Les acteurs du solaire chois, qui contrôlent 90% du marché mondial, cherchent à écouler un surplus anticipé de leur production en modules PV.

Mais pour Frank Wouters, ex-directeur de l’entreprise Masdar spécialiste des EnR, il est peu probable que les prix du solaire remontent dans le futur. « Nous continuons à apprendre comment réduire le coût des cellules solaires et des autres composants, tout comme celui de l’O&M (Opération et Maintenance). Par conséquent il n’y a pas de raison que le coût du solaire se mette à remonter » a déclaré l’expert.

Le coût du solaire PV est à présent trois fois meilleur marché que celui du gaz naturel à Abu Dhabi. Les Emirats Arabes Unis (UAE) cherchent donc à construire le plus rapidement possibles des centrales solaires afin de pouvoir exporter leur production gazière.

Pour Gilles Parkinson, fondateur du site australien RenewEconomy, « ces contrats solaires devraient conduire EdF à se poser quelques questions. Son offre à 25,33 dollars le MWh pour la centrale solaire d’Abu Dhabi correspond à environ un cinquième du prix (£92.50, c’est à dire $US120/MWh) qu’il a demandé pour le nouveau réacteur nucléaire d’Hinkley Point C au Royaume-Uni ».

Il est possible que les dirigeants d’EdF ainsi que les fonctionnaires de l’état français impliqués dans les choix énergétiques stratégiques n’aient pas vraiment envie de se poser ces questions car cela les pousserait à remettre en cause des dogmes anciens qu’ils croyaient inébranlables. Un choc non seulement financier mais aussi, et peut-être surtout, culturel.

Pas simplement une « transition » mais une « révolution »

Le coût du solaire PV a chuté de plus de 80% durant les 5 dernières années ce qui ouvre la perspective non seulement d’une transition énergétique  mais d’une révolution globale estime Isabelle Kocher,  CEO d’Engie, le géant français de l’énergie. « Ce que nous sommes en train de vivre n’est pas de l’ordre d’une transition mais d’une révolution industrielle ».

Alors que le solaire à concentration thermodynamique (« CSP ») couplé au stockage thermique était considéré il y a 5 ans comme promis à un bel avenir par les experts de l’énergie, y compris ceux du think tank d’origine allemande DESERTEC, la compétitivité croissante du solaire PV rebat complètement les cartes. Le CSP n’a cependant pas dit son dernier mot, notamment dans le cadre de systèmes combinés CSP + PV (Lire sur Techniques de l’ingénieur l’article: La prometteuse alliance du solaire avec le solaire !).

Une chute aussi rapide n’était anticipée ni par l’Agence Internationale de l’Energie, ni par les ONG écologistes. Et pas davantage par les stratèges d’AREVA, d’EdF et des Ministères de l’écologie et de l’économie.

Alors que les turbines des centrales nucléaires, au charbon ou hydroélectriques relèvent de la physique classique, le solaire photovoltaïque relève de son côté de la physique quantique. La cinétique d’évolution des coûts est comparable à celle des composants électroniques.

On peut donc s’attendre à un boom du solaire PV aussi explosif que celui des Smartphones.

Olivier Daniélo

Croissance record pour l’agriculture biologique !

Fin 2015, le marché des produits bio était estimé à 5,76 milliards d’euros, en hausse de 14,7 % par rapport 2014. Les chiffres de l’Agence bio montrent que le marché avance encore davantage en 2016. Sur les 6 premiers mois de l’année, les ventes augmentent de près de 20 %. « A la fin de l’année, il devrait atteindre les 6,9 milliards d’euros, soit un gain d’1 milliard d’euros en seulement 1 an », estime l’Agence bio.

Tous les indicateurs sont au vert. Au cours des 6 premiers mois de l’année, ce sont près de 3.000 nouvelles fermes qui se sont lancé en bio pour atteindre un total de 31.880 fermes. Une hausse de 10 % contre 8 % sur la même période en 2015. Les fermes bio représentent désormais 7,2 % des fermes françaises et 10 % des emplois agricoles. Fin juin 2016, l’Agence bio estime que les terres consacrées au mode de production bio s’élèvent à 1,57 million d’hectares, soit plus de 5,8 % de la Surface agricole utile (SAU). Sur ce total, près de 500.00 hectares sont en conversion, dont 260.000 hectares en première année. C’est 20 % de plus qu’il y a un an.

Toutes les filières sont concernées par la dynamique de conversions en 2016. Face à la crise laitière, l’élevage bovin laitier bio connait un essor sans précédent, avec 562 producteurs spécialisés engagés en 6 mois. « Après la période de conversion de deux ans, la filière attend donc un développement de l’ordre de 30 % de la collecte de lait bio d’ici 2018 », se félicite l’Agence bio. Le secteur viticole poursuit aussi son développement avec 300 nouveaux domaines viticoles engagés en bio sur la même période. Les filières les plus dynamiques restent, comme en 2015, celles des grandes cultures (740 engagements) et de l’élevage bovin allaitant (400 engagements), mais le rythme est là, similaire à l’an passé.

En parallèle du développement des ventes, du nombre de fermes et des surfaces cultivées en bio, le nombre d’entreprises se développe. Au premier semestre, 1.200 nouveaux transformateurs, distributeurs, importateurs et exportateurs ont rejoint les rangs des acteurs de la filière bio en France, pour atteindre un total de 14.338. Soit 6 % de plus que fin 2015.

Par Matthieu Combe

Revue de presse anglophone #1 : Elon Musk, Maison Blanche, cerveau…

Espace

elon-musk350

Le plan d’Elon Musk pour envoyer des humains sur Mars… et au-delà

Le fantasque milliardaire a toujours eu Mars en ligne de mire. Son rêve porte aujourd’hui le nom de « The Interplanetary Transport System » et serait en passe de se concrétiser.

Management

femmes-maison-blanche350

Comment les femmes se font-elles entendre en réunion à la Maison Blanche ?

Une technique simple et ancienne : la solidarité féminine ! Et apparemment, ça marche.

Source : The Washington Post

 

Environnement

ble350

A quel point le blé est-il impacté par le climat ?

Le blé, au cœur de notre alimentation occidentale, serait en danger. En cause : la hausse des températures.

Source : Nature.com

 

25Lusk-master768

Pourquoi les fermes industrielles sont bénéfiques pour l’environnement

Aux Etats-Unis, les plus grosses exploitations agricoles auraient tendance à avoir un impact positif sur leur environnement grâce notamment à l’usage de technologies de pointe et à la rationalisation des épandages.

Neurosciences

cerveau350

Chaque jour, notre cerveau est amené à trier une quantité phénoménale d’informations, travail effectué en partie grâce aux neurones inhibiteurs.

Source : Nature.com

La raison serait simple : le fait de produire un effort pour nous exprimer nous pousserait également à réfléchir davantage.

 

Selon une équipe de chercheurs américains, il existerait un lien entre la qualité du sommeil d’un enfant et le risque de développer une addiction à l’alcool ou à la drogue une fois adulte.

 

solitude350

Etre seul pour être heureux

Une enquête menée par la BBC tend à montrer que la solitude, à condition d’être choisie et non subie, se révèle indispensable à une bonne santé psychique.

Source : BBC News

Nouvelles technologies


snapchatSnapchat vs Google

Après l’échec retentissant des Google Glass, on ne s’attendait pas à voir tout de suite débarquer des petites lunettes high tech ! Les créateurs des lunettes Snapchat vont-ils remporter la partie ?

Source : Recode

 

man-791049_640

L’industrie du « no code » est en plein boom et de nouvelles plateformes voient le jour.

Source : Quartz

 

 Par Iris. T

Le transport maritime mondial, dans la tourmente

Cet été a été très difficile pour le transport maritime. La faillite de l’armateur sud-coréen Hanjin Shipping en août illustre la plus grave crise que connait le transport maritime depuis 30 ans. Hanjin Shipping, septième entreprise mondiale de fret maritime, a été placé en redressement judiciaire début septembre, incapable de faire face à sa dette estimée à 6.000 milliards de wons (4,8 milliards d’euros). Certains de ses cargos errent encore en attendant une autorisation d’amarrage et/ou de déchargement, les autorités des ports de destination craignant de ne pas être payées pour leurs services. D’autres ont déchargé leurs conteneurs dans des ports, avant leur destination finale, nécessitant la reprise de ces conteneurs par d’autres armateurs.

Pour débloquer une partie de ces navires paralysés, Korean Air Lines Co., le plus gros actionnaire de Hanjin Shipping, a finalement accepté le 21 septembre de valider un prêt de 60 milliards de wons (48 millions d’euros) au transporteur maritime. Ce montant s’ajoute aux 40 milliards de wons (32 millions d’euros) apportés par Cho Yang-ho, le président du conglomérat Hanjin Group, sur sa fortune personnelle. Un plan de redressement crédible doit, en théorie, être dévoilé par la direction avant le 25 novembre. Le tribunal le placera alors en redressement, avec surveillance de sa gestion et rééchelonnement de sa dette, ou le liquidera.

Léger répit pour le secteur maritime

La faillite de Hanjin Shiipping est néanmoins une bonne nouvelle à court terme pour ses concurrents, car les conteneurs abandonnés par l’armateur augmentent les prix de fret. Et les clients de Hanjin vont devoir trouver des solutions alternatives pour leurs prochains transports, notamment entre l’Asie et les Etats-Unis, où l’armateur était très présent. 98 navires spécialisés, sans compter 44 vraquiers et tankers sont immobilisés, limitant un peu pour le moment les surcapacités.

Le Baltic Dry Index (BDI) est l’un des indices de prix du transport maritime. En mai 2010, le BDI atteignait 4000 points. Après une baisse vertigineuse à 290 points en février 2016 et quelques fluctuations, il reprend de la vigueur depuis août et atteint 937 points au 22 septembre, soit un niveau similaire à celui observé en septembre 2015. Mais « la reprise n’est tout simplement pas en vue, même si le pire est passé », assure la Shanghai Shipping Exchange, la Bourse maritime de Shanghai, dans un communiqué. « La seule solution viable pour retrouver la santé du marché est de mettre fin à l’approvisionnement de nouveaux navires et d’envoyer à la casse les plus anciens », assure Khalid Hashim, directeur général de l’opérateur thaïlandais Precious Shipping.

Les armateurs se réorganisent pour affronter la crise

Toutes les grandes compagnies maritimes encaissent de mauvais résultats au deuxième trimestre. Par exemple, le danois A.P. Møller-Mærsk, numéro 1 mondial, présente un résultat net de 118 millions de dollars, contre 1,1 milliards engrangés au 2e trimestre 2015. Le français CMA CGM, numéro 3 mondial, a annoncé une perte de 128 millions de dollars, contre un bénéfice de 156 millions un an plus tôt. Sur les 6 premiers mois de l’année, l’armateur français a perdu 204 millions d’euros. Le groupe a donc lancé début juillet un plan d’économies considérable : un milliard de dollars en 18 mois. Et pour limiter les surcapacités, CMA CGM, à l’image d’autres armateurs, va décaler la livraison de certains navires à 2017.

Pour résister, l’ensemble du secteur se réorganise. Les chinois China Ocean Shipping et China Shipping ont fusionné, de même que l’allemand Hapag-Lloyd avec United Arab Shipping Company (UASC). CMA CGM  a absorbé la plus grande compagnie maritime d’Asie du Sud-Est, la Neptune Orient Lines Limited (NOL). De son côté, A. P. Møller-Maersk va se séparer de sa branche pétrolière pour devenir un pur spécialiste du transport maritime.

Une surcapacité durable

Les armateurs n’avaient pas anticipé la crise économique et ont commandé des méga porte-conteneurs il y a une dizaine d’années, au pic de la croissance des échanges. Il y aurait désormais un tiers de navires en excès et les armateurs tardent à envoyer les plus anciens à la casse, le prix de la ferraille ayant aussi chuté.

Le commerce maritime continue pourtant de croître mais de moins de 3% par an, deux fois moins vite qu’au milieu des années 2000. La situation devrait s’améliorer sur le court terme : les capacités mondiales devraient augmenter de 2,4 % en 2016 alors que la demande, elle, devrait grimper de 3,9 %. Malgré tout, avec des prix qui ont considérablement baissé, la banque Morgan Stanley anticipe pour cette année une perte globale de 5 milliards de dollars pour le secteur.

Par Matthieu Combe, journaliste scientifique

Comment atteindre le facteur 4 des transports en 2050?

Pour diviser par un facteur 4 les émissions nationales de gaz à effet de serre en 2050 par rapport à leur niveau de 1990 d’ici 2050, les budgets carbone figurant dans la Stratégie nationale bas carbone (SNBC) supposent une baisse de 29 % des émissions de gaz à effet de serre du secteur des transports pour la période 2024-2028 par rapport à 2013. À l’horizon 2050, l’objectif est de parvenir à une baisse d’au moins deux tiers.

Les émissions directes du secteur des transports – hors transport maritime et aérien – s’élevaient à 124 millions de tonnes de CO2 (MtCO2) en 2012, soit environ 24,9 % des émissions françaises. Le transport de marchandises représentait 21,9% de ce total. La route, incluant les marchandises et le transport de personnes, représentait près de 94,5% des émissions du secteur. Pour agir massivement sur les émissions de gaz à effet de serre, il faut donc agir sur les émissions liées au transport routier.

Favoriser les économies d’énergie ?

Le rapport « Projections de la demande de transport sur le long terme » explore deux projections pour 2050. La projection dite « tendancielle », correspond au prolongement des tendances observées au cours des dernières années. Elle suppose des améliorations limitées de gains énergétiques et logistiques (diminution des retours à vide, massification des flux). Elle est insuffisante pour limiter l’impact du transport de marchandises sur l’environnement. La deuxième, fixée par la Stratégie nationale bas carbone (SNBC) est plus ambitieuse. Elle retient une baisse importante des consommations des véhicules pour le transport routier de marchandises pour arriver à une consommation moyenne de 20,9 L/100 km en 2050, contre 26,6 L/100 km dans le cadrage tendanciel. Par ailleurs, elle prévoit l’augmentation du chargement moyen des poids lourds et le développement des autoroutes électriques permettant une alimentation électrique en circulation, par caténaire.

Quelles évolutions des émissions de CO2 ?

Dans leur ensemble, les émissions directes de CO2 liées au transport diminueraient de 20 % en 2030, par rapport à 2012, pour atteindre 99,2 MtCO2. Soit 9% de plus que les budgets carbone figurant dans la SNBC. À l’horizon 2050, la baisse atteindrait 30 % dans le cadrage tendanciel (86,3 MtCO2) et  62 % dans le cadrage SNBC (47,2 MtCO2). Si le scénario SNBC est compatible avec le facteur 4 sur l’ensemble des émissions françaises de gaz à effet de serre, le scénario tendanciel est insuffisant. L’atteinte des objectifs ne pourra donc se faire que « grâce à un renforcement important des politiques visant la baisse des consommations unitaires des véhicules, la diffusion de vecteurs énergétiques alternatifs, la maîtrise de la mobilité et le développement des modes alternatifs à la route », insiste l’organisme.

Dans le scénario SNBC, la plus forte baisse est liée à la circulation routière individuelle. Le passage de 68,9 MtCO2 en 2012 à 20,4 MtCO2 en 2050 est notamment rendu possible par la diminution des consommations individuelles des véhicules. Le recul des émissions liées au transport de marchandises est beaucoup plus faible. Elles baisseraient de 35% dans le scénario SNBC, mais augmenteraient de 13% en 2030 et de 27% en 2050 selon le scénario tendanciel.  Dans le scénario SNBC, le transport de marchandises représenterait 37,5% des émissions directes du secteur des transports. Une part beaucoup plus importante qu’en 2012.

tab2
Évolution des émissions unitaires des véhicules routiers en gCO2 par véhicule et par kilomètre entre 2012 et 2050, selon le scénario SNBC.

 

Par Matthieu Combe, journaliste scientifique

Transports de marchandises : entre route, train et fleuve

Lorsque l’on parle de transport, on pense souvent à la voiture particulière qui représente plus de 70 % de la circulation routière. Mais le rapport  de la commission des comptes des transports de la Nation paru en Juillet 2016 s’intéresse de près au transport intérieur de marchandises en France. Hors oléoducs, le secteur a crû à partir de 1995, jusqu’à sa chute, lors de la crise de 2008-2009. Il atteint désormais son niveau du début des années 2000.

Dans le détail, le fret aérien demeure très faible, à moins de 2 millions de tonnes de marchandises et concerne essentiellement le transport international de marchandises (1,6 millions de tonnes). Si l’on laisse de côté le fret aérien, le transport terrestre de marchandises représente 335 milliards de tonnes transportées sur un kilomètre (t-km) en 2015. La majorité des marchandises circulent par la route, principalement grâce aux poids lourds de plus de 3,5 tonnes. « Les parts modales n’évoluent plus guère depuis 2010 : la route représente 87,1 % du transport terrestre hors oléoducs, le transport ferroviaire 10,6 % et le transport fluvial 2,3 % », note la commission. Mais depuis 20 ans, les transports non routiers reculent fortement en part modale. Celle-ci a été divisée par presque deux. Si ces transports regroupaient 23,5 % des t-km intérieures en 1990, ils n’atteignaient plus que 12,2 % en 2011. En 2015, ils repartaient à la hausse (12,9 %), grâce à la croissance du transport ferroviaire. Le transport fluvial, avec la diminution d’activité dans le bâtiment et les travaux publics reste marginal dans les transports.

Des transports qui régressent

Concrètement, depuis 2010, le transport terrestre de marchandises, hors oléoduc, baisse de 1 % chaque année. La baisse est de 1,3 % pour le routier, de 1,3 % pour le fluvial. Seul le ferroviaire progresse de 2,7 % en moyenne .

En 2015, la baisse s’est accentuée, atteignant 1,6% au total : 2,5 % pour le transport routier et 2,6 % pour le transport fluvial. Seul le transport ferroviaire tire son épingle du jeu, avec une hausse de 5,1%.  Le transport de produits pétroliers par oléoducs, en forte diminution depuis plusieurs années (- 8,3 % entre 2010 et 2015 en moyenne annuelle) repart à la hausse en 2015 (+ 3,5 %).

tab
Transports intérieurs terrestres de marchandises par mode. Niveaux en milliards de t-km, évolutions en %. Source :  Les comptes des transports en 2015

 

Place aux transporteurs internationaux !

Quel rôle jouent les transporteurs français dans l’ensemble de ces trajets ? Le transport international représente 23,7 % du transport de marchandises en 2015. Cette part a tendance à augmenter : elle s’élevait à 21,4 % en 2000 et à 21,8 % en 2010. La part de l’international atteint 22,8 % dans le transport routier, 27,8 % dans le transport ferroviaire et 38,3 % dans le transport fluvial.

En 2015, le pavillon français n’assure plus que 61,7 % du transport de marchandises contre 73 % en 2000 et 78 % en 1995. Le dynamisme du transport ferroviaire en 2015 s’explique cependant par le redémarrage du transport national (+ 6,1 %) alors que le transport international ne progresse que de 3,2 %.

Les transports, ça rapporte?

Le secteur des transports (transport de personnes, de marchandises, de poste et de courrier)  contribue pour 8,8 % du produit intérieur brut (PIB) français, à hauteur de 187,1 milliards d’euros en 2015. Sur ce total, le transport de marchandises représente 33 %. En 2015, les prix du transport de fret ont diminué, à l’exception des transports aériens. Les prix du transport routier (- 1,2 %) fléchissent moins que ceux du transport ferroviaire (- 3,5 %) et du transport fluvial (- 3,9 %).

Le volume d’activité (en t-km) réalisé par les véhicules de plus de 3,5 tonnes immatriculés en France s’est contracté de 7 % en 2015, accentuant le recul de 3,8 % observé en 2014. Mais terminons sur une note positive : le rapport souligne que la tendance semble s’inverser. Au premier trimestre 2016, l’activité des véhicules immatriculés en France de plus de 3,5 tonnes a augmenté de 4,1 %, après une baisse de 3,3 % au quatrième trimestre 2015.

Par Matthieu Combe, journaliste scientifique

Quelle évolution du transport de marchandises d’ici 2050 ?

Le transport de marchandises a diminué de 18% entre 2007 et 2012. Selon les projections du  Commissariat général au développement durable, il devrait repartir à la hausse jusqu’en 2050. Le volume de marchandises circulant sur le territoire français augmenterait en moyenne de 1,6 % chaque année, poussé par la demande internationale (hausse de 2,2%). Il passerait ainsi de 2,43 milliards de tonnes en 2012 à 3,26 milliards en 2030. Le  Commissariat général au développement durable mise sur un développement plus faible entre 2030 et 2050, avec une croissance annuelle moyenne de 1,1 %. Résultat: le volume de marchandises circulant sur les axes de transport français atteindrait 4,03 milliards de tonnes en 2050.

Si les volumes transportés vont augmenter, c’est aussi le cas des distances de transport. «  Les distances moyennes de transport devraient s’allonger et les trafics augmenter plus rapidement que les volumes de marchandises en circulation », prévoit le Commissariat. Au global, le transport de marchandises (routier, ferroviaire et fluvial) devrait augmenter en moyenne de 2,1 % par an. Il passerait ainsi de 304 milliards de tonnes-kilomètres (Mt-km) en 2012 à 442 Mt-km à l’horizon 2030. « Cette évolution s’effectue avec des parts modales globalement inchangées entre la route, le fer et le fleuve », précise le rapport. Les poids lourds devraient néanmoins rouler avec un volume de marchandises plus important qu’aujourd’hui, entraînant une augmentation plus lente de la circulation des poids lourds (1,4 % par an). En 2050, le trafic total de marchandises atteindrait près de 576 Mt-km.

Entre 2012 et 2030, l’augmentation de la demande de transport est poussée par les machines et véhicules (+2,7%), les produits chimiques (+2,1%), les produits métallurgiques (+2,1%) et les produits agricoles (+2%). Les baisses les plus conséquentes concernent les combustibles minéraux solides (-2,4%) et les produits pétroliers (-1,8%), en raison de la diminution de l’utilisation de ces sources d’énergie. La répartition resterait similaire entre 2030 et 2050.

Par Matthieu Combe, journaliste scientifique

Les robots partent à la conquête des entrepôts

Le distributeur américain Walmart teste depuis juin des drones dans ses entrepôts pour effectuer ses inventaires. Ces travailleurs sont indétronables : ils réalisent l’équivalent de deux mois de travail en une journée. Equipés d’un scanner, ils inventorient des cartons et palettes entreposées afin de mettre à jour les stocks. Le groupe français Hardis Group  a lancé le drone Eyesee, un drone similaire pour les inventaires et le contrôle des stocks, sans intervention humaine. En aval des entrepôts, le 23 septembre, UPS a annoncé tester l’utilisation de drones pour effectuer des livraisons commerciales dans des endroits éloignés ou difficiles d’accès. Ces annonces ne sont que l’une des nombreuses illustrations de l’impact de la robotique dans la logistique. La course à la robotisation a récemment été lancée par Amazon et les autres géants américains du e-commerce. La fièvre atteindra rapidement l’Europe.

L’étude « Des robots et des hommes – Pour une vision confiante de la logistique 2025 », réalisée par le cabinet de conseil Roland Berger, début 2016, est catégorique. Si les logisticiens ne préparent pas la transition robotique, 1,5 million d’emplois seraient détruits en zone euro dans la filière, soit plus d’un emploi sur deux. En France, les destructions d’emplois feraient aussi rage. Le pays compte près de 522.000 emplois de manutentionnaires peu qualifiés : 166.000 dans le commerce, 113.000 dans l’industrie manufacturière, 92.000 dans le transport et l’entreposage, 49.000 dans la construction et 101.000 dans les autres secteurs. Sur cet ensemble, 225.000 emploies seraient menacés et presque autant de postes indirects dans les dix prochaines années.

Malgré cette épée de Damoclès, les logisticiens européens n’ont pas encore pris la mesure du danger. Le cabinet relève que « le sujet reste  pour l’instant confidentiel sur le terrain ». En effet, si 10% des entreprises opérant des entrepôts aux Etats-Unis auraient déjà déployé ou testé ce type de solutions, moins de 2% l’auraient fait en France.  « Veille, pilotes de chariots automatisés, robots de surveillance, drones d’inventaire, les initiatives se multiplient avant tout dans une logique de médiatisation des marques », note néanmoins le cabinet. Mais plus qu’un effet de mode, les professionnels doivent rapidement prendre conscience de l’ampleur du phénomène « si l’on veut que les pertes d’emplois soient compensées au niveau macro-économique, et si l’on veut rester un logisticien compétitif », alerte le cabinet. Ces nouveaux types de robotisation collaborative peuvent s’intégrer dans les infrastructures existantes en bonne collaboration avec les opérateurs humains.

A quand la généralisation des robots dans les entrepôts?

« La question n’est plus de savoir si les robots feront leur entrée en masse dans les entrepôts mais quand! », questionne le cabinet. Et il propose une réponse :  le seuil de bascule en faveur des solutions robotisées se situerait autour d’un coût complet de 100 à 110.000 euros par unité en France. « Ce seuil correspond à un investissement générant un retour sur investissement en 3 ans, grâce à un gain de productivité de 20 à 30% dans les pays matures », précise l’étude. Dès lors, pour le même temps de travail, le coût horaire complet du robot se situe autour de 18 à 20 €, à comparer à un coût moyen humain horaire de 14 à 15 € dans la zone euro, mais déjà de 17 à 18 € en France. Cet horizon n’est plus très loin. Aujourd’hui, le coût complet par unité dépasse encore le plus souvent les 120.000 € par unité. Mais entre 1990 et 2010, le coût moyen d’une unité robotisée en logistique a été divisé par deux, et a subi une baisse identique entre 2010 et 2015.

Ce calcul serait encore plus favorable aux robots s’il prenait en compte le fait que l’activité des robots n’est pas limitée par les heures de travail légales. A moyen terme, « l’augmentation de la productivité, l’allongement de la durée de vie des solutions robo-tiques ou la baisse des prix de l’équipement seront favorables à la robotisation, alors que le coût de la main-d’œuvre humaine poursuivra structurellement son inflation », prévient l’étude.

Comment préparer la transition?

Les services logistiques sont locaux et la perte d’emplois ne pourra donc pas directement être compensée par l’export. L’amélioration de la qualité de service ne suffira pas non plus. Au final, pour compenser en partie les destructions d’emplois « l’amélioration de la compétitivité logistique à l’échelle internationale est l’issue la plus tangible », estime Roland Berger. Car pour développer de nouvelles parts de marché et contrer la destruction des postes de manutentionnaires, « les logisticiens européens devront réussir à attirer sur leur sol national les centres de distribution pour toute ou partie de l’Europe », analysent les auteurs.

« C’est en gagnant en compétitivité, grâce à la robotisation notamment, que la logistique française réussira à gagner des parts de marché sur la logistique de ses voisins » et à créer sur  le territoire national des hub logistiques européens. Le seul espoir pour que  « le mal » devienne « son propre remède ». Mais un remède qui ne sera accessible qu’aux plus compétitifs.

Par Matthieu Combe, journaliste scientifique

Revue du web #95 : les 10 vidéos les plus étonnantes de la rentrée

Un drone muni de bras articulés : le parfait petit livreur !

Alors qu’Amazon et Google rêvent de nous livrer bientôt nos colis par drone, un constructeur japonais s’interroge : comment envisager de faire livrer quoi que ce soit par des drones sans bras ?

Étourderie réparée avec le PD6B-AW-ARM muni de deux bras articulés capables, selon le créateur, de soulever des charges de 10 kg.

 

Un booster de la Nasa qui pulvérise de la mousse

Pour un test grandeur nature spectaculaire, plusieurs ingrédients sont nécessaires :

  1. Le « booster » du futur lanceur lourd SLS (Space Launch System) de la Nasa
  2. Une température froide (pas plus de 4 degrés)
  3. Un couvercle en mousse qui protège l’entrée du réacteur

Résultat ? Une explosion de mousse spectaculaire lors de la mise à feu. Simple mais efficace.

 

Un camion sans pilote qui roule… dans une mine

Voici le tout dernier défi lancé à une voiture autonome : rouler pendant 7 km, sans assistance, au fond d’une mine étroite et sombre de 1320 mètres de profondeur.

Minitaur, le nouveau robot quadrupède

Dans la famille des quadrupèdes, on connaissait déjà BigDog, Spot, ou encore Cheetah. Début septembre, nous avons appris la naissance de Minitaur, un petit robot très agile créé par l’entreprise américaine Ghost Robotics.

 

Les lunettes connectées signées Snapchat

L’application Snapchat surfe sur son succès avec ces lunettes colorées qui permettent d’enregistrer des séquence vidéos à 115° (afin de reproduire le champ visuel humain) de 10 secondes.

Les vidéos sont bien sûr directement enregistrées dans l’application afin d’être envoyées à tous les contacts dans la foulée !
Un gadget ? Peut-être oui.

Le premier vol de l’avion de Virgin Galactic

L’avion futuriste VSS Unity a décollé pour la première fois et a volé pendant près de 4h.

« VSS Unity et WhiteKnightTwo se sont posés ! Les véhicules sont de retour et ont l’air en bon état, après ce premier vol qui s’est bien déroulé » s’est réjouie le 8 septembre l’entreprise américaine Virgin Galactic sur son compte Twitter.

 

Des blocs de béton qui ressemblent à des Lego

Ces briques en béton s’emboîtent comme les célèbres petites briques en plastique colorées, ce qui réduirait le temps de pause d’environ 50%.

Nul besoin de colle, de liant, de qualifications pour construire rapidement un mur !

Une solution aux problèmes de logement dans les quartiers pauvres de Mexico ?  C’est en tout cas l’objectif de l’architecte Jorge Capistran qui collabore avec le ministère du développement social.

Des dents imprimées en 3D

On le sait, la fabrication additive propose parfois des solutions moins coûteuses, et surtout plus rapides à mettre en place. Dernier exemple en date : les couronnes dentaires imprimées en 3D.

Une voiture qui se transforme en robot

Le blockbuster américain Transformers a visiblement fait des émules parmi les ingénieurs turcs, passionnés au point de construire une voiture Transformers plus vraie que nature.

La chaise autonome spéciale (longue) file d’attente

Après la chaise de bureau qui se range toute seule, voici la chaise autonome spéciale file d’attente signée encore une fois Nissan.

Comment ça marche ? La chaise utilise une caméra embarquée associée à un logiciel qui détecte la présence du siège devant elle afin de lui emboîter le pas. Cette technologie est présente dans certains véhicules du constructeur Nissan.

Cette innovation est censée promouvoir la conduite autonome ! On vous laisse juger.

Par I. T.

L’internet mondial va bénéficier d’une nouvelle clé de chiffrement

L’ICANN (Internet Corporation for Assigned Names and Numbers est une autorité de régulation de l’Internet) s’apprête à entamer une opération majeure pour la sécurité de l’Internet à l’échelle mondiale. Elle va procéder à la modification de la paire de clés cryptographiques privées et publiques qui constitue la clé de signature de clé (KSK-key signing key) de la zone racine.

Elle se déroulera en huit étapes et devrait durer environ deux ans. L’ICANN a publié un calendrier. Le mois prochain, le processus de préparation de la nouvelle clé sera lancé. En novembre, la nouvelle KSK sera générée puis, en juillet 2017, elle sera insérée aux premiers DNS. En octobre 2017, l’ancienne KSK sera retirée et elle sera révoquée début 2018. Ce long processus devrait être terminé en mars 2018.

Chaque étape étant cruciale et impliquant de nombreux acteurs, l’organisme a ouvert une page spéciale pour connaître les dernières informations sur le changement de KSK.

Pourquoi autant de précautions ? La KSK est une paire de clés cryptographiques publique-privée qui joue un rôle important dans le protocole des extensions de sécurité du système des noms de domaine. (DNS-Domain Name System). En un mot, l’annuaire de l’internet où des sites comme monsite.com sont traduits en adresse IP numérique.

La partie publique de la paire de clés est le point de départ fiable pour la validation des accès aux sites et plus précisément l’ensemble des DNS. Elle garantit que le site visité est bien l’original est non pas une copie malveillante (des pirates auraient détourné l’adresse).

Sa partie privée est utilisée au cours des cérémonies KSK de la racine pour signer les clés de signature de la zone racine (la fameuse « Root Zone Signing Key », qui est le niveau le plus élevé dans la hiérarchie de la toile). Chaque trimestre, les quatorze « key holders », gardiens des clés (auxquelles il faut ajouter sept autres personnes que l’on présenter comme des remplaçants) se réunissent dans un data center aux États-Unis.

La clé privée est conservée par ICANN, tandis que l’autre sera mise à la disposition des fournisseurs d’accès à Internet, des fabricants de hardware, de développeurs…

À l’occasion de ce processus, la clé va être modifiée, passant de 1024 à 2048 bits.

Malgré toutes ces précautions, des serveurs peuvent être dirigés vers une adresse IP incorrecte : les internautes arrivent alors sur un site malveillant contrôlé par un pirate. C’est ce qu’on appelle le « DNS Poisoning ». Ce fut le cas pour le site du Ministère de la Défense en juin 2011. Preuve que le niveau de sécurité du DNS est faible. Pour limiter les risques, de nombreux domaines utilisent des extensions de sécurité DNS (DNSSEC), qui permettent de s’assurer que les données DNS proviennent d’une source bien authentifiée. En cas d’accès ou de redirection suspecte, le navigateur web affiche un message d’erreur.

La nouvelle clé est une garantie supplémentaire pour permettre à tout un chacun de surfer sur le web en toute sérénité. Il faut espérer que cette précieuse clé ne tombe pas entre de mauvaises mains. En 2007, le Homeland Security (organisation gouvernementale américaine) avait exigé de l’ICANN sa clé privée.

Par Philippe Richard

A quoi ressemble Internet en Corée du nord ?

Officiellement, le pays n’affiche que 28 sites en .kp, contre environ 3 millions de sites en .fr, le domaine français. Pas de quoi séduire ses quelque 25 millions d’habitants. Selon des statistiques de la Banque mondiale et de l’Union internationale des télécommunications, la République populaire démocratique de Corée est d’ailleurs le pays le moins connecté au monde.

Cette information n’aurait pas du « fuiter » en dehors des frontières. Mais un chercheur en sécurité a réussi à récupérer des informations sur les domaines existants en. Kp suite à une erreur. Un des serveurs nord-coréens a été accidentellement configuré pour accepter des visites depuis le monde (laissant des DNS mondiaux y pénétrer). Selon Wikipédia, le « Domain Name System (ou DNS, système de noms de domaine) est un service permettant de traduire un nom de domaine en informations de plusieurs types qui y sont associées, notamment en adresses IP de la machine portant ce nom ».

Cette découverte confirme que l’univers numérique nord-coréen est très petit, car très contrôlé. Seule une dizaine de sites sont en réalité accessibles via l’unique fournisseur d’accès du pays, Star Joint Venture Co ou Koryolink, le seul réseau 3G. Toutes les autres adresses web renvoient des messages d’erreur de « liens morts ».

Et leur contenu ne permet pas d’en savoir tellement plus sur la vie dans ce pays dirigé par Kim Jong-Un. On y trouve un site d’assurance, un autre proposant des recettes de cuisine, un clone de Facebook appelé friend.com.kp (le site du Rodong Sinmun (journal officiel du Parti des travailleurs de Corée qui dirige le pays) et plusieurs sites caritatifs.

Screenshot_20160923_115524
« Facebook » nord-coréen

Les sites web autorisés doivent répondre à des normes que l’on ne peut même pas imaginer en France. L’une des normes les oblige en effet à intégrer une ligne de code dans chaque page web afin de présenter le nom de Kim Jong-Un avec une police de caractères plus grosse…

Le contrôle et la surveillance de ces quelques sites sont d’autant plus faciles pour l’État que le parc informatique est lui aussi sous contrôle. Ainsi Pyongyang, la capitale, regroupe avec l’agglomération, près de quatre millions de personnes. Mais il n’y a qu’un seul cybercafé avec des ordinateurs fonctionnant non pas sous Windows, mais sous Red Star 3.0. Ce clone d’OS X est le seul système d’exploitation autorisé dans le pays, produit et contrôlé par le gouvernement… Et tous ces ordinateurs sont fabriqués par Morning Panda, une compagnie publique qui produit seulement une centaine d’ordinateurs par an.

Par Philippe Richard

Elon Musk va révéler un système de transport interplanétaire pour la mission habitée vers la planète Mars

SpaceX va profiter de cette intervention pour présenter son plan à long-terme visant à établir une colonie humaine sur la planète Mars, ceci en dépit de l’incident qui a conduit le 1er septembre 2016 à la destruction de la fusée Falcon 9 et de son chargement.

L’origine de cet incident aux conséquences très coûteuses est à ce stade inconnue.  Elon Musk a estimé « difficile » et « complexe » cette identification.  Cette déconvenue a soulevé des questions concernant la capacité de SpaceX à mettre en orbite des satellites dans le respect d’un calendrier commercial, et par ricochet sur sa compétence à lever les obstacles d’une mission à destination de la planète rouge.

Elon Musk a commencé très récemment à communiquer sur le Mars Colonial Transporter (MCT), un vaisseau spatial capable de transporter 100 personnes ou 100 tonnes de marchandise.  Le multi-entrepreneur a déclaré le 17 septembre 2016 sur le réseau social Twitter que le MCT pourrait aller bien plus loin que la planète Mars, et que par conséquent il faudrait lui trouver un autre nom.

Le vaisseau est à présent appelé « Interplanetary Transport System » (ITS) et sera un jour capable de transporter des êtres humains et/ou de la marchandise au-delà de la planète mars.

L’équipe SpaceX veut poser les pieds sur la surface martienne dans moins d’une décennie, et si elle y parvenait elle serait la première. En juin dernier Elon Musk déclarait dans le cadre de la conférence Code à Rancho Palos Verdes en Californie, que « si les choses suivent le plan prévu, nous seront capable d’effectuer un lancement de personnes en 2024, avec une arrivée sur mars en 2025 ».

La NASA n’a pas fait d’annonce concrète concernant son projet de mission habitée vers la planète Mars mais les experts estiment l’horizon 2030 comme raisonnable.

La Chine envisage de son côté d’envoyer un  robot sur Mars à horizon 2020.  L’empire du milieu a révélé fin août 2016 les premières images de synthèse de son projet de véhicule téléguidé.  Pékin a l’ambition de combler son retard sur les USA et l’Europe. Le programme spatial chinois est dirigé par l’armée et le peuple chinois en est très fier.

Une fusée « Longue Marche-5 » sera lancée depuis le pas de tir de Wenchang dans la province insulaire de Hainan. Selon l’agence Chine Nouvelle à la fin du voyage Terre-Mars qui durera 7 mois l’atterrisseur sera séparé de l’orbiteur et se posera à proximité de l’équateur de la planète rouge, d’où le véhicule devrait explorer la surface martienne. Le « rover » chinois pèsera 200 kilos, sera alimenté par  quatre panneaux solaires et devrait être opérationnel durant trois mois.

En 2013 la Chine est parvenue à envoyer sur la Lune son premier robot, « Yutu », le « lapin de jade ». Dans la mythologie chinoise un lapin, compagnon de la Déesse Chang’e, habite en effet sur la Lune.

Par Olivier Daniélo

Arkamys veut démocratiser le son à 360°

En toute logique, les expériences de réalité virtuelle à 360° gagnent en réalisme lorsque le son est lui aussi directif. Avec son procédé Spatial Audio inauguré au printemps dernier et consacré à sa plateforme Youtube, la société Google n’en est pas moins convaincue. «Mais le format audio employé est professionnel, tempère Frédéric Amadu, responsable de l’innovation chez Arkamys. Et un micro ambisonique coûte 1000 €, sans oublier la connectique elle aussi très pro. Notre objectif, c’est de proposer à tous les publics de créer du son à 360°, à partir d’un téléphone portable.»

Le traitement du son, Arkamys connaît. C’est l’expertise de cette entreprise française née en 1998 et qui, depuis 2003, vend ses services à l’industrie de l’électronique grand public, de l’automobile (Renault et Peugeot font partie de ses clients) et de la téléphonie mobile. Sa nouvelle certification, Audio by Arkamys, se veut l’équivalent du THX pour le cinéma et le Home Cinema, et pourrait accroître sa notoriété auprès du grand public. Son métier consiste à développer des algorithmes et des logiciels, équipant le plus souvent à des processeurs de signal numérique (DSP), qui amélioreront la qualité de l’enregistrement et de la reproduction sonore.

Au moins trois micros pour du son à 360°

Dans le cas du son à 360°, ces logiciels se nomment VR Capture et VR Play. «Le premier est un plug-in, une bibliothèque de programmes, qui peut tourner sur un ordinateur, un téléphone portable, etc. et que nous vendons au fabricant, précise Frédéric Amadu. VR Capture prend en charge plusieurs micros et identifie les capacités acoustiques du produit.» Mais y a-t-il assez de micros sur les téléphones actuels ? «Notre système en requiert au moins trois, poursuit Frédéric Amadu. De plus en plus de modèles en possèdent deux, et certains bénéficient de deux micros à l’avant, et deux à l’arrière. La dernière plateforme Snapdragon de Qualcomm (l’un des grands fabricants de processeurs pour smartphones, NDLR) est même capable d’utiliser jusqu’à six micros.»

Les téléphones appropriés ne devraient donc pas manquer à l’avenir. En attendant, pour les besoins de sa démonstration au dernier CES de Las Vegas, Arkamys avait fabriqué un micro ambisonique externe composé de quatre microphones MEMS de téléphone portable. Le principe ne diffère pas dans le fond. «Il s’agit d’enregistrer une piste audio à 360° qui sera multiplexée avec la piste vidéo à 360°, explique Frédéric Amadu.  Notre logiciel capture le champ sonore et toutes les informations nécessaires pour le restituer.» Le logiciel VR Play, associé à un téléphone ou un casque de réalité virtuelle, se charge d’établir la correspondance entre les sphères vidéo et audio. «Il sert à positionner le son dans l’espace en fonction de l’orientation de la tête de l’utilisateur» ajoute-t-il.

Les téléphones portables permettant de filmer à 360° ont fait leur arrivée. Témoin le Sfera de la marque Yezz – qui n’est pas la plus connue il est vrai – dévoilé aussi au CES en janvier dernier.  Avec sa solution, le français Arkamys espère prendre position sur ce marché effervescent, que ce soit dans le registre du divertissement ou des applications professionnelles.

Par Frédéric Monflier

Internet des objets : de nombreuses failles

« Faites vos jeux, rien ne va plus ». Fréquemment annoncée dans les casinos de Las Vegas, cette expression peut aussi s’appliquer à l’Internet des Objets ! Réunis dans cette ville chaque été, des hackers (trop souvent confondus avec les pirates) s’en sont donné à cœur joie. Les meilleurs d’entre eux ont animé des conférences à la

DEF CON, la convention hacker la plus connue à travers le monde. Et cette édition a confirmé que les fabricants d’objets connectés ne se soucient pas vraiment de la sécurité de leur solution. Leur priorité étant l’ergonomie ou la fonctionnalité.

Presque 50 failles ont été découvertes ou présentées lors de conférences ou d’ateliers. Elles concernent 23 appareils proposés par 21 marques. Au total, en deux ans, l’IoT Village de la DEF CON a mis en lumière 113 vulnérabilités.

Bonnet d’âne aux serrures et cadenas connectés. Les modèles de Quicklock, iBlulock, Plantraco, Ceomate, Elecycle, Vians, Lagute, Okidokeys ou Danalock comportent tous des failles. Officiellement, elles vous permettent d’ouvrir vos portes sans utiliser de clé physique. Par le biais d’un protocole de communication (Bluetooth, Wi-Fi…), elles se déverrouillent à l’aide d’un simple smartphone. Dans la réalité, leur niveau de sécurité étant tellement faible, voire absent, elles peuvent être aisément piratées et facilitées ainsi des cambriolages !

Comment les hackers ont-ils procédé ? Le chercheur qui s’est attaqué à la serrure d’August (modèle ASL-01) a démontré qu’il était possible de modifier un accès « invité en un compte « administrateur » et gérer le cylindre au détriment de son propriétaire qui ne peut plus entrer chez lui. Pire, si vous achetez un modèle d’occasion,  le précédent propriétaire peut savoir où vous habitez et prendre le contrôle de votre domicile à distance. Heureusement pour nous, ce cylindre connecté n’est pas compatible avec la plupart des serrures françaises, et ne répond pas non plus aux normes européennes.

Même constat inquiétant avec les thermostats. Andrew Tierney et Ken Munro, deux chercheurs travaillant pour la société de sécurité informatique Pen Partners Test, ont démontré qu’il était possible de configurer les paramètres par le biais d’une carte SD. Imaginez ce thermostat réglé sur 35 °C en pleine canicule ! De quoi avoir des sueurs froides d’autant que l’action des hackers a été facilitée par le fait que l’appareil n’intègre aucun contrôle de sécurité. Seul bémol, il faut avoir un accès physique pour l’infecter.

Toutes ces failles s’expliquent principalement par une mauvaise implémentation de solutions de protection, mais surtout par une sécurité très faible, voire inexistante. Et cette situation n’est pas propre aux fabricants étrangers.

Début 2016, lors d’une intervention au FIC (Forum International de la Cybercriminalité à Lille), Renaud Lifchitz, consultant en sécurité informatique chez Digital Security (Econocom), et auteur de nombreux travaux sur les protocoles d’authentification, avait démontré qu’une serrure connectée d’une marque française était facile à pirater. Différentes erreurs très importantes avaient été constatées parmi lesquelles un code source entièrement accessible et une clé de chiffrement, annoncée en 256 bits, mais en réalité de 14 bits (un vulgaire code PIN). Selon cet expert, le nombre de possibilités pour trouver ce code PIN est estimé à environ 10 000. Autant dire, l’affaire de quelques secondes/minutes.

Ce même chercheur avait repéré des vulnérabilités dans les réseaux M2M du marché, et notamment dans celui de Sigfox.

Il faut malgré tout rester optimiste. « Chaque nouvelle vague technologique apporte son lot de vulnérabilités. Il a fallu des décennies pour sécuriser les transports ferroviaires, aériens et automobiles. La ceinture de sécurité, inventée à la fin du 19e siècle, n’est devenue obligatoire en France qu’en 1973. Dans le numérique, ces cycles innovation-sécurisation se sont accélérés. La micro-informatique a vu très rapidement naitre le business des antivirus », a rappelé Olivier Oezratty lors de la Conférence Cybersécurité – IOT et Systèmes Embarqués organisée à Toulouse le 18 février 2016.

Par Philippe Richard

Le LiFi bidirectionnel entre dans l’ère industrielle

La transmission de données par la lumière devient une affaire sérieuse. Spécialiste français de l’éclairage LED, Lucibel vient d’annoncer le premier luminaire LiFi (Light Fidelity) industrialisé au monde. Le terme «industrialisé» signifie que plusieurs milliers d’exemplaires pourront être produits chaque année à l’usine de Barentin, en Seine-Maritime. «Nous avons déjà vendu une centaine d’unités et une autre centaine de pré-commandes sont validées» se félicite Frédéric Granotier, PDG de Lucibel.

Pour rappel, le LiFi exploite la capacité d’une LED à s’éteindre et à s’allumer plusieurs milliards de fois par seconde. Le flux lumineux peut alors être modulé de façon à transporter des données. En version bas débit monodirectionnelle, le LiFi est utilisé dans des applications de géolocalisation. Ce spot encastrable en faux plafond se destine pour sa part aux échanges bidirectionnels et à haut débit. Il intègre une LED blanche de 1800 lumens, fabriquée par Nichia, les composants électroniques qui modulent le signal LiFi dans la lumière émise, une carte réseau Ethernet et aussi un capteur infrarouge.

«Chaque luminaire raccordé au réseau de l’entreprise devient un point d’accès accessible à huit utilisateurs, explique Edouard Lebrun, et il est bidirectionnel grâce au récepteur infrarouge. Le poste de travail Windows, MacOS ou Linux est équipé d’une clé USB qui réceptionne les données du signal LiFi et émet le signal IR. Un système de «handover» permet à l’utilisateur de passer d’un «cône» de connexion à l’autre dans un délai de huit secondes. Le débit maximal de la voie descendante atteint 42,5 Mbit/s, celui de la voie montante environ 25 Mbits/s. Ce dernier a été multiplié par quatre depuis l’an dernier.»

Un prix de 2300 € HT

Il y a un an, en effet, Lucibel présentait un prototype où le récepteur IR était déporté sur un détecteur de fumée externe. Quant à la clé USB, elle mesurait 30 centimètres de long. Sa taille a été divisée par cinq depuis. Cet industriel cherche de la même manière à réduire les coûts. Le système coûte pour l’heure 2300 € HT, soit 1500  € pour le luminaire et 800 € pour la clé USB. «C’est encore deux à trois plus que le budget pour un éclairage LED normal et un réseau WiFi, estime Edouard Lebrun. On devrait l’égaler en 2018.» Une deuxième phase d’industrialisation, prévue à cette date, et le remplacement des FPGAs (Field programmable gate array) par des ASICs (Application specific integrated circuit), circuits électroniques moins chers et plus compacts, devraient y contribuer.

Lucibel cible dans un premier temps une clientèle professionnelle, qui n’utilise pas ou peu le WiFi pour des raisons règlementaires ou sécuritaires. Dans le milieu hospitalier, les ondes radio perturbatrices sont proscrites et le LiFi est une alternative envisageable. Le secteur bancaire et l’industrie de la Défense se montrent aussi intéressés, car le LiFi, contrairement au WiFi, ne traverse pas les murs et préserve la confidentialité des échanges. La récente loi dite «Abeille», qui interdit le WiFi dans les crèches, est une autre opportunité.

Selon Lucibel, le marché du grand public devrait s’ouvrir vers 2019 ou 2020. A condition que le LiFi s’invite entre temps dans les smartphones, étape indispensable à sa démocratisation. Il pourrait ensuite participer à l’essor de l’Internet des objets, qui aura besoin d’autres «tuyaux » que les réseaux existants.

Frédéric Monflier

Tracer les origines de la contamination au mercure dans les cheveux

La contamination au mercure, un enjeu de santé publique

Le mercure est considéré par l’Organisation mondiale de la santé (OMS) comme l’un des dix produits chimiques ou groupe de produits chimiques fortement préoccupants pour la santé. L’exposition au mercure, même en petites quantités, peut avoir des effets toxiques sur les systèmes nerveux, digestif et immunitaire, avec des risques forts pour le développement de l’enfant in utero et chez les très jeunes enfants. Identifier le degré et le type de contamination, le moment et la durée d’exposition sont autant d’indicateurs essentiels pour traiter un éventuel empoisonnement au mercure.

De nouvelles techniques d’analyse

Jusqu’à présent, en fonction des supposées sources de contamination, l’absorption de mercure était surveillée par sa concentration dans les urines, le sang ou les cheveux. Ces mesures permettent de diagnostiquer le degré d’empoisonnement, de fournir des données pour des études épidémiologiques, mais elles ne peuvent pas identifier la source et la date d’exposition au mercure, informations essentielles pour définir des traitements ou réaliser des examens médico‐légaux.

« Bien que la concentration de mercure urinaire soit considérée comme le biomarqueur le plus précis et le plus largement utilisé pour évaluer l’exposition chronique aux vapeurs de mercure et au mercure divalent, nous avons montré que le mercure inorganique issu des amalgames dentaires peut être détecté dans les cheveux avec une structure intermoléculaire distincte de celle du méthylmercure provenant de la consommation de poisson » explique Jean‐Paul Bourdineaud, professeur de toxicologie environnementale à l’Université de Bordeaux (France).

« Les études épidémiologiques de la contamination au mercure par consommation de poisson font l’hypothèse que le mercure présent dans les cheveux provient uniquement de cette source. Nos résultats montrent que ceci n’est pas forcément vrai » explique Kathryn Nagy, professeur de sciences de la Terre et de l’environnement à l’Université de l’Illinois à Chicago.

Avec un taux de croissance moyen de 1 cm par mois, les cheveux peuvent capturer des événements de contamination avec une haute résolution temporelle. L’équipe de scientifiques a développé de nouvelles techniques d’analyse permettant désormais d’identifier les formes chimiques du mercure dans les cheveux humains. Grâce à une nouvelle instrumentation sur rayonnement synchrotron, ils ont découvert que l’on pouvait relier la structure chimique du mercure à la source d’exposition par une caractérisation précise des liaisons chimiques environnantes.

Les expériences conduites à l’ESRF ont ainsi révélé qu’un pic de mercure observé sur un cheveu provenait du retrait d’un amalgame dentaire. Ainsi, les signatures obtenues par ces mesures permettent de distinguer une exposition exogène d’une exposition endogène, organique ou inorganique, et indiquent même la période d’exposition à un ou deux jours près.

Les défis techniques

Pour obtenir ces résultats, les scientifiques ont dû faire face à plusieurs défis techniques. La caractérisation de la structure chimique est en effet rendue difficile par la faible concentration de mercure dans les cheveux chez la plupart des individus (0.1 à 3 ng de mercure/mg de cheveu) et par la grande flexibilité et variabilité des liaisons chimiques du mercure avec les atomes de carbone, d’azote, d’oxygène ou de soufre.

« Nous ne nous attendions pas à ce que le pic microscopique de mercure, de seulement 2,5 ng, ait une signature moléculaire aussi différente de celle du méthylmercure lié à la consommation de poisson » explique Alain Manceau, directeur de recherche au CNRS. « Cependant, pour s’assurer que le mercure provenait bien de l’amalgame extrait, il était indispensable de connaître sa forme moléculaire, et notamment comment il était fixé aux protéines des cheveux. Ce travail minutieux d’investigation a pris plusieurs mois et nécessité l’utilisation de supercalculateurs pour modéliser les données« .

Pour relever ces défis, l’équipe scientifique a utilisé les performances de l’ESRF et deux lignes de lumières, ID16B et ID26. Ils ont eu recours à la nano‐sonde à rayons X de la ligne ID16B et construit pour cette expérience un multi‐analyseur à haute luminosité qui exploite la haute brillance du spectromètre de la ligne ID26.

Comme l’explique Rémi Tucoulou, scientifique sur la ligne ESRF, ID16B et Pieter Glatzel, scientifique sur la ligne ESRF, ID26 : “De telles mesures sur des échantillons avec une très faible concentration de métaux nécessitent des instruments spécifiques ayant une extrême sensibilité et possédant, dans le même temps, une très grande résolution pour la caractérisation chimique.”

Au‐delà du mercure, cette nouvelle instrumentation ouvre des perspectives pour l’identification dans les tissus humains des formes chimiques d’autres métaux toxiques connus ou supposés. Cette étude ouvre également la voie à des applications dans les sciences médico‐légales, les sciences de l’environnement et des matériaux. 3 Le multi‐analyseur a été financé par le projet d’Equipex EcoX du programme des investissements d’avenir de l’ANR. (http://www.esrf.eu/news/general/ESRF‐partner‐French‐excellency)

Publication : Manceau A., Enescu M., Simionovici A., Lanson M., Gonzalez‐Rey M., Rovezzi M., Tucoulou R., Glatzel P., Nagy K.L., Bourdineaud J.P. (2016) Chemical forms of mercury in human hair reveal sources of exposure. Environmental Science & Technology. doi: 10.1021/acs.est.6b03468

Source : cnrs

Microtubules : ce qui ne les tue pas les rend plus forts

Les microtubules sont des filaments rigides qui font partie du squelette des cellules. Ils sont en renouvellement permanent et leur temps de vie moyen ne dépasse pas quelques minutes. En effet, les microtubules poussent régulièrement, depuis le centre de la cellule vers la périphérie, mais peuvent à tout instant se désassembler complètement et de façon aléatoire. Le processus de reconstruction permanent permet au réseau de microtubules d’adapter son architecture et d’accompagner les changements morphologiques des cellules. Cependant, il n’est pas rare de voir des événements de « sauvetage » au cours desquels le désassemblage s’interrompt soudainement pour permettre au microtubule de reprendre sa croissance et de ne pas disparaître. Ce processus, qui biaise la dynamique aléatoire de renouvellement du réseau de microtubule, reste cependant mal compris.

In vitro, dans des conditions biochimiques simplifiées, les sauvetages n’ont en effet pas lieu et les microtubules se désassemblent toujours entièrement. Les chercheurs de l’équipe CytoMorpho1 (CEA/Inra/CNRS/UGA) ont pu reproduire in vitro des altérations physiques de la structure des microtubules grâce à des impacts laser et ont ainsi pu induire des événements de sauvetage.

La dynamique des microtubules (assemblage et désassemblage de tubuline ) peut être représentée à l’aide de kymographes construits par empilement d’images montrant la longueur de microtubules en fonction du temps. Les kymographes des images ci-dessous montrent à gauche, en bleu, des microtubules in vitro sans aucune intervention externe ; à droite, en vert, des microtubules qui ont été la cible d’impacts laser (étoiles rouges).

Charlotte Aumeier, CNRS
Charlotte Aumeier, CNRS

Ils agissent comme des zones de protection contre le désassemblage de tubuline. En permettant aux microtubules de reprendre leur assemblage, les sauvetages augmentent la longueur des microtubules ainsi que leur durée de vie.

Les mêmes effets ont pu être observés dans des cellules vivantes : microtubules est devenu plus stable et s’est étendu dans les zones où la structure des microtubules avait été abimée par des impacts laser. De fait, les impacts qui détruisent la structure des microtubules les rendent finalement plus résistants au désassemblage.

Cette propriété surprenante pourrait s’expliquer par les capacités d’auto-réparation que possèdent les microtubules. Mise en évidence par cette même équipe de recherche (cf Schaedel et al., Nature Materials, 2015), l’auto-réparation permet aux microtubules de résister aux contraintes et semble également augmenter leur durée de vie.

Les chercheurs ont découvert que chaque impact laser dans un microtubule était immédiatement réparé par des molécules de tubuline libres, et que ces zones contenant de nouvelles molécules de tubuline agissaient comme des manchons protecteurs qui empêchaient le désassemblage total en induisant des événements de sauvetage.

D’autres événements que des impacts laser peuvent générer des réparations et des sauvetages. Ils se produisent naturellement dans toute la cellule, en particulier dans les zones où les microtubules sont déformés, là où ils se croisent ou forment des faisceaux (cf image ci-contre où les zones de réparation par la tubuline libre sont visibles en violet). Du fait de leur capacité à s’autoréparer avec des composants nouveaux, les blessures infligées aux microtubules sont donc à l’origine d’une réelle source de jouvence pour les microtubules.

Des séries d’impacts laser ciblant une région limitée d’une cellule suffisent à stabiliser localement et à étendre le réseau de microtubules dans cette région. Ce réseau étant en interaction avec l’ensemble des structures régulant la morphologie des cellules, le développement local des microtubules agit en retour sur la forme des cellules.

Ainsi, les chercheurs ont réussi à diriger la migration des cellules en direction des zones où le réseau de microtubules avait été endommagé par des impacts répétés de laser. Ces processus de renforcement mécanique et de stabilisation sélective confèrent ainsi au réseau de microtubules des propriétés jusqu’alors inconnues d’adaptation aux contraintes physiques.

Endommager un objet inerte l’affaiblit. Mais ces travaux sur les microtubules suggèrent qu’endommager une structure biologique en renouvellement permanent conduit à terme à son renforcement physique et à l’augmentation de sa durée de vie. Cette différence importante pourrait inspirer le design de nouveaux matériaux.

Références : Self-repair promotes microtubule rescue. Charlotte Aumeier*, Laura Schaedel*, Jérémie Gaillard, Karin John, Laurent Blanchoin1* and Manuel Théry*. Nature Cell Biology, online le 12/09/2016. Microtubules self-repair in response to mechanical stress. Laura Schaedel, Karin John, Jérémie Gaillard, Maxence Nachury, Laurent Blanchoin and Manuel Théry, Nature Materials, 14:1156–1163, 2015.

Source : cnrs

Energies renouvelables: Apple rejoint le groupe «RE100»

Aux USA, en Chine et dans 21 autres pays Apple, l’une des premières capitalisations boursières à l’échelle mondiale, est déjà parvenu à atteindre le Graal des 100%. Et à l’échelle globale la firme de l’iPhone a répondu à 93% de sa demande avec les EnR durant l’année 2015.

Le géant américain cherche également à stimuler le changement chez ses fournisseurs. Apple a annoncé que Solvay (Polymères) et Catcher Technology (Aluminium) se sont engagés  à lui délivrer des produits obtenus intégralement à partir d’énergies renouvelables dès 2018. Lens Technology (spécialiste du verre) a révélé un engagement similaire le mois dernier.

Apple a par ailleurs annoncé la mise en service d’un parc solaire de 50 MW dans l’Arizona et vient aussi de lancer la commercialisation de l’iPhone7 dont les performances photographiques et de stockage  batterie sont optimisées.

RE100 est un groupe particulièrement puissant. « RE100 est une initiative collaborative et globale d’entreprises influentes engagées pour atteindre 100% d’électricité renouvelable, œuvrant pour augmenter drastiquement la demande et la fourniture en énergie renouvelable ».

En sont membres les français Crédit Agricole et La Poste, ainsi que les suisses SwissRE, UBS et Nestlé, les suèdois Tetra Pak et Ikea, ou encore les allemand BMW et SAP, le hollandais Philips et l’indien Tata Motors. Un grand nombre de géants américains font partie du club: Nike, General Motors, Bank of America, Bloomberg, Goldman Sachs, Coca-Cola Enterprises, Starbucks, Unilever, Walmart, Biogen, Adobe, Hewlett Packard, Microsoft, Adobe, Facebook et Google.

Climate Week est un évènement qui se déroule au siège du célèbre quotidien New York Times et qui est sponsorisé notamment par Siemens, SolarCity, Philips et Sunpower, la filiale photovoltaïque du géant pétrolier français Total.  Climate Week est un événement majeur qui rassemble des personnalités du monde des affaires, de la sphère publique et de la société civile qui mènent la transition vers une économie à bas carbone. Elle constitue également un espace collaboratif pour les événements climatiques en soutien à l’accord de Paris sur le climat et les Objectifs de Développement Durable (ODD).

Intervenant le 19 septembre 2016 à la cérémonie d’ouverture de la 8ème édition de la Climate Week la  ministre marocaine déléguée auprès du Ministre de l’Énergie et de l’environnement, Hakima El Haité,  a souhaité que l’année 2016 reste gravée dans l’histoire comme une année d’action.

La ministre a souligné que si l’accord de Paris était l’occasion de mettre en place un cadre de vie qui n’abîmera plus la planète, la COP22 qui se tiendra à Marrakech en novembre prochain sera l’occasion de « répondre aux attentes de l’humanité vis-à-vis de ses leaders concernant l’opérationnalisation de cet accord et son application ».

C’est précisément dans cet objectif que Medef International, association privée créée en 1989 par le Medef, le Mouvement des entreprises de France, et Terrawatt Initiative ont signé le 30 août 2016 un protocole d’accord visant à fédérer le secteur privé, en France et à l’international, « autour d’une vision partagée d’un marché commun mondial de l’énergie solaire ». Ce rapprochement a pour objectif de « faciliter la mise en œuvre au niveau local » de cette fédération « en faisant bénéficier les entreprises d’une énergie abordable et d’opportunité commerciales ».

Terrawatt Initiative est présidée par l’ingénieur Isabelle Kocher, CEO du géant français de l’énergie Engie. Le groupe Total en est également membre fondateur.  L’objectif affiché est de déployer plus de 1 térawatt (1 000 gigawatts) de puissance photovoltaïque d’ici 2030, soit deux fois et demi la puissance du parc nucléaire mondial actuel.

Par Olivier Daniélo

Areva se retire de l’éolien en mer

Si la vente d’Adwen n’est pas une surprise – elle est consécutive au mariage de Siemens avec Gamesa en juin dernier – son acquéreur est resté en suspens tout l’été. Un temps pressenti et malgré une offre jugée insuffisante, General Electric (GE) a dû jeté l’éponge. L’affaire Alstom, dont la branche Energie a été rachetée par l’Américain, ne jouant guère en sa faveur politiquement.

Records technologiques, mauvais résultats

La vente d’Adwen a lieu quelques semaines après la communication du nouveau prototype d’éolienne AD 8-180, la plus grosse turbine sur le marché (8 MW) et disposant de la plus longue pâle (88 m) au monde, confirmant le positionnement haut de gamme de la compagnie. La course à la puissance des turbines est un des jalons de réduction des coûts élevés de l’éolien en mer car cela signifie moins de machines à puissance égale. En France, l’entreprise affiche un portefeuille de projets en cours de 1 400 MW répartis sur trois parcs. Areva assure que : « Gamesa a connaissance des engagements souscrits par Adwen au titre des appels d’offres portant sur les installations éoliennes de production d’électricité en mer en France métropolitaine. Ces engagements resteront portés par Adwen », confirme le groupe français au bord de la faillite.

La recapitalisation d’Areva, à hauteur de 5 milliards d’euros par l’Etat actionnaire, est en partie due aux lourds dérapages de délais et coûts sur les chantiers EPR de Flamanville (France) et Olkiluoto (Finlande), l’affaire Uramin, mais également à l’hasardeuse diversification dans les énergies renouvelables (solaire, éolien, biomasse) initiée au début des années 2000 par la présidente de l’époque, Anne Lauvergeon. Tous les projets se sont malheureusement soldés par des échecs et la facture s’élèverait à pas moins de 1,5 milliards d’euros pour le groupe public, selon Les Echos. Le feuilleton Adwen n’aura pourtant été que l’une des nombreuses turbulences qui secouent le marché de l’éolien actuellement en pleine restructuration. Favorisé par les aides financières aux énergies renouvelables, les acteurs du secteur ont dû adapter leur business model à la fin programmée de ces subventions.

Concentration

Grand vainqueur de l’opération : Siemens. En plus de son mariage réussi avec Gamesa, le groupe allemand voit une technologie susceptible d’être acquise par un concurrent retourner dans son giron, confortant son leadership dans l’éolien terrestre et en mer. Le couple pèse désormais 10 milliards d’euros de capitalisation boursière. Quelques mois plus tôt, c’était la partie Energie d’Alstom – dont la branche éolienne – qui était absorbée par GE pour plus de 12 milliards d’euros. Les autres acteurs étant Vestas, Senvion, Nordex ou encore Enercon. Ces mouvements de concentration massifs répondent à l’émergence d’une concurrence asiatique. Pour la première fois en 2014, une entreprise chinoise, Goldwind, est devenue le premier vendeur de turbines éoliennes du monde, porté par un marché domestique en pleine expansion. Les groupes occidentaux cherchent à maximiser les économies d’échelle et minimiser la concurrence domestique pour faire face à la nouvelle venue d’Asie. Reste à savoir si cela suffira. Seule certitude, dans cette bataille économique il n’y aura pas d’acteurs français de référence.

Par Romain Chicheportiche

Quand nos médicaments rendent les eaux malades

La première Conférence internationale sur les risques liés aux résidus de médicaments dans l’environnement s’est tenue les 8 et 9 septembre à Paris et a réuni plus de 250 scientifiques. « La conférence a pour objectif de réaliser une synthèse des données les plus récentes, permettant d’identifier, définir, mesurer, et gérer les risques environnementaux et sanitaires, liés aux résidus de médicaments issus de la pratique médicale et vétérinaire et présents dans l’environnement », lit-on sur le site internet.

Peu de données concrètes

L’impact des médicaments consommés par l’homme a déjà été démontré par le passé. Plus précisément en 1976 avec la mise en évidence de résidus médicamenteux dans l’eau aux États-Unis. Mais grâce à l’avancée de la technologie, les instruments de mesure sont de plus en plus précis et permettent de mieux cerner le phénomène. Ce premier congrès a également été l’occasion de compiler les données scientifiques disponibles sur le sujet. Conclusion : peu d’études ont été réalisées et beaucoup de zones d’ombre persistent notamment en ce qui concerne les concentrations, les seuils d’exposition et les conséquences sanitaires et écologiques.

Le ministre de l’Environnement, Ségolène Royal, présente à cette première mondiale a annoncé le lancement d’un plan micropolluants 2016-2021 dont le principal objectif est de protéger les eaux en réduisant les émissions à la source et d’aider la recherche à mieux connaître et estimer les dangers que représentent les résidus médicamenteux et autres micropolluants. Un premier bilan dressé en 2014 illustre l’importance d’un tel plan : à peine 50 % des eaux continentales de surface seraient en bon état chimique, pour les deux tiers dont l’état est connu ; le taux est à peu près le même pour les eaux des estuaires ; les eaux souterraines et de mer vont un peu mieux avec 67 % des eaux souterraines et les trois quarts des eaux côtières jugées en bon état.

Un risque négligeable pour l’homme

Des résidus d’antibiotiques, d’anti-inflammatoires, d’anxiolytiques, d’hormones et d’autres prescriptions finissent après avoir été ingérées dans les urines et les selles puis dans les eaux usées et in fine dans les cours d’eau. Les stations d’épuration ne les filtrent pas totalement parce que d’une part, elles n’ont pas été conçues pour cela, à savoir stopper des molécules de très petites tailles et leurs bactéries se révèlent souvent incapables de dégrader ces éléments chimiques de synthèse. Pour autant, Yves Lévi, biologiste et chimiste, responsable du groupe « santé publique – environnement » à l’Université Paris Sud se veut rassurant. «  Il faut traiter le problème avec intelligence, sans affoler ni nier, insiste-t-il sur le site de Pourquoi Docteurs. Les concentrations enregistrées dans les pays riches qui disposent d’usines d’épuration sont très faibles. Le risque est actuellement considéré comme négligeable, mais il y a un gros volet d’incertitudes autour de cela. »

Mais aucune réglementation pour ces résidus

Autrement dit, l’eau potable reste de bonne qualité mais rappelons qu’aucune réglementation n’impose la vérification de la présence ou non de résidus médicamenteux. A défaut de données concrètes sur le sujet, les solutions relèvent davantage du bon sens : éviter la surconsommation de médicaments ; rapporter les médicaments non utilisés en pharmacie pour le recyclage ou encore augmenter l’efficacité des stations d’épuration. L’ozone s’est montrée intéressante pour dégrader certaines molécules mais le procédé reste coûteux. La Suisse teste actuellement cette technique sur ses stations d’épuration.

Par Nadia Daki

Israël : une start up se lance dans le poulet artificiel

Écologique, révolutionnaire, innovant, les qualificatifs utilisés par la société à l’origine du projet sont tous très élogieux. Dans une vidéo de présentation, ils n’hésitent d’ailleurs pas à évoquer leur concept comme LE moyen de mettre fin aux souffrances animales.

La start-up se base sur les travaux du Pr Yaakov Nahmias, chercheur en bio-ingénierie à l’Université Hébraïque de Jérusalem et cofondateur de SuperMeat. L’idée : prélever par biopsie, donc sans douleur a priori, des cellules sur un poulet vivant puis les mettre en culture. Disposées dans des incubateurs spécialement conçus, ces cellules vont se développer dans des conditions proches de leur environnement naturel. Selon un procédé industriel tenu secret, elles vont se comporter comme des cellules embryonnaires et donner des tissus qui vont devenir des muscles, de la chair comestible, identique à l’animal vivant.

Rendez-vous dans quatre ans

Ce sont, à terme, ces incubateurs que SuperMeat entend proposer aux restaurateurs, aux supermarchés et même aux consommateurs. Pour acquérir le premier prototype, la société a lancé une campagne de crowdfunding et espérait réunir 100 000 dollars. C’est plus du double qui a été collecté début septembre. Le premier incubateur devrait être prêt en janvier 2018 et le premier blanc de poulet artificiel serait commercialisé en 2020.

SuperMeat assure un goût identique à l’original, sans hormones de croissance, sans colorants, sans consommer outre mesure les ressources naturelles ou encore sans polluer massivement. « Notre solution permettrait de réduire de 99 % l’utilisation de terres cultivées, d’économiser 96 % en eau et de produire 99 % moins de gaz à effet de serre », apprend-on dans la vidéo.

Pour l’heure, la société a besoin de 2,5 millions de dollars pour développer son innovation. Et le prix de la viande ainsi cultivée devrait osciller entre 1 et 5 dollars le kilo.

Nadia Daki