Recrutements de cadres : des niveaux inégalés entre 2017 et 2019

L’Association pour l’emploi des cadres a élaboré un modèle économétrique qui permet de déterminer des prévisions de recrutements de cadres à un horizon de 3 ans. Celui-ci met en évidence la relation étroite existant entre les recrutements de cadres, les investissements, la croissance et les départs à la retraite de cadres en poste. Le scénario retenu par l’Apec, dans le cadre de ce modèle est celui d’une « croissance soutenue ».

cap-apec1

Les conditions d’une reprise économique soutenue semblent enfin réunies après plusieurs années d’une croissance française atone ou au mieux bridée. En effet, dans la lignée d’un dernier trimestre 2016 bien orienté, elle devrait s’accélérer avec une hausse prévue du PIB de 1,6 % sur l’ensemble de l’année 2017. Cette performance se rééditerait en 2018 et s’amplifierait jusqu’en 2019 pour atteindre +1,8 %.

cap-apec-2

L’amélioration serait liée à différents facteurs au premier rang desquels, on retrouve l’investissement des entreprises. Portés par des perspectives d’activités bien orientées, ainsi que par le faible coût du capital et la progression du taux d’utilisation des capacités de production, les agents économiques devraient intensifier leurs dépenses d’investissement. Ceci malgré la fin de la mesure fiscale de suramortissement effective en avril 2017. Dans le même temps, l’investissement des ménages en biens immobiliers devrait se montrer dynamique, favorisé par des facteurs temporaires tels que l’assouplissement du prêt à taux zéro, la loi Pinel, et les taux d’intérêt bas.

Au total, la Formation Brute de Capital Fixe pourrait progresser de +2,3 % en 2017. Cette hausse gagnerait en intensité en 2018 (+2,9 %) et en 2019 (+3,3 %). Le secteur de la construction devrait également retrouver des couleurs, au même titre que l’industrie manufacturière, avec des carnets de commandes fournis.

La croissance française pourrait également s’appuyer sur une contribution positive du commerce extérieur. En effet, le millésime 2016 a été marqué par des contre-performances à l’exportation liées, d’une part à des événements exceptionnels (baisse de l’attractivité touristique, mauvaises récoltes, défaillance dans les chaînes de production d’Airbus) et d’autre part, à la faiblesse de la demande extérieure adressée à la France. En 2017, les entreprises exportatrices devraient tirer profit de la bonne tenue du commerce mondial et profiter de contrats d’envergure signés dans l’aéronautique. Mais surtout, les gains de compétitivité engrangés grâce au CICE et au Pacte de Responsabilité et de Solidarité pourraient leur permettre de reconquérir des parts de marché.

Seul bémol : la progression des dépenses de consommation des ménages pourrait se tasser. En cause, la baisse de leur pouvoir d’achat liée à la remontée des prix de l’énergie. Phénomène qui pourrait se traduire par la constitution d’une épargne de précaution.

Les créations nettes d’emplois devraient s’intensifier : 203 000 emplois salariés marchands seraient créés en 2017, selon l’Insee. Elles contribueraient à faire reculer le taux de chômage, dans un contexte où la progression de la population active devrait être moins soutenue. Néanmoins, la trajectoire de réduction du chômage pourrait s’avérer lente : le taux de chômage au sens du BIT s’établirait à 9,4 % (y compris DOM) à fin 2017, soit – 0,6 point sur un an (fin 2016, le taux de chômage des cadres calculé par l’Insee au sens du BIT s’élevait à 3,5%).

Les cadres pourraient tirer bénéfice de cette croissance soutenue. La part des cadres en poste au moment de leur départ à la retraite pourrait, dans cette configuration, se consolider et s’établir à 53 % en 2019.

cap-apec-3

Si ces prévisions font l’objet d’un consensus fort de la part de différents instituts de conjoncture, il n’en demeure pas moins que l’ensemble des observateurs fait mention d’aléas importants :

Au niveau national : ceux-ci concernent la capacité de rebond des exportations françaises toujours potentiellement affectées par le déficit chronique de compétitivité du tissu productif français ainsi que par l’évolution de la consommation des ménages.  Au niveau international : l’impact à venir du Brexit, la situation géopolitique tendue au Moyen-Orient, les tentations isolationniste et protectionniste de l’administration Trump ou encore les menaces terroristes extrêmes sur le sol européen pourraient contrarier l’enchaînement vertueux qui se profile.

Enfin, selon le baromètre trimestriel de l’Apec, la confiance des entreprises est largement de mise. Elles sont ainsi 58% à avoir l’intention de recruter au moins un cadre au cours du 3ème trimestre 2017. Cette proportion est en hausse de 6 points par rapport à la même période il y a un an. Autre point fort de cet indicateur : si la proportion d’entreprises ayant recruté au deuxième trimestre 2017 est stable par rapport à 2016, c’est à un niveau élevé. Enfin, ces perspectives favorables devraient profiter à tous les profils de cadres, les entreprises se montrant notamment plus ouvertes aux embauches de jeunes diplômés et de cadres très expérimentés qu’il y a un an. (cf. Baromètre No 60 –3e trimestre 2017)

cap-apec-4

En 2017, le nombre de recrutements de cadres augmenterait de 5 % et approcherait du seuil des 215 000. Cette prévision est proche de la médiane de prévision établie à partir de la dernière enquête annuelle de l’Apec menée auprès des entreprises fin 2016. Si ce chemin de croissance et d’investissement se confirmait, le volume de recrutements de cadres atteindrait en 2019 un niveau inégalé : il s’établirait à près de 237 000, après un peu plus de 225 000 en 2018.

cap-apec5

Source : Apec

Un monde bas carbone nécessitera beaucoup de ressources

Signer et ratifier l’accord de Paris pour limiter le réchauffement climatique à 2°C d’ici 2100 était une très bonne chose. Désormais, la transition énergétique va nécessiter d’extraire une quantité record de minerais et de métaux. La Banque Mondiale s’est intéressée aux ressources nécessaires pour répondre à trois scénarios : un réchauffement limité à + 2°C, un autre s’envolant à + 4°C et un dernier à + 6°C. Évidemment, plus l’objectif est ambitieux, plus le besoin en métaux et minerais sera important.

Le rapport explore les ressources nécessaires pour répondre à l’explosion de trois technologies qui seront au cœur de la transition énergétique : l’éolien, le solaire et les batteries. Ainsi, les métaux et minerais concernés sont nombreux. Aluminium, cobalt, cuivre, fer, plomb, lithium, nickel, manganèse, terres rares (notamment néodyme), argent, acier, titane et zinc… tous sont concernés. Leur demande pourrait doubler. « L’exemple le plus significatif sont les batteries pour le stockage de l’électricité, pour lesquelles l’augmentation de la demande en métaux – aluminium, cobalt, fer, plomb, lithium, manganèse et nickel – est relativement modeste dans le scénario +4°C, mais prend plus de 1.000 % dans le scénario +2°C », préviennent les auteurs.

Ce constat s’applique aussi aux autres technologies. « Les technologies supposées alimenter le passage à une énergie propre – éolien, solaire, hydrogène et systèmes électriques – sont en fait significativement PLUS intensifs en matériaux dans leur composition que les centrales à énergie fossile traditionnelles », observe le rapport.

Des opportunités pour les pays riches en ressources?

Pour tirer profit de cette hausse de la demande sans saccager la planète, la Banque Mondiale incite les pays riches en ressources à l’anticiper. Notamment, elle les invite à adopter des stratégies de long terme pour investir judicieusement. Et définir des mécanismes appropriés pour préserver les populations locales et l’environnement.

«S’ils développent leur secteur minier de façon durable, les pays qui disposent des capacités et des infrastructures pour fournir les minéraux et les métaux nécessaires aux technologies propres auront une occasion unique de dynamiser leur économie », prévient Riccardo Puliti, directeur du pôle mondial d’expertise en énergie et industries extractives de la Banque mondiale. Pour se positionner, ces pays devront parfaitement connaître le marché, et utiliser ces données pour élaborer des plans de développement, planifier des investissements et concevoir des activités durables. Pour que l’intensification des activités d’extraction et de production aient le moins d’impacts sur l’eau, les écosystèmes et les populations.

Quelle région pour quels métaux ?

Selon les auteurs, l’Amérique Latine pourrait jouer un rôle essentiel pour fournir le cuivre, le fer, l’argent, le lithium, l’aluminium, le nickel, le manganèse et le zinc nécessaires. L’ Afrique australe et la Guinée joueraient leur rôle pour le platine, le manganèse, la bauxite et le chrome.

Les sols de la Chine sont riches pour l’ensemble de ces métaux essentiels. Le pays restera un acteur de premier plan. L’Inde jouerait un rôle majeur pour le fer, l’acier et le titane. De leurs côtés, l’Indonésie, la Malaisie et les Philippines auraient des opportunités pour la bauxite et le nickel. Les réserves découvertes en Nouvelle-Calédonie pourraient aussi fournir du nickel en quantité.

Des évolutions avant tout liées aux technologies

L’évolution de la demande en différents matériaux dépendra des politiques menées. Et ainsi du nombre d’éoliennes, de panneaux solaires et de véhicules électriques fabriqués. Mais elle sera avant tout menée par les choix technologiques qui seront retenus au niveau mondial. Ces derniers définiront le marché des matières premières sur les cinquante prochaines années, prévient l’étude. Par exemple, les trois principales catégories de véhicules alternatifs ont des impacts différents sur la demande de métaux. Si les véhicules électriques ont besoin de lithium, les véhicules hybrides préfèrent le plomb et les véhicules à hydrogène le platine.

Les auteurs notent que cette étude est un premier pas pour sensibiliser les différents acteurs à travailler ensemble. Ils évoquent bien évidemment d’autres secteurs à prendre en compte pour de futures études, notamment les transports, les bâtiments, l’industrie et l’usage des sols.

Par Matthieu Combe, journaliste scientifique

Le miscanthus, pour du béton biosourcé

Un bon béton nécessite du sable, des granulats, de l’eau et du ciment pour lier les constituants entre eux. Pour économiser les ressources naturelles non renouvelables, Ciments Calcia et Alkern ont substitué les granulats par une version renouvelable à base de miscanthus. Ce nouveau matériau de construction est constitué en moyenne à 60% de broyats de miscanthus en substitution des granulats traditionnels. Ils ont ainsi obtenu un prototype de bloc de béton de 20x50x20 cm pesant 17 kg, un poids comparable au bloc classique. Le béton de miscanthus aura bientôt toute sa gamme : bloc standard, bloc poteau, planelle isolée et éléments de chaînage horizontal.

De nombreux essais de caractérisation du bloc en béton de miscanthus ont été validés ou sont toujours en cours, avec une étape clé à venir : le dépôt de la demande d’ATEx auprès du CSTB à l’automne. Pour une obtention prévue fin 2017. Cette procédure rapide d’évaluation technique est nécessaire pour son utilisation expérimentale en février 2018. Le béton de miscanthus sera alors déployé sur les 1.700 m2 de façade de 46 logements sociaux à Chanteloup-en-Brie (77). Ce permier chantier nécessitera 50 tonnes de miscanthus.

Structurer une nouvelle filière

Ce nouveau bloc en béton s’inscrit dans le projet de constitution d’une filière complète autour du miscanthus en tant que matériau biosourcé en Île-de-France. Un projet piloté par l’association Biomis G3 qui oeuvre depuis 4 ans à réunir partenaires institutionnels, coopératives agricoles, acteurs de la recherche et industriels. Avec pour objectif de produire et transformer localement la plante de miscanthus. A l’instar de ce qui a été fait dans la région châlonnaise où 450 hectares sont déjà cultivés.

Après transformation, le miscanthus peut être utilisé comme bioénergie, mais surtout dans le cas échéant comme biomatériau. « La culture du miscanthus sera possible si tous les acteurs des filières naissantes de production de matériaux agro-sourcés s’entendent pour construire une chaîne de valeur permettant une rentabilité partagée, au bénéfice d’une économie locale nouvelle », prévient Jérôme Mat, vice-président de Châlons-en-Champagne Agglo, délégué au développement économique.

Vous avez dit « miscanthus »?

Le miscanthus est une plante idéale, à l’instar du chanvre. Il pousse sans pesticides et sans irrigation sur tous les sols. « Le fait que sa culture s’adapte idéalement aux terres polluées, dégradées ou délaissées, s’avère un atout phare, note Ciments Calcia. Elle n’entre pas ainsi en concurrence avec l’agriculture alimentaire ; la production de miscanthus s’inscrit au contraire en complément de ressources et débouchés économiques pour les agriculteurs ».

La production s’échelonne sur une durée de 15 à 20 ans sans ressemer ni engrais. Par ailleurs, elle est stérile, à rhizome et non invasive. Chaque hectare cultivé produit jusqu’à 10 tonnes de miscanthus par an. En développant sa culture sur chaque territoire, il réduirait l’empreinte carbone du bâtiment en économisant le transport de granulats sur de longues distances.

Un matériau performant ?

La résistance thermique du bloc en béton de miscanthus s’élève à 0,7 mètres carrés-kelvins par watt (m2.K/W) contre 0,2 pour les blocs traditionnels. Le matériau obtenu est donc trois fois plus isolant que le béton classique. Il répond ainsi aux spécificités de la RT 2012 et de la future réglementation environnementale RE 2018. Un avantage certain, alors que le surcoût ne serait que de 2%.

Ce biomatériau a aussi démontré son efficacité en matière de confort acoustique avec une atténuation des bruits de 54 décibels lorsqu’un mur est enduit sur une face. Sa tenue au feu est également exceptionnelle : 4 heures.

Par Matthieu Combe, journaliste scientifique

Paris mise sur le réemploi dans le bâtiment

Le réemploi se développe doucement dans le bâtiment. Objectif: diminuer les déchets, dans un secteur qui produit environ 50 millions de tonnes de déchets par an en France, dont 14 millions en Ile-de-France.

Dans ce cadre, la Ville de Paris fait figure de pionnier en France. En témoigne notamment la volonté de la mairie de Paris de s’engager dans le développement de filières de réemploi et de recyclage pour ses bâtiments publics, dans le cadre de son premier Plan d’économie circulaire 2017-2020. Paris devient ainsi la première collectivité française à définir une telle stratégie.

  • Le réemploi dans les bâtiments à Paris
  • La feuille de route du Plan économie circulaire de Paris vise notamment à développer l’économie circulaire dans le bâtiment et les travaux publics. « L’objectif dans le BTP est de passer de la démolition à la déconstruction », prévient  Antoinette Guhl, adjointe à la Maire de Paris chargée de l’économie sociale et solidaire, de l’innovation sociale et de l’économie circulaire. D’ici 2020, l’idée est d’entreprendre une dizaine de chantiers de déconstruction, dans le public. Certains sites sont déjà identifiés: la caserne de Reuilly, l’hôpital Saint-Vincent-de-Paul, la crèche Max Jacob, l’école d’Alembert à Montévrain…  Avec pour objectif d’obliger tout porteur de projet à réaliser un diagnostic de réemploi, via les permis de construction ou de démolition, dès 2020.
  • Ce développement nécessite un atelier municipal du réemploi de matériaux pour les travaux de construction, de maintenance ou de réhabilitation des 3.600 bâtiments municipaux parisiens. Avec ses 2.000 m2, ce sera le rôle de l’atelier Bédier. « Ce sont des ateliers de menuiseries, d’électricité, des lieux de stockage et qui permettent aux agents de la ville de récupérer tous ces matériaux pour les remettre en l’état afin qu’ils soient réutilisés dans d’autres bâtiments de la ville », résume Antoinette Guhl. L’administration parisienne aura de son côté à travailler aux normes d’intégration du réemploi et de sécurité avec les pouvoirs publics. Avec pour objectif de systématiser le recours au réemploi et à la réutilisation en 2019.

Mailler le territoire parisien

Le réemploi peut s’envisager à plusieurs échelles. In-situ, à l’échelle d’un éco-quartier où déconstruction, tri, reconditionnement, transformation, stockage et réutilisation sont menés de front. Mais aussi en trouvant  des chantiers dont la date et la durée correspondent à l’opération. Cela impose, très en amont du chantier, l’identification des gisements de matériaux de réemploi dans l’environnement du site. Enfin, lorsque cela n’est pas possible, il convient de regrouper les matériaux sur des plateformes locales de reconditionnement et de stockage. Ces dernières pourront aussi accueillir les surplus de chantier ou les invendus de négoce.

Pour organiser cette construction circulaire, Paris va déjà recenser et cartograpier les espaces disponibles qui pourraient être utilisés comme plateforme de conditionnement et stockage, sur une ou deux zones expérimentales. Plateformes existantes, en cours de création ou programmées, entreprises disponibles pour un temps fini (pour des plateformes éphémères) seront recensées. Avec pour objectif de cartographier l’offre de stockage et de reconditionnement sur tout le territoire parisien d’ici 2020.

Un tissu à construire pour changer d’échelle

En juillet 2016, l’ADEME a rendu un rapport sur les principaux freins au réemploi. Ils sont d’ordre technique, juridique, économique, liés à l’environnement et à la santé ou encore aux perceptions et pratiques des acteurs. Les principaux freins sont la structuration des pratiques et l’organisation logistique. Le réemploi nécessite aussi une adaptation des contrats de garantie.

En attendant que le cadre juridique soit bien défini, Paris souhaite construire l’offre. La Ville va ainsi répertorier les possibilités de réemploi et identifier les gisements de produits réemployables. Mais aussi mettre en relation les acteurs du réemploi. Le réemploi pourra alors trouver sa place dans des marchés de commandes publiques ou privée, pour des opérations de réhabilitation, voire de construction neuve, d’habitats ou de bureaux.

Par Matthieu Combe, journaliste scientifique

Nano-électronique : un monde plein d’exotisme

L’électronique nanométrique n’en est qu’à ses balbutiements. Elle revisite les moyens de stocker et déplacer de l’information numérique. Elle s’appuie sur des matériaux déjà connus dont on découvre de nouvelles propriétés en explorant les changements d’états de la matière et leur transition au niveau nanométrique et sur des matériaux plus récents comme les matériaux bidimensionnels. Elle fait intervenir une physique quantique qui va certainement offrir un avenir radieux, mais pour l’instant imprévisible, à l’électronique.

Le spin est idéal !

Toute une nouvelle électronique s’appuie aujourd’hui sur la notion de spin dans les électrons. On est donc passé d’une électronique fondée uniquement sur des déplacements de charges électriques liés aux électrons -principalement dans des matériaux semi-conducteurs – à une électronique qui s’appuie sur des propriétés magnétiques. En effet, le spin quantique des électrons est l’équivalent quantique du moment cinétique en physique classique. Et pour l’électron son spin est responsable aussi de son moment magnétique. Quand on applique un champ magnétique spécifique, le spin de l’électron bascule d’une orientation à l’autre. Cette propriété est à la base de la spintronique. Les recherches en spintronique sur des matériaux multicouches somme toute assez simples (alternance de couches ferrogmagnétiques et de couches isolantes) ont mené à la découverte en 1988 de l’effet de magnétorésistance géante (GMR) par les équipes d’Albert Fert (Paris-Sud) et Peter Grünberg (Université de Cologne) qui leur a valu un prix nobel en 2007. La GMR (via l’introduction d’une magnétorésistance à effet tunnel) a permis de multiplier par 1000 la capacité des disques durs des ordinateurs courants et est à la base des mémoires MRAM (Magnetoresistive random-access memory). Ce type de mémoire informatique a été pour l’instant réservée à des secteurs de haute technologie (aéronautique, spatial et militaire ou automobile) car très fiable y compris dans des conditions extrêmes mais encore très chère. Ses performances et la maîtrise de leurs productions commencent à en faire de réel composants compétitifs face aux autres technologies support de l’informatique. Notamment via le développement de nouveaux types de commandes des MRAM (pour créer des STT-RAM – spin-transfer torque) qui devrait aboutir d’ici 2018 à des intégrations dans des secteurs plus grand publics.

Des ondes de spin aux skyrmions

A côté de ce travail sur la spintronique, les physiciens se sont intéressés aux ondes de spin. En effet, dans des matériaux magnétiques ordonnés chaque spin est en interaction avec les spins voisins et quand on en modifie un, ses voisins le sont de proche en proche provoquant une onde de spins. Ces ondes transportent de l’énergie par petites quantités bien définies, les magnons. La magnonique est donc l’électronique des ondes de spin qui, à l’instar d’autres types d’ondes, peuvent coder de l’information par modulation de leur phase, de leur amplitude ou de leur fréquence. Les physiciens ont donc commencé à travailler sur les cristaux magnoniques qui consistent en des empilements périodiques de couches magnétiques qui selon leur structure et leur composition ne laissent se propager que certaines fréquences d’ondes de spins. Parmi les autres matériaux qui sont étudiés comme support à la magnonique, on trouve des matériaux multiferroïques (présentant des propriétés de ferromagnétisme, ferroélectricité et/ou ferroélasticité), redécouverts dans les années 2000. Le composé le plus étudié est le ferrite de bismuth, un oxyde de fer et de bismuth (BiFeO3), abrégé en BFO qui présente, à température et pression ambiantes, des propriétés ferroélectriques et ferromagnétiques couplées.

Dans la continuité de l’étude des spins, les chercheurs se sont intéressés aux skyrmions. Ces derniers sont des tourbillons de spins qui ont la particularité d’être stables, lisibles, déplaçables effaçables « assez facilement » et avec très peu d’énergie. Ils pourraient donc être de bons candidats pour le stockage de données ultra miniature (un disque dur de la taille d’une pièce de 1 centime). Ils ont été observés à la surface de matériaux aussi divers que des supraconducteurs, des couches minces magnétiques, des cristaux liquides.

Les isolants topologiques, ces nouveaux métaux

Les isolants topologiques sont des matériaux dont certains étaient connus pour leurs propriétés thermoélectriques mais qui ont été dévoilés comme matériaux conducteurs en 2005. Ces matériaux ont une structure de type isolante mais présentent pourtant à leur surface des états « métalliques ». Ils sont donc isolants en volume et conducteurs en surface. L’antimoine via l’antimoniure de bismuth (qui sera le premier isolant topologique 3D a être réalisé) ou encore le mercure ont été à la base du développement de tels matériaux. Mais leur manipulation dangereuse a conduit à se tourner vers d’autres composant tels que des cristaux à base de bismuth. En 2012, de nouveaux matériaux topologiques sont détectés dans des sels de plomb et d’étain (étain+tellure par exemple). Quel intérêt pour l’électronique ? Le couplage entre direction du spin et courant. En effet, à la surface de ces matériaux tous les électrons se propageant dans une direction ont un spin identique, ce qui permet de contrôler des courants de spins sans avoir recours à des matériaux magnétiques.

Quand la lumière fait l’électronique

D’un côté les scientifiques jouent avec les interactions électricité/magnétisme et d’un autre avec électricité et lumière. C’est le domaine de l’opto-électronique.  Parmi les différentes voies explorées actuellement, on peut citer la plasmonique et et les propriétés particulières des dichalcogénures de métaux de transition (DMT).

La première concerne l’étude des plasmons de surface. Les plasmons sont des ondes de densité d’électrons ressemblant à des vagues qui sont générées dans certaines conditions par un rayonnement électromagnétique (la lumière notamment) à l’interface entre un métal (ou de certains composés bidimensionnels comme le graphène) et un matériau diélectrique comme l’air ou le verre. Les possibilités ouvertes par l’étude des plasmons sont assez vertigineuses allant de l’augmentation du rendement de diodes électroluminescentes ou de la résolution des microscopes à la transmission de données de circuits intégrés via des nanofils.

Assimilé aux matériaux 2D, les dichalcogénures de métaux de transition (DMT), dont le plus étudié est le disulfure de molybdène (MoS2), ont des propriétés très particulières pour l’optoélectronique. Ils ont en effet la capacité de transformer la lumière en électricité et vice-versa. Leur potentiel pourraient donc se développer dans des sources de lumière miniature, des systèmes d’affichages souples dont les premiers prototypes ont d’ailleurs déjà été testés.

Non les oxydes ne sont pas rouillés

Depuis une dizaine d’années, on a redécouvert un intérêt aux oxydes métalliques, composés d’un atome d’oxygène couplé à des atomes de métal de transition comme le cuivre ou le zinc. Leurs atouts pour l’électronique ? L’instabilité de leur structure cristalline particulière (structure pérovskite) lors de baisse de température par exemple qui engendrent chez eux des états possibles très différents : isolants, conducteurs, magnétiques, ferroélectriques, piézoélectrique etc. En variant les métaux utilisés on peut en faire des capteurs sensibles. Le BFO dont on a parlé précédemment en est un. Mais on a aussi découvert, une propriété inattendue, deux oxydes isolants mis en sandwichs créent à leur jonction une interface conductrice voire supraconductrice. Le phénomène a été mis en évidence en 2004 entre un oxyde de lanthane et d’aluminium (LaAlO3) et un oxyde de strontium et de titane (SrTiO3). Aujourd’hui on est capable de fabriquer de petits transistors utilisant des oxydes. L’oxytronique étudie les très nombreuses possibilité des ces structures que l’on peut empiler et combiner pour donner encore de nouveaux matériaux.

Où l’on retrouve encore les métaux de transition

Dans la catégorie matériaux bidimensionnels, le graphène et ses cousins (voir cet article) présentent de nombreuses potentialités, même si elles ont encore du mal à se concrétiser.

Assimilé aux matériaux 2D, les DMT et notamment le disulfure de molybdène évoqué plus haut,  sont aujourd’hui à l’origine de quelques avancées dans l’électronique à base de matériaux bidimensionnels. Ainsi, le MoS2 a servi au premier transistor à base de DMT et vient d’être le support au premier microprocesseur de l’électronique bidimensionnelle : un microprocesseur d’un bit intégrant 115 transistors à base de MoS2. Même si on est loin des capacités d’un microprocesseur standard en silicium cette réalisation est une percée importante dans ce champ de recherche. Et tout comme avec les oxydes, ces DMT peuvent être associés entre eux ou avec du graphène et d’autres matériaux 2D pour donner des matériaux aux propriétés très performantes qu’il reste à découvrir et à maîtriser.

Un travail de fourmi titanesque

Le constant va-et-vient entre la découverte de la physique nanométrique d’un côté et la découverte de matériaux aux propriétés inattendues donnent un foisonnement de la recherche qui ouvrent de nombreuses voies pour le développement d’une électronique nanométrique. Mais la concrétisation vers des productions industrielles prend et prendra encore du temps. Les techniques de fabrication des matériaux et les outils pour leurs études sont encore extrêmement récents. Et l’exploration de ce nouveau monde constitue un travail de fourmi titanesque…

Sophie Hoguin

Electronique : dans la famille 2D, je voudrais les cousins du graphène

Le graphène commence à tenir ses promesses pour de nombreuses applications : électrodes, nouveaux dispositifs médicaux, isolation thermique ou magnétique… Mais pour l’électronique, ça coince un peu. Cependant, la recherche est très active pour pallier les défauts du graphène ou lui trouver un cousin qui pourrait remplacer l’électronique à base de silicium.

De la haute couture en terre inconnue

Même si l’on peut égrener les impressionnantes propriétés du graphène ou de ses cousins, les matériaux dits en deux dimensions (2D), les applications commencent tout juste à émerger et en électronique on très loin du compte. Pourquoi ? D’une part, il faut bien avoir à l’esprit que l’on travaille sur des nanomatériaux et qu’à l’échelle de l’atome la matière a des propriétés et des capacités très différentes qu’à l’échelle micro ou macroscopique. On évolue donc dans un domaine encore mal connu, doté d’une mécanique quantique relativiste, compliquée et souvent onéreuse à mettre en œuvre et où la production tient plus de la haute couture que du process industriel. Et pour compliquer le tout, si l’on prend l’exemple du graphène c’est un matériau anisotrope, c’est-à-dire que les propriétés à la surface ne sont pas les mêmes que sur les bords et qu’un graphène en feuille se comportera différemment d’un graphène en paillette (qui aura beaucoup plus de bords). Les dix dernières années ont donc servi à caractériser les différentes propriétés dans de nombreux environnements différents, dans des configurations différentes et à chercher les moyens de produire du graphène le plus pur possible dans des conditions acceptables pour l’industrie.

Electroniquement pas viable !

Le graphène est un champion pour transporter les électrons rapidement. Mais le problème, c’est qu’il ne possède pas de bande interdite, il n’est pas semi-conducteur donc on ne peut pas arrêter le transport à la demande. Du coup, difficile de fabriquer des composants électroniques dont le fonctionnement de base est de pouvoir alterner allumé/éteint (des 1 et des zéros). De nombreuses recherches visent à changer le graphène en semi-conducteur. Et, Les scientifiques ne mettant pas tous leurs œufs dans le même panier, ont, en parallèle, commencé à chercher des cousins du graphène semi-conducteurs.

Du silicène aux faux 2D

Parmi les nombreux cousins du graphène, le silicène a fait naître de grands espoirs. Dans ce composé, les atomes de carbone sont remplacés par des atomes de silicium. Mais lui, il est semi-conducteur. Le hic : il n’existe pas à l’état naturel et sa synthèse n’est pas aisée. En outre, quand en 2015, on a réussi à fabriquer le premier transistor en silicène, il n’a vécu que 2 minutes, car ce matériau s’oxyde extrêmement vite… Encore quelques années de recherche en perspective !

Sur le même modèle de nombreux autres cousins ont été synthétisés et sont actuellement testés : germanène (à base de germanium), stanène (étain), phosphorène (phosphore)… mais tous ces matériaux ont des propriétés inconnues et leur synthèse ne date que de 2014/2015. Reste donc à les caractériser avant de pouvoir en faire des composants électroniques. C’est aussi le cas, pour d’autres composés, alliant cette fois des atomes différents, qui dérivent directement du graphène ou qui sont basés sur le bore par exemple.

Graphane & co et composés borés

A partir du graphène, on a commencé à fabriquer du graphane, par hydrogénation du graphène. Le graphane présente un très bon potentiel pour le stockage de l’énergie sous forme d’hydrogène et offre aussi des potentialités en électronique car sa valeur de gap (bande interdite) est variable selon l’hydrogénation, processus que l’on maîtrise assez bien. D’autres composés sont nés en cherchant à fonctionnaliser le graphène : sur le modèle du graphane, le fluorographène (carbone + fluor), le chlorographène (carbone + chlore) qui sont des semi-conducteurs. Là encore, les chercheurs n’en sont qu’au début de la caractérisation de ces composés. Les recherches portent aussi beaucoup sur des matériaux 2D à base d’atomes de bore car celui-ci est proche du carbone dans la classification atomique et les borures sont souvent très stables. Cela a abouti par exemple à la fabrication de feuillets monocouche de diborure de magnésium ou encore d’un composé organique 2D à base de bore-carbone-azote. Chacun de ces composés offre des propriétés électroniques, thermiques, magnétiques, optiques particulières et souvent performantes. Mais on est encore loin d’une fabrication industrielle.

Aussi, aujourd’hui, une seule conclusion semble s’imposer  : bien malin sera celui qui pourra prédire si l’un de ces composés finira par être le grand gagnant d’une nouvelle électronique basée ou inspirée du graphène !

Sophie Hoguin

La turbulence des noyaux planétaires excitée par les marées

Les scientifiques s’accordent à dire que la formation et le maintien des champs magnétiques résultent d’écoulements de fer dans le noyau liquide. Les discussions se compliquent quand il s’agit de déterminer ce qui permet à ces masses colossales de se mouvoir. Le modèle dominant se base sur le lent refroidissement des astres, qui entraîne une convection, qui crée à son tour de grands tourbillons de fer fondu parallèles à l’axe de rotation du corps céleste. Or, les petites planètes et les lunes se refroidissent trop vite pour qu’un champ magnétique puisse encore s’y maintenir par convection, plusieurs milliards d’années après leur formation. Des chercheurs de l’IRPHE (CNRS/Aix Marseille Université/Centrale Marseille) et de l’université de Leeds ont donc présenté un modèle alternatif où ce sont les interactions gravitationnelles entre les astres qui agitent le noyau.

Les marées, produites par ces interactions gravitationnelles, déforment en effet le noyau périodiquement et amplifient les mouvements ondulatoires naturellement présents dans le fer liquide en rotation. Ce phénomène finit par produire un écoulement complètement turbulent, dont la nature n’est pas encore bien comprise. Afin de l’étudier, les chercheurs ont utilisé un modèle numérique d’une petite parcelle d’un noyau planétaire, plutôt qu’une simulation du noyau dans son ensemble, qui serait bien trop gourmande en puissance de calcul. Cette approche permet de caractériser finement les mouvements créés dans les régimes géophysiques extrêmes, tout en gardant les ingrédients physiques essentiels. Les chercheurs ont ainsi montré que la turbulence résulte d’une superposition d’un très grand nombre de mouvements ondulatoires qui échangent entre eux en permanence de l’énergie. Cet état particulier, appelé turbulence d’ondes, peut être vu comme un analogue en trois dimensions du mouvement de la surface de la mer, loin des côtes.

Ces travaux ouvrent la voie à de nouveaux modèles permettant de mieux comprendre et prédire les propriétés du champ magnétique des astres. Ce modèle de marées s’appliquerait à tous les corps en orbite, suffisamment déformés par les étoiles, planètes ou lunes voisines.

visuel-cnrs
© Thomas Le Reun / Institut de recherche sur les phénomènes hors équilibre (IRPHE, CNRS/Aix Marseille Université/Centrale Marseille) Gauche : simulation d’une parcelle cubique située au sein du noyau liquide d’une planète déformée par les effets de marées. En concentrant leurs efforts numériques sur ce domaine réduit, les chercheurs ont accédé à des régimes proches des régimes planétaires. L’écoulement prend alors la forme d’une superposition d’ondes qui interagissent non-linéairement jusqu’à former une turbulence tridimensionnelle d’ondes inertielles (cf. champ de vorticité verticale au centre), en opposition aux modèles classiques où l’écoulement évolue vers des structures tourbillonnaires à plus grande échelle, alignées avec l’axe de rotation (cf. champ de vorticité verticale à droite).

Source : cnrs

Reach 2018 : tous concernés !

En réalité, la date du 31 mai 2018 tient plus du couperet que de la date butoir. En effet, pour être sûr qu’une substance chimique puisse être mise sur le marché européen ou continuer à l’être après cette date, il faut qu’elle ait été enregistrée auprès de l’Agence européenne des produits chimiques (ECHA). Un processus qui peut prendre un an et dont le coût doit être provisionné (en moyenne 70 000 euros). Depuis plus de 10 ans que le règlement Reach est entré en vigueur, les obligations d’enregistrements des substances ont été progressives : d’abord celles produites dans les plus grands volumes et celles identifiées comme étant cancérogènes, reprotoxiques ou mutagènes (CMR) et maintenant celles produites à partir d’une tonne par an. Cette troisième phase est certainement la plus critique car elle concerne nombre de petites et moyennes entreprises formulateurs, fabricants et importateurs de substances chimiques et surtout tous leurs clients utilisateurs ou distributeurs menacés d’une rupture d’approvisionnement si l’enregistrement n’a pas été fait à temps.

« Pas de données, pas de marché »

« Pas de données, pas de marché », c’est le principe de base qui régit le règlement Reach. Après la phase d’inventaire qui s’achève le 31 mai 2018, toute nouvelle substance qui veut être mise sur le marché doit être enregistrée. C’est-à-dire que le metteur sur le marché doit fournir les informations sur les risques qu’elle présente pour les travailleurs, les utilisateurs ou l’environnement avant d’être autorisée à la commercialisation. Ce travail de recensement phénoménal a pour l’instant donné lieu à la publication par l’Echa de 15 000 fiches de produits sur son site. Avec cette troisième phase qui concerne toutes les substances produites à partir d’une tonne par an, l’Echa s’attend à recevoir quelque 60000 dossiers d’enregistrement. Mais en juillet, seuls 10 000 ont été soumis.

Vigilance pour tous les utilisateurs

Les autorités ont une réelle crainte que les plus petites entreprises ne comprennent pas à quel niveau elles sont concernées et qu’elles omettent les démarches nécessaires. En effet, tous les types de substances sont concernées : naturelles, organiques, métaux qu’elles soient utilisées seules ou en mélange et incorporées ou non dans des produits finis comme des meubles, de l’électro-ménager ou des produits de nettoyage. Ainsi, si l’obligation d’enregistrement concerne à peu près 50 000 entreprises françaises, les entreprises utilisatrices, elles sont au nombre d’1,7 million. Ces dernières doivent absolument s’assurer auprès de leurs fournisseurs que les substances chimiques qu’elles utilisent sont bien enregistrées. Cela nécessite donc un inventaire des substances utilisées et dans le cas où l’enregistrement ne serait pas fait à temps, la nécessité de trouver une solution de rechange (reformulation par exemple). En cas d’utilisation d’une substance non enregistrée les utilisateurs seront dans l’illégalité tout comme le distributeur ou le fabricant.

Des ressources à tous les étages

Afin de s’assurer que le maximum d’acteurs se sentent concernés et prennent les bonnes dispositions à temps, toutes les ressources sont mobilisées : le service d’assistance gratuit Helpdesk de l’Ineris qui fait depuis 2016 des journées d’intervention dans toute la France, les différentes chambres consulaires et d’agriculture qui proposent différents services allant de journées d’information à des formations aux outils et au processus liés à Reach, les fédérations professionnelles qui alertent leurs adhérents sur les risques et les obligations… Le ministère lui fait le battage médiatique et organise deux journées à la rentrée, les 4 et 5 septembre, pour accentuer encore la prise de conscience des TPE et PME françaises.

Par Sophie Hoguin

Revue de presse anglophone #8

  • Google va faire évoluer sa page d’accueilgoogle200

Source : The Guardian

Lire l’article original

 

 

  • Investir dans le Bitcoin, oui mais comment ?bitcoin200

Source : The Guardian

Lire l’article original

 

 

  • Apple, Alphabet, Amazon, Facebook, Microsoft pèsent gafa200ensemble 3000 milliards de dollars

Source : Techcrunch

Lire l’article original

 

 

  • Donald Trump a-t-il vraiment dit au revoir aux accords de Paris ?trump200

Source : Scienceblogs

Lire l’article original

 

 

  • A quoi ressemble une éclipse solaire vue de l’espace ?eclipse200

Source : New York Times

Lire l’article original

 

 

Le secret des cycles magnétiques des étoiles

Le champ magnétique des étoiles est engendré par les mouvements convectifs turbulents du fluide conducteur présent dans leur cœur (par effet dynamo¹ ). Celui du Soleil se renverse tous les onze ans, phénomène qui s’accompagne de phénomènes éruptifs très énergétiques, pouvant dégrader des systèmes électriques et de communicationssur Terre ou à bord de satellites. D’autres étoiles présentent aussi des cycles magnétiques, d’une année à plusieurs dizaines d’années.

Une collaboration internationale incluant le CEA, le CNRS et l’Université Paris Diderot² a simulé en 3D l’intérieur d’étoiles semblables au Soleil afin d’expliquer l’origine des cycles de leur champ magnétique. Les scientifiques ont mis en évidence l’existence d’une rétroaction forte entre le champ magnétique de l’étoile et les écoulements qui l’animent, dont un important « profil de rotation interne ». Les modulations temporelles de cette rotation interne déterminent en définitive la période du cycle. La découverte de cette loi d’échelle sur la période du cycle magnétique d’une étoile à partir de simulations 3D turbulentes auto-cohérentes (voir encadré) est une première mondiale. Ces résultats, obtenus grâce aux grands calculateurs GENCI, PRACE et ComputeCanada, sont publiés dans la revue Science.

La force des simulations auto-cohérente

En physique, une simulation auto-cohérente, ou modèle ab initio, garantit un modèle basé sur les principes premiers de la physique ne faisant intervenir aucun paramétrage ad-hoc. En particulier, les champs magnétiques et les écoulements à l’intérieur de l’étoile évoluent ici de façon conjointe et sont interdépendants, ce qui a permis aux chercheurs de mettre en lumière ce mécanisme nouveau à l’origine des cycles magnétiques stellaires.

Les simulations du magnétisme des étoiles de type solaire permettront de préparer l’exploitation scientifique des missions Cosmic Vision de l’ESA Solar Orbiter et PLATO, dont les lancements sont respectivement prévus en 2018 et 2024. Elles renouvellent l’interprétation théorique des cycles magnétique stellaires et replacent l’étude du Soleil au cœur de notre compréhension de la dynamique des étoiles.

Une dynamo fondamentalement non-linéaire

Si on zoome sur le cœur du Soleil, on observe aussi au sein du fluide conducteur, en plus de mouvements à grande échelle, un écoulement turbulent multi-échelles, issu de l’instabilité de la convection. Celui-ci est localisé dans la coquille sphérique externe de notre étoile, de 0,7 rayon solaire jusqu’à la surface. L’ensemble de ces deux types d’écoulements, à grande échelle et multi-échelles, joue un rôle essentiel dans la restructuration périodique du champ magnétique via ses composantes poloïdales³ et toroïdales. Un mécanisme complexe, aujourd’hui bien compris, permet ainsi « d’auto-entretenir » un champ magnétique global de grande échelle. Dans certains cas, comme pour le Soleil, ce champ magnétique global oscille sur une période décennale. Grâce à leurs simulations, les chercheurs ont pu montrer que la rotation de l’étoile influence l’efficacité du transfert d’énergie (non-linéaire) entre certains écoulements à grande échelle et le champ magnétique. Ce phénomène détermine ultimement la période du cycle, qui décroit avec le nombre de Rossby, un nombre sans dimension très utilisé en dynamique des fluides géophysiques.

cap-espace
Observation du champ magnétique azimutal, en fonction de la latitude et du temps. On observe que le champ magnétique se renverse régulièrement et oscille entre des phases symétriques (même signe de part et d’autre de l’équateur par exemple entre 100 et 140 ans) et antisymétriques (signe opposé par exemple entre 240 et 320 ans) par rapport à l’équateur. @DAp/CEA-AIM-Université de Montréal

Le cycle magnétique des étoiles de type solaire

Grâce à différents programmes d’observations, les chercheurs disposent aujourd’hui d’informations sur la durée des cycles magnétiques d’étoiles de type solaire, dont ils connaissent souvent la luminosité avec une bonne précision, en plus de leur rotation et de leur cycle magnétique. En observant de plus en plus d’étoiles, les astrophysiciens espèrent affiner ce nouveau scénario de l’origine du cycle magnétique des étoiles.

Cap-espace2
Ratio de la période du cycle magnétique et de la période de rotation en fonction du nombre de Rossby dans les simulations 3D turbulentes (à gauche). Une loi de puissance qui décroit avec le nombre de Rossby est obtenue du fait de la forte non-linéarité de la dynamo opérant dans ces simulations. A droite, on observe le même ratio en fonction de la luminosité de l’étoile (normalisée à la période de rotation de l’étoile). Dans ce diagramme sont ajoutés le Soleil (cercle mauve avec un point en son centre) et d’autres étoiles de type solaire (étoiles cyan, losanges orange) pour lesquelles un cycle magnétique a été observé. Les étoiles jumelles du Soleil sont surlignées en mauve. Les simulations (disques bleu) croisent le point solaire sans ajustement de paramètres. Les lignes brisées verticales correspondent à des étoiles pour lesquelles deux périodicités magnétiques ont été identifiées. @DAp/CEA-AIMUniversité de Montréal

1 L’effet dynamo consiste en la génération spontanée d’un champ magnétique au sein d’un liquide conducteur en mouvement.
2 Au sein du laboratoire Astrophysique, instrumentation, modélisation (AIM) à Paris-Saclay.
3 C’est-à-dire le long des méridiens.
4 C’est-à-dire le long des parallèles.
5 Le nombre de Rossby mesure le rapport entre les forces d’inertie et la force de Coriolis qui s’applique à un fluide dans un repère tournant. Un faible nombre de Rossby correspond à une situation où l’effet de la rotation (Coriolis) domine l’advection du fluide, comme dans le cas par exemple de la circulation océanique globale sur Terre.

Références : Reconciling solar and stellar magnetic cycles with nonlinear dynamo simulations. Strugarek A., Beaudoin P., Charbonneau P., Brun A.S., Do Nascimento Jr J.D. Publié dans la revue Science (2017)

Source : cnrs

Pétrole : La stratégie de l’OPEP tend vers l’échec

D’ordinaire, les membres de l’OPEP s’entendent sur des quotas, et pour certains ne les respectent pas toujours. Cette fois-ci, l’Equateur joue carte sur table et a annoncé cette semaine publiquement par le biais de son ministre de l’Energie, Carlos Perez, que la réduction de 26 000 barils jour (bj) ne pourra être mise en œuvre pour des raisons fiscales. En juin, le pays sud-américain a extrait 527 000 bj.

Surabondance

La décision de l’Equateur n’a pas un grand impact face aux 32,5 millions de barils jour que pèse l’OPEP, mais elle pourrait inciter d’autres pays membres en mal d’argent (Venezuela, Algérie, notamment) à ne pas remplir leurs engagements. Une réflexion liée au faible impact de l’ambitieux accord signé en décembre dernier entre l’Organisation et la Russie visant à donner un signal fort au marché. Il prévoyait une réduction de 1,2 Mb  à partir du 1er janvier 2017, grâce notamment à la Russie qui avait accepté de baisser de 600 000 bj ses exportations, soit à elle seule, la moitié de l’effort consenti. Cela a provoqué dans un premier temps une remontée des cours qui n’a pas durée.

Sept mois plus tard, le prix du baril est toujours au même niveau (48$). Pire, l’élection du très pro-hydrocarbures Donald Trump à la présidence des Etats-Unis laisse présager que l’Oncle Sam va tout faire pour maintenir son rang de premier producteur mondial, devant l’Arabie Saoudite et la Russie.

Romain Chicheportiche

Le parlement européen veut renforcer la vie privée des citoyens

Les députés du parlement européen sont peut-être sur la liste noire des agences de renseignement ! Alors que le texte de la Commission européenne reste très vague sur le niveau de sécurité que doivent respecter les fournisseurs de services de communication, ces parlementaires affirment vouloir imposer le chiffrement de bout en bout qui rend impossible d’intercepter en clair les messages ! « Les fournisseurs d’un service de communication électronique doivent veiller à ce qu’il y ait une protection suffisante contre les accès non autorisés ou les modifications apportées aux données des communications électroniques, et que la confidentialité et la sécurité de la transmission soient également garanties par la nature des moyens de transmission utilisés ou par du chiffrement de bout en bout dernier cri ».

« De plus, ajoute le texte, lorsque le chiffrement des communications électroniques est employé, le déchiffrement, l’ingénierie inverse ou la surveillance de ces communications sont interdits. Les États membres n’imposent aucune obligation aux fournisseurs de services de communications électroniques qui entraîneraient un affaiblissement de la sécurité et du chiffrement de leurs réseaux et de leurs services ».

Le chiffrement : une solution contre l’espionnage économique

Pas de quoi satisfaire la DGSI qui affirme que le chiffrement entrave ses actions. Par exemple, ses services ne peuvent pas consulter certains messages (ceux qui sont chiffrés) de la messagerie sécurisée russe Telegram. Évidemment, certains députés prétendent que ce service n’est utilisé que par les terroristes, oubliant un peu vite de préciser que des hommes politiques l’utilisent eux-mêmes !

Autre bête noire : WhatsApp. Ce logiciel de messagerie instantanée utilisé par plus de 600 millions de personnes, et propriété de Facebook, a aussi adopté le protocole de TextSecure. Développé par Whisper Systems et conseillé par Edward Snowden, il permet un chiffrement de bout en bout des messages.

Mais en France tout le monde n’est pas contre le chiffrement. Guillaume Poupard, le patron de l’ANSSI (Agence nationale de la sécurité des systèmes d’information), estime même qu’il faut au contraire l’encourager, « voire réglementairement l’imposer dans les situations les plus critiques ». Pour cet expert, le chiffrement garantit la protection des données sensibles des entreprises. Il permet de limiter les risques d’espionnage économique.

Philippe Richard

Episode #2: La sélection

Au centre d’un des aéroparkings de la tour, Will attendait l’aéronef qui allait peut-être l’emmener vers son nouveau destin en compagnie de onze autres personnes, toutes quasiment aussi jeunes que lui. S’il trépignait d’impatience, ses nouveaux compagnons semblaient anxieux, inquiets, et certains étaient même particulièrement bizarres. Détournant le regard du désolant spectacle que lui renvoyaient ses voisins, Will se concentra sur le coucher de Soleil. Sur un fond de ciel brunâtre et changeant, il ornait les tours de verre de courbes iridescentes, tandis qu’encore quelques centaines d’aéronefs volaient vers de mystérieuses destinations. Un aéronef multicolore et imposant amorça sa descente dans leur direction. L’antigravité quantique se résorba progressivement, et les bras d’atterrissage se déployèrent. Un son lourd coupa le silence, et une rampe métallique se déplia jusqu’au sol de l’aéroparking. Un homme la descendit, progressa d’un pas assuré jusqu’au groupe et analysa les jeunes gens de haut en bas, avant de prendre la parole :

– Bonsoir et merci à vous d’avoir répondu à l’appel, je vois que vous êtes tous présents et je vous en félicite. Montez à bord, je vous prie

Les jeunes gens avancèrent d’un pas hésitant vers la rampe d’accès et se mirent spontanément en file indienne. Le sas était fortement éclairé et formait un large couloir sur les parois duquel se trouvaient plusieurs portes en plexigraphène semi-opaque.

Une des femmes de l’équipage se présenta à eux et les guida vers une des portes de gauche, qui s’ouvrit sur leur passage. Will et les autres furent invités à prendre place sur des sièges dans ce qui semblait être une salle d’attente. Les murs et les deux portes qui la composaient étaient saturés de propagande holographique de la célèbre compagnie Googapple. Une fois que chacun fut installé, la lumière de la salle se mit à faiblir jusqu’à laisser place à une obscurité totale. Puis immédiatement, un hologramme lumineux, représentant un homme âgé, apparut au centre de la pièce. Sa fine barbe blanche s’anima légèrement quand sa voix retentit et résonna dans toutes les directions à la fois.

– Mesdames et Messieurs, bonjour et bienvenue à bord. Je m’appelle Edward Page. Vous êtes ici car vous avez répondu à notre première grande campagne de recrutement dans la Blind Zone pour obtenir la possibilité d’intégrer la « Sight Zone », réservée jusqu’à présent à l’élite des pays les plus riches de la planète. Vous êtes moins d’une vingtaine à avoir réussi nos tests de présélection, sur plus de mille postulants. Vous allez aujourd’hui subir un dernier test qui ne retiendra probablement qu’un candidat parmi vous, voire aucun. Bonne chance.

L’hologramme disparut et la lumière envahit de nouveau la salle.

Tandis que Will commençait à se ronger les ongles jusqu’au sang, la deuxième porte s’ouvrit brusquement. Une voix informatisée invita une première personne à se rendre dans la pièce suivante. Le voisin assis à la droite de Will se leva tant bien que mal et s’y rendit en traînant les pieds. Avant que la porte ne se ferme derrière lui, les jeunes gens entrevirent une grande salle sombre au centre de laquelle trônait une grande sphère de trois mètres de diamètre. Autour d’elle, des dizaines d’holo-écrans frétillaient de lumières et de clignotements, sous l’œil expert d’une poignée d’hommes et de femmes qui semblaient superviser le tout.

Will attendit que la porte se referme pour sortir son holoport de son sac et tenter de se connecter au réseau. Il voulait dénicher des informations sur cette espèce de sphère, mais constatant que le réseau n’était pas disponible à bord de l’aéronef, il rangea son holoport et prit son mal en patience.

– Will Tyler, je répète, Will Tyler vous êtes prié de vous rendre dans la salle d’épreuve s’il vous plaît.

La voix informatisée, plus forte que d’habitude réveilla Will en sursaut. Il scruta les alentours et réalisa qu’il était seul dans la salle d’attente. La porte menant à la sphère était ouverte. Il se leva et entra.

Quand la porte se referma derrière lui et que ses yeux s’habituèrent peu à peu à la semi obscurité ambiante, il réalisa que les experts le détaillaient avec insistance et impatience. Alors qu’il s’approchait de la sphère, qui était en fait un genre de cockpit, un des hommes se présenta et l’invita à y entrer. Le jeune homme prit place sur l’unique siège de la machine, tandis que l’expert s’installa dans un fauteuil en face de lui, ajusta son holo-écran, et activa quelques fonctions qui refermèrent la vitre en plexigraphène de la sphère et firent retentir autour de Will l’écho caractéristique d’une communication. :

– Will, avant de commencer, je dois te poser une question. Prends-tu actuellement des médicaments ?

La question surprit Will. Il hésita avant de finalement répondre :

– Oui, j’ai un implant médicamenteux dans le bras gauche.

– De quel médicament s’agit-il ?

– Pourquoi voulez-vous le savoir ? C’est privé.

– C’est tout à fait ton droit de refuser de le dire. Dans ce cas, tu peux garder cette information confidentielle et nous allons interrompre l’épreuve.

– Non ! Non, je vais vous le dire. C’est un neuroleptique, un implant de Lepsychodal.

– De quelle maladie souffres-tu ?

– Je… Je suis schizophrène. Mais je suis sous traitement depuis plus de quatre ans et je suis tout à fait stabilisé.

– Je n’en doute pas. Cependant, pour la nécessité de l’épreuve, je vais te demander l’autorisation de te retirer l’implant et de t’administrer une forte dose d’antidote. Comprend bien que cette épreuve est fondamentale et requiert de la part du candidat une parfaite intégrité de sa personne, et ton médicament modifie tes sensations, tes impressions, même tes pensées.

– Mais vous délirez ! C’est hors de question !

– Vous n’avez pas le choix si vous voulez poursuivre l’épreuve, M. Tyler.

Ce brusque passage au vouvoiement déstabilisa Will. Il commençait à être envahi de doutes, d’angoisses. Il était inconcevable d’arrêter son traitement. Il était encore plus inconcevable d’abandonner l’épreuve maintenant, après tant de travail et de temps :

– Très bien, allez-y, faites votre travail.

– Bien ! Merci Will.

Une trappe s’ouvrit dans le plafond de la machine. Un petit ensemble mécanique, composé d’une micro-caméra et de plusieurs petits bras robotiques repliés, en sortit lentement. L’un des bras se déplia et se dirigea vers le biceps du jeune homme, puis attendit. Will remonta la manche de son pull et ferma les yeux. L’opération n’avait duré que quelques secondes. Lorsqu’il rouvrit les yeux, un second bras équipé d’une seringue se dirigeait vers la veine du pli de son coude. L’injection fut courte et indolore. Le dispositif retourna dans la trappe qui se referma.

– Bien ! Maintenant Will, l’épreuve va pouvoir commencer. Tu as une sensostation chez toi ?

– Oui.

– Le principe ici est presque le même. Tu dois placer l’inducteur neuro-magnétique contre ta tempe, mais au lieu de sélectionner toi-même tes propres programmes, c’est nous qui allons te les imposer. L’expérience que tu vivras sera bien plus réaliste. Les programmes que tu vas utiliser sont des mises en situations bien particulières auxquelles tu devras réagir selon ton instinct. Tu as bien compris ?

Pendant que Will écoutait, des sensations et des impressions familières lui revenaient progressivement. L’homme qui lui parlait avait la voix qui basculait dans les graves, la scène s’assombrissait sans que la qualité de sa vue n’en pâtisse, des murmures presque imperceptibles envahissaient ses oreilles.

– Oui, j’ai compris, je suis prêt

L’homme pianota sur son holo-écran.

La surface interne de la sphère scintilla et fit apparaître une scène tridimensionnelle panoramique de ville animée. Le réalisme était saisissant. Will ne voyait là rien de comparable avec sa sensostation. Il se trouvait sur le trottoir d’une rue passante de ce qui semblait être une grande mégalopole. Des centaines de gens déambulaient et le croisaient sans lui accorder le moindre regard. L’espace entre les tours était saturé d’aéronefs de toutes les couleurs et de toutes les formes. Soudain, un aérobus dévia de sa trajectoire et fonça droit sur lui. Les passants se regroupèrent subitement en hurlant autour de Will et formèrent un mur humain compact et circulaire, lui coupant toute retraite. Will avait l’impression que son cerveau saturé d’angoisse allait exploser. Il perdit presque conscience.

Quand il parvint enfin à se ressaisir, il rouvrit les paupières. Ce qu’il voyait était absolument déroutant. Dans ses yeux, il voyait se superposer distinctement plus d’une centaine de points de vue différents de la catastrophe. L’épave de l’aérobus était à la fois proche et lointaine, de face et de profil, même vue de dessus. Les cadavres éparpillés et démembrés qu’il put identifier avaient tous son visage. Les gens autour de lui, loin devant, et même aux fenêtres des tours, avaient tous son visage. Will hurlant d’épouvante leva et serra les poings, et ce faisant, toutes ses copies firent de même. Ce concert de hurlements parfaitement synchronisés et accordés devint vite insupportable et dépassa les limites de la tolérance auditive. L’angoisse fut telle qu’il perdit connaissance.

 

À son réveil, Will était allongé sur un lit automatisé, seul dans une petite chambre. Il secoua la tête pour essayer de raviver sa mémoire, et finit par se rappeler l’épreuve de la sphère. Il analysa son corps, se pinça, se leva et marcha, pour s’assurer qu’il était bien dans le monde réel. Il observa attentivement la pièce à la recherche de possibles copies de lui-même. Non, il était bien seul. Il se dirigea vers la porte. Elle ne s’ouvrit pas. Il n’y avait rien de perceptible sur sa surface qui pût supposer qu’elle puisse s’ouvrir de l’intérieur, pas même un simple détecteur de mouvement ou une archaïque poignée. Will la frappa du poing, mais cessa vite, les os de sa main commençaient à chauffer douloureusement. La porte était supraconductrice et émettait des ultrasons ostéo-algiques. Il se sentit piégé. Il retroussa sa manche et découvrit un nouvel implant sous sa peau. La cicatrice, encore fraîche, était visible, Will commençait sérieusement à paniquer quand il aperçut Edward Page dans un coin sombre de la chambre :
– Bonjour Will

– Qu’est-ce que j’ai dans le bras !

– Ah oui, évidemment. C’est un implant de Lepsychodal, ton médicament, auquel a été ajoutée une interface implant-cellules. Plus tard, tu pourras contrôler ton implant depuis ton holoport et décider du dosage, voire arrêter temporairement son effet.

– Pourquoi ferais-je une chose pareille ?

– Parce que les symptômes de ta schizophrénie, bien qu’ils te rendent la vie impossible dans la « Blind Zone », vont devenir bien plus intéressants dans la « Sight Zone ».

– Vous voulez dire que j’ai réussi l’épreuve ? !

– Tu as réussi, Will. Tu es même le seul au monde, à avoir réussi l’épreuve, au-delà de nos espérances. Les symptômes de ta maladie sont si spécifiques ! Tu es capable de dissocier ton esprit quasiment sans limites… tu étais déjà le candidat parfait.

– Tous les candidats étaient schizophrènes ? !

– Exact.

– Mais qu’est-ce que vous attendez de moi ?

– Que sais-tu de la « Sight Zone », Will ?

– Je sais que sa population peut vivre dans des mondes virtuels magnifiques et paradisiaques.

– Tu as une opinion très optimiste sur la question. Tu crois que notre monde est idéal ?

– Bien sûr ! C’est notre rêve à tous ! Nous, ici, nous vivons dans un monde dur, difficile à supporter, esclaves de nos besoins, de notre condition, alors que vous, vous avez réussi à dépasser tout ça !

Edward s’assit à côté de Will au bord du lit, soupira lentement en fixant le plafond, puis reprit la parole :

– Notre monde se meurt, Will. Nos populations décroissent à une vitesse inimaginable. Quand un consommateur acquiert sa Sphère et découvre l’étendue de ses possibilités, il revient de plus en plus rarement dans le monde réel, et finit un jour par ne plus revenir du tout. Will, la Sphère offre à chacun la possibilité de se créer un monde sensoriel personnel idéal. L’utilisateur est totalement déconnecté de la réalité. Chaque consommateur peut se créer un empire à la vitesse de la pensée, peut se créer des millions de sujets, peut jouir de tous les plaisirs de la vie autant de fois qu’il le désire, dans les conditions qu’il désire. La vie réelle est devenue sans aucun intérêt. Renoncer temporairement au statut de Dieu tout-puissant dans sa Sphère pour redevenir un simple être humain dans une société dépérissante, est systématiquement vécu comme une régression insupportable. Les gouvernements sont impuissants. Il n’existe qu’une seule solution pour stopper la chute démographique. Will, si on connecte au réseau de Sphères quelqu’un comme toi, capable de dissocier son esprit à loisir…

– Je vais mourir d’angoisse…

– Tu vas être aidé. Imagine, toutes tes parties morcelées d’esprit, toutes tes « copies » vont être matérialisées dans le réseau, tu l’as démontré pendant l’épreuve avec une sphère traditionnelle. Et nos calculs sont formels : Tes fractions morcelées d’esprit vont petit à petit envahir le réseau, comme tu as envahi notre programme. Les paradis personnels de nos chers consommateurs vont se trouver saturés de tes copies, qui elles-mêmes vont prendre le pas sur l’omnipotence virtuelle du propriétaire. Tu vas pouvoir transformer leur idylle en cauchemar… Les gens n’auront plus qu’une hâte, se débrancher ! Tu vas rendre le monde réel plus vivable que le monde virtuel.

– Pourquoi je ferais une chose pareille. Je ne veux pas de mal aux gens, et je doute d’être capable de faire tout ce que vous dîtes.

– Je t’ai déjà dit que tu seras aidé, j’ai une équipe prête à t’assister dans ton « voyage ». En outre, sache que le mal est déjà là, le monde se meurt, les gens ne vivent plus. Tu vas les ramener à la vie…

 

Will emplit ses poumons d’air et expira lentement. Un frisson agréable lui parcourut l’échine. Il se concentra sur ses muscles et essaya de les détendre un par un. Il sortit son holoport de sa poche, fit apparaître le module de gestion de son neuroleptique, et interrompit le mode automatique. Le module lui demanda de saisir un dosage. Le doigt de Will effleura le « 0 », et il sentit immédiatement un léger fourmillement dans le bras. Il rangea son holoport, s’empara du module à induction neuro-magnétique et le plaça sur sa tempe. Il fit un signe du pouce à l’opérateur de sa Sphère et ferma les yeux.

Kevin Gallot

 

Les premières Tesla Model 3 sortent d’usine!

La Tesla Model 3 est le modèle qui pourrait faire décoller la voiture électrique chez les classes moyennes. C’est du moins l’intention d’Elon Musk. Avec ses 345 kilomètres d’autonomie, cette voiture électrique est vendue à partir de 35.000 dollars, avant primes et bonus écologiques. L’annonce des prix en euros est attendue d’ici la fin de l’année. Elon Musk a annoncé le début de la production via Twitter, en postant deux photos dévoilant le design final du véhicule le 9 juillet dernier. Un modèle sorti de l’usine Tesla à Fremont, en Californie.

Les trente premiers exemplaires devraient être livrés aux Etats-Unis le 28 juillet prochain. Puis, une centaine en août. Ensuite, le rythme de production va augmenter progressivement pour atteindre 20.000 exemplaires en décembre. Il faudra toujours faire plus : l’objectif de l’entreprise est de produire 500.000 véhicules (tous modèles confondus) par an à partir de 2018 et un million en 2020.  Le carnet de commande est d’ores et déjà plein : plus de 325.000 pré-commandes seraient déjà enregistrées. Si vous souhaitez acquérir la Tesla Model 3, vous devrez désormais attendre mi-2018. Mais vous pouvez d’ores et déjà la réserver pour 1.000 euros.

tesla-model-3

La Tesla Model 3 est une voiture de 5 places. Elle accélère de 0 à 100 km/h en moins de 6 secondes et est conçue pour atteindre un niveau de sécurité 5 étoiles. Elle est rechargeable sur borne ou en 30 minutes gratuitement via le réseau de superchargeurs développé par Tesla.

Par Matthieu Combe

Revue du web #104 : les vidéos scientifiques les plus étonnantes du mois

La future armure de combat des soldats russes

Vous aimez Star Wars ? La future armure de combat russe devrait beaucoup vous plaire ! Ce prototype, équipé d’un exosquelette qui améliore les performances, fait penser aux Stormstroopers, les soldats clonés du côté obscur de la Force… (On ignore encore si cette ressemblance était intentionnelle)

 

Le drone solaire de Facebook : second vol d’essai

Second vol d’essai réussi ! Pour le plus grand soulagement de l’entreprise américaine et de ses ingénieurs, le drone solaire est parvenu à décoller et atterrir sans encombres. Mieux : sa vitesse ascensionnelle aurait été plus importante que prévu.

 

Un cœur en silicone imprimé en 3D

Belle prouesse que ce cœur 100 % silicone imprimé en 3D par des chercheurs suisses ! Même s’il ne peut, pour le moment, battre que 30 minutes, il représente un véritable espoir pour les 26 millions de personnes qui souffrent d’insuffisance cardiaque à travers le monde.

 

Le drone le plus rapide du monde

Et le drone le plus rapide du monde est… RacerX, avec une vitesse moyenne de 263 km/h ! Capable de pointes à 290 km/h, ce drone quadricoptère télécommandé conçu par la Drone Racing League  embarque deux batteries lithium-polymère de 1.300 mAh chacune, quatre rotors qui assurent 46.000 tours/minute et un chassis imprimé en 3D. Le tout en 800 grammes.

 

Le logiciel qui fait dire ce qu’il veut à Barack Obama

A Barack Obama et n’importe qui d’autre !
Les amateurs de fake news vont s’en donner à cœur joie grâce à ce logiciel créé par des chercheurs américains. Cet outil de montage vidéo permet de superposer une bande audio sur une bande vidéo tout en modifiant les expressions et les mouvements des lèvres du protagoniste. Exemple avec ce discours de Barack Obama légèrement manipulé…

 

Un robot qui bouge sans… moteur ni système mécanique

Une équipe de chercheurs coréens a conçu un robot qui marche sur la terre comme sous l’eau alors qu’il n’a ni moteur ni système mécanique.

Son secret ? Sa fabrication : un matériau souple (le polydiméthylsiloxane), huit modules reliés entre eux par des aimants, un câble à mémoire de forme en alliage métallique qui traverse l’intégralité du cadre.

Les câbles chauffent en réaction à un champ électrique, ce qui a pour effet de déformer les modules. En variant l’intensité, les pattes avancent !

 

Un matériau découvert par erreur qui lutte contre les marées noires

Son inventeur, le chimiste allemand Günter Hufschmid, a reçu le Prix européen de l’inventeur 2017.

Découvert par erreur, l’ouate de polyéthylène, matériau encore  mystérieux, se révèle très efficace pour absorber  le pétrole et ainsi nettoyer l’eau.

Contrairement aux agglutinants en poudre, utilisés jusqu’à présent lors des marées noires, qui laissent des résidus chimiques peu compatibles avec la préservation de l’environnement, ce matériau est facilement récupérable et affiche un pouvoir d’absorption supérieur grâce à une réaction chimique étonnante.

 

Par I. T.

 

Lever de rideau sur les 14 start-ups finalistes du challenge « Industrie du futur »

Cette première édition vise à encourager les start-ups françaises à soumettre un projet disruptif et innovant pour accompagner la transformation digitale des usines de SKF en France. Pari réussi avec près de 80 candidatures soumises au total dans les 3 catégories piliers de l’industrie 4.0 ; les procédés & matériaux du futur, la cybersécurité & data science et l’usine connectée & son écosystème.

Les 14 start-ups et innovations retenues dans les 3 catégories distinctes pour la phase d’approfondissement du 17 juillet au 8 novembre :

Catégorie Procédés & Matériaux du futur

  • Enovasense a conçu une innovation technologique permettant la mesure de l’épaisseur des revêtements sur tous les matériaux.
  • OptimData optimise le temps de fonctionnement des lignes de production, en connectant les équipements industriels aux services numériques.
  • Scortex a mis au point une solution d’inspection visuelle automatisée pour le contrôle qualité basée sur l’auto-apprentissage.
  • Spin-off Leti offre une nouvelle technologie de détecteurs de rayons X pour les contrôles non-destructifs.

Catégorie Cybersécurité & data science

  • CYM offre des algorithmes de maintenance prédictive en contrôlant et en analysant le comportement des machines.
  • I-Guard a conçu un système d’intelligence artificielle au service de la protection des sites et de la sécurité informatique.
  • Tellmeplus a mis au point une plate-forme de « Predictive objects » pour automatiser la création de modèles prescriptifs en milieu industriels.
  • Skeyetech a développé un drone intelligent avec une station d’accueil connectée pour sécuriser les sites industriels.

Catégorie Industrie 4.0

  • Energiency a mis au point un logiciel d’analyse de la performance énergétique de l’usine.
  • HoloMake offre des systèmes de réalité augmentée ergonomiques et intégrés aux postes de travail dans l’usine.
  • Itris Automation Square industrialise une approche innovante de programmation d’automates.
  • Picomto propose une solution collaborative de gestion documentaire de fiches d’instruction de travail dynamique.
  • Expert Teleportation (Singularity Insight) intègre une solution de lunettes connectées adaptée aux opérateurs en milieu industriel.
  • Sysnav propose une solution de géolocalisation de précision pour les applications indoor, totalement autonome et indépendante.

En route pour la finale le 8 novembre 2017

Tous les finalistes verront leur projet accompagné par des « experts – métiers » SKF et Atos jusqu’à la finale. Durant toute cette phase d’approfondissement, les 14 start-ups finalistes pourront ainsi moduler leur projet et l’adapter au contexte industriel de SKF et digital d’Atos.

Lors de la finale, tous les candidats feront leur présentation devant les dirigeants de SKF en France, d’Atos et de Techniques de l’Ingénieur. A la clé, des prix seront décernés pour les start-ups gagnantes.

Une tour verte en forme de double hélice va dépolluer Taipei

Pour amener un peu de nature dans Taipei, Vincent Callebaut a imaginé l’Agora Garden (ou Tao Zhu Yin Yuan Tower), une tour de logements de 20 étages en forme de spirale directement inspirée de la double hélice d’ADN.

Cette structure particulière, où chaque étage est décalé de 4,5° par rapport au précédent, permet de créer une cascade de jardins à ciel ouvert ! Au total, 23 000 arbres seront plantés sur ses terrasses. Ils absorberont 130 tonnes de CO2par an.

Outre cette absorption de CO2, la tour Agora Garden sera autonome en énergie. Vincent Callebaut explique que cette tour se veut « un concept pionnier d’écoconstruction résidentielle durable qui vise à limiter l’empreinte écologique de ses habitants en recherchant une symbiose parfaite entre l’être humain et la nature ». C’est pourquoi il l’a dotée de potagers, d’un système de récupération des eaux de pluie et d’une grande pergola photovoltaïque sur le toit. Par ailleurs, l’immeuble a été pensé comme une forêt urbaine placée au milieu de la ville.

L’ Agora Garden Tower devrait être livrée et accueillir ses premiers habitants en septembre 2017.

Rédacteurs  : Morgane Schuhmann & Emmanuelle Platzgummer (Bureau Français de Taipei)

Source : Ministère des Affaires étrangères et du Développement international de Taïwan  / www.diplomatie.gouv.fr/une-tour-verte-en-forme-de-double-helice-va-depolluer-taipei

Vers une production de « carburant solaire »

Une photosynthèse « artificielle » pour recycler le CO2

Aujourd’hui considéré comme un déchet, le recyclage du CO2, utilisé en tant que matière première, est un défi majeur pour la recherche scientifique et un enjeu politique de premier plan. Marc Robert et Julien Bonin ont mis au point un procédé capable de le convertir en méthane, principal composant du gaz naturel qui est la troisième source d’énergie la plus utilisée au monde après le pétrole et le charbon.

Au cours de ce processus, la molécule de CO2 perd progressivement ses atomes d’oxygène qui sont remplacés par des atomes d’hydrogène, stockant au passage de l’énergie sous forme de liaisons chimiques. Cette transformation, dite « réaction de réduction », permet d’obtenir une variété de composés allant du monoxyde de carbone et de l’acide formique (des matières premières clés pour l’industrie chimique) au méthanol (un carburant liquide), jusqu’au méthane, forme la plus réduite ayant concentré le plus d’énergie.

Si la plupart des processus connus utilisent des catalyseurs basés sur des métaux rares et précieux, les deux chercheurs ont développé un catalyseur à base de fer, un métal abondant, accessible et peu coûteux sur Terre. Aucun autre catalyseur moléculaire n’avait permis à ce jour de réaliser la réduction complète du CO2 en CH4. Ce processus catalytique fonctionne à pression et température ambiantes, en utilisant la lumière solaire comme seule source d’énergie, et ouvre la voie à une utilisation circulaire du CO2.

Un nouveau pas vers une transition énergétique

En démontrant que la combinaison de la lumière solaire et d’un catalyseur à base de fer est capable de transformer le CO2 en une molécule à fort contenu énergétique, le Laboratoire d’électrochimie moléculaire montre qu’il est possible de stocker l’énergie solaire renouvelable en une forme de carburant compatible avec les infrastructures industrielles et les réseaux d’énergie existants.

BIBLIOGRAPHIE
Visible-light driven methane formation from CO2 with a molecular iron catalyst. Nature, le 17 juillet 2017 Heng Rao, Luciana C. Schmidt, Julien Bonin, Marc Robert

Source : cnrs

Des défaillances d’entreprises en net recul !

Le cabinet Altares a publié début juillet son observatoire des défaillances d’entreprises en France au 2e trimestre. Le pays engistre un « recul très sensible des défaillances d’entreprises dans la plupart des activités et des territoires, pour les PME comme pour les TPE », note Thierry Millon, Directeur des études Altares. Pour être exact, le nombre de jugements est passé de 14.026 au 2e trimestre 2016 à 12.925 en 2017. « L’amélioration s’accélère », juge l’étude d’Altares.

altares-carte-evolution-defaillances-france-t2-2017

Dans le détail, 8.724 entreprises (- 9,8 %) ont été placées en liquidation judiciaires. 3.913 sont en redressement judiciaire (- 2,9 %) et 288 (- 12,2 %) sont en sauvegarde. Pour la première fois depuis 2012, les redressements judiciaires représentent plus de 30 % des jugements prononcés permettant d’envisager une solution de rebond par continuation ou cession. Une bonne nouvelle donc.

Par ailleurs, le nombre d’emplois encore menacés au 2e trimestre 2017 s’élève à 40.500, contre 61.900 en 2013 et 47.000 en 2016. Soit une baisse de 13,8% en un an. « Il s’agit du meilleur chiffre sur la décennie », observe Altares.

Quels régions et secteurs sont concernés ?

Les régions observant les meilleures dynamiques de reprise sont l’Île-de-France, la Normandie, la Bretagne et le Grand Est. La baisse du nombre de défaillances demeure très faible en Pays-de-la-Loire (-0,5%). À l’opposé, celles-ci augmentent à la Réunion (+20,3%), en Martinique (+5%) et en PACA (+5,3%).

Certains secteurs profitent de la reprise économique. Les défaillances d’entreprises baissent fortement dans le secteur de la construction (-17%), les services aux entreprises (-10%) et la restauration (-9%). Mais le tableau n’est pas blanc pour tout le monde. Certains secteurs restent fortement menacés. Notamment, les services de transport (+21%), la santé humaine (+49%), les professionnels de l’enseignement de la conduite (+85%) et les éleveurs (+55%).

Plus l’entreprise est petite, plus elle est vulnérable

Globalement, les défaillances reculent à un rythme proportionnel à la taille de l’entreprise. Les plus touchées sont toujours les plus petites : 9.397 entreprises de moins de 3 salariés sont concernées. La baisse est de 6,7%. Pour les TPE de 3 à 9 salariés, la baisse est de 11% (2.735 entreprises). Elle atteint 13% pour les PME de 10 à 49 salariés (727 entreprises) et même 35% pour celles de 50 à 99 salariés (36 entreprises). Seules les plus grandes sociétés, de plus de 100 salariés voient leurs défaillances augmenter de 11%. Mais elles ne sont que 30 concernées, soit 3 de plus qu’au 2e trimestre 2016.

défaillances-entreprises
Sur 12 mois, le nombre de détaillances d’entreprises atteint en 2017 le niveau de 2008. SOURCE: Altares.

Par Matthieu Combe, journaliste scientifique

HQE : la performance des bâtiments tertiaires s’améliore !

Certivéa a analysé les opérations certifiées NF HQE (Haute Qualité Environnementale) réalisées en 2016 en France. Cette certification permet de distinguer des bâtiments tertiaires non résidentiels, en neuf ou en rénovation, dont les performances environnementales et énergétiques correspondent aux meilleures pratiques actuelles.

Bilan: le nombre total de certifications a atteint 416 au niveau national en 2016. Une hausse de 8% par rapport à 2015. En tête, l’Ile-de-France détient 56 % d’entre elles. Les maîtres d’ouvrages publics ne sont pas encore exemplaires : les maîtres d’ouvrages privés ont reçu quatre fois plus de certificats qu’eux. Les trois quarts des certificats récompensent des bâtiments neufs. Sont notamment concernés les bureaux, bâtiments d’enseignement et les plateformes logistiques.

Quelles sont les exigences du label NF HQE?

Les exigences portent sur la qualité environnementale du bâtiment, autour de 4 thèmes : l’énergie, l’environnement, le confort et la santé. Chaque thématique est notée de 0 à 4 étoiles. Au final, 4 niveaux globaux de certification sont prévus : bon, très bon, excellent et exceptionnel.

Certivéa note que les performances globales sont en hausse. Si 24% sont jugées exceptionnelles, 45% sont excellentes. 30% sont « très bonnes » et seulement 1% « bonnes ». Dans le détail, les bâtiments certifiés sont majoritairement 3 étoiles sur l’énergie (92%) et l’environnement (60%). Ils sont surtout 2 étoiles sur la santé (42%) et une étoile sur le confort (35%). Au total, les 4 étoiles sont obtenues par 3% des bâtiments sur l’énergie, 18% sur l’environnement, 2% sur la santé et 4% sur le confort.

Première préoccupation : l’énergie !

L’énergie demeure la première préoccupation du secteur de l’immobilier vert. « L’énergie est la préoccupation historique des bâtiments verts depuis le premier choc pétrolier, stimulée par les règlementations thermiques successives. Les évolutions récentes poussent à associer Bâtiment à Energie positive et bas Carbonne dans une analyse du cycle de vie complet du bâtiment : construction, exploitation et fin de vie », rappelle Patrick Nossent, Président de Certivéa.

Toutefois, les acteurs se préoccupent de plus en plus du faible impact environnemental de leurs chantiers et d’une relation harmonieuse de leur bâtiment avec son environnement. Ils planifient la maintenance, pour une gestion efficace du bâtiment, et la pérennité des performances environnementales dans le temps.

Le confort et la santé, préoccupations montantes

Le confort des bâtiments pour une bonne qualité de vie des occupants n’est encadré par aucune réglementation. Mais les acteurs s’alignent sur cette attente. « En 2016, les progressions les plus fortes concernent le confort olfactif et hygrothermique [excès d’humidité] », note Certivéa. Pour ce faire, ils travaillent notamment sur l’amélioration du contrôle des systèmes de ventilation.

La santé n’est pas en reste, notamment concernant la pollution de l’air intérieur. « On constate un intérêt de plus en plus fort sur les notions de conditions sanitaires dans les locaux de travail, sous l’impulsion globale de la société civile mais aussi plus particulièrement des instances représentatives du personnel dans les entreprises », observe Patrick Nossent.

Par Matthieu Combe, journaliste scientifique

Réforme du CICE : quels impacts ?

Le CICE permettait à une entreprise de déduire de son impôt sur les bénéfices des sociétés (IS) une somme égale à 7 % des salaires bruts jusqu’à 2,5 fois le Smic .Le Premier ministre Edouard Philippe a annoncé sa transformation en baisse de charges  pour le 1er janvier 2019. La baisse serait de 6%, allant jusqu’à 10% au niveau du salaire minimum et serait dégressive jusqu’à 1,6 Smic. Bonne nouvelle : pour les économistes de l’OFCE, cette mesure permettrait de créer 16.000 emplois d’ici 2020 et 40.000 en 5 ans. Seront principalement concernées les embauches de salariés peu qualifiés.

Mais « l’effet total sur la croissance de l’activité économique serait nul », estime l’OFCE. Cette transformation  pourrait même creuser le déficit publique de la France, « de l’ordre de 1 point de PIB de déficit additionnel » l’année de la transformation. Si celle-ci se fait en 2019, il faudra en effet supporter à la fois la baisse de cotisations pour 2019 et le remboursement du CICE pour 2018. L’une des priorités du Gouvernement étant de parvenir à sortir de la procédure de déficit excessif  au sein de l’Union européenne, les déficits publics doivent passer sous la barre des 3% du PIB. Ce qu’il faudra atteindre en 2017 et 2018 pour espérer ne pas trop creuser le déficit en 2019 avec cette réforme.

Une question de retour d’impôt sur les sociétés

Avec des cotisations sociales plus faibles, les entreprises verront mécaniquement leur résultat augmenter. Et avec lui, l’impôt sur les sociétés qu’elles doivent payer. Si l’IS supplémentaire entraîné par la mesure est neutralisé par une baisse équivalente du taux d’IS, le gain pour l’entreprise s’élèverait à près  de 600 euros par an pour un salarié payé au Smic, calcule l’OFCE. Le coût du travail diminuerait donc bien pour les salariés rémunérés entre 1 et 1,4 Smic. Néanmoins pour un salarié payé 2,5 Smic, la hausse du coût du travail s’élèverait autour de 400 euros par an pour l’entreprise.

« En revanche, si la mesure n’est pas accompagnée par une baisse du taux de l’IS, la mesure se traduirait par une hausse des prélèvements sur les entreprises », observe l’OFCE. L’effet serait alors légèrement négatif sur le PIB. L’organisme évalue dans ce cas les créations d’emplois à  seulement 35.000 en 5 ans.

Qui serait avantagé ?

Les branches qui ont une plus forte concentration de salaires compris entre 1 et 1,4 Smic verraient ainsi le coût du travail allégé. Les branches bénéficiaires de la mesure seraient l’agriculture, l’hébergement-restauration, la construction, les activités de services administratifs et de soutien et la branche commerce-réparation. Les autres branches, dont l’industrie, verraient leur coût du travail augmenter.

Le CICE a été instauré par la loi du 29 décembre 2012.  Selon France Stratégie, il représente 22,7 milliards d’euros de créance effective prévue au titre des salaires versés en 2017, soit environ 1 point de PIB.

Par Matthieu Combe, journaliste scientifique

Biologie moléculaire : à la recherche des ARN circulaires ?

Leurs travaux contribueront à mieux définir le rôle jusqu’ici mal connu des ARN circulaires. Une équipe du Laboratoire d’optique et biosciences vient de publier ses résultats dans la revue RNA biology. « La majorité des molécules d’ARN sont présentes sous forme de brins linéaires. Mais, dans les années 1990, un nouveau type de molécule d’ARN a été découvert : l’ARN circulaire qui doit son nom à sa forme originale en cercle, c’est-à-dire une structure fermée dépourvue d’extrémités libres contrairement à l’ARN linéaire», indique Hubert Becker, enseignant-chercheur au pôle biologie du Laboratoire d’optique et biosciences ainsi qu’à l’UPMC Sorbonne Universités. Depuis la découverte récente et en abondance de ces molécules dans l’organisme humain, la production et le rôle de ces ARN restent toutefois aujourd’hui énigmatiques. « Pourtant, ces molécules possèdent bien une fonction puisque les ARN circulaires ont été conservés au cours de l’évolution dans les trois domaines du vivant que sont les bactéries, les archées et les eucaryotes », précise Hubert Becker.

Pour comprendre leur rôle, l’équipe du Laboratoire d’optique et biosciences s’est fixé pour objectif d’identifier l’ensemble des ARN circulaires au sein d’une cellule. Pour cela, les chercheurs ont basé leur étude sur une archée appelée Pyrococcus abyssi, un organisme hyperthermophile isolé aux abords des cheminées hydrothermales des fonds 2/3 marins. Ils ont ainsi effectué le séquençage à haut débit de tous les ARN circulaires de l’archée grâce à un équipement spécifique nommé Personal Genome Machine (PGM) acquis récemment par l’École polytechnique. « L’appareil a fourni 400 000 séquences que nous avons ensuite comparées avec le génome de l’archée, précise Hubert Becker. Puis, grâce à une collaboration avec des chercheurs du Laboratoire d’informatique de l’École polytechnique (commun avec le CNRS) et à un logiciel développé par leurs soins, nous avons été capables de trier les molécules et de ne conserver que les formes circulaires ».

Résultat : les scientifiques ont identifié 133 ARN circulaires, ce qui correspond à 2 % du génome de la cellule. A partir de ces données, les chercheurs ont réussi à distinguer l’enzyme impliquée dans l’ensemble des ARN circulaires de l’archée, et donc responsable de cette forme circulaire. Depuis la publication de ces travaux, l’équipe entend poursuivre ses recherches pour comprendre les détails du mécanisme de formation de l’ARN circulaire, le lien entre sa forme et sa fonction, ou encore pour saisir le rôle d’ARN circulaires jusque-là inconnus, identifiés grâce au séquençage.

Des avancées pour la recherche fondamentale

Dès à présent, ces travaux promettent des applications en biotechnologie et en recherche fondamentale. « L’enzyme que nous avons identifiée pourrait être utilisée en tant que nouvel outil de génie génétique lors de la préparation et de la fonctionnalisation de variants de molécules ARN et ADN, et ainsi compléter le panel d’outils disponibles pour la préparation d’échantillons pour la recherche en biologie moléculaire », explique Hubert Becker. Par ailleurs, « Cette enzyme pourrait être utilisée dans la préparation de nano-objets ARN, qui, une fois circularisés, présenteraient une plus grande stabilité dans le temps », ajoute le chercheur.

L’équipe du Laboratoire d’optique et biosciences a déjà d’autres projets. Après avoir pris pour modèle une archée, Hubert Becker et le directeur de recherche au CNRS Hannu Myllykallio envisagent d’étendre leurs investigations à d’autres organismes tels que les bactéries, et même, dans un second temps, à des cellules eucaryotes. « A long terme, cela permettrait d’aboutir à une sorte d’inventaire des ARN circulaires présents dans tous les organismes, y compris chez l’humain, s’enthousiasme le chercheur. Par répercussion, cet état des lieux sur la diversité et la fonction des ARN circulaires pourrait être intéressant pour de futures recherches chez l’homme, d’autant plus que l’ARN circulaire a été identifié comme circulant dans le système sanguin, avec des applications potentielles comme biomarqueur pour le diagnostic de certains cancers ».

Référence : HF. Becker, A. Heliou, K. Djaout, R. Lestini, M. Regnier, H. Myllykallio, HighThroughput Sequencing Reveals Circular Substrates for an Archaeal RNA ligase, RNA Biology, 2017, 1-11.

Source : cnrs

Des dinosaures parents-poules

Les stratégies de reproduction des dinosaures, et notamment le mode d’incubation de leurs œufs, soulèvent encore de nombreuses questions scientifiques. Jusqu’alors, les interprétations se basaient sur des indices indirects tels que la morphologie de coquilles d’œufs fossilisés ou l’organisation des nids. Des chercheurs lyonnais, en collaboration avec une équipe chinoise, ont mis au point une méthode basée sur l’analyse géochimique d’œufs fossilisés et ont déterminé pour la première fois que la température d’incubation des œufs d’oviraptorosaures était comprise entre 35 et 40°C.

Les oviraptorosaures étaient des dinosaures bipèdes couverts de plumes et munis d’un bec leur donnant l’apparence de certains oiseaux. Appartenant au groupe des théropodes, ils pesaient quelques dizaines de kilos et pouvaient atteindre deux mètres de long. Afin de déterminer la température à laquelle ces dinosaures incubaient leurs œufs, les chercheurs ont analysé sept œufs fossilisés provenant du sud de la Chine. Ces derniers, vieux de 70 millions d’années, contenaient encore des embryons. Leurs coquilles ainsi que leurs os ont été analysés afin d’obtenir leur composition isotopique en oxygène. En effet, lors de la formation du squelette, l’oxygène des fluides de l’œuf va être transmis aux os avec une abondance isotopique qui dépend de la température de l’œuf. En prenant en compte ces mesures, les chercheurs ont pu modéliser, avec l’aide d’un collègue physiologiste, les différentes étapes de développement intégrant les compositions isotopiques de l’oxygène. Ils ont ainsi pu retrouver la température à laquelle l’œuf s’était formé : entre 35 et 40°C. À titre de comparaison, la température d’incubation d’un œuf de crocodile, animal enterrant ses œufs, est d’environ 30°C, alors que celle d’un œuf de poule est de 37,5°C. Selon les chercheurs, la température d’incubation déterminée pour les œufs d’oviraptorosaures est donc cohérente avec le mode de couvaison supposé de ces dinosaures.

© Romain Amiot Ponte d'oviraptorosaure du Crétacé supérieur du Jiangxi (Chine). Échelle 1cm.
© Romain Amiot
Ponte d’oviraptorosaure du Crétacé supérieur du Jiangxi (Chine). Échelle 1cm.
© Romain Amiot Œuf d'oviraptorosaure préparé montrant le squelette de l'embryon préservé. Échelle 1cm.
© Romain Amiot
Œuf d’oviraptorosaure préparé montrant le squelette de l’embryon préservé. Échelle 1cm.

Ce résultat confirme la découverte, dans les années 90, d’oviraptorosaures fossilisés étendus sur leur ponte qui suggérait qu’ils couvaient leurs œufs. Ce travail ouvre également de nouvelles perspectives en paléontologie : la méthode proposée permettra de connaître quelles étaient les stratégies d’incubation adoptées par les autres dinosaures. Certains, pesant plusieurs dizaines de tonnes, ne pouvaient vraisemblablement pas s’allonger sur leurs œufs pour les couver, mais utilisaient peut-être des sources de chaleur externes en recouvrant par exemple leur ponte d’un monticule de végétaux procurant de la chaleur par décomposition. La température d’incubation qui sera estimée reflétera la stratégie employée, sous réserve d’avoir accès à ces fossiles aussi rares que précieux.

Au sein d’une collaboration franco-chinoise, ces travaux impliquent le Laboratoire de géologie de Lyon : Terre, planètes et environnement (CNRS/ENS de Lyon/Université Claude Bernard Lyon 1), le Laboratoire de biologie et de biométrie évolutive (CNRS/Université Claude Bernard Lyon 1/VetAgroSup) ainsi que le Laboratoire d’écologie des hydrosystèmes naturels anthropisés (CNRS/Université Claude Bernard Lyon 1/ENTPE).

Références :
δ18O-derived incubation temperatures of oviraptorosaur eggs, Romain Amiot, Xu Wang, Shuo Wang, Christophe Lecuyer, Jean-Michel Mazin, Jinyou Mo, Jean-Pierre Flandrois, François Fourel, Xiaolin Wang, Zhijun Zhang, Zhonghe Zhou, Palaeontology, 28 juin 2017. Consulter le site web

Source : cnrs

Londres donne un coup de pouce à l’innovation 
des véhicules électriques

Qu’est-ce que le vehicle-to-grid ?

Le vehicle-to-grid (V2G) est un concept qui fait de la voiture électrique non plus un simple point de consommation d’électricité, mais un outil de flexibilité au service du réseau. La multiplication probable des véhicules électriques (VE) pose un problème technique : comment le réseau va-t-il absorber toute cette demande supplémentaire en volumes, mais aussi en puissance. Pour éviter que le branchement massif de centaines de milliers de VE sur une période courte (typiquement vers 19h, heure de rentrée des bureaux), les acteurs du secteur énergétique planchent sur des modèles d’intégration positive. Les bornes de recharges intelligentes, c’est-à-dire capable de communiquer des informations et de recevoir des instructions de charge et décharge, permettraient aux VE de jouer un rôle central, comme autant de points diffus de stockage d’énergie, pour créer une chaîne robuste et flexible.

3 types de projets éligibles

L’enveloppe de 20 millions de livres sterling concerne trois types de projets de V2G : les études de faisabilité, la recherche industrielle bénéficiant aux équipements de charge bidirectionnelle et évidemment les démonstrateurs en environnement réel. L’ouverture du concours est prévue dans les prochaines semaines, les lauréats étant désignés en décembre prochain.

Le gouvernement britannique a fait de l’innovation l’un des piliers de sa stratégie économique. Albion annonce doubler le soutien financier qu’il accordera à l’innovation et estime avoir déjà investi quelque 600 M£ pour accélérer la transition énergétique.

En France, un consortium composé notamment de Direct Energie et PSA travaillent également sur ces questions à travers le projet GridMotion, dont Techniques de l’Ingénieur s’était fait l’écho.

Romain Chicheportiche

Episode #1: La Maternité

Huit minutes depuis les dernières contractions, huit minutes et quinze secondes entre les deux précédentes. Et ainsi de suite depuis trente minutes. D’après l’application Sherlock (Family Édition) de ma minitab, le travail a commencé et l’accouchement est pour bientôt : il est grand temps que j’aille à la maternité.

Malgré l’excitation (et un brin d’appréhension), mon cerveau reptilien a pris les choses en main, soutenu par les hormones émises par le diffuseur que je porte à l’épaule, relié à une aiguille qui s’insère sous mon aisselle droite. Je pianote donc fébrilement sur ma minitab pour commander un taxi : le système me répond en m’invitant à patienter quelques instants – j’en profite pour indiquer l’adresse de la maternité. Je saisis les deux livres papier que j’avais mis de côté pour l’occasion : un roman policier islandais du début du siècle, avec une élégante couverture noir mat, à l’exception du titre, en lettres bleues brillantes, et un ouvrage de sociologie assez austère. Je lance également le recycleur, afin que les eaux usagées de mon bain et du lave-vaisselle soient propres à mon retour, d’autant plus que je n’aurai sans doute pas la tête à ça puisqu’un un petit être sera là et que je n’aurai plus le loisir de tout faire à la dernière minute.

Ces rapides préparatifs accomplis, je mets mes écouteurs et me dirige vers la porte d’entrée qui s’ouvre automatiquement. Ma minitab, qui a détecté les écouteurs maintenant en place, commence à diffuser une musique adaptée à mon humeur du moment. Sa première sélection, Poème Symphonique pour 100 métronomes de Ligeti me conduit à m’interroger sur la pertinence de sa configuration. Ma valise, appariée à ma minitab, a compris que le signal du départ est donné et se met en route docilement, me suivant à 50 cm, calant sa vitesse sur mon pas déjà fatigué. À peine en bas, j’aperçois le taxi qui s’arrête à ma hauteur. La porte s’ouvre, là encore automatiquement, et je m’installe maladroitement. Malgré la petite taille du véhicule, l’intérieur est spacieux et ma valise autonome se hisse sans problème dans l’habitacle – je note ironiquement qu’elle est plus agile que moi. Elle semble lire dans mes pensées et émet un petit bip narquois. L’écran du taxi indique déjà mon nom, ‘’CAMILLE PAVILLE’’, en grosses lettres vertes, ainsi que la destination que j’ai entrée auparavant : je vérifie systématiquement, même si, depuis que les taxis sans chauffeur ont été rendus obligatoires il y a bientôt 15 ans, je n’ai jamais vu d’erreur de destination. Mais on ne sait jamais, ça ne serait vraiment pas le bon moment…

Je profite du trajet pour reprendre les exercices : je souffle lentement, comme j’ai pu l’apprendre lors des cours de préparation. L’application Sherlock m’aide par ailleurs à cadencer mes inspirations : je dois reconnaître que le programme est agaçant mais efficace. Pendant ce temps, le taxi a terminé l’import de mes préférences et met en place les réglages associés : le plafond s’illumine, diffusant en temps réel une réplique du ciel de Séville. Le début de soirée dans la capitale Andalouse offre une lumière très agréable, plus intense et plus chaude que celle de Paris – le contraste est par ailleurs accentué par le fait que le taxi décide d’emprunter une petite ruelle, sans doute afin d’éviter un embouteillage… La climatisation, qui se met également en route, est la bienvenue en ce mois d’avril où il fait déjà près de vingt-neuf degrés Celsius en journée.

Après un trajet d’une trentaine de minutes, j’arrive devant l’entrée de la maternité. L’édifice est neuf, mais il a l’air plus sinistre que lors de mes visites précédentes, la luminosité ou le stress sans doute… Je descends gauchement du véhicule, toujours suivi de ma valise, et pénètre dans le bâtiment. Je me retrouve en terrain connu : la lumière, très blanche, et le mobilier, neuf et fonctionnel, paradoxalement, me rassurent. Une fois à l’accueil, je présente mon bracelet ID au lecteur de la réception. Après un coup d’œil rapide sur mon appareil de suivi de grossesse, l’infirmière, une jeune femme dotée d’un chignon disproportionné, m’invite à patienter dans la salle d’attente.

– Un partenaire se joindra ?

Bien que la science ait depuis un certain temps permis de se passer de partenaire, je ressens tout de même l’espace d’un instant le besoin de me justifier, avant de me reprendre et de me contenter d’un non laconique. Une sage-femme me prend en charge, me conduit en salle d’accouchement et me demande de patienter un moment.

Je m’installe et note que les contractions se sont arrêtées, temporairement sans doute. Je profite de ce moment de répit pour jeter un œil au livre de sociologie que j’ai emmené, Impact de la disparition du salariat dans l’industrie papetière française (2032-2046). Caressant la couverture du bout des doigts, je songe que j’ai pris cet ouvrage pour une raison assez narcissique au final, puisqu’il cite en effet en bonne place plusieurs de mes travaux, à commencer par mon premier livre, dérivé de ma thèse : Le salariat, une idée morte avant d’être vieille (je n’aimais pas le titre mais l’éditeur trouvait que mon titre de thèse original, Bifurcations du statut de travailleur : la socio-histoire de l’industrie française à travers une étude de rapports sociaux spatialisés dans l’Allier, n’était pas très vendeur).

À peine ai-je débuté la lecture de la préface que les contractions reviennent, annonçant que le bébé semble pressé de sortir. J’appelle la sage-femme qui ne tarde pas à venir et me pose un appareil de contrôle sur le ventre, une sorte de gros mollusque caoutchouteux. Ce dernier affiche une série de courbes, se fend d’un bip sibyllin et affiche 3 lumières vertes, ce qui me semble plutôt bon signe. La sage-femme, une dame d’âge mûr, trapue, mais aux traits doux, est visiblement du même avis :

– On va pouvoir commencer ! indique-t-elle un sourire vaguement rassurant aux lèvres.

J’avoue ne pas ressentir la même sérénité. Le mollusque caoutchouteux doit s’en rendre compte : la jolie courbe verte représentant mon pouls vient de grimper sérieusement et vire au rose.

Je suis en nage, la courbe rose a carrément viré au rouge durant l’accouchement, mais le bébé est maintenant là. La sage-femme le dépose sur mon ventre semi-artificiel :
– Alors Monsieur, heureux ?

Marc Pégeot

Le bioGNV constitue une part infime du GNV (Gaz Naturel Véhicule)

« Dans sa version bioGNV, le gaz naturel véhicule produit 80% de CO2 en moins que le diesel » affirme le service communication de GRDF Nord-Ouest dans un tweet du 15 juin 2017. « Total vient d’annoncer le déploiement de 110 bornes de recharges au gaz naturel en périphérie des grandes villes » souligne le journaliste Jean-François George (Les Echos, 22 juin 2017), « Un grand bond en avant pour la protection de l’air avec les véhicules propres au GNV avec des aides de 6000 à 9000 € en île de France ! » a renchéri Farrugia Christian, directeur GRDF Clients IDF dans un tweet du 8 juillet 2017.

Contacté par Techniques-ingénieur.fr l’ingénieur François Dedieu, chargé de mission Gaz Naturel Véhicule au sein de GRDF, a expliqué qu’en 2016 le bioGNV a pesé 6% dans le GNV total et a rappelé que l’objectif de l’ADEME est de 10% à horizon 2030. Autrement dit, le bioGNV restera marginal.

Les véhicules au GNV fossile permettent de réduire de 16% (bien moins que les 80% mis en avant par GRDF) les émissions de CO2 comparativement aux véhicules diesel, selon François Dedieu. Néanmoins les estimations concernant les fuites de méthane, un puissant gaz à effet de serre, varient d’une étude à l’autre et peuvent plomber le bilan. Selon Bill Hare de Climate Analytics, un institut spécialisé, « les émissions fugitives lors de l’extraction et du transport de gaz montrent que ce n’est pas une énergie aussi ‘propre’ que prévu », rapporte le média Novethic dans un article intitulé « Utiliser le gaz comme énergie de transition est incompatible avec un scénario  2°C ».

Sur le plan de la qualité de l’air le bilan des véhicules électriques à batterie (zéro émission) est meilleur que celui des véhicules au gaz d’origine fossile ou biologique. Ces derniers, via les émissions de NOx, contribuent à la pollution à l’ozone.

Le bioGNV est au GNV fossile ce que les biocarburants étaient aux carburants fossiles : un outil de communication verte particulièrement apprécié par l’industrie Oil & Gas. Il y a une décennie les écolos étaient enthousiastes à propos des biocarburants.  Aujourd’hui, rebelotte avec l’agro-gaz, le miroir aux alouettes fonctionne. Et au final c’est l’argent du contribuable qui remplit les poches des pétroliers. Avec la bénédiction de certains élus.

La guerre en Syrie et Irak est en bonne partie liée au projet de gazoduc entre l’Europe et l’énorme gisement gazier de north dome (Qatar) / South Pars (Iran) dans le Golfe Persique. La guerre en Ukraine a également une origine gazière. Il n’est donc pas certain que le gaz mérite vraiment d’être lourdement primé.

Le dogme selon lequel les véhicules à batterie ne pourraient réaliser que de courtes distances et donc être limités à un usage intra-urbain est aujourd’hui devenu désuet. Mais ces véhicules sont mal perçus par une partie des écologistes anti-nucléaires en France. D’où une dangereuse cécité face à la stratégie gazocratique. Ces véhicules sont en outre bien entendu redoutés par l’industrie Oil & Gas car ils ne consomment pas une seule goutte de carburant qu’elle produit.

« Et l’appel en puissance sur le réseau, par exemple dans les zones à dimensionner pour une variation de 1 à 10 de la population selon les saisons ? » interroge Yves Marignac du réseau négaWatt. Les trajets supérieurs à 300 kilomètres représentent une part infirme des trajets quotidiens. Et les automobilistes français ne partent pas tous le même jour en vacances durant ‘été. Pour Marion Perrin, directrice de recherches au sein du CEA et spécialiste en stockage et systèmes électriques, ajouter des batteries stationnaires là où c’est nécessaire sur le réseau électrique suffira pour répondre à la demande des stations de charge rapide des véhicules.

Les conséquences environnementales des mines de lithium ? Aucune technologie n’a aucun impact. Il convient de savoir hiérarchiser les enjeux. Le lithium, ce n’est pas du pétrole : il est 100% recyclable. Dans le cadre d’une analyse multicritères la gazo-mobilité a un impact bien plus lourd que la batterie-mobilité. Et ceci même si la somme du bioGNV et de l’électro-GNV solaro-éolien (obtenu en acceptant de lourdes pertes) parvenait dans le futur à peser 50% du GNV total.

Le bioGNV est l’arbre qui cache la forêt des dangereux carburants fossiles.

Olivier Daniélo

Quand une pollution radioélectrique nous protège

Un article paru sur Space Science Review revient sur l’influence de l’homme sur l’espace qui entoure la Terre. Parmi ces influences, les transmissions radio à très basse fréquence, VLF (pour very low frequency). Ces ondes dont la bande de radiofréquences est comprise entre 3 et 30 kHz (équivalent à une longueur d’onde entre 100 et 10 km) sont utilisées principalement pour les communications longues distances des sous-marins proches de la surface. Mais elles se diffusent aussi hors de l’atmosphère et peuvent interagir avec les particules de hautes énergies présentes dans l’espace. Leur présence crée une bulle autour de la Terre qui est observable depuis l’espace et qui contribue à protéger la Terre des radiations (voir vidéo de la Nasa). Les sondes Van Allen de la Nasa qui étudient depuis 2012 les particules, ions et électrons dans le proche espace qui entoure la Terre ont ainsi pu repérer cette bulle et elles ont permis de relever que la limite de cette bulle correspond à peu près à la limite de la ceinture intérieure des ceintures de radiations de Van Allen (deux zones de forme toroïdale de la magnétosphère qui présente une densité de particules énergétiques très forte). Pour Dan Baker, directeur du Laboratory for Atmospheric and Space Physics à Boulder (Université du Colorado), il est possible que la frontière de la ceinture intérieure serait plus proche de la Terre sans cette bulle VLF. Cette hypothèse s’appuie sur le fait qu’entre 1960 et maintenant cette limite s’est éloignée de la surface de la planète, en parallèle du développement des communications VLF.

Des projets sont déjà à l’étude pour tester si des ondes VLF pourraient supprimer des excès de radiation comme ceux qui se produisent lors des éruptions solaires et ainsi mieux protéger les satellites, engins spatiaux et astronautes dans le futur.

Des ceintures de radiations artificielles

Mais en matière de météorologie de l’espace*, on sait maintenant que l’homme n’est pas qu’un simple observateur. Grâce à des données provenant de documents déclassifiés sur les essais nucléaires spatiaux américains et russes des années 1958 à 1962, les auteurs de l’article ont pu largement revenir sur les effets de ces explosions sur la météo de l’espace.

Ainsi, sur les nombreuses bombes expérimentales déclenchées entre 25 et 400 km au-dessus de nos têtes, les scientifiques ont pu observer que la boule de plasma expulsée pouvait créer des perturbations géomagnétiques qui affectent la bordure du bouclier magnétique terrestre, induisant notamment un champ électrique à sa surface. Certaines de ces explosions ont même engendré des ceintures de radiations artificielles piégeant des particules chargées pendant des semaines voire, dans le cas de Starfish Prime, le lancement du 9 juillet 1962, pendant des années. A noter, que Starfish était une bombe de 1,4 mégatonne qui a détruit et endommagé plusieurs satellites et créé une panne de courant à Hawaï. Certaines explosions ont pu être détectées sur Terre en provoquant des aurores boréales artificielles de quelques secondes dans des régions inhabituelles commes les îles polynésiennes ou en déclenchant des tempêtes géomagnétiques s’étalant de la Suède à l’Arizona (voir vidéo de la Nasa).

Et les auteurs de conclure que ce genre de tests seraient aujourd’hui impensables, pas seulement parce que les technologies disponibles pour la recherche sont bien plus sophistiquées mais aussi parce qu’ils pourraient détruire ou endommager fortement de nombreuses infrastructures modernes.

*La météorologie de l’espace est une nouvelle discipline qui se développe surtout depuis les années 1990 avec la création du Space Environment Center à Boulder aux Etats-Unis et qui commence tout juste à se structurer au niveau international à l’image de la météorologie terrestre. Elle consiste à caractériser et prévoir le milieu spatial d’un point de vue de son état physique et phénoménologique. Outre l’aspect scientifique, elle a pour but de créer des prévisions permettant de réduire les risques pour les satellites, les lanceurs, les avions de ligne, les astronautes ou les réseaux électriques qui sont particulièrement sensibles aux tempêtes spatiales.

Par Sophie Hoguin

Innovation : phosphorescence réversible d’un capteur moléculaire

Des chimistes de l’institut des sciences et technologies de l’université d’Okinawa (OIST) ont publié un article dans Advanced Materials détaillant le fonctionnement d’un complexe moléculaire phosphorescent qui, incorporé dans un matériau soumis à un stress mécanique, change d’intensité lumineuse tout en étant capable ensuite de revenir à son état initial. En soi, de telles molécules permettant la création de matériaux chimio-mécano répondants sont déjà connues mais elles sont pour l’instant utilisées uniquement dans des applications à usage unique. Car dans les molécules utilisées jusqu’ici la photoluminescence est activée quand une force de compression, de torsion, d’étirement conduit à la cassure d’une liaison chimique ou à la séparation irréversible de deux molécules à la base de la structure du matériau. Le processus étant alors complètement ou difficilement réversible.

G. Filonenko and J. Khusnutdinova / OIST Incorporation d’un complexe chimio-mécano répondant (mechanophore) dans un polymère de polyuréthane En haut : le mechanophore est inséré dans des unités courtes et resserrées du polyuréthane En bas: quand une force mécanique, ici un étirement symbolisé par F, est appliqué sur le polymère et qu’on l’expose à une source d’excitation lumineuse (ici une lumière UV), le mechanophore augmente l’intensité de la lumière émise (ici montré comme une force).

Plus tu tires, plus ça brille !

Georgy Filonenko et Julia Khusnutdinova ont donc incorporé un complexe cuivré possédant des propriétés phosphorescentes dynamiques dans la chaîne principale de plusieurs polyuréthanes. Ils ont ensuite imposé des forces d’étirement à ces polyuréthanes en les éclairant d’une lumière ultraviolette. La réaction, qui se déclenche une une centaine de millisecondes, a fait apparaître jusqu’à un doublement de l’intensité lumineuse émise lors d’un étirement de l’ordre de 5-35MPa. Et quand l’étirement s’arrête, le polymère et le complexe phosphorescent reviennent à leur état initial, tout autant que l’intensité de la phosphorescence. L’expérience peut être renouvelée plusieurs fois.

Comment ça marche ?

La différence, comparée aux autres systèmes de ce type sensibles à des déformations, c’est que la force mécanique appliquée ne casse pas de liaisons chimiques et n’altère pas la structure phosphorescente. En réalité, au niveau moléculaire, quand l’étirement se produit, les forces dynamiques qui empêchaient ou limitaient la phosphorescence disparaissent et le rayonnement lumineux n’est plus bloqué par la structure moléculaire du matériau accueillant le complexe phosphorescent. Les chercheurs soulignent que ce capteur dynamique peut s’avérer utile pour cartographier la répartition du stress ou suivre des phénomènes dynamiques dans des polyuréthanes en utilisant des techniques d’imagerie optique simples.

Par Sophie Hoguin

Bio ou pas bio cette pomme ? Inspecto vous propose de le vérifier vous-même !

D’abord révélé en 2016 par l’incubateur israélo-américain MassChallenge, la jeune start-up israélienne Inspecto vient de recevoir de la Commission Economique pour l’Europe des Nations Unies (CEE-NU) l’un des trois prix Idea4Change qui récompense chaque année les entrepreneurs ayant mis au point des solutions innovantes participant à l’établissement d’une économie durable. Les deux co-fondateurs d’Inspecto, Avner Avidan et Yair Moneta, ont en effet mis au point un système portatif permettant d’évaluer la présence de pesticides résiduels sur les denrées alimentaires tels que les fruits et les légumes.

inspecto_cle8d825e
Prototype Inspecto

Facile d’utilisation, Inspecto se veut accessible à tous. Le but : permettre aux agriculteurs, agences gouvernementales, industriels de l’agroalimentaire, grande distribution mais aussi consommateurs de vérifier le taux de pesticides, ou de leurs résidus, sur un produit alimentaire, notamment les fruits et légumes, en scannant simplement la surface du produit. Le scan est alors analysé et le résultat peut être affiché sur l’application smartphone que propose la start-up.

Le concept a séduit le jury d’Idea4Change car cela permettra de faciliter la traçabilité des pesticides mais aussi des produits bio dont l’origine est parfois incertaine. Enfin, cela donnera une « arme » aux consommateurs pour mettre la pression sur les différents acteurs du monde alimentaire afin de réduire leur utilisation de pesticides mais aussi en éliminer toute trace de leur produit.

La petite révolution annoncée par Inspecto vient surtout de la concurrence actuelle : jusqu’à récemment, ce genre d’analyse était confiné à des laboratoires équipés de machines coûteuses et complexes et dont l’analyse prenait plusieurs heures voire plusieurs jours. La facilité et la rapidité d’utilisation d’Inspecto, auxquelles s’ajoute la possibilité de l’utiliser sur le terrain, devraient rapidement convaincre industriels comme consommateurs. Reste la fiabilité de l’analyse. Il est probable que les méthodes traditionnelles restent plus complètes et Inspecto deviendrait donc un outil de « pré-analyse » permettant de trier les produits avant d’être envoyés à une analyse plus poussée en laboratoire. Néanmoins, Inspecto annonce pouvoir estimer en quelques secondes la concentration de produits chimiques résiduels à l’échelle du ppm (parti par million, c’est à dire de l’ordre du mg/kg). Cela est possible en utilisant une technologie basée sur les dernières avancées en spectroscopie (spectroscopie Raman exaltée par effet de surface) permettant d’identifier et de quantifier une molécule via son « empreinte » sur le spectre optique issu du scan du produit. En clair, lorsque l’on scanne un matériau avec une lumière donnée, celle-ci va être absorbée à sa surface et va renvoyer une partie de ce rayonnement vers l’extérieur : on parle de diffusion, phénomène qui dépend directement de la composition chimique de sa surface. La lumière ainsi diffusée par l’objet est captée par un détecteur et se présente sous forme de spectre optique (on parle de spectre Raman dans notre cas, voir Figure 2) avec pour ordonnée l’intensité du rayonnement (lié à la concentration d’une molécule) et pour abscisse la longueur d’onde du rayonnement (liée à la nature de la molécule).

En comparant le spectre à une base de données, il est possible de déterminer quelles sont les molécules dont l’empreinte est présente dans le spectre d’émission du produit scanné, puis de déterminer leur concentration au ppm près.

L’opération dépend bien sûr de l’établissement d’une banque de données et c’est pourquoi Inspecto se concentre sur un marché plus réduit dans un premier temps : analyser quelques pesticides choisis à la surface d’un produit spécifique, comme une pomme. En effet, selon que l’on analyse une pomme, un raisin ou un poireau, le résultat n’est pas le même. Il faut donc avoir analysé un de ces produits seuls et sans pesticide pour pouvoir s’en servir comme référence. Néanmoins, une fois lancée, la jeune start-up pense pouvoir établir une base de données suffisante pour qu’Inspecto puisse être utilisé directement par les consommateurs d’ici une dizaine d’année.

Si la start-up israélienne séduit, elle n’est pas la première sur ce marché. Citons par exemple Scan Eat côté français, mais aussi Scio, également côté israélien ou Tellspec, côté canadien. La compétition sur les scanneurs de poche s’annonce donc déjà rude. Néanmoins, Inspecto se distingue par sa spécificité et sa sensitivité : c’est le seul scanner portatif capable d’analyser des pesticides au ppm près.

Sources :

Pour en savoir plus :

Rédacteur : Arthur Robin, doctorant à l’Université de Tel Aviv

Source : Ministère des Affaires étrangères et du Développement international d’Israël

EPR d’Hinkley Point: déjà des surcoûts et des retards!

Pour EDF, il s’agissait de réaliser une « revue des coûts et du calendrier » de l’EPR d’Hinkley Point, suite à la décision finale d’investissement prise par son conseil d’administration en septembre 2016. Les dépenses dérapent de 1,5 milliard de livres sterling (Md£), soit 1,8 milliard d’euros (Md€), en hausse de 8%. La facture prévisionnelle s’élève désormais à 19,8 milliards de livres sterling (22,4 Md€). Cette augmentation ne devrait cependant que légèrement impacter la rentabilité du projet pour EDF qui l’estime à environ 8,5% dans ces conditions, contre environ 9% initialement.

Des travaux qui prennent du retard

Ces rallonges sont notamment dues à « une meilleure appréhension du design », suite aux adaptations demandées par les Britanniques et à la révision « du volume et du séquencement des travaux sur site », qui ont débuté en mars dernier. Mais aussi à « la mise en place progressive des contrats fournisseurs ».

EDF fait savoir que cela n’impacte pas ses prévisions de résultats sur les deux prochaines années. Le Comité Central d’Entreprise d’EDF redoute quant à lui « une nouvelle stratégie de gains financiers de court terme pour payer la facture de ce surcoût qui entame une bonne part de la recapitalisation, à peine réalisée, de l’Entreprise ».

Le premier béton de la première tranche nucléaire est prévu pour mi-2019. Ce calendrier est confirmé « dès lors que le design définitif, dont le calendrier est tendu, aura bien été arrêté fin 2018 ». Mais EDF annonce déjà un « risque de report de la livraison ». Alors que la mise en service est prévue pour 2025, le premier réacteur pourrait être retardé de 15 mois et le second de 9 mois, prévient l’électricien. Cela induirait encore un rallonge de 0,7 Md£ et un taux de rentabilité abaissé à 8,2%.

Bruno Le Maire demande un plan d’actions

Face à un nouveau revers pour la technologie EPR française, Bruno Le Maire, ministre de l’Economie et des Finances demande « un plan d’action rigoureux » au PDG d’EDF « avant fin juillet ». Avec pour objectif de conforter le calendrier initial et « réduire autant que possible l’impact financier de cette réévaluation ». Le conseil d’administration devra analyser « les causes précises de cette réévaluation » et « les facteurs de risques », puis assurer « un suivi détaillé du projet », « à un rythme régulier ».

L’équivalent britannique de notre Cour des comptes, le National Audit Office (NAO), a estimé vendredi que le prix fixe garanti à EDF pendant 35 ans pour l’achat de l’électricité produite à Hinkley Point pourrait engendrer un surcoût de 30 Md£ (34 Md€) sur la facture des consommateurs. Les risques de retard actuels ne remettent toutefois pas en cause le contrat passé avec le gouvernement britannique. La rémunération prévue est de 92,5 £ (105 euros) par mégawattheure.

Par Matthieu Combe, journaliste scientifique