Episode # 6: Miss Marple

Ixelles, octobre 2086. Les étangs de Flagey, bicentenaires, s’étendent à l’est du capitole. Après quelques jours de froid, la douceur est de retour et la surface de l’eau renvoie les couleurs flamboyantes de l’automne.

Les ruches artificielles bourdonnent de milliards d’abeilles électroniques qui produisent le miel et pollinisent les plantes. Dire qu’il a pratiquement fallu attendre la disparition de la dernière abeille organique pour trouver comment produire les enzymes nécessaires à la fabrication du vrai miel et à la pollinisation des plantes.

Depuis, grâce à ces petites merveilles de technologie, les arbres fruitiers venus remplacer les tours d’immeubles détruites pendant la guerre de 2017, font le bonheur des habitants du district.

Les autres districts ne sont pas en reste. À Uccle, la vallonnée, les vignes produisent de délicieux raisins. Et à Laeken, dans les anciens jardins du Palais royal, les champs de pommes de terre et de blé fournissent largement de quoi nourrir les habitants.

Pourtant, il n’en a pas toujours été ainsi. Séraphine Perrin, jeune archiviste, s’en souvient. Enfin, elle s’en souviendrait si elle était consciente parce que pour le moment, elle est alitée dans l’unité de soins B12, – comme la vitamine -, et plongée dans une sorte de coma. Cela fait près de deux jours qu’elle est dans cet état. Depuis qu’on l’a retrouvée, effondrée sur son poste de travail à l’Institut de l’Histoire et du souvenir.

Séraphine Perrin est chargée d’encoder numériquement les documents du passé, tous domaines et tous supports confondus, afin de créer une base de données collective accessible à tous. Elle adore son travail, il lui permet de découvrir des choses dont elle n’avait jamais entendu parler jusqu’ici.

Il faut dire que depuis que les écoles n’existent plus, on apprend selon ses envies, pour soi-même ou parce qu’on a été désigné par le district pour exercer tel ou tel métier. Aujourd’hui, on accède à la connaissance en achetant à volonté des crédits via sa puce : 10 crédits en math, 20 crédits en chimie, 5 crédits en mycologie ou 30 en peinture à l’huile. Et quand je parle de district, il faut voir cela comme ce qu’on appelait avant une « commune » ou une « ville ».

Il n’y a plus d’états, plus de pays, plus de régions. Enfin, officiellement. Après les bombardements des missiles russes et ses millions de morts, la population mondiale a fortement diminué. Au début du siècle, l’ONU estimait qu’on serait environ dix milliards d’êtres humains sur Terre en 2090 mais nous sommes à peine plus de la moitié.

La mondialisation n’est plus qu’un vague concept. Et nous sommes pratiquement revenus à un système féodal. La technologie moderne ayant remplacé les gardes armés et le bourreau. L’économie locale, les petits commerces de proximité… nous y sommes. Un peu forcés par la crise mondiale du pétrole et autres combustibles polluants mais nous y sommes. Les gens peuvent encore se déplacer sur de longues distances, le carburant à base de déchets et d’algues fonctionne parfaitement mais ils n’ont plus envie de partir loin. Et s’il leur prenait quand même l’envie de fuir, un petit réglage de la puce et c’est arrangé.

Ah ! La fameuse puce justement. Parlons-en ! C’est quand même à cause d’elle que Séraphine est dans cet état…

Chaque être humain vit avec une puce multifonctions, une cfH « chip for Humans » en anglais dans le texte, implantée dès la naissance au niveau du poignet. Elle contrôle tout, contient toutes les informations médicales, administratives, judiciaires et financières d’une personne. Pour effectuer une transaction, plus besoin de portée wifi. Il suffit de poser sa main sur un appareil ou directement sur le poignet de quelqu’un d’autre pour faire un transfert d’argent ou de données.

Pour faire simple, disons que la puce est reliée dans chaque district à un super ordinateur qui reçoit des données sur le rythme cardiaque, l’activité neurologique, le sang, et les pensées de chaque personne. La cfH envoie des informations, mais sert aussi à en recevoir, ce qui veut dire qu’avec la puce sous votre peau, vous êtes à la merci des chefs de districts : ils peuvent vous rendre au choix euphoriques, excités, déprimés, suicidaires, sereins voire dangereux si besoin.

Vous vous sentez triste et cela nuit à votre productivité ? Hop ! Un peu d’endorphine injectée à distance dans le cerveau via la puce et tout va mieux. Vous êtes fatigués et ne rêvez que de votre lit douillet ? Hop ! Un peu d’adrénaline via la puce et vous voilà frais et dispos.

Fiévreuse et tremblante à la fois, Séraphine Perrin est au plus mal. Les médecins sont perplexes : de tels symptômes ont quasiment disparu à notre époque et ils s’interrogent sur ce qu’il convient de faire. Il semblerait que la jeune femme ait été victime d’une violente cyberattaque.

On raconte qu’un INI (individu non identifié) aurait trouvé le moyen de pirater à distance les puces pourtant ultra-sécurisées, de voler toutes les informations et crédits qu’elles contiennent et au final, de tuer les victimes en leur implantant un virus. Car si la puce soigne la plupart des maladies, elle peut aussi rendre malade voire tuer. Cela s’avère parfois pratique pour mettre de l’ordre dans les affaires des districts mais ici, au contraire, cela fait plutôt désordre… Surtout quand les victimes semblent être choisies de façon aléatoire.

Soudain, un bip aigu caractéristique se fait entendre à trois reprises. La patiente vient de se réveiller. C’est inattendu. Aucune des autres victimes ne s’en était sortie jusqu’alors. En fait, aucune n’a été retrouvée vivante avant Séraphine Perrin.

À son chevet, une policière la fixe en silence. Elle est arrivée dès que l’unité de soins B12 lui a signalé le réveil. Une victime vivante, c’est une chance inespérée de collecter des informations et de trouver le coupable.

– Que… Qu’est-ce que je fais ici ? Où suis-je ? demande Séraphine Perrin d’une voix pâteuse.

– Vous êtes à l’unité de soins B12. Je suis l’enquêtrice Miss Marple. Pouvez-vous décliner votre identité, s’il vous plaît, répond la policière.

– Mon identité ? Je ne comprends pas. Vous ne savez pas qui je suis ? Scannez ma puce ! s’étonne Séraphine.

– Vous avez été victime d’une cyberattaque. Votre puce a été gravement endommagée et les données ne sont plus lisibles. Nous allons devoir la retirer pour pouvoir procéder à une analyse complète, sans mettre votre santé en danger, annonce l’enquêtrice du ton le plus neutre possible.

– Retirer la puce ? C’est possible ? s’écrie-t-elle. Elle lance un regard inquiet vers le médecin. Celui-ci hoche la tête et lui sourit, comme pour lui signifier que tout ira bien. En fait, il n’en sait rien. Il n’a jamais pratiqué une ablation de cfH sur un être vivant. Le corps humain est tellement en symbiose avec la puce qu’en vérité, personne ne sait quelles conséquences cela pourrait avoir de la retirer. Il va falloir faire une anesthésie « extérieure », à l’ancienne et découper la chair. Heureusement, le robot chirurgien peut s’en occuper sans problème.

Rassurée par l’attitude encourageante du médecin, Séraphine accepte de collaborer à l’enquête. De toute façon, elle n’a pas vraiment le choix. Sans puce, elle est complètement démunie. Elle n’a plus d’argent, plus d’identité, plus rien.

– Je m’appelle Séraphine Perrin, n° 060.07.10.13864. Je travaille à l’Institut de l’Histoire et du souvenir. S’il vous plaît, aidez-moi à retrouver ma vie, implore Séraphine. Elle sent un drôle de picotement au niveau des yeux et de l’eau lui trouble la vue. Des larmes ? Oui, cela ressemble à ce qu’elle avait vu dans ce vieux film qu’elle a encodé dernièrement à l’Institut. Quelle étrange sensation…

On trouvera le coupable ! affirme avec assurance l’enquêtrice.

– Racontez-moi ce qui s’est passé en détail.

Séraphine se dit qu’elle a de la chance d’être tombée sur Miss Marple. Il paraît qu’elle traite bien les gens. Elle aurait pu tomber sur l’Inspecteur Harry ou sur Philip Marlowe qui se seraient montrés moins tendres avec elle.

Les inspecteurs de police ne sont plus ces humains aux tenues débraillés, mi-alcooliques, mi-colériques, intelligents mais brutaux. En fait, ils ne sont plus humains. Ce sont des robots capsuloïdes d’approximativement 1,5 m de haut, en métal blanc et blindés, bien sûr. On leur a donné les noms de détectives ou flics légendaires pour les rendre moins impressionnants pour le public. Leurs capacités sont sensiblement égales mais leurs caractères sont différents.

Ils ont deux bras articulés pour leur permettre de collecter et de manipuler les indices trouvés sur les lieux d’un crime. Ils ont un écran à hauteur du « visage » avec deux yeux et une bouche stylisés, de façon à être le plus multiculturel possible et ne froisser personne, c’est-à-dire qu’ils traitent tout le monde avec la même neutralité électronique. Cet écran sert aussi à montrer des images, prendre des photos, filmer les interrogatoires, une scène de crime ou à montrer les portraits de suspects aux victimes pour les rares lieux où il n’y a pas (encore) de caméras de surveillance ou en cas de panne de celles-ci.

Au niveau du « ventre », ils ont un mini-labo qui leur permet de faire des analyses et leur logiciel interne possède une base de données internationale qui peut mettre en relation des milliards de connexions. Si on trouve par exemple un poil de chien sur une scène de crime à New Paris, on peut aussitôt retrouver le chien et identifier son propriétaire dans la ville surpeuplée de Bakersfield en Californie. Enfin… On ne dit plus Bakersfield mais Second Chance depuis qu’ont échoué les survivants de Los Angeles et San Diego après l’horreur du Big One de la faille de San Andreas. On peut alors voir en direct des images du gars en train de manger une glace. Aussitôt, une alerte est transmise aux robots policiers locaux qui peuvent l’appréhender, si nécessaire.

Vingt-quatre heures plus tard, l’opération s’est bien passée et Séraphine est autorisée à sortir de l’unité B12. On ne peut pas encore lui remettre sa puce qui doit subir un examen poussé mais on lui donne une sorte de badge provisoire qu’elle pourra présenter pour prouver son identité et payer ses quelques dépenses quotidiennes. Le district lui accorde une petite prime, en récompense de sa collaboration à la capture du pirate.

Pour la première fois, Séraphine est envahie par ses propres pensées, ses propres émotions. Elle a peur. Avant, une pression sur la puce et elle se calmait. Elle a mal au ventre et elle ne peut rien faire d’autre que d’attendre que ça passe.

Pourtant, tout n’est pas négatif. Au travail, elle retrouve son collègue Antoine qu’elle côtoie pourtant chaque jour depuis des années mais quelque chose a changé. Elle ne le regarde plus : elle le voit. À son approche, elle ressent une bouffée de chaleur, des sensations bizarres dans l’estomac. Elle appuie par réflexe à l’endroit où se trouvait sa puce mais rien ne se passe.

Que faire ? Ses parents ne peuvent pas l’aider, ils ont toujours vécu avec la puce. Ils ne comprennent pas ce qu’elle veut dire.

Elle interroge alors sa vieille voisine, Manon est née juste avant la guerre, quand la puce n’était encore qu’un obscur projet. Elle lui explique comment c’était avant. Elle lui décrit ce sentiment étrange qui évolue tellement avec le temps mais qu’on ferait tout pour retrouver quand il disparaît. La plus forte des drogues.

Séraphine prend alors conscience d’un autre monde. Elle ne peut mettre des mots sur ce qui lui arrive mais déjà, elle est accro. Elle essaie d’en parler à Antoine mais il ne comprend rien. Des sentiments ? C’est quoi ? Comme dans ces vieilles histoires où les gens font des trucs bizarres ? À quoi ça sert ?

Alors, Séraphine Perrin a une idée folle : elle veut retrouver le pirate qui a pris le contrôle de sa puce. S’il a su faire cela, c’est qu’il a trouvé le moyen d’être hors de contrôle, de ne plus subir l’emprise du district et de se rendre anonyme. Lui seul pourra lui expliquer ces drôles de choses qu’elle sent dans son corps, dans sa tête à tout moment de la journée.

Aussi lorsque quelques jours plus tard, Miss Marple vient lui annoncer qu’elle pourra retrouver sa puce dans une semaine, Séraphine essaie de lui soutirer quelques informations sur l’identité du pirate, savoir si on a retrouvé sa trace.

Bien entendu, Miss Marple, adepte du mystère et surtout, incorruptible comme tous ses collègues, ne veut rien dire. Séraphine s’en doutait un peu mais il fallait qu’elle essaie. Sa décision est prise : elle va pirater le robot policier. Après avoir dépensé 10 crédits en robotique avancée, elle sait parfaitement comment neutraliser un robot policier de type Légende, comme Miss Marple. Appuyer sur une touche sensitive sur le côté droit suffit à désactiver la machine. Le seul hic, c’est que la touche garde en mémoire la trace de l’empreinte digitale. Dès son retour à l’atelier, le technicien de maintenance saura que Séraphine Perrin, n° 060.07.10.13864 a piraté Miss Marple. Tant pis, Séraphine prend le risque et la chance est avec elle.

Elle découvre ainsi l’identité du pirate. Il habite dans l’ancienne abbaye du district de Forest. Rare sont ceux qui osent s’aventurer dans ce quartier, mais Séraphine est déterminée.

À peine a-t-elle fait un pas dehors qu’elle aperçoit une sombre silhouette de l’autre côté de la rue. Le pirate est là ! Il a dû savoir qu’elle le cherchait et il l’a retrouvée, évidemment. Son cœur se met à battre plus fort, elle sent la sueur glacée lui descendre le long de l’échine et elle n’aime pas du tout cette nouvelle sensation.

Le pirate avance vers elle sans la quitter des yeux. Séraphine est pétrifiée. Elle attend tellement de cette rencontre. Quand enfin il est en face d’elle, un seul mot parvient à franchir ses lèvres : Pourquoi ?

L’homme lui explique avoir mené ces attaques pour faire pression sur les chefs de district. Il affirme vouloir retrouver l’humanité tel qu’elle existait auparavant et se sert de la technologie pour montrer les dangers de la modernité.

Choquée par les aveux de cet assassin assumé, Séraphine se précipite chez elle et active d’une voix tremblante le système d’alarme haut de gamme de son appartement.

Elle ne sait plus où elle en est.

Soudain, on sonne à la porte. C’est Miss Marple, en sa qualité d’agent assermenté qui vient lui implanter une puce toute neuve. Toutes ses informations ont été actualisées et son compte bancaire renfloué. Sa vie peut reprendre.

Vraiment ?

Véronique Goossens

Le cœur du Soleil tourne sur lui-même en une semaine

Remarquablement stable depuis 4,6 milliards d’années, le Soleil est maintenu ainsi par l’équilibre quasi parfait entre la gravitation, qui tend à le contracter, et la pression des réactions thermonucléaires en son cœur. L’instrument Golf, en orbite autour de notre étoile à bord de la sonde SOHO, mesure ainsi les oscillations solaires, porteuses des propriétés physiques de ses différentes couches. En orbite autour de notre étoile depuis plus de 20 ans, il enregistre toutes les 10 secondes un signal intégré des pulsations de la surface solaire. Différentes équipes auscultent ce flot de données pour identifier les nombreux motifs des vibrations qui agitent le Soleil. Des chercheurs du laboratoire Lagrange (CNRS/Observatoire de la Côte d’Azur/Université Nice Sophia Antipolis), de l’Institut d’astrophysique spatiale (CNRS/Université Paris-Sud), du laboratoire Astrophysique, interprétation, modélisation (CNRS/Université Paris Diderot/CEA), du Laboratoire d’astrophysique de Bordeaux (CNRS/Université de Bordeaux), de l’Institut d’astrophysique des Canaries et de l’université américaine Ucla sont ici parvenus à détecter les modes de gravité du Soleil. Ceux-ci sont comme des vagues dont la gravité est la force de rappel, comme nos vagues à la surface de la mer, mais qui dans le soleil ne peuvent exister que dans ses couches très profondes. Ces oscillations étant particulièrement difficiles à observer, les chercheurs ont utilisé les données de Golf d’une nouvelle manière : l’exploitation d’un paramètre différentiel des modes de vibration acoustiques, ceux qui sont visibles en surface. Ce paramètre mesure le   temps mis par les ondes acoustiques pour effectuer un aller-retour au travers du Soleil, en passant par son centre. Les chercheurs y ont décelé l’impact des modes de gravité, et ont donc prouvé leur existence.

Premier résultat issu de cette détection, le taux de rotation moyen du cœur thermonucléaire du Soleil, qui restait très mal connu, a pu être mesuré précisément. Il tourne sur lui-même en une semaine, soit 3,8 fois plus vite que les couches extérieures et intermédiaires. Ces travaux relancent de nombreuses études sur la physique du Soleil. De quoi affiner davantage les modèles sur sa naissance, son évolution, sa structure et sa composition chimique. Ces modes de gravité indiquent notamment la présence d’une zone où la vitesse varie énormément, à la frontière du cœur thermonucléaire, ce qui n’est pas prévu par son modèle standard. Cela relance également les discussions sur la nature d’un possible champ magnétique au centre de l’astre.

soleil
© ESA/ATG medialab/SOHO (ESA/NASA) Vue d’artiste de la sonde SOHO de l’Esa et de la Nasa, en orbite autour du Soleil (photographie prise par l’instrument EIT (Extreme-ultraviolet imaging telescope) de SOHO, le 14 septembre 1999).

 

Source : cnrs

Le bitcoin passe au cash !

L’opposition grondait depuis quelque temps. Avec le développement du bitcoin, les transactions devenaient plus lentes et coûtaient de plus en plus chères. La communauté a adopté la mise à jour du protocole bitcoin, baptisée SegWit2X, pour répondre à ces désagréments. Mais il subsistait des frondeurs : ils ont décidé de développer leur propre version de la blockchain Bitcoin et de créer une nouvelle monnaie virtuelle, baptisée bitcoin cash. SegWit2X permettra de passer de 11 à 22 transactions par seconde. Mais les contestataires proposent de monter à 56 transactions par seconde avec bitcoin cash.

Si une personne disposait de 1 bitcoin, elle possède aujourd’hui 1 bitcoin et 1 bitcoin cash. Le portefeuille des propriétaires s’est donc rempli. Les contestataires ne représenteraient pourtant que 5 à 10 % de la communauté bitcoin. En théorie, si on retient la valeur d’un bitcoin autour de 2700 $ et que 10 % de la communauté adopte bitcoin cash, la nouvelle monnaie virtuelle vaudra 270 $ et l’ancienne 2430 $. Mais ce calcul ne prend pas en compte la volatilité sur le marché et les différentes spéculations.

En effet, ce qui se passe est bien différent. La valeur du bitcoin est très volatile. Son plus haut historique a été atteint le 12 juin à 2999,97 $, en hausse de 222 % depuis le début de l’année. Le bitcoin résiste bien à l’apparition du bitcoin cash : sa valeur frôlait encore les 2800 $ le 3 août à minuit. De son côté, le bitcoin cash a du mal à trouver sa stabilité : si 1 bitcoin cash valait plus de 700 $ le 2 août, il n’était plus qu’à 314 $ le 4 août à 9h35, selon Coinmarketcap. Mais au final, les propriétaires de bitcoin ont gagné de l’argent puisqu’ils ont plus de 3110 $ dans leur portefeuille virtuel.

Que va-t-il désormais arriver ?

Comme la valeur du bitcoin est très volatile, les membres de la communauté bitcoin envisagent deux scénarios probables. Soit le bitcoin cash connait un succès modéré, et les deux monnaies coexisteront alors en paix. Soit la communauté se désinteresse sur le moyen terme de la nouvelle monnaie et le bitcoin cash disparaîtra.

Le principe du bitcoin repose sur la blockchain, technologie qui utilise des blocs de transaction codés et authentifiés qui s’ajoutent les uns aux autres. Ces calculs sont opérés grâce à la puissance de calcul mise à disposition par des membres volontaires du réseau, appelés les mineurs. Reste à savoir comment va se répartir la puissance de calcul chez ces mineurs, entre blocs bitcoin et bitcoin cash.

Par Matthieu Combe

Seephar, la réalité augmentée au secours du sapeur-pompier

Parce qu’elle peut aider à analyser et à maîtriser un incendie, la réalité augmentée pourrait assister le sapeur-pompier du futur. Lui-même ancien sapeur-pompier volontaire et à la tête de la société Seephar, Jean-Paul Granier y travaille activement depuis 2015. «Il y a un besoin d’identifier les points les plus chauds dans l’environnement au travers des fumées les plus épaisses, explique-t-il. L’enjeu est d’anticiper le risque, afin d’éviter que le sapeur-pompier évolue dans les zones où les températures sont les plus élevées, et d’améliorer l’efficacité de l’intervention, afin de concentrer l’arrosage sur les points les plus chauds.»

Les caméras thermiques montrent leurs limites dans un tel contexte. «Elles sont utiles après l’incendie pour confirmer l’extinction totale et prévenir les nouveaux départs de feu, poursuit Jean-Paul Granier. Mais, pendant l’intervention, elles ne sont guère pratiques car elles obligent le sapeur-pompier à détourner son regard.» D’où l’intérêt de superposer ces informations pertinentes et le champ de vision.

Ces courbes isothermes ne dénaturent pas la vision réelle

«L’idée est née il y a 20 ans mais la technologie n’existait pas à l’époque, rappelle Jean-Paul Granier. J’ai fondé Seephar en 2015 pour développer ce projet. Architecte en système d’information, j’ai mis au point des algorithmes qui analysent les thermogrammes issus du capteur thermique et construisent des courbes isothermes, qui s’inspirent des courbes d’altitude en topographie ou des courbes isobares en météorologie. Cette représentation de l’échelle des températures a l’avantage de préserver tous les détails de l’observation réelle, comme la couleur des fumées.» Là est la principale innovation qui fait la différence par rapport aux solutions concurrentes d’Ektos et de Darix.

Slider - IRRA 13 - 600x450 net Slider - IRRA 02 - 600x450 - net

Slider - IRRA 14 - 600x450 net

L’Internet des objets est également envisagé pour des applications de supervision. «Les données de pression provenant d’un appareil respiratoire connecté pourraient ainsi être communiquées hors du site de l’intervention» imagine Jean-Paul Granier. Si les fondations technologiques ont été posées, Seephar n’a pas encore de réalité commerciale, loin s’en faut. «Je suis à la recherche de partenaires, dont des fabricants de casques de réalité augmentée, indique Jean-Paul Granier. Je me suis rapproché d’Optitec (pôle de compétitivité spécialisé en imagerie et en photonique, NDLR) et de Safe Cluster (autre pôle de compétitivité consacré à la sécurité et à l’aérospatiale, NDLR). Bâtir un consortium serait un moyen d’adresser ce marché de niche sur un plan national et international.» Outre les sapeurs-pompiers, publics ou privés, le CEA du centre de Gramat a manifesté de l’intérêt pour Seephar et l’expertise autour de l’analyse de thermogrammes.

Thermo

Par Frédéric Monflier

Le FD-SOI à la conquête de l’Internet des objets

L’Internet des objets prépare des lendemains qui chantent pour l’industrie de la microélectronique, dont les recettes sont déjà florissantes : un peu plus de 400 milliards de dollars cette année (contre 300 milliards en 2010) selon Gartner, les ventes mondiales de semi-conducteurs ayant progressé de 16,8%. Mais ces objets pour la plupart autonomes requièrent des micro-composants électroniques qui ne dévorent pas leur batterie avec gloutonnerie. Dans cette course à la sobriété énergétique, le procédé FD-SOI (Fully Depleted Silicon on Insulator), mis au point par la société iséroise Soitec (issue du CEA-LETI) avec le concours de STMicroelectronics, améliore l’architecture même du transistor, ce composant fondamental des puces et des circuits électroniques intégrés.

Le FD-SOI a pour objectif de réduire voire d’annuler les courants de fuite parasites, dont l’importance grandit à mesure que la miniaturisation des transistors progresse : des électrons se «perdent» en chemin entre la source et le drain du transistor. Or, ces courants de fuite dégradent le rendement et provoquent des comportements aléatoires. « Un transistor peut être comparé à un robinet à électrons qui, lorsqu’il est très petit, fuit en permanence et ne permet plus de distinguer un état ouvert d’un état fermé, explique Manuel Sellier, responsable marketing produits chez Soitec. Tant que la finesse de gravure ne descendait pas sous les 130 nanomètres, les phases de fabrication étaient assez simples à mettre en œuvre. En dessous et jusqu’à 28 nm, l’évolution n’a été envisageable qu’au prix de percées technologiques majeures, comme le remplacement de l’aluminium par le cuivre pour réaliser les interconnexions. A partir de 28 nm, l’architecture du transistor devait être modifiée. »

Un isolant confine les électrons

C’est la raison d’être du procédé FD-SOI, qui s’applique aux tranches de silicium (wafer) fournies par les fabricants de silicium, placés en amont de la filière. C’est un moyen de « raffiner » cette matière première et de la transformer en un substrat sur lequel les fondeurs graveront plus tard les transistors. La technique consiste à superposer, sur le matériau brut en silicium, une couche d’oxyde amorphe de 20-25 nm d’épaisseur puis une autre couche de silicium de 6 nm d’épaisseur, où sont implémentés les canaux du transistor. La couche d’oxyde agit comme un isolant et confine les électrons entre la source et le drain. « D’autre part, le remède classique contre les courants de fuite, qui impose toujours plus de dopants, n’est plus nécessaire » poursuit Manuel Sellier. Si le principe du silicium sur isolant n’est pas nouveau, l’uniformité des couches et la jonction entre les matériaux cristallins et amorphes ont été perfectionnées grâce à la méthode de fabrication Smart Cut du CEA-LETI, précise à l’atome près.

copyright STMicroelectronics
copyright STMicroelectronics

La technologie FinFET (Fin Field Effect Transistor) est une alternative qui limite également les courants de fuite. Elle intervient pendant la phase de gravure et permet de créer des transistors à ailette en 3D. Mais elle est moins compétitive, selon Manuel Sellier : « le FD-SOI reste une solution planaire, moins complexe à maîtriser pour nos clients, c’est-à-dire les fondeurs. » Du reste, les finalités ne sont pas tout à fait les mêmes. « La performance a été le premier critère de choix qui a guidé le développement du FinFET, observe Manuel Sellier. Les puces FinFET se destinent aux serveurs informatiques, aux PC… Avec le FD-SOI, nous avons cherché le meilleur compromis entre consommation énergétique, performance, densité et coût, afin d’adresser le marché de la basse consommation. »

STMicroelectronics, Samsung et GlobalFoundries sont les trois fonderies qui ont adopté le FD-SOI et proposent des circuits gravés en 28, 22 et bientôt 18 nm, avec le 12 nm en perspective. Le FinFET fait d’ores-et-déjà mieux (10 nm) mais la majorité du marché se concentre encore sur la production en 28 nm. Les premiers produits finaux bénéficiant de circuits FD-SOI font leur entrée sur le marché depuis deux ans environ. Une « smartwatch » de Sony démontre l’intérêt de cette technologie. « Le circuit GPS réalisé à partir d’un substrat FD-SOI consomme cinq fois moins et permet d’obtenir une autonomie de 35 heures, GPS activé » confie Manuel Sellier. L’automobile, en particulier les véhicules autonomes, et les radiocommunications sont d’autres  débouchés potentiels. Soitec a l’ambition de porter l’étendard du « made in France » au milieu des géants américains et asiatiques.

Frédéric Monflier

Planter des sacs pour faire pousser son potager !

La question était simple : comment limiter la pollution due aux sacs en plastique à usage unique qui emballent les fruits et légumes dans les supermarchés? Si la loi de transition énergétique les a remplacé par des sacs biosourcé depuis début janvier en France, ce n’est pas encore le cas de l’Allemagne. Et l’enseigne Edeka a décidé d’agir sans attendre.

Pour répondre à ce défi, Edeka a donc développé, en collaboration avec le fabriquant Naku et l’agence publicitaire Cheil, le FEEDitBAG. Un sac constitué de 100% de biopolymères, biodégradable en seulement 10 semaines. Surtout, la première version renferme un petit sachet de graines de tomate, poire ou aubergine et un mode d’emploi pour faire ses plantations.

« Planter » un sac pour faire pousser

Après usage, les clients n’ont plus qu’à remplir leur FEEDitBAG de biodéchets (épluchures, restes de repas, etc.) et à le planter. Il fera alors pousser un pied de tomate, d’aubergine ou un poirier selon le sac choisi.

Edeka a lancé cette opération originale dans un centre commercial de Francfort en Allemagne. Pour l’occasion, le magasin en a distribué 150.000, soit l’équivalent d’un mois de sacs. À terme, l’enseigne souhaite étendre l’opération à l’ensemble de ses magasins pour remplacer tous ses sacs plastiques traditionnels. D’autres pays comme la Suisse ont également montré leur intérêt. Sur le site Internet dédié, un vote est ouvert pour choisir les prochaines graines qui équiperont ses sacs : poivron, piment, romarin, courgette, ail, ou fraise?

 

Par Matthieu Combe, journaliste scientifique

Episode # 5: Le colis

En cette chaude matinée d’août 2186, Anton Nielsen franchit les colossales portes de verre de l’édifice principal de l’Institut de recherche aéronautique et aérospatiale quelques secondes seulement avant le début de l’averse. Les allées du complexe industriel allaient être martelées par la pluie pour le cinquantième jour consécutif, ce qui commençait doucement à lui affecter le moral. Il entendit la voix d’Ava, l’intelligence artificielle qui contrôlait le bâtiment — certains la qualifiaient même d’âme — lui souhaiter la bienvenue dès son passage par le sas. Comme à son habitude, elle trouva automatiquement l’intonation qui mettrait Anton de bonne humeur et lui permettrait de débuter sa journée de travail dans les meilleures conditions possibles.

Il traversa le hall spacieux mais désert. S’installant derrière le comptoir, il se mit comme souvent à réfléchir à la chance qu’il avait eue, presque deux mois auparavant, d’obtenir le poste de réceptionniste d’un tel organisme. Seuls quelques établissements réputés conservaient,, pour le prestige, du personnel d’accueil. Qu’une suite de zéros et de uns ait pu décider qu’il était, parmi plusieurs douzaines de candidats, le meilleur pour cet emploi le surprenait encore. L’écran du terminal s’alluma instantanément, se mettant simultanément en communication avec les pico-contrôleurs qui circulaient dans le corps d’Anton et vérifiaient en permanence son état de santé. Sur le moniteur apparurent notamment sa température, sa pression artérielle et sa fréquence cardiaque. Ava, qui pouvait se faire entendre là où elle voulait et seulement par qui elle voulait, le gratifia d’un « 37,5 °C, tout va bien très cher Anton ! »

Les heures à venir s’annonçaient inhabituellement calmes. La journée de maintenance et de vérification semestrielles des systèmes de transfert entre les bâtiments, qui assuraient le transport du matériel et des personnes par des veines souterraines, avait conduit la plupart des centaines de chercheurs et assistants à travailler depuis chez eux. Le traditionnel ballet des représentants, chefs de projets et ingénieurs commerciaux n’aurait pas lieu.

Deux heures ennuyeuses s’écoulèrent, au cours desquelles seules quatre personnes, toutes employées de l’institut, s’étaient manifestées. Trois d’entre elles n’avaient fait que le saluer avant d’emprunter l’un des couloirs qui donnaient sur le  hall d’accueil. Sur les coups de onze heures, alors que, comme indiqué sur le terminal, la faim commençait à se faire sentir, se présentèrent deux livreurs qu’il identifia au logo de leur société, un homme et une femme. Cette dernière portait un paquet cubique d’une quarantaine de centimètres de côtés. Elle le déposa sur le comptoir tandis que son collègue se fendit d’un « prenez en soin ». Anton les dévisagea, haussa un sourcil et indiqua calmement :

« La réception des matières premières ne se fait pas ici, vous devez vous adresser au service concerné derrière le bâtiment Tognini, à cinq minutes.

— Il ne s’agit pas de matières premières, mais d’un article que l’une de vos collègues a acheté », lui répliqua la femme.

Depuis sa prise de poste, jamais personne ne s’était  fait expédier quelque produit fini que ce soit à l’adresse de l’institut. L’établissement était totalement indépendant sur ce point. Des cargaisons de matériaux divers arrivaient hebdomadairement avant d’être transformées par les imprimantes tridimensionnelles installées au sous-sol de certains des édifices de l’organisme. Le système de distribution se chargeait ensuite de transférer les produits finis, qu’ils soient combinaisons de travail, composants électroniques ou instruments de mesure complexes, au service ou au chercheur qui en avait passé commande.

Que le paquet ne soit pas arrivé par drone ou véhicule autonome l’étonna également. La coursière dut s’apercevoir de sa surprise, puisqu’elle déclara :

– Pour un contenu aussi onéreux, notre société se doit d’assurer une protection particulière.

Ils tournèrent les talons avant même qu’Anton ne déchiffre le nom de l’expéditeur, comme s’ils soupçonnaient qu’il allait avoir une multitude de questions à leur poser. L’enveloppe de bioplastique rigide qui protégeait le colis mentionnait qu’il provenait  de Fangmatan, une usine située à Tianshui dans la province chinoise de Gansu. Il s’attarda ensuite sur la destinataire.

« Ava ? Dans quelle unité travaille Élise Mermin ?

— Division moteurs pour les véhicules de tourisme, aile B de notre bâtiment, répondit illico l’intelligence artificielle.

— Tu peux me dire si…

— Elle est là aujourd’hui, mais je n’arrive pas à la contacter. Je pense que l’expérience cruciale qu’elle pilote l’empêche de répondre. »

Anton hésita. Il soupesa le colis. Dix, douze kilogrammes peut-être. L’arrêt du système de distribution le contraignait à transporter l’encombrant paquet lui-même. Qu’il quitte son comptoir quelques minutes ce matin-là ne gênerait sûrement pas grand monde et, si le contenu était aussi précieux que l’avaient prétendu les deux livreurs, il était préférable de s’en délester aussi tôt que possible. Il laissa Ava le guider dans le labyrinthe de couloirs.

L’aile B était la plus éloignée du hall principal, au point que ceux qui y travaillaient pénétraient habituellement dans le bâtiment par une autre porte. Anton n’avait certainement jamais croisé la plupart d’entre eux, au nombre desquels Élise Mermin. Sur les écrans ornant les couloirs s’affichaient des données sur son état de santé au fur et à mesure qu’il avançait . Il grimpa une série de marches, en descendit deux autres. Pressant le pas dans un corridor qu’il reconnut, il put lire sur un moniteur « fréquence cardiaque : 125 battements par minutes. Température corporelle :  37,6 °C ». Ava l’avertit :

– Ces données sont on ne peut plus normales, Anton. Je crois cependant que 36 secondes supplémentaires d’exercice par jour ne te feraient pas de mal.

Il arriva à destination plus vite qu’il ne l’aurait cru. Selon Ava, il était inutile de frapper à la porte puisqu’Élise Mermin était occupée. Lorsqu’il entra, la chercheuse lui tournait le dos. Elle observait à travers une vitre le déroulement d’une expérience en cours dans la salle blanche voisine. Un casque audio lui permettait de percevoir distinctement le moindre son généré par ses machines. N’osant perturber sa concentration, Anton s’approcha du bureau qui trônait au centre de la pièce et se délesta du paquet. Élise Mermin dut sentir sa présence puisqu’elle pivota et hocha la tête en guise de remerciement.. Son visage étonna Anton. Elle semblait âgée, certes, mais d’une manière différente de celle des septuagénaires d’aujourd’hui. Elle ressemblait aux actrices maquillées des films en costumes d’époque ou aux vieilles photographies du début du siècle, comme si elle avait refusé de bénéficier des progrès de la recherche sur le corps humain.

Anton la dévisagea quelques secondes de plus qu’il ne l’aurait dû puisque, se découvrant les oreilles, elle l’interrogea :

– Je peux faire quelque chose pour toi?

— Je suis Anton, le réceptionniste. On ne se connait pas, et mon indiscrétion te semblera peut-être déplacée, mais je suis curieux de savoir ce que contient le colis que je viens d’apporter.

Un grand sourire barra le visage d’Élise Mermin :

— Tu ne lui as pas dit, Ava ?

— Je préférais qu’il te le demande lui-même, énonça cette dernière d’un ton dans lequel Anton perçu une pointe de sarcasme.

La chercheuse reprit :

— Nous avons tous nos petites manies, certains les attribuent à de la nostalgie mais ce  sont en réalité des habitudes dont nous n’avons soit pas l’envie, soit pas le besoin, soit pas la possibilité de nous départir. Certains écoutent de la musique sur des supports obsolètes depuis des décennies parce qu’ils en aiment le timbre particulier. D’autres encore empruntent toujours la même route pour se rendre dans un lieu qu’ils ont l’habitude de visiter même si on leur suggère un trajet plus rapide ou plus court.

Elle s’interrompit, commençant à arracher la pellicule qui recouvrait le contenu de son paquet.

– La plupart des villes, des grandes entreprises et des centres de recherche comme le nôtre ne s’approvisionnent plus qu’en matériaux et matières premières, se chargeant d’imprimer localement tout ce dont nous avons besoin. Si tu as envie d’un  produit , il  suffit d’en faire la commande et d’attendre quelques minutes, au plus quelques  heures avant de le recevoir.  Il est une matière que ces outils ne savent plus produire parce qu’on ne les a pas conçus pour. Une matière qui a étendu son empire pendant plus de deux millénaires au point de se rendre totalement indispensable dans notre vie quotidienne — quand je suis née, il y a soixante-dix ans de cela, nous en étions totalement dépendants. Aujourd’hui, et c’est là l’ironie, cette matière n’est plus produite que là où elle a été inventée, et ce dans deux usines seulement. C’est ce qui la rend rare et chère. C’est comme si, après avoir conquis le monde puis avoir été presque abandonnée, elle avait décidé de se réfugier là où elle était née.

Du paquet désormais ouvert, elle commença à faire apparaître quelque chose  qu’Anton n’avait jamais vu autrement que sous la forme de vieux journaux que conservaient encore ses arrière-grands-parents, au point qu’il se refusa d’abord à y croire. Du papier. Par rames entières, sous forme de cahiers ou de blocs, le colis en contenait des milliers de feuilles, toutes vierges. Le sourire toujours plus large, Élise Mermin ajouta :

– Le cinéma est pudique sur ce point, mais crois-moi, on s’en servait même aux toilettes !

Anton ne l’ignorait pas et s’en amusa à son tour.

– Et je suppose que vous en avez besoin pour vos expériences ?

— Absolument pas. Quand nous avons une idée ou lorsque nous voulons dérouler un raisonnement, nous utilisons tous nos écrans tactiles ou décrivons nos projets à nos ordinateurs. Même si les modèles actuels sont encore rudimentaires, ces petits capteurs que l’on s’accole à la tempe et qui perçoivent certaines de nos pensées se popularisent rapidement. Moi, j’ai gardé une vieille habitude que mes parents m’ont transmise, une habitude dans laquelle tu pourrais voir de la nostalgie, même s’il n’en est rien. J’aime poser sur le papier mes idées, griffonner des équations, décrire des concepts ou encore esquisser des schémas. Cela m’aide à la fois à structurer mes pensées et à m’en souvenir.

Anton comprenait où elle voulait en venir. Il la remercia pour ses explications et s’apprêta à prendre congé, lorsque Élise Mermin plongea la main dans le colis et lui tendit un petit paquet allongé, lui faisant promettre de l’ouvrir quand il serait de retour dans le hall d’accueil. C’était un cadeau que l’usine offrait à  chaque commande.

Il parcourut les corridors en sens inverse, se hâtant au point qu’Ava lui reproche de  transpirer plus qu’il ne le devrait, s’installa derrière le comptoir puis déchira impatiemment la fine enveloppe de bioplastique. Le cœur battant, il se saisit du petit objet allongé qu’elle contenait et qu’il n’avait jamais vu que sur des vieilles photographies — ou peut-être était-ce dans un musée folklorique. Son regard s’illumina, fier et heureux de posséder désormais un petit morceau de passé. Il caressa doucement de l’index la carapace de bois du petit ustensile désuet. Il mit quelques secondes avant d’en retrouver le nom. Ce qu’il tenait entre ses doigts, c’était un crayon à papier.

Vincent Marcant

 

Un séjour dans l’espace modifie le cerveau !

Voyager ou séjourner dans l’espace ne fait pas forcément du bien au cerveau. Pour s’en rendre compte, l’étude a comparé les scans IRM des cerveaux de 27 astronautes avant et après leur mission. Précisément, 13 astronautes avaient mené une mission spatiale d’environ deux semaines et 14 avaient vécu 6 mois au bord de la station spatiale internationale. Les données ont été obtenues auprès du système de surveillance de la santé des astronautes de la NASA.

De la matière grise qui prend plus ou moins de volume

Les chercheurs ont constaté une diminution considérable du volume de matière grise dans le cerveau de ces astronautes. Notamment dans de grandes zones couvrant les lobes temporal et frontal et autour des orbites. À l’opposé, ils ont découvert une augmentation de la quantité de matière grise dans des zones plus localisées, notamment celles contrôlant le mouvement des membres inférieurs. Une augmentation ou une baisse de la matière grise dans différentes parties du cerveau a été relevée chez l’ensemble des astronautes. Plus ceux-ci avaient séjourné longtemps dans l’espace, plus les modifications étaient importantes.

cerveau-espace
En bleu : les zones où la matière grise diminue,. En orange : zones où la matière grise augmente, dans les régions contrôlant le mouvement des jambes. C’est la première image de la façon dont les vols spatiaux modifient la structure du cerveau humain!

La baisse de volume de matière grise pourrait être liée à la redistribution du liquide céphalo-rachidien dans l’espace, avancent les chercheurs. « La gravité n’est pas disponible pour extraire les liquides vers le bas dans le corps, ce qui se traduit par un visage dit gonflé dans l’espace. Cela peut entraîner un décalage de la position ou de la compression du cerveau», explique Rachael Seidler, auteur principale de l’étude et professeur de Kinésiologie et psychologie à l’Université du Michigan. En revanche, l’augmentation du volume de matière grise reflète probablement la plasticité cérébrale associée au fait d’apprendre à se déplacer en microgravité 24 heures sur 24. Une preuve supplémentaire que notre cerveau s’adapte à beaucoup de choses.

Diverses études récentes ont identifié des risques pour le cerveau dans l’espace. Troubles cognitifs, de l’apprentissage, modifications du nerf optique… pourraient se multiplier dans l’espace. En cause? Une augmentation de la pression intracrânienne en conditions de microgravité. N’en déplaise aux fans de science-fiction, l’évolution semble avoir conditionné l’Homme pour vivre sur Terre, et non pas dans des vaisseaux.

Par Matthieu Combe, journaliste scientifique

Eolien offshore : où en est-on à l’été 2017 ?

Dans un communiqué, le collectif estime que tous ces projets sont « en contradiction avec les politiques de protection de l’environnement marin ». Les éoliennes mèneraient inexorablement à la « destruction des habitats et espèces protégées ». «Des centaines d’éoliennes vont constituer une barrière aux oiseaux migrateurs et industrialiser un littoral dont l’économie est basée sur la pêche et le tourisme », ajoutent-ils. Selon eux, ces éoliennes menaceraient aussi « des dizaines de milliers […] dans la pêche maritime côtière et l’activité touristique littorale ».

Cette destruction a pourtant un prix élevé. Le collectif dénonce des prix « exorbitants » : de 220 € à 227 €/MWh hors raccordement, nécessitant la construction de centrales à gaz pour contrer leur intermittence.  A cela s’ajouterait une « parodie de concertation démocratique ».

La plainte vise l’ensemble des 9 projets sur la façade Manche-Atlantique. Si aucun chantier n’a encore commencé, quatre appels d’offres lancé par le Gouvernement Hollande ont déjà permis de lancer la planification de 8 parcs éoliens offshore, pour une puissance totale de plus de 3.000 MW. Le dernier projet résulte d’un appel à projets lancé par l’ADEME.

Quatre parcs pour le premier appel d’offre en 2012

En 2012, le consortium Eolien Maritime France porté par EDF Energies Nouvelles a remporté trois champs : les 480 MW du banc de Guérande de Saint-Nazaire (Loire-Atlantique), les 450 MW de Courseulles-sur-Mer (Calvados) et les 498 MW du Fécamp (Seine-Maritime). Pour l’occasion, EDF Energies Nouvelles s’est associé à Enbridge et WPD Offshore pour installer l’éolienne de 6 MW de General Electric (ex-Alstom). Ces  parcs entreront progressivement en service entre 2021 et 2023.

« Les autorisations obtenues pour nos parcs éoliens en mer français au titre de la Loi sur l’eau font actuellement l’objet de recours qui retardent le démarrage des travaux. Pour chaque projet, le calendrier de réalisation sera réactualisé en fonction de la date du jugement de ces recours » fait savoir EDF Energies Nouvelles. Bonnes nouvelles pour l’énergéticien: le dernier recours lancé par les associations de défense de l’environnement contre le parc du de Fécamp a été rejeté le 21 juin par la cour administrative d’appel de Nantes. Le 28 juillet, le même tribunal a rejeté le dernier recours contre le parc de Saint-Nazaire. Reste un ultime recours contre le parc de Courseulles-sur-Mer sur lequel la cour devrait prochainement se prononcer.

Le premier appel d’offres a aussi attribué le champs de Saint-Brieuc (Côtes-d’Armor) au consortium Ailes Marines SAS, porté par l’énergéticien espagnol Iberdrola et son allié Areva. L’installation de 100 éoliennes de 5 MW devrait commencer en 2018, jusqu’en 2020.

EDF Energies nouvelles et GE avancent !

En attendant la fin des recours, EDF Energies Nouvelles se prépare. « Nous sommes aujourd’hui en phase de négociation avancée avec les industriels en compétition qui ont remis leurs offres pour les principaux appels d’offres : sous-stations électriques en mer, installation en mer, câbles et fondations », fait savoir l’entreprise.

Aussi, la première pierre de l’usine de fabrication de pales d’éoliennes de LM Wind Power / General Electric a été posée le 23 mars 2017 sur le port de Cherbourg. Elle permettra de produire à partir de 2018 les mats des éoliennes et les plus grandes pales du monde, jusqu’à 88,4 mètres. 550 emplois sont prévus à la clé. Au-delà des trois projets français dont GE est partenaire, l’usine de Cherbourg souhaite tirer parti de sa position géographique afin de fournir les projets éoliens en mer actuellement en développement au Royaume-Uni et en Europe du Nord.

Dans le même temps, les deux usines d’assemblage de nacelles et d’alternateurs de GE à Saint-Nazaire produisent déjà. Dans ces deux usines, GE fabriquera les alternateurs et les nacelles des éoliennes des trois parcs. En attendant le début des travaux en mer, les usines fabriquent actuellement les 66 éoliennes qui seront installées sur le parc éolien en mer de Merkur en Allemagne.

Deux parcs pour le deuxième appel d’offre en 2014

En mai 2014, c’est le consortium réunissant Engie (ex GDF-Suez) et Areva qui a remporté les deux champs éoliens présents dans le deuxième appel d’offre du Gouvernement. Le premier, de 496 MW, est prévu au large du Tréport (Seine-Maritime). Le second, de 496 MW, se dressera en Atlantique, entre l’île d’Yeu et Noirmoutier. La construction de ces deux parcs comprenant chacun 62 éoliennes de 8 MW devraient s’échelonner de 2019 à 2021 pour le premier et de 2021 à 2023 pour le second.

Des  demandes d’autorisations administratives ont été déposées cette année par les sociétés. L’enquête publique à venir sera certainement rythmée par plusieurs nouveaux recours.

Trois autres projets lancés en 2016

En avril 2016, Ségolène Royal a lancé un troisième appel d’offres pour l’implantation d’éoliennes en mer au large de Dunkerque. Pas de calendrier précis, pas de puissance définie pour le moment : les lauréats devraient être annoncés début 2018. En novembre 2016, un autre appel d’offres a été lancé pour l’île d’Oléron (Charente-Maritime) pour une mise en service d’ici 2023. Les lauréats ne sont pas non plus connus.

Enfin, au large de l’île de Groix (Morbihan) est mené un projet de ferme pilote d’éoliennes flottantes. Il est porté par CGN Europe Energy et des partenaires industriels français, en réponse à un appel à projets lancé en août 2015 par l’ADEME. La ferme pilote sera composée de quatre éoliennes de 6 MW, ancrées à 15km de la côte la plus proche. Celles-ci devraient être installées en 2019 pour une mise en service en 2020.

La Programmation pluriannuelle de l’énergie (PPE), feuille de route de la transition énergétique française prévoit 3.000 MW d’éolien en mer posé d’ici 2023. Entre 500 MW et 6.000 MW supplémentaires pourraient être prévus en fonction des concertations sur les zones propices, du retour d’expérience de la mise en oeuvre des premiers projets et sous condition de prix.

Par Matthieu Combe, journaliste scientifique

Les jeunes informaticiens restent en Europe

Un quart des jeunes Français rêvent d’aller faire carrière à l’étranger. Pourtant, dans leur majorité, les étudiants des Grandes écoles restent en France. Seuls 15,2 % décident de franchir les frontières selon la vingt-cinquième édition de l’enquête sur l’insertion des jeunes diplômés des Grandes écoles réalisée par l’École nationale de la statistique et de l’analyse de l’information (Ensai), en collaboration avec la Conférence des grandes écoles (CGE), soit près de 175 grandes écoles.

Néanmoins, les nouveaux diplômés sont attirés par l’étranger et en particulier le Royaume Uni. 13 % des ingénieurs ayant répondu à cette enquête ont en effet indiqué ce pays en premier, suivi par l’Allemagne (10,4 %) et la Suisse (9,7 %). « Globalement, un expatrié sur deux choisit l’Union européenne », peut-on lire dans le rapport. En dehors de l’Union européenne, la Chine (8,2 %), comprenant Macao et Hong Kong, est la première destination devant la Suisse (7,5 %) et les États-Unis (6,3 %).

Pour revenir à l’hexagone, cette enquête fait apparaître un contraste. La plupart des ingénieurs ont débuté leur carrière en province alors que près de 59 % des managers ont commencé leur activité professionnelle en Île-de-France. Autre différence : la rémunération. « Les ingénieurs, pris dans leur ensemble, gagnent moins que les managers. Et pourtant, si l’on croise le sexe et la localisation de l’emploi, les ingénieurs perçoivent les meilleures rémunérations : à sexe et lieu de travail donnés, les ingénieurs ont l’avantage des rémunérations, cela à l’exception des hommes à l’étranger. »

Mais, quels que soient leur profit et métier, ces étudiants ne rencontrent pas de difficultés pour trouver un emploi. « Sur la promotion 2016, le taux net d’emploi des jeunes diplômés progresse à 86,5 %. L’entrée dans la vie active est rapide puisque plus de 60 % de nos étudiants ont trouvé un emploi avant même leur sortie d’école, et ce taux s’élève à 81, 4 % moins de deux mois après la sortie » révèle cette étude.

Philippe Richard

La sécurité des objets connectés : une menace supplémentaire pour les entreprises

Coup de chaud en perspective pour certains secteurs industriels. Lors de la conférence DEFCON 2016, la grand-messe des hackers, des experts de Pen Test Partners ont pris le contrôle à distance d’un thermostat intelligent. On passera sur les détails techniques de cette infiltration. Le plus inquiétant est sa conséquence :  après avoir pris le contrôle de ce dispositif ils ont contacté la victime en lui indiquant qu’elle devait payer une rançon sinon ils augmenteraient des fortement la température de la salle en question…

Heureusement, il s’agissait d’un captif fictif visant à démontrer les lacunes en termes de sécurité de la majorité des capteurs et autres objets connectés.

Pour les entreprises, la multiplication de ce type de démonstration complique leurs problématiques de sécurité. Mal protégé, voire pas du tout conçu pour résister à, la moindre infiltration logicielle ou physique, un objet connecté peut se transformer en point d’accès au réseau informatique de l’entreprise. Il est aisé d’imaginer la suite…

Pour mémoire, Target (l’équivalent de Carrefour aux États-Unis) a été victime d’un important piratage de carets bancaires de ses millions de clients. Pour arriver à leurs fins, les pirates ont étudié minutieusement la cartographie du réseau informatique de cette de magasins. Ils ont fait une surprise étonnante : le système de ventilation et de climatisation était relié aux… caisses enregistreuses, celles là même où étaient stockées des données bancaires.

Former les salariés

Il est donc urgent de se préoccuper de la sécurité de l’IoT (Internet of Things), car en 2020, 20,8 milliards d’objets connectés devraient être répartis dans le monde. Quatre fois plus qu’en 2016 ! « Le problème, c’est que le marché des objets connectés est concurrentiel, et que les entreprises veulent aller vite. Dès qu’ils sentent qu’un produit peut faire un carton, le marketing devient la priorité et la sécurité des systèmes passe au second plan. Et malheureusement, les industriels attendent souvent de subir des cyberattaques pour se pencher sur le problème », explique Vincent Roquet, qui travaille dans la branche cybersécurité d’EY, un cabinet spécialisé en audits et conseils.

De son côté, Évelyne Raby, à la tête de la start-up française CybelAngel, précise : « avec l’augmentation du nombre d’objets connectés et leur diversité, se mettre à la page est très compliqué pour des entrepreneurs déjà perdus. Cette complexité retarde l’ensemble de la prise de conscience et le moment où l’on se penche dessus. »

A contrario, si demain une entreprise devient le Microsoft de l’IoT ce sera aussi pain bénit pour les pirates ; ils ne devront focaliser leur attention que sur une cible.

« L’erreur est humaine et les humains sont souvent le point faible de la sécurité informatique, explique Évelyne Raby. Il faut apporter une attention particulière aux prestataires extérieurs. Ils sont les plus à même de compromettre la sécurité des objets connectés de par leur manque d’encadrement par l’entreprise. »

Philippe Richard

Mâcher un chewing-gum pour produire de l’électricité

Faire de chaque mastiqueur une petite centrale électrique, telle était l’idée un peu excentrique d’Aidin Delnavaz et Jérémie Voix, chercheurs canadiens. Pour cela, ils ont exploité le phénomène de piézoélectricité, la propriété que possèdent certains corps de se polariser électriquement sous l’action d’une contrainte mécanique, en l’espèce le mouvement de la mâchoire.

Energía-mascando-chicle

Nanofibre de céramique

Sur un substrat élastique, les chercheurs ont déployé une couche nanofibre de céramique en pointillé avec des électrodes en cuivre le tout revêtus de matériau isolant. La mentonnière est attachée à un casque audio. Un ingénieur s’est prêté à l’expérience, en mâchant pendant 60 secondes, suffisante pour s’assurer que le dispositif fonctionne avec une production de l’ordre du microwatt. « Pour l’instant, le niveau de puissance que nous avons obtenu ne suffit pas à alimenter des appareils électroniques » admet Aidin Delnavaz. Mais il explique à nos confrères de Materia qu’il est possible « de multiplier la puissance de sortie en ajoutant plusieurs couches sur la mentonnière. Par exemple 20 couches d’une épaisseur totale de 6 mm, seraient capables d’alimenter un dispositif auditif intelligent d’une puissance de 200 milliwatt (mW) », estime-t-il.

La publication scientifique des chercheurs peut-être téléchargée ci-dessous :

Delnavaz_2014_Smart_Mater._Struct._23_105020

Par Romain Chicheportiche

Les écrans OLED s’affichent sur les smartphones

Les écrans OLED (Organic Light Emitting Diode -Diodes Electroluminescentes Organiques) se font désirer ! En 1987, des travaux menés par deux chercheurs d’Eastman-Kodak démontrent qu’on peut obtenir une émission intense de lumière sous une faible tension. Trois ans plus tard, en 1990, des chercheurs de l’Université de Cambridge mettent en évidence le phénomène d’électroluminescence en étudiant un polymère spécifique (le polyparaphénylène vinylène).

Mais aujourd’hui, ils se font encore assez rares dans les appareils grand public. L’un des tout premiers écrans OLED (2,2 pouces) sur le marché a été produit par Kodak pour l’un de ses appareils photo numériques. Philips, Motorola, LG et Samsung ont chacun sorti un téléphone mobile équipé de ce genre d’écran. Apple pourrait néanmoins donner un coup d’accélérateur à ce type d’affichage. La marque aurait décidé d’équiper en OLED l’un des modèles de son futur iPhone. D’autres constructeurs devraient lui emboîter le pas. Selon Digitimes Research, plus d’un smartphone sur deux écoulé en 2020 dans le monde arborera ce type d’écran.

Les écrans OLED présentent en effet des atouts impressionnants : haute résolution (chaque pixel peut être activé indépendamment), angle de vision jusqu’à 165°, faible consommation électrique (entre 2 et 10 V), temps de réponse très court, épaisseur réduite à celle d’une carte de crédit, légèreté, etc. Ses différents avantages reposent sur une triple rupture technologique. Premièrement, l’écran n’est plus constitué d’une plaque de verre, mais d’un substrat. Deuxièmement, il repose sur des composants qui s’éclairent lorsqu’on les soumet à un courant électrique. À la différence des écrans rétro éclairés (LCD notamment), c’est l’écran lui-même (plus précisément les molécules qui le composent) qui « crée » la lumière. Il s’agit de matériaux organiques spécifiques. Leur électroluminescence est étudiée depuis une quarantaine d’années, mais il y a eu deux étapes décisives.

Dernière rupture majeure : le procédé de fabrication. Les usines d’OLED pourraient ressembler à des imprimeries ! Après avoir dévoilé il y a quelques mois un prototype d’écran OLED de 40 pouces, le japonais Seiko Epson a présenté à la presse européenne, il y a quelques années, un procédé de fabrication basé sur la technique d’impression par jet d’encre.

Toutes les fantaisies ou innovations pourraient être réalisées avec les OLED. En mai dernier, Samsung a annoncé être en train de mettre au point un écran OLED étirable de 9,1 pouces. Il pourrait aussi être utilisé dans de nombreux secteurs, comme l’automobile, les vêtements ou encore l’Internet des objets.

De son côté, LG Display a présenté il y a quelques semaines un écran OLED 4K doté d’une diagonale de 77 pouces (près de 195 centimètres). Avec une telle diagonale d’écran, la marque vise en priorité le marché professionnel et plus précisément les commerces et la publicité.

Par Philippe Richard

Taiwan veut renforcer son secteur aérospatial

Le premier ministre Lin Chuan a récemment visité l’Agence Spatiale Taïwanaise (NSPO) à Hsinchu, afin de s’informer sur la préparation du lancement de Formosat-5, premier satellite entièrement conçu à Taïwan. Formosat-5 représente une étape significative dans l’industrie aérospatiale Taïwanaise. Le prochain objectif sera de renforcer la capacité du pays à développer des technologies spatiales et à améliorer sa compétitivité internationale.
Le développement de l’industrie satellitaire ne peut pas uniquement dépendre du Laboratoire Nationale de Recherche Appliquée et de l’Organisation Nationale de l’Espace (NAR Labs – National Applied Research Laboratories) et du NSPO. Il ne reste qu’à espérer que les entreprises du secteur privé se joindront à ces efforts. Formosat-5 devrait être lancé depuis la base militaire Vandenberg en Californie le 25 août. Développé sous la houlette de l’Organisation Nationale de l’Espace, il aura fallu près de six ans et un investissement de 5,7 million de dollars taiwanais (163 million d’euros) pour développer ce satellite optique de 450 kg, équipé d’un instrument de télédétection, qui assurera le relai de Formosat-2.

Source  : http://www.diplomatie.gouv.fr/fr/politique-etrangere-de-la-france/diplomatie-scientifique/veille-scientifique-et-technologique/taiwan/article/taiwan-veut-renforcer-son-secteur-aerospatial

Les Rendez-Vous CARNOT 2017

RDV Carnot 2017

Le Rendez-vous de la R&D pour les entreprises

Ce salon d’affaires organisé par l’Association des instituts Carnot met en relation depuis 10 ans, les offreurs de solutions R&D et les porteurs de projet d’innovation des entreprises, avec une efficacité reconnue, en organisant des plannings de rendez-vous individuels et programmés à l’avance.

Grace à un portail de mise en relation unique, sélectionnez en amont de l’événement les participants que vous souhaitez rencontrer pour constituer votre agenda idéal de rendez-vous qualifiés et pré-programmés.

VISITEURS PORTEURS DE PROJETS D’INNOVATION D’ENTREPRISES

Vous bénéficiez d’une invitation gratuite comprenant l’accès aux Rendez-vous d’affaires et aux conférences.

  • RENCONTRER LES EXPOSANTS ACTEURS MAJEURS DE LA R&D

Ce sont des structures de R&D, laboratoires publics et privés, et des structures de soutien et d’accompagnement pour l’innovation des entreprises.

  • PARTICIPER AUX CONFERENCES ET TABLES RONDES POUR LES ENTREPRISES

Les conférences et tables rondes se dérouleront en parallèle de vos rendez-vous d’affaires et sont intégrées dans votre planning de participation en fonction de vos demandes.

Episode # 4: Marc Bristow

Janvier 2086 — Terre

Depuis quelques jours, le jeune Marc Bristow tentait de venir à bout de sa besogne. Ingénieur de formation et colonel de l’armée, il devait, avec l’aide de confrères, mener à son terme l’un des derniers chantiers de l’humanité : le village lunaire et sa station de décollage interplanétaire. Cela faisait déjà quelques décennies que les humains songeaient à retourner sur leur petit, mais pas si anodin, satellite. Force était de constater que le projet pour Mars était également extrêmement récent. On n’avait simplement pas pu ignorer la Terre bien longtemps, et l’explosion démographique avait conduit à faire réagir la haute sphère en revoyant les priorités humaines. L’implémentation d’une économie circulaire partielle dans l’alimentation notamment, avait permis de réaménager les zones agricoles. Les pays avaient ainsi créé de véritables régions urbaines futuristes sur une bonne moitié d’entre elles en moyenne, tandis que la nature avait repris ses droits sur les hectares restants. Ces mesures instaurèrent un équilibre certes imparfait, mais relativement efficace dans cette ère anthropocène.

Dans deux mois, M. Bristow devait se rendre sur la lune, d’où décollerait la première navette qui ferait un arrêt sur Mars, avant de partir en expédition. Parmi les différents cadres scientifiques de l’agence mondiale de l’exploration spatiale, issue de la fusion de plusieurs entités gouvernementales spécialisées dans ce domaine, c’est lui qui avait été choisi. D’un premier abord, c’était un honneur d’être l’ambassadeur de ce moment aussi important que la mission Apollo 11 ou aussi marquant que les voyages de Christophe Colomb. Il aurait droit à sa page dans l’Histoire… oui, mais c’était la théorie. Marc savait que les livres oubliaient les parties parfois bien moins trépidantes de la vie de ces figures. Il lui fallait certes décoller avec ce bijou de technologies qu’était le Leif Erikson ; hommage aux Vikings qui furent les premiers Européens à fouler le sol américain ; mais aussi participer à la conférence.

Pour ce jour particulier, les organisateurs avaient décidé de retracer l’histoire de l’homme et plus particulièrement des technologies. Depuis que la science-fiction existait et que l’être humain cultivait une fascination pour l’avenir, c’était devenu un exercice commun. L’un des plus notables remontant à la comparaison de l’année 2016 avec le très célèbre « Retour vers le futur ». La fédération choisit ainsi non pas un film, mais un événement particulier datant de 2016. Cette année-là, des éditions scientifiques avaient décidé pour leur anniversaire de réaliser un concours. Le thème ? Imaginer le monde de 2086 et son façonnage par les sciences et techniques. Marc Bristow devait analyser les textes lauréats ainsi que les illustrations qui ne manquèrent pas de l’amuser pour certaines. Il se souviendrait longtemps de l’image d’un univers futuriste, ou se mêlait des formes design avec des navettes dans chaque recoin, un monde de verdure et de glace… pourtant en regardant sa fenêtre il ne se trouvait toujours pas dans une scène du « Cinquième Élément », mais la végétation était bien là.

Mars 2086 – Terre

Il restait un peu plus d’une semaine pour parfaire son discours. Marc allait bientôt devoir quitter son appartement terrien pour son logement lunaire. Le dépaysement n’était pas si grand, les locaux ressemblaient tous à ceux sur Terre. Seules quelques différences en matière d’alimentation étaient notables. Sur Terre, l’autosuffisance énergétique et alimentaire était aujourd’hui un acquis pour tout un chacun. Marc se leva ainsi comme à son habitude, réveillé par son alarme, tandis que la baie vitrée qui occupait la façade extérieure changeait d’apparence. La vitre connectée générait une partie de l’électricité de la maison par le biais des cellules photovoltaïques transparentes recouvrant la quasi-totalité des surfaces électriques.

Cet écran géant qui permettait d’obtenir l’ambiance de son choix modula petit à petit son opacité pour laisser entrevoir les rayons lumineux ainsi que les zones d’affichage standards et personnalisables. Marc accéda ainsi rapidement à la météo du jour, ses rendez-vous et son planning qui lui rappelèrent bien vite qu’il n’avait pas le loisir de rêvasser, il partait dans une semaine, et devait finir son étude de textes pour la cérémonie. Ses dernières journées avaient été tellement occupées par la vérification des calculs pour les réacteurs à fusion de la fusée qu’il n’avait pas eu le temps de beaucoup avancer. Il mit ses lentilles bioniques, venues remplacer les lunettes de réalité augmentée. L’optique et le génie des matériaux biocompatibles couplés aux systèmes d’affichage avaient fait des miracles. Arrivé dans son salon, les détecteurs activèrent son rituel matinal ; bien que cette automatisation ne soit pas sa préférence en temps normal. Il était de ceux qui aimaient encore se procurer leurs denrées eux-mêmes. Plusieurs appareils étaient en place dans son logement, devenu abordable pour tout : systèmes d’aquaponie connectés, bioréacteurs personnels de spiruline, d’insecte… Lorsqu’il n’avait vraiment pas le cœur à cuisiner, mais souhaitait garder la main sur son menu, il lui restait toujours son imprimante alimentaire. Chaque aliment, qu’il soit cueilli ou bien fabriqué, était disposé sur un plateau électronique qui les scannait et lui permettait de conserver un régime équilibré, comme tout bon sportif et militaire en activité. Depuis quelques semaines, alors que les heures supplémentaires étaient de mise, il ne se refusait pas la chance d’utiliser ses robots ménagers. Ce qui lui donnait la possibilité de programmer son petit-déjeuner. Le gain de temps n’était pas un ennemi à la diversité. Il pouvait modifier son menu à tout moment en étant connecté par le biais de ses lentilles et autres dispositifs portables. Mais ça restait loin de son goût pour la cuisine qu’il pratiquait lorsqu’il en avait le temps.

Il s’installa dans la salle à manger devant son petit-déjeuner, tout en faisant apparaître les textes sur la surface de la table, fragmentant la zone en affichant une partie pour la prise de notes à reconnaissance vocale.

Sirotant tranquillement son café, il parcourut les quelques pages d’une nouvelle tout droit sortie de la publication des Éditions Techniques de l’Ingénieur 2016.

– Alors, comme ça les gens prévoyaient déjà que les surfaces tactiles et souples révolutionneraient le monde… l’imagination est bien la source du savoir.

Il continua sa lecture et découvrit beaucoup de petits détails qui le firent sourire. Les technologies qui forgèrent son enfance et sa vie d’adulte trouvaient leur origine dans bon nombre de projets du début du siècle. Il constata que la domotique avait maintenant sa place dans chaque foyer. Qui n’avait pas de robots d’assistance personnelle ? Certes, les travers de l’intelligence artificielle étaient contenus en ne donnant pas plus d’importance à ces automates qu’à un balai, mais ils étaient bien utiles ! C’en était fini des travaux pénibles tels que : l’usine, le ménage… les androïdes s’en chargeaient. Mais il restait bien sûr des emplois pour les concevoir !

Le second point qui attira son attention fut lorsqu’il arriva sur les créations graphiques et illustrations. Elles étaient toutes indéniablement magnifiques. Les lauréats n’avaient pas volé leur place. Ce fut le contenu, plus que la forme, qui l’interpella. Si certaines, utopies, le firent rêver avec des stations de téléportation, d’autres étaient criantes de réalisme. L’une d’elles dépeignait l’ancêtre de la médecine de son époque. Sur l’image, un système de production en temps réel d’organes était représenté aux côtés de prosthétiques bioniques. Ce n’était pas si loin de la vérité. Les parties humaines étaient remplacées et les personnes pouvaient avoir accès à des augmentations bio électroniques. Ces dernières restaient peu démocratisées du fait de leur prix. Toutefois, l’armée en était friande grâce aux interfaces neuronales issues des découvertes réalisées à l’aide de technologies telles que les memristors. Enfin, lorsque les troupes humaines étaient encore de mise entre les machines en tout genre qui peuplaient les fronts. De ce côté, Marc lui-même avait déjà remplacé un rein défectueux et subit une greffe neuronale pour son bras, perdu en servant la patrie. Le bénéfice majeur de cette évolution médicale était la fin des listes d’organes. Se remémorant ces détails qui lui paraissaient acquis, il réalisa sa chance en comparant sa vie avec celle du début du millénaire. Pensif, il sortit une fiche électronique translucide de sa poche. Il posa ce petit système sur l’image de la table avec les prothèses. Objet qui lui avait permis de profiter si facilement d’une autogreffe lors de son opération des reins.

– L’être humain sait faire des merveilles en fin de compte, s’avoua le jeune officier.

En effet, depuis longtemps le génome humain était maîtrisé : chacun possédait cette carte cryptée ainsi qu’un matricule pour, entre autres, les banques génomiques et de cellules-souches. Ce système de santé permettait d’utiliser les informations du patient dans les outils d’impression des hôpitaux. Matériel indispensable qui serait embarqué sur la navette spatiale pour mars.

En se levant pour se rendre dans son bureau, il fit tomber sa tasse.

– Non… pas encore… se plaignit-il voyant sa tasse, vide, brisée sur le sol.

Un des robots se dirigea immédiatement sur la zone sinistrée pour ramasser les débris.

– Souhaitez-vous remplacer la tasse ?

– Oui, fit Marc las d’acheter des matières premières faute d’attention.

Les hologrammes qui utilisaient la technologie de réalité augmentée de sa lentille couplée à des capteurs environnementaux s’activèrent. Plusieurs objets grandeur nature ou avec zoom étaient visibles, dont celui qui venait d’être cassé, proposé par défaut. Le colonel fit défiler les modèles avant de se rabattre sur un design original, d’une nouvelle couleur et en céramique, soulagé de constater sur l’affichage que la quantité de matière en stock était suffisante. Après validation du prototype, la tasse imprimée en 3d fit son entrée dans les placards vitrés de la cuisine. Rangements qui n’accueillaient que le strict minimum. S’assurant cette fois que tout était parfait il rejoignit son bureau pour rédiger son discours en parcourant les quelques récits et illustrations restants.

Mars 2086 – Village Lunaire

Après un voyage entre la Terre et la Lune, Marc était enfin arrivé dans ses quartiers. Il avait pris place dans la base militarisée, à quelques mètres de la zone où il donnerait son discours, avant le décollage.

Après une vérification, qui dura plusieurs jours, des différentes équipes qui partiraient à bord du Leif Erikson, le colonel prit le temps de se poser. Le jour de son allocution était proche. Plus que 24 heures avant de déclamer, aux yeux du monde, son analyse des technologies du 21e siècle… lui qui n’était ni écrivain ni historien.

Le jour J. le colonel Marc Bristow se dirigea solennellement vers son dressing numérique. Il choisit un uniforme de circonstance parmi les hologrammes affichés. Une fois sélectionnés, les vêtements, pliés et immaculés, étaient acheminés par une trappe. La numérisation intégrée à ce dressing avait permis de fournir un uniforme adapté à sa physionomie parmi les stocks de la station, même si la fabrication en temps réel sur mesure était également possible. Ces options étaient bien utiles dans la vie de tous les jours, d’autant que, depuis son dernier séjour sur la lune, le colonel avait augmenté sa stature grâce à ses entraînements. Tout en se préparant il fit défiler ses messages et le planning de sa journée en connectant sa montre d’un simple contact avec le mur.

Tout était en ordre.

Il enfila une paire de chaussures, mit ses lentilles et se rendit dans la salle de cérémonie. En entrant dans l’arrière-salle, le colonel jeta un œil à son discours en activant ses lentilles. L’avantage certain de ces verres de contact était de ne plus avoir l’air de lire bêtement des notes… personne ne les voyait, maintenant.

Tout était prêt. Un présentateur lui fit signe de monter sur l’estrade. Les télévisions présentes retransmettaient en direct sur Terre. Ce n’était pas tous les jours qu’on lançait la première mission humaine d’une telle ampleur. L’avancée technologique et l’endiguement des effets anthropiques néfastes sur le climat n’y étaient pas pour rien. Il remercia la foule : entre dirigeants, militaires, civils sélectionnés pour Mars, communautés scientifiques… l’audience était variée.

– Bonjour à tous, aujourd’hui… il s’arrêta brusquement l’air affolé.

Il scruta les personnes présentes, personne ne semblait entendre la sirène stridente qui s’était soudainement mise à résonner. C’était l’alarme d’urgence. Il tenta de se ressaisir. Il était le seul à paniquer.

Le bruit continua de plus belle. Aucun doute possible : leur vie était en jeu.

– Évacuez sur le champ ! s’écria-t-il face à des spectateurs interloqués.

Sa tête fit non pas un, mais deux tours… il saisit ses oreilles. Ce bruit lui était insupportable et rien ne semblait en expliquer la cause. Il devait y mettre un terme… Seul, il ferma les yeux, désespéré.

Le noir complet l’enveloppa. L’alarme résonnait encore dans la pénombre. Telle une sirène qui cherchait à réveiller les morts. Tout devint noir.

Dans une chambre, quelque part sur Terre en 2016, un jeune garçon se réveilla en trombe et éteignit son alarme d’un coup sec. Il était 7 h 30. Le son aigu qui avait marqué la fin de son escapade imaginaire dans le futur s’arrêta enfin. Les yeux à peine ouverts, il n’avait pas encore perdu le fil de ses pensées, mais elles se dissipèrent peu à peu…

– Ah… où j’ai mis mon crayon ? se lamenta-t-il, à peine réveillé.

L’auteur amateur venait une fois de plus de rêver son récit. Le sommeil : véritable muse et fléau pour tant d’artistes qui peinaient à retranscrire sur le papier ces péripéties et pépites qui se perdaient dans leur esprit embrumé du matin.

L’écrivain, ayant trouvé son stylo, s’empressa de noter sur une feuille son songe durant lequel il avait incarné le rôle d’un jeune ingénieur, ambassadeur des humains lors du premier voyage par-delà Mars.

Le temps jouait contre lui s’il souhaitait soumettre son texte au concours de nouvelles, afin de partager le regard qu’il portait sur le monde de 2086.

C. M. Lewden

La reconnaissance faciale cherche le bon profil

Le procédé mis au point par Hitachi Kokusai Electric pourrait intéresser de nombreux pays dans leur lutte contre le terrorisme. À partir d’une photo ou d’images prises par une caméra de vidéosurveillance, il serait capable d’identifier en temps réel une personne parmi 36 millions !

Le constructeur n’a pas dévoilé ses secrets. Il a par contre confirmé que son système n’était pas encore optimisé. Pour obtenir une bonne détection il faut que les visages mesurent 40 x 40 pixels et qu’ils se présentent sous un angle maximal de 30° verticalement et horizontalement par rapport à la caméra (seules des images en 3D permettent de contourner cet obstacle). Sans parler bien sûr de l’exposition du visage à la luminosité. Selon son intensité, la détection est plus ou moins pertinente.

Malgré tout, Hitachi Kokusai Electric annonce sa commercialisation d’ici un an. Il vise en priorité les domaines des chemins de fer, des centrales électronucléaires et des grandes surfaces. Utilisée principalement pour l’identification (contrôle aux frontières) et la délivrance de documents d’identité, la biométrie faciale a connu un essor suite aux événements du 11 septembre 2001.

La plus grande expérience a eu lieu en janvier 2001… au Raymond James Stadium de Tampa en Floride. À l’occasion du Super Bowl, la police de la ville a filmé, à leur insu, le visage de plusieurs dizaines de milliers de personnes qui entraient dans le stade. Un système de reconnaissance de la forme du visage a ensuite comparé tous ces portraits aux images contenues dans des bases de données. Objectif : identifier des terroristes et des criminels dans la foule. Mais aucune arrestation n’a été menée.

À ce jour, aucun traitement informatique n’a réussi à égaler le couple œil humain + mémoire. Les premiers travaux ont été réalisés par le professeur Teuvo Kohonen en 1989, chercheur en réseaux neuronaux de l’Université d’Helsinki, et ceux de Kirby et Sirovich (1989) de l’Université Brown du Rhode Island. Celui-ci avait mis au point au Massachusetts Institute of Technology of Boston (MIT) un système de reconnaissance du visage nommé eigenface.

La reconnaissance faciale consiste notamment à extraire des caractéristiques du visage qui sont conservées dans une base de données. Par exemple, le eigenface décompose l’image bidimensionnelle capturée en une série d’images teintées avec des nuances de gris différentes. Quant au feature analysis, son dérivé, il est un peu plus souple puisqu’il permet de mieux prendre en compte les déformations du visage, l’éclairage et les angles horizontaux et verticaux.

Début 2014, des chercheurs de l’université de Hong Kong avaient présenté leur algorithme nommé GaussianFace. Il était capable de gérer différentes composantes parfois mal analysées par certains systèmes : un mauvais éclairage ou des changements physiques (maquillage, coupe de cheveux) ne seraient pas un problème pour ce super-système.

Mais la théorie ne correspond pas à la réalité. Et c’est sur ce point que bute cette solution. Sa performance est liée à plusieurs paramètres essentiels et en particulier la qualité de l’image. Elle dépend en grande partie du contexte dans lequel la biométrie faciale est captée. « Il faut bien distinguer les usages qui relèvent de l’authentification en situation dite “coopérative”, c’est-à-dire lorsque la personne se prête volontairement à la captation de son visage (et suit les consignes qui lui sont données) et ceux pour lesquels la captation s’effectue de façon “non coopérative” à des fins d’identification », avait précisé Claude Bauzou, chef de produit chez Morpho (groupe Safran, leader mondial des technologies de reconnaissance biométrique) au site securiteoff.com.

Par ailleurs, la fiabilité de la reconnaissance faciale dépend de l’étendue et de la qualité des bases de données accessibles.

Philippe Richard

Episode #3: Energie

Ce fut dans la plus grande intimité que l’inauguration de la première rame de métro fonctionnant à la chaleur humaine eut lieu. Après un discours du Ministre des Nouvelles technologies, on procéda au premier lancement de la rame. Grâce au dur labeur d’une équipe d’ingénieurs, ce procédé élaboré à une plus petite échelle au tout début des années deux mille, put enfin voir le jour. C’est avant tout dans un but écologique et économique qu’il fut mis au point. Chaque wagon de la rame est équipé, du sol au plafond, de matériaux récepteurs de chaleur dont la fonction est de capturer la chaleur humaine émise par les passagers puis de la transformer en énergie. Des générateurs placés dans des coffres au plafond, permettent de stocker l’énergie recueillie. En cas de panne, des batteries de secours prennent le relais.

«Mouais» se dit Anton à la lecture de l’article.  «Manquait plus que ça. Se faire du pognon sur notre dos, en plus de l’abonnement mensuel aux Transports Urbains. Encore si c’était gratuit 
Il déposa le journal sur la pile des autres quotidiens et continua son chemin.

Le mec du kiosque le héla : «Si tu lis, tu paies ! Ce n’est pas la bibliothèque ici !»

Anton ne daigna même pas se retourner, et continuant sa marche, il pointa son majeur en l’air.

L’apostrophe du commerçant, l’ayant quelque peu agacé, eut pour conséquence l’émergence d’une foule de pensées s’enchâssant les unes dans les autres : pourquoi voulait-on qu’il paie une information que l’on trouvait gratuitement partout ? De nos jours, les actualités, les publicités, tout était diffusé en boucle sur les écrans géants qui inondaient la ville, au cas où on aurait loupé un truc. La fameuse ère du numérique, Les grandes marques, avaient envahi les écrans, défilant les unes après les autres, invitant chacun de nous à leur soumettre leurs idées. Ils appelaient ça «La boîte à idées» suivie de l’argument «aider nous à nous améliorer» délester les clients de leurs inspirations, devenait beaucoup moins cher que de payer des collaborateurs pour leur créativité. Le beurre et l’argent du beurre. Un peu dans la même veine que ce qu’il venait de lire à l’instant. Et il n’y avait pas à chercher bien loin pour en connaître leur source d’inspiration. C’était là sous leurs yeux.

Les générations passées ne s’étaient souciées que d’elles-mêmes. L’individualisme régnait, s’élargissant au maximum à la sphère familiale, ce qui au final revenait au même puisqu’en dehors de ce cercle les autres n’existaient pas. Tous voulaient profiter, assouvir leurs envies. Comment leur en vouloir, lorsque, à chaque coin de rue, les panneaux publicitaires vous invitaient de manière provocante à profiter de la vie, de l’unique vie qui s’offrait à vous ? La population ne voulait pas s’éduquer à économiser les ressources ! Et ce, malgré les efforts des organisations nationales dont les campagnes d’information et de prévention avaient eu très peu d’impact, la majeure partie étant dépourvue de conscience écologique.

Et maintenant il fallait faire preuve d’un monstre d’ingéniosité pour produire de l’énergie. Durant des décennies, l’état dépensa des sommes folles pour acheminer l’énergie nécessaire à l’ensemble des activités : éclairage public, transports, chauffage. Le territoire étant peu fourni en énergie fossile, il lui fallait tout importer : uranium, pétrole, gaz naturel et la seule matière dont il disposait à profusion avait été frappée d’interdiction d’exploitation en raison de sa forte nocivité et de la mauvaise gestion de ses déchets radioactifs. Puis les réserves en énergie fossiles des pays exportateurs s’étaient épuisées d’années en années, à une vitesse fulgurante. Les estimations concernant ces réserves s’avéraient erronées, elles avaient fondu comme neige au soleil. Ajouté à cela, des hivers de plus en plus rigoureux qui en avaient accéléré la consommation : de cent ans prévu, on était passé à une cinquantaine d’années. Sans compter que la population avait quadruplé en cinquante ans et que les progrès en médecine entravaient l’autorégulation de la population terrestre : ceux qui devaient mourir, ne mourraient plus…

D’autres mesures avaient été mises en place au début du millénaire avec la loi Réduction énergétique : tout bâtiment public ou privé, tout véhicule terrestre ou maritime, sur le sol national, devait se doter de panneaux photovoltaïques. Les rayons solaires ainsi captés étaient transformés par la suite en courant électrique ce qui permettait de réduire considérablement les dépenses de l’état en électricité tout en produisant l’intégralité des besoins énergétiques d’un foyer et cela gracieusement, grâce au soleil. D’une pierre deux coups, la face des bâtiments qui recevait le moins de soleil devait être recouverte de végétaux. La pluie qui battait les bâtiments était récupérée par la végétation, filtrée, puis stockée dans les sous-sols en attendant d’être puisée à des fins sanitaires.

La fin du pétrole arrivait et la transition énergétique devenait urgente. L’état versait même une subvention à titre d’aide pour la pose des panneaux solaires et du matériel de filtrage. Il ne restait plus qu’à produire le reste. Et pour le reste, on comptait depuis fin 2020, sur l’ingéniosité des scientifiques. On parlait de révolution nucléaire. Ils étaient pressés comme des citrons pour mettre les bouchées doubles afin de mettre au point la centrale nucléaire dernière génération, celle qui permettrait d’exploiter l’uranium dans son intégralité, sans production de déchets, ce qui garantirait à l’humanité entière de l’énergie pour plusieurs siècles. Et pour ceux qui étaient insensibles au stress, la fin toute proche du pétrole et du gaz naturel avaient créé entre eux une sorte d’émulation.

En ce matin d’hiver, le froid régnait en souverain, gelant la moindre parcelle de chair découverte. Le visage mordu par le froid, Anton, tout à ses ruminations internes, était bien heureux de s’engouffrer dans le Souterrain, havre de chaleur éphémère. Il passa les portillons en apposant son empreinte digitale sur le lecteur. Celle-ci était désormais le seul et unique sésame. Garante de votre identité, l’usurpation en était impossible, quant aux pertes improbables. Chaque paiement, chaque réclamation, chaque contrôle se faisait par celle-ci.

Accroché à la barre métallique du métro, en mode autopilote, toute pensée constructive avait déserté son cerveau, seul régnait le vide, vide identique à celui qui l’entourait, malgré la présence des autres passagers. Tous arboraient un visage figé, tel un masque, regardant dans le vide comme si les autres n’existaient pas. Ils n’étaient que de passage, des passagers. La chaleur de la barre métallique dont il en savourait inconsciemment la chaleur le sortit de sa torpeur. Fallait y penser, quand même ! s’exclama-t-il. C’était une évidence, la barre métallique capturait la chaleur. Il vérifia la ligne, non ce n’était pas celle dont la rame venait d’être mise en service. Manquait plus que ça, qu’on lui pompe son énergie sans son consentement !

Durant la fin de son trajet, Anton se laissa submerger par le souvenir de la conversation qu’il avait eu avec son boss. Son travail de détective privé le missionnait pour les jours à venir dans un coin perdu du pays : «Voilà le topo, lui dit-il, on raconte que l’une des anciennes grande compagnie pétrolière mène des expériences un peu spéciales. Le PDG, non remis de la chute de son empire, a engagé des chercheurs afin de produire du pétrole de synthèse. Des rumeurs courent sur le PDG : on aurait vu ce dernier à plusieurs reprises se vanter à qui voudrait l’entendre sur le succès de ses recherches et que les affaires allaient bientôt reprendre. On a besoin de ses formules de synthèse, et tout ce que tu trouveras sur l’avancée de ses recherches. Son laboratoire est en pleine campagne, tu ne pourras pas le manquer il domine sur des lieux à la ronde perché sur un bloc rocheux au-dessus d’un ancien tunnel ferroviaire.» Puis lui remettant une enveloppe : «À l’intérieur, tes frais. Tu commences demain en tant que technicien de surface

Technicien de surface, pff ! Son boss lui trouvait toujours comme couverture le job le plus pourri de la hiérarchie, paraîtrait que ça éveille moins les soupçons !

La route jusqu’au bâtiment se déroula sans encombres et son immersion dans l’entreprise fut des plus simples : «Voilà vos outils de travail, lui dit l’homme qui l’accueillit en lui ouvrant le placard à balais, vous ferez en sorte que la propreté règne

Muni de ses balais, chiffons et serpillières, il mit deux jours pour se repérer dans ce labyrinthe. Une fois ses repères en place, pénétrer dans le laboratoire fut un jeu d’enfant. La première fois, il y resta à peine quelques minutes de peur de se faire surprendre : des pas résonnaient dans le couloir annonçant l’approche de leur propriétaire. Mais la deuxième fois, Bingo, les informations s’étalaient sous ses yeux sur un long tableau blanc. Le temps lui était compté. Il regarda les informations, se dit qu’il devait y avoir une erreur. Regarda de plus près. Non, pas d’erreur. C’était le projet d’un fou. Et que ce fou en question devait rapidement être interné. Il lui était impossible de se concentrer. Son cerveau était en ébullition. Sa découverte lui emplissait la tête de questions. C’était un brouhaha sans cesse dans son esprit, comme s’ils étaient plusieurs à prendre la parole en même temps, une véritable cacophonie. Comment pouvait-on en arriver là ? Qu’est-ce qui pouvait bien animer les hommes pour les conduire à de tels actes ? Anton respira profondément, tout en essayant de ramener le calme dans son esprit. «Expire, Inspire, Expire, Inspire» s’imposait-il à haute voix. OK. Bon. De son doigt, il fit une légère pression sur son tragus gauche activant ainsi sa puce cellulaire, articula le nom de son chef et fut mis en relation directe avec ce dernier : «Salut Bob, je vais faire vite, ne m’interromps pas. Ce mec est complètement taré ! La matière première qu’il utilise est plongée dans un bassin où sont cultivés des organismes qui la digèrent. Ce qu’il en reste, est mélangé à des matières minérales. Puis le tout est tassé par d’énormes pistons où s’amoncellent par-dessus de nouvelles matières premières qui sous l’effet du poids enfoncent les premières. Le processus de formation du pétrole est reproduit ici en accéléré, mais sans utiliser de matière organique d’origine marine ! Je ne sais comment, ils en obtiennent une roche dure qu’ils chauffent progressivement pour atteindre les températures géothermiques. De là se forme une substance qu’ils appellent «pétrole synthétique» . Je t’ai gardé le meilleur pour la fin : la matière première qu’ils utilisent est constituée de : cadavres !!! Ne me demande pas comment ils font pour l’obtenir, je ne sais pas. Faut que j’y aille

Anton sortit rapidement du laboratoire, cherchant une issue à l’enfer qui prenait forme sous ses yeux. Complètement troublé, il ne retrouvait pas l’entrée par laquelle il avait pénétré dans l’enceinte du laboratoire. Merde, se disait-il, comment je vais faire pour sortir d’ici ? Sous la panique, il franchit la première porte sur sa droite. Un escalier. Il le descendit à toute allure, cela lui parut interminable. Il finit par déboucher sur un long tunnel. Les paroles de son chef lui revinrent en mémoire : «le laboratoire est situé sur un bloc rocheux au-dessus d’un ancien tunnel ferroviaire…».

Soulagé, content d’avoir trouvé la sortie, il se dirigea vers la lumière. Mais plus il se rapprochait, et moins cela ressemblait à la lumière naturelle du soleil. Quelque chose était entreposée au milieu du tunnel, on aurait dit un véhicule. C’était bien ça. Un wagon. Un wagon gisait au milieu du tunnel abandonné ! Des lamentations en sortaient. Plus il s’en approchait, plus les voix étaient suppliantes. Que pouvait-il bien avoir à l’intérieur ? Pourquoi ces plaintes ? Son instinct lui disait que ça sentait le roussi, qu’il devait partir le plus vite possible s’il souhaitait rester en vie. Malgré ça, il ouvrit la porte du wagon.

Une énorme bouffée d’air chaud aux relents de transpiration, de rance, et d’odeurs corporelles s’immisça dans ses narines. Il eut un haut-le-cœur. Jamais, il n’avait senti odeur pareille. Les gémissements s’intensifièrent. De longues plaintes, dont toutes forces avaient abandonné depuis longtemps les voix, suffocantes, présageaient du pire. La curiosité l’emporta sur son dégoût. Il se hissa sur la marche à hauteur de la porte. Foudroyé par le spectacle qui s’offrait à ses yeux, il en fut pétrifié. Le wagon était rempli d’hommes et de femmes dénudés, à la peau rougie par la chaleur régnante, couverte de plaies ruisselantes de gouttes de sang, leurs cheveux suintant se collant à leur crâne, à leur peau. Tous étaient entassés, debout, les uns contre les autres, dégoulinant de sueur. Le wagon en lui-même avait été conçu exclusivement à cet effet. Des barres métalliques se dressaient tous les vingt centimètres, le sol et les parois du wagon étaient recouverts du même alliage que les barres, de sorte que toutes les parties du corps était ainsi en contact avec le métal : mains, pieds, dos, poitrines, fesses et cuisses. À chaque barre son corps. Les mains étaient insérées dans des menottes accrochées au plafond, de part et d’autre de la barre, celle-ci enlacée par un corps nu pour recueillir la moindre source de chaleur. Des hottes aspirantes avaient été installées pour recueillir le surplus de chaleur produit par le surnombre des corps.

Comme du bétail. Anton eut un flash : l’article du journal.

Il ne vit rien venir. Il encaissa un coup sur la tête qui le fit vaciller puis fut violemment poussé à l’intérieur du wagon. Son bourreau lui lacéra ses vêtements. Sur les visages se lisaient la terreur et le désespoir. Il allait devenir comme eux, voilà où le menait sa curiosité. Les gémissements lui devenaient insupportables, il aurait voulu leur crier de se taire, mais nulle force n’habitait sa voix. Il n’émit aucune objection, ne fit aucun mouvement de contestation. Il était à présent nu. Son corps vidé en apparence de toute vie, avait pris l’aspect d’une poupée de chiffon. On entrava ses mains aux menottes suspendues. Sa vie allait-elle se terminer ainsi, en servant de combustible ? Dans un ultime effort, il rassembla ce qu’il lui restait de force, il banda tous ses muscles et dans un cri digne d’un superhéros, essaya d’arracher les menottes du plafond. Les autres virent en ce mouvement une lueur d’espoir. Tous se joignirent à lui, tel des vers gesticulant, couinant.

« Vos gueules » aboya le bourreau. L’union fut vaine. En guise de récompense pour le courage qu’il eut, on l’électrocuta jusqu’à l’évanouissement.

Tout en regagnant la porte, le bourreau dicta à son collègue : « Éteins, s’te plaît, le Boss va pas être content si on gaspille de l’énergie ».

Nouara Bouchenna

Est-on prêts à se sevrer du pétrole ?

D’un point de vue technologique et organisationnel, de nombreuses études montrent qu’il devient réellement possible de se passer massivement des énergies fossiles (charbon, gaz, pétrole) sans pour autant se passer du confort que leur emploi pour l’énergie ou les produits manufacturés a apporté. Depuis quelques années, les ONG environnementales appellent les autorités à opposer une réelle volonté politique et à mettre en place des actions fortes pour amener la France et l’Europe vers un sevrage des énergies fossiles. Le plan climat présenté par Nicolas Hulot et le plan national de bioéconomie sont-il les marquants d’un changement de paradigme ?

La facture des énergies fossiles

Selon les données du ministère la facture énergétique de la France s’élevait en 2016 à plus de 30 Md d’euros. Un chiffre encore élevé même s’il est à la moitié de son niveau de 2012/2013 où il a atteint entre 65 et 70 milliards d’euros. Ceci essentiellement grâce à une baisse du cours des produits pétroliers (-70%) plus que d’une baisse de la consommation (-2%). Les exportations d’électricité ne suffisent pas à compenser cette dépense puisque l’excédent est à peine d’1 Md euros pour 2015-2016. Réduire cette dépendance aux produits fossiles pourrait permettre de substantielles économies, une amélioration de la balance commerciale et un impact carbone moindre. En tout état de cause, ces motivations permettent de justifier la pression accrue vers une sortie de la dépendance aux énergies fossiles.

La bioéconomie, solution miracle ?

La bioéconomie, économie fondée sur l’exploitation optimale des ressources biologiques (principalement biomasse qu’elle soit agricole, forestière, maritime ou issue de co-produits et de déchets) est en plein essor. De nombreuses avancées permettent aujourd’hui la fabrication de produits et substances biosourcées rentables et innovantes (voir dossier du mois de juin). Officiellement lancée en janvier 2017, la stratégie nationale pour la bioéconomie a fait entrer la France dans le cercle des nombreux pays européens qui s’inscrivent dans une volonté politique forte de diminuer leur dépendance au pétrole via un appel massif à la biomasse. L’originalité d’une telle politique tient au fait qu’elle doit unifier et construire une politique en la matière avec toutes les parties prenantes : des producteurs de biomasse aux transformateurs et utilisateurs ainsi qu’à la société civile (ONG environnementales notamment) afin de construire une économie sans pétrole, durable et circulaire. Le plan concret issu de cette stratégie est actuellement en discussion et une version finale doit être présentée mi-septembre.

Cependant, la bioéconomie n’est pas sans risque notamment celui de surexploitation des ressources naturelles ou d’atteinte à la sécurité alimentaire. Comme le soulignait le CESE dans son évaluation présentée en mars 2017 : elle nécessite un contrôle des autorités publiques pour assurer une vision à long terme, des règles stables d’accès aux ressources et d’affectation des sols, l’établissement de critères d’évaluation de la durabilité (environnementale, économique et sociale) tant au niveau local que national.

Un plan climat complémentaire

Le plan climat présenté par Nicolas Hulot le 6 juillet dernier doit donner le ton de ce quinquennat : faire entrer la France dans une économie décarbonée et qui met fin à l’appel massif aux énergies fossiles en cohérence avec les objectifs de l’Accord de Paris. Parmi les axes marquants de ce plan on peut ainsi noter : la fin de la commercialisation des véhicules essences et diesel pour 2040 et une production d’électricité sans énergies fossiles poursuivant une réduction de la part du nucléaire et la mise en place d’outils de finance verte et un soutien accru à la recherche scientifique.

Ces différents éléments sont des signes forts d’une volonté politique d’entrer dans une transition écologique. Reste à transformer ces objectifs en actions concrètes. Avec les budgets qui vont avec. Sachant que les « pays du pétrole » et les multinationales de l’énergie sont des lobbyistes puissants qui feront tout pour freiner cette transition tant qu’ils ne seront pas prêts à y trouver leur compte.

Sophie Hoguin

Recrutements de cadres : des niveaux inégalés entre 2017 et 2019

L’Association pour l’emploi des cadres a élaboré un modèle économétrique qui permet de déterminer des prévisions de recrutements de cadres à un horizon de 3 ans. Celui-ci met en évidence la relation étroite existant entre les recrutements de cadres, les investissements, la croissance et les départs à la retraite de cadres en poste. Le scénario retenu par l’Apec, dans le cadre de ce modèle est celui d’une « croissance soutenue ».

cap-apec1

Les conditions d’une reprise économique soutenue semblent enfin réunies après plusieurs années d’une croissance française atone ou au mieux bridée. En effet, dans la lignée d’un dernier trimestre 2016 bien orienté, elle devrait s’accélérer avec une hausse prévue du PIB de 1,6 % sur l’ensemble de l’année 2017. Cette performance se rééditerait en 2018 et s’amplifierait jusqu’en 2019 pour atteindre +1,8 %.

cap-apec-2

L’amélioration serait liée à différents facteurs au premier rang desquels, on retrouve l’investissement des entreprises. Portés par des perspectives d’activités bien orientées, ainsi que par le faible coût du capital et la progression du taux d’utilisation des capacités de production, les agents économiques devraient intensifier leurs dépenses d’investissement. Ceci malgré la fin de la mesure fiscale de suramortissement effective en avril 2017. Dans le même temps, l’investissement des ménages en biens immobiliers devrait se montrer dynamique, favorisé par des facteurs temporaires tels que l’assouplissement du prêt à taux zéro, la loi Pinel, et les taux d’intérêt bas.

Au total, la Formation Brute de Capital Fixe pourrait progresser de +2,3 % en 2017. Cette hausse gagnerait en intensité en 2018 (+2,9 %) et en 2019 (+3,3 %). Le secteur de la construction devrait également retrouver des couleurs, au même titre que l’industrie manufacturière, avec des carnets de commandes fournis.

La croissance française pourrait également s’appuyer sur une contribution positive du commerce extérieur. En effet, le millésime 2016 a été marqué par des contre-performances à l’exportation liées, d’une part à des événements exceptionnels (baisse de l’attractivité touristique, mauvaises récoltes, défaillance dans les chaînes de production d’Airbus) et d’autre part, à la faiblesse de la demande extérieure adressée à la France. En 2017, les entreprises exportatrices devraient tirer profit de la bonne tenue du commerce mondial et profiter de contrats d’envergure signés dans l’aéronautique. Mais surtout, les gains de compétitivité engrangés grâce au CICE et au Pacte de Responsabilité et de Solidarité pourraient leur permettre de reconquérir des parts de marché.

Seul bémol : la progression des dépenses de consommation des ménages pourrait se tasser. En cause, la baisse de leur pouvoir d’achat liée à la remontée des prix de l’énergie. Phénomène qui pourrait se traduire par la constitution d’une épargne de précaution.

Les créations nettes d’emplois devraient s’intensifier : 203 000 emplois salariés marchands seraient créés en 2017, selon l’Insee. Elles contribueraient à faire reculer le taux de chômage, dans un contexte où la progression de la population active devrait être moins soutenue. Néanmoins, la trajectoire de réduction du chômage pourrait s’avérer lente : le taux de chômage au sens du BIT s’établirait à 9,4 % (y compris DOM) à fin 2017, soit – 0,6 point sur un an (fin 2016, le taux de chômage des cadres calculé par l’Insee au sens du BIT s’élevait à 3,5%).

Les cadres pourraient tirer bénéfice de cette croissance soutenue. La part des cadres en poste au moment de leur départ à la retraite pourrait, dans cette configuration, se consolider et s’établir à 53 % en 2019.

cap-apec-3

Si ces prévisions font l’objet d’un consensus fort de la part de différents instituts de conjoncture, il n’en demeure pas moins que l’ensemble des observateurs fait mention d’aléas importants :

Au niveau national : ceux-ci concernent la capacité de rebond des exportations françaises toujours potentiellement affectées par le déficit chronique de compétitivité du tissu productif français ainsi que par l’évolution de la consommation des ménages.  Au niveau international : l’impact à venir du Brexit, la situation géopolitique tendue au Moyen-Orient, les tentations isolationniste et protectionniste de l’administration Trump ou encore les menaces terroristes extrêmes sur le sol européen pourraient contrarier l’enchaînement vertueux qui se profile.

Enfin, selon le baromètre trimestriel de l’Apec, la confiance des entreprises est largement de mise. Elles sont ainsi 58% à avoir l’intention de recruter au moins un cadre au cours du 3ème trimestre 2017. Cette proportion est en hausse de 6 points par rapport à la même période il y a un an. Autre point fort de cet indicateur : si la proportion d’entreprises ayant recruté au deuxième trimestre 2017 est stable par rapport à 2016, c’est à un niveau élevé. Enfin, ces perspectives favorables devraient profiter à tous les profils de cadres, les entreprises se montrant notamment plus ouvertes aux embauches de jeunes diplômés et de cadres très expérimentés qu’il y a un an. (cf. Baromètre No 60 –3e trimestre 2017)

cap-apec-4

En 2017, le nombre de recrutements de cadres augmenterait de 5 % et approcherait du seuil des 215 000. Cette prévision est proche de la médiane de prévision établie à partir de la dernière enquête annuelle de l’Apec menée auprès des entreprises fin 2016. Si ce chemin de croissance et d’investissement se confirmait, le volume de recrutements de cadres atteindrait en 2019 un niveau inégalé : il s’établirait à près de 237 000, après un peu plus de 225 000 en 2018.

cap-apec5

Source : Apec

Un monde bas carbone nécessitera beaucoup de ressources

Signer et ratifier l’accord de Paris pour limiter le réchauffement climatique à 2°C d’ici 2100 était une très bonne chose. Désormais, la transition énergétique va nécessiter d’extraire une quantité record de minerais et de métaux. La Banque Mondiale s’est intéressée aux ressources nécessaires pour répondre à trois scénarios : un réchauffement limité à + 2°C, un autre s’envolant à + 4°C et un dernier à + 6°C. Évidemment, plus l’objectif est ambitieux, plus le besoin en métaux et minerais sera important.

Le rapport explore les ressources nécessaires pour répondre à l’explosion de trois technologies qui seront au cœur de la transition énergétique : l’éolien, le solaire et les batteries. Ainsi, les métaux et minerais concernés sont nombreux. Aluminium, cobalt, cuivre, fer, plomb, lithium, nickel, manganèse, terres rares (notamment néodyme), argent, acier, titane et zinc… tous sont concernés. Leur demande pourrait doubler. « L’exemple le plus significatif sont les batteries pour le stockage de l’électricité, pour lesquelles l’augmentation de la demande en métaux – aluminium, cobalt, fer, plomb, lithium, manganèse et nickel – est relativement modeste dans le scénario +4°C, mais prend plus de 1.000 % dans le scénario +2°C », préviennent les auteurs.

Ce constat s’applique aussi aux autres technologies. « Les technologies supposées alimenter le passage à une énergie propre – éolien, solaire, hydrogène et systèmes électriques – sont en fait significativement PLUS intensifs en matériaux dans leur composition que les centrales à énergie fossile traditionnelles », observe le rapport.

Des opportunités pour les pays riches en ressources?

Pour tirer profit de cette hausse de la demande sans saccager la planète, la Banque Mondiale incite les pays riches en ressources à l’anticiper. Notamment, elle les invite à adopter des stratégies de long terme pour investir judicieusement. Et définir des mécanismes appropriés pour préserver les populations locales et l’environnement.

«S’ils développent leur secteur minier de façon durable, les pays qui disposent des capacités et des infrastructures pour fournir les minéraux et les métaux nécessaires aux technologies propres auront une occasion unique de dynamiser leur économie », prévient Riccardo Puliti, directeur du pôle mondial d’expertise en énergie et industries extractives de la Banque mondiale. Pour se positionner, ces pays devront parfaitement connaître le marché, et utiliser ces données pour élaborer des plans de développement, planifier des investissements et concevoir des activités durables. Pour que l’intensification des activités d’extraction et de production aient le moins d’impacts sur l’eau, les écosystèmes et les populations.

Quelle région pour quels métaux ?

Selon les auteurs, l’Amérique Latine pourrait jouer un rôle essentiel pour fournir le cuivre, le fer, l’argent, le lithium, l’aluminium, le nickel, le manganèse et le zinc nécessaires. L’ Afrique australe et la Guinée joueraient leur rôle pour le platine, le manganèse, la bauxite et le chrome.

Les sols de la Chine sont riches pour l’ensemble de ces métaux essentiels. Le pays restera un acteur de premier plan. L’Inde jouerait un rôle majeur pour le fer, l’acier et le titane. De leurs côtés, l’Indonésie, la Malaisie et les Philippines auraient des opportunités pour la bauxite et le nickel. Les réserves découvertes en Nouvelle-Calédonie pourraient aussi fournir du nickel en quantité.

Des évolutions avant tout liées aux technologies

L’évolution de la demande en différents matériaux dépendra des politiques menées. Et ainsi du nombre d’éoliennes, de panneaux solaires et de véhicules électriques fabriqués. Mais elle sera avant tout menée par les choix technologiques qui seront retenus au niveau mondial. Ces derniers définiront le marché des matières premières sur les cinquante prochaines années, prévient l’étude. Par exemple, les trois principales catégories de véhicules alternatifs ont des impacts différents sur la demande de métaux. Si les véhicules électriques ont besoin de lithium, les véhicules hybrides préfèrent le plomb et les véhicules à hydrogène le platine.

Les auteurs notent que cette étude est un premier pas pour sensibiliser les différents acteurs à travailler ensemble. Ils évoquent bien évidemment d’autres secteurs à prendre en compte pour de futures études, notamment les transports, les bâtiments, l’industrie et l’usage des sols.

Par Matthieu Combe, journaliste scientifique

Le miscanthus, pour du béton biosourcé

Un bon béton nécessite du sable, des granulats, de l’eau et du ciment pour lier les constituants entre eux. Pour économiser les ressources naturelles non renouvelables, Ciments Calcia et Alkern ont substitué les granulats par une version renouvelable à base de miscanthus. Ce nouveau matériau de construction est constitué en moyenne à 60% de broyats de miscanthus en substitution des granulats traditionnels. Ils ont ainsi obtenu un prototype de bloc de béton de 20x50x20 cm pesant 17 kg, un poids comparable au bloc classique. Le béton de miscanthus aura bientôt toute sa gamme : bloc standard, bloc poteau, planelle isolée et éléments de chaînage horizontal.

De nombreux essais de caractérisation du bloc en béton de miscanthus ont été validés ou sont toujours en cours, avec une étape clé à venir : le dépôt de la demande d’ATEx auprès du CSTB à l’automne. Pour une obtention prévue fin 2017. Cette procédure rapide d’évaluation technique est nécessaire pour son utilisation expérimentale en février 2018. Le béton de miscanthus sera alors déployé sur les 1.700 m2 de façade de 46 logements sociaux à Chanteloup-en-Brie (77). Ce permier chantier nécessitera 50 tonnes de miscanthus.

Structurer une nouvelle filière

Ce nouveau bloc en béton s’inscrit dans le projet de constitution d’une filière complète autour du miscanthus en tant que matériau biosourcé en Île-de-France. Un projet piloté par l’association Biomis G3 qui oeuvre depuis 4 ans à réunir partenaires institutionnels, coopératives agricoles, acteurs de la recherche et industriels. Avec pour objectif de produire et transformer localement la plante de miscanthus. A l’instar de ce qui a été fait dans la région châlonnaise où 450 hectares sont déjà cultivés.

Après transformation, le miscanthus peut être utilisé comme bioénergie, mais surtout dans le cas échéant comme biomatériau. « La culture du miscanthus sera possible si tous les acteurs des filières naissantes de production de matériaux agro-sourcés s’entendent pour construire une chaîne de valeur permettant une rentabilité partagée, au bénéfice d’une économie locale nouvelle », prévient Jérôme Mat, vice-président de Châlons-en-Champagne Agglo, délégué au développement économique.

Vous avez dit « miscanthus »?

Le miscanthus est une plante idéale, à l’instar du chanvre. Il pousse sans pesticides et sans irrigation sur tous les sols. « Le fait que sa culture s’adapte idéalement aux terres polluées, dégradées ou délaissées, s’avère un atout phare, note Ciments Calcia. Elle n’entre pas ainsi en concurrence avec l’agriculture alimentaire ; la production de miscanthus s’inscrit au contraire en complément de ressources et débouchés économiques pour les agriculteurs ».

La production s’échelonne sur une durée de 15 à 20 ans sans ressemer ni engrais. Par ailleurs, elle est stérile, à rhizome et non invasive. Chaque hectare cultivé produit jusqu’à 10 tonnes de miscanthus par an. En développant sa culture sur chaque territoire, il réduirait l’empreinte carbone du bâtiment en économisant le transport de granulats sur de longues distances.

Un matériau performant ?

La résistance thermique du bloc en béton de miscanthus s’élève à 0,7 mètres carrés-kelvins par watt (m2.K/W) contre 0,2 pour les blocs traditionnels. Le matériau obtenu est donc trois fois plus isolant que le béton classique. Il répond ainsi aux spécificités de la RT 2012 et de la future réglementation environnementale RE 2018. Un avantage certain, alors que le surcoût ne serait que de 2%.

Ce biomatériau a aussi démontré son efficacité en matière de confort acoustique avec une atténuation des bruits de 54 décibels lorsqu’un mur est enduit sur une face. Sa tenue au feu est également exceptionnelle : 4 heures.

Par Matthieu Combe, journaliste scientifique

Paris mise sur le réemploi dans le bâtiment

Le réemploi se développe doucement dans le bâtiment. Objectif: diminuer les déchets, dans un secteur qui produit environ 50 millions de tonnes de déchets par an en France, dont 14 millions en Ile-de-France.

Dans ce cadre, la Ville de Paris fait figure de pionnier en France. En témoigne notamment la volonté de la mairie de Paris de s’engager dans le développement de filières de réemploi et de recyclage pour ses bâtiments publics, dans le cadre de son premier Plan d’économie circulaire 2017-2020. Paris devient ainsi la première collectivité française à définir une telle stratégie.

  • Le réemploi dans les bâtiments à Paris
  • La feuille de route du Plan économie circulaire de Paris vise notamment à développer l’économie circulaire dans le bâtiment et les travaux publics. « L’objectif dans le BTP est de passer de la démolition à la déconstruction », prévient  Antoinette Guhl, adjointe à la Maire de Paris chargée de l’économie sociale et solidaire, de l’innovation sociale et de l’économie circulaire. D’ici 2020, l’idée est d’entreprendre une dizaine de chantiers de déconstruction, dans le public. Certains sites sont déjà identifiés: la caserne de Reuilly, l’hôpital Saint-Vincent-de-Paul, la crèche Max Jacob, l’école d’Alembert à Montévrain…  Avec pour objectif d’obliger tout porteur de projet à réaliser un diagnostic de réemploi, via les permis de construction ou de démolition, dès 2020.
  • Ce développement nécessite un atelier municipal du réemploi de matériaux pour les travaux de construction, de maintenance ou de réhabilitation des 3.600 bâtiments municipaux parisiens. Avec ses 2.000 m2, ce sera le rôle de l’atelier Bédier. « Ce sont des ateliers de menuiseries, d’électricité, des lieux de stockage et qui permettent aux agents de la ville de récupérer tous ces matériaux pour les remettre en l’état afin qu’ils soient réutilisés dans d’autres bâtiments de la ville », résume Antoinette Guhl. L’administration parisienne aura de son côté à travailler aux normes d’intégration du réemploi et de sécurité avec les pouvoirs publics. Avec pour objectif de systématiser le recours au réemploi et à la réutilisation en 2019.

Mailler le territoire parisien

Le réemploi peut s’envisager à plusieurs échelles. In-situ, à l’échelle d’un éco-quartier où déconstruction, tri, reconditionnement, transformation, stockage et réutilisation sont menés de front. Mais aussi en trouvant  des chantiers dont la date et la durée correspondent à l’opération. Cela impose, très en amont du chantier, l’identification des gisements de matériaux de réemploi dans l’environnement du site. Enfin, lorsque cela n’est pas possible, il convient de regrouper les matériaux sur des plateformes locales de reconditionnement et de stockage. Ces dernières pourront aussi accueillir les surplus de chantier ou les invendus de négoce.

Pour organiser cette construction circulaire, Paris va déjà recenser et cartograpier les espaces disponibles qui pourraient être utilisés comme plateforme de conditionnement et stockage, sur une ou deux zones expérimentales. Plateformes existantes, en cours de création ou programmées, entreprises disponibles pour un temps fini (pour des plateformes éphémères) seront recensées. Avec pour objectif de cartographier l’offre de stockage et de reconditionnement sur tout le territoire parisien d’ici 2020.

Un tissu à construire pour changer d’échelle

En juillet 2016, l’ADEME a rendu un rapport sur les principaux freins au réemploi. Ils sont d’ordre technique, juridique, économique, liés à l’environnement et à la santé ou encore aux perceptions et pratiques des acteurs. Les principaux freins sont la structuration des pratiques et l’organisation logistique. Le réemploi nécessite aussi une adaptation des contrats de garantie.

En attendant que le cadre juridique soit bien défini, Paris souhaite construire l’offre. La Ville va ainsi répertorier les possibilités de réemploi et identifier les gisements de produits réemployables. Mais aussi mettre en relation les acteurs du réemploi. Le réemploi pourra alors trouver sa place dans des marchés de commandes publiques ou privée, pour des opérations de réhabilitation, voire de construction neuve, d’habitats ou de bureaux.

Par Matthieu Combe, journaliste scientifique

Nano-électronique : un monde plein d’exotisme

L’électronique nanométrique n’en est qu’à ses balbutiements. Elle revisite les moyens de stocker et déplacer de l’information numérique. Elle s’appuie sur des matériaux déjà connus dont on découvre de nouvelles propriétés en explorant les changements d’états de la matière et leur transition au niveau nanométrique et sur des matériaux plus récents comme les matériaux bidimensionnels. Elle fait intervenir une physique quantique qui va certainement offrir un avenir radieux, mais pour l’instant imprévisible, à l’électronique.

Le spin est idéal !

Toute une nouvelle électronique s’appuie aujourd’hui sur la notion de spin dans les électrons. On est donc passé d’une électronique fondée uniquement sur des déplacements de charges électriques liés aux électrons -principalement dans des matériaux semi-conducteurs – à une électronique qui s’appuie sur des propriétés magnétiques. En effet, le spin quantique des électrons est l’équivalent quantique du moment cinétique en physique classique. Et pour l’électron son spin est responsable aussi de son moment magnétique. Quand on applique un champ magnétique spécifique, le spin de l’électron bascule d’une orientation à l’autre. Cette propriété est à la base de la spintronique. Les recherches en spintronique sur des matériaux multicouches somme toute assez simples (alternance de couches ferrogmagnétiques et de couches isolantes) ont mené à la découverte en 1988 de l’effet de magnétorésistance géante (GMR) par les équipes d’Albert Fert (Paris-Sud) et Peter Grünberg (Université de Cologne) qui leur a valu un prix nobel en 2007. La GMR (via l’introduction d’une magnétorésistance à effet tunnel) a permis de multiplier par 1000 la capacité des disques durs des ordinateurs courants et est à la base des mémoires MRAM (Magnetoresistive random-access memory). Ce type de mémoire informatique a été pour l’instant réservée à des secteurs de haute technologie (aéronautique, spatial et militaire ou automobile) car très fiable y compris dans des conditions extrêmes mais encore très chère. Ses performances et la maîtrise de leurs productions commencent à en faire de réel composants compétitifs face aux autres technologies support de l’informatique. Notamment via le développement de nouveaux types de commandes des MRAM (pour créer des STT-RAM – spin-transfer torque) qui devrait aboutir d’ici 2018 à des intégrations dans des secteurs plus grand publics.

Des ondes de spin aux skyrmions

A côté de ce travail sur la spintronique, les physiciens se sont intéressés aux ondes de spin. En effet, dans des matériaux magnétiques ordonnés chaque spin est en interaction avec les spins voisins et quand on en modifie un, ses voisins le sont de proche en proche provoquant une onde de spins. Ces ondes transportent de l’énergie par petites quantités bien définies, les magnons. La magnonique est donc l’électronique des ondes de spin qui, à l’instar d’autres types d’ondes, peuvent coder de l’information par modulation de leur phase, de leur amplitude ou de leur fréquence. Les physiciens ont donc commencé à travailler sur les cristaux magnoniques qui consistent en des empilements périodiques de couches magnétiques qui selon leur structure et leur composition ne laissent se propager que certaines fréquences d’ondes de spins. Parmi les autres matériaux qui sont étudiés comme support à la magnonique, on trouve des matériaux multiferroïques (présentant des propriétés de ferromagnétisme, ferroélectricité et/ou ferroélasticité), redécouverts dans les années 2000. Le composé le plus étudié est le ferrite de bismuth, un oxyde de fer et de bismuth (BiFeO3), abrégé en BFO qui présente, à température et pression ambiantes, des propriétés ferroélectriques et ferromagnétiques couplées.

Dans la continuité de l’étude des spins, les chercheurs se sont intéressés aux skyrmions. Ces derniers sont des tourbillons de spins qui ont la particularité d’être stables, lisibles, déplaçables effaçables « assez facilement » et avec très peu d’énergie. Ils pourraient donc être de bons candidats pour le stockage de données ultra miniature (un disque dur de la taille d’une pièce de 1 centime). Ils ont été observés à la surface de matériaux aussi divers que des supraconducteurs, des couches minces magnétiques, des cristaux liquides.

Les isolants topologiques, ces nouveaux métaux

Les isolants topologiques sont des matériaux dont certains étaient connus pour leurs propriétés thermoélectriques mais qui ont été dévoilés comme matériaux conducteurs en 2005. Ces matériaux ont une structure de type isolante mais présentent pourtant à leur surface des états « métalliques ». Ils sont donc isolants en volume et conducteurs en surface. L’antimoine via l’antimoniure de bismuth (qui sera le premier isolant topologique 3D a être réalisé) ou encore le mercure ont été à la base du développement de tels matériaux. Mais leur manipulation dangereuse a conduit à se tourner vers d’autres composant tels que des cristaux à base de bismuth. En 2012, de nouveaux matériaux topologiques sont détectés dans des sels de plomb et d’étain (étain+tellure par exemple). Quel intérêt pour l’électronique ? Le couplage entre direction du spin et courant. En effet, à la surface de ces matériaux tous les électrons se propageant dans une direction ont un spin identique, ce qui permet de contrôler des courants de spins sans avoir recours à des matériaux magnétiques.

Quand la lumière fait l’électronique

D’un côté les scientifiques jouent avec les interactions électricité/magnétisme et d’un autre avec électricité et lumière. C’est le domaine de l’opto-électronique.  Parmi les différentes voies explorées actuellement, on peut citer la plasmonique et et les propriétés particulières des dichalcogénures de métaux de transition (DMT).

La première concerne l’étude des plasmons de surface. Les plasmons sont des ondes de densité d’électrons ressemblant à des vagues qui sont générées dans certaines conditions par un rayonnement électromagnétique (la lumière notamment) à l’interface entre un métal (ou de certains composés bidimensionnels comme le graphène) et un matériau diélectrique comme l’air ou le verre. Les possibilités ouvertes par l’étude des plasmons sont assez vertigineuses allant de l’augmentation du rendement de diodes électroluminescentes ou de la résolution des microscopes à la transmission de données de circuits intégrés via des nanofils.

Assimilé aux matériaux 2D, les dichalcogénures de métaux de transition (DMT), dont le plus étudié est le disulfure de molybdène (MoS2), ont des propriétés très particulières pour l’optoélectronique. Ils ont en effet la capacité de transformer la lumière en électricité et vice-versa. Leur potentiel pourraient donc se développer dans des sources de lumière miniature, des systèmes d’affichages souples dont les premiers prototypes ont d’ailleurs déjà été testés.

Non les oxydes ne sont pas rouillés

Depuis une dizaine d’années, on a redécouvert un intérêt aux oxydes métalliques, composés d’un atome d’oxygène couplé à des atomes de métal de transition comme le cuivre ou le zinc. Leurs atouts pour l’électronique ? L’instabilité de leur structure cristalline particulière (structure pérovskite) lors de baisse de température par exemple qui engendrent chez eux des états possibles très différents : isolants, conducteurs, magnétiques, ferroélectriques, piézoélectrique etc. En variant les métaux utilisés on peut en faire des capteurs sensibles. Le BFO dont on a parlé précédemment en est un. Mais on a aussi découvert, une propriété inattendue, deux oxydes isolants mis en sandwichs créent à leur jonction une interface conductrice voire supraconductrice. Le phénomène a été mis en évidence en 2004 entre un oxyde de lanthane et d’aluminium (LaAlO3) et un oxyde de strontium et de titane (SrTiO3). Aujourd’hui on est capable de fabriquer de petits transistors utilisant des oxydes. L’oxytronique étudie les très nombreuses possibilité des ces structures que l’on peut empiler et combiner pour donner encore de nouveaux matériaux.

Où l’on retrouve encore les métaux de transition

Dans la catégorie matériaux bidimensionnels, le graphène et ses cousins (voir cet article) présentent de nombreuses potentialités, même si elles ont encore du mal à se concrétiser.

Assimilé aux matériaux 2D, les DMT et notamment le disulfure de molybdène évoqué plus haut,  sont aujourd’hui à l’origine de quelques avancées dans l’électronique à base de matériaux bidimensionnels. Ainsi, le MoS2 a servi au premier transistor à base de DMT et vient d’être le support au premier microprocesseur de l’électronique bidimensionnelle : un microprocesseur d’un bit intégrant 115 transistors à base de MoS2. Même si on est loin des capacités d’un microprocesseur standard en silicium cette réalisation est une percée importante dans ce champ de recherche. Et tout comme avec les oxydes, ces DMT peuvent être associés entre eux ou avec du graphène et d’autres matériaux 2D pour donner des matériaux aux propriétés très performantes qu’il reste à découvrir et à maîtriser.

Un travail de fourmi titanesque

Le constant va-et-vient entre la découverte de la physique nanométrique d’un côté et la découverte de matériaux aux propriétés inattendues donnent un foisonnement de la recherche qui ouvrent de nombreuses voies pour le développement d’une électronique nanométrique. Mais la concrétisation vers des productions industrielles prend et prendra encore du temps. Les techniques de fabrication des matériaux et les outils pour leurs études sont encore extrêmement récents. Et l’exploration de ce nouveau monde constitue un travail de fourmi titanesque…

Sophie Hoguin

Electronique : dans la famille 2D, je voudrais les cousins du graphène

Le graphène commence à tenir ses promesses pour de nombreuses applications : électrodes, nouveaux dispositifs médicaux, isolation thermique ou magnétique… Mais pour l’électronique, ça coince un peu. Cependant, la recherche est très active pour pallier les défauts du graphène ou lui trouver un cousin qui pourrait remplacer l’électronique à base de silicium.

De la haute couture en terre inconnue

Même si l’on peut égrener les impressionnantes propriétés du graphène ou de ses cousins, les matériaux dits en deux dimensions (2D), les applications commencent tout juste à émerger et en électronique on très loin du compte. Pourquoi ? D’une part, il faut bien avoir à l’esprit que l’on travaille sur des nanomatériaux et qu’à l’échelle de l’atome la matière a des propriétés et des capacités très différentes qu’à l’échelle micro ou macroscopique. On évolue donc dans un domaine encore mal connu, doté d’une mécanique quantique relativiste, compliquée et souvent onéreuse à mettre en œuvre et où la production tient plus de la haute couture que du process industriel. Et pour compliquer le tout, si l’on prend l’exemple du graphène c’est un matériau anisotrope, c’est-à-dire que les propriétés à la surface ne sont pas les mêmes que sur les bords et qu’un graphène en feuille se comportera différemment d’un graphène en paillette (qui aura beaucoup plus de bords). Les dix dernières années ont donc servi à caractériser les différentes propriétés dans de nombreux environnements différents, dans des configurations différentes et à chercher les moyens de produire du graphène le plus pur possible dans des conditions acceptables pour l’industrie.

Electroniquement pas viable !

Le graphène est un champion pour transporter les électrons rapidement. Mais le problème, c’est qu’il ne possède pas de bande interdite, il n’est pas semi-conducteur donc on ne peut pas arrêter le transport à la demande. Du coup, difficile de fabriquer des composants électroniques dont le fonctionnement de base est de pouvoir alterner allumé/éteint (des 1 et des zéros). De nombreuses recherches visent à changer le graphène en semi-conducteur. Et, Les scientifiques ne mettant pas tous leurs œufs dans le même panier, ont, en parallèle, commencé à chercher des cousins du graphène semi-conducteurs.

Du silicène aux faux 2D

Parmi les nombreux cousins du graphène, le silicène a fait naître de grands espoirs. Dans ce composé, les atomes de carbone sont remplacés par des atomes de silicium. Mais lui, il est semi-conducteur. Le hic : il n’existe pas à l’état naturel et sa synthèse n’est pas aisée. En outre, quand en 2015, on a réussi à fabriquer le premier transistor en silicène, il n’a vécu que 2 minutes, car ce matériau s’oxyde extrêmement vite… Encore quelques années de recherche en perspective !

Sur le même modèle de nombreux autres cousins ont été synthétisés et sont actuellement testés : germanène (à base de germanium), stanène (étain), phosphorène (phosphore)… mais tous ces matériaux ont des propriétés inconnues et leur synthèse ne date que de 2014/2015. Reste donc à les caractériser avant de pouvoir en faire des composants électroniques. C’est aussi le cas, pour d’autres composés, alliant cette fois des atomes différents, qui dérivent directement du graphène ou qui sont basés sur le bore par exemple.

Graphane & co et composés borés

A partir du graphène, on a commencé à fabriquer du graphane, par hydrogénation du graphène. Le graphane présente un très bon potentiel pour le stockage de l’énergie sous forme d’hydrogène et offre aussi des potentialités en électronique car sa valeur de gap (bande interdite) est variable selon l’hydrogénation, processus que l’on maîtrise assez bien. D’autres composés sont nés en cherchant à fonctionnaliser le graphène : sur le modèle du graphane, le fluorographène (carbone + fluor), le chlorographène (carbone + chlore) qui sont des semi-conducteurs. Là encore, les chercheurs n’en sont qu’au début de la caractérisation de ces composés. Les recherches portent aussi beaucoup sur des matériaux 2D à base d’atomes de bore car celui-ci est proche du carbone dans la classification atomique et les borures sont souvent très stables. Cela a abouti par exemple à la fabrication de feuillets monocouche de diborure de magnésium ou encore d’un composé organique 2D à base de bore-carbone-azote. Chacun de ces composés offre des propriétés électroniques, thermiques, magnétiques, optiques particulières et souvent performantes. Mais on est encore loin d’une fabrication industrielle.

Aussi, aujourd’hui, une seule conclusion semble s’imposer  : bien malin sera celui qui pourra prédire si l’un de ces composés finira par être le grand gagnant d’une nouvelle électronique basée ou inspirée du graphène !

Sophie Hoguin

La turbulence des noyaux planétaires excitée par les marées

Les scientifiques s’accordent à dire que la formation et le maintien des champs magnétiques résultent d’écoulements de fer dans le noyau liquide. Les discussions se compliquent quand il s’agit de déterminer ce qui permet à ces masses colossales de se mouvoir. Le modèle dominant se base sur le lent refroidissement des astres, qui entraîne une convection, qui crée à son tour de grands tourbillons de fer fondu parallèles à l’axe de rotation du corps céleste. Or, les petites planètes et les lunes se refroidissent trop vite pour qu’un champ magnétique puisse encore s’y maintenir par convection, plusieurs milliards d’années après leur formation. Des chercheurs de l’IRPHE (CNRS/Aix Marseille Université/Centrale Marseille) et de l’université de Leeds ont donc présenté un modèle alternatif où ce sont les interactions gravitationnelles entre les astres qui agitent le noyau.

Les marées, produites par ces interactions gravitationnelles, déforment en effet le noyau périodiquement et amplifient les mouvements ondulatoires naturellement présents dans le fer liquide en rotation. Ce phénomène finit par produire un écoulement complètement turbulent, dont la nature n’est pas encore bien comprise. Afin de l’étudier, les chercheurs ont utilisé un modèle numérique d’une petite parcelle d’un noyau planétaire, plutôt qu’une simulation du noyau dans son ensemble, qui serait bien trop gourmande en puissance de calcul. Cette approche permet de caractériser finement les mouvements créés dans les régimes géophysiques extrêmes, tout en gardant les ingrédients physiques essentiels. Les chercheurs ont ainsi montré que la turbulence résulte d’une superposition d’un très grand nombre de mouvements ondulatoires qui échangent entre eux en permanence de l’énergie. Cet état particulier, appelé turbulence d’ondes, peut être vu comme un analogue en trois dimensions du mouvement de la surface de la mer, loin des côtes.

Ces travaux ouvrent la voie à de nouveaux modèles permettant de mieux comprendre et prédire les propriétés du champ magnétique des astres. Ce modèle de marées s’appliquerait à tous les corps en orbite, suffisamment déformés par les étoiles, planètes ou lunes voisines.

visuel-cnrs
© Thomas Le Reun / Institut de recherche sur les phénomènes hors équilibre (IRPHE, CNRS/Aix Marseille Université/Centrale Marseille) Gauche : simulation d’une parcelle cubique située au sein du noyau liquide d’une planète déformée par les effets de marées. En concentrant leurs efforts numériques sur ce domaine réduit, les chercheurs ont accédé à des régimes proches des régimes planétaires. L’écoulement prend alors la forme d’une superposition d’ondes qui interagissent non-linéairement jusqu’à former une turbulence tridimensionnelle d’ondes inertielles (cf. champ de vorticité verticale au centre), en opposition aux modèles classiques où l’écoulement évolue vers des structures tourbillonnaires à plus grande échelle, alignées avec l’axe de rotation (cf. champ de vorticité verticale à droite).

Source : cnrs

Reach 2018 : tous concernés !

En réalité, la date du 31 mai 2018 tient plus du couperet que de la date butoir. En effet, pour être sûr qu’une substance chimique puisse être mise sur le marché européen ou continuer à l’être après cette date, il faut qu’elle ait été enregistrée auprès de l’Agence européenne des produits chimiques (ECHA). Un processus qui peut prendre un an et dont le coût doit être provisionné (en moyenne 70 000 euros). Depuis plus de 10 ans que le règlement Reach est entré en vigueur, les obligations d’enregistrements des substances ont été progressives : d’abord celles produites dans les plus grands volumes et celles identifiées comme étant cancérogènes, reprotoxiques ou mutagènes (CMR) et maintenant celles produites à partir d’une tonne par an. Cette troisième phase est certainement la plus critique car elle concerne nombre de petites et moyennes entreprises formulateurs, fabricants et importateurs de substances chimiques et surtout tous leurs clients utilisateurs ou distributeurs menacés d’une rupture d’approvisionnement si l’enregistrement n’a pas été fait à temps.

« Pas de données, pas de marché »

« Pas de données, pas de marché », c’est le principe de base qui régit le règlement Reach. Après la phase d’inventaire qui s’achève le 31 mai 2018, toute nouvelle substance qui veut être mise sur le marché doit être enregistrée. C’est-à-dire que le metteur sur le marché doit fournir les informations sur les risques qu’elle présente pour les travailleurs, les utilisateurs ou l’environnement avant d’être autorisée à la commercialisation. Ce travail de recensement phénoménal a pour l’instant donné lieu à la publication par l’Echa de 15 000 fiches de produits sur son site. Avec cette troisième phase qui concerne toutes les substances produites à partir d’une tonne par an, l’Echa s’attend à recevoir quelque 60000 dossiers d’enregistrement. Mais en juillet, seuls 10 000 ont été soumis.

Vigilance pour tous les utilisateurs

Les autorités ont une réelle crainte que les plus petites entreprises ne comprennent pas à quel niveau elles sont concernées et qu’elles omettent les démarches nécessaires. En effet, tous les types de substances sont concernées : naturelles, organiques, métaux qu’elles soient utilisées seules ou en mélange et incorporées ou non dans des produits finis comme des meubles, de l’électro-ménager ou des produits de nettoyage. Ainsi, si l’obligation d’enregistrement concerne à peu près 50 000 entreprises françaises, les entreprises utilisatrices, elles sont au nombre d’1,7 million. Ces dernières doivent absolument s’assurer auprès de leurs fournisseurs que les substances chimiques qu’elles utilisent sont bien enregistrées. Cela nécessite donc un inventaire des substances utilisées et dans le cas où l’enregistrement ne serait pas fait à temps, la nécessité de trouver une solution de rechange (reformulation par exemple). En cas d’utilisation d’une substance non enregistrée les utilisateurs seront dans l’illégalité tout comme le distributeur ou le fabricant.

Des ressources à tous les étages

Afin de s’assurer que le maximum d’acteurs se sentent concernés et prennent les bonnes dispositions à temps, toutes les ressources sont mobilisées : le service d’assistance gratuit Helpdesk de l’Ineris qui fait depuis 2016 des journées d’intervention dans toute la France, les différentes chambres consulaires et d’agriculture qui proposent différents services allant de journées d’information à des formations aux outils et au processus liés à Reach, les fédérations professionnelles qui alertent leurs adhérents sur les risques et les obligations… Le ministère lui fait le battage médiatique et organise deux journées à la rentrée, les 4 et 5 septembre, pour accentuer encore la prise de conscience des TPE et PME françaises.

Par Sophie Hoguin

Revue de presse anglophone #8

  • Google va faire évoluer sa page d’accueilgoogle200

Source : The Guardian

Lire l’article original

 

 

  • Investir dans le Bitcoin, oui mais comment ?bitcoin200

Source : The Guardian

Lire l’article original

 

 

  • Apple, Alphabet, Amazon, Facebook, Microsoft pèsent gafa200ensemble 3000 milliards de dollars

Source : Techcrunch

Lire l’article original

 

 

  • Donald Trump a-t-il vraiment dit au revoir aux accords de Paris ?trump200

Source : Scienceblogs

Lire l’article original

 

 

  • A quoi ressemble une éclipse solaire vue de l’espace ?eclipse200

Source : New York Times

Lire l’article original

 

 

Le secret des cycles magnétiques des étoiles

Le champ magnétique des étoiles est engendré par les mouvements convectifs turbulents du fluide conducteur présent dans leur cœur (par effet dynamo¹ ). Celui du Soleil se renverse tous les onze ans, phénomène qui s’accompagne de phénomènes éruptifs très énergétiques, pouvant dégrader des systèmes électriques et de communicationssur Terre ou à bord de satellites. D’autres étoiles présentent aussi des cycles magnétiques, d’une année à plusieurs dizaines d’années.

Une collaboration internationale incluant le CEA, le CNRS et l’Université Paris Diderot² a simulé en 3D l’intérieur d’étoiles semblables au Soleil afin d’expliquer l’origine des cycles de leur champ magnétique. Les scientifiques ont mis en évidence l’existence d’une rétroaction forte entre le champ magnétique de l’étoile et les écoulements qui l’animent, dont un important « profil de rotation interne ». Les modulations temporelles de cette rotation interne déterminent en définitive la période du cycle. La découverte de cette loi d’échelle sur la période du cycle magnétique d’une étoile à partir de simulations 3D turbulentes auto-cohérentes (voir encadré) est une première mondiale. Ces résultats, obtenus grâce aux grands calculateurs GENCI, PRACE et ComputeCanada, sont publiés dans la revue Science.

La force des simulations auto-cohérente

En physique, une simulation auto-cohérente, ou modèle ab initio, garantit un modèle basé sur les principes premiers de la physique ne faisant intervenir aucun paramétrage ad-hoc. En particulier, les champs magnétiques et les écoulements à l’intérieur de l’étoile évoluent ici de façon conjointe et sont interdépendants, ce qui a permis aux chercheurs de mettre en lumière ce mécanisme nouveau à l’origine des cycles magnétiques stellaires.

Les simulations du magnétisme des étoiles de type solaire permettront de préparer l’exploitation scientifique des missions Cosmic Vision de l’ESA Solar Orbiter et PLATO, dont les lancements sont respectivement prévus en 2018 et 2024. Elles renouvellent l’interprétation théorique des cycles magnétique stellaires et replacent l’étude du Soleil au cœur de notre compréhension de la dynamique des étoiles.

Une dynamo fondamentalement non-linéaire

Si on zoome sur le cœur du Soleil, on observe aussi au sein du fluide conducteur, en plus de mouvements à grande échelle, un écoulement turbulent multi-échelles, issu de l’instabilité de la convection. Celui-ci est localisé dans la coquille sphérique externe de notre étoile, de 0,7 rayon solaire jusqu’à la surface. L’ensemble de ces deux types d’écoulements, à grande échelle et multi-échelles, joue un rôle essentiel dans la restructuration périodique du champ magnétique via ses composantes poloïdales³ et toroïdales. Un mécanisme complexe, aujourd’hui bien compris, permet ainsi « d’auto-entretenir » un champ magnétique global de grande échelle. Dans certains cas, comme pour le Soleil, ce champ magnétique global oscille sur une période décennale. Grâce à leurs simulations, les chercheurs ont pu montrer que la rotation de l’étoile influence l’efficacité du transfert d’énergie (non-linéaire) entre certains écoulements à grande échelle et le champ magnétique. Ce phénomène détermine ultimement la période du cycle, qui décroit avec le nombre de Rossby, un nombre sans dimension très utilisé en dynamique des fluides géophysiques.

cap-espace
Observation du champ magnétique azimutal, en fonction de la latitude et du temps. On observe que le champ magnétique se renverse régulièrement et oscille entre des phases symétriques (même signe de part et d’autre de l’équateur par exemple entre 100 et 140 ans) et antisymétriques (signe opposé par exemple entre 240 et 320 ans) par rapport à l’équateur. @DAp/CEA-AIM-Université de Montréal

Le cycle magnétique des étoiles de type solaire

Grâce à différents programmes d’observations, les chercheurs disposent aujourd’hui d’informations sur la durée des cycles magnétiques d’étoiles de type solaire, dont ils connaissent souvent la luminosité avec une bonne précision, en plus de leur rotation et de leur cycle magnétique. En observant de plus en plus d’étoiles, les astrophysiciens espèrent affiner ce nouveau scénario de l’origine du cycle magnétique des étoiles.

Cap-espace2
Ratio de la période du cycle magnétique et de la période de rotation en fonction du nombre de Rossby dans les simulations 3D turbulentes (à gauche). Une loi de puissance qui décroit avec le nombre de Rossby est obtenue du fait de la forte non-linéarité de la dynamo opérant dans ces simulations. A droite, on observe le même ratio en fonction de la luminosité de l’étoile (normalisée à la période de rotation de l’étoile). Dans ce diagramme sont ajoutés le Soleil (cercle mauve avec un point en son centre) et d’autres étoiles de type solaire (étoiles cyan, losanges orange) pour lesquelles un cycle magnétique a été observé. Les étoiles jumelles du Soleil sont surlignées en mauve. Les simulations (disques bleu) croisent le point solaire sans ajustement de paramètres. Les lignes brisées verticales correspondent à des étoiles pour lesquelles deux périodicités magnétiques ont été identifiées. @DAp/CEA-AIMUniversité de Montréal

1 L’effet dynamo consiste en la génération spontanée d’un champ magnétique au sein d’un liquide conducteur en mouvement.
2 Au sein du laboratoire Astrophysique, instrumentation, modélisation (AIM) à Paris-Saclay.
3 C’est-à-dire le long des méridiens.
4 C’est-à-dire le long des parallèles.
5 Le nombre de Rossby mesure le rapport entre les forces d’inertie et la force de Coriolis qui s’applique à un fluide dans un repère tournant. Un faible nombre de Rossby correspond à une situation où l’effet de la rotation (Coriolis) domine l’advection du fluide, comme dans le cas par exemple de la circulation océanique globale sur Terre.

Références : Reconciling solar and stellar magnetic cycles with nonlinear dynamo simulations. Strugarek A., Beaudoin P., Charbonneau P., Brun A.S., Do Nascimento Jr J.D. Publié dans la revue Science (2017)

Source : cnrs

Pétrole : La stratégie de l’OPEP tend vers l’échec

D’ordinaire, les membres de l’OPEP s’entendent sur des quotas, et pour certains ne les respectent pas toujours. Cette fois-ci, l’Equateur joue carte sur table et a annoncé cette semaine publiquement par le biais de son ministre de l’Energie, Carlos Perez, que la réduction de 26 000 barils jour (bj) ne pourra être mise en œuvre pour des raisons fiscales. En juin, le pays sud-américain a extrait 527 000 bj.

Surabondance

La décision de l’Equateur n’a pas un grand impact face aux 32,5 millions de barils jour que pèse l’OPEP, mais elle pourrait inciter d’autres pays membres en mal d’argent (Venezuela, Algérie, notamment) à ne pas remplir leurs engagements. Une réflexion liée au faible impact de l’ambitieux accord signé en décembre dernier entre l’Organisation et la Russie visant à donner un signal fort au marché. Il prévoyait une réduction de 1,2 Mb  à partir du 1er janvier 2017, grâce notamment à la Russie qui avait accepté de baisser de 600 000 bj ses exportations, soit à elle seule, la moitié de l’effort consenti. Cela a provoqué dans un premier temps une remontée des cours qui n’a pas durée.

Sept mois plus tard, le prix du baril est toujours au même niveau (48$). Pire, l’élection du très pro-hydrocarbures Donald Trump à la présidence des Etats-Unis laisse présager que l’Oncle Sam va tout faire pour maintenir son rang de premier producteur mondial, devant l’Arabie Saoudite et la Russie.

Romain Chicheportiche