L’huile de palme durable l’est-elle vraiment ?

La garantie RSPO fixe 3 niveaux distincts : « segregated » (ségrégation), « mass balance » (balance de masse) et « book and claim » (réserver et revendiquer). La garantie « segregated » indique que l’huile de palme utilisée pour fabriquer le produit est tracée et séparée des autres huiles non vérifiées sur toute la chaîne d’approvisionnement. Elle ne s’applique qu’à l’huile de palme 100% « durable ». La garantie « mass balance » veut que l’huile de palme utilisée soit majoritairement durable, mais sans séparation le long de la chaîne d’approvisionnement. Ainsi, le produit contient un mélange d’huile de palme durable et non durable, et donne aussi droit à une étiquette « verte ». Enfin, pour la garantie « book and claim », le fabricant achète simplement des certificats Green Palm, indépendemment de la chaîne d’approvisionnement réelle. Le logo RSPO est réservé aux produits contenant de l’huile de palme durable « segregated » et « mass balance »; ceux contenant de l’huile « book and claim » ne peuvent qu’indiquer « participe à la lutte contre la déforestation ».

Aujourd’hui, 2,2 millions d’hectares de plantations sont certifiées RSPO, soit 15% environ de la surface mondiale plantée (contre 106 000 ha en 2008). 8,2 millions de tonnes d’huile de palme RSPO ont été produites en 2013 (contre 620 000 tonnes en 2008). Toutefois, en 2015, un peu moins de 10 % de l’huile de palme échangée sur les marchés mondiaux était certifiée RSPO, en raison d’une offre qui dépasse la demande.

RSPO : des critères à consolider !

Dans leur forme actuelle, les critères de la RSPO ne donnent que des lignes directrices trop vagues pour viter l’assèchement des zones humides. Il n’y a pas non plus pour l’instant de critères concernant les émissions de gaz à effet de serre causées par la production d’huile de palme. Ses principes et critères garantissent cependant que les droits fondamentaux des précédents propriétaires terriens, des travailleurs sur les plantations, des cultivateurs et de leurs familles sont respectés et pris en compte. Ils assurent également qu’aucune forêt primaire ou zone protégée n’a été détruite depuis novembre 2005 pour laisser la place à des exploitations d’huile de palme. Mais la déforestation secondaire n’est pas toujours prise en compte et quelques certificats delivrés par RSPO sont aujourdhui contestés en Asie.

Face à ces critiques, la RSPO propose désormais « RSPO Next », une initiative volontaire dépassant les exigences actuelles de la RSPO. Pour obtenir cette certification, les planteurs doivent s’engager sur l’ensemble de leurs plantations à ce qu’il n’y ait aucune déforestation et aucun feu. Ils s’engagent à réduire leurs émissions de gaz à effet de serre, à respecter les petits exploitants et les droits ouvriers, à interdire le paraquat, un pesticide interdit dans l’Union européenne, et à renforcer leur traçabilité.

Par Matthieu Combe, journaliste scientifique

L’huile de palme : une productivité incomparable

La productivité moyenne mondiale d’huile de palme est de 3,8  tonnes par hectare et par an (t/ha/an), de l’ordre de 6 t/ha/an dans de bonnes conditions agro-écologiques. Les rendements du palmier à huile sont exceptionnels par rapport aux autres oléagineux. De ce fait, en occupant 7 % des surfaces agricoles consacrées aux cultures oléagineuses et 1 % des terres agricoles mondiales, le palmier à huile assure 35 % de la production mondiale d’huile végétale, selon le Cirad. Par comparaison, le soja, le colza et le tournesol occupent respectivement 61 %, 18 % et 14 % des surfaces agricoles oléagineuses. Par ailleurs, l’huile de palme a les coûts de production les moins élevés des huiles végétales (jusqu’à 20 % de moins que le soja).

L’huile de palme a un autre avantage par rapport aux autres oléagineux. Le palmier n’est pas génétiquement modifié, alors qu’en 2014, 82% du soja et 25 % du colza étaient des OGM… Remplacer l’huile de palme par d’autres huiles à grande échelle demanderait beaucoup plus de terres, de pesticides et participerait à développer les OGM.

Au total, près de 50 millions de personnes vivent directement ou indirectement de la filière. En Indonésie, l’huile de palme génère de 1000 à 2000 dollars par an et par hectare. Ces revenus ont contribué significativement à la régression de la pauvreté et à l’émergence d’une classe moyenne rurale, selon le Cirad.

Comment limiter la déforestation ?

Selon Cécile Bessou, correspondant adjoint de la filière palmier à huile du Cirad, seulement 10 à 15 % de la déforestation indonésienne est liée au palmier à huile. La grande majorité de la déforestation est en réalité due aux activités minières et à l’extraction du bois. Ainsi, sur les 21 millions d’hectares de forêt primaire qui ont disparu en Indonésie entre 1990 et 2005, seulement 3 millions correspondent à la création de palmeraies. Selon des travaux de recherche, si l’on mettait en culture toutes les terres dégradées recensées à ce jour en Indonésie, notamment les surfaces déboisées suite à l’exploitation forestière ne présentant pas d’intérêt de biodiversité, les besoins en nouvelles terres seraient couverts jusqu’en 2050.

Par Matthieu Combe, journaliste scientifique

Revue du web #88 : les meilleures vidéos high tech du mois

Un objet imprimé en 4D qui change de forme une fois dans l’eau

Des chercheurs ont créé un matériau anisotrope « programmable » capable d’ajouter une étape supplémentaire au processus d’impression en 3D.

Plongé dans l’eau, ce matériau adopte une nouvelle forme, préalablement inscrite dans sa composition. Comme les plantes qui modifient leur morphologie en fonction de leur environnement, il se transforme selon la programmation décidée par les chercheurs grâce à la nature anisotrope des fibrilles de cellulose.

Pour nous permettre d’observer le phénomène, les chercheurs ont créé deux formes d’apparence identique. Mais une fois plongées dans l’eau, ces fleurs ne réagissent pas de la même façon…

Tissus intelligents, électronique souple, organes… Les applications potentielles ne manquent pas.

 

Vous avez un smartphone ? Plus besoin de clés de voiture.

Vous oubliez tout le temps vos clés de voiture ? En revanche, vous ne vous séparez jamais de votre téléphone portable. La solution est donc toute trouvée : vous allez utiliser votre smartphone à la place de vos clés pour verrouiller et déverrouiller votre voiture.

Le constructeur Volvo a présenté cette technologie lors du Mobile World Congress qui se tenait fin février 2016 à Barcelone.

Le dispositif permet à un smartphone d’échanger en quelques secondes des informations avec l’ordinateur de bord du véhicule via une liaison bluetooth. Dès que ce dernier vous identifie, vous pouvez déverrouiller votre voiture et faire démarrer le moteur.

Cela permet de louer et prêter un véhicule très facilement puisqu’il suffit de générer une clé numérique et de l’envoyer au nouveau conducteur.

Les hackers risquent malheureusement de s’en donner à cœur joie.

 

Insolite : une chaise robotisée signée Nissan qui se gare toute seule…

Pourquoi ne pas utiliser notre fabuleuse technologie d’assistant au parking pour ranger notre fauteuil ? C’est l’idée étrange qui est née dans la tête de quelques ingénieurs du constructeur automobile Nissan.

Dans le cas d’une voiture, plusieurs caméras prennent les mesures et envoient les informations utiles à l’ordinateur de bord de façon à ce que le véhicule effectue lui-même le créneau parfait.

Les Japonais ont donc décidé d’installer une base motorisée à leur fauteuil ainsi que des puces de communication sans fil. La position des chaises, des bureaux et des tables est transmise grâce à des caméras placées sur les murs. Le résultat du calcul est transmis en Wi-fi aux pieds robotisés de la chaise.

Dans le futur,  nous n’aurons donc plus besoin de ranger nos fauteuils après chaque réunion, reste à savoir si cela permettra d’augmenter notre productivité.

 

La réalité augmentée, le futur du cinéma

Cinéma, jeux vidéo, médecine, éducation… La réalité augmentée va bientôt bouleverser nos habitudes dans de nombreux domaines en enrichissant la réalité par la superposition d’éléments virtuels.

Les écrans et claviers que nous connaissons pourraient s’effacer dans le futur. C’est la conviction de Microsoft qui a présenté ses lunettes Hololens, mais aussi de la start-up Meta, fière de ses premières lunettes de réalité augmentée dont les démonstrations à Vancouver ont attiré la foule.

Transporter le spectateur dans un environnement imaginaire et l’immerger totalement dans une autre réalité pourraient bien devenir le quotidien des salles obscures.

 

Réalité virtuelle : manipuler des objets grâce à Leap Motion

Décidément, le clavier et la souris sont en ligne de mire ! Les scientifiques ne cessent de chercher à les évincer au profit d’une meilleure immersion de l’utilisateur.

Orion, nouvelle version du logiciel Leap Motion, interface de contrôle en 3D, peut être intégré dans des casques de réalité virtuelle afin de manipuler des objets.

L’expérience est attractive. Un petit bémol cependant : la sensation de toucher, absente, risque de dérouter l’utilisateur.

 

Le premier vélo imprimé en 3D

Aux Pays-Bas, des étudiants ont construit le premier vélo imprimé en 3D par soudage baptisé le « Arc Bicycle ».

Cette nouvelle technique est plus rapide que la méthode traditionnelle qui consiste à imprimer en ajoutant une poudre de métal fondue ensuite au laser.

Il s’agit ici de déposer des petites couches de métal en fusion qui finissent par créer des colonnes, colonnes que l’on imbrique. Les pièces finales sont soudées ensemble, en un temps record.

Par Iris T.

Taxer l’huile de palme, la fausse bonne idée ?

Le boycott ou l’instauration d’une taxe sur l’huile de palme ne permettrait pas de faire baisser la demande mondiale. Elle aurait même un effet contre-productif ! L’amendement prévoit une taxe fixée à 300 euros par tonne en 2017, 500 € en 2018, 700 € en 2019 et 900 € à partir de 2020.

L’Alliance française pour une huile de palme durable « s’étonne de ce vote qui va à l’encontre de l’ambition de la « Déclaration d’Amsterdam », signée par la France le 7 décembre 2015, visant à obtenir 100% d’huile de palme durable en Europe en 2020 » . Elle affirme qu’une augmentation de la fiscalité mettrait en danger la compétitivité des entreprises et donc le développement de bonnes pratiques, notamment environnementales.

Le boycott réduirait les efforts déjà accomplis

Loin de diminuer, la demande en huile de palme continue de croître de 3 % chaque année. Mais seulement 17 % de la production mondiale d’huile de palme est consommée en Europe et aux Etats-Unis. Les pays qui tirent la demande sont les pays émergents, notamment, la Chine qui absorbe 40 % de la production mondiale. L’huile de palme est cultivée sur 20 millions d’hectares pour une production annelle globale de 54 millions de tonnes d’huile de palme et 6 millions de tonnes d’huile de palmiste. L’Indonésie et la Malaisie représentent 90 % de la production mondiale.

« Si les producteurs d’huile de palme mettent fin aux pratiques de déforestation à la demande des industriels européens, cela impacte de facto les productions vendues en Asie, principal acheteur, affirme Guillaume Réveilhac, Président de l’Alliance Française pour une Huile de Palme Durable. Si nous, industriels membres de l’Alliance, n’achetons plus demain d’huile de palme, quel sera le levier qui encouragera les producteurs à changer leurs pratiques ? ». En réalité, cet amendement enverrait un signal négatif aux producteurs et produirait un effet contraire : le boycott ne ferait que compromettre tous les efforts de durabilité accomplis jusqu’à présent. « L’intention est louable, l’effet est contraire », assure Michel Eddi, PDG du Centre de coopération internationale en recherche agronomique pour le développement (Cirad).

Par Matthieu Combe, journaliste scientifique

Biotech : « il est urgent de faire venir des capitaux privés ! »

Depuis 13 ans vous présentez un panorama du secteur innovant des sciences de la vie en France. Quel est le périmètre de ce secteur ? A-t-il évolué ?

photo POG rcdPierre-Olivier Goineau : sous l’appellation « sciences de la vie » nous regroupons aujourd’hui plusieurs filières qui tendent à converger. Il s’agit des biotechnologies, des dispositifs médicaux, de la e-santé et des cleantech. Ce secteur a grandement évolué. A titre d’exemple, notre questionnaire pouvait s’appuyer sur 20-30 entreprises de plus de 250 salariés il y a 13 ans aujourd’hui nous sommes à 200-300.

Là où il y a encore 10 ans, on ne comptait presque que des TPE, aujourd’hui, c’est beaucoup de PME et nombre d’entre elles devraient devenir des ETI.

 

Les pouvoirs publics soutiennent-ils activement ces entreprises innovantes ?

Pierre-Olivier Goineau : Oui, énormément. A la fois via la création de fonds, surtout pour l’amorçage, qui permettent à de nombreuses start-up de voir le jour mais aussi via des efforts pour structurer le secteur : création de pôle de compétitivité, société de valorisation de la recherche, mises en place de passerelles public-privé. L’importance prise par nos entreprises se traduit par exemple par la présence à la BPI (banque publique d’investissement, ex-Oséo) d’experts qui sont dédiés à nos métiers.

Comment se situent les entreprises françaises au niveau international ?

Pierre-Olivier Goineau : Depuis 2-3 ans, nos innovations sont réellement reconnues comme étant du plus haut niveau donc l’internationalisation est très rapide. Sur le terrain cela se traduit par des coopérations avec des universités étrangères ou par une présence importante de filiales notamment nord-américaines. Une tendance qui n’est pas sans poser la question d’un financement français privé plus important.

Les Français n’investissent pas assez dans les entreprises de biotech ?

Pierre-Olivier Goineau: Notre modèle économique est hyper-globalisé. Le carburant premier de nos entreprises, c’est le capital. Et il peut venir du monde entier. En France, pour débuter nous avons le soutien de structures telles que la BPI et il est facile de créer une start-up pour 2-3 ans mais quand il faut refaire un tour de table pour 10-20 millions supplémentaires, là, il y a carence. Aucun acteur privé ne veut investir. On s’aperçoit alors que les capitaux viennent de l’étranger ou d’une introduction en bourse, parfois trop précoce. Il faut savoir que nous intéressons beaucoup les investisseurs étrangers car nos entreprises sont très peu chères – de l’ordre de 10 fois moins qu’une entreprise équivalente aux USA. Mais il y a un risque majeur pour l’économie française d’investir dans la filière et de ne pas en récolter les fruits. Car si les capitaux viennent d’ailleurs, le centre de décision risque de se déplacer aussi et au moment où l’entreprise va employer des ingénieurs de manière plus massive, les emplois créés vont l’être hors de France.

Avez-vous des propositions pour améliorer l’appel de fonds privés ?

Pierre-Olivier Goineau : oui et nous les avons présentées au Gouvernement. Il s’agit par exemple de prélever 1% des 120-140 Md€ de l’assurance-vie pour le transférer vers les entreprises de la vie. Actuellement, j’anime une réflexion pour trouver une solution franco-française voire européenne via le plan Junker par exemple. Il est essentiel pour notre filière que les grands de la finance, les banques et les assureurs reviennent dans le jeu.

Quel conseil donneriez-vous à un jeune scientifique qui veut lancer son entreprise de biotech ?

Pierre-Olivier Goineau : Les jeunes qui veulent se lancer doivent être conscients d’une chose : soit on a l’ambition d’être le meilleur mondial, soit il vaut mieux renoncer. Nous sommes un secteur exigeant où il n’y pas de demi-mesure possible : il faut être le premier à déposer le brevet et prévoir tout de suite une stratégie mondiale de conquête. Par le passé des entreprises trop prudentes, trop timorées ont échoué à cause de ça. Aujourd’hui, les créateurs d’entreprises ont la chance d’être mieux conseillés et accompagnés et peuvent profiter de l’expérience de leurs prédécesseurs au sein de notre association, des cellules de valorisations ou par divers autres dispositifs.

Quelles sont actuellement les innovations qui induisent les plus grandes ruptures ?

Pierre-Olivier Goineau : Je pense que ce sont celles qui touchent à la santé, notamment la e-santé, c’est-à-dire tous les moyens de transfert d’information à partir de dispositifs médicaux. Outre l’aspect purement technologique lié aux dispositifs eux-mêmes ou aux supports de traitements des données,  l’arrivée de ces innovations chamboulent le rôle des experts médicaux, le parcours de soin et le statut des patients et posent de nombreuses questions éthiques. En termes d’emplois cela devrait ouvrir des perspectives pour les statisticiens, informaticiens et experts des nouvelles technologies dans les laboratoires et les hôpitaux.

Y-a-t-il d’autres secteurs porteurs ?

Pierre-Olivier Goineau : On pourrait aussi parler des cleantech. En France, on peut compter sur une bonne dizaine de sociétés innovantes (autour des algues, de l’analyse de l’eau, de la dépollution des eaux et des sols) qui font face à des géants qui ont une faible capacité de R&D pour trouver des technologies disruptives (comme nous dans la pharmacie). On voit alors naître des accords de licence et de distributions. Leur chance, c’est que le besoin en capitaux est moindre.

Propos recueillis par Sophie Hoguin

Une machine expérimentale perce les secrets des bulles de savon

Une équipe de chercheurs du département Matière molle de l’Institut de physique de Rennes (CNRS/Université Rennes 1) s’est penchée sur la question et a développé en laboratoire une machine à bulles auto-entretenue. Les chercheurs sont ainsi parvenus à déterminer la vitesse minimale à laquelle il convient de souffler sur un film de savon pour former des bulles, dans différentes conditions expérimentales. Ces travaux, qui permettraient d’optimiser divers procédés industriels, sont publiés le 19 février 2016 dans la revue Physical Review Letters.

© L. Salkin et al., Phys. Rev. Lett. (2016). Institut de physique de Rennes (CNRS/Université Rennes 1) (a) Evolution typique de la cavité créée dans un film lorsque la vitesse du gaz Vg croit et est inférieure à la valeur minimale de création de bulles Vc. (b) Des bulles se forment lorsque Vg est plus grande que Vc.
© L. Salkin et al., Phys. Rev. Lett. (2016). Institut de physique de Rennes (CNRS/Université Rennes 1)
(a) Evolution typique de la cavité créée dans un film lorsque la vitesse du gaz Vg croit et est inférieure à la valeur minimale de création de bulles Vc. (b) Des bulles se forment lorsque Vg est plus grande que Vc.

De nombreux phénomènes naturels et procédés industriels nécessitent la formation de films liquides minces, pour la production de mousses par exemple. D’autres processus impliquent au contraire d’empêcher l’apparition de bulles, en particulier pour la fabrication de verres et le dépôt de couches liquides sur plaques ou sur fibres. Afin de pouvoir étudier en laboratoire la formation de bulles de savon,  les chercheurs ont développé une machine à bulles expérimentale capable de conférer aux films de liquides minces une très grande durée de vie.

Une cuve placée en hauteur y laisse couler un fluide savonneux entre deux fils de nylon tendus. Le liquide s’écoule par gravité, puis est pompé pour revenir dans la cuve. Lorsque les deux fils, d’environ un mètre de long, sont éloignés l’un de l’autre, ils forment un film rectangulaire de liquide savonneux. Une « bouche artificielle », constituée d’une aiguille connectée à un régulateur de pression, permet de mimer le souffle humain. À basse vitesse, le jet de gaz déforme le film et crée une cavité qui s’affine lorsque la vitesse du gaz augmente, jusqu’au seuil de formation des bulles. Ces phénomènes rapides, difficilement discernables à l’œil nu, sont révélés en filmant l’expérience avec une caméra à haute vitesse.

Les chercheurs ont ainsi pu modéliser les résultats obtenus en fonction des différentes configurations expérimentales. Ils ont identifié les facteurs physiques clefs contrôlant la vitesse minimale à laquelle il convient de souffler, sur un film de savon, pour générer des bulles. L’équipe a également caractérisé l’influence de la distance séparant la « bouche » du film pour former une bulle, puis constaté que la vitesse d’écoulement et l’épaisseur du film d’eau savonneuse n’avaient pas d’impact sur la production des bulles dans les conditions étudiées.

Ces travaux rendent ainsi possible l’obtention d’excellentes données de mesures de taille et de fréquence de formation des bulles. Elles pourraient ainsi permettre d’optimiser divers procédés industriels.


Générer des bulles de savon requiert une vitesse du gaz (Vg) supérieure à une valeur seuil Vc (Film 1). Pour des vitesses de gaz inférieures au seuil, une cavité se forme dans le film de savon auto-entretenu, les autres paramètres de l’expérience demeurant identiques (Film2).© L. Salkin et al., Phys. Rev. Lett. (2016). Institut de physique de Rennes (CNRS/Université Rennes 1).   

Court-métrage de vulgarisation scientifique « Les Bulles de savon« 

Réalisée en 2014 par Louis Salkin (premier auteur de cet article, alors doctorant à l’Institut de physique de Rennes), cette vidéo a remporté la même année à Rennes le 1er prix du jury du Festival Sciences en cour[t]s.

Source : cnrs

Les forêts tropicales émettrices de CO2 ?

Les climatologues craignaient déjà un emballement du réchauffement climatique sous l’action de la fonte du permafrost arctique. Avec cette nouvelle étude, les chercheurs du Centre de coopération internationale en recherche agronomique pour le développement (Cirad) identifient une nouvelle bombe climatique : la baisse de la séquestration du carbone par les forêts tropicales.

En combinant un « modèle d’enveloppe bioclimatique », testé sur les données issues de 1771 parcelles forestières malgaches inventoriées entre 1996 et 2013, avec les projections pour Madagascar issues du GIEC, les chercheurs du Cirad prévoient que « la diminution de la durée de la saison de végétation, l’augmentation de la température moyenne annuelle (+3,7 °C) et la diminution des précipitations annuelles (-107 mm) pourraient conduire à une diminution de 17 % (certaines prédictions allant jusqu’à 24 %) du stock de carbone forestier d’ici à 2080 ». A titre de comparaison , une déforestation spatialement homogène de 0,5 % par an sur la même période conduirait à une perte de 30 % du stock de carbone forestier. A Madagascar , les émissions de carbone induites par l’évolution du climat pourraient donc  au moins être équivalentes aux émissions associées à la déforestation.

Mais il y a pire : le système forestier entier pourrait basculer. « Au-dessus d’une température moyenne annuelle de 21 °C et en-dessous de 1 100 mm de précipitations par an, le stock de carbone des forêts tropicales humides pourrait s’effondrer », estiment les chercheurs. Les forêts pourraient dès lors devenir émettrices de CO2, et contribuer ainsi à l’accélération du changement climatique.

Selon les prévisions du Cirad, le changement climatique induirait une réorganisation des forêts. Les espèces d’arbres les plus petites seraient favorisées conduisant à une baisse de la capacité de stockage de carbone. « Dans un monde toujours plus chaud et plus sec, il y a un risque que les forêts tropicales humides que nous connaissons aujourd’hui finissent par ressembler davantage à des savanes arborées qu’à des forêts impénétrables », estime Ghislain Vieilledent, auteur principal de l’étude.

Les modèles climatiques classiques prédisent la conservation des fonctions de puits de carbone des forêts tropicales. Ces dernières absorberaient en partie l’excès de CO2 émis dans l’atmosphère par les activités humaines. Les modèles indiquent qu’une augmentation de CO2 dans l’atmosphère a pour effet d’augmenter l’efficacité de la photosynthèse et la fixation du carbone, compensant par là le ralentissement de croissance induit par la hausse des températures moyennes. Les forêts tropicales s’adapteraient donc bien au changement climatique. Une bonne nouvelle puisque les scientifiques considèrent qu’elles stockent près de 40 % du carbone terrestre. Mais cette étude du Crirad va à l’encontre de ces prévisions optimistes. Loin d’absorber plus de carbone, les forêts pourraient émettre d’importantes quantités de CO2, entraînant un risque d’emballement du réchauffement. De quoi relancer le débat !

Par Matthieu Combe, journaliste scientifique

Des robots humanoïdes dans les usines aéronautiques de demain

L’introduction d’humanoïdes sur les lignes d’assemblage aéronautiques permettra de décharger les opérateurs humains des tâches les plus laborieuses ou dangereuses. Ils pourront ainsi se concentrer sur des tâches à plus forte valeur ajoutée.

La principale difficulté pour ces robots sera de travailler dans un environnement exigu : comment réaliser certains mouvements sans entrer en collision avec les nombreux objets alentours ? C’est la première question à laquelle devront répondre les chercheurs, en développant de nouveaux algorithmes de planification et contrôle des mouvements précis.

p1010841_ret_72dpi

Du fait de la taille des appareils aéronautiques (par exemple des avions de ligne) et du très grand nombre de tâches à effectuer sur peu d’unités, l’utilisation de robots spécialisés à base fixe, déjà utilisés dans l’industrie automobile, est impossible dans l’industrie aéronautique.

D’autres difficultés s’ajoutent : même si des robots constitués d’une base mobile et d’un bras manipulateur peuvent être utilisés par l’industrie (comme chez Airbus Group par exemple), ceux-ci sont limités dans leurs déplacements. Ils n’ont, en effet, pas la possibilité de monter des escaliers ou des échelles, de passer des obstacles au sol, etc.

De son côté, le Joint Robotics Laboratory (JRL, CNRS/AIST) développe, à partir des modèles de robots HRP-2 et HRP-43, des nouvelles technologies de locomotion dites multi-contacts : en s’aidant de tout son corps pour prendre contact avec son environnement, et non seulement avec ses pieds, ce type de robot peut monter des échelles et entrer dans des endroits exigus. La possibilité d’avoir des contacts multiples permet aussi d’accroître la stabilité du robot et la force qu’il peut appliquer lorsqu’il effectue une tâche. De plus, la forme anthropomorphique de ces robots offre une polyvalence utile pour effectuer un grand nombre de tâches différentes dans des environnements variés.

montage_robot_jrp_3 (1)

La collaboration entre les chercheurs du JRL et Airbus Group a donc pour but de permettre aux robots humanoïdes d’effectuer des tâches de manipulation dans un environnement contraint et limité, les lignes d’assemblage, où ils devront faire un usage coordonné de leur corps pour mener à bien leur mission. Les espaces exigus requièrent en effet des postures particulières. Le calcul de telles postures s’avérant mathématiquement complexe, les chercheurs devront tout d’abord développer de nouveaux algorithmes, bien plus puissants que ceux existants actuellement, tout en gardant ces calculs suffisamment rapides pour que les mouvements des robots restent efficaces. Les tâches typiques que les robots auront à effectuer seront, par exemple, de serrer un écrou, de nettoyer une zone de ses poussières métalliques ou d’insérer des pièces dans la structure de l’appareil. Ils pourront également vérifier le bon fonctionnement des systèmes une fois la fabrication terminée.

Ces algorithmes seront testés sur un ensemble de scénarios tirés des besoins des différentes branches d’Airbus Group (Aviation Civile, Hélicoptères, et Spatial), et dont le réalisme ira croissant au fil des années. Du côté de la recherche en robotique, en plus de l’apport des nouveaux algorithmes, cette collaboration mettra peut-être en lumière des insuffisances des robots actuels (design, précision ou puissance, par exemple). Elle pourrait également permettre de spécifier le cahier des charges de la première génération de robots humanoïdes dédiés à la manufacture de grandes structures, d’ici 10 à 15 ans.

Source : cnrs

Le Q-Carbone, un nouveau matériau plus dur que le diamant

Le diamant est actuellement le matériau naturel le plus dur. Il est composé de carbone et parfois d’olivine (un minéral) en infime quantité. En raison de ses propriétés (notamment sa dureté), il est utilisé dans l’industrie. Mais il a surtout acquis pour le grand public le statut de pierre précieuse à cause de sa rareté, de sa pureté et de ses qualités esthétiques. Pour cela, et même si la valeur varie en fonction de la taille et de la pureté, il est souvent vendu à des prix exorbitants.

Aujourd’hui, le Q-Carbone est en passe de l’éconduire. C’est qu’il surpasserait en tout le diamant : dureté, brillance et il serait ferromagnétique, c’est-à-dire qu’il présente une capacité d’aimantation naturelle sous l’effet d’un champ magnétique. Dans des cas particuliers, il pourrait aussi devenir lumineux.

Si l’on en croit Jay Narayan, co-auteur avec Anagh Bhaumik de l’étude parue dans la revue APL Materials, il n’y aurait vraisemblablement qu’un endroit où l’on pourrait trouver cette troisième forme de carbone solide à l’état naturel : le noyau de certaines planètes.

Cette hypothèse n’est pas confirmée. Mais si elle l’était, la difficulté d’extraction qui en découlerait serait néanmoins caduc puisque les chercheurs sont parvenus à en générer en laboratoire. Pour en fabriquer, ils ont déposé du carbone amorphe (une forme du carbone qui ne possède pas de structure cristalline) sur une plaque de verre puis l’ont chauffé au laser à 3 700°C pendant un temps très court : 200 nanosecondes. Ils ont ensuite refroidi le carbone rapidement et ont ainsi obtenu le Q-Carbone.

Avec ce procédé, seules quelques plaques d’une épaisseur entre 40 et 500 nanomètres ont pu être produites. La phase d’expérimentations n’en est encore qu’à ses débuts et d’autres formes verront sûrement le jour. En attendant, le Q-Carbone offre de belles perspectives. Il pourrait notamment trouver des applications en électronique ou dans le domaine médicale et pourquoi pas un jour remplacer le diamant dans toutes sortes de procédés industriels. Il est encore trop tôt pour le savoir.

Par Sébastien Tribot

L’informatique, un secteur toujours en tension

Dans le secteur des activités informatiques, le nombre de candidatures par offre (et donc le niveau de concurrence) est moindre par rapport à l’ensemble des secteurs : 32 candidatures par offre contre 41 au global (tableau 2). Avec un nombre de candidatures par offre peu élevé et inférieur à la moyenne, ce secteur figure parmi ceux qui rencontrent le plus de difficultés de recrutement.

À noter que cet indicateur reste au même niveau qu’au premier trimestre 2014, et en retrait par rapport à 2013. À titre de comparaison, une offre confiée à l’Apec au premier trimestre 2015 a attiré en moyenne 41 candidatures, un résultat en forte baisse par rapport au premier trimestre 2014 mais qui retrouve un niveau similaire à celui du premier trimestre 2013.

Dans les activités informatiques, le sentiment de tension se situe à un niveau élevé, avec 68 % des entreprises qui disent avoir trouvé « difficilement » des candidats adaptés au poste.

Même si, au global, cette proportion n’a pas évolué en un an, la part des entreprises qui déclarent avoir trouvé « très difficilement » des candidats adaptés a augmenté de 9 points entre 2014 et 2015 (de 18 % à 27 %).

Cette évolution est tout à fait différente de celle enregistrée pour l’ensemble des secteurs.

Pour les entreprises qui ont diffusé une offre au premier trimestre 2015, le sentiment de tension est en recul en un an : 58 % déclarent avoir trouvé « difficilement » les candidats adaptés contre 63 % en 2014.

C’est plus précisément la part des recrutements jugés très difficiles qui a diminué (15 % contre 19 %).

candidatures-informatiques

 Source : Etude menée par l’Apec « Le marché de l’emploi cadre dans le secteur informatique « 

La première partie de la mission ExoMars, c’est pour bientôt !

Mars est plus que jamais dans la ligne de mire des scientifiques, depuis que le robot Curiosity, posé en 2012, est parvenu à démontrer que la surface de la planète rouge a contenu de l’eau dans le passé… Une découverte qui n’était pas passée inaperçue ; l’eau étant l’un des éléments fondamentaux pour que de la vie puisse se développer.

Le projet ExoMars, mené depuis le début des années 2000 par l’ESA, désormais en collaboration avec la Russie (Roscosmos), compte bien creuser plus loin dans cette voie. En mars prochain, avec deux mois de retard, elle enverra depuis le site de lancement de Baïkonour une fusée Proton dans l’espace. Elle emportera avec elle l’orbiteur Trace Gas Orbiter (TGO) ainsi que le démonstrateur Schiaparelli.

Ces deux éléments, clipsés à la fusée durant les sept mois que durera le voyage interplanétaire, se détacheront ensuite pour effectuer les tâches que les chercheurs leur auront attribuées :

  • TGO, composé de la caméra stéréo à haute résolution CaSSIS, de l’ensemble de spectromètres infrarouges et ultraviolets NOMAD et d’un détecteur de neutrons FREND, aura pour missions de cartographier l’atmosphère de Mars, en recensant les gaz présents – y compris ceux à l’état de trace – et d’identifier leur origine. Sur le long terme, l’étude de l’atmosphère martienne montrera les variations saisonnières sur les quantités de tel ou tel gaz et permettra peut-être d’expliquer les résurgences de méthane que Curiosity avaient découverts. Le méthane étant un gaz créé selon des circonstances très particulières comme l’a rappelé Jorge Vago : « dans 80-90% des cas, le méthane est lié à l’existence de vie. Ce gaz peut être soit le produit d’organismes bactériens ayant vécu ou vivant encore sur ou sous la surface de Mars, soit le fruit de processus géologiques particuliers. » Il est en tout cas potentiellement synonyme de présence d’eau et de vie, présente ou passée. Et puisqu’il s’agit bien ici d’un des enjeux scientifiques que de parvenir à dénicher des indices d’une vie biologique, il y a fort à parier qu’il s’emploie aussi à dénicher de l’hydrogène.
  • L’atterrisseur Schiaparelli, qui, du haut de ses 600 kg, est un condensé de technologies (bouclier thermique, station météo, plateforme d’amarrage, rétrofusées pour qu’il se pose sans s’écraser, parachute) devra prouver que le programme spatial européen est capable de faire atterrir un engin lourd sur Mars.

Ce serait une première pour l’ESA l’échec de l’envoi du robot Beagle. Il faudra à Schiaparelli supporter des conditions très difficiles : une descente dans l’atmosphère martienne à 21 000 km/h et une température qui pourra avoisiner les 1 500°C.

Les zones jugées intéressantes seront repérées en vue de la troisième mission : envoyer un rover de 300 kg en 2018 capable de creuser jusqu’à deux mètres de profondeur le sol martien et d’analyser les échantillons prélevés.

Une connaissance plus profonde de Mars est une ambition mondiale. Il s’agit d’une étape décisive pour l’Europe qui doit prouver qu’elle a les moyens de rester dans la course de la conquête spatiale en continuer de faire avancer les enjeux scientifiques.

Par Sébastien Tribot

Une maison dans l’espace : 6 projets incroyables

Souvenez-vous, dans le film « Seul sur Mars », l’acteur Matt Damon doit survivre sur la planète rouge, abrité par une base spatiale sommaire, en cultivant ses propres pommes de terre pour se nourrir.

Avec l’exploration spatiale naît le besoin de créer de nouveaux habitats qui répondent aux besoins spécifiques de ces contrées hostiles.

Les chercheurs et designers ont imaginé des projets d’architecture particulièrement créatifs. Impression 3D, matériaux naturels, énergie solaire… Les dernières innovations terrestres ont rendez-vous dans l’espace !

Un hôtel dans l’espace

Le tourisme spatial est devenu une réalité… pour Richard Branson. Orbital Technologies se lance dans le marché lucratif des vacances galactiques grâce à sa station spatiale commerciale (CSS). Conçue pour servir de station spatiale multi-usages, cette maison de vacances alimentée à l’énergie solaire promet de beaux souvenirs.

Vous dormirez dans des sacs de couchage à la verticale ou à l’horizontale afin de ne pas flotter dans la cabine. Des mets délicats vous seront proposés à bord (préparés sur Terre). En revanche, vous ne trouverez pas d’alcool. L’habitat est idéal pour des vacances reposantes mais il peut également servir aux scientifiques comme station de secours.

Pour deux jours de voyage, comptez quand même 826 000 dollars.

Orbital-Technologies-Space-Hotel7

Orbital-Technologies-Space-Hotel

Orbital-Technologies-Space-Hotel4

Orbital-Technologies-Space-Hotel6

Orbital-Technologies-Space-Hotel3

Une maison sur la Lune

Foster + Partners, en partenariat avec l’Agence spatiale européenne, a pour projet ambitieux un habitat imprimé en 3D sur la Lune. Cette maison lunaire pour quatre personnes serait capable de faire face à de nombreuses menaces (météorites, rayons gamma, fluctuations de température, etc.). Comme le transport des matériaux de construction dans l’espace représente un vrai défi, l’équipe envisage d’utiliser l’impression 3D pour construire ce dont elle a besoin directement sur place.

Foster_partners_Lunar_Base3

Foster_partners_Lunar_Base2 (1)

1-foster-partners-moon-base-1

Un igloo sur Mars

Ce projet a remporté le concours organisé par la NASA qui mettait au défi les ingénieurs et designers de créer le meilleur habitat imprimé en 3D sur Mars. C’est chose faite !

Une capsule constitue la base de l’abri. Une membrane gonflable crée un sas entre l’intérieur du bâtiment et l’environnement de Mars.  Des rovers extraient de l’eau de la glace située sous la surface d’Alba Mons, le plus grand volcan de la planète rouge. L’eau gelée crée ainsi une couche protectrice qui protège l’habitat des radiations extérieures tout en laissant passer la lumière (c’est plus feng shui).

ice-house-space-igloo-mars-889x695

Ice-house-by-Search-and-Clouds-AO-1-1020x610

Ice-house-by-Search-and-Clouds-AO-10-1020x610

Ice-house-by-Search-and-Clouds-AO-8-1020x610

Ice-house-by-Search-and-Clouds-AO-6-1020x610

Ice-house-by-Search-and-Clouds-AO-7-1020x610

Camping sur la Lune

Le camping a bien changé… Deux ingénieurs du MIT ont mis au point un module gonflable solaire qui pourrait permettre aux astronautes de passer plusieurs jours sur la surface lunaire sans retourner à la base.

L’abri mobile se compose d’un module gonflable soutenu par des tubes de tissu siliconés sous un film réfléchissant qui protège le système (et les astronautes) de la surchauffe. Un panneau solaire portable alimente l’abri. Tout est sous contrôle : la température, le taux de dioxyde de carbone, l’électricité, etc. Une station de recharge est prévue pour le rover. L’oxygène, l’eau et la nourriture sont stockés à l’intérieur.

Le camping lunaire gonflable MIT est idéal pour une longue exploration lunaire.

moon-camping11

moon-camping2

moon-camping

Une maison-bulle sur Mars

L’entreprise française Fabulous spécialisée en impression 3D a conçu une maison- bulle d’aspect étrange.

Le procédé d’impression est original puisqu’il s’agit d’utiliser le sol martien comme matière première, ce qui rend la construction particulièrement durable.

La maison Sfero, tout en rondeurs,  s’installerait dans le cratère de Gale.  Elle comporte deux étages composés notamment d’un jardin intérieur, d’espaces de travail et de chambres reliées par un escalier en colimaçon.

Fabulous-3D-Martian-Bubble-House-Concept1-1020x610

Fabulous-3D-Martian-Bubble-House-Interior-2-1020x610

Fabulous-3D-Martian-Bubble-House-Interior-1020x610

Votre propre maison imprimée en 24h

Vivre sur Mars ne relève plus tout à fait de la science- fiction. Un frein cependant : les premières maisons risquent de coûter très cher ! Pour un seul kilo de matériau, comptez entre 100 000 et 200 000 dollars.

La NASA détient peut-être la solution : vous allez pouvoir télécharger, imprimer et construire votre propre maison sur Mars en seulement 24h ! En théorie, bien sûr.

Behrokh Khoshnevis, de l’Université de Californie du Sud,  travaille  en effet pour le compte de la NASA sur une nouvelle technologie de construction appelée « Contour Crafting » qui permettra à tous de concevoir et imprimer en 3D sa propre maison martienne en utilisant une imprimante géante : du béton couche par couche dans la forme que vous voulez, à moindre coût, rapidement et facilement. Cela laisse rêveur.

71NfeS1

_77607478_nasabuild

_77607480_nasahouse624

_77607476_gantry_nozzle

Par Iris T.

Expérience#1 : « Je ne vaux plus rien »

Marie a longtemps hésité avant d’exposer cette expérience tellement elle est empreinte de la honte de s’être empêtrée dans cette situation. Aujourd’hui, conséquence d’un éprouvant mais salutaire travail d’introspection, elle accepte de se livrer, non par impudeur, mais pour sortir de la solitude qui accompagne toujours la honte. Elle espère que le récit de son accident de parcours pourra apporter un soutien à tous ceux et celles qui traversent, ou ont traversé, une mésaventure analogue : celle d’avoir failli.

Comment est-ce que tout cela a commencé ?

Marie a toujours été farouchement attachée à son autonomie et à son intégrité. Personne n’a jamais réussi à lui faire renier ses valeurs, même lorsque les enjeux étaient de taille. Issue d’une famille modeste, elle a réussi à accéder à un très honorable niveau d’études supérieures tout en exerçant une activité professionnelle. Mais Marie est une entrepreneuse. Son statut de salariée, juridiquement soumise à l’autorité toujours arbitraire des échelons supérieurs de la hiérarchie, l’empêche d’exercer une grande partie des talents qu’elle a acquis au long de sa carrière enrichie par le développement simultané de ses connaissances. Aussi, à la quarantaine, lassée de devoir s’humilier à vendre ses talents et son parcours atypiques à des recruteurs robotisés par la répétitivité de leur tâche, Marie décide de lancer un projet qui lui donne l’opportunité de se sentir enfin utile : rapprocher les hommes et les aider à travailler harmonieusement ensemble. Forte de cette noble motivation, Marie monte donc sa boite : une société de conseil en organisation.

Vide

Dès le départ, même si son niveau de rémunération est bien en deçà du niveau qu’elle avait acquis en tant qu’ex salariée, les choses se passent plutôt favorablement. Grâce à la confiance d’une poignée de clients récurrents, assurée quant à leur éternelle fidélité, Marie se consacre presque exclusivement a à élaborer des solutions approfondies pour résoudre les différents problèmes que ses clients lui soumettent régulièrement. Elle se rend bien compte qu’elle néglige son activité commerciale de prospection de nouveaux clients, la progression encourageante du chiffre d’affaires lui laisse reléguer cette activité commerciale au second plan. Pendant plus d’une décennie, les clients se montrent particulièrement satisfaits des services rendus. Marie exulte. Exquise sensation d’utilité et de liberté qui font souvent regretter à Marie de ne pas s’être lancée plus tôt. Hélas, après 12 années de bonheur professionnel et familial, tout bascule. Chute vertigineuse du chiffre d’affaires liée- selon Marie, à la crise qui frappe pratiquement tous les acteurs de la vie économique. En un an, Marie perd 80% de sa clientèle. Pendant un certain temps, les réserves de Marie lui permettent de traverser, tant bien que mal, cette tempête dévastatrice mais les conséquences sur sa vie personnelle et matérielle sont catastrophiques. En effet, Marie possède d’indéniables talents d’observatrice et ne peut s’empêcher de remarquer que les nouveaux prospects qu’elle s’est mise à démarcher abondamment ne semblent ni convaincus par ses valeurs, ni par sa démarche. Marie se sent de plus en plus incompétente, incapable de convaincre ses prospects, incapable de valoriser ses compétences, incapable d’inspirer confiance, incapable de gagner sa vie. Le sentiment d’être un imposteur l’envahit chaque jour davantage. Est-ce que les décideurs sont cyniques au point de ne pas miser sur les valeurs humanistes qu’elle cherche à promouvoir ? Au terme de 4 années d’acharnement professionnel stérile, comment ne pas échapper à la dépression et à ces terribles sentiments de dévalorisation, de solitude et de vide existentiel qui habitent Marie à présent?

Bilan

Marie se reproche aujourd’hui d’avoir été inconséquente en n’ayant pas cherché à anticiper qu’après le beau temps, la pluie finit toujours par arriver. Elle avait pourtant appris, comme tout le monde, la fable de la cigale et la fourmi. Son vécu professionnel et ses compétences en marketing ne lui laissaient pourtant aucun doute sur l’inéluctable réalisation de ce risque de crise. En se laissant griser-comme une gamine – par ses espoirs et son succès grandissants, Marie prend conscience qu’elle s’est elle-même anesthésiée. Maintenant, sa honte se nourrit du constat que – grâce à des options professionnelles moins ambitieuses, des privilèges hérités ou des activités protégées – de nombreuses personnes de son entourage familial ou professionnel échappent aux ravages de cette crise économique. Non pas qu’elle voudrait qu’ils pâtissent, comme elle de la conjoncture, mais avec tout son bagage intellectuel et professionnel, après tant d’efforts également imposés à sa famille, Marie vit sa situation comme une profonde injustice du sort. La rancœur qui la submerge, et qu’elle condamne, ne fait qu’ajouter à sa honte. A quoi bon tous ces efforts ? A quoi bon toutes ces compétences ? Est-ce là le sens de la vie ? La société ne sait-elle donc pas reconnaître ceux et celles qui – par leur courage et leur investissement personnel- la font avancer ? Marie doit-elle interpréter ce cruel message de la vie comme une injonction à faire profil bas, à rentrer dans le rang du salariat, à ne pas s’exposer, à rester à sa place… ?

Comment Marie peut-elle se sortir d’une pareille épreuve ?

  1. Marie s’est doublement plantée en surestimant ses capacités à réussir son projet et en étant inconséquente. Il est temps qu’elle redevienne réaliste et qu’elle se préoccupe d’assurer sa sécurité matérielle et celle de sa famille. Sa priorité c’est de trouver un boulot sûr lui garantissant des revenus réguliers même s’ils sont bien en deçà de sa valeur.
  2.  Marie ne doit pas renoncer à son rêve. Elle doit persévérer. Il lui faut trouver des soutiens qui l’aideront à rencontrer des prospects qui partagent ses valeurs… Tant pis pour la sécurité matérielle. Après la pluie vient aussi le beau temps.
  3. Il n’y a rien que Marie puisse faire. La crise finira bien par passer. Marie n’a aucune raison de douter de ses capacités puisqu’elles lui ont toujours réussi dans le passé. Qu’elle poursuive son douloureux exercice d’introspection pour restaurer tout d’abord sa confiance en elle. Cette nouvelle compétence lui permettra de venir en aide à ceux qui, comme elle, se sont embourbés dans une issue analogue et qui ont du mal à s’en sortir seuls…ainsi à ceux qui risquent de s’engager dans cette même pente.

Nous vous invitons à nous faire part de votre choix – en le commentant au besoin – dans la zone commentaires au bas de cet article. Vos réponses permettront à l’auteur faire état des tendances qui se dégagent dans une autre série d’articles.

Par Dino Ragazzo

12 expériences de management réelles

  1. Expérience #1 : « Je ne vaux plus rien »
  2. Expérience #2 : « Je sais ! Je sais ! Du savoir à la compétence »
  3. Expérience#3: « ça ne marche pas »
  4. Expérience#4 : Managers attention : le succès rend aveugle !
  5. Expérience#5 : Passe-droits, privilèges et courage
  6. Expérience#6 : Justice pour les collaborateurs, solitude pour les managers
  7. Expérience#7 : Le soi du Gestalt consultant comme outil d’observation des processus
  8. Expérience#8 : Perfectionnisme : une coûteuse erreur de management

Une révolution dans le domaine du stockage d’énergie sur des puces miniaturisées

Techniques de l’Ingénieur : Pouvez-vous revenir sur la mise au point de ces dispositifs de stockage et les difficultés que vous avez rencontrées ?

Christophe Lethien : Mon collègue Patrice Simon travaille depuis 2010 avec Yury Gogotsi sur la mise au point de ces dispositifs. C’est en 2013 après une discussion avec Patrice que je lui ai proposé de faire des couches minces de carbure métallique (TiC) par pulvérisation à l’IEMN.

Nous avons été confrontés à trois difficultés bien distinctes. D’abord, la nécessité de contrôler les contraintes et la conductivité électronique des couches minces de TiC dès lors que l’on a essayé de faire des épaisseurs supérieures à 3 µm (contrôle des paramètres de dépôt lors de la croissance par pulvérisation).

La seconde difficulté a été de contrôler l’interface TiC/carbone poreux lors du traitement thermique par chloration pour avoir une couche adhérente sur le substrat.

Dernier défi : Faire une structure interdigitée par gravure avec des épaisseurs de TiC supérieures à 5 µm.

Cela fait quelques années que la recherche s’est penchée sur le développement de micro-dispositifs de stockage de l’énergie directement sur des puces électroniques. Peut-on parler de rupture technologique en ce qui concerne le dispositif que vous avez développé ? En quoi se démarque-t-il des dispositifs précédemment développés ?

Effectivement, il s’agit d’une rupture technologique avec des procédés de fabrication collective de microsupercondensateurs à l’échelle du wafer. Les procédés sont reproductibles et le contrôle de tous les paramètres de dépôt et de chloration nous permettent vraiment d’obtenir des performances remarquables à la fois en densité d’énergie et de puissance.

supercondensateur
Un microsupercondensateur

De plus, nous utilisons des matériaux peu couteux (carbure de titane, silicium) au contraire de certains dispositifs publiés dans la littérature à base de métaux nobles ou d’oxydes de métaux nobles (or, oxyde de ruthénium, oignons de carbone) qui ne sont pas compatibles avec un transfert technologique vers des lignes de production de l’industrie du silicium (contamination, toxicité, cout prohibitif des matériaux).

Expliquez-nous en quoi la méthode de fabrication de ce dispositif est adaptée aux contraintes de l’industrie ?

wafer (1)
un wafer

Elle utilise des wafers de silicium (démonstration ici sur des wafers de 3 pouces de diamètre – dimension « compatible » laboratoire). Le dépôt de carbure de titane est effectué par pulvérisation cathodique DC, une méthode très répandue dans l’industrie de la microélectronique et qui permet de faire des couches minces sur des grandes surfaces. La gravure des structures interdigitées des microsupercondensateurs est réalisée par gravure sèche ICP/RIE, méthode de gravure plasma elle aussi disponible industriellement. La chloration des couches de TiC pour fabriquer le carbone microporeux est effectuée dans un four tubulaire. De cette façon, tout a été pensé pour assurer ce transfert industriel.

Ce dispositif obtient le meilleur rapport énergie surfacique/puissance surfacique à ce jour. Pouvez-vous revenir sur cette performance et la mettre en perspective par rapport aux innovations préexistantes à ce niveau ?

Le matériau est extrêmement adhérant sur le substrat avec une taille de pores de carbone poreux contrôlée très précisément (à 0.1 nm près). Le procédé est très reproductible. Le procédé de gravure Laser utilisé par R.Kaner est très séduisant mais les microsupercondensateurs à base de graphène présentent une faible capacité surfacique. Pour augmenter leur performance, ce même groupe a proposé de coupler ce graphène obtenu par laser avec du dioxyde de manganese.

En dépit d’une belle densité d’énergie, la densité de puissance chute très rapidement principalement à cause de l’épaisseur importante de MnO2 déposée. Les microsupercondensateurs que l’on réalise avec les chercheurs Toulousains et Amienois sont pourvus d’électrodes de carbone poreux de forte capacité surfacique permettant donc de maximiser la densité d’énergie. Il s’avère aussi que la densité de puissance est elle aussi très importante. La couche de carbure de titane sous jacente à la couche de carbone microporeux agit comme collecteur de courant et sa conductivité électronique a été optimisée favorisant donc une bonne densité de puissance.

Expliquez-nous quelles pourraient être les applications de ces microsupercondensateurs au niveau industriel ? quels secteurs seront principalement concernés ?

Ces microsupercondensateurs pourraient être utilisés comme source d’énergie complémentaire d’une microbatterie au sein de noeuds de réseau de capteurs sans fil miniatures. Il faut imaginer des petits points d’accès radiofréquence à l’image de petits smartphones ou petits points d’accès wifi intégrés dans un volume réduit (quelques millimètres cube) et permettant de capter une information à mesurer (température, analyse de gaz, présence….). Un réseau de multiples objets miniatures permettrait de cartographier une zone (site nucléaire pour pollution, analyse de gaz lors de guerre chimique, surveillance de départ de feu dans les forets…).

Ces microcapteurs communicants ont nécessairement besoin de sources d’énergie pour fonctionner et une microbatterie, couplée à nos microsupercondensateurs pourraient assurer la distribution d’énergie en toute circonstance. Se pose le problème de la rechargabilité…. En prélevant l’énergie dans l’environnement proche du capteur miniature (solaire, énergie lumineuse artificielle, gradient de température, vibration….), ces microdispositifs de stockage complémentaires pourraient être rechargés. Il est possible aussi d’imaginer des  capteurs miniatures intégrés au sein de textiles intelligents pour surveiller les constantes vitales d’un être humain.

A plus long terme, même s’il se pose des questions d’éthique, on peut imaginer des petits objets miniatures (taille micrométrique) intégrant ces microsupercondensateurs (autonomie énergétique) et voyageant au sein du corps humain pour la délivrance locale de médicaments au plus proche d’une douleur par exemple.

Enfin, 6 laboratoires ont participé à ce projet. Pouvez-vous revenir rapidement sur la génèse de cette collaboration et la nécessité de ces collaborations dans l’innovation aujourd’hui ?

L’innovation se situe dans la maitrise complète du processus de fabrication par des acteurs qui ont travaillé en étroite collaboration pour proposer ces dispositifs performants. Patrice Simon, Pierre Louis Taberna (CIRIMAT) et Yury Gogotsi (Université de Drexel) travaillaient depuis 2010 sur ces carbones microporeux (carbone dérivé de carbure – CDC), principalement sous forme massive.

Suite à l’intégration de l’IEMN (mai 2012) au sein du RS2E (réseau français sur le stockage électrochimique de l’énergie), nous avons décidé avec Patrice Simon, en 2013, de travailler sur la synthèse de films minces de carbure métallique par pulvérisation cathodique.

Ces films minces déposés à l’IEMN ont ensuite été chlorés avec succès sur Toulouse par le LPCNO et le CIRIMAT qui ont aussi mesuré les performances électrochimiques et mécaniques. La gravure plasma des structures interdigitées a été réalisée à l’IEMN. Les analyses par microscopie électronique à transmission du TiC et des CDC ont été effectuées par Arnaud Demortière au LRCS à Amiens. Comme vous pouvez le constater, les compétences nécessaires à la fabrication et la caractérisation de ces microsupercondensateurs sont nombreuses et ne peuvent être maitrisées au sein d’un unique laboratoire : l’action collective que l’on a menée a permis d’obtenir ces résultats. Je tiens à préciser que c’est vraiment grâce au RS2E que ce type d’actions a pu être mis en place. On ne peut que s’en féliciter.

Le bio pour sortir les agriculteurs de la crise ?

En compilant les données provenant d’une centaine d’études, deux agronomes américains – John Reganold et Jonathan Wachter – ont comparé l’agriculture biologique à l’agriculture conventionnelle selon les 4 indicateurs de durabilité retenus par l’Académie nationale des sciences américaine : la productivité, l’impact environnemental, la viabilité économique et le bien-être social.

« Sur la base de données actuelles, nous soutenons que, bien que les systèmes en agriculture biologique produisent des rendements plus faibles qu’en agriculture conventionnelle, ils sont plus rentables et respectueux de l’environnement, et délivrent des aliments autant ou plus nutritifs avec moins ou pas de résidus de pesticides », affirment les auteurs de cette nouvelle étude. En outre, ils relèvent que les systèmes en agriculture bio semblent fournir de meilleurs services écosystémiques et ont des bénéfices sociaux supérieurs.

Productivité : Ne pas se cantonner à la question des rendements

Les principales critiques à l’encontre de l’agriculture biologique portent sur les rendements. De nombreuses études ont exploré les différences de rendements entre les agricultures bio et conventionnelle. Selon les méta-analyses compilées par les auteurs, les rendements en bio sont de 8 à 25 % plus faibles qu’en conventionnel. Néanmoins, les chercheurs soulignent que ces chiffres doivent être manipulés avec précaution, les résultats dépendant énormément des cultures, des pratiques agricoles et du climat.

Selon l’étude « The crop yield gap between organic and conventional agriculture » parue en 2012, les meilleurs rendements obtenus en agriculture biologique concernent le riz, le soja, le maïs et le trèfle. Les rendements n’y sont « que » de 6 à 11 % plus faibles qu’en agriculture conventionnelle. En revanche, les fruits et le blé s’en sortent le plus mal, avec des rendements inférieurs, respectivement, de 28 et 27 %. Une autre étude parue dans Nature en 2012 relève des rendements inférieurs de 37 % pour le blé et 33 % pour les légumes cultivés en bio.

Malgré ces chiffres, les auteurs restent optimistes sur l’intérêt de l’agriculture bio, car les fermes sont plus résilientes et les progrès dans les sélections de variétés pourraient lui permettre de rattraper son retard. « En cas de sécheresses sévères, qui risquent d’augmenter avec le changement climatique dans de nombreuses parties du monde, les fermes en gestion biologique ont souvent montré qu’elles avaient de meilleurs rendements que leurs homologues en conventionnel, grâce à une meilleure capacité de rétention en eau des sols », relèvent les deux agronomes. En outre, l’amélioration des techniques de culture et des semences pour les systèmes organiques pourrait également combler cet écart de rendement. »

S’intéresser au rendement est une chose, mais les productions sont-elles de qualité égale ? Les auteurs notent qu’une alimentation bio permet de diminuer l’exposition aux pesticides chimiques, notamment des enfants. En revanche, ils soulignent que l’impact sur la santé humaine d’une exposition à des résidus de pesticides chimiques demeure flou et que « les pesticides certifiés biologiques doivent être mieux identifiés et pris en compte » pour évaluer leur impact potentiel sur la santé humaine.

Par ailleurs, les auteurs se sont intéressés à 15 méta-analyses portant sur l’intérêt nutritionnel des produits biologiques et conventionnels. 12 de ces études relèvent des intérêts nutritionnels en faveur du bio grâce à des teneurs supérieures en vitamine C, antioxydants, omega-3, etc. Mais les écarts relevés sont faibles et ces résultats demeurent très débattus. Les trois autres études n’ont pas trouvé de différences nutritionnelles substantielles.

Environnement : avantage certain pour le bio

L’agriculture biologique présente un impact environnemental moindre, c’est certain. « « Par exemple, de telles études globales ont constaté que les systèmes en agriculture biologique ont toujours des sols présentant une teneur en carbone plus élevée, une meilleure qualité des sols et une moindre érosion des sols », relèvent les chercheurs. En outre, les fermes biologiques présentent généralement une plus grande biodiversité des plantes, des insectes, des animaux, des microbes et de la diversité génétique en général, ainsi qu’une plus grande variété de paysages. Cette biodiversité augmente les services rendus par la nature, comme la pollinisation.

Le bio présente d’autres avantages environnementaux : il ne participe pas à la contamination des eaux par les pesticides chimiques et les fermes sont généralement plus efficaces en énergie. Il relargue également moins de nitrates et de phosphore et moins de gaz à effet de serre par hectare. Mais du fait d’une productivité plus faible, cet avantage peut être inversé lorsque l’on fait le bilan par tonne produite.

Economie : Le bio est plus rentable

Les auteurs n’ont identifié qu’une seule étude portant sur les performances économiques des fermes bio comparées aux fermes conventionnelles. Cette analyse porte sur 40 ans de production couvrant 55 cultures sur les 5 continents.

Il en ressort que l’agriculture biologique est significativement plus profitable, de 22 à 35 % grâce à des prix plus rémunérateurs. Un avantage effacé si l’on alignait le prix des produits bio sur ceux du conventionnels. En absence de ce surcoût librement consenti par le consommateur, c’est l’agriculture conventionnelle qui est la plus rentable, de 23 à 27 %.

Prendre en compte les externalités négatives de l’agriculture conventionnelle (par exemple, la pollution par les pesticides chimiques) et les externalités positives de l’agriculture bio (par exemple, la hausse de la biodiversité) dans le prix des productions permettrait d’améliorer nettement la compétitivité du bio. Ainsi, une étude a estimé que le passage à une production 100% biologique en Grande Bretagne ferait baisser les coûts externes de l’agriculture de 75 %, passant de 1,96 milliards d’euros par an, à 498 millions.

Bien-être : des agriculteurs plus heureux

L’agriculture biologique diminue l’exposition des travailleurs agricoles aux pesticides chimiques, notamment dans les pays en développement où les équipements de sécurité sont très chers et pas toujours utilisés en conventionnel. Par ailleurs, elle permet des interactions sociales supérieures entre les fermiers et les consommateurs, un taux d’emploi supérieur et une meilleure coopération entre fermiers.

Les auteurs concluent que le bio devrait, à l’avenir, prendre une part plus importante dans la production agricole aux côtés d’autres alternatives respectueuses de l’environnement, telles que l’agroforesterie ou l’agriculture intégrée. Pour nourrir les 9 à 10 milliards d’habitants en 2050, plutôt que de s’intéresser à la seule question des rendements, les chercheurs proposent de lutter contre le gaspillage alimentaire, améliorer l’accès et la distribution des productions, arrêter les biocarburants alimentaires et diminuer la consommation mondiale de viande. Aujourd’hui, l’agriculture mondiale produit largement assez de calories pour nourrir l’ensemble des 7 milliards d’habitants. Mais la distribution des productions reste inégale : 1,9 milliards d’adultes sont en surpoids, 600 millions sont obèses, lorsque 793 millions sont sous-alimentés.

Par Matthieu Combe, journaliste scientifique

Management : 5 nuances fondatrices de l’expérience humaine

C’est la raison pour laquelle – à travers une série d’articles interactifs – nous avons voulu présenter des situations professionnelles réelles s’inspirant de l’expérience et des commentaires de nos lecteurs pour les aider à mieux traverser leurs propres épreuves professionnelles.

Le nombre cinq a souvent été associé à la représentation de l’homme en tant que synthèse du monde. Par exemple, dans « l’homme de Vitruve », célèbre dessin de Léonard de Vinci, le pentagramme symbolise l’homme avec ses cinq extrémités : deux bras, deux jambes, la tête. Cinq extrémités, cinq doigts de la main, cinq sens, cinq vertus, cinq niveaux de la douleur… cinq thématiques existentielles qui accablent et pimentent à la fois la vie de l’être humain.

Ces 5 thématiques existentielles sont :

  1. Liberté – Responsabilité – Choix.
  2. La quête de sens et la question de l’absurde.
  3. La perfection.
  4. La solitude.
  5. La finitude.

Ces thèmes sont des éléments fondamentaux et invariants de l’existence des systèmes humains. Nous vous montreront à quel point leur connaissance peut vous apporter un précieux soutien à la construction de relations interpersonnelles fructueuses tant dans votre vie professionnelle que personnelle.

Au cours des publications qui vont suivre, nous essayerons, par exemple, de trouver des réponses aux questions suivantes : Comment comprendre qu’un manager instruit ne témoigne aucune compassion vis-à-vis de loyaux et valeureux collaborateurs congédiés au nom des règles de bonne gestion de l’entreprise ? N’est-ce pas inquiétant qu’un manager ne s’émeuve pas publiquement des conséquences de décisions aberrantes d’un directeur basé à 8000 km de la réalité locale ? Comment conserver sa motivation et celle de ses collaborateurs lorsqu’on ne comprend plus les valeurs et les orientations de l’entreprise ? Comment faire et assumer le choix de ne pas réaliser certaines activités « administratives » rituelles de l’entreprise pour privilégier celles qui conduisent à l’innovation et à une plus grande valeur ajoutée ? Comment oser insérer des plages de temps professionnel sans autre objectif que d’être ensemble et de renforcer les aptitudes à rester présent à soi et aux autres ? Dans son style de management, comment intégrer – au lieu de rejeter a priori – le risque (ou l’opportunité) de perdre son job ? Comment assumer ses limites, sa propre incompétence ?

Ces questions sont au manager ce que l’épine est à son pied : elles produisent de l’inconfort et il n’est pas facile de s’en débarrasser sans souffrance. Certains responsables continuent donc de « manager à cloche-pied », préférant bâcler toute confrontation aux 5 expériences mentionnées ci-dessus.

Pourtant, notre environnement professionnel nous offre de multiples opportunités pour apprendre à mieux traverser ces grandes épreuves existentielles.

La connaissance de ces constantes humaines est un atout pour le manager attaché à la qualité des relations et des décisions.

Vous vous êtes probablement aperçus que ces problématiques vous conduisent très souvent dans d’inextricables dilemmes que vos méthodes classiques de résolution de problèmes ne vous permettent pas de débroussailler. Pour explorer ce contexte souvent inconfortable, nous vous proposons – à travers les prochains 12 articles de cette série – une suite d’expériences réelles d’acteurs de la vie économique. Chaque article illustrera une problématique existentielle particulière parmi les 5 que nous avons répertoriées ci-dessus. Pour chacun de ces récits, nous vous proposerons de choisir, en votre âme et conscience, entre trois formules présentant chacune une manière différente de le clôturer.

Vous y reconnaitrez peut-être des situations que vous – ou des proches – avez vécues.

À partir des dénouements que vous auriez souhaités nous proposerons des enseignements qui, nous l’espérons, pourront vous être utiles et vous aideront à mieux faire face à des situations contingentes de la vie professionnelle.

A travers nos échanges, nous avons l’ambition de développer un système dynamique, collaboratif, ouvert, favorisant la découverte, la croissance, la solidarité et le développement des contributeurs dont vous ferez peut-être partie.

Notre prochaine publication sera consacrée au thème de la quête de sens et de l’absurdité dont relèvent certaines épreuves de la vie professionnelle.

Au travers du récit de « traversée du désert » de Marie, et en vous référant à vos propres expériences/échecs, venez aider Marie à donner du sens à ses « mésaventures ». Vos témoignages et commentaires seront très utiles à tous ceux qui pourraient se décourager trop vite face à cette cruelle épreuve existentielle de confrontation à l’absurde.

Dino Ragazzo

Fukushima : Tepco prêt à ériger son mur de glace

Lancée en juin 2014 par Tepco, l’opération « mur de glace » aurait pu faire sourire si la situation de la centrale nucléaire de Fukushima n’était pas si grave. Les employés de la compagnie japonaise luttent depuis près de cinq ans déjà pour maintenir le site nucléaire sous contrôle et empêcher l’eau souterraine de s’infiltrer dans les bâtiments réacteur accidentés. Tepco estime qu’au moins 400 tonnes d’eau entreraient chaque jour dans les bâtiments grâce aux multiples conduits qui équipent les bâtiments réacteur. La compagnie pompe quotidiennement l’eau pour la retraiter, mais face à l’ampleur de la tâche, des millions de mètres cube d’eau contaminée ont déjà été reversés en mer.

ice_wall714

Geler le sol

Le concept de mur de glace consiste concrètement à forer sur 35 mètres de profondeur tout autour des bâtiments et à insérer dans chaque trou un tuyau dans lequel circulera un liquide réfrigérant. L’objectif est de geler le sol en permanence pour empêcher toute infiltration. Le projet a été testé et Tepco semble suffisamment satisfait des résultats pour lancer les travaux à grande échelle. Au total, Kajima Corporation, la société choisie pour mener les opérations, devra installer pas moins de 1 550 tuyaux dans le sol pour former un mur de 1,5 kilomètres de circonférence. Le gouvernement japonais a estimé le coût de ce mur à 32 milliards de yen (251 millions d’euros), sans compter la fourniture d’électricité pour alimenter le système. Tepco attend désormais le feu vert de l’Autorité japonaise de sûreté nucléaire pour lancer les travaux.

_69623952_fukushima_ice_wall_624

Par Romain Chicheportiche

Le graphène : matériau du XXIème siècle ?

Isolé en 2004 par Andre Geim, le graphène est un matériau cristallin dont l’empilement forme le graphite de nos mines de crayon. Cette découverte lui a valu de gagner le prix Nobel de Physique six ans plus tard, aux côtés de Konstantin Novoselov. Ce matériau présente des propriétés fascinantes. Il une résistance à la rupture 200 fois supérieure à l’acier, bien que 6 fois plus léger. Cela a naturellement attiré l’attention d’acteurs de l’aéronautique, comme Airbus. Il est également un meilleur conducteur que le silicium, matériau utilisé notamment pour fabriquer les microprocesseurs des ordinateurs, et pourrait révolutionner les technologies de stockage d’énergie.

Batteries au graphène

graphene-battery

L’industrie énergétique fait face depuis toujours à la problématique du stockage de l’électricité. Les solutions qui existent sont généralement coûteuses et/ou peu efficaces. Les batteries lithium-ion se sont imposées ces dernières années, mais leurs performances restent encore insuffisantes, notamment dans le secteur des transports. Elles pourraient prochainement être détrônées par des batteries au graphène. Début février, une jeune compagnie espagnole, Graphenano, a présenté, lors d’un salon à Madrid, une batterie automobile d’une autonomie de 800 kilomètres pour un poids de 100 kilogrammes. L’entreprise espère rapidement s’imposer sur ce marché porteur, la plupart des marques automobiles déployant des modèles de voitures électriques. Mais l’entreprise développe également des technologies pour des applications aussi diverses que la construction, la santé, et l’électronique.

14473205316103
Vice-président de Graphenano, José Antonio Martínez.

Feuille de route

L’Union européenne appuie l’industrie dans ses efforts de recherche et développement (R&D). La Commission a ainsi mis en place l’année dernière le « Projet Graphene », doté d’un milliard d’euros sur dix ans. Il réunit 142 acteurs industriels, académiques et groupes de recherche répartis dans 23 pays de l’Union. A noter notamment la présence de grands acteurs français comme le CNRS, Thales ou encore le Commissariat à l’énergie atomique et aux énergies alternatives. Ce dernier mène le groupe de travail sur les applications énergétiques en la personne d’Etienne Quesnel. L’ambition des recherches menées est de supprimer les limites imposées par les matériaux existants, en réalisant de nouveaux systèmes à l’échelle atomique.

Si les promoteurs du graphène promettent de révolutionner de nombreux secteurs et de le propulser matériau du XXIe siècle, sa découverte ouvre le champ des possibles car sa combinaison avec d’autres matériaux semble prometteuse. “Le graphène est le premier matériau découvert que l’on peut contrôler à l’échelle atomique. Cela dit, de nombreux autres matériaux, avec des propriétés complémentaires, ont été découverts ces dernières années. Ils ont aussi un grand potentiel technologique”, conclut Alberto Morpurgo, professeur à la Faculté des sciences de l’Unige et représentant suisse du projet Graphene.

Par Romain Chicheportiche

Substituer le Bisphénol A ne diminue pas les risques

« Nous déconseillons de substituer le bisphénol A dans les tickets de caisse par d’autres bisphénols», explique clairement Nicolas Bertrand, chimiste pour l’Institut national de recherche et de sécurité (INRS). L’association, qui se focalise sur les risques liés au travail, indique que les produits utilisés aujourd’hui pour remplacer le bisphénol A dans les tickets de caisse sont tout aussi dangereux pour la santé.

L’analyse d’une centaine de tickets – provenant de nombreuses enseignes – a révélé que, dans plus de 98% des cas, les éléments utilisés ne sont autres que de nouveaux bisphénols. Peu d’études ont été réalisées sur ces « cousins » du bisphénol A mais il y a fort à parier que leur structure similaire (deux phénols reliés entre eux par différentes molécules) soit à l’origine des effets similaires constatés.

« Le problème est intrinsèque aux tickets de caisse utilisés dans nos différents lecteurs de cartes bancaires » explique l’ingénieur de l’INRS. Ces tickets, dit « tickets thermiques », sont en effet recouverts de bisphénol A qui ont la particularité de changer de couleur lorsqu’ils sont chauffés. Pour éliminer ce produit il faut donc utiliser une molécule aux propriétés similaires. Et quoi de mieux pour remplacer un bisphénol qu’un autre bisphénol ? Ils se succèdent et se ressemblent, ne se distinguant que par la lettre qui évoque des fonctions chimiques liés aux deux phénols. Nicolas Bertrand rappelle les recommandations de l’INRS : « Des solutions existent pour changer de technologie d’impression. Le matriciel par exemple, ou l’impression jet d’encre, tout simplement ».

Simple mais coûteux, ajoute le chercheur. « L’impression à l’encre coûte plus cher, est plus lente et demande une réelle intégration technique et structurelle dans les postes de caisse. » Changer les rouleaux de papier des machines est en effet très simple. Changer les machines thermiques pour du jet d’encre ou du matriciel est nettement plus complexe.

Des bisphénols aux cœurs de deux polémiques bien différentes

Si les projecteurs sont braqués sur les bisphénols, ce n’est pas pour leur utilisation dans les tickets de caisse mais pour leur présence dans les contenants alimentaires. Ce qui peut d’ailleurs étonner, car le bisphénol A n’est présent qu’à l’état de trace dans les emballages alors qu’il est omniprésent sur les tickets de caisse.

Les bisphénols sont en effet utilisés de deux manières. Sur les tickets de caisse, ils sont utilisés tels quels pour leurs propriétés thermiques. Dans les barquettes alimentaires, et plus particulièrement à l’intérieur des boîtes de conserve, les industriels les utilisent en tant que monomères (des éléments que l’on assemble pour fabriquer des polymères, des plastiques). Une fois reliés entre eux, les monomères sont figés et inoffensifs. Le problème vient en fait des résidus de cette fabrication : Les molécules de bisphénol qui n’ont pas réagi sont diffusées petit à petit par le plastique vers le contenu de la boîte.

Désormais interdit pour transporter des denrées alimentaires, le bisphénol est peu à peu remplacé. Ici, comme pour les tickets de caisse c’est la substitution par de nouveaux bisphénols qui prévaut. Au grand dam de l’Agence nationale de sécurité sanitaire de l’alimentation (l’Anses) qui alertait déjà les industriels en 2011 : « En l’absence de données scientifiques complémentaires, l’Agence n’encourage pas à utiliser d’autres bisphénols comme solution de substitution au bisphénol A. »

Il faut dire que les polymères fabriqués à base de bisphénols ont l’avantage de posséder de bonnes propriétés de conservation des aliments à faibles coûts. Difficile de faire mieux, mais des alternatives existent d’ores et déjà. Une étude publiée en 2014 dans le Journal of applied polymer science par une équipe des universités de Malaga et de Séville présentait un nouveau matériau plus respectueux de l’environnement. Un matériau dérivé de la cutine, un polymère présent dans la peau de tomate. Déjà brevetée, l’invention aurait des propriétés de durabilité et de résistance comparables à celles des matériaux habituellement utilisés par le secteur des emballages alimentaires. Finalement, c’est peut-être la chimie biosourcée qui aura la peau des bisphénols.

Par Baptiste Cessieux

Les données liées à la santé : une sécurité très sensible

Mais cette problématique complexe oblige tous les acteurs à renforcer la sécurité des infrastructures et des échanges d’informations. Car le principal enjeu est d’assurer la mise à disposition des données pour les professionnels de santé tout en garantissant la sécurité et la confidentialité.

Comme toutes les entreprises, les établissements hospitaliers et les laboratoires peuvent être en effet touchés par une attaque informatique. Et ces risques devraient être encore plus élevés dans les prochaines années avec la multiplication des objets connectés. Guillaume Poupard, Directeur Général de l’ANSSI (’Agence nationale de la sécurité des systèmes d’information), considère que les attaques sur le système de santé vont se multiplier et pourrait même engendrer des morts ! « Quand on voit la quantité d’informations récoltées, quand on voit l’action que tout cela peut avoir sur les patients, il y aura des morts demain », estime-t-il.  Il ne s’agira pas nécessairement d’assassinats ciblés, mais plutôt de dégâts collatéraux, dans la mesure où « ces appareils vont se faire polluer par des attaques qui ne leur étaient pas destinées ».

Lors de la conférence Ruxcon Breakpoint, à Melbourne fin 2012, Barnaby Jack, expert en solution de sécurité, avait expliqué qu’une faille dans la programmation des émetteurs sans fil pouvait être utilisée pour envoyer des instructions aux stimulateurs cardiaques (pacemakers) et aux défibrillateurs. Cette faille avait en effet permis à ce spécialiste d’obtenir le numéro de série et le modèle du dispositif, lui permettant ainsi de reconfigurer le firmware de l’émetteur. De quoi inquiéter les quelque 400 000 français porteurs de stimulateurs cardiaques. Un chiffre en progression constante depuis 20 ans. 60 000 patients se font poser chaque année ces appareils

Cette situation délétère a été rappelée lors de la 39ème conférence organisée par le CyberCercle en février. Cette édition a réuni Gérard Bapt, Député de Haute-Garonne  et Pierre Morange, Député des Yvelines, tous les deux membres de la Commission des affaires sociales, et Philippe Loudenot, FSSI (fonctionnaire de sécurité des systèmes d’information) des Affaires Sociale, de la Santé et des Droits des femmes. Selon Philippe Loudenot, les enjeux du monde la santé peut être classés en trois catégories : les attributions des remboursements avec les enjeux des fraudes, les organismes des prestations sociales qui donnent lieu à des fraudes en particulier du phishing avec l’envoi d’emails informant de problèmes sur des remboursements et enfin les d’attaques à buts destructeurs visant par exemple les établissements de santé comme ceux du sang.

Lors de cette conférence, Gérard Bapt a par exemple déclaré que des pannes informatiques avaient été à l’origine d’incidents graves entraînant même la fermeture d’établissements hospitaliers comme dans la région bordelaise. Toujours en France, en mars 2015, le laboratoire de biologie médicale Labio avait été victime d’un piratage de 40 000 identifiants et de centaines de bilans médicaux. Les pirates avaient exigé une rançon de 20 000 € pour que ces données ne se retrouvent pas sur Internet.

Il y a quelques années, des hôpitaux français et britanniques avaient été touchés par un code malveillant (virus Conficker). Quelques 8 000 ordinateurs avaient été infectés dans ces services hospitaliers.

Philippe Loudenot  a rappelé que « la sécurité n’est pas un problème de moyens mais de gouvernance, de compétences et d’appropriation ». De nombreuses failles proviennent d’un manque de formation et d’information du personnel, par exemple concernant la gestion des mots de passe (prêts de mots de passe, sessions restées ouvertes, post-it collés près de l’écran), ou du matériel (périphériques ou objets connectés non protégés, obsolescence des logiciels…). Or,  20% de mesures adéquates règlent 80% des problèmes…

Philippe Richard

Vie sur Mars : traces du passé, espoirs futurs ?

silice microdigitee
Vue rapprochée des dépôts de silice lobée prise par le rover Spirit – Crédit: NASA/ JPL-Caltech

Des choux-fleurs sur Mars ! C’est ainsi que le buzz s’est fait sur la toile. Mais bien évidemment il ne s’agit pas de notre crucifère… Seulement de petites structures de silice qui ont pris des formes faisant penser à des choux-fleurs que le rover Spirit a photographié en 2008 et 2009 sur Mars. Deux chercheurs de l’université d’Arizona, Steven Ruff et Jack Farmer, ont trouvé frappantes les ressemblances entre ces structures et celles observées dans des sources chaudes du désert de l’Atacama au Chili. Or ces structures sont façonnées sur Terre grâce à une activité microbienne.

Une activité hydrothermale idéale

Spirit a débarqué sur Mars dans le cratère Gusev dont on attribue de manière avérée certaines structures géologiques à une activité hydrothermale d’origine volcanique. Dès 2008 Steven Ruff émet l’idée que l’on pourrait détecter des formes de vies microbiennes dans cette région. Malheureusement Spirit n’est pas équipé pour les analyses adéquates. Cependant, les dépôts de silice lobée dont l’origine n’est pas encore expliquée de manière formelle semblent en tout point semblables à celles trouvées sur Terre, y compris par leur signature spectrale infrarouge. Or ces structures apparaissent sur Terre grâce à une présence microbienne qui laisse ainsi sa marque. Ces dépôts constituent en quelque sorte des  « microstomatolites » dont on trouve des exemplaires dans la plupart des sites hydrothermaux terriens, en premier lieu desquels El Tatio à 4000m d’altitude, dans le désert d’Atacama au Chili. Mais, pour confirmer totalement cette hypothèse, il faudrait des analyses in-situ ou des échantillons rapportés de Mars. On attend donc avec impatience, les résultats des prochaines missions telles que ExoMars 2016-2018, ou Mars 2020 pour en être sûrs.

La vie est-elle possible aujourd’hui sur Mars ?

Oui ! répondent des expériences menées par l’Esa sur la station spatiale internationale.

Expose-E_node_full_image_2
Le module Expose-E permet de soumettre des organismes à des conditions spatiales. Il est situé à l’extérieur du laboratoire européen Columbus de l’ISS. Crédit : ESA.

La plateforme expérimentale Expose-E de l’ESA accueille depuis plusieurs années des expériences sur le développement du vivant dans des conditions spatiales au sein du laboratoire Columbus. Les études menées au sein d’Expose-E continuent de fournir d’importants indices sur la possibilité de trouver des traces de vie actuellement sur Mars. Ainsi, les dernières recherches montrent que des champignons provenant de l’Antarctique et des lichens issus de milieux extrêmes européens, sont capables de se développer dans les conditions régnant aujourd’hui sur la planète rouge.

Dix-huit mois de tests

Plusieurs échantillons de micro-organismes ont été testés : deux espèces de champignons (Cryomyces antarcticus et Cryomyces minteri) et deux de lichens (Rhizocarpon geographicum et Xanthoria elegans). Les différents échantillons ont été plongés dans des conditions similaires à celles régnant sur Mars pour une partie (reproduisant la pression atmosphérique, la composition de l’atmosphère, et les rayonnements ultraviolets) et dans des conditions spatiales pour d’autres. Résultats : 60% des cellules de champignons ont réussi à préserver leur ADN ou à rester intacts et un peu moins de 10% ont réussi à former des colonies dans les conditions martiennes. Quant aux lichens, quelles que soient les conditions appliquées 70 à 84% sont restés viables après leur retour sur Terre !

Sophie Hoguin

Les ondes gravitationnelles détectées 100 ans après la prédiction d’Einstein

Cette découverte confirme une prédiction majeure de la théorie de la relativité générale énoncée par Albert Einstein en 1915 et ouvre une toute nouvelle fenêtre sur le cosmos. Les ondes gravitationnelles portent en elles des informations qui ne peuvent pas être obtenues autrement, concernant à la fois leurs origines extraordinaires (des phénomènes violents dans l’Univers) et la nature de la gravitation. La conclusion des physiciens est que les ondes gravitationnelles détectées ont été produites pendant la dernière fraction de seconde précédant la fusion de deux trous noirs en un trou noir unique, plus massif et en rotation sur lui-même. La possibilité d’une telle collision de deux trous noirs avait été prédite, mais ce phénomène n’avait jamais été observé. Ces ondes gravitationnelles ont été détectées le 14 septembre 2015, à 11h51, heure de Paris (9h51 GMT), par les deux détecteurs jumeaux de LIGO (Laser Interferometer Gravitational-wave Observatory) situés aux Etats-Unis – à Livingston, en Louisiane, et Hanford, dans l’Etat de Washington. Les observatoires LIGO sont financés par la National Science Foundation (NSF) ; ils ont été conçus et construits par Caltech et le MIT, qui assurent leur fonctionnement. La découverte, qui fait l’objet d’une publication acceptée par la revue Physical Review Letters, a été réalisée par la collaboration scientifique LIGO (qui inclut la collaboration GEO et l’Australian Consortium for Interferometric Gravitational Astronomy) et la collaboration Virgo, à partir de données provenant des deux détecteurs LIGO. Une centaine de scientifiques travaillant dans six laboratoires associés au CNRS ont contribué à cette découverte, au sein de la collaboration Virgo.


Ondes gravitationnelles : les détecteurs de l… par CNRS

Clin d’œil de l’histoire : c’est 100 ans tout juste après la publication de la théorie de la relativité générale d’Einstein, qu’une équipe internationale vient d’en confirmer l’une des prédictions majeures, en réalisant la première détection directe d’ondes gravitationnelles. Cette découverte se double de la première observation de la « valse » finale de deux trous noirs qui finissent par fusionner.

L’analyse des données a permis aux scientifiques des collaborations LIGO et Virgo d’estimer que les deux trous noirs ont fusionné il y a 1.3 milliard  d’années, et avaient des masses d’environ 29 et 36 fois celle du Soleil. La comparaison des temps d’arrivée des ondes gravitationnelles dans les deux détecteurs (7 millisecondes d’écart) et l’étude des caractéristiques des signaux mesurés par les collaborations LIGO et Virgo ont montré que la source de ces ondes gravitationnelles était probablement située dans l’hémisphère sud. Une localisation plus précise aurait nécessité des détecteurs supplémentaires. L’entrée en service d’Advanced Virgo fin 2016 permettra justement cela.

Selon la théorie de la relativité générale, un couple de trous noirs en orbite l’un autour de l’autre perd de l’énergie sous forme d’ondes gravitationnelles. Les deux astres se rapprochent lentement, un phénomène qui peut durer des milliards d’années avant de s’accélérer brusquement. En une fraction de seconde, les deux trous noirs entrent alors en collision à une vitesse de l’ordre de la moitié de celle de la lumière et fusionnent en un trou noir unique. Celui-ci est plus léger que la somme des deux trous noirs initiaux car une partie de leur masse (ici, l’équivalent de 3 soleils, soit une énergie colossale) s’est convertie en ondes gravitationnelles selon la célèbre formule d’Einstein E=mc2. C’est cette bouffée d’ondes gravitationnelles que les collaborations LIGO et Virgo ont observée.

Une preuve indirecte de l’existence des ondes gravitationnelles avait été fournie par l’étude de l’objet PSR 1913+16, découvert en 1974 par Russel Hulse et Joseph Taylor – lauréats du prix Nobel de physique 1993. PSR 1913+16 est un système binaire composé d’un pulsar en orbite autour d’une étoile à neutrons. En étudiant sur trois décennies l’orbite du pulsar, Joseph Taylor et Joel Weisberg ont montré qu’elle diminuait très lentement et que cette évolution correspondait exactement à celle attendue dans le cas où le système perdait de l’énergie sous la forme d’ondes gravitationnelles. La collision entre les deux astres composants le système PSR 1913+16 est attendue dans environ… 300 millions d’années ! Grâce à leur découverte, les collaborations LIGO et Virgo ont pu observer directement le signal émis à la toute fin de l’évolution d’un autre système binaire, formé de deux trous noirs, lorsqu’ils ont fusionné en un trou noir unique.

Détecter un phénomène aussi insaisissable que les ondes gravitationnelles aura demandé plus de 50 ans d’efforts de par le monde dans la conception de détecteurs de plus en plus sensibles. Aujourd’hui, par cette première détection directe, les collaborations LIGO et Virgo ouvrent une nouvelle ère pour l’astronomie : les ondes gravitationnelles sont un nouveau messager du cosmos, et le seul qu’émettent certains objets astrophysiques, comme les trous noirs.

Autour de LIGO s’est constituée la collaboration scientifique LIGO (LIGO Scientific Collaboration, LSC), un groupe de plus de 1000 scientifiques travaillant dans des universités aux Etats-Unis et dans 14 autres pays. Au sein de la LSC, plus de 90 universités et instituts de recherche réalisent des développements technologiques pour les détecteurs et analysent les données collectées. La collaboration inclut environ 250 étudiants qui apportent une contribution significative. Le réseau de détecteurs de la LSC comporte les interféromètres LIGO et le détecteur GEO600. L’équipe GEO comprend des chercheurs du Max Planck Institute for Gravitational Physics (Albert Einstein Institute, AEI), deLeibniz Universität Hannover (en Allemagne), ainsi que des partenaires dans les universités de Glasgow, Cardiff,  Birmingham, et d’autres universités du Royaume-Uni, et à l’Université des îles Baléares en Espagne.

Les chercheurs travaillant sur Virgo sont regroupés au sein de la collaboration du même nom, comprenant plus de 250 physiciens, ingénieurs et techniciens appartenant à 19 laboratoires européens dont 6 au Centre national de la recherche scientifique (CNRS) en France, 8 à l’Istituto Nazionale di Fisica Nucleare(INFN) en Italie et 2 à Nikhef aux Pays-Bas. Les autres laboratoires sont Wigner RCP en Hongrie, le groupe POLGRAW en Pologne, et EGO (European Gravitational Observatory), près de Pise, en Italie, où est implanté l’interféromètre Virgo.

A l’origine, LIGO a été proposé comme un moyen de détecter ces ondes gravitationnelles dans les années 1980 par Rainer Weiss, professeur émérite de physique au MIT, Kip Thorne, professeur de physique théorique émérite à Caltech (chaire Richard P. Feynman) et Ronald Drever, professeur de physique émérite à Caltech. Virgo est né grâce aux idées visionnaires d’Alain Brillet et d’Adalberto Giazotto. Le détecteur a été conçu grâce à des technologies innovantes, étendant sa sensibilité dans la gamme des basses fréquences. La construction a commencé en 1994 et a été financée par le CNRS et l’INFN ; depuis 2007, Virgo et LIGO ont partagé et analysé en commun les données collectées par tous les interféromètres du réseau international. Après le début des travaux de mise à niveau de LIGO, Virgo a continué à fonctionner jusqu’en 2011.

Le projet Advanced Virgo, financé par le CNRS, l’INFN et Nikhef, a ensuite été lancé. Le nouveau détecteur sera opérationnel d’ici la fin de l’année. En outre, d’autres organismes et universités des 5 pays européens de la collaboration Virgo contribuent à la fois à Advanced Virgo et à la découverte annoncée aujourd’hui.

En s’engageant depuis plus de vingt ans dans la réalisation de Virgo puis d’Advanced Virgo, la France s’est placée en première ligne pour la recherche des ondes gravitationnelles. Le partenariat noué avec LIGO pour l’exploitation des instruments LIGO et Virgo, qui se traduit par la participation directe de laboratoires français aussi bien à l’analyse des données qu’à la rédaction et à la validation des publications scientifiques, est le prolongement de collaborations techniques très anciennes avec LIGO, ayant conduit par exemple à la réalisation du traitement des surfaces des miroirs de LIGO à Villeurbanne. La publication scientifique des collaborations LIGO et Virgo annonçant leur découverte est cosignée par 75 scientifiques français provenant de six équipes du CNRS et des universités associées.

Source : CNRS

Interdiction des sacs plastique reportée à Juillet !

Conformément à l’article 75 de la loi relative à la transition énergétique pour la croissance verte, le projet de décret prévoit l’interdiction des sacs plastique à usage unique aux caisses au 1er juillet 2016. Les sacs en plastique à usage unique pour l’emballage des autres marchandises (fruits et légumes, viande, fromage…) seront quand à eux interdits au 1er janvier 2017. La publication au Journal officiel du décret est annoncée pour mars 2016. En attendant, les commerçants sont finalement autorisés à écouler leurs stocks.

Qu’est-ce qu’un sac de caisse à usage unique? Le projet de décret tranche : il s’agit d’un sac en plastique d’épaisseur inférieure à 50 micromètres, soit 0,05 millimètres, sans considération de volume. Dès lors, seuls les sacs réutilisables en plastique (dont l’épaisseur est supérieure à 50 micromètres), les sacs en coton, en papier ou en tissu pourront être proposés aux clients aux caisses au 1er juillet 2016. Le Club Bio-plastiques regrette que les sacs en bio-plastiques ne bénéficient pas d’une dérogation pour être proposés en caisses. « Nous regrettons que la définition du sac plastique à usage unique ne précise aucun litrage limite autorisé en complément de l’épaisseur, réagit Christophe Doukhi-de Boissoudy, président du Club Bio-plastiques. Il faudra donc malheureusement s’attendre à des contournements de la loi à travers la simple augmentation de l’épaisseur des sacs plastiques non biodégradables actuellement mis à disposition des consommateurs ».

A partir du 1er janvier 2017, l’interdiction sera étendue à l’ensemble des autres sacs en plastique à usage unique. Dans ce cas, ils ne pourront être remplacés que par des « sacs compostables en compostage domestique et constitués de matières biosourcées », c’est-à-dire à base de matière végétale. Le projet de décret prévoit une augmentation graduelle de la teneur biosourcée minimale pour ces sacs biosourcés à usage unique : 30 % au 1er janvier 2017, 40 % en 2018, 50 % en 2020 et 60 % en 2025.

Ségolène Royal a décidé de mettre en ligne ce projet de décret sur le site du ministère, afin que les fabricants et les distributeurs puissent s’adapter au plus tôt, et qu’ils puissent utiliser leurs stocks jusqu’à cette date. Par ailleurs, les territoires lauréats de l’appel à projet territoires « zéro déchet, zéro gaspillage » qui engageront une démarche pour anticiper l’interdiction des sacs plastique de caisse à usage unique d’ici juillet pourront bénéficier d’un soutien de 30 000 euros. L’objectif est de trouver des solutions innovantes et originales.

Par Matthieu Combe, journaliste scientifique

L’hydrogène se développe en France

Lorsque l’on parle d’hydrogène, le sujet de la mobilité électrique utilisant une pile à combustible arrive rapidement sur le tapis. Sur cette question, le projet Hyway est emblématique. Il consiste en un déploiement simultanée de véhicules à pile à combustible en flottes captives et de stations hydrogène. Dans ce cadre, 25 véhicules et une station sont déployés à Lyon, ainsi qu’à Grenoble. L’hydrogène utilisé est dans les stations est de l’hydrogène industriel produit par vaporeformage de gaz naturel, mais la deuxième phase du projet consistera à décarboner complètement la chaîne de production en produisant cet hydrogène par électrolyse de l’eau grâce à des énergies renouvelables.

Par ailleurs, la station de St Lô, la première ouverte en France, entraîne le développement de projets aux alentours, à Cherbourg, Caen, Le Havre… Le projet régional EAS-HyMob prévoit le déploiement de 15 stations supplémentaires dans la région entre 2016 et 2018. Il constitue le projet pilote de référence pour l’Europe afin de démontrer la faisabilité et analyser les conditions économiques de déploiement d’infrastructures et de véhicules à hydrogène. Au niveau national, 30 stations sont prévues d’ici fin 2016 pour alimenter plus de 1000 véhicules à hydrogène.

La région voisine, le Nord-Pas-de-Calais-Picardie met à l’honneur le Power-to-gas pour produire de l’hydrogène « propre ». Des démonstrateurs en taille réelle voient le jour en France, notamment GRHYD à Dunkerque, mais aussi au sud du pays, à Fos-sur-Mer, avec Jupiter 1000.

Paris commence des expérimentations

La ville de Paris s’intéresse à l’hydrogène et lance deux initiatives notables. En décembre, la première société de taxis à hydrogène a été lancée : Hype. Composée d’une flotte de 5 taxis, l’objectif est d’atteindre 70 taxis à hydrogène fin 2016 et environ 600 dans 4 ans. Une station est installée au Pont de l’Alma et une dizaine devraient être déployées progressivement.  

La ville s’est également dotée d’une flotte de 6 véhicules de type Kangoo ZE-H2 et d’une petite station hydrogène. Il s’agit de véhicules électriques à batterie dotés d’un système d’extension d’autonomie grâce à une pile à combustible de faible puissance. Ils bénéficient d’une autonomie de 300 km. La ville de Paris étudie aussi l’utilisation de bus hydrogène et attend des propositions de la part des industriels pour les 3.5, 19 et 26 tonnes.

La Poste teste le vélo à hydrogène

La société Pragma Industries a mis au point Alpha, un vélo électrique alimenté par une pile à combustible compacte. Il devrait arriver sur le marché au milieu de l’année, mais La Poste teste d’ores et déjà le vélo à hydrogène en Aquitaine. 12 vélos vont être testés : 4 vont commencer leur tournée et 8 autres devraient arriver début mai. L’intérêt est d’avoir une autonomie doublée et une recharge rapide, pour les tournées supérieures à 25 km. Si l’expérimentation s’avère concluante, la Poste envisage une trentaine de vélos hydrogène sur la région. Par ailleurs, 20 vélos de Pragma Industries vont être testés par les collectivités de Cherbourg et Saint Lô.

Terminons ce panorama de projets industriels par le projet Themis, en Région Rhones-Alpes. Lancé en 2014, il consiste à développer un système d’autonomie énergétique complète, pour la diffusion TV et les télécommunications en sites isolés non reliés au réseau. Themis produira 8 mégawattheures par an, sans recours aux énergies fossiles. L’antenne embarquera un système hybride de stockage de grande capacité et de longue durée des énergies renouvelables (solaire et éolienne) associant batteries et power to hydrogène. Les tests s’achèveront en juin 2016.

Plus proche du citoyen, l’hydrogène joue un rôle dans les équipements domestiques. La technologie la plus prometteuse est celle des chaudières fonctionnant avec une pile à combustible pour produire de l’électricité et de la chaleur. Après la catastrophe de Fukushima, plus de 100 000 unités ont été vendues au Japon. Par ailleurs, 15 000 en pré-séries ont été vendues en Allemagne. Elles devraient apparaître sur le marché français d’ici 1 ou 2 ans.

Par Matthieu Combe, journaliste scientifique

Emploi : les prévisions 2016

La confiance des entreprises, dans un contexte économique un peu plus favorable, s’améliore. Ainsi, 8% d’entre elles prévoient d’augmenter leur effectif cadre au cours de l’année, soit 1 point de plus qu’en 2015, et 5% d’entre elles envisagent de le réduire.

evolution recrutements 2016

Contrairement à l’année 2014, caractérisée par un marché de l’emploi cadre à plusieurs vitesses, la dynamique à l’œuvre depuis 2015 concerne quasiment tous les secteurs de l’économie.

Les recrutements de cadres dans les Services, « locomotive » du marché, progresseraient jusqu’à +11% portés par les activités informatiques – télécommunications, l’ingénierie – Recherche et Développement, les activités juridiques, comptables-conseil et Gestion des entreprises et la Banque-Assurance.

L’Industrie tirerait son épingle du jeu, avec une croissance des embauches pouvant aller jusqu’à +9%.

En 2016, les jeunes diplômés, qui avaient déjà profité d’une situation plus favorable en 2015, bénéficieraient de l’amélioration du marché. Ainsi, de 39 500 à 43 400 débutants pourraient être embauchés durant les 12 prochains mois.

Les cadres ayant acquis de 1 à 10 ans d’expérience seraient toujours les plus courtisés, représentant un peu plus d’un recrutement sur deux.

En revanche, les embauches de cadres de plus de 16 ans d’expérience seraient en baisse.

Les fonctions les plus « porteuses » du marché seraient celles de l’Informatique (jusqu’à 42 300 embauches), du Commercial (jusqu’à 37 500) et des Etudes-recherche et développement (jusqu’à 32 400 embauches). Par ailleurs, la fonction Administration, RH, communication, droit atteindrait des hauts niveaux de recrutements, proches de ceux atteints en 2006-2008 (20 000).

Quasiment toutes les régions de l’Hexagone seraient bien orientées en 2016. Quatre territoires concentrent près de 3 embauches sur 4 : Ile-de-France, Auvergne-Rhône-Alpes, PACAC, Nord-Pas-de-Calais-Picardie. Seules deux régions devraient afficher une stagnation de leurs recrutements de cadres : la BourgogneFranche-Comté et la Normandie.

Enfin, le bilan de l’année 2015 est positif avec 181 800 cadres recrutés, soit 7% de plus qu’en 2014, et une sensible augmentation du nombre de postes cadres créés 1 : 28 800. Ce bon résultat est principalement lié à la performance des activités informatiques (+8%), de l’ingénierie-Recherche et Développement (+16%), des activités juridiques-comptables- Conseil (+14%) et de la Banque-Assurance (+11%). Ces quatre secteurs ont concentré 1 embauche sur 2 en 2015. Dans ce contexte, 38 200 jeunes débutants ont été embauchés en 2015, soit une hausse de +9%, pour retrouver le niveau d’embauches de 2012.

Prévisions à horizon 2018 : les résultats issus du modèle économétrique de l’Apec.

Le modèle construit en 2009 par l’Apec est le fruit des travaux de son Département Etudes & Recherche. Il a permis de montrer que l’investissement, mesuré par la formation brute de capital fixe (FBCF2 ), est au cœur de la dynamique de l’emploi en général et de l’emploi cadre en particulier.

Le modèle intègre également le niveau du PIB ainsi qu’une dimension démographique en tenant compte des départs à la retraite de cadres en emploi. Afin d’élaborer le plus précisément possible des scénarios, l’Apec s’est intéressée aux prévisions établies par différents instituts de conjoncture nationaux ou internationaux (INSEE, OCDE, OFCE, FMI, COE REXECODE).

Ces prévisions concernent le PIB et ses principales composantes (FBCF, dépenses de consommation, variations des stocks, exportations et importations.

Le scénario retenu table, pour les trois prochaines années, sur une « croissance progressive », avec des hypothèses de progression du produit intérieur brut de +1,3 % en 2016, +1,5 % en 2017, et +1,7 % en 2018, et s’appuie sur les analyses du FMI et de l’Insee.

evolution-pib

En 2015, la conjonction de facteurs exogènes favorables (baisse continue du prix du pétrole, dépréciation de l’euro, taux d’intérêt très faible), qui avait boosté la croissance économique durant le premier trimestre, n’a pas été relayée par une reprise significative de l’investissement (la FBCF s’inscrit à la baisse pour la 3e année consécutive). Si, dans les entreprises, l’investissement productif a enregistré une nette progression, l’investissement public s’est contracté trimestre après trimestre. Quant à celui des ménages, il s’est stabilisé après deux ans de recul ininterrompu.

La croissance actuelle est adossée aux dépenses de consommation des ménages particulièrement dynamiques au 1er et 3e trimestre 2015. Mais les attentats de novembre 2015 ont eu de sévères répercussions sur les activités de services (restauration, loisirs, transports) et ont significativement érodé la consommation des ménages au 4e trimestre 2015 (-0,1 %).

Au final, la croissance économique s’est établie autour de +1,1 % en 2015. Dans ce scénario, elle se renforcerait sensiblement en 2016 (+1,3%). Ainsi, les effets des dramatiques évènements de novembre 2015 s’estomperaient au cours du 1er semestre 2016. Du côté des entreprises, les conditions seraient réunies (redressement des taux de marge, montée en charge du CICE et du pacte de responsabilité et de solidarité, faible coût du capital) pour enclencher, enfin le cycle d’investissement. La FBCF progresserait ainsi de +1 % en 2016 et s’inscrirait sur un sentier de croissance solide les années suivantes : +1,3 % en 2017 et +1,5 en 2018.

Quant au PIB, sa progression avoisinerait les +1,7 % en 2018 (après +1,5 % en 2017).

Dans ce contexte d’amélioration modérée du marché de l’emploi, la part des cadres en poste au moment de leur départ à la retraite progresserait et s’établirait à 54 % en 2018 (contre 50% en 2015).

Le taux de chômage devrait s’établir à 10 % (France métropolitaine) courant 2016. La consolidation de la croissance en 2017 et surtout en 2018 associée à une hausse de l’emploi supérieure à la variation de la population active pourrait permettre à l’économie hexagonale d’enregistrer un recul sensible du chômage à l’horizon de notre prévision.

Ces prévisions sont toutefois soumises à différents aléas. L’environnement économique international pourrait ainsi être affecté par un nouvel accès de faiblesse des pays émergents, et notamment de la Chine.

previsions2016-

En 2016, le nombre de recrutements de cadres augmenterait de 7 %, à près de 195 000. Cette estimation dépasse la médiane des prévisions recueillies auprès des entreprises fin 2015 dans le cadre de l’enquête annuelle de l’Apec (de 182 000 à 200 000, médiane : 191 000). Elle demeure toutefois nettement inférieure au haut de la fourchette. Si la reprise progressive de l’investissement se confirme jusqu’en 2018, elle pourrait permettre de dynamiser les embauches de cadres. Les niveaux d’avant la crise de 2008 seraient largement dépassés en 2018.

recrutements2

Note méthodologique :

  • Cette enquête a été réalisée auprès d’un échantillon permanent de 11 000 entreprises du secteur privé.
  • Cet échantillon est représentatif de la répartition par région, par taille et par secteur d’activité des salariés du secteur privé.
  • Les résultats présentés sont issus du traitement et de l’analyse des réponses de ces 11 000 entreprises représentant 1 130 000
    salariés dont 208 600 cadres.
  • Les entreprises ont été contactées du 15 octobre au 8 décembre 2015.

Source : Apec

Imprimer du mou en 3D

Chaque année, le Consumer Electronics Show de Las Vegas est l’occasion pour les professionnels de l’électronique grand public de dévoiler leurs innovations. Lors de cette grand-messe des technophiles, l’entreprise de vente en ligne de produits imprimés en 3D, Sculptéo, présentait un matériau souple et résistant.

Selon la classification Shore, il est d’une dureté Shore A de 65, soit la souplesse d’une chambre à air de vélo. A titre de comparaison, un élastique aurait une dureté Shore A comprise entre 10 et 30. Un matériau plus rigide, comme une semelle de chaussure par exemple, dépasserait les 90 unités sur cette échelle.

Rien de très original, donc. Des chambres à air de vélo, fussent-elles imprimées en 3D, ce n’est pas une révolution. Mais le matériau présenté ici repousse un peu plus les limites de souplesse imposées à l’impression 3D. Yvon Gallet, président de Initial, une autre entreprise spécialisée dans l’impression 3D, rappelle tout de même que des matériaux souples imprimés en 3D existent déjà depuis plusieurs années. Cette vidéo de 2013 présente d’ailleurs un autre plastique, le TPU 92A, d’une dureté Shore A de 92. Des propriétés « uniques », indique la vidéo, mais des propriétés désormais dépassées.

L’intérêt de cette poursuite d’une meilleure souplesse est la création de formes complexes possibles grâce à l’impression 3D. Et l’entreprise Sculptéo s’en donne à cœur joie comme le prouve la ligne de vêtements dessinés par une élève de l’École supérieure des arts et techniques de la mode :

Scupteo800-2

Scupteo800-3

ou les répliques exactes de cœurs de patients pour l’Institut Montsouris à Paris :

Scupteo800-4

Scupteo800-5

Selon Clément Moreau, co-fondateur de l’entreprise en ligne, ce plastique cumule les avantages. Il résiste à l’eau, aux solvants et a une bonne résistance dans le temps. « En fait, ces avantages viennent de la technique d’impression, explique l’entrepreneur. Nous utilisons l’impression par frittage laser. À la différence d’une impression couche après couche, cette technique ne modifie pas le plastique utilisé (et compatible) lors de la création de l’objet ».

Résultat : des objets de meilleure qualité que ce que pourrait produire une imprimante 3D personnelle. C’est d’ailleurs dans ce secteur des objets 3D de qualité que se niche l’entreprise. Impression en polyamide, alumine, résine ou plâtre, Sculptéo propose d’imprimer des prototypes 3D de bonne facture.

Pourtant, bonne facture ou pas, ces méthodes d’impression ne devraient pas quitter le prototypage. La production de masse, elle-même pour de petites séries, est en quête d’autres propriétés. « C’est bien simple, je n’ai jamais de demande sur de tels produits » annonce le président de Initial. L’entreprise s’adresse plutôt à l’industrie qu’au grand public et les demandes ne sont évidemment pas les mêmes. « Il est souvent intéressant d’avoir des objets souples à certains endroits et durs ailleurs. Et ça, c’est possible avec des imprimantes 3D capables d’imprimer plusieurs matériaux en même temps, précise Yvon Gallet. On crée, par exemple, des prothèses dentaires de cette façon-là. Sur la même pièce, on imprime une gencive souple et les dents dures. » Ainsi, chaque corde ajoutée à l’arc de l’impression additive ne sert pas au même utilisateur.

Par Baptiste Cessieux

Première station hydrogène parisienne !

« Hype », c’est le nom de la première flotte parisienne de taxis électriques à hydrogène. Dans un premier temps, la nouvelle station installée par Air Liquide permettra de recharger une flotte de 5 véhicules Hyundai ix35. Depuis début 2016, un réseau de stations hydrogène s’est installé dans la capitale pour recharger la flotte de taxis qui se renforcera progressivement. STEP espère en effet déployer 70 véhicules hydrogène d’ici un an et plusieurs centaines d’ici 5 ans.

hypeLa station hydrogène rechargera les taxis avec de l’hydrogène pressurisé à 700 bars. La recharge se fait en moins de 5 minutes et permet une autononomie de 500 kilomètres. Pour assurer l’intérêt environnemental de cette installation, Air Liquide s’engage d’ici 2020 à produire au moins 50 % de l’hydrogène dédié à ses applications énergétiques sans rejet de CO2, notamment grâce à l’électrolyse de l’eau par des énergies renouvelables, par vaporeformage de biogaz et par captage/valorisation du CO2 émis lors de la production d’hydrogène à partir de gaz naturel.

station-hydrogeneAir Liquide parie sur la généralisation de l’utilisation de l’hydrogène comme énergie propre, notamment dans les transports. À ce jour, 75 stations de recharge d’hydrogène ont déjà été conçues et installées par l’entreprise dans le monde, dont cinq en France. La première station de recharge d’hydrogène pour une collectivité locale française a été inaugurée en janvier 2015 à Saint-Lô par le Conseil Général de la Manche. Avec le projet HyWay, une première flotte captive de 50 véhicules utilitaires hybrides batteries/hydrogène  s’est déployée autour de 2 stations sur Lyon et Grenoble.

« Cette première station nous permettra de mieux faire connaître au grand public les bénéfices de l’hydrogène comme énergie propre pour les véhicules, explique François Darchis, membre du Comité Exécutif d’Air Liquide supervisant l’innovation. L’hydrogène apporte en effet une réponse concrète aux défis posés par la mobilité durable en réduisant les émissions de gaz à effet de serre ainsi que la pollution locale dans les zones urbaines. »

Jusqu’au vendredi 11 décembre, vous pouvez venir essayer une voiture électrique à hydrogène et découvrir la première station de recharge hydrogène à Paris. Rendez-vous au Court Albert Ier, de 10h à 18h,  sur le parking du pont de l’Alma.

Par Matthieu Combe

Le grand carénage d’EDF coûterait le double

Grand carénage

Le projet de grand carénage lancé par EDF répond à deux problématiques distinctes. La première est liée à la volonté de l’électricien de poursuivre l’exploitation de ses réacteurs au-delà de 40 ans, la durée techniquement prévue. Pour cela, il doit soumettre ses installations à d’importants travaux de modernisation et de remplacement de matériels lourds (générateurs de vapeur, alternateurs, transformateurs, etc). Si l’Autorité de sûreté nucléaire (ASN) valide les plans d’EDF, alors ce dernier recevra, au cas par cas pour chaque réacteur, des autorisations d’exploitation décennales. La deuxième raison de ce grand carénage est le retour d’expérience de la catastrophe de Fukushima (2011). La doctrine nucléaire française préconise de tirer profit des accidents rencontrés par cette industrie pour élever continuellement les standards de sûreté. Mais tout cela a un prix. La réalisation du programme de maintenance du parc nucléaire d’EDF atteindra les 100 milliards € entre 2014 et 2030, soit 1,7 md € en moyenne par réacteur, selon la Cour des Comptes. Un quart de l’enveloppe concerne des dépenses d’exploitation (25 mds €) et les trois autres quarts, des dépenses d’investissement (75 mds €). On est loin des 55 mds € évalués par EDF, pour une période certes plus courte (jusqu’en 2025).

Manque d’anticipation

Pour l’institution rue Cambon, EDF fait face à des incertitudes de taille qui pourraient considérablement alourdir le devis initial. La première d’entre elle est « la capacité du tissu industriel à répondre aux besoins » du groupe dirigé par Jean-Bernard Lévy. En effet, les arrêts de réacteur pour raison de maintenance, sont généralement réalisés sur 8 mois, entre mars et octobre, période pendant laquelle la demande électrique est la moins forte. « Cette saisonnalité nécessite, dans des délais courts, un apport très important de main d’œuvre qualifiée. Ainsi, une visite décennale d’un réacteur, nécessite l’intervention de plus de 1 500 salariés dans les différents métiers », indique la Cour des Comptes dans son rapport. Cela suppose que les sous-traitants d’EDF doivent pouvoir tenir de fortes cadences plusieurs années de suites. La Cour semble en douter. D’autant que toutes les opérations ne peuvent pas être externalisées. « EDF doit donc s’assurer de conserver des compétences lui permettant d’exercer sa responsabilité de maître d’ouvrage (rédaction des cahiers des charges, définition et mise en oeuvre des programmes de surveillance) », écrit-elle.

Selon les estimations, la filière nucléaire devrait nécessiter 110 000 recrutements d’ici 2020 dans les emplois directs et indirects. Une opportunité bienvenue en période de chômage massif. Mais alors que les départs à la retraite se multiplient chez EDF, cette dernière éprouve les pires difficultés pour recruter du personnel qualifié. C’est notamment le cas dans les métiers de tuyauterie-soudage ou de robinetterie. Par ailleurs, les capacités des dispositifs de formation sont très nettement sous-dimensionnées pour faire face à l’enjeu du renouvellement des compétences qu’affronte l’entreprise.

Production

Cette problématique des compétences est centrale pour EDF car chaque réacteur à l’arrêt représente un manque à gagner considérable. Une baisse du niveau général des compétences risque donc d’allonger les délais et de réduire le taux de disponibilité des réacteurs, l’un des indicateurs fondamentaux de l’entreprise. Il se situait en 2014 à 81%, soit mieux que l’année précédente, mais moins qu’en 2006 (84%). En 2013, la perte de production due à la prolongation des arrêts de tranches a pu être estimée à près de 800 millions d’euros.

Cette question de la production « effective » des réacteurs tient une place de choix dans l’analyse de la Cour. Elle estime ainsi que le dépassement, même significatif, du devis du grand carénage aura moins d’impact qu’une baisse équivalente de la production. Elle fait le calcul suivant : « Dans une vision pessimiste, l’hypothèse d’une augmentation de 50% des investissements porterait le coût de production à 65 €/MWh, soit moins de 5 % de hausse. À titre de comparaison, à parc constant, une baisse de 50 % de la production moyenne entraînerait un doublement du coût de production (125 €/MWh) ». C’est pourquoi le coût de production de l’électricité d’origine nucléaire est plus sensible au volume d’électricité produite qu’au montant des investissements de maintenance. Le projet industriel de maintenance qu’EDF a défini est conçu pour permettre d’éviter toute baisse de production du parc nucléaire actuellement en service.

Incertitudes

Enfin, la Cour des Comptes balayent d’autres facteurs d’incertitudes qui pourraient menacer un peu plus la santé financière de l’électricien français. Comme tout projet industriel, le programme de maintenance est soumis à des incertitudes liées au temps long (inflation, cours des matières premières, etc). Les évaluations actuelles des coûts futurs d’investissements intègrent un niveau important de marges pour aléas et incertitudes. Elles représentent 13,30 mds € entre 2014 et 2030 mais leur proportion, par rapport au coût total du projet, augmente de façon significative à compter de 2020, passant d’environ 15 % en 2014 à 24 % en 2030.

La Cour s’interroge également sur l’impact de l’objectif de réduction de la part du nucléaire à 50%, inscrite dans la loi de transition énergétique. Elle estime que cela pourrait se traduire par la fermeture de 17 à 20 réacteurs, ce qui modifierait considérablement la donne pour EDF. La programmation pluriannuelle de l’énergie (PPE), dont l’adoption est prévue en avril ou mai prochain, devrait permettre à Jean-Bernard Lévy d’arrêter le volet « maintenance » de son plan stratégique.

Par Romain Chicheportiche

Le Power to Gas séduit à Dunkerque

Le projet Gestion des Réseaux par l’injection d’Hydrogène pour Décarboner les énergies (GRHYD) représente le premier projet de grande envergure illustrant la Troisième révolution industrielle dans la grande région Nord-Pas de Calais – Picardie.

Il s’agit aussi du premier démonstrateur français à grande échelle de Power to Gas, à Dunkerque. Piloté par Engie en lien avec 10 autres partenaires, son objectif est de transformer l’électricité issue d’énergies renouvelables, notamment éolienne, en hydrogène par électrolyse de l’eau. L’hydrogène ainsi produit permet de stocker le surplus d’électricité d’origine renouvelable et servir de vecteur énergétique. En toile de fond, ce projet vise à valider la pertinence technique et économique d’une nouvelle filière industrielle composée d’hydrogène et de gaz naturel pour le transport et le chauffage.

Jusqu’à 20 % d’hydrogène en mélange avec le gaz naturel

Dans le cadre de ce projet, deux produits sont testés : le carburant Hythane et un mélange à différentes teneurs de gaz naturel et d’hydrogène. L’Hythane est un mélange composé à 80 % de gaz naturel et 20 % d’hydrogène à destination des bus de la ville. « En complément de la station actuelle de carburant Gaz Naturel pour Véhicules (G.N.V.), une station de production-stockage hydrogène, localisée sur le site du dépôt de DK’Bus Marine à Petite-Synthe, doit permettre d’alimenter en carburant Hythane® une flotte de plusieurs dizaines de bus fonctionnant actuellement au G.N.V. », assurent les membres du projet dans un communiqué. Grâce aux futurs retours d’expérience,  les partenaires du projet pourront envisager de convertir de nouveaux bus. « A ce jour il n’existe aucune grille d’homologation pour un carburant composé de gaz naturel avec 20 % d’hydrogène, précisent les partenaires. Un frein règlementaire et financier que devra s’attacher à lever le projet GRHYD pour favoriser un futur déploiement de cette énergie ».

L’autre axe du projet est d’injecter de l’hydrogène directement dans les réseaux de distribution de gaz naturel du nouveau quartier de la ZAC de Cappelle-la-Grande. Dès mars 2017, cette injection répondra aux besoins en eau chaude sanitaire et en chauffage des 100 premiers logements de ce quartier. « Des tests en laboratoire ont démontré que les chaudières actuelles permettraient la distribution de cette énergie, en tenant compte de la présence d’un maximum de 20 % d’hydrogène dans le combustible gaz », se félicitent les membres du projet. L’incorporation de l’hydrogène dans le réseau se fera par étapes. Il sera d’abord injecté à faible dose, « peut-être 5 %, pour vérifier que ça se passe bien dans les logements », explique Marie Papadopoulo, chargée de mission GRDF, à La voix du nord. « L’objectif à terme, fin 2018 ou début 2019, est de monter à 20 % d’hydrogène, mais par étapes, à valider à chaque fois », souligne-t-elle. Un bâtiment existant, l’Etablissement Public de Santé Mentale, devrait lui aussi être raccordé à ce réseau gaz naturel et hydrogène.

Incorporer 20% d’hydrogène dans du G.N.V ou dans le réseau de gaz de ville permettra de diminuer la consommation de gaz tout en valorisation l’électricité d’origine renouvelable. Cela serait d’autant plus intéressant en mélange avec du biométhane ou du bioGNV, leurs pendants d’origine renouvelable. Étalé sur cinq ans, le projet GRHYD représente un investissement de 15 millions d’euros.

Par Matthieu Combe, journaliste scientifique

La Voie Lactée masque des centaines de galaxies très proches

Alors qu’elles ne se situent qu’à quelques 250 millions d’années lumière de la Terre, des centaines de nouvelles galaxies viennent juste d’être découvertes. Elles étaient jusque-là cachées par notre propre galaxie, la Voie Lactée. C’est l’amélioration d’un téléscope radio australien qui a permis d’explorer cette région de l’espace méconnue. L’étude parue dans Astronomical Journal du 9 février 2016 met ainsi en lumière une partie de la zone d’évitement de la Voie Lactée.

Des centaines de nouvelles galaxies !

solarLe télescope Parkes de l’agence scientifique australienne (CSIRO), situé  en Nouvelle-Galles du sud, est un radiotélescope de 64m de diamètre mis en service en 1961. Grâce à des améliorations de la fin des années 1990, telles qu’un nouveau récepteur multifaisceaux, la cartographie du ciel est 13 fois plus rapide. Dans la zone étudiée, au sud de la Voie Lactée, l’équipe internationale de chercheurs (australiens, sud-africains, américains et néerlandais) a recensé pas moins de 883 galaxies dont plus d’un tiers étaient inconnues. Après l’essai de nombreuses techniques, il s’est avéré que seules les observations radio permettaient vraiment de passer l’épaisse couche de poussière et de lumière qui constitue le plan galactique de la Voie Lactée dans cette direction.

Cinq grosses structures répertoriées

Les observations des scientifiques ont notamment abouti à identifier cinq nouvelles structures dans cette partie de l’univers : trois groupes de galaxies (NW1, NW2 et NW3) et deux nouveaux amas (CW1 et CW2). Des milliards de nouvelles étoiles qui constituent une masse de matière très importantes et qui se situent à l’emplacement présumé de ce que l’on appelle le « Grand Attracteur ».

La région du Grand Attracteur se remplit

Dans les années 1990, on s’est aperçu que le Groupe Local de la Voie Lactée et d’autres galaxies proches ne suivaient pas le mouvement d’expansion de l’Univers comme on s’y attendait. Cette déviation, en direction du Centaure, a été attribuée à une masse gigantesque équivalente à un million de Voie Lactée, baptisée le Grand Attracteur. Depuis on cherche les corps responsables de cette anomalie. On a d’abord trouvé l’amas de galaxies Abell 3627 (ou amas de la Règle) mais qui s’est révélé être trop petit et décalé pour être le Grand Attracteur, puis le superamas de Shapley 8 qui se trouve à peu près à 500 millions d’années-lumière. Mais à lui seul, il ne fait que la moitié de la masse nécessaire.

Une concentration particulière de galaxies

Bien que des hypothèses farfelues aient vu le jour concernant ce Grand Attracteur, il est maintenant admis qu’il s’agit certainement d’une concentration particulière de galaxies. Les deux amas identifiés dans cette étude, en font certainement partie et sont en tout cas situés dans la zone du territoire supposé du Grand Attracteur, entre l’amas de la Règle et le superamas Shapley 8.

Sophie Hoguin