Chimie du végétal : pourquoi cette filière prometteuse ne se développe-t-elle pas plus vite ?

Pour l’association pour la chimie du végétale (ACDV), la France possède trois atouts essentiels pour créer une filière forte, stable qui embauche et crée de la valeur :

  • la disponibilité des matières premières, la France étant la première place agricole de l’Europe
  • un tissu industriel riche, la France se plaçant à la deuxième place des industries chimiques en Europe
  • des filières agro-industrielles (première transformation) déjà bien structurées

S’ajoute à cela le fait que cette filière offre de nouveaux débouchés à l’agriculture et que le développement durable devient une référence forte en matière de modèle économique. La chimie du végétal s’inscrit donc totalement dans les objectifs de développement d’une chimie verte souhaitée par les industriels du secteur et de manière plus globale dans des objectifs stratégiques d’utilisation renforcée de la biomasse.

Une R&D de pointe, une forte valeur ajoutée

La filière se construit autour d’une très forte R&D, l’innovation étant l’un des principaux moteurs pour devenir compétitif face aux produits d’origine fossile. Cela passe, d’une part, par la recherche de produits présentant de nouvelles fonctionnalités. C’est par exemple le cas de l’isosorbide, une molécule d’origine végétale qui n’existe pas en version fossile mais qui peut se substituer à des composés issus des polycarbonates tout en améliorant les propriétés optiques, la résistance aux UV ou aux hautes températures. Mais l’innovation peut aussi concerner tous les moyens de devenir plus compétitif, à l’instar du développement de nouveaux procédés de fabrication. Pour l’ACDV, cette nécessité d’innover confère à la filière un atout économique non négligeable : « une très forte valeur ajoutée, de l’ordre de 400 000 euros de chiffre d’affaires par emploi, l’un des ratios les plus élevés de la bioéconomie », précise ainsi l’association.

L’agro-industrie française prête à l’emploi

Les industries de premières transformations, qui assurent le lien entre la chimie et les agriculteurs/sylviculteurs qui produisent la biomasse, sont bien établies en France. Elles convertissent les ressources végétales en matières premières de base comme l’amidon, les sucres, les huiles, les fibres etc. Et la nouvelle chimie du végétal et les matériaux biosourcés représentent pour ces industries de transformation un débouché non négligeable de l’ordre de 15% en moyenne mais pouvant atteindre 35% pour les produits amylacés par exemple. Depuis 2005, note l’Ademe, le tonnage à destination des matériaux et produits biosourcés (hors secteurs traditionnels comme la papeterie par exemple) n’a cessé d’augmenter et vient même compenser la baisse de demande des secteurs traditionnels. La France produit donc l’essentiel des matières premières nécessaires à la filière de la chimie du végétal, à l’exception des huiles, dont une bonne partie provient de plantes tropicales (notamment ricin, palme, coprah).

Faible impact environnemental ?

De manière général, l’Ademe note que l’impact environnemental des produits biosourcés est moindre, mais l’agence met en garde contre une approche simpliste : les produits de la chimie du végétal doivent être évalués comme les autres, avec une analyse complète du cycle de vie.

En ce qui concerne d’éventuels conflits d’usage, l’impact aujourd’hui est plutôt faible : selon l’ACDV le secteur emploi 30Mt de matières premières végétales récoltées sur 6 millions d’hectares soit 0,4% des terres arables. A court-moyen terme, même si les tonnages doublaient la demande ne serait pas suffisamment forte pour être préoccupante. Et dans tous les cas très loin des questions que posent la filière biomasse-énergie, notamment celle des biocarburants.

Quels obstacles se dressent encore ?

La France compte de grandes entreprises qui misent résolument sur le développement de la chimie du végétal et ont entamé une véritable politique pour biosourcer leurs matières premières. Néanmoins, le taux de pénétration sur les marchés restent faible : en 2012 seuls 3,3% des produits simples comme les résines, les solvants ou les tensioactifs consommés en France sont biosourcés et 1,6% des produits formulés (colles, composites, détergents) explique l’Ademe. Même si les scénarios de prospective annonce que ce taux devraient doubler ou tripler d’ici 2030, cela reste encore modeste. Le potentiel de progression est très variable selon les secteurs. Par exemple, sur le secteur des cosmétiques, le taux de pénétration est déjà de 100%, c’est-à-dire que tous les produits cosmétiques intègrent désormais des composés issus du végétal. Pour autant le potentiel de progression est encore important car en moyenne, dans un produit cosmétique, on trouve 40% d’ingrédients issus de la biomasse. Ce taux présente encore une marge d’augmentation notable, d’autant que la demande de la part des consommateurs est extrêmement forte. Pour améliorer la situation, les professionnels de la filière sont catégoriques : il faut soutenir l’industrialisation de l’innovation, équilibrer la fiscalité avec les concurrents fossiles en prenant en compte leur très grande externalisation et continuer de favoriser l’achat de produits biosourcés.

De la chimie du végétal à la bioéconomie

Depuis quelques années, le gouvernement français a pris la pleine mesure du potentiel de la filière de la chimie du végétal et lui réserve une place de choix à la fois dans des dispositifs d’aide à l’innovation et de soutien économique et dans les grandes stratégies de développement ou les lois encadrant l’avènement d’une économie plus durables. Ainsi, on retrouve des leviers de soutien dans le cadre des plans de la nouvelle France industrielle ou encore des contraintes réglementaires encourageant l’emploi de la biomasse dans la loi de transition énergétique. Depuis janvier 2017, la forte volonté politique de créer des filières complètes autour de la biomasse qu’elle soit d’origine terrestre, marine ou issue de déchets s’est traduite par la publication de la stratégie nationale bioéconomie dans laquelle la chimie du végétale a toute sa place. La fragilité de la filière tient aujourd’hui, comme dans de nombreux secteurs en France, à des facilités pour les entreprises de se développer après la phase d’amorçage ou de recherche, pour passer au stade industriel et commercial.

Par Sophie Hoguin

Emploi : des compétences transversales difficiles à trouver

La chimie a enregistré une forte baisse de ses emplois directs entre 2000 et 2010 (-54000). Depuis, l’emploi stagne ou augmente légèrement. Dans ce contexte, l’avènement d’une chimie du végétal fait naître de nombreux espoirs de relance des embauches dans le secteur avec, en parallèle, l’apparition de nouveaux métiers, ou plus exactement de nouvelles compétences.

Près de 15% des emplois directs

Dans une étude d’Alcimed pour l’Ademe datant de mai 2012, la chimie du végétal* représente quelques 23000 emplois directs et 63000 indirects. Soit près de 15% des effectifs globaux du secteur de la chimie et une participation de 10% aux emplois directs. L’évolution prospective prévue par cette étude était très favorable puisque à l’horizon 2020, les auteurs estimaient probable une augmentation de 50% des emplois directs (36000) pour le scénario médian. Reste que ces chiffres recouvrent des réalités, des postes et des carrières très hétérogènes car la chimie du végétal touche des secteurs et des marchés très divers : agro-industriels, chimistes, industries des biotechnologies travaillant pour la chimie de spécialité, la cosmétique, les matériaux ou encore l’énergie. Dans ce cadre, il est toujours délicat de construire et de trouver des statistiques vraiment fiables pour l’emploi ou l’économie et très difficile de prédire avec certitude les évolutions.

Trente-deux métiers stratégiques

Une étude réalisée par l’Apec en 2014 pour le compte du pôle de compétitivité Industries et Agro-ressources (IAR) et l’UIC Picardie Champagne-Ardenne, identifie 32 métiers stratégiques qui représentent donc un rôle clé pour la valeur ajoutée d’une entreprise à l’horizon 3-5 ans. Elle souligne particulièrement le besoin en compétences élevées de cette filière en construction.

Le secteur de la chimie présente déjà la particularité d’avoir un taux d’encadrement supérieur à la moyenne nationale du secteur privé (30% au lieu de 18%), mais la chimie du végétal accentue encore cette demande expliquent les auteurs de cette étude. Les qualifications de haut niveau étant attendues tant pour la R&D que pour le management d’installations industrielles. Quant aux professions non-cadres, on n’attend aussi qu’elles montent en compétences.

Mettre en place la transversalité

Plus que de nouveaux métiers ou de réelles nouvelles compétences, l’enjeu stratégique de la filière en matière d’emploi est celui de l’interdisciplinarité et de la transversalité. Car la chimie du végétale est une filière qui part de l’agricole jusqu’à des produits finis très divers. Il faut donc construire la production via un dialogue de toutes ces parties qui n’ont pas forcément l’habitude de communiquer et qui ont des parcours de formations souvent très distincts. La construction de la filière et de ses compétences repose sur une acculturation des uns et des autres. Un processus qui risque de prendre du temps.

Des compétences systémiques très attendues

L’ancrage de la chimie du végétal dans un souci de développement durable et son inscription dans une filière très complète (de l’agriculture à la gestion de la fin de vie) nécessite de faire appel à de nombreuses compétences de gestion et d’optimisation des systèmes tels que l’analyse du cycle de vie à la fois en amont (gestion des ressources primaires et secondaires – coproduits), pendant la production (optimisation des procédés, de la maintenance etc) et en aval (évaluation des impacts, prévision de la fin de vie, recyclage).

Manager l’innovation, anticiper les marchés

Autant les industriels semblent confiants dans la capacité du marché de l’emploi à leur fournir des ingénieurs et cadres compétents pour la R&D autant ils sont plus prudents sur les postes de management : en effet, la chimie en général et la chimie du végétal en particulier nécessite de faire appel à des managers ayant un socle de connaissances scientifiques solide tout en étant capables de piloter des projet, diriger des équipes et suivre l’ingénierie de l’innovation (financement, partenariat public-privé, brevets, licences) ainsi qu’en anticipant le marché (gestion des achats sur les filières parfois très volatilse du végétal, garantie des débouchés). Là encore, une nécessaire formation pluridisciplinaire à la fois scientifique et managériale est nécessaire et pas forcément très disponible.

Par Sophie Hoguin

La chimie du végétal s’implante dans tous les secteurs

Le développement de nouveaux produits issus de la chimie du végétal se fait sous deux impulsions en parallèle. L’une vient de grands groupes industriels, chimistes ou non, l’autre de start-ups qui cherchent des technologies de rupture et assurent tout un pan de l’innovation.

Quelle que soit la voie empruntée, l’enjeu reste de trouver un marché preneur en se montrant compétitif et innovant.

Agro-industriels : piliers et moteurs de la filière

En amont de la filière de la chimie du végétal, on trouve de grands groupes agro-industriels comme Avril – ex-Sofiprotéol pour les oléagineux, Tereos pour le sucre ou  Roquette pour les produits amylacés… Ils assurent la transformation de la matière première et sont l’un des moteurs de cette chimie de la biomasse car ils investissent massivement dans la recherche tant en interne que via des pôle d’innovation, des fonds de soutien aux start-ups ou des partenariats divers. A titre d’exemple, le groupe familial Roquette, spécialiste des produits amylacés dérivés du maïs, du blé ou de la pomme de terre pour les secteurs de la nutrition, la pharmaceutique, la chimie de base ou le papier-carton, s’intéresse désormais aussi au secteur des plastiques, des revêtements ou des peintures biosourcées et ses matières premières se sont élargies au pois pour l’exploitation des protéines.  Aujourd’hui, le groupe représente près de 25 à 30 brevets déposés par an, un réseau de recherche mondial auquel participent plus de 300 chercheurs, plus de 10% du chiffre d’affaires (de l’ordre de 3 Md €) sont réinvestis dans la recherche et le développement industriel. Et la R&D porte tant sur le développement d’intermédiaires biosourcés comme l’isosorbide qui présente des propriétés innovantes permettant de créer de nouveaux matériaux moins nocifs ou la recherche de nouvelles voies de production de composés de la chimie classique à l’instar de l’acide succinique BiosucciniumTM, certifié Ecocert, qui peut entrer dans la composition tant de polyuréthanes que d’émulsifiants.

Chimistes : la biomasse, une ressource comme une autre

Parmi les grands chimistes, plusieurs ont déjà pris le virage de la chimie du végétal en cherchant activement à utiliser des matières premières biosourcées pour leurs productions et leurs innovations. Un développement qui s’est souvent fait par une croissance externe à l’instar de Solvay dont la politique en matière de développement durable et de chimie du végétal a réellement bondi avec l’acquisition en 2011 de Rhodia (spécialiste par exemple de l’extraction de glycérol à partir de l’huile de colza ou de palme). Pour Arkema, la chimie du végétale est à la fois une histoire de croissance externe et à la fois un fait historique. En effet, le français fêtait ainsi début juin 2017, les 70 ans du Rilsan® PA 11, un polyamide produit à partir d’huile de ricin. Produit phare, il a depuis été décliné et amélioré pour produire des polyamides résistants aux hautes températures ou un polyamide transparent flexible pour les montures de lunettes, l’électronique ou le médical. L’activité de recherche du groupe de chimie a aussi donné le Fiabalin, un composite thermoplastique à base de polymère et fibre de lin et le chimiste travaille par exemple à trouver de nouvelles ressources dans le cadre du projet européen Cosmos sur la cameline et le crambe, deux plantes oléagineuses méconnues.

Cosmétiques : le très grand marché du biosourcé

Indéniablement, les cosmétiques sont l’un des grands secteurs de la chimie du végétal. Inutile de parler d’Yves Rocher dont c’est la marque de fabrique, tous les fabricants aujourd’hui intègrent des ingrédients végétaux. L’Oréal, par exemple, annonce que 80% de ses matières premières sont biosourcées. Cependant, dans la cosmétique, la chimie du végétal ne concerne pas seulement l’approvisionnement mais aussi les procédés de fabrication avec des biotechnologies blanches telles que l’extraction sans solvants par catalyse enzymatique ou la bioconversion (transformation de composés chimiques par des systèmes biologiques comme des micro-organismes). L’axe développement durable – santé sans produits chimiques étant devenu un argument de vente central pour le secteur.

Automobile : 40% des composites biosourcés

Le secteur automobile est devenu friand de plastiques et de composites biosourcés qui viennent remplacer métaux et plastiques traditionnels. Pour cette industrie, cela permet d’atteindre plusieurs objectifs : amélioration de l’empreinte carbone et allègement de la structure (et ainsi diminution de la consommation de carburant). D’autant que la recherche de matériaux biosourcés s’est accompagnée de l’amélioration de nombreuses propriétés : meilleures qualités d’absorption des bruits et des vibrations, meilleure résistance à la rupture, aspect et texture plus esthétique ou confortable. C’est ainsi que 40% du marché des composites biosourcés est aujourd’hui dédié au secteur automobile principalement par l’utilisation de fibres naturelles (lin, chanvre, cellulose) à la place des fibres de verre. Les pneus sont aussi devenus le siège d’une intense recherche pour s’affranchir de la pétrochimie et sont en train de donner naissance à une filière française sous l’impulsion de Michelin et son projet Bio Butterfly initié en 2013. Il s’agit d’utiliser des déchets forestiers et agricoles pour produire du biobutadiène. La technologie est maintenant validée et une usine préindustrielle expérimentale a été annoncée en 2016 à Bassens (Gironde). Le planning du projet prévoit le lancement d’une unité de production de 150 000 tonnes/an vers 2022 en tablant sur le fait que le prix du pétrole remontera pour permettre d’être compétitif.

Détergents, peintures : des huiles très actives

Pour les détergents et les peintures, la chimie du végétal apporte des ingrédients présentant plusieurs avantages qui ont séduit ces deux secteurs : une plus grande biodégradabilité, beaucoup moins de composés toxiques (COV notamment) qui confèrent aux produits qui les utilisent une meilleure adéquation avec la réglementation (Reach par exemple) ou avec les attentes des utilisateurs. Pour les détergents, la chimie du végétal a trouvé un bon débouché sur le segment des tensioactifs dont 40 à 50% sont maintenant biosourcés, principalement par l’emploi d’huile végétale (palme, soja, coco). Les huiles végétales sont aussi une source première pour la fabrication d’ingrédients de peintures moins nocives pour l’environnement et la santé.

Sophie Hoguin

La biomasse d’origine marine peut tout faire

Les algues contiennent à la fois de la cellulose, des colloïdes, des pigments, des protéines, des minéraux, et d’autres molécules actives variées selon les espèces. Un potentiel énorme pour la chimie du végétal autour duquel émergent nombres de projets et d’applications.

La France : une place de choix pour l’algue

Au niveau géographique et climatique, la France, et notamment la Bretagne, occupe une place de choix pour la culture et l’exploitation des algues. Outre la recherche de solutions pour les marées vertes, le développement d’une économie autour des algues est une opportunité pour assurer l’avenir économique de la région : implantations de structures de recherches et d’innovation autour des biotechnologies, complément / alternative d’activité pour l’aquaculture, la pêche et utilisation des infrastructures déjà existantes : entrepôts de stockage réfrigérés, chaîne logistique, possibilité d’industries autour de la santé/cosmétique naturel, de l’agro-alimentaire et de l’énergie. Et en toute logique, la Bretagne abrite donc depuis 1982, un centre technique unique au monde, le CEVA, centre d’études et de valorisation des algues, qui soutient les industries et l’innovation depuis l’étude des algues dans leur milieu jusqu’à la construction de pilotes industriels.

Un renouveau pour des secteurs traditionnels

La filière algues s’intègre parfaitement aux filières traditionnelles de la Bretagne et l’un des exemples types est celui du projet Ulvans. Lancé en 2012, ce projet a la particularité de s’attaquer à l’ensemble de la filière de la récolte à la transformation. Il réunit quatre entreprises autour d’Olmix group. Il a notamment abouti à la construction de la première bioraffinerie d’algues au monde en septembre 2013 qui traite plusieurs tonnes d’algues vertes (les ulves), brunes ou rouges quelques heures après leur récolte. L’innovation a d’ailleurs aussi touché les modes de récolte pour lesquelles Agrival a dû développer des machines spécifiques (voir cette vidéo de Ouest France). Broyées, pressées, centrifugées, les algues subissent aussi des traitements enzymatiques pour en séparer et extraire les molécules d’intérêt. Sucres et protéines servent à l’alimentation animale et les différents principes actifs sont utilisés pour la santé animale (ce qui permet de diminuer l’appel aux antibiotiques) la santé des plantes (alternative partielle à l’emploi de produits phytosanitaires) ou des applications telles que gélifiants, émulsifiants, épaississants ou autres molécules santé et fonctionnelles pour l’alimentation humaine.

Pour Olmix, c’était le prolongement naturel après la mise au point de son Amadéite®, un nanomatériau naturel breveté à base d’argile intercalée et d’algues qui trouve des utilisations pour des matériaux à destination de l’automobile, de la plasturgie ou du bâtiment (ciment) grâce à des propriétés mécaniques, de tenue au feu, de stabilité thermique et de perméabilité aux gaz ou aux hydrocarbure améliorées.

Peintures et plastiques 100% naturels

Les algues sont à l’origine de plusieurs matériaux 100% naturels, nés eux-aussi en Bretagne. Les peintures Algo par exemple, qui après avoir reçu le grand prix entreprises et environnement français fin 2014 ont reçu l’équivalent européen en novembre 2016. La peinture Algo est biosourcée jusqu’à 98%, elle émet moins d’1g/L de COV et les algues lui apportent des propriétés physiques particulières telles que l’anti-coulure ou l’opacité, augmentant le rendement (12 m²/litre). Les algues peuvent aussi être introduites dans l’industrie des plastiques comme le fait depuis 2015 l’entreprise Algopack, qui a mis au point des plastiques tout ou partie composés d’algues.

Un débouché pour les macro-algues échouées que souhaite développer le projet Alguex, qui a démarré en avril dernier pour une durée de 2 ans. Il vise à valider des démonstrateurs pré-industriels pour la production de résine biosourcée à 45% minimum et compostable pour des emballages flexibles et des résines non biodégradables pour plastiques rigides type container à déchets. Le projet prévoit l’utilisation non seulement de macro-algues échouées mais l’utilisation de micro-algues cultivées.

Les algues dopent aussi l’électrochimie

On les attendaient moins à ce niveau, mais les algues inspirent aussi des innovations en électrochimie par exemple. Par biomimétisme tout d’abord. Des chercheurs de Singapour se sont inspirés de la manière dont les diatomées bâtissent une structure tridimensionnelle poreuse hierarchisée (des sphères de silice microporeuses, elles-mêmes espacées par des pores plus grands (2-50 nm) qui permettent d’augmenter la surface d’échange). Calquant leur process sur les diatomées, ils ont créé des anodes composées de sphères de carbone dopées à l’azote qui présentent des performances décuplées. De leur côté une équipe internationale (Chine- Australie-USA) a montré que l’utilisation d’alginates issues d’algues brunes pour provoquer la chélation d’ions cobalt permettait de créer des nanofibres de carbone que l’on peut doper à l’azote. Les anodes fabriquées à partir de ce matériau présentent une capacité presque deux fois plus importante que des anodes en graphite classiques. Un an avant, en 2014, des chinois avaient présenté des anodes plus performantes fabriquées avec un liant basé sur un hydrogel d’alginate.

Sophie Hoguin

La France attendue sur les perturbateurs endocriniens à Bruxelles !

La polémique enflait suite aux révélations du journal Le Monde. Selon ces informations, la France serait le point d’accepter la proposition de critères élaborée par la Commission européenne. Mais Nicolas Hulot, ministre de la transition écologique et solidaire a rapidement réagi. « La santé doit primer sur toutes les autres considérations », a-t-il répondu le 23 juin sur RMC/BFTMV.

Dans ce cadre, il a qualifié le texte en discussion au niveau européen d’« insuffisant ». « La France va rester ferme, car mon rôle est de protéger les Français sur ces empoisonnements que nous distillons depuis des années et des années », a-t-il prévenu. En l’état, il juge les dérogations prévues comme étant « inacceptables ». Et il a entamé des négociations avec l’Allemagne jusqu’au vote prévu le 4 juillet à Bruxelles. La définition de ces critères est d’autant plus importante qu’elle servira ensuite à éliminer les perturbateurs endocriniens présents dans les emballages, les médicaments, les cosmétiques, les meubles…

Des dérogations qui inquiètent

Une nouvelle disposition est apparue dans le texte en décembre 2016. Celle-ci prévoit une dérogation pour les pesticides dont le mode d’action est basé sur la perturbation endocrinienne des organismes jugés nuisibles. Et ce, même s’ils ont des effets sur des invertébrés non ciblés. « C’est complètement inacceptable, puisque cela veut dire que l’on remet l’efficacité en premier et que l’innocuité sur l’environnement, on s’en fiche complètement », s’indigne François Veillerette, porte-parole de Générations Futures. Cette dérogation aurait été introduite pour répondre aux demandes des entreprises allemandes de la chimie.

La Commission a retenu trois critères pour classer une substance de perturbateur endocrinien. Il faut que celle-ci fasse apparaitre des effets indésirables, un mode d’action endocrinien et une corrélation entre les deux. Le débat se cristallise autour du poids de la preuve. À partir de quand, estime-t-on que les preuves scientifiques sont suffisantes ? Les premières propositions excluaient les perturbateurs endocriniens suspectés pour ne retenir que les avérés. Il y a eu des avancées sur ce point. Mais les associations estiment que le niveau de preuve exigé par les critères est encore trop élevé.

Seuls la France, le Danemark et la Suède s’y opposent, constituant une minorité de blocage. Avec un nouveau vote prévu le 4 juillet, les associations et les scientifiques montent au créneau pour appeler la France à voter contre. Car« si la France tombe, il n’y a plus de minorité de blocage », prévient François Veillerette.

ONG et scientifiques s’en mêlent !

Trois sociétés savantes d’endocrinologie ont adressé une lettre le 15 juin dernier aux ministres des Etats membres. Ils les appellent tout simplement à rejeter le projet de la Commission européenne. Selon eux, « les critères manquent de cohérence et ne seront pas efficaces ».

Par la suite, la coalition EDC Free Europe, représentant 70 organisations de la société civile européenne ont adressé une lettre ouverte à Nicolas Hulot. Ils lui demandent de « rejeter cette proposition, pour faire honneur aux engagements présidentiels d’Emmanuel Macron et à l’approche ambitieuse adoptée jusqu’à présente par la France ».

Selon Santé publique France, plusieurs études font état d’une apparition plus précoce des signes de la puberté en France et dans les pays développés, en lien avec ces produits. Et une étude récente évalue les impacts des produits chimiques sur les systèmes de santé européens à au moins 157 milliards d’euros par an, sans prendre en compte les cancers.

Par Matthieu Combe, journaliste scientifique

Le machine learning, appliqué à l’imagerie médicale

L’apprentissage automatique (ou machine learning) est d’après Arthur Samuel – pionnier américain du jeu sur ordinateur, de l’intelligence artificielle et de l’apprentissage automatique – une science qui permet de donner « à un ordinateur la capacité d’apprendre sans avoir été programmé pour effectuer une tâche ». Un exemple récent, qui a coupé le souffle à la communauté scientifique, est la partie de go entre le Sud-Coréen Lee Sedol et la machine AlphaGo. Cette intelligence artificielle a été conçue sur la base du machine learning dans le but de jouer spécifiquement à ce jeu. En effet, le go présente un nombre de possibilités de jeu bien supérieur aux échecs et il est évident que les dévelopeurs d’un tel programme ne peuvent pas ajouter chacun des mouvements possibles à la machine. Il faut donc que l’ordinateur ‘apprenne’ en jouant contre lui-même pendant plusieurs mois durant !

Mais cette fois-ci, le machine learning a été mis à profit d’une cause moins ludique : l’imagerie médicale. Tout a commencé dans le kibboutz de Shefayim entre Tel Aviv et Haifa. Ce kibboutz est connu comme étant extrêmement robuste financièrement, n’ayant eu besoin d’une aide financière lors de la crise de 1980. Dans cet environnement extrêmement technologique, la startup Zebra Medical Vision propose une application différente du machine learning : apprendre à un ordinateur à détecter une maladie en observant des images provenant d’imageries médicales conventionnelles. Et l’enjeu est de taille car l’entreprise estime que plus d’un milliard de personnes sont bénéficiaires des services d’imageries tels que l’IRM, les scanners X ou les scanners TEP. Cependant, pour le moment, toutes ces images produites ont besoin d’un spécialiste pour les analyser- et parfois simplement pour une vérification de routine ou pour des problèmes évidents comme un os cassé – ce qui entraîne naturellement une augmentation des frais médicaux.

Pour ‘apprendre’ à l’ordinateur à analyser ces images, des milliers d’images de patient-e-s déjà analysées par des spécialistes ont été chargées sur le programme. L’ordinateur utilisant un algorithme appelé Emphysema a donc appris à avoir le même résultat que le ou la radiologue. Finalement, cela revient un peu au même apprentissage que celui effectué par le ou la spécialiste durant sa formation où il ou elle apprend à reconnaître des ensembles de points qui semblent suspects dans une image. L’entreprise a fait le choix de s’intéresser en priorité aux os, au foie, aux poumons et au cerveau, combinant les trois techniques médicales évoquées ci-dessus.

Dans un entretien avec le Monde, Alain Livartowski, oncologue et directeur des données à l’Institut Curie à Paris affirme : « Cela peut être comparable à ce qu’ont apporté les IRM en neurologie. Les ordinateurs ne fatiguent pas, n’ont pas d’a priori, voient des choses qui échappent à l’homme ». Ils sont aussi plus rapides. « Les IA sont en outre moins sensibles que les humains au paiement à l’acte et n’ont pas d’ego qui peut fausser leur jugement », ajoute le docteur Laurent Alexandre, président de la société de séquençage DNAVision.

Alors que certains se disent probablement « Voilà la fin du travail du ou de la radiologue », rien n’est moins certain ! Des personnes travaillent encore à améliorer des techniques médicales pour obtenir de nouvelles formes « d’empreintes digitales » spécifiques à certaines maladies afin d’améliorer le diagnostic. Si ce logiciel fait ses preuves, il sera utilisé vraisemblablement comme un premier avis pour des cas peu complexes, mais aura l’avantage de pouvoir s’adapter au fur et à mesure que la recherche avance.

Rédacteur : Samuel Cousin, post-doctorant à l’Institut Weizmann

Source : Ministère des Affaires étrangères et du Développement international, Ambassade d’Israël  – Article d’origine

Salon de l’aéronautique du Bourget : 5 drones made in France

Le Patroller de Sagem / Safran

Cocorico. Ce drone français peut voler jusqu’à 24h sans s’arrêter, embarquer 250 kg de matériel et se montrer d’une discrétion absolue grâce à une innovation qui atténue sa signature infrarouge.

Patroller-UAV-Sagem

Mais surtout, son système évolutif multi-senseurs lui permet de s’adapter à chaque nouvelle mission qui lui est confiée. Cette grande modularité est incontestablement l’un de ses principaux atouts !

infographie_patroller_fr

Consulter le site internet de Safran

 

Le drone Spy’Ranger de Thalès et Aviation Design

Voici le nouveau drone de reconnaissance de l’armée française ! Thalès a remporté ce marché face à Airbus qui proposait le drone Skyghost de sa filiale Survey Copter et l’Israélien Elbit.
Résultat :  une commande de 210 drones (100 millions d’euros).

spy_drone_thales

Transportable en sac-à-dos, il pèse moins de 15 kg et possède une autonomie de 2h30. Déployable en 12 minutes, l’engin transmet des vidéos en temps réel jusqu’à 30 km de la station.

Spy’Ranger équipera les forces françaises à partir de 2019.

Consulter le site internet de Thalès

 

Le drone gonflable de la start up Diodon

Les drones SP20 et MP40 de cette jeune entreprise française ont tout pour plaire : légers, résistants, peu encombrants et tout terrain, leur armature gonflable leur permet d’absorber les chocs et de se poser sur l’eau.

Une seule minute suffit à les déployer. Ils embarquent bien sûr plusieurs types de capteurs et une caméra vidéo HD. En revanche, leur autonomie limitée (environ 20 minutes) contraint à un pilotage efficace.

Consulter le site internet de Diodon

 

Le drone-hélicoptère de Helipse

Le modèle 220-E est particulièrement utile en agriculture ou en topographie. Volontairement simple d’utilisation, il se veut être une alternative intéressante aux multirotors qui dominent le marché.

Capable de couvrir plusieurs dizaines d’hectares en moins d’une heure, L’Helipse a notamment été employé par la société Agribird qui avait besoin  de lâcher des insectes au dessus de plantations afin de combattre des nuisibles.

cache_2466893903

Consulter le site internet de Helipse

 

Le drone Drop’n drone d’Airborne concept

Fondée en 2014 à Toulouse par un ancien pilote de l’armée de l’air et un ancien ingénieur des essais en vol chez Airbus, cette jeune société a imaginé un vrai petit bijou : le premier drone largué par avion ou hélicoptère !

Airborne-concept-article-drop-n-drone-2

Cette caractéristique a un avantage immédiat : Drop’n Drone ne consomme pas d’énergie pour le décollage. Côté moteur, il est alimenté par une petite pile à hydrogène couplée à une batterie lithium-polymère. Résultat : son autonomie dépasse les 6 heures, une jolie prouesse si on le compare aux autres drones de sa catégorie.

L’ Armée s’y intéresserait pour de l’observation, Airbus y verrait un intérêt pour étudier un crash aérien et Orange, pour inspecter ses infrastructures.

Consulter le site internet d’Airborne Concept

 

Par Iris. T.

Emploi : regain de confiance des cadres dans leur avenir professionnel

Perspectives de mobilité professionnelle des cadres à 3 ans

Interrogés début 2017, 64 % des cadres envisagent au moins une mobilité professionnelle au cours des trois prochaines années. Parmi eux, 42 % ont l’intention de changer de poste dans leur entreprise, 39 % songent à une évolution externe, et 10 % envisagent de créer leur entreprise. A noter que les cadres âgés de moins de 30 ans se déclarent plus enclins à bouger : 60 % en externe (+6 points en un an) et la moitié d’entre eux en interne.

apec1

Bilan de la mobilité professionnelle en 2016

Dans un marché de l’emploi cadre très porteur en 2016 (+12% des recrutements de cadres), 28 % des cadres ont connu un changement professionnel, en progression de 3 points par rapport à 2015. Ainsi, 7 % d’entre eux ont effectué une mobilité externe, 9 % ont changé de poste au sein de leur entreprise et 12 % ont connu un autre changement (de service, de département, d’établissement ou bien de contenu de poste).

apec2

Cadres non mobiles en 2016

72 % des cadres n’ont connu aucun changement professionnel en 2016, en baisse de 3 points par rapport à 2015. Pour autant, certains ont entrepris des démarches pour donner une nouvelle impulsion à leur parcours professionnel : 49 % d’entre eux ont été en recherche active et 23 % en veille. Seuls 28 % n’ont effectué aucune démarche spécifique.

Lire l’étude complète de l’Apec : Panorama des mobilités professionnelles / Edition 2017

Source : Apec

Revue du web #103 : les vidéos les plus étonnantes du mois

Un drone secouriste à votre chevet en 5 minutes

Équipé d’un défibrillateur cardiaque, ce drone autonome conçu par l’entreprise suédoise FlyPulse se déplace quatre fois plus vite qu’une ambulance. Une réactivité qui pourrait bien sûr sauver des vies.

 

Le voyage de Thomas Pesquet en réalité virtuelle

La société de production La Vingt-Cinquième Heure ambitionne de transformer le voyage de Thomas Pesquet en expérience de réalité virtuelle. Pour réunir la somme nécessaire à la réalisation du documentaire, elle vient de lancer une campagne de financement participatif.

 

Dans l’espace, on dort… debout

Dans le dernier numéro de l’émission Envoyé Spécial, Thomas Pesquet a présenté son sac de couchage vertical.

 

Un drone très souple au vol acrobatique

Avec ses six rotors pivotant à 360 degrés sur leur axe, le drone hexacoptère Voliro conçu à l’École polytechnique fédérale de Zurich est un véritable acrobate.

 

De la culture de la peau 3D à l’injection directe sur les grands brûlés

Depuis un peu plus d’un an, on sait fabriquer par imprimante 3D toutes les couches de la peau pour une culture in vitro. Prochaine étape en ligne de mire : l’impression directement sur le patient. Les premiers tests sont déjà en cours.

N’hésitez pas à lire notre article « De la culture de la peau 3D à l’injection directe sur les grands brûlés »

 

Un nouveau radar capable de verbaliser 1000 voitures en l’espace d’une heure

La société Indigo teste à Madrid des véhicules dotés de la technologie LAPI, un nouveau procédé qui ferait rêver plus d’une collectivité (et cauchemardé plus d’un automobiliste).

Par I. T

Cristallographie : quand un ordre inattendu émerge d’un matériau nanostructuré

Le pyrochlore (La2Zr2O7) est un matériau modèle intéressant à la fois pour confiner des atomes radioactifs dans une matrice et pour faire circuler les protons dans une pile à combustible. Certains procédés de fabrication, notamment par chimie verte, conduisent à la formation de grains de dimension nanométrique et non plus micrométrique. Or ce pyrochlore « nanostructuré » présente des propriétés structurales et chimiques paradoxales.

Les oxydes complexes tels que le pyrochlore sont organisés en longs « rubans » de cubes et d’octaèdres. Ces formes géométriques résultent de l’affinité chimique respective des atomes de zirconium et de lanthane avec les atomes d’oxygène. Or lorsque le pyrochlore est produit, par exemple, par un procédé de chimie verte, les octaèdres semblent disparaître au profit des seuls cubes ! Ce constat surprenant s’appuie sur la diffraction d’électrons sur
l’échantillon. L’utilisation de neutrons ou de rayons X conduit au même résultat…

La perplexité des chercheurs s’est renforcée au vu d’analyses complémentaires, chimiques cette fois. Les modes de vibration des atomes, de même que les spectres par pertes d’énergie électronique, pointent tous deux vers une organisation classique du matériau, associant cubes et octaèdres.

À l’échelle microscopique de l’analyse chimique, les « gros » grains et les « petits » grains de pyrochlore sont indiscernables. À plus grande échelle, leurs structures semblent diverger… Les chercheurs ont donc eu l’idée de réduire le faisceau d’électrons à la dimension moyenne d’un « petit » grain pour leur analyse par diffraction. Tout est rentré dans l’ordre : ils ont retrouvé la structure classique, bien connue, du pyrochlore.

Que se passe-t-il à une échelle intermédiaire ? En fin de synthèse, les « petits » grains se regroupent de manière apparemment aléatoire, mais en réalité, ils obéissent à des lois physico-chimiques qui conduisent à un certain ordre. Un« gros » grain contient environ cinq « petits » grains dont l’assemblage possède une certaine forme d’ordre. Il en résulte que la diffraction d’électrons sur cet objet est perturbée par des interférences destructives. Cet artefact donne alors l’illusion d’une structure composée seulement de cubes.

Cette étude permettrait d’expliquer les observations réalisées sur d’autres oxydes soumis à des effets d‘irradiation, tels les spinelles. Elle souligne par ailleurs l’importance de l’échelle mésoscopique (échelle intermédiaire entre celle des atomes et celle du matériau) dans les simulations du comportement des matériaux sous irradiation. Les chercheurs comptent désormais approfondir leur compréhension du comportement sous irradiation d’autres matériaux comme le dioxyde d’uranium.

Source : cnrs

Espace et énergie : la fusion plus que jamais dans les tuyaux

Une idée née dès les années 1960 mais qui a dû attendre la fin de la première décade des années 2000 pour espérer réellement pouvoir aboutir. Alors que l’étude de la fusion comme nouvelle source d’énergie prend la forme en Europe d’un projet titanesque et extrêmement coûteux à travers ITER, qui vise la production de plusieurs centaines de mégawatts, aux Etats-Unis certains se penchent sur des dispositifs beaucoup plus petits et du coup beaucoup moins chers. C’est le cas par exemple de Helion Energy qui s’appuie sur une technologie basée sur la fusion Deutérium / Helium-3 et qui espère installer un pilote de 50MW vers 2019  et sa première usine opérationnelle vers 2022. C’est aussi le cas de Tri Alpha Energy qui étudie la fusion de protons sur des noyaux de bores et qui dispose de nombreux fonds privés lui ayant permis de construire une des plus grandes installations du monde équipée d’un confinement magnétique pour les plasmas.

La Nasa croit dans la fusion

La Nasa s’est toujours intéressée à l’avancée de la fusion. Elle a ainsi participé en 2014 au lancement d’Helion Energy et suit de près l’avancée des travaux de Princeton Satellite Systems petite entreprise spécialisée dans le contrôle et la simulation pour l’aérospatiale. Elle lui a déjà attribué trois subventions d plusieurs centaines de milliers de dollars via différents programmes de soutien à l’innovation ou de transfert de technologies (Small Business Technology Transfer (STTR) programs et NIAC -Nasa Innovative Advanced Concepts). Mais comme le précise Michael Paluszek, la Nasa ne finance que certaines parties du développement du système et non la totalité si bien que l’avancée des travaux est toujours dépendante d’une levée de fonds qui reste aléatoire. Ainsi, si le projet avance bien et que les chercheurs sont confiants, pensant pouvoir passer à la phase 3 sur les 4 nécessaires à démontrer la faisabilité réelle de la fusion, il faudra encore 5-6 ans de travail et 50 millions de dollars pour arriver à un premier démonstrateur et au moins autant de temps pour que la technologie soit intégrée à une mission spatiale.

Des minis réacteurs de quelques mégawatts

Michael Paluszech met en avant les avantages des petits réacteurs à fusion : en ne visant la production que d’une dizaine de mégawatts par réacteur, ceux-ci deviennent tout de suite beaucoup plus petits, légers et faciles à construire et à lancer dans l’espace autant pour de futures missions habitées que pour des robots et des sondes. La propulsion par fusion vise à produire 1 kW par kilo de matériel, aussi un tel réacteur pèserait 10-11 tonnes et occuperait à peu près 4-8 mètres de long sur 1,5 m de diamètre. Bien sûr, précise-t-il pour des engins spatiaux plus grands, il faudrait combiner plusieurs réacteurs, mais, dit-il, cela a un avantage certain en terme de fiabilité, si un réacteur est endommagé, les autres peuvent permettre d’assurer tout de même la mission.

Le rôle des ondes radio basses fréquences

Un des obstacles rencontrés jusqu’alors pour le développement de la fusion est qu’elle nécessite des très hautes températures et pressions pour l’initier si bien que les technologies utilisent plus d’énergie qu’elles n’en produisent. Princeton Satellites Systems utilise des ondes radio ultra basses fréquences pour chauffer un mélange de deutérium (atome d’hydrogène muni d’un neutron en trop) et d’Hélium-3 (atome d’hélium auquel il manque un neutron) qui est confiné par des champs magnétiques sous forme de plasma dans un anneau. Ce plasma est en rotation et une partie peut être dirigé vers une tuyère pour assurer la poussée. Les vitesses pourraient atteindre 25 000 km/s selon les concepteurs. Ce qui aurait par exemple réduit la durée du voyage de New Horizon vers Pluton de 9 à 4 ans en lui laissant encore de la puissance pour envoyer 100 000 fois plus de données par seconde que ce que la sonde a pu faire. Cela ouvre aussi la possibilité de concevoir une fusée capable de dévier un astéroïde.

Encore des inconvénients majeurs

Il reste encore plusieurs inconvénients à cette technologie. D’une part, il faut se procurer de l’hélium-3 qui est extrêmement rare sur Terre (alors qu’il est courant sur la Lune et que son exploitation est d’ailleurs envisagée) et que l’on produit surtout dans des réactions nucléaires et dont les réserves aujourd’hui sont gérées de manière très confidentielles par les Etats-Unis et la Russie. Un obstacle pourtant en grande partie levée sur le système développé par Helion Energy qui a mis au point sur ses prototypes un cycle de l’hélium permettant d’en auto-produire lui-même. Ensuite, les ondes basses fréquences utilisées ont un faible pouvoir de pénétration dans le plasma ce qui limite le diamètre du réacteur autour d’un mètre. Enfin, la réaction produit encore des radiations ionisantes (neutrons et rayons X), nécessitant un bouclier de protection. Cependant, Princeton Satellite Systems a prévu d’utiliser en partie ces rejets pour alimenter un circuit thermodynamique secondaire intégré directement dans le bouclier. Si bien que le bouclier ne constitue plus un élément supplémentaire.

La vidéo de présentation des recherches de Princeton Satellites :

Sophie Hoguin

Comment les entreprises recrutent-elles des cadres ?

Marché transparent  : 87%

Le marché transparent correspond aux cas où une offre d’emploi est publiée. Parallèlement, les entreprises activent d’autres canaux de sourcing.

Marché accessible : 7%

Le marché accessible est celui où le recruteur ne publie pas d’offre d’emploi mais utilise des canaux où ce sont les candidats qui se rendent visibles : candidatures spontanées, CVthèques, réseaux sociaux.

Marché caché : 6%

Le marché caché correspond aux cas où le recruteur fait uniquement appel à son réseau de relations personnelles et professionnelles, à la cooptation par les salariés, aux associations d’anciens élèves ou à la chasse de têtes.

Les entreprises multiplient les moyens pour trouver des candidats

En 2016, cinq canaux différents ont été activés en moyenne par les recruteurs afin de recueillir des candidatures contre quatre canaux les années précédentes.

cap1-apec

L’offre d’emploi reste le moyen le plus efficace

La moitié des recrutements de cadres est finalisée grâce à la diffusion d’une offre d’emploi. La part des postes pourvus grâce au réseau de contacts personnels et professionnels du recruteur est de 18 %. Les candidatures spontanées sont à l’origine de 8 % des recrutements et la cooptation par les salariés pour 7 %.

Cap2-apec

Les processus de sélection des candidats sont multiples

cap3-apec

Avec les résultats de ce baromètre, l’Apec a conçu un outil interactif qui permet de comparer les moyens de sourcing et les méthodes de
sélection par secteur, fonction, taille d’entreprise et âge du candidat
recruté. Il est accessible sur apec.fr

Méthodologie

1 400 entreprises représentatives du secteur privé de plus de 50 salariés, selon le critère des effectifs cadres par secteur d’activité ayant recruté au moins un cadre au cours des 12 derniers mois. Elles ont été interrogées par téléphone, en janvier et février 2017 par l’institut BVA. Les résultats de cette synthèse sont issus de deux documents d’études : Sourcing cadres édition 2017 et Les progiciels de recrutement en 2016 : quel équipement, quels usages ?

Source : apec

Le charbon bientôt chassé par l’éolien et le solaire !

Selon le rapport de référence New Energy Outlook 2017 de BNEF, le monde investira 10,2 billions de dollars dans les nouveaux modes de production d’électricité d’ici 2040. En tête, la Chine et l’Inde représenteront respectivement 28% et 11% du total. Surtout, ce sont les énergies renouvelables (ENR) qui tireront leur épingle du jeu. Elles accapareront en effet 72% des investissements dans le monde, dont 27,5% pour le solaire et 32,4% pour l’éolien. Ainsi, l’éolien représentera 48% de la puissance électrique mondiale, contre 12% aujourd’hui. Pour le solaire, ce sera 34%, contre 5%.

Les experts prévoient une augmentation de 10% des émissions du système électrique mondial pour atteindre un pic en 2026. Puis, elles baisseront lentement. En 2040, les émissions seront 4% plus faibles qu’en 2016. Une baisse largement insuffisante pour limiter le réchauffement climatique à 2°C en 2100. Pour être compatible avec cet objectif, BNEF estime qu’il faudrait un investissement supplémentaire de 5,6 billions de dollars. De quoi installer 3.900 gigawatts supplémentaires d’énergies renouvelables

Seb Henbest, auteur principal de l’étude à BNEF voit néanmoins une transition « inarrêtable, grâce à la baisse rapide des coûts de l’énergie solaire et éolienne, et un rôle croissant pour les batteries, y compris celles des véhicules électriques, pour équilibrer l’offre et la demande ». Les auteurs prévoient un taux de pénétration des ENR de 74% en Allemagne, 55% en Chine, 49% en Inde et 38% aux États-Unis d’ici 2040.

Des ENR beaucoup moins chères que le charbon

Le coût des ENR va continuer sa chute vertigineuse dans les prochaines années. Alors que le coût du solaire photovoltaïque a déjà baissé de 25%  depuis 2009, il encore perdre 66% d’ici 2040. « Le solaire est déjà aussi peu cher que le charbon en Allemagne, en Australie, aux Etats-Unis, en Espagne et en Italie, analyse BNEF. D’ici 2021, il sera aussi moins cher que le charbon en Chine, en Inde, au Mexique, au Royaume-Uni et  au Brésil ».

Du côté de l’éolien, les coûts pour les installations terrestres vont encore perdre 47% d’ici 2040, alors qu’ils ont déjà perdu 30% ces 8 dernières années. Pour l’éolien offshore, la chute sera encore plus importante, avec -71% au même horizon.

La sentence est lourde pour le charbon. La production d’électricité à base de charbon va s’effondrer en Europe et aux États-Unis: respectivement -87% et -45% d’ici 2040. Et ce malgré l’optimisme de l’administration Trump. Aux Etats-Unis, ce charbon sera remplacé par une hausse de 22% du gaz et de 169% des énergies renouvelables. Le charbon devrait néanmoins continuer à se développer en Chine, mais atteindre un sommet d’ici 2026. BNEF s’attend à ce que 369 gigawatts de nouvelles centrales planifiées dans le monde soient annulées, dont un tiers en Inde. Au niveau mondial, la demande en charbon devrait baisser de 15% entre 2016 et 2040.

Des ENR boostées par les nouveaux modes de flexibilité

Les centrales au gaz connaîtront un investissement de 804 milliards de dollars. La puissance des centrales installées en 2040 aura augmenté de 16%. Mais elles ne serviront pas à remplacer les centrales au charbon pour la « production de base ». Elles seront surtout utilisées comme moyen de flexibilité pour assurer la demande de pointe et assurer l’équilibre du réseau.

À côté de ces centrales au gaz, les batteries lithium-ion vont fortement se développer. Ce marché pour le stockage énergétique devrait valoir au moins 239 milliards de dollars entre 2017 et 2040. Les batteries accompagneront notamment le développement du marché du photovoltaïque sur toitures. Cette technologie produira notamment jusqu’à 24% de l’électricité en Australie et 15% en Allemagne. « Les batteries de petite échelle installées par les ménages et les entreprises aux côtés des systèmes photovoltaïques représenteront 57% du stockage dans le monde d’ici 2040 », prévoit BNEF.

Par ailleurs, les batteries des véhicules électriques contribueront à assurer l’équilibre du réseau. Charger intelligemment ces véhicules, lorsque les ENR génèrent de l’électricité et que les prix sur le marché de gros sont bas, aidera le réseau à s’adapter à l’énergie solaire et au vent intermittent. Le développement du véhicule électrique s’accompagnera d’une baisse des coûts des batteries lithium-ion de 73% d’ici 2030.

NEO-2017-PR-768x423
Évolution du mix de production électrique mondial entre 2012 et 2040. Source : Bloomberg New Energy Finance, New Energy Outlook 2017.

Par Matthieu Combe, journaliste scientifique

Ma thèse en 180 secondes : découvrez les prestations des 3 finalistes

La finale nationale 2017 de « Ma thèse en 180 secondes », organisée par la CPU et le CNRS, s’est déroulée le 14 juin à Paris, dans le Studio 104 de la Maison de la Radio. 16 doctorants, issus des universités et regroupements universitaires français, ont présenté leur travail de recherche en 180 secondes chrono.

Une soirée à redécouvrir sur http://mt180.fr/

Parmi les quatre prix remis lors de la soirée de finale nationale, seuls les premier et deuxième prix du jury permettront aux candidats d’accéder à la finale internationale et ainsi de représenter la France à Liège, en Belgique, le 28 septembre prochain :

Premier prix du jury et Prix du public : Sabrina Fadloun, finaliste du regroupement Communauté Université Grenoble Alpes, grâce à la présentation de sa thèse « Étude d’un procédé de dépôt de cuivre par MOCVD pour la réalisation de vias traversants à fort facteur de forme pour l’intégration 3D ».

La course des électrons !

 

•    Deuxième prix du jury : Davina Desplan, finaliste du regroupement Université Paris Seine.. Elle accède ainsi à la finale internationale grâce à sa thèse « Caractérisation mécaniques et électriques de produits cosmétiques et de leur stabilité, lien avec des modifications chimiques ou des contaminations biologiques ».

Émulsion et paix

 

•    Troisième prix du jury : Olivier Chabrol, représentant du regroupement Aix-Marseille Université, avec sa thèse sur les « Méthodes informatiques de détection de signatures moléculaires de convergence évolutive ».

Bref j’ai rencontré Batman

Source : cnrs

La Chine mise sur le solaire photovoltaïque flottant !

Huainan, dans la province chinoise d’Anhui, témoigne de la transition énergétique engagée en Chine. À proximité de cette ville minière riche en charbon, l’extraction du minerai a laissé place au solaire photovoltaïque.

Suite à des affaissements et des inondations dues aux fortes pluies de la région, l’ancienne mine de charbon a été recouverte par un lac artificiel. Ces eaux, dont la profondeur atteint entre 4 et 10 mètres, étaient « fortement minéralisées », à cause de l’extraction minière passée. Ne pouvant être utilisée pour l’irrigation ou la consommation humaine, cela rendait la zone « sans valeur », rappelle Sungrow. L’emplacement était tout choisi pour y construire une nouvelle centrale photovoltaïque flottante.

Des centrales flottantes de plus en plus imposantes

Les dimensions de la centrale sont impressionnantes. Sur 0,8 kilomètres carrés, 160.000 panneaux solaires permettent d’atteindre une puissance de 40 mégawatts (MW). Raccordée au réseau en mai 2017, elle devient la plus grande centrale photovoltaïque flottante au monde. Elle est deux fois plus puissante que la centrale flottante qui détenait le précédent record (20 MW). Celle-ci avait été lancée dans la même région par la société Xinyi Solar en 2016. Mais ce nouveau record sera encore de courte durée. Les projets se suivent et changent d’échelle. Sungrow a annoncé début juin qu’une centrale solaire flottante de 150 MW verrait le jour dans la même province d’ici la fin de l’année.

Les centrales solaires flottantes constituent une technologie importante pour valoriser les eaux délaissées. C’est dire que ces eaux offrent de nombreux avantages. Une centrale solaire flottante évite la disparition de terres agricoles sous des champs de panneaux solaires.  Et l’eau permet d’augmenter le rendement des panneaux, car elle refroidit leur surface.

Ces records contrastent avec les plus gros projets solaires non flottants en Chine. Le parc solaire du barrage de Longyangxia sur le plateau tibétain est la plus grande solaire au monde. Elle accueille 4 millions de panneaux solaires d’une puissance de 850 MW et s’étend sur 27 kilomètres carrés. Mais elle sera bientôt battue par un projet dans la région de Ningxia. Celle-ci regroupera 6 millions de panneaux solaires d’une puissance de deux gigawatts.

Par Matthieu Combe, journaliste scientifique

Record pour l’éolien français début 2017

En 2016, le parc de production électrique français a gagné 1.345 mégawatts (MW) d’éolien. Une croissance sans précédent. C’était 35% de plus qu’en 2015 (999 MW). À la fin de l’année, le parc éolien français atteignait 11,8 gigawatts (GW). Cette croissance record se poursuit en 2017.

Vers un nouveau record de raccordement en 2017 ?

Selon les statistiques du Ministère de la Transition écologique et solidaire, la puissance éolienne raccordée au parc de production durant le premier trimestre 2017 s’élève à 330 MW pour 34 nouvelles installations. Et il s’agit de « la plus forte jamais observée lors d’un premier trimestre », se félicite le ministère. C’est environ deux fois plus qu’au premier trimestre 2016 (141 MW pour 18 installations).

Au 31 mars 2017, la puissance éolienne raccordée au parc de production électrique s’élève donc à 12,1 GW. Il y a déjà plus de 8 GW de projets d’éolien terrestre en file d’attente, dont 2,5 GW ont une convention de raccordement signée. Pour l’éolien en mer, 3 GW sont en file d’attente, sans aucune convention de raccordement encore signée.

Malgré une hausse importante de puissance éolienne raccordée depuis le 31 mars 2016, les éoliennes françaises ont produit 6,9 terawattheures (Twh) au premier trimestre 2017. C’est 12 % de moins que lors de la même période en 2016. « Ce recul est imputable aux conditions de vent défavorables durant les mois de janvier et, dans une moindre mesure, de février », avance le Ministère. Les éoliennes ont néanmoins fourni 4,8 % de la consommation électrique nationale sur la période.

Des objectifs difficiles à atteindre !

La Programmation Pluriannuelle de l’Energie (PPE) prévoit une puissance éolienne raccordée de 15 GW fin 2018. Pour respecter cet objectif, la croissance annuelle du parc devrait être portée à plus de 1,6 GW en 2017 et 2018. Pour 2020, l’objectif fixé par le plan national d’action en faveur des énergies renouvelables (PNA EnR) est à 19 GW. Soit une installation de 2 GW par an entre 2019 et 2020. Ensuite, la PPE prévoit une trajectoire de développement basse à 21,8 GW et une haute à 26 GW pour 2023. De quoi ambitionner l’installation de 2,3 GW par an. Pour atteindre ces objectifs, le volume des raccordements doit réellement s’accélérer pour atteindre des niveaux sans précédents.

Durant la campagne présidentielle, Emmanuel Macron s’est engagé à soumettre rapidement après son élection un calendrier d’appels d’offres pour donner de la visibilité à la filière. Son objectif : doubler la capacité en éolien et en solaire photovoltaïque d’ici 2022 et mobiliser 30 milliards d’euros d’investissements. Pour espérer atteindre les objectifs hauts de la PPE en 2023.

Par Matthieu Combe, journaliste scientifique

Expérience#11 : Indépendance ou cohésion ?

À la maison, Henri veut faire ce qu’il veut, quand il veut, sans avoir de comptes à rendre. Le problème c’est que sa compagne Silvie semble vouloir tout contrôler.

Silvie veut de la relation avec Henri ; pas seulement de la communication. Elle veut éprouver un sentiment de connexion, de complicité. Bref, comme elle le dit souvent, Silvie veut faire couple. Plus Henri revendique son indépendance et plus Sylvie affirme son besoin de connivence. Au fil du temps la surenchère de reproches, de sommations et d’ultimatums les plus invraisemblables a conduit ces partenaires dans une situation de guerre des tranchées. Pour défendre leurs positions et assurer leur sécurité dans ce climat de conflit permanent, les deux tourtereaux se sont métamorphosés en frères ennemis.

Mais Henri est plutôt satisfait de la situation actuelle. Il serait plus juste de dire que Henri n’est pas suffisamment insatisfait de la situation actuelle pour envisager de la changer. Seule Silvie souhaite un changement.

Leurs proches se rendent bien compte que si ces deux partenaires ne se donnent pas la peine de concilier leurs légitimes aspirations, alors ils risquent de compromettre l’avenir de leur relation…qui est déjà bien entamé. Malheureusement, le jeu de pouvoir que chacun met en place pour défendre ou exiger ses droits est toujours un jeu perdant-perdant pavé de souffrances.

Au boulot, Henri est ce que l’on appelle communément « un loup solitaire ». Il est très efficace professionnellement. Ses résultats personnels sont impressionnants mais il n’aime pas travailler avec les autres. Les autres il ne les tolère que s’ils travaillent pour lui. Fervent adepte du « chacun pour soi », il éprouve un énorme sentiment de fierté à chaque occasion qui lui est offerte d’exhiber ses performances individuelles. Sa philosophie, sa façon de considérer les autres, ses comportements ont fini par intoxiquer l’atmosphère de travail. Pour triste conséquence de cette pollution endurée, une sauvage compétition interne est devenue une condition nécessaire à la survie des employés.

Lorsqu’il est à la tête d’un projet, ne comptez pas sur Henri pour qu’il s’emploie à développer l’équipe. Pas question non plus pour qu’il serve de mentor vis-à-vis de collègues moins performants. S’il n’aime pas tendre la main, il répugne tout autant à recourir à quelque forme d’assistance que ce soit.

Régulièrement récompensé par sa hiérarchie, son excellent niveau de performance lui a fait gravir les échelons au sein de la société.

Mais la société dans laquelle Henri a ainsi évolué pendant 15 ans vient d’être rachetée par son principal concurrent. On peut en déduire que les méthodes de travail de cet ancien compétiteur sont plus efficaces car elles génèrent des flux financiers qui lui permettent de réaliser des opérations de croissance externe. Tout naturellement, le nouveau comité de direction souhaite « harmoniser » les méthodes de travail en combinant les forces des deux entités et surtout en réduisant leurs faiblesses. Parmi celles-ci figure la culture managériale de l’encadrement de la société où Henri a jusqu’alors prospéré. Pour assurer à la fois sa sécurité matérielle et sa sécurité affective, Henri doit maintenant relever un nouveau défi : changer d’attitude.

Quels conseils donneriez-vos à Henri, à Silvie, à son nouveau DRH pour les aider à réussir à coup sûr cette transformation sans que ce soit au détriment des autres ?

Pour vous aider nous avons résumé ci-dessous les situations de Henri et de Silvie dans une carte des polarités.

Cette carte illustre un processus qui se développe irrémédiablement dans toute situation relationnelle. À chaque fois que nous sommes à l’aise avec une compétence particulière (ex : « je fais ce que je veux »), nous l’utilisons de plus en plus et nous finissons par la surinvestir…à tel point que cette compétence finit par nous coûter plus qu’elle ne nous rapporte. On s’aperçoit que, quel que soit le protagoniste, l’évolution de ses compétences (Indépendance ou cohésion) le fait basculer, à terme, entre développement personnel et délitement personnel.

Capture d’écran 2017-06-13 à 15.34.34

Nous vous invitons à prolonger cet article via la zone commentaire (ci-dessous), en nous proposant vos réponses aux problématiques évoquées par l’auteur.

Dino Ragazzo

Cybersécurité : l’être humain reste le maillon faible

Les experts en sécurité informatique ont coutume de dire que le principal risque sur trouve entre « la chaise et le clavier ». En clair, l’être humain et ses ressorts psychologiques bien connus : la curiosité, l’avidité, la paresse. Nous partageons tous ces mêmes défauts qui sont exploités par les pirates depuis des années.

Et le dernier rapport de Proofpoint, baptisé « Le Facteur Humain », ne fait qu’enfoncer le clou : nous sommes toujours les principaux maillons faibles de la cybersécurité. Pour ne pas incriminer que les internautes et les professionnels, précisons que les logiciels de sécurité et les systèmes exploitation comme Windows ne sont pas non plus exempts de défauts ; avec leurs failles de sécurité et leurs performances parfois limitées, ils ont aussi une part dans la multiplication des piratages.

Basé sur l’analyse de tentatives d’intrusions dans plus de 5000 entreprises en 2016, ce rapport de Proofpoint, spécialiste de la sécurité et de la conformité, confirme donc que les pirates s’appuient sur les failles humaines pour installer des programmes malveillants, dérober des informations confidentielles ou transférer des fonds. « Cette tendance d’exploitation du facteur humain, qui a vu le jour en 2015, s’accélère, et les cybercriminels multiplient désormais les attaques générées par les clics des utilisateurs plutôt que par des logiciels vulnérables, conduisant ainsi les victimes à exécuter elles-mêmes les attaques », a déclaré Kevin Epstein, vice-président du centre d’opération des menaces de Proofpoint.

Et encore une fois, la messagerie est pointée du doigt comme étant le principal vecteur d’infection par un code malveillant. Les attaques sur la messagerie d’entreprise sont passées de 1 % en 2015 à 42 % fin 2016. Et malgré les rappels constants à la vigilance, « près de 90 % des clics sur des URL malveillantes ont lieu dans un délai de 24 heures après la remise de l’email. 25 % de ces clics se produisent en seulement 10 minutes et près de 50 % en une heure », précise l’Usine Digitale.

Pour les cybercriminels, le phishing reste donc l’arme de prédilection pour atteindre leurs objectifs. C’est un classique indémodable. Et il n’est pas près de s’arrêter puisqu’il se répand sur les réseaux sociaux. Les escrocs usurpent l’identité d’une entreprise et se font passer pour son service client : il n’y a plus qu’à attendre que des internautes mordent à l’hameçon pour récupérer leurs coordonnées bancaires par exemple. Résultat, ce type d’attaque a augmenté de 150 % en 2016.

Les résultats de ce rapport montrent que les entreprises ne doivent pas limiter leur politique de sécurité au seul investissement dans des logiciels de sécurité. La sensibilisation de tous les salariés est indispensable pour qu’ils tombent moins facilement dans les pièges des cybercriminels.

Par Philippe Richard

Neva Aerospace : des drones qui portent des charges de 2 tonnes !

Vlinder, c’est le nouveau concept de plate-forme robotique aérienne de Neva Aerospace. Une plate-forme robuste et évolutive, capable de porter des charges allant de 20 kg à 2 tonnes ! Il est possible d’imaginer toutes sortes de charges, allant d’une caméra à un outil robotique ou un bloc de béton. Ce drone peut servir pour faire de la maintenance aérienne ou organiser des réparations d’urgence dans des endroits éloignés et difficiles.

neva-aerospace

Par ailleurs, dans la construction ou la démolition, il permettra par exemple d’élever des charges lourdes et servir alors de grue aérienne. Mais ses applications seront encore plus larges. Il pourra aider à organiser des secours et cartographier des sites suite à un incident chimique ou nucléaire. Il pourrait enfin servir en sécurité civile, pour des activités de surveillance ou même des interventions physiques.

Des brevets et des concepts

Fin mars 2017, la société a annoncé avoir protégé l’essentiel de ses concepts grâce à plusieurs brevets. La technologie clé est l’utilisation de multiples turbocompresseurs électriques hybrides dotés d’une orientation très précise. Les futurs prototypes Vlinder utiliseront la technologie brevetée de Neva Aerospace.

Le prix de vente est estimé entre 100.000 et 1 million d’euros par drone, suivant leur poids, leur taille et leur mission. Il faudra ensuite ajouter entre 40.000 et 500.000 euros par an pour les dépenses d’exploitation.

Neva Aeospace est un consortium européen de cinq entreprises. « Nous travaillons en partenariat avec d’autres fournisseurs de technologie et les organisations qui utiliseront cette technologie pour personnaliser les designs qui peuvent être intégrés dans leur entreprise », prévient son président Robert Vegnes.

Par Matthieu Combe, journaliste scientifique

Paris Air Lab : les véhicules volants du futur !

Paris Air Lab est une vitrine de l’innovation aéronautique, spatiale et numérique. Plus de 70 startups se relaieront toute la semaine, aux côtés d’une douzaine de groupements industriels, agences spatiales et centres de recherche qui présenteront leurs programmes d’innovation collaborative.

Chaque jour, 10 start-ups seront mises en avant. Elles parleront de véhicules du futur, d’intelligence artificielle, de big data, de drones et de satellites… Mais aussi de transfert, d’agrégation et d’analyse de données en temps réel. L’industrie 4.0 sera aussi au cœur de ces innovations.

Zoom sur quelques véhicules volants du futur !

AeroMobil_In_Flight

La société slovaque Aeromobil présentera son nouveau modèle de voiture volante le lundi 19 juin. Une voiture de deux places qui roule sur route avec ses ailes pliées et se transforme en véhicule volant en moins de trois minutes. Dans les airs, elle atteint une vitesse maximale de 360 km/h grâce à son moteur à essence de 100 chevaux. Son autonomie en vol prévue est d’environ 700 km. L’Aeromobil nécessite une piste de 250 mètres pour décoller et de 50 mètres pour atterir. Elle sera commercialisée en 2020 à plus d’un million d’euros.

xti_trifan_600

Le 21 juin, XTI Aircraft exposera son TriFan 600. Il s’agit d’un aéronef innovant de six places. Le TriFan 600 décolle et atterrit verticalement comme un hélicoptère. Ses concepteurs promettent une autonomie, une vitesse et un confort comparable à un jet d’affaires. Avec son système de propulsion hybride-électrique, il atteindra une vitesse maximale de 625 km/h. Il pourra s’élever à une altitude de plus de 10.000 mètres en seulement 11 minutes.

flike

Vendredi 23 et samedi 24 juin, viendra le tour de Flike. Il s’agit d’un trichoptère, semblable à une moto volante. Ce véhicule est capable de transporter une personne. La vitesse du Flyke a été limitée à 100 km/h et son altitude maximale à 30 mètres. Avec un moteur hybride, le Flike dispose d’une autonomie de 60 minutes en vol et peut transporter une charge de 100 kg.

Par Matthieu Combe, journaliste scientifique

Sécurité informatique : quelles solutions pour remplacer le mot de passe ?

Chaque internaute a en moyenne une vingtaine de mots de passe. Et dans bien des cas, il s’agit des classiques mots de passe que l’on retrouve chaque année dans les Top 10 des plus utilisés : 12345, password, azerty… Ils n’apportent aucune sécurité car ce sont des mots de passe dits « faibles ». Pour plus de sécurité, il est nécessaire d’utiliser des mots de passe dits « forts ». Exemple : 1+KjhTR*d7-/. Pour la majorité des internautes, cet exemplaire est rédhibitoire. D’où la nécessité pour les marques et éditeurs spécialisés dans le high-tech de proposer des alternatives plus pratiques à utiliser tout en garantissant un niveau élevé de protection. Pas simple !

L’empreinte digitale

C’est la mesure biométrique la plus employée dans le monde depuis les années 60. Une quinzaine de points caractéristiques (les minuties, codifiées à la fin des années 1800 en « caractéristiques de Galton ») correctement localisés permettent d’identifier une empreinte parmi des millions. Par ailleurs, la probabilité de trouver deux individus avec des empreintes similaires est de 1 sur 1024.

Apple l’a généralisé avec sa technologie touchID, introduite en 2013 pour l’iPhone 5S.

Mais elle a été rapidement mise à mal par les hackers. « C’est complètement stupide d’utiliser comme élément de sécurité quelque chose qu’on laisse si facilement traîner derrière soi », a expliqué le président du Chaos Computer Club, Frank Rieger.

Résultat, les capteurs d’empreintes du Galaxy 5 et de l’iPhone 5S ont été piratés quelques jours après leur sortie par les chercheurs allemands du SRLabs.

La reconnaissance vocale

C’est en 1962 que Lawrence Kersta, un ingénieur du Bell Laboratories, établit que la voix de chaque personne est unique et qu’il est possible de la représenter graphiquement. Toutefois, l’Association Francophone de la Communication Parlée (AFCP) rappelle que « la voix n’est pas une empreinte digitale ou génétique. La voix présente des différences majeures avec les empreintes digitales et génétiques. Elle évolue au cours du temps et elle est modifiable volontairement et aisément falsifiable, avec les moyens techniques existants ».

Malgré ces limites, la Banque Postale (dont les premiers tests remontent à 2013 avec Talk to Pay est la première institution à avoir obtenu l’autorisation de la CNIL pour la tester en France. Pour mémoire, dès 2011, un système de vérification du locuteur avait été mis en place par Dexia en Belgique. Mais il était réservé à ses 300 clients VIP afin d’accéder à des services privilégiés sur un numéro de téléphone dédié. En Israël, la banque Lomi l’avait utilisé pour repérer les fraudeurs à la carte bancaire.

Le réseau veineux oculaire

L’entreprise EyeVerify propose un système de déverrouillage par l’analyse du réseau veineux des yeux. Selon certains spécialistes en cybersécurité, cette technologie est fiable à 99 %, d’autant qu’elle prend en compte le vieillissement des veines et de la rétine. Une réserve, tout de même : cette technologie biométrique exige de posséder des appareils équipés de caméras haute résolution.

Une alternative consiste à étudier le réseau veineux de la main. Dans les années 1980, les scientifiques s’étaient rendu compte qu’il était propre à chaque individu, même dans le cas de vrais jumeaux.

Mais pour l’instant, rien ne vaut une carte à puce pour sécuriser l’accès à son ordinateur. « Toutes les procédures biométriques ont été de différentes manières retournées, rappelle Vincent Guyot, Directeur scientifique du Mastère Spécialisé SI&S à l’ESIEA. Une carte à puce est très difficile à casser. C’est beaucoup plus sûr qu’un certificat stocké sur un ordinateur et qu’un code malveillant peut corrompre. Quand le certificat est dans la carte à puce, le pirate ne peut pas accéder au contenu de cette carte même s’il a infecté la machine. »

Par Philippe Richard

L’avion du futur selon le CNRS

A l’approche du salon du Bourget, le CNRS fait le point sur l’avion de demain. Objectif : rendre les avions plus sûrs, plus propres et plus performants. Grâce à la modélisation, aux simulations de pointe et aux bancs d’essais, les matériaux composites s’imposent face aux métaux. C’est l’objet de l’article « Le régime minceur des avions de ligne ». Non corrosifs, les composites rendent les avions plus légers, plus résistants et donc moins consommateurs de carburant. Grâce à eux, les avions ont déjà perdu plusieurs tonnes! Sur les modèles les plus récents (Boeing 787 et Airbus A350), la proportion de matériaux composites peut dépasser 50%. Ils s’étendent aux fuselage et aux ailes. Il s’agit notamment de composites à matrice organique – généralement un polymère – renforcée par des fibres de carbone pour le fuselage et les ailes. Ou à matrice en céramique pour certaines pièces de moteur.

Il y a un revers à la médaille. Pour dissiper le courant en cas de foudroiement, il faut rajouter des poutres en cuivre dans le fuselage. Par ailleurs, ces matériaux absorbent moins bien les chocs. Leur maintenance est aussi plus coûteuse. Les chercheurs travaillent donc sur les procédés de fabrication pour les rendre moins coûteux et plus rapide : chauffage par induction ultrarapide, infrarouges… Ils analysent aussi les différents types d’impacts grâce à la plateforme STIMPACT.

Améliorer les moteurs pour réduire les pollutions

Dans son article « la quête du moteur idéal », le CNRS rappelle les récentes évolutions des moteurs à réaction. Le principal défi reste d’assurer la stabilité de la flamme et une combustion la plus complète pour réduire les émissions de polluants. Grâce à des innovations sur la chambre de combustion, le moteur LEAP du groupe Safran connait par exemple un véritable succès commercial avec déjà près de 11.500 commandes.

Les derniers développements ont permis de réduire de moitié la consommation de kérosène des moteurs. Un voyageur consomme désormais environ 4 litres aux 100 kilomètres. Mais le défi des moteurs hybrides reste capital et difficile à surmonter. Solar Impulse a certes réussi une véritable performance avec son tour du monde solaire. Mais ce n’est pas demain que les avions de ligne auront une motorisation électrique. Pour remplacer les 240 tonnes de kérosène d’un A380, il faudrait 3.600 tonnes de batteries, estime le CNRS.

Moins de bruit en perspective ?

Le bruit des avions au décollage a déjà diminué de plusieurs dizaines de décibels ces trente dernières années. Des recherches sont notamment menées pour identifier les sources de bruit et les neutraliser en y apposant à proximité des « pièges sonores ». Des recherches s’intéressent aux métamatériaux qui absorbent mieux les bruits ou encore à des matériaux qui transforment le son en électricité. D’autres étudient encore de nouvelles architectures d’avion.

Par Matthieu Combe, journaliste scientifique

Édition sur mesure

 

Quand et pourquoi avez-vous mis en place ce nouveau service ?

Le service d’édition sur mesure a été officiellement mis en place cette année mais nous avons déjà fourni ce type de prestations dans le passé. Nous concevons, coordonnons et réalisons des publications, au format numérique et papier, pour le compte de professionnels dont l’édition n’est pas le métier, par exemple pour les laboratoires, les sociétés savantes, les associations professionnelles mais aussi les entreprises privées.

C’est pour nous une évolution logique et naturelle que de mettre à la disposition des acteurs de la recherche et de l’innovation notre savoir-faire et notre expertise en matière de traitement et de publication de contenus scientifiques et techniques.

 

Comment se passe l’accompagnement du projet ? Quels sont les types de prestations possibles ?

Il s’agit d’un accompagnement sur mesure, à partir du cahier des charges et des besoins spécifiques du client. En tant qu’experts de l’édition, nous pouvons aussi le conseiller et l’orienter dans ses choix. Pour cela, nous proposons toute une gamme de services éditoriaux, de l’idée jusqu’à la livraison, qui peuvent être regroupés en trois grandes étapes : l’étape de conception (définition du projet et du cahier des charges, aide au choix du format et du support, conception graphique), l’étape de rédaction (aide à la recherche d’auteurs et d’illustrateurs, coordination et suivi éditorial, recherche iconographique, correction, préparation et relecture des textes) et enfin l’étape de fabrication (composition, mise en page, impression, façonnage, livraison). Nous pouvons également prendre en charge des traductions de documents techniques et scientifiques.

 

Quels types de contenus et quels formats ?

Nous sommes d’une souplesse totale sur ces deux points. En effet, nous prenons en charge tout type de contenu scientifique et technique : actes de conférence, annuaires, guides pratiques, livres blancs, lettres d’information, documents institutionnels ou promotionnels et sommes capables de produire différents ouvrages imprimés (brochés, lettres, magazines, plaquettes, catalogues, etc.) et documents numériques (HTML, PDF, ePub, Flipbook, applications pour tablettes et mobiles, infographies, etc.).

Nous sommes bien sûr à l’écoute de nos interlocuteurs pour étudier et développer ensemble tout autre format ou support innovant.

 

Quels sont les exemples de réalisation ?

La dernière en date concerne le Guide de la commande numérique réalisé sur mesure pour le compte du Symop. Il s’agit d’un guide pratique de 70 pages à destination des acteurs de l’industrie mécanique. Nous avons pris en charge le projet éditorial de la recherche d’auteurs jusqu’à la fabrication d’un ouvrage imprimé et d’un document numérique feuilletable (format Flipbook, voir un extrait ici).

 

>> Pour en savoir plus : Édition sur mesure

>> Pour nous contacter : [email protected]

 

celine_chartier

Céline CHARTIER

Ingénieure et docteure en chimie-physique, éditrice et responsable du service « Édition sur mesure ».

 

 

 

 

Télécharger la lettre des éditeurs au format PDF

 

 

 

Le retour d’expérience au coeur de l’innovation

 

Pourquoi avoir mis en place ce nouveau format REX  dans l’offre “Management et ingénierie de l’innovation” ?

Souvent l’innovation est abordée dans les articles sous l’angle des définitions, des principaux concepts, des processus, des moyens, des outils et des aides qui nécessitent d’être déployés, mais assez rarement sous une forme concrète, en traitant de cas réels.

Le format REX se propose de combler cette lacune, de refléter des cas réels de conduite de projet d’innovation en entreprise, avec présentation du projet, de la mise en œuvre, des actions menées, des moyens déployés, des difficultés et des succès rencontrés, des solutions mises en place, etc., pour en tirer les enseignements positifs et négatifs.

 

Quel est l’objectif des REX ?

L’objectif est d’offrir au lecteur un contenu court (entre 6 et 10 pages), pratique, appliqué, proche de sa réalité professionnelle, et ainsi de permettre un accès facile, rapide, direct en complément de la théorie et des fondamentaux. Le public visé est la cible classique de Techniques de l’ingénieur (ingénieurs, chercheurs de l’industrie, du public, de bureau d’études, etc.). Il s’agit de lecteurs qui veulent de l’information pratique et appliquée, qui n’ont pas le temps de lire ou qui n’ont pas besoin du niveau de détail sur la théorie ou les fondamentaux.

 

Comment les entreprises s’organisent pour répondre au défi de l’innovation ?

L’innovation est bien entendu essentielle pour la compétitivité de l’entreprise. Cependant elle implique de se projeter à long terme alors que les entreprises sont confrontées à un quotidien qui a tendance à absorber toute leur énergie. Les entreprises qui innovent sont celles qui investissent une partie de leurs ressources dans ce long terme. Ce n’est pas évident car l’innovation est un processus transverse qui fait appel aux compétences de ces divers services et aussi à des compétences extérieures. Il faut donc s’organiser et s’ouvrir pour que ce processus fonctionne. S’organiser et s’ouvrir pour que le dialogue et la communication entre les services et les hommes s’instaurent. S’organiser et s’ouvrir pour favoriser la créativité et l’invention. La ressource documentaire “Management et ingénierie de l’innovation” rassemble des articles de référence, des REX  et des fiches pratiques qui couvrent tous ces aspects.

 

>> Accéder à l’offre Management et ingénierie de l’innovation
>> Consulter un exemple d’article REX

 

Pierre DEVALAN

Pierre DEVALAN

Conseiller scientifique de Management et ingénierie de l’innovation

Ancien directeur des programmes de R&D du Cetim (Centre technique des industries mécaniques)

 

Télécharger la lettre des éditeurs au format PDF

Concours de nouvelles : imaginez le monde dans 70 ans !

À l’occasion de ses 70 ans, Techniques de l’Ingénieur a organisé un concours de nouvelles sur le thème de prospective « Comment la science et les techniques façonneront le monde en 2086 ? ». Près d’une centaine  de textes ont ainsi été reçus. Le jury constitué de  Marie-Christine Guillon, animatrice d’ateliers d’écriture, Michel Letté, maître de conférences en histoire des techniques et de l’environnement au Cnam,  Loïc Mangin, rédacteur en chef adjoint du magazine Pour la science et Blaise Mao, rédacteur en chef adjoint du magazine Usbek & Rica, a sélectionné 12 nouvelles pour leurs qualités de rédaction et d’anticipation :

 

  • Jeanne Battais, La lumière de l’enfer
  • Nouara Bouchenna, Énergie
  • Claude Chervet, Le sommeil de Mathilde
  • F.M.R., Max et son clone
  • Kévin Gallot, La sélection
  • Véronique Goossens, Miss Marple
  • C. M.  Lewden, Marc Bristow 
  • Madelicea, Le projet Effiscience
  • Vincent Marcant, Un colis
  • Barbara Muller, SyLiCC
  • Marc Pégeot, La maternité
  • Eva Wolff, Roméo & Juliette

 

Vous pourrez découvrir ces textes tout au long de l’été sur notre site internet dans notre Magazine d’actualités. Une version imprimée sera disponible prochainement. Une lecture des nouvelles sera organisée le 14 septembre à 18 h au CNAM de Paris dans le cadre de ses Journées portes ouvertes.

 

Extrait de Miss Marple
Ixelles, octobre 2086. Les étangs de Flagey, bicentenaires, s’étendent à l’est du capitole. Après quelques jours de froid, la douceur est de retour et la surface de l’eau renvoie les couleurs flamboyantes de l’automne. Les ruches artificielles bourdonnent de milliards d’abeilles électroniques qui produisent le miel et pollinisent les plantes. Dire qu’il a pratiquement fallu attendre que la dernière abeille organique ait disparu pour trouver comment produire les enzymes nécessaires à la fabrication du vrai miel et la pollinisation des plantes…

 

Biomimétisme, quand la nature inspire les ingénieurs

 

biomimetisme

Dans de nombreux domaines, les organismes vivants surclassent nos solutions technologiques. Les solutions biomimétiques sont intéressantes, non seulement pour leur ingéniosité, mais aussi pour leur potentiel de résilience écologique. La nature possède des stratégies d’optimisation de ressource encore inégalées par nos technologies actuelles.

 

57971298 - extreme magnification - butterfly wing on microscope
Aile de papillon au microscope

Papillons et biomimétisme

Les ailes des papillons sont recouvertes d’une fine « poudre » colorée constituée de minuscules écailles dont les propriétés sont à l’origine de nombreuses innovations : écran anti-reflet, système anti-contrefaçon pour les billets de banque, nouveau matériau réflecteur de lumière pour panneaux solaires…

 

 

 

>> Découvrez l’infographie complète

 

Télécharger la lettre des éditeurs au format PDF

 

 

Coup de projecteur sur nos nouveautés de l’été !

 

Eco-conception

L’intégration des exigences de protection de l’environnement dès la conception des produits est devenue incontournable pour les entreprises. Il existe une grande diversité de démarches d’éco-conception propres à chaque secteur, pour répondre à des besoins et enjeux particuliers. L’éco-conception en tant que discipline fait appel à des fondements scientifiques qui évoluent en permanence et qui constituent une source importante d’innovations. Techniques de l’Ingénieur propose deux ressources documentaires dédiées à l’éco-conception, pour faire le point sur : – l’ensemble des concepts et enjeux stratégiques de l’éco-conception dans divers secteurs et présenter les méthodes et outils à disposition des professionnels, – les pratiques d’éco-conception et leur mise en oeuvre dans différents secteurs.

>> A retrouver dans Éco-conception et innovation responsable

 

Étanchéité en mécanique

L’étanchéité est une fonction qui revêt une importance de plus en plus grande en mécanique par suite, d’une part de l’utilisation croissante des fluides pour les commandes (hydrauliques, pneumatiques) et pour les contrôles et, d’autre part, du nombre très important et de la très grande diversité des composants mécaniques dans les réseaux de fluides. Le confinement d’un gaz ou d’un liquide, de par sa nature, n’est pas aisé. Une fuite, même petite, peut avoir de multiples conséquences, tant sur le plan de la disponibilité du matériel que sur celui du fonctionnement et aussi de la sécurité. Des exemples courants montrent que des ensembles fort complexes, tels que les fusées, peuvent connaître des ennuis importants par suite d’une simple fuite. L’ingénieur mécanicien trouvera dans cette rubrique un panorama complet des meilleures solutions techniques en étanchéité.

>> A retrouver dans Fonctions et composants mécaniques

 

A venir prochainement :

  • Propriété intellectuelle et brevets d’invention
  • Menaces et vulnérabilités : protection des sites industriels
  • Métallurgie extractive

 

Télécharger la lettre des éditeurs au format PDF

 

Pourquoi le Qatar a-t-il été blacklisté ?

Depuis le 5 juin, les frontières terrestres et aériennes sont fermées entre le Qatar et ses voisins. Les relations diplomatiques ont été officiellement rompues et les Qataris se sont précipités dans les supermarchés par crainte de pénurie. Le pays importe en effet absolument tout, à part le gaz naturel, dont il est le premier exportateur mondial.

middle-east-map

Richesse gazière

Le Qatar a vu sa richesse exploser en quelques années grâce à la découverte et l’exploitation de ses énormes réserves gazières. Avec l’aide de compagnies internationales (la française Total en premier lieu), le Royaume est rapidement devenu un acteur incontournable du marché mondial du gaz naturel en s’imposant comme le premier producteur et exportateur mondial (181 Mds m3 /an). Une ascension rapide qui a fait de l’ombre aux autres pétro-monarchies du Golfe.

Soucieux de ne pas tout miser sur les hydrocarbures, le Qatar s’est servi de ses importantes entrées de devises étrangères pour constituer un fonds d’investissement massif, dont l’objectif est de diversifier les investissements du Royaume : le Qatar Investment Authority doté de 335 Mds $. Ces placements avaient également pour fonction de faire connaître le petit Royaume dans le monde en achetant des actifs très populaires, tels que des clubs de football, ce qui lui a permis d’obtenir l’organisation d’un événement de portée mondiale : le Coupe de monde de football en 2022.

Diplomatie active

Cette volonté de faire parler de soi s’est traduite également par la création d’une nouvelle chaîne d’information, Al-Jazeera, qui a représenté un véritable séisme dans le secteur médiatique au Moyen-Orient. Sa liberté de ton et sa ligne éditoriale ont séduit de nombreux journalistes de la région empêchés de travailler dans leurs pays respectifs, en faisant une caisse de résonance des débats qui agitent les sociétés arabes. Al-Jazeera a joué un rôle en médiatisant et soutenant les révolutions arabes du printemps 2011 ce qui lui a valu l’ire des régimes autoritaires de la région.

Cette stratégie a pris un tournant nouveau dans l’opération de Libye visant à faire tomber Mouammar Kadhafi la même année. Pour la première fois, le Qatar a soutenu l’intervention menée par l’Otan (sous l’impulsion de la France) apportant 400 M$ aux rebelles libyens et surtout une caution arabe à une opération occidentale en Afrique du nord, ce qui a été vécu comme une trahison par une partie de l’opinion publique arabe. Sur le dossier syrien, le Qatar est clairement en faveur de la destitution de Bachar-El-Assad et soutien une partie de l’opposition armée.

Quid des Etats-Unis ?

Il n’est pas anodin que la mise au ban du Qatar intervienne à la suite de la visite du président américain au Moyen-Orient. En assurant son allié saoudien de son soutien, Donald Trump a donné à Ryad toutes les raisons de tenter de mater son petit voisin, qui a par ailleurs la mauvaise idée d’entretenir des relations cordiales avec l’Iran chiite, ennemi juré de l’Arabie Saoudite sunnite. « Les encouragements de Trump à adopter une politique ferme vis-à-vis du Qatar semblent assez contradictoires puisque les Etats-Unis y ont stationné leur plus importante base militaire du Moyen-Orient, indispensable aux opérations menées dans l’espace aérien irakien notamment », rappelle Denis Bauchard, conseiller pour le Moyen-Orient à l’Institut français de relations internationales (IFRI). Et de poursuivre : « Dans cette crise, il ne risque que d’y avoir que des perdants, notamment le Conseil de Coopération du Golfe qui a volé en éclat à cette occasion ».

Et la France ?

L’embarras est palpable dans la classe politique française sur le dossier qatari. Pour attirer les investissements du Royaume, la France a multiplié les visites diplomatiques et a même élaboré un régime fiscal spécifique, particulièrement favorable aux qataris, et désormais mis en question par le nouveau Garde des Sceaux, François Bayrou. Le Qatar a été prolixe dans l’Hexagone en rachetant des marques de prestige (Le Printemps, le Paris-Saint-Germain FC, Le Tanneur, Balmain), et en investissant dans  l’immobilier et dans l’hôtellerie haut de gamme. En contrepartie, le Qatar s’est engagé sur l’achat de 24 avions de combat Rafale.

Romain Chicheportiche

Ardediar : des meubles qui purifient l’air intérieur

Ces meubles dépolluants délivrent « une  bulle d’air » sain à leur proximité. Cela, grâce à des écoulements d’air maîtrisés. Sans colles, ils sont constitués de matériaux recyclés. Pour la petite histoire, ils ont été imaginés par l’ingénieur Arnaud Billard, pour créer une bulle d’air sain autour de son nourrisson en détresse respiratoire.

Des meubles design et dépolluants

La gamme comprend trois meubles : une table de chevet, un objet décoratif et un siège. Chaque meuble renferme une boîte à air, constituée de trois couches de filtres empilées. La première couche, composée de filtres grossiers G4, arrête jusqu’à 90% des poussières, le pollen… La deuxième est composée de filtres fins F7. Elle retient jusqu’à 90% des particules de 0,4 micromètres. La dernière s’occupe de filtrer les gaz et les odeurs par charbon actif : cigarettes, gaz d’échappements, COV, odeurs de cuisine… Le dispositif renferme aussi un ventilateur Sunon silencieux (moins de 22 dB), d’une puissance de 20 watts.

Selon les concepteurs, ces meubles dépolluent une pièce contaminée à la fumée de cigarette à 90%. Sans pollution particulière, l’épuration de l’air est effectuée en 30 minutes à moins d’un mètre de la sortie d’air. L’objectif est de commercialiser ces meubles dès cette année, entre 350 et 600 euros pièce.

Par Matthieu Combe, journaliste scientifique

Qui sera le maître d’école : les GAFAM ou les professeurs ?

Après le ministère de la Défense français, Microsoft va-t-il récidiver avec celui de l’Éducation ? En novembre 2015, ce ministère signe un accord avec cet éditeur. Ce dernier s’engage à assurer de l’accompagnement, de la formation des élèves et des enseignants, de l’initiation au code informatique, etc. En contrepartie, Microsoft en profite logiquement pour communiquer sur Office 365, Windows Azure, et ses autres produits.

Alertée il y a quelques mois par le collectif EduNathon, la CNIL (Commission nationale de l’informatique et des libertés) rappelle à l’ordre Microsoft. La fameuse charte de confiance qui devait encadrer cet accord ne satisfait pas cette instance. Elle réclame des données juridiques plus solides pour garantir la protection des données personnelles des élèves et enseignants. Interrogée en avril par le site EducPros, la présidente de la CNIL, Isabelle Falque-Pierrotin, avait en effet rappelé que les données scolaires étaient « particulièrement sensibles ». Non seulement elles en disent énormément sur les enfants, mais elles les suivent longtemps. « De ce fait, ces informations peuvent intéresser énormément d’acteurs et il faut faire preuve de vigilance ».

Officiellement, le ministre de l’Éducation interdit le recours aux services des GAFAM et prône notamment les solutions open source pour les ENT. Un créneau qui intéresse différents éditeurs français parmi lesquels Open Digital Education, Itslearning et d’Itop.

Mais les poids lourds américains du numérique accentuent leur pression pour s’immiscer dans les classes. Ils ont développé des produits spécialement dédiés à l’éducation, comme Office 365 éducation ou Google Classroom. Ces services sont mis gratuitement à disposition des enseignants. Mais comme tout service commercial accessible sans abonnement, toutes les informations qui transitent par ses logiciels peuvent être recueillies et exploitées : les noms et âges des élèves, leurs résultats scolaires, leurs historiques de navigation et de recherche…

C’est ce qui se passe aux États-Unis où Google a détrôné Apple (qui est 3e derrière Microsoft) dans les écoles ! En trois ans, Google a multiplié par 4 le nombre de Chromebooks installés dans les classes, soit environ 8 millions. Résultat, le moteur de recherche détient près de 58% de part de marché en 2016, suivi par Microsoft avec 22 % (ordinateurs portables/tablettes) et Apple qui est passé sous les 20 % (avec ses iPads et Mac).

Disponible à partir de 250 €, les Chromebooks ont convaincu de nombreuses écoles qui ont abandonné les appareils d’Apple jugés vraiment trop chers… Pour tenter de reprendre la main, Microsoft propose dorénavant sa tablette Surface Laptop et surtout Windows 10 S. Ce système d’exploitation allégé est disponible gratuitement. Mais il y a des restrictions importantes, en particulier, les utilisateurs ne peuvent installer et faire tourner que des applications provenant du Windows Store.

Par Philippe Richard