Une idée lumineuse et vitaminée pour dépolluer l’eau

Ces travaux, publiés dans la revue Angewandte Chemie, proposent une méthode peu coûteuse et facile, alternative aux systèmes laser complexes actuellement requis pour ce genre de tâches. En photochimie, on utilise la lumière pour initier des réactions dans des molécules. Parmi les pistes intéressantes repérées actuellement, les chercheurs explorent la libération d’électrons hydratés. L’avantage de ces électrons c’est qu’ils sont extrêmement réactifs et qu’ils disparaissent très vite après leur création, ne laissant ainsi aucun résidu toxique. En outre, ils possèdent un fort pouvoir réducteur et peuvent ainsi réagir avec des molécules très stables pour les détruire ou les fractionner.

Un intermédiaire qui a la forme

Le procédé mis au point par l’équipe allemande consiste simplement en une diode émettant de la lumière verte, des traces d’un complexe métallique agissant comme un catalyseur et de la vitamine C. La méthode a été testée avec succès sur de l’acide chloroacétique, une substance extrêmement toxique, stable et persistante, employé couramment dans l’industrie des herbicides, des plastiques ou des médicaments. Les électrons hydratés générés lors des expériences ont fractionné l’acide chloroacétique en deux composés non toxiques. D’après les chercheurs cette méthode peut être appliquées avec succès sur l’ensemble des chlorures et des fluorures et l’approche devrait aussi intéresser nombre d’autres réactions photochimiques qu’il est encore aujourd’hui difficile d’initier sans des approches complexes, coûteuses et lourdes à mettre en place via des systèmes de lasers pulsés à haute puissance. Or les chimistes ont montré dans leur étude que leur méthode produisait autant d’électrons hydratés que ce type de système de lasers à haute puissance.

Par Sophie Hoguin

Micropolluants : l’ozonation est-elle efficace en station d’épuration ?

Même si la réglementation ne fixe pas encore de seuil de concentrations concernant les micropolluants (résidus de médicaments, pesticides, hormones etc.), certains sont déjà sur la sellette au niveau européen et nul doute que la réduction de leur présence dans les eaux sera l’une des priorités des années à venir. La France s’est d’ailleurs dotée depuis peu d’un plan quinquennal « micropolluants » (2016-2021). Dans ce cadre, de nombreuses méthodes sont aujourd’hui en cours d’élaboration ou de test et on évalue au mieux leur efficacité et leur pertinence économique. Le projet Micropolis-Procédés sur l’ozonation mené par l’Irstea et ses partenaires (Suez et l’agence de l’eau Rhône Méditerranée Corse) en est l’un des exemples.

Un test sur 76 micropolluants

L’ozonation, qui correspond à une oxydation par l’ozone, consiste à dégrader les molécules des micropolluants en d’autres molécules que l’on espère non dangereuses pour la santé ou l’environnement. Installé dans la station d’épuration de Sophia-Antipolis, le réacteur d’ozonation où ont eu lieu les tests et les campagnes d’échantillonnages a permis sur trois ans d’analyser les rendements de la dégradation par ozonation sur 76 micropolluants (organiques ou métalliques) réfractaires au traitement biologique, de les classer et de déterminer la dose d’ozone juste nécessaire pour chaque classe. Au final, il ressort que le rendement de dégradation varie de 70 à 90 % et que l’on peut classer les micropolluants en trois catégories selon leur capacité à être oxydés plus ou moins rapidement.

Un impact global à affiner

Si la dégradation des micropolluants est bien réelle, de nombreuses interrogations subsistent. En effet, l’écotoxicité des produits de dégradation n’est pas forcément connue, notamment leurs effets comme perturbateurs endocriniens. Aussi, avant d’établir un bilan totalement positif de cette expérience, un projet complémentaire Micropolis-Indicateurs a été mené dont les résultats finaux devraient être présentés fin mai 2018. Les résultats partiels semblent indiquer que le pouvoir de perturbateurs endocriniens de nombreuses substances est seulement diminué par l’ozonation mais pas forcément assez ( voici les résultats intermédiaires). Côté consommation énergétique, la mise en place du procédé d’ozonation a engendré une hausse de  20 à 25 % de la consommation électrique de la station. Cependant, nuance Jean-Marc Choubert, le responsable du projet à l’Irstea, cela ne représente qu’une augmentation de 10 à 18€HT par m³ d’eau traitée soit une dizaine d’euros par an pour le consommateur.

Ce projet a ainsi permis d’établir les premières données scientifiques de référence et d’élaborer des recommandations et des solutions d’optimisation immédiatement applicables pour la station. Les résultats sont désormais à la disposition des collectivités et des professionnels en charge de l’épuration qui souhaitent bénéficier de ce retour d’expérience.

Sophie Hoguin

Techniques de l’Ingénieur rejoint la French Fab

Yves VALENTIN
Yves VALENTIN

Vous avez rejoint le mouvement French Fab, l’étendard du savoir-faire français, quel est le savoir-faire de Techniques de l’Ingénieur?

Depuis plus de 70 ans, Techniques de l’Ingénieur est au service des entreprises francophones pour les soutenir dans leurs projets. Grâce à nos bases documentaires techniques et scientifiques validées par des experts et comités scientifiques, nous aidons les entreprises à acquérir les bonnes pratiques et les savoir-faire nécessaires à l’innovation, l’intégration de nouvelles technologies ou le maintien à niveau de leurs pratiques industrielles.

Nous publions plus de 450 articles par an pour maintenir cette ressource documentaire à jour, fiable et pertinente. En quelques mots, Techniques de l’Ingénieur est un site web, une vocation, une seule motivation : recueil des savoir-faire et source des innovations des industries françaises.

Être French Fab veut-il dire être les meilleurs ? Quelle est votre ambition ? 

Oui et non en même temps. Oui car le savoir-faire français n’a jamais connu de recul et n’en connaîtra pas d’ailleurs. Non parce qu’être French Fab c’est toujours aller de l’avant, et quand on avance on progresse. Chez Techniques de l’Ingénieur, chaque jour, nous cherchons l’amélioration continue et l’adaptation aux nouvelles technologies ; celles-ci vont toujours plus vite et nous restons en veille active pour mettre à jour nos produits et services, ainsi que nos outils de production.

Notre ambition principale, c’est de toujours progresser, être à l’écoute des nouvelles technologies innovantes pour satisfaire nos clients et en conquérir de nouveaux.

Que peut apporter Techniques de l’Ingénieur aux industries French Fab ? 

Les entreprises françaises doivent se battre sur le terrain de l’innovation, car nous ne sommes pas un pays low cost. Nous leur proposons les outils pour aller plus loin, se démarquer de la compétition et se positionner sur des produits ou prestations à haute valeur ajoutée. De plus, Techniques de l’Ingénieur est un outil éligible au crédit impôt recherche, ce qui est très intéressant pour les entreprises qui se projettent dans l’industrie du futur et l’innovation.

Et comme je l’ai dit précédemment, nous publions chaque année des centaines d’articles sur les  innovations technologiques et les meilleures pratiques à adopter pour accompagner les entreprises dans le changement.

L’innovation, qu’elle soit de produit et de procédé ou organisationnelle, se doit d’être au cœur de la stratégie des entreprises industrielles : c’est un moyen d’atteindre ses objectifs stratégiques, d’améliorer sa compétitivité, de se différencier. Le déploiement de l’innovation peut s’appuyer sur des méthodes et techniques éprouvées, certaines plus adaptées à l’innovation ouverte ou au management du changement : un exemple d’article vous est spécialement ouvert à cette occasion, n’hésitez pas à le consulter.

Cliquez ici pour  consulter l’article. 

Le futur numéro un mondial de l’automobile sera-t-il chinois ?

La Chine, pays qui a un état très fort, est sans doute le cadre idéal pour mettre en place la stratégie de BetterPlace qui repose sur l’échange ultra-rapide des batteries dans des stations robotisées. Nio, c’est la synthèse du meilleur de Tesla (avec un sosie de la Model X) et de BetterPlace, le tout soutenu par le géant de l’internet chinois Tencent.

Tesla excelle dans la communication mais inquiète en revanche de nombreux analystes à propos de sa capacité (ou pas) à produire en masse ses véhicules. Comme par exemple Isabelle Chaboud, Professeur associé d’analyse financière, d’audit et de risk management, au sein de Grenoble École de Management (GEM), qui a publié le 2 mars la tribune « Tesla, un magicien dans l’espace ? »

Avec Nio la Chine pourrait devenir dans les années futures un géant mondial de la production automobile, et pourrait détrôner le japonais Toyota, l’allemand Volkswagen et l’américain General Motors.

Le tout sans avoir balancé une Tesla Roadster sans passagers dans l’espace.
Car c’est sur Terre que les voitures électriques sont utiles.

Jean-Gabriel Marie

Impulser le développement des gaz renouvelables

La loi de transition énergétique pour la croissance verte a pour objectif que les gaz renouvelables assurent 10 % de la consommation française de gaz en 2030. En premier lieu, ces gaz comptent le méthane obtenu par méthanisation ou pyrogazéification, un procédé à haute température qui transforme la biomasse ou des déchets en gaz de synthèse. La famille des gaz renouvelables compte également l’hydrogène obtenu par électrolyse de l’eau. On parle de power-to-gas pour qualifier cette dernière technologie lorsque l’électricité utilisée provient des périodes où la production électrique des éoliennes et du solaire est supérieure à la demande. Les usages de ces gaz sont multiples : électricité, chaleur, carburant et matières premières industrielles.

Malgré les ambitions à long terme, les gaz renouvelables couvrent à ce jour moins de 1 % de la consommation française. La dynamique reste encore largement insuffisante. Le gouvernement annoncera donc un nouveau plan pour faire émerger la méthanisation, qu’elle soit agricole, territoriale ou encore industrielle le 26 mars prochain. Un fonds de prêt de 100 millions d’euros a d’ores et déjà été annoncé. La note de la Fabrique Ecologique Gaz 100% renouvelables – Comment impulser le mouvement maintenant arrive donc à point nommé pour alimenter le débat.

Impulser le développement de la méthanisation

La méthanisation est la technologie de production de gaz renouvelable la plus mature. Elle était déjà sur le devant de la scène lors de la Conférence environnementale en 2012. La feuille de route prévoyait un plan national biogaz. Stéphane Le Foll, alors ministre de l’agriculture, et Delphine Batho, ministre de l’écologie, avaient lancé dans la foulée le Plan Energie Méthanisation Autonomie Azote (EMAA). L’objectif était de développer en France, à l’horizon 2020, 1.000 méthaniseurs à la ferme, contre 90 fin 2012. Il était par ailleurs projeté l’installation d’environ 500 méthaniseurs supplémentaires utilisant des déchets ménagers, des déchets de l’industrie agroalimentaire et des boues de stations d’épuration. Mais en 2018, on ne compte qu’environ 600 unités en fonctionnement, dont environ 400 dans le domaine agricole, largement en dessous des objectifs. Plusieurs freins empêchent encore leur développement.

Afin d’impulser le développement de la méthanisation, la Fabrique Ecologique propose de tripler le nombre de méthaniseurs en activité d’ici 2020, avec comme date butoir le terme de la PPE en 2023. Pour ce faire, elle incite les pouvoirs publics à simplifier les procédures administratives, diminuer les délais et faciliter l’accès aux crédits bancaires pour les agriculteurs. Elle propose également de mettre en place à grande échelle une filière de valorisation des digestats sous forme d’engrais.

Une feuille de route pour le power-to-gas et pour adapter les réseaux

Pour gérer le surplus de production photovoltaïque et éolienne, la Fabrique Ecologique propose par ailleurs de définir une feuille de route pour le power-to-gas. Il conviendra de simplifier la législation en cours sur la production et le stockage d’hydrogène, favoriser les expérimentations territoriales, en particulier dans les territoires insulaires.

Le développement des gaz renouvelables nécessitera également la modernisation des réseaux de transport et de distribution. Pour la Fabrique Ecologique, il apparaît essentiel de maintenir des budgets R&D « Smart Gas Grid » dans le tarif et mettre en place des dispositifs de soutien.

En collaboration avec GRDF et GRTgaz, l’ADEME a publié en janvier 2018 de nouveaux scenarios consacrés au gaz naturel. Sa principale conclusion est qu’un mix de gaz 100% renouvelables pourrait entièrement couvrir la demande française de gaz naturel injecté dans les réseaux en 2050. Pour y parvenir, 30 % du gaz serait obtenu par méthanisation et 30 % pourrait provenir du power-to-gas. Enfin, 40% proviendrait de la pyrogazéification.

Par Matthieu Combe, journaliste scientifique

NAPEC NORTH AFRICA est de retour pour sa 8e édition, Techniques de l’Ingénieur est au rendez-vous !

NAPEC est dédié au marché de l’Afrique du Nord et consacré aux activités de l’Upstream, Midstream et de Downstream. Il rassemble tous les fournisseurs de produits, services et technologies qui gravitent autour de l’activité pétrolière et gazière.

540 exposants venant de 40 pays différents, représentant toutes les activités inhérentes au domaine énergétique, 125 conférenciers partagent leurs expériences et meilleures pratiques.

Techniques de l’Ingénieur, partenaire de référence des plus gros acteurs du secteur, se doit d’être présent sur cet événement au cours duquel les dernières tendances et innovations de la technologie de forage et plus généralement de l’industrie pétrolière et gazière sont présentées.

C’est l’occasion pour Techniques de l’Ingénieur de rencontrer les sociétés du secteur énergétique de ce continent et de leur apporter des ressources utiles à leur développement.

Venez nous retrouver sur le STAND  C4.17 – Cliquez ici pour obtenir une invitation

Rapport Notat-Sénard: la RSE devient stratégique

Techniques de l’ingénieur : Quelles sont les grandes propositions du rapport Notat-Sénard ?

Anne-France Bonnet : Ce rapport vient alimenter un projet de loi qui sera présenté en Conseil des ministres le 18 avril prochain Il fait évoluer la perception du rôle de l’entreprise de façon assez fondamentale. La première recommandation propose de compléter l’article 1833 du Code civil en ajoutant un alinéa. Le code actuel dispose que « toute société doit avoir un objet licite et être constituée dans l’intérêt commun des associés ». Il serait complété ainsi : « la société doit être gérée dans son intérêt propre, en considérant les enjeux sociaux et environnementaux de son activité ». Cela indique clairement que l’intérêt de la société ne se résume pas à celui de ses seuls associés. C’est dans son intérêt propre de considérer les enjeux sociaux et environnementaux dans son activité. Cela peut paraître subtile, mais c’est très important en termes de vision.

Les 14 recommandations sont assez exhaustives et proposent un cadre souple avec une vision extrêmement précise de ce que devrait être l’entreprise dans notre société. Le rapport souhaite notamment impliquer davantage le conseil d’administration dans la définition de la raison d’être de l’entreprise, en augmentant le nombre d’administrateurs salariés. Il suggère également le développement de labels RSE sectoriels pour que chacun puisse y voir un moteur de transformation et d’avancées. Par ailleurs, les entreprises pourront inscrire leur raison d’être dans leurs statuts. Toutes ces recommandations sont des solutions appropriables rapidement, car dans les codes et la culture des acteurs économiques.

Enfin, le rapport propose de développer des critères RSE dans les rémunérations variables des dirigeants et d’engager une étude sur le comportement responsable de l’actionnaire. Il reste encore un chantier gigantesque à mener sur les investissements et le secteur financier. L’entreprise ne peut pas tout faire toute seule : elle a besoin d’un secteur financier qui comprenne ces messages.

E.T.I : Quelles seront les répercussions concrètes pour les entreprises en termes de RSE ?

A-F.B : On observe déjà réellement une tendance à plus de RSE dans les entreprises, mais encore beaucoup d’entre elles ne savent pas comment s’y prendre, car le sujet est très global. On décèle trois grandes postures vis-à-vis de la RSE. En bas de l’échelle des engagements, des entreprises gèrent le sujet de façon normative ou pour gérer les risques. Au-dessus, on trouve celles qui la considèrent comme impérative en termes de réputation. Enfin, il y a celles qui la considèrent comme un enjeu stratégique de pérennité et d’innovation.

Les recommandations du rapport connectent la RSE comme étant le chemin pour réaliser la mission d’entreprise. La RSE n’est plus une garantie supplémentaire ou un élément réputationnel et d’obligation qui invite à minimiser les impacts négatifs en maximisant les impacts positifs. La RSE devient complètement intégrée à la mise en oeuvre de son activité et un élément stratégique.

E.T.I : Comment une entreprise pourra-t-elle s’adapter pour définir et mener sa mission ?

A-F.B : Cela s’intègre dans un projet de transformation. Une mission est directement associée à des engagements, et donc à des indicateurs sur lesquels un collectif s’engage. On n’est plus dans la communication, surtout si la mission est inscrite dans les statuts. Dans ce cas, il faut tout d’abord formuler sa mission, puis les engagements associés et les indicateurs. Changer sa mission se fait forcément, avec le conseil d’administration, tout ou partie de ses collaborateurs et tout ou partie de son écosystème. Il faudra répondre à plusieurs questions : comment créer la colonne vertébrale d’engagements au regard de cette mission ? Quels sont les indicateurs qui permettent de suivre ces engagements ? Qui les pilote et comment se fait le suivi ? Ensuite, il faudra mettre en place les systèmes de reporting et définir les voies pour la communication. La collaboration et la co-construction à un tel niveau de responsabilité sont une nouveauté pour les entreprises.   

E.T.I : Pourquoi cette réforme est-elle nécessaire ?

A-F.B : Le gouvernement souhaite changer la perception qu’ont les Français du monde de l’entreprise. Il y a un enjeu de pédagogie pour expliquer à tout un chacun qu’un acteur économique est aussi au service du collectif. Les sociétés ne sont pas là que pour faire un profit direct !

La perception de la société civile sur l’économie est intéressante, d’autant plus qu’en France, le secteur de l’économie sociale et solidaire (ESS) est fort, représentant environ 10 % du PIB. L’ESS se réservait jusqu’à aujourd’hui la définition de la raison d’être dans les statuts. Cela change la donne puisque cela embarque dans une mission plus élargie 90 % des acteurs économiques. Cela va « challenger » les acteurs de l’ESS pour aller encore plus loin dans leur singularité.

Propos recueillis par Matthieu Combe

Réseaux 4 G : la sécurité est (toujours) aux abonnés absents

Vous pensez être à l’abri des pirates et espions en utilisant le réseau 4G : peine perdue ! Des chercheurs issus de Purdue University et de l’Université de l’Iowa ont repéré une vingtaine de failles impactant ces réseaux mobiles. Ce n’est pas la première fois que des vulnérabilités sont découvertes dans ce domaine. En juillet 2017, des chercheurs britanniques, allemands et suisses avaient constaté un défaut dans le protocole cryptographique sur les réseaux 3G et 4G.

Cette faille avait un impact relativement limité. Reposant sur des IMSI-catchers (équipement imitant des réseaux), cette attaque permettait de détourner des téléphones du réseau 3 G ou 4 G pour les rediriger vers le réseau 2G, dont le chiffrement est beaucoup moins sûr que celui des réseaux à plus haut débit. Des pirates pouvaient ainsi obtenir des informations sur la géolocalisation.

Les révélations des scientifiques de Purdue University et de l’Université de l’Iowa sont par contre plus inquiétantes. Pour deux raisons. Premièrement, les risques sont plus élevés et, deuxièmement, la mise en pratique des attaques ne nécessite pas du matériel hors de prix. Ils ont en effet « dépensé entre 1300 et 3900 dollars pour créer leurs plates-formes d’attaques. Pour créer une fausse station de base, ils ont utilisé un équipement radio (USRP B210) qui se trouve dans le commerce et qui se branche en USB sur un ordinateur portable Intel Core i7 sous Ubuntu (une distribution GNU/Linux, NDLR) », explique le site 01Net.

Panique générale !

L’équipe n’a pas souhaité donner plus de détails. Heureusement, car l’une de leurs attaques, baptisée « Authentication relay attack », permet d’intercepter les messages d’un utilisateur, d’usurper sa position géographique et de provoquer des dénis de service. Dans ce dernier cas, il s’agit de l’équivalent des attaques Ddos (Ddos (Distributed Denial of Service ou attaque par déni de service) qui consiste à inonder le serveur d’une entreprise ou d’un site web pour le rendre inaccessible.

Plus inquiétant encore, une autre attaque permet de localiser une personne dans une zone géographique donnée. Enfin, ces chercheurs ont expliqué qu’ils pourraient aussi (sous certaines conditions) provoquer un vent de panique en envoyant en masse de faux messages au travers d’une fausse station de base 4G… Début 2018, une fausse alerte au missile avait semé la panique à Hawaï ! C’était une fausse alerte : un employé avait appuyer sur le mauvais bouton.

Le point faible est donc la station, surtout lorsqu’elle est gérée par des petits opérateurs ou dans des pays en voie de développement. Et ce n’est pas la première fois que des hackers pointent du doigt ces lacunes de sécurité. Fin 2015, des experts de la société P1 Security avaient démontré qu’il était possible de compromettre le cœur de réseau d’un opérateur 4G en… quelques heures

Face à de telles menaces, il n’y a que trois options possibles : utiliser un smartphone sécurisé comme le Blackphone, installer un VPN pour renforcer la confidentialité de ses échanges, ou encore ressortir son BiBop pour ceux qui possèdent encore cet ancêtre de France Telecom…

Philippe Richard

Nucléaire : Le feuilleton judiciaire de l’EPR finlandais est clos

450 M€ pour solde de tout compte

Areva SA et Siemens, membres du consortium en charge de la construction de la centrale nucléaire d’Olkiluoto 3 (OL3), ont accepté de verser à TVO la somme de 450 millions d’euros en compensation des retards dans la réalisation du projet. Une somme importante mais bien loin des 2,6 milliards d’euros exigés par l’électricien finlandais devant la Cour d’arbitrage saisie par les partenaires. Entre novembre 2016 et 2017, la Cour avait statué à trois reprises en faveur de TVO, et l’arbitrage final, prévu en début d’année, ne laissait guère de doute sur la condamnation du Français. La conciliation était donc certainement la meilleure option pour Areva. « Les Parties prévoient le closing de la transaction avant fin mars, lorsque les dernières conditions auront été satisfaites », explique le groupe. Il a également dû s’engager à ce que les fonds alloués au projet soient suffisants et couvrent l’ensemble de la période de garantie applicable. Une demande de TVO qui craignait que la reprise de la branche réacteur d’Areva par EDF n’ait une incidence négative sur le chantier d’OL3.

10 ans de retard

Après une énième révision du calendrier de mise en marche en octobre dernier, l’EPR finlandais doit entrer en service en mai 2019, soit avec 10 ans de retard. Son budget a logiquement explosé : 10 milliards d’euros contre 2,2 Mds € prévus à la signature du contrat en 2006. Autant dire que le premier exemplaire du réacteur de dernière génération d’Areva n’a pas vraiment été la vitrine du savoir-faire français qu’espéraient ses promoteurs. Un fiasco qui n’est sans doute pas à mettre au seul compte d’Areva. Si le groupe a fait preuve d’un optimisme bien trop grand pour une tête de série, a montré de sérieuses lacunes dans la conduite du chantier (qui n’était pas son cœur de métier), et dans le choix de ses fournisseurs, les relations avec son client et l’autorité de sûreté finlandaise (STUK) ne semblaient guère aisées. Le manque de communication de TVO et les procédures du STUK, jugées excessivement pointilleuses par les ingénieurs français, auraient considérablement compliqué la construction.

Selon Philippe Varin, président du conseil d’administration d’Areva SA, « ce règlement global d’un projet notoirement difficile marque un jalon essentiel dans la restructuration de l’industrie nucléaire française. Nous sommes satisfaits de cet accord qui permet de réduire très sensiblement les risques de la phase finale du projet pour toutes les parties concernées ».

Trois autres EPR sont actuellement en construction. Celui de Flamanville en France qui accuse également retards et surcoûts, et deux autres en Chine (Taïshan) qui semblent quant à eux respecter le calendrier initial. EDF a conclu en 2016 un contrat pour la construction de deux EPR à Hinkley Point en Angleterre, dont la livraison est prévue pour 2023 et a signé il y a quelques jours un protocole d’accord avec l’électricien indien NPCIL en vue de la réalisation de 6 EPR à Jaitapur.

Romain Chicheportiche

Nouveaux matériaux : du biomimétisme à l’intelligence artificielle

La recherche de nouveaux matériaux s’appuie depuis de nombreuses décennies sur le biomimétisme : les chercheurs identifient un matériel biologique aux caractéristiques intéressantes comme la soie d’araignée ; Ils en étudient la microstructure, essaient de comprendre comment naissent les caractéristiques qui les intéressent puis essaient de la reproduire en créant des matériaux artificiels. Des chercheurs du laboratoire des sciences informatiques et de l’intelligence artificielle du MIT ont développé un système qui renverse cette logique. Les scientifiques spécifient les propriétés qu’ils désirent obtenir dans un logiciel qui va générer par calcul quelles sont les microstructures idéales pour coller aux spécifications.

Une recherche de compromis

A l’origine de l’outil présenté dans les travaux publiés dans Science Advances, il y avait déjà d’autres recherches publiées l’été dernier par le même groupe de travail. Il s’agissait alors de générer des modèles de microstructures puis d’utiliser un logiciel de simulation pour les évaluer selon trois ou quatre propriétés mécaniques. Chaque évaluation d’une microstructure définissait un point dans un espace à 3 ou 4 dimensions. Les différentes évaluations finissaient par créer des nuages de points qui ont ensuite été délimités. Les points proches de la surface de ces nuages correspondent aux microstructures pour lesquelles le compromis est maximum et où il est impossible d’augmenter les performances d’une propriété sans faire baisser les performances de l’une des autres.

Reconstitution à partir d’un squelette

En partant de ces travaux préliminaires, les chercheurs ont utilisé des mesures standards pour identifier des similarités géométriques entre les différentes microstructures formant les points à la frontière du nuage. Le logiciel a réuni ensemble les microstructures à la géométrie similaire et en a tiré un squelette (une forme rudimentaire) partagé par toutes ces microstructures. Dans une deuxième étape, le programme informatique repart du squelette pour essayer de recréer la structure originelle en procédant par ajustement et ajout d’éléments autour du squelette. Le système finit par déduire une formule mathématique pour reconstruire les microstructures d’un nuage. Ensuite, les chercheurs ont utilisé des techniques d’apprentissage profond des machines (deep learning) pour déterminer des corrélations entre des valeurs spécifiques des variables de la formule et les propriétés mesurées des microstructures. L’ensemble produit un système rigoureux de transposition à double sens entre microstructures et propriétés physiques.

Comme l’ensemble des processus mis en œuvre pour aboutir à une application opérationnelle est entièrement automatisée, l’approche peut être transposée pour n’importe quelle type de propriétés dès lors que l’on dispose d’une collection de structures aux propriétés connues. Ainsi, si ces chercheurs ont testé leur outil pour produire des microstructures présentant un compromis idéal entre différentes propriétés relatives à des phénomènes d’élasticité, il est possible d’envisager des requêtes beaucoup plus complexes et des combinaisons de propriétés tant mécaniques, que thermiques, optiques ou électromagnétiques.

Par Sophie Hoguin

Les auteurs lauréats des 10 articles de ressources documentaires les plus consultés en 2017

Yves Valentin, directeur de Techniques de l’Ingénieur, récompense cette année les auteurs des 10 articles les plus téléchargés des ressources documentaires. Ils sont ingénieurs, chercheurs, enseignants ou consultants, tous experts de leur domaine ; ci-dessous les auteurs à qui nous avons le plaisir de remettre un diplôme pour l’année 2017 :

 

  1. Floriane LAVERNE, Frédéric SEGONDS, Patrice DUBOIS

Pour leur article : [BM7017] Fabrication additive – Principes généraux, dans Travail des matériaux – Assemblage (février 2016)

 

  1. Marc RAPIN, Philippe LECONTE

Pour leur article : [BM4640] Éoliennes – Évolution, principes de base et potentiel de conversion, dans Machines hydrauliques, aérodynamiques et thermiques (janvier 2017)

 

  1. Joël SCHER

Pour son article : [F3300] Rhéologie, texture et texturation des produits alimentaires, dans Agroalimentaire (septembre 2014)

 

  1. Abdelilah SLAOUI

Pour son article : [BE8578] Électricité photovoltaïque – Principes, dans Ressources énergétiques et stockage (janvier 2013)

 

  1. Pascal BROCHETTE

Pour son article : [J2150] Émulsification – Élaboration et étude des émulsions, dans Formulation (décembre 2013)

 

  1. Bruno GAGNEPAIN

Pour son article : [BE8550] Biocarburants, dans Ressources énergétiques et stockage (avril 2016)

 

  1. André BONTEMPS, Jean-François FOURMIGUE

Pour leur article : [BE9517] Échangeurs de chaleur – Dimensionnement thermique, dans Thermique industrielle (octobre 2014)

 

  1. Jean GRENET, Bernard LEGENDRE

Pour leur article : [P1205] Analyse calorimétrique différentielle à balayage (DSC), dans Techniques d’analyse (décembre 2010)

 

  1. Christophe BALEY

Pour son article : [AM5130] Fibres naturelles de renfort pour matériaux composites, dans Plastiques et composites  (janvier 2013)

 

  1. Lian-Ming SUN, Francis MEUNIER, Nicolas BRODU, Marie-Hélène MANERO

Pour leur article : [J2730] Adsorption – Aspects théoriques, dans Opérations unitaires. Génie de la réaction chimique (décembre 2016)

 

L’équipe éditoriale

[email protected]

Electrification : un grand ferry suédois transportant 1500 passagers et 500 voitures passe à l’action

Plus discrète que dans le monde automobile la révolution des batteries lithium concerne aussi le transport maritime. Et c’est dans ce domaine qu’elle est la plus simple. Bien davantage que dans l’aviation.

Stena Line, l’une des plus importantes compagnies de transport privées du monde, a signé un accord de partenariat avec Callenberg Technology Group, une société suédoise, afin d’électrifier son ferry. Pour atteindre une autonomie de 10 miles (1 mile nautique = 1,852 kilomètres) il faudra équiper le Stena Jutlandica, long de 180 mètres, de batteries totalisant un volume de 20 MWh . Et de 50 MWh pour 50 miles. La Tesla Model S, longue de 4,97 mètres, est équipée d’une batterie de 100 kWh qui autorise environ 613 kilomètres d’autonomie en cycle normalisé.

La traversée entre les ports de Göteborg et de Frederikshavn s’effectue actuellement en 3H30, à une vitesse moyenne de 14 nœuds (environ 25 kilomètres par heure). En cas de succès de la phase de test sur son premier ferry Stena Line a annoncé vouloir électrifier l’ensemble de sa flotte de 38 ferries. Outre le Danemark Stena Line relie la Suède avec l’Irlande, le Royaume-Uni et les Pays-Bas.

La société française Bolloré a choisi l’option des supercondensateurs pour stocker l’électricité des ferries. Elle permet une charge très rapide, même si l’autonomie est plus faible qu’avec les batteries. Le transbordeur breton Ar Van Tredan permet de transporter 113 personnes pendant 7 minutes entre Lorient et Locmiquélic.

«La durabilité est au cœur de nos priorités et nous évaluons constamment de nouvelles façons de réduire notre impact sur l’environnement » a déclaré Niclas Mårtensson, le directeur exécutif de Stena Line. « Comme la taille et le coût des batteries diminuent, y recourir devient une alternative très intéressante comparativement aux carburants traditionnels ; et les émissions atmosphériques peuvent être complètement éliminées ».

France Nature Environnement a régulièrement alerté à propos de la nocivité des transports maritimes actuels. « En Europe, la pollution de l’air du transport maritime est responsable de 60 000 morts par an, soit l’équivalent de la totalité des habitants de Valence, Troyes ou encore de la ville de Chambéry » estime cette fédération d’ONG et associations environnementales.

Jean-Gabriel Marie

+500 GW : l’Asie va dominer les investissements dans les énergies renouvelables d’ici 2027

« Sismique ». La Chine et L’Inde se tailleront la part du Lion (ou du Dragon), totalisant 430 GW selon les estimations du cabinet BMI Research rapportées par la Singapore Business Review. « L’arme énergétique de la Chine vient en une couleur : le vert. Investir dans les énergies renouvelables contribue à atténuer l’influence des États-Unis (…) La Chine pivotant d’une aspiration des combustibles fossiles vers l’augmentation des investissements dans les nouvelles technologies énergétiques exportables représente un changement sismique sur le marché mondial de l’énergie » estime l’agence Bloomberg.

« Oubliez le dragon rouge de la Chine, craignez le vert renouvelable » a titré de son côté The Sydney Morning Herald. « Alors, pourquoi les États-Unis (et l’Australie) sont-ils maintenant idéologiquement attachés aux sources d’énergie et à la technologie du siècle dernier alors qu’ils sont aveugles aux embrassements chinois des sources d’énergie de ce siècle ? Sommes-nous si bêtes ? » interroge l’éditorialiste Crispin Hull. Selon un proverbe chinois « il vaut mieux se disputer avec quelqu’un d’intelligent que parler à un imbécile ». La future puissance géostratégique de la Chine repose sur un mot : l’énergie.

Il est peu probable que les campagnes médiatiques menées en Europe de l’ouest à propos des « terres rares », en recourant à des moyens parfois critiquables, conduisent à freiner la montée en puissance asiatique.

Elles ressemblent en réalité plutôt à un chant du cygne.

Jean-Gabriel Marie

L’Alliance solaire internationale officiellement lancée

Sous le solaire évidemment

Des chiffres qui donnent le tournis. L’ASI compte mobiliser pas moins de 1 000 milliards de dollars d’ici 2030 pour installer 1 000 GW d’énergie photovoltaïque sur le continent africain. C’est aujourd’hui l’énergie la moins chère et la plus facile à déployer sur le terrain. Elle sert bien sûr à produire de l’électricité mais peut également être utilisée pour le chauffage et le pompage de l’eau. Une problématique endémique sur le continent africain. Elle répond aussi au besoin d’accès à l’énergie dans les zones isolées où tirer des câbles électriques pour étendre le réseau s’avère bien trop coûteux.

C’est en partant de ce constat, que la France et l’Inde ont créé l’ASI en 2015, lors de la COP21 de Paris. Le but : mettre en place une organisation internationale qui faciliterait l’identification des projets solaire et surtout leur financement, le point sensible. Pas moins de 121 pays ont rejoint l’ASI, mais seuls une soixantaine ont aujourd’hui signé la charte, et seulement la moitié l’ont ratifié… « Cela peut sembler long mais pour une infrastructure de cette taille et de cette complexité, c’est plutôt rapide », explique un fin connaisseur du dossier.

1 000 milliards $ à investir

La visite présidentielle en Inde était donc l’occasion de faire avancer les choses. Un grand pas a été fait ce week-end avec la déclaration conjointe de cinq grandes institutions (Asian  development bank, Asian Infrastructure Investment Bank, African Development Bank, Green Climate Fund, International Energy Agency et New Development Bank) s’engageant à investir massivement dans les projets solaires pour atteindre la fameuse barre des 1 000 milliards de dollars d’ici 2030. Il s’agit d’une étape importante car si de nombreux projets ont d’ores et déjà été identifiés, les institutions financières sont encore frileuses à accorder des lignes de crédit dans des pays africains jugés risqués en raison des conditions géopolitiques, de l’absence de cadre réglementaire sur les énergies renouvelables, sans oublier le risque inhérent aux taux de change.

Reste désormais à passer à l’étape suivante : le financement concret de centrales solaires. Selon des sources proches de l’organisation, une centaine de projets soutenus par l’Alliance solaire internationale devraient être présentés à la prochaine Re-Invest Conference qui se tiendra en Inde du 19 au 21 avril prochain.

Romain Chicheportiche

Ecojoko, la start-up qui facilite vos économies d’énergies

Techniques de l’ingénieur : En quoi consiste votre solution Ecojoko ?

Laurent Bernard : Ecojoko est un assistant d’économies d’énergie qui repose sur une intelligence artificielle. Il est composé de deux boîtiers et d’une application pour smartphone. Le premier boîtier est à positionner sur le disjoncteur général. Il communique avec le second boîtier qui est à placer dans une pièce à vivre. L’assistant analyse la consommation liée au chauffage électrique et de tous les appareils électriques dont il capte le signal électrique.

Nos algorithmes reposent à la fois sur le machine learning et le deep learning. Un frigo, par exemple, n’a pas la même signature électrique qu’un lave-vaisselle. Le capteur posé sur le disjoncteur général mesure la consommation totale en temps réel. Les algorithmes reconnaissent la signature de chaque appareil et vont permettre de décomposer la consommation totale pour déterminer celle de chaque appareil du foyer. Pour sa part, le boîtier, placé dans une pièce à vivre, présente deux aiguilles. La première montre la consommation en watts en temps réel. La seconde situe la consommation actuelle par rapport à une semaine de référence pour mesurer les efforts de l’utilisateur.

E.T.I : Combien d’économies d’énergie peut-on espérer atteindre ? Quand est-ce que votre solution sera disponible ?

L.B : Le fait de pouvoir suivre sa consommation d’électricité en temps réel et d’être accompagné pour la réduire change les comportements. Cela été démontré par une étude du CNRS. Simplement en suivant sa consommation et en ayant un suivi appareil par appareil, l’utilisateur la baisse de l’ordre de 25 %. C’est un résultat supérieur à ce qu’il pourrait obtenir à travers des travaux d’isolation ou de rénovation qu’il pourrait entreprendre. En moyenne, l’économie annuelle est de 500€ par foyer.

La prévente sera lancée fin avril à 99 euros pour les premiers utilisateurs sur la plateforme KissKissBankBank. Son prix commercial sera ensuite de 199 euros. Nous nous concentrons sur l’électricité pour le moment, mais nous développerons probablement des solutions pour le gaz et l’eau par la suite. Pour la petite histoire, Joko est le nom d’un singe à Bornéo. Le singe est intelligent et bienveillant, tout comme notre solution !

ETI : Quelle est votre force par rapport à la concurrence ?

L.B : Aujourd’hui le principal enjeu de notre marché est de faire prendre conscience aux consommateurs du gain énorme qu’ils ont avec un assistant d’économie d’énergie, et ceux sans faire aucun travaux ! Ensuite, nous avons mené un long travail pour proposer la meilleure expérience utilisateur possible. L’installation du capteur sur le disjoncteur général peut être faîte par n’importe qui. Le design de l’assistant est pensé pour que même les enfants puissent comprendre les informations. Il y a un an, nous avons installé une première version d’Ecojoko dans une vingtaine de maisons et appartements. Nous avons obtenu en moyenne une économie d’énergie de 20 %. Ce n’était certes pas un échantillon représentatif, mais cela nous a permis d’améliorer notre produit. Nous en sommes désormais à la cinquième version de l’application.

Notre objectif est d’équiper 5 % des foyers français en trois ans. C’est très ambitieux, mais il s’agit là d’un objectif atteignable. Si l’on y parvient, nous avons calculé que cela permettrait d’éteindre l’équivalent d’un réacteur nucléaire. Pour ce faire, nous souhaitons développer de nombreux partenariats, en particulier avec des fournisseurs d’électricité.

ETI : Quelles informations et conseils donne l’application ?

L.B : La première chose que fait l’application est de séparer la consommation entre les appareils en veille et ceux en activité. La plupart des veilles ne servent à rien, mais coûtent environ 80 € par an aux ménages. L’application calcule vos économies et, grâce à une large base de données, situe votre consommation par rapport à une catégorie de référence. Elle calcule aussi vos émissions de CO2 et les réductions permettent de gagner des bananes à offrir à notre singe mascotte. L’écologie peut être drôle : notre solution est bonne pour la planète et le portefeuille !

L’application vous donne également la consommation annuelle de chacun de vos appareils et l’évolution de votre consommation par rapport à la semaine de référence. Elle propose trois actions très simples pour baisser votre consommation de chaque appareil. Si l’utilisateur veut aller plus loin, il a accès à plus d’une centaines d’actions simples supplémentaires.

Propos recueillis par Matthieu Combe

Une expédition sur les traces du réchauffement climatique #1

Marquée par la présence du plus gros fjord de l’île, le Scoresby  Sund, la région ressent d’autant plus l’impact du réchauffement climatique : épaisseur de plus en plus réduite de la banquise en hiver, faible régénération des glaciers voisins.

Avec leurs seules pulkas – traineaux d’expédition pour transporter du matériel – ils parcourront ainsi 300km sur les traces des fjords et montagnes voisines.

conserves400Au total, c’est avec 80kg chacun qu’ils s’élanceront le 16 Mars prochain.

Dans leur besace : tente, réchaud, piolet, duvet, pharmacie, fusil pour se défendre des ours polaires et bien sûr de quoi tenir pendant ces 5 semaines en autonomie totale.

preparatifs400Tout cela se prépare longtemps en avance, alors, pendant la période de Noël, ils ont méticuleusement préparé un fret pour envoyer tout leur matériel sur place, 2 mois avant le démarrage de l’expédition.

Courses, rationnement, conditionnement, pesage et mise sous vide sont de rigueur pour optimiser au mieux l’envoi.cargaison400

Pour les aider dans leur aventure, les 4 coéquipiers ont pu compter sur de nombreux sponsors : lunettes de glacier, vêtements techniques, chaussettes polaires, produits d’hygiène spécifiques leur ont été ainsi fournis. Ils ont aussi pu compter sur la participation d’entreprises pour les accompagner dans leur projet. OMEXOM, entreprise majeure actrice de la transition énergétique, a été séduite par leur approche curieuse : aller découvrir par soi-même les effets du réchauffement climatique et leurs conséquences sur l’environnement et les populations locales.

En attendant le départ, un programme intensif d’entrainement les a occupé pendant plus de deux mois pour arriver préparés au mieux dans cet univers aussi hostile que fragile, où nous vous proposons de les suivre pendant les 5 semaines de leur aventure.

Pour en savoir plus sur cette expédition :

Vents contraires pour les entreprises françaises au Gabon

Russie en embuscade ?

Le 16 février dernier, « des hommes en armes ont réquisitionné la SEEG – Société d’énergie et d’eau du Gabon, sur décision du Ministère de l’Eau et de l’Energie du Gabon » explique Veolia. La compagnie, filiale de Veolia à 51%, assure la production et la distribution d’eau potable et d’électricité sur l’ensemble du territoire. L’affaire a fait grand bruit en Afrique, et depuis Veolia et l’Etat gabonais s’opposent par medias interposés. « Nous avons des preuves accablantes, notamment des photos d’un lac pollué par les hydrocarbures », assurait à Jeune Afrique Patrick Eyogo Edzang, ministre de l’Eau et de l’Energie.

Depuis, la Russie semble avancer ses pions. Lors d’une conférence de presse organisée quelques jours plus tard, et fortement relayée par la presse gabonaise, l’ambassadeur russe à Libreville, Dmitri Kourakov, aurait indiqué l’arrivée prochaine du groupe RusHydro, 2ème producteur mondial d’hydroélectricité. De son côté, le gouvernement ne confirme pas et tente de jouer l’apaisement en rappelant que le successeur de Veolia pourrait tout aussi bien être un acteur français. Difficile à imaginer tant les relations se détériorent avec les compagnies issues de l’Hexagone.

Bolloré attaque, Bouygues s’en va

Veolia n’est pas le seul groupe à éprouver des difficultés au Gabon. Bolloré, un des symboles de la Françafrique, est également lancé dans une bataille juridique contre le Gabon. Le groupe breton a porté plainte contre l’Etat gabonais devant une cour d’arbitrage internationale dépendant de la Banque Mondiale. Il lui reproche de ne pas avoir respecté son engagement d’accorder l’exclusivité de construction et gestion du port d’Owendo. En effet, Libreville a signé en 2014 un autre partenariat avec la Gabon Special Economic Zone (GSEZ), filiale du groupe singapourien Olam, pour la construction d’un autre port en eaux profondes, rappelle Mediapart. De son côté, les autorités reprochent à Bolloré Africa Logistics de ne pas avoir réalisé les investissements prévus, renchérissant mécaniquement le prix final des produits importés grâce au port.

Alors que Bolloré se bat, d’autres ont jeté l’éponge. C’est le cas de Bouygues Energies & Services, présente depuis près de 70 ans au Gabon, qui a annoncé en octobre dernier, par vidéo-conférence depuis Paris, à ses 223 salariés la fin immédiate de ses activités dans le pays. La nouvelle a fait l’effet d’une bombe car rien ne semblait présager une telle décision. De leurs côtés, Egis et Aéroport de Marseille Provence (AMP) se sont vus notifier en début d’année la non-reconduction de leur contrat de concession de l’aéroport de Libreville, accordé en… 1988.

Romain Chicheportiche

Rium, le compteur Geiger « new look », sort en mai

C’est en mai prochain que débuteront les premières livraisons de Rium, le détecteur de radioactivité connecté, inventé par la société Icohup. «La production commencera quand les partenaires industriels seront qualifiés, confie Gaël Patton, cofondateur de Icohup. Ce produit sera fabriqué à 80% en France. L’assemblage sera réalisé à Limoges, dans nos locaux, car nous voulons garder la maîtrise du produit fini.»

Développé depuis fin 2015, ce détecteur de 250 grammes compte les particules alpha/beta/gamma et fait office de dosimètre et de spectromètre gamma. La mesure du radon sera ajoutée dans une prochaine version. Rium fonctionne en relation avec une application mobile iOS/Android, qui sert à visualiser les données. C’est le fruit du savoir-faire accumulé par Gaël Patton jusqu’au terme de ses études. «Ma thèse, réalisée à l’Institut lumière matière de Villeurbanne, portait sur les matériaux scintillateurs à destination de l’imagerie médicale, explique-t-il. Est venue l’idée de rendre accessibles au grand public ces technologies de détection de rayonnements ionisants

Bientôt embarqué sur des drones ?

Des travaux d’ingénierie s’imposent. «D’ordinaire, une grande quantité de composants électroniques sont nécessaires pour traiter le signal avant sa numérisation, détaille Gaël Patton. Pour la conception de Rium, nous avons adopté le schéma inverse, ce qui a pour avantage de supprimer beaucoup de composants. La consommation énergétique et le coût baissent, la compacité augmente. Le rapport qualité/prix est meilleur que celui d’un compteur Geiger. C’est un outil citoyen et pédagogique. Nous avons du reste le projet d’équiper des lycées et des universités. Des collectionneurs de minéraux peuvent aussi en avoir l’utilité, car certaines pierres sont susceptibles d’être légèrement radioactives

Les particuliers ne sont pas le seul public visé, toutefois. «L’industrie exprime aussi des besoins de supervision et de contrôle, constate Gaël Patton. En version professionnelle, Rium forme un boîtier étanche livré avec un logiciel plus perfectionné et une formule d’abonnement pour la collecte de données. Nous sommes également à la recherche de partenariats avec des dronistes, car la cartographie des potentielles zones à risque est une application envisageable, dans un cadre civil ou militaire. Une preuve de concept sera mise en place d’ici à l’été. Enfin, nous discutons avec l’Institut de radioprotection et de sûreté nucléaire (Irsn), qui pourrait utiliser Rium dans son système de surveillance du territoire

Rium, dans sa version grand public, produit de l’open data, à disposition des ONG et des pouvoirs publics. Autant dire qu’il peut servir à la fois le camp des pro et les antinucléaires. «Les uns et les autres sont des clients possibles. Nous fournissons un capteur et c’est tout» tranche Gaël Patton.

  • Prix : 399 € TTC pour la version grand public/590 € HT pour la version pro

Frédéric Monflier

Quand l’aluminium est plus fort que l’acier

La plupart des alliages d’aluminium légers gardent les propriétés de souplesse et de faible résistance mécanique intrinsèque à l’aluminium, limitant leurs applications industrielles. De récents travaux menés par des chercheurs de l’Université de Purdue (Etats-Unis) ont montré comment altérer la microstructure de l’aluminium pour lui conférer à la fois résistance et ductilité (capacité à se déformer sans rupture).

La qualité est dans les défauts

aluminum-samples

Cet aluminium super-fort a été fabriqué en introduisant des fautes d’empilements des feuillets du cristal (stacking fault) ou des maclages nanométriques. Des opérations qui sont très difficiles dans l’aluminium – comparés à d’autres métaux comme le cuivre ou l’argent – car l’aluminium possède une très haute énergie de faute d’empilement (« stacking fault energy ») et que l’introduction de macles nécessite des basses températures et des forces de déformations élevées.

Parmi les différents défauts et distortions possibles dans l’aluminium, les chercheurs se sont plus particulièrement intéressés à une faute d’empilement baptisé « 9R phase ». La première étape de ces travaux a donc consisté à trouver une méthode pour introduire les défauts « 9R phase » et des nanomacles permettant de rendre l’aluminium plus résistant et ductile et d’améliorer sa stabilité thermique. Deux techniques ont été mises au point pour cela.

Bombardement et pulvérisation

La première technique, qui a fait l’objet d’une publication en novembre 2017 dans Nature Communication, permet d’obtenir le défaut de phase 9R, en bombardant des films d’aluminium ultra-fin avec des micro-projectiles de dioxyde de silicium. Dans cette expérience menée avec des chercheurs de la Rice University un rayon laser éjecte des particules à plus de 600m/s sur différents films d’aluminium. On observe ensuite les dégâts. La méthode qui a permis de créer de défaut 9R phase permet d’ailleurs aussi de tester la résistance aux chocs.

La deuxième technique, relatée dans un article de janvier 2018 d’Advanced Materials décrit comment induire ce défaut non par chocs mais en introduisant des atomes de fer dans la structure cristalline de l’aluminium. Elle s’appuie sur une technique de pulvérisation cathodique magnétron. L’étude montre que l’introduction d’environ 5 % de fer dans le réseau d’aluminium permet la formation de nombreuses fautes d’empilement de type 9R phase. Les revêtements ainsi formés par l’alliage fer-aluminium nanomaclés se sont révélés extrêmement forts, comparables aux aciers les plus résistants affirment les chercheurs. Ces résultats ouvrent la voie à la création de nouveaux alliages d’aluminium légers et résistants pour l’industrie et à la création d’autres alliages métalliques s’appuyant sur le même principe d’amélioration des qualités de résistances et de ductilité par l’introduction de nanomaclage et de fautes d’empilements de type 9R phase.

Sophie Hoguin

L’énergéticien français Neoen va entrer en bourse d’ici fin 2018

Jacques Veyrat, via sa société Impala, est aujourd’hui l’actionnaire principal (56%) de Neoen. Cette entreprise française est spécialisée dans le solaire, l’éolien mais aussi les solutions de stockage. Elle a été choisie le 22 novembre 2017 par le Mexique pour la réalisation de son projet solaire photovoltaïque de 377 MWc situé dans l’état d’Aguascalientes, lequel entrera en service en juin 2020. Il s’agit d’un projet de puissance supérieure à celle de la centrale solaire de Cestas (300 MW) près de Bordeaux, qui est pourtant la plus grande d’Europe.

Neoen a installé en Australie du sud la plus grande batterie lithium du monde, en partenariat avec le groupe américain Tesla. « Peut-on recourir à une batterie pour stocker à l’échelle d’un état ? ». Sur la chaîne BFM TV Xavier Barbaro a répondu en décembre 2017: « Avec des batteries, oui. »

L’entreprise envisage à présent d’expérimenter la production d’hydrogène, également en Australie, ceci pour le marché de l’export (principalement vers l’Asie). C’est ce qu’elle a annoncé le 7 mars 2018, soit la veille de la présentation des résultats du groupe Engie qui a fait de l’hydrogène l’un de ses chevaux de bataille.

Comme son site officiel l’indique, Neoen a installé 1,125 MW de capacités solaires et éoliennes dans le monde, et 800 MW supplémentaires sont dans le pipeline. « Notre objectif est d’atteindre 3000 MW en 2020 » avait indiqué en août 2017 Xaxier Barbaro, PDG du groupe, à l’occasion d’une interview pour le média spécialisé PV Magazine.

Jean-Gabriel Marie

Une collision catastrophique à l’origine de la comète Tchouri

Depuis Giotto visitant la comète de Halley en 1986, quelques sondes spatiales ont permis d’approcher plusieurs noyaux de comètes. Or, la majorité d’entre eux sont apparus allongés voire formés de deux lobes, comme la célèbre « Tchouri » observée de très près par la sonde Rosetta en 2014 et 2015. Les astronomes considèrent que cette forme étonnante s’explique par la jonction de deux anciennes comètes distinctes. Deux comètes forcément très peu denses et riches en éléments volatiles, donc évoluant très lentement, pour permettre un rapprochement en douceur et un contact qui ne les fasse pas exploser. Pour plusieurs raisons, il est supposé habituellement que ce type de rencontres en douceur ne se produit que dans les premières phases du Système solaire, il y a plus de 4 milliards d’années. Toutefois, un mystère demeure : comment des corps de la taille de Tchouri et aussi fragiles, nés il y a si longtemps, ont-ils pu survivre jusqu’à nous, alors qu’ils sont soumis constamment aux collisions dans les régions où ils évoluent ?

Une équipe internationale, comprenant notamment un chercheur français du laboratoire Lagrange, propose aujourd’hui un tout autre scénario, grâce à des simulations numériques en partie effectuées sur le Mésocentre Sigamm de l’Observatoire de la Côte d’Azur. Celles-ci ont montré que lors d’une collision destructrice entre deux comètes, seule une faible partie de la matière est pulvérisée à haute vitesse, réduite à l’état de poussières. Mais à l’opposé du point d’impact, les matériaux riches en éléments volatiles peuvent résister, et être éjectés à des vitesses relatives suffisamment faibles pour s’attirer et se ré-accumuler en formant de nombreux petits corps, qui s’agglutinent à leur tour pour n’en former qu’un seul. Un processus qui ne prend que quelques jours, voire quelques heures ! Et la comète ainsi produite préserve une faible densité et sa richesse en substances volatiles, comme Tchouri.

Ce phénomène serait possible même lors d’impacts à la vitesse d’1 km/s, typique dans la ceinture de Kuiper, l’anneau de comètes situé au-delà de Neptune d’où provient Tchouri.
Ce type de collisions entre comètes se produisant régulièrement, alors Tchouri a pu naître à n’importe quel moment de l’histoire du Système solaire et pas forcément à ses débuts, comme cela semblait acquis, réglant le problème de sa survie pendant si longtemps.

Ce nouveau scénario permet également d’expliquer la présence de trous et de couches stratifiées observés sur Tchouri : ceux-ci se seraient bâtis naturellement lors du processus de ré-accumulation, ou plus tard après sa formation.

Enfin, lors de la collision à l’origine de ce type de comètes, puisqu’aucune compaction ni échauffement significatifs ne se produisent, la composition primordiale est préservée : ces nouvelles comètes demeurent bien des objets primitifs. Même si Tchouri s’est formée récemment, l’analyse de sa matière nous permet bel et bien de remonter aux origines du Système solaire.

© ESA/Rosetta/Navcam – CC BY-SA IGO 3.0 Image de l'étape finale d'une simulation de collision catastrophique de comètes effectuée par les auteurs, montrant l'un des objets formés par réaccumulation des débris de la collision de forme identique à Tchouri.
© ESA/Rosetta/Navcam – CC BY-SA IGO 3.0
Image de l’étape finale d’une simulation de collision catastrophique de comètes effectuée par les auteurs, montrant l’un des objets formés par réaccumulation des débris de la collision de forme identique à Tchouri.
© ESA/Rosetta/Navcam – CC BY-SA IGO 3.0 Image de la comète Tchouri prise par la sonde Rosetta
© ESA/Rosetta/Navcam – CC BY-SA IGO 3.0
Image de la comète Tchouri prise par la sonde Rosetta

Références :

Catastrophic disruptions as the origin of bilobate comets. Stephen R. Schwartz, Patrick Michel, Martin Jutzi, Simone Marchi, Yun Zhang and Derek C. Richardson. Nature Astronomy, le 5 Mars 2018.
DOI 10.1038/s41550-018-0395-2

Source : cnrs

Le solaire + éolien limités à 80% dans le mix électrique des USA ?

D’un point de vue théorique, selon cette étude (Shaaner et al) dont fait écho par exemple le magazine Sciences et avenir (« Usa : éolien et solaire peuvent fournir 80% de la demande en électricité »), il faudrait multiplier de façon massive le volume de stockage pour parvenir au graal des 100%. L’étude montre l’impact de différents volumes de stockage (3, 6, 12, 24 heures et 2, 4, 8, 16 et 32 jours) sur le niveau de solaire + éolien alors possible (page 13).

Autre stratégie possible : surdimensionner la puissance solaire et éolienne installée, et produire en excès. Si un niveau de surproduction de 50% est accepté, alors il est possible de parvenir à 99,63% de solaire + éolien (moitié, moitié). Pour les 0,37% restants (ce qui correspond à 32 heures), accepter quelques coupures d’électricité est une option possible. Accepter un niveau de perte de 10 ou 20% permet déjà d’optimiser significativement le niveau de solaire + éolien. Atteindre un niveau de 50% n’est pas forcément souhaitables compte-tenu de l’impact paysager des parcs éoliens et solaires.

Dans le cas d’un mix uniquement basé sur le solaire (0% d’éolien), le niveau maximal envisageable est de 93,86%, ceci en acceptant une surproduction de 50%. Le solaire est en général mieux accepté que l’éolien, pour des raisons paysagères. Un mix ¾ solaire et ¼ éolien permet d’atteindre les 98,74%, ceci en acceptant une surproduction de 50%.

Une troisième stratégie est possible : muscler les réseaux électriques pour favoriser les effets de lissage entre régions éloignées. Mais, contrairement à la solution reposant sur le stockage batterie, recourir à des lignes électriques pose un problème d’acceptation paysagère et n’élimine pas la dépendance envers plusieurs métaux.

Il est enfin possible de choisir la solution du back-up thermique, tout en recourant à un combiné des trois autres solutions. La consommation de gaz fossile est alors modeste, bien inférieure à 20%, ce qui est compatible avec les objectifs climatiques de l’ONU visant à limiter l’ampleur du réchauffement anthropique. Un back-up reposant sur des centrales nucléaires est difficilement envisageable compte-tenu des aspects cinétiques (ramp-up) et économiques : construire une centrale nucléaire est coûteux et cela n’a de sens que si son facteur de capacité est élevé.

Le coût d’installation d’1 GW de centrale à gaz est environ 10 fois plus faible que celui d’1 GW de nouveau nucléaire EPR. Ces centrales thermiques ne seront utiles que de façon très ponctuelle. Elles deviendront inutiles quand le coût des batteries aura été divisé par un facteur d’environ 20 comparativement au coût actuel. Le coût des batteries lithium s’est effondré d’un facteur 5 entre 2010 et 2017.

L’équipe de l’ICE a analysé 36 années de données météorologiques américaines (de 1980 à 2015) afin de comprendre les barrières géophysiques fondamentales à la fourniture d’électricité avec seulement l’énergie solaire et éolienne.

Dès 2012, NREL avait publié un rapport suggérant que les États-Unis pourraient couvrir 80% de leurs besoins en énergie éolienne et solaire, avec divers degrés de dispatchabilité, une combinaison de production conventionnelle flexible et de stockage et des investissements dans les réseaux.

En avril 2017, « l’Initiative sur les politiques climatiques » a publié un autre rapport novateur intitulé « Flexibilité, Le chemin vers des réseaux électriques à faible émission de carbone et à faible coût ». Le groupe a montré que le coût maximum de ce système basé sur l’énergie renouvelable est aujourd’hui compétitif par rapport à un système basé sur le gaz avec un prix du carbone de 50 $ la tonne. D’ici 2030, il sera compétitif même sans intégrer un prix du carbone. Le chercheur Amory Lovins, fondateur du Rocky Moutain Institute, a répondu à une question d’importance stratégique dans un article publié récemment dans la revue Energy Research & Social Science: « Qui peut remplacer plus rapidement la production d’électricité à partir de combustibles fossiles – l’énergie nucléaire ou les énergies renouvelables modernes? Contrairement à un mythe persistant basé sur des méthodes erronées, les données mondiales montrent que l’électricité renouvelable augmente la production et économise du carbone plus rapidement que l’énergie nucléaire ne l’a jamais fait. »

Une guerre de communication ?

Le chercheur Mark Jacobson (Stanford) a proposé en février 2018 trois stratégies pour parvenir à un mix électrique 100% renouvelable. L’étude est disponible depuis le site de Stanford University. Contacté par voie électronique ce scientifique californien n’est pas enthousiaste à propos de l’étude Shaaner et al, dont le climatologue pro-nucléaire Ken Caldeira fait partie des quatre co-auteurs. Techniques de l’ingénieur publie ici en intégralité son commentaire, avec son aimable autorisation :

« Non, je ne suis pas d’accord avec cette étude. Dans une étude que nous avons publié la semaine dernière nous contredisons ce qu’ils affirment.  Un système 100% éolien, hydraulique et solaire peut alimenter non seulement le secteur de l’énergie électrique, mais tous les secteurs énergétiques (électricité, transport, chauffage / refroidissement, industrie, agriculture / foresterie / pêche) et pas seulement pour l’Amérique du Nord mais aussi pour les 20 régions du monde examinées et sous 3 scénarios de stockage différents dans chaque cas. Notre étude diffère de la leur de la façon suivante:

  1. Ils ignorent les énergies renouvelables à l’exception du solaire et du vent; à savoir hydro et géothermique existantes. De notre côté nous avons comptabilisé ces dernières.
  2. Ils ne tiennent pas compte de la réponse à la demande, ils supposent donc qu’il est impossible d’inciter les gens, par exemple, à faire fonctionner leur lave-vaisselle et leur lessive la nuit en leur offrant de meilleurs taux nocturnes. Nous avons expliqué cela.
  3. Ils ne parviennent pas à électrifier tous les secteurs énergétiques, leurs profils de demande pour un futur système d’énergie renouvelable sont donc incorrects, car le chauffage / refroidissement électrifiés, par exemple, augmente l’électricité nocturne pour la chaleur (coïncidant avec le vent) et le refroidissement diurne (solaire) et le transport électrifié crée une énorme charge flexible qui peut être décalée dans le temps.
  4. Ils ne tiennent pas compte du stockage de chaleur ou de froid et supposent que le stockage d’électricité est une boîte noire, alors qu’en réalité il est souvent lié à l’énergie hydroélectrique et à l’énergie solaire concentrée (stockage thermique à base de sels fondus ndlr), qui sont beaucoup moins chères que les batteries.
  5. Ils ne parviennent pas à projeter des charges à 2050 ou à les réduire de 42 à 58%, comme c’est le cas avec un système Wind Water Sun (WWS) à 100% (voir le document ci-dessus).
  6. Leur jeu de données sur le vent est à la mauvaise hauteur – 50 m, alors que les hauteurs des moyeux des éoliennes sont toutes maintenant de 80 à 120 m. Notre étude modélise les vents à une hauteur de moyeu de 100 m.
  7. Une autre différence est que nos champs de vent, par exemple, sont à une résolution de 30 secondes. Ils utilisent une résolution d’une heure.

Dans l’ensemble, il s’agit d’un exemple classique d’auteurs qui tentent de publier une étude portant sur un problème particulier (la dépendance temporelle des ressources solaires et éoliennes par rapport à la demande) pour affirmer que cela s’applique à autre chose.

Non seulement leur étude est beaucoup plus simple que les études de base d’il y a 8 ans, qui ont montré que les énergies éolienne, solaire et hydraulique en Californie pouvaient, à elles seules, correspondre à la demande avec 99,8% de sources sans carbone mais il existe au moins 30 articles publiés dans des revues à comité de lecture qui sont beaucoup plus détaillés que ce nouveau document et montrent qu’il est possible de faire coïncider la demande et l’offre avec les seules énergies renouvelables à travers le monde. »

Jean-Gabriel Marie

 

Crowdlending : anatomie d’une stratégie réussie

Le crowdlending est un financement participatif de pair-à-pair permettant à des particuliers de financer directement des projets ou des entreprises sous forme de prêts rémunérés. Apparu au début des années 2010, le crowdlending s’est rapidement développé via des plateformes sur internet et représente plus de 190 millions d’euros de prêts aux entreprises en France en 2017. Toutefois, développer une plateforme de crowdlending n’a pas toujours été chose facile; c’est pourquoi des chercheurs se sont demandés quelles stratégies un entrepreneur peut-il mettre en œuvre pour développer un « business model » innovant vis-à-vis des acteurs en place (les banques) et de ses futurs concurrents (autres plateformes du secteur) ?

Pour répondre à cette question, les chercheurs ont réalisé des entretiens qualitatifs avec les différents acteurs du secteur et analysé le cas particulier d’un pionnier du crowdlending étant parvenu à innover à deux niveaux. D’un côté, il a créé une niche, dont il était le seul acteur de fin 2013 à 2016, qui lui a permis de contourner le monopole bancaire en place. De l’autre, il a aidé au développement d’une règlementation qui « protège » désormais toutes les entreprises du crowdlending et a favorisé le développement de ce marché en France. Sa stratégie a bénéficié à la fois à son entreprise et à l’ensemble du secteur.

Pour cela, la stratégie de l’entrepreneur peut se résumer en trois actes. Le premier a consisté à contourner le monopole bancaire sur sa plateforme grâce au « bon de caisse », un outil datant de 1937 et depuis longtemps oublié, qui permet de réaliser des prêts de particulier à particulier sans l’intermédiaire d’une banque. Dans un deuxième temps, en collaborant avec ses futurs concurrents, les pouvoirs publics et les régulateurs du secteur, l’entrepreneur a contribué à l’élaboration d’une régulation pérenne du crowdlending en France. Cette collaboration s’appuie sur la création d’une méta-organisation, « Financement Participatif France » (FPF), qui a œuvré pour la définition du statut d’Intermédiaire en Financement Participatif (IFP), régulant ce nouveau marché. Dans son activité, l’entrepreneur persiste néanmoins à utiliser le bon de caisse plutôt que ce nouveau statut car il n’est pas obligatoire et est surtout plus restrictif que le bon de caisse. Il reste ainsi le seul utilisateur de cet outil pendant trois ans jusqu’à ce qu’une nouvelle légifération mette fin à sa stratégie, dans un troisième et dernier temps.

C’est la première fois que les chercheurs observent la réussite d’une telle stratégie de « coopétition », c’est-à-dire articulée sur des niveaux concurrentiels et coopératifs en même temps, dans un secteur nouveau avec de fortes barrières à l’entrée, initialement sans règlementation propre et contournant une industrie très protégée et installée depuis longtemps. Cette stratégie de collaboration entre régulateur de marché et plateformes via une méta-organisation est également la voie explorée par un autre secteur encore mal cerné : celui des crypto-monnaies.

Références :
Stratégies de conquête d’un nouvel espace de marché : la structuration du crowdlending. Héloïse Berkowitz et Antoine Souchaud, Gérer et Comprendre, 1er mars 2018.

Source : cnrs

Trois technos de rupture selon le MIT

Ville intelligente, nouvelles protéines grâce à l’informatique quantique, gaz naturel zéro carbone… La livraison 2018 de cette publication du Massachusetts Institute of Technology (MIT) couvre divers domaines. Nous ne reviendrons pas sur la ville intelligente, un sujet déjà couvert par notre site, ou les autres sujets qui restent encore assez hypothétiques.

Parmi les innovations mises en avant, nous en avons retenu trois : l’intelligence artificielle, la traduction en temps réel et l’impression 3D du métal.

L’IA au service des entreprises

L’IA commence à être un marronnier tant les annonces se multiplient. Mais pour cette revue, la « révolution » va être la démocratisation de l’IA. De très nombreux secteurs (la médecine, la fabrication et l’énergie) pourraient profiter de l’IA et de la puissance de calcul du cloud.

De plus en plus de fournisseurs dans le cloud proposent en effet aux entreprises, qu’elles que soient leur taille et leur activité, de s’appuyer sur leurs infrastructures pour améliorer leur performance et automatiser des tâches comme l’analyse de gros volumes de données.

En utilisant conjointement des outils big data, le machine learning et les ressources du cloud, les entreprises peuvent par exemple mieux comprendre les attentes de leurs clients ou repérer une tendance forte de leur marché. Sous catégorie de l’IA, le machine learning est la faculté qu’ont des machines d’apprendre et de s’améliorer elles-mêmes, en tirant les leçons de leurs propres erreurs

L’avis du MIT Technology Review rejoint celui d’Ariane Bucaille, Associée responsable TMT pour Deloitte en France : « au cours des prochains mois, le machine learning sera déployé dans les entreprises, mais il ne sera pas encore omniprésent. Cette année est un point de bascule où l’adoption du machine learning par les organisations est en passe de s’accélérer et d’aider ces dernières en travaillant plus rapidement et de façon plus souple ». Mais l’expérience et l’intuition humaine des Data scientist resteront essentielles pour analyser correctement les tendances mises en avant par des algorithmes.

In English dans mes écouteurs

La reconnaissance vocale améliorée grâce à l’IA et le cloud devraient aussi favoriser le développement de la traduction en temps réel. Plusieurs entreprises proposent des modèles d’écouteurs capables de traduire des conversations en plusieurs langues. Ceux de Google, les Pixel Buds (vendus uniquement aux États-Unis), s’appuient évidemment Google Traduction. D’autres, comme les Pilot (encore au stade de prototype) de Waverly Labs et Click de Mymanu utilisent leur propre programme.

L’impression 3D en métal pour aller plus vite

Cette technologie n’est pas récente. Mais la fabrication additive, avec autre chose que des matières plastiques (dont le thermoplastique), en particulier le métal, a été coûteuse et lente. Le développement de l’impression en métal devrait révolutionner l’industrie manufacturière. Elle devrait permettre aux entreprises de produire sur demande des éléments plus ou moins complexes et fonctionnels. Certains fabricants offrent maintenant des imprimantes 3D pour métal autour de 100 000 euros.

En 2017, des chercheurs du Lawrence Livermore National Laboratory avaient annoncé la mise au point d’une technique d’impression 3D capable de créer des pièces en acier inoxydable deux fois plus résistantes que les traditionnelles.

Avec ces procédés, les industriels, mais aussi les commerçants n’auraient pas besoin de maintenir des stocks importants. Ils pourraient par exemple imprimer un objet, comme une pièce de remplacement pour une voiture pas très récente, chaque fois que quelqu’un en a besoin. Mais l’armée américaine n’a pas attendu l’impression en métal. Elle utilise la fabrication additive (thermoplastique) pour limiter la quantité de pièces détachées sur ses porte-avions.

Philippe Richard

Cadres : les nouvelles compétences indispensables

L’étude sur les mobilités vers le secteur de l’aéronautique montre qu’au-delà de l’expertise technique, préalable à toute mobilité vers le secteur, sont désormais indispensables des compétences transverses telles que la capacité à échanger dans un environnement de travail international, le management d’équipes projet ou encore les compétences relationnelles.

En plus des exigences sur les compétences cœurs de métier, spécifiques à chaque fonction et sur lesquelles il peut y avoir des exigences d’expertise, six groupes de compétences transverses ont pu être identifiées. Il ne s’agit pas de maîtriser toutes ces compétences dès le début de son parcours professionnel, mais d’être conscient que ces compétences seront un atout pour les cadres qui voudront continuer à évoluer dans leur métier et leur entreprise.

La réglementation

Pour faire face aux défis de la réglementation, les cadres devront avoir des appétences pour les sujets technico-réglementaires. Les contraintes réglementaires impactent tous les secteurs et tous les métiers, y compris les métiers de la R&D. Il ne s’agit pas d’être un expert en droit (sauf pour les juristes et fiscalistes), mais d’être capable d’appréhender les impacts de nouvelles réglementations et de poser les bonnes questions aux experts juristes et fiscalistes.

Les outils digitaux

Les compétences dans la maîtrise des outils digitaux, de la modélisation et du traitement des données dépassent désormais la simple utilisation des outils bureautiques, voire des outils décisionnels. La capacité à maîtriser les outils informatiques à un haut niveau de technicité est, par exemple, une compétence attendue pour les chercheurs. Grâce à l’augmentation spectaculaire des flux d’information et au potentiel d’exploitation grâce au numérique (données d’usage, de comportement et de géolocalisation notamment), le traitement des données massives et leur analyse se sont largement développés dans tous les domaines du marketing afin d’analyser le parcours client, ou encore le secteur de l’assurance pour la politique de tarification, jusqu’au secteur sanitaire où les capacités à modéliser les données d’informations médicales s’imposent au médecin DIM. Les indicateurs de suivi, les outils d’aide à la décision ont envahi notre quotidien et il est demandé aux cadres de tirer au maximum profit de ces outils pour accroître leur performance.

La gestion de projets

Elle demande la maîtrise de processus organisationnels innovants : la gestion de projets, de plus en plus souvent collaboratifs et le management moins hiérarchique nécessitent de savoir piloter des équipes transverses (et interdisciplinaires) sur des projets de plus en plus complexes. Ainsi, implémenter les objets connectés va demander de savoir développer et intégrer des solutions complexes faisant cohabiter des solutions existantes et en devenir, et intégrer des domaines divers tels que les mécanismes de connectivité, la transmission de données, les systèmes de communication sans fil, la mécanique.

Le management des équipes

Il va souvent nécessiter de savoir travailler au sein d’équipe multidisciplinaires et éventuellement, du fait de la mondialisation, multiculturelles. Cette compétence est considérée comme essentielle dans certains secteurs comme l’aéronautique et ne se limite pas à l’usage quotidien de l’anglais. L’exigence de spécialisation et de polyvalence va nécessiter de savoir faire travailler ensemble des experts n’ayant pas les mêmes cultures professionnelles ni les mêmes langages.

La capacité à gérer des équipes interdisciplinaires et à développer un réseau était soulignée dans les compétences attendues du chercheur français. La capacité à développer un réseau de compétences sur lequel s’appuyer en cas de besoin afin d’optimiser ses actions est considérée comme faisant partie intégrante de la fonction, de même qu’il est demandé à tous les cadres de savoir communiquer tant en interne qu’en externe de façon à être compris par tous, et de savoir « vendre » ses projets.

La stratégie globale des entreprises

La capacité à prendre en compte la stratégie globale de l’entreprise et ses enjeux commerciaux se retrouve dans tous les métiers. Ainsi, présenter sa thèse en 180 secondes transforme un sujet de thèse en un exercice plus commercial que scientifique. Alors que les contraintes de rentabilité sont prégnantes à tous les niveaux, il est demandé à tous, grâce aux outils de suivi que les technologies numériques mettent à notre service, de mesurer sa contribution au développement de son entreprise.

L’approche systémique

Doté de toutes ces compétences, les cadre doivent avoir une approche systémique, comprenant les enjeux stratégiques de l’entreprise et ayant une vision globale de sa place dans l’écosystème de l’entreprise. Cette approche doit leur permettre de savoir arbitrer les projets de son entité en fonction de la stratégie globale de l’entreprise. Ils doivent par exemple être capable de gérer des projets innovants tout en s’inscrivant dans une démarche de RSE, prenant en compte les problématiques de la transition écologique dans son quotidien, mais également celles liées aux problématiques sociales. Car la RSE est considérée comme un outil de management, de communication et de développement par les entreprises qui la mettent en œuvre.

Le savoir être

Certaines des compétences transverses décrites ci-dessus renvoient à l’importance du savoir-être (ou qualités individuelles). Savoir s’adapter à un nouvel environnement, avoir une ouverture d’esprit sont des qualités réclamées, par exemple, par les entreprises du secteur, très mondialisé, de l’aéronautique. L’ouverture d’esprit, la créativité, l’adaptabilité sont considérées comme des qualités incontournables pour les chercheurs. Dans le bâtiment et l’industrie du futur, au-delà de la rigueur qui est une évidence dans ces domaines très techniques, les entreprises sont très attentives au sens relationnel de leurs collaborateurs et collaboratrices.

Source : Apec

Transformation numérique : quel impact sur les cadres ?

Les Smacs (Social, Mobility, Analytics, Cloud, Security) synthétisent les principales évolutions technologiques du numérique à l’heure actuelle. Réseaux sociaux, internet des objets, applications multi device, impression 3D, virtualisation, traitement des données massives, sécurisation des données, etc. La transformation numérique des entreprises, ainsi que celle de l’ensemble des individus du fait des nouveaux usages, ont un impact sur l’ensemble des métiers, que ce soit ceux des systèmes d’information ou ceux de l’ensemble des autres fonctions.

Les évolutions rapides de l’informatique ont amené à la création de métiers, qui restent néanmoins des métiers de niche. Ainsi, les problèmes liés au stockage de données de plus en plus massives dans le cloud, en garantissant de bonnes pratiques environnementales et en matière de sécurité, disponibilité et fiabilité des données, ont conduit au recrutement de responsables de data centers. C’est aussi le besoin de maîtrise de la fiabilité et de la disponibilité des applications qui a incité les très grandes entreprises à se doter de gestionnaires de contrats informatiques, chargés des relations avec les sous-traitants.

Les problématiques de sécurité sont devenues une source de création ou de transformation des emplois. Poussées par les contraintes réglementaires, mais aussi par les problèmes d’intrusion ou de pertes de données, les entreprises tentent de maîtriser certains risques en se dotant de responsables de sécurité des systèmes d’information, d’ingénieurs sécurité informatique (cybersécurité), voire d’experts en cryptologie. Le nombre d’offres d’emploi diffusées par l’Apec pour les postes en cybersécurité – principalement ingénieur sécurité et RSSI – ont quadruplé entre 2014 et 2016. La sécurité fait également partie des compétences que doivent posséder les ingénieurs et chefs de projets maîtrise d’œuvre, les ingénieurs systèmes et réseaux, les responsables et architectes infrastructures.

Les métiers traditionnels de l’informatique sont bouleversés en permanence par les nouvelles technologies venues de l’internet. Les technologies web se sont étendues à une grande partie de l’informatique d’entreprise ; les développements pour les applications mobiles doivent être envisagés, nécessitant la prise en compte de problématiques d’urbanisme et d’architecture fonctionnelle et technique croissantes avec la taille des systèmes d’information.

Les fonctions informatiques sont également impactées par la nécessité pour les entreprises de traiter et valoriser de multiples données internes et externes de plus en plus massives et éventuellement non structurées. Les métiers de la data, comme celui de data scientist, de data architect ou de data manager se développement, dans les services mais également dans l’industrie. Cette évolution a également des impacts sur des métiers à la frontière avec le marketing ou la stratégie d’entreprise comme les data officers.

Au-delà des métiers informatiques, beaucoup d’autres activités sont impactées par le numérique ; le bâtiment du futur ou l’industrie du futur en sont des symboles. L’industrie du futur, appelée aussi industrie 4.0, se caractérise avant tout par une intégration massive d’outils numériques sur toutes les dimensions de la chaîne industrielle : conception, fabrication, logistique, maintenance, vente. Les exemples concrets sont nombreux. La simulation numérique d’une usine permet ainsi de tester facilement de nouveaux procédés. L’impression 3D (appelée plus souvent fabrication additive) d’objets ou de pièces ouvre de nouvelles perspectives en matière de personnalisation de la production. L’utilisation de capteurs connectés (Internet des objets) sur des machines permet de récupérer des données massives (big data) qui faciliteront les opérations de maintenance (maintenance prédictive). Des logiciels spécialisés facilitent le partage d’informations sur l’ensemble du cycle de vie d’un produit (PLM : product lifecycle management), etc. Côté bâtiment du futur, le BIM (building information modeling) peut être utilisé de la conception à la destruction, en passant par la construction et la maintenance. Il constitue un outil numérique de centralisation de l’information, de co-conception, de collaboration, de pilotage de la réalisation d’un projet de construction.

De même, la digitalisation et l’usage des réseaux sociaux a fait se développer ou se transformer un grand nombre de métiers du marketing. Ces métiers d’analyse de la relation client ou des données marketing utilisent de nouveaux outils afin de produire des recommandations opérationnelles créatrices de valeur pour l’entreprise en prenant en compte la multiplication des canaux de vente et de communication avec les clients.

C’est également le cas de métiers de la fonction ressources humaines. Le responsable recrutement diffuse des offres d’emploi sur Internet, emploie des logiciels de présélection de candidatures, utilise les réseaux sociaux pour chasser les candidats ou pour se renseigner sur eux, gère ses recrutements grâce à des applications informatiques. Le responsable formation innove dans les sessions qu’il propose aux salarié·e·s : Mooc, blended learning, elearning, etc.

L’ensemble des métiers de l’industrie utilise les objets connectés pour la plupart des métiers de la maintenance, de la production ou de la logistique. Ainsi, les métiers de la logistique sont transformés par l’Internet des objets qui permet, grâce à une technologie embarquée, de suivre les containers en temps réel et de planifier de manière de plus en plus précise les livraisons. Dans l’industrie, la fabrication additive ou impression 3D contribue au développement de métiers informatiques tels que celui d’ingénieur développement de logiciels de conception 3D, mais opère également des transformations dans des métiers classiques comme celui d’ingénieur conception, impliquant de concevoir différemment des produits ou des pièces.

Dans la chimie du végétal, on voit apparaître de nouvelles compétences à la croisée de l’informatique et de la biologie. On assiste ainsi à l’émergence des bioinformaticiens, qui créent les logiciels et bases de données pour traiter les informations issues du vivant.

Dans le secteur sanitaire, l’utilisation de mannequins intelligents et les techniques de e-learning ont amené les responsables pédagogiques à repenser les formations en soins infirmiers. Le médecin DIM (département d’information médicale) optimise les outils informatiques permettant d’effectuer le codage des actes et exploite des données pour suivre l’activité opérationnelle et économique de l’établissement.

Aujourd’hui, ces facteurs d’évolution peuvent s’interpénétrer ; ainsi les contraintes réglementaires sont porteuses d’innovations et certains estiment que « les innovations naissent aujourd’hui davantage de contraintes ou d’évolutions réglementaires que d’une réelle liberté d’innovation comme dans le passé ». La transformation numérique est porteuse d’innovation non seulement dans la sphère technologique, mais également dans l’organisation des relations entre les acteurs. La transition énergétique s’appuie sur l’innovation technologique et est portée par les règlementations issues du Grenelle de l’environnement.

Source : Apec

MWC18 : le mobile, objet de loisirs

Il est loin le temps où toutes les marques ou presque étaient présentes en Espagne pour présenter leur nouvelle gamme de téléphone. Aujourd’hui, on parle toujours un peu des appareils, mais surtout d’innovations technologiques. Mais à la différence de l’augmentation de la diagonale d’écran (et de sa définition), de l’épaisseur de l’appareil ou encore de la vitesse de connexion, la majorité des innovations seront transparentes pour les utilisateurs.

Ainsi d’ici à 2020, la mémoire qui équipera les smartphones augmentera fortement, passant de 32 Go à 128 Go. Et les nouveaux processeurs, capteurs, logiciels et solutions basées sur l’IA transformeront les usages.

Il n’est donc pas étonnant que les allées de ce salon aient résonné d’annonces concernant la 5 G (les premiers déploiements commerciaux devraient commencer cette année et l’an prochain aux États-Unis, en Corée et au Japon), le LiFi (Light Fidelity, une alternative au Wi-Fi dont la bande passante n’est pas limitée) et bien sûr l’Intelligence artificielle (IA) comme tout événement high-tech !

Cette édition confirme que le smartphone ne sert plus uniquement à téléphoner. Ce sera de plus en plus un appareil de loisirs numériques. D’ailleurs, le cabinet Deloitte affirme que cette année, plus d’1 milliard d’utilisateurs créeront du contenu de réalité augmentée sur leur smartphone.

Difficile de réinventer la roue !

Bien sûr, la plupart des marques (à part l’éternel absent Apple, mais aussi Huawei, HTC…) ont braqué leurs projecteurs sur leurs dernières nouveautés et notamment le format 18:9. Enrichissant en permanence sa gamme, le numéro 1, Samsung en a profité pour présenter son nouveau flagship (modèle emblématique haut de gamme), le S9 et sa version à écran XXL S9+. Mais là aussi, le Coréen a surtout parlé technologie avec la partie capteur photo qui bénéficie d’une ouverture de diaphragme variable (de f/1.5 à 2.4). Une raison de plus pour laisser définitivement dans un carton son appareil photo numérique…

Toujours à propos de photo, mais cette fois agrémentée d’IA, LG a mis en avant l’appareil photo de son LG V30 qui devient plus intuitif. La fonction Vision AI analyse automatiquement les objets et propose le meilleur mode de prise de vue parmi huit modes. La marque précise avoir collaboré avec un partenaire du domaine de la reconnaissance d’images (mais sans préciser lequel) afin d’analyser plus de 100 millions de photographies et développer les algorithmes de reconnaissance d’images du téléphone.

De son côté, Sony confirme bien cette tendance « loisirs ». Disponible en avril, son Xperia XZ2 intégrera un écran HDR Full HD+ et un tout nouveau système de vibration dynamique qui donne vie aux contenus. Ce modèle permet d’enregistrer des vidéos en 4 K HDR et le mode Super slow motion à 960 images par seconde passe en Full HD.

Techno toujours avec les écrans pliables qui continuent à jouer aux Arlésiennes. Mais ils font toujours leur effet sur un stand même si maîtrise et l’industrialisation restent à prouver. Lors de ce salon, Samsung a d’ailleurs évoqué un lancement en 2019 (uniquement en Corée du Sud dans un premier temps) de son mystérieux Galaxy X.

En attendant leur apparition, certains préfèrent rester pragmatiques et répondre aux attentes des utilisateurs. Comme nous l’avons vu dans un article sur l’avenir des batteries, leur faible autonomie reste le talon d’Achille des mobiles. Différentes alternatives sont envisagées pour l’augmenter. À Barcelone, Energizer a annoncé une batterie de 16.000 mAh. La marque a même présenté un smartphone très classique en apparence (écran 5.99’’, 6 Go de RAM et 128 Go de stockage).

Autant de bonnes (ou de mauvaises) raisons de ne plus se passer de son smartphone. Le cabinet Deloitte estime qu’en 2023, les utilisateurs interagiront 65 fois par jour en moyenne avec leur smartphone contre 50 fois l’année dernière…

Philippe Richard

TOP 5 : les articles les plus lus #février2018

Un pas de plus vers la maîtrise de la lévitation acoustique

Pour la première fois, des chercheurs ont réussi à faire léviter par le son des objets dont la taille est supérieure aux longueurs d’ondes acoustiques utilisées. Un premier pas qui ouvre la possibilité à la manipulation acoustique de plus gros objets.

levitation-big

 

Réponse à la taxe anti-solaire de Trump : la Chine construit une énorme usine de panneaux photovoltaïques en Inde

L’usine (1 GW) sera opérationnelle pour le premier trimestre de 2019. Dans seulement un an. Il n’existe en France aucune usine capable de produire une telle quantité de panneaux PV.

donald-trump-big

 

Construction : un aérogel rend les briques simples ultra-isolantes

Des chercheurs suisses de l’Empa ont mis au point un aérogel pour garnir les briques qui permet de les rendre ultra-isolantes pour des épaisseurs de mur inférieures à 20cm.

Aerobrick_1140

 

Logiciels et applications mobiles : le casse-tête de la conformité avec le RGPD

Le 25 mai prochain, le RGPD (Règlement Général sur la Protection des Données) entre en vigueur. En renforçant la protection de tous les citoyens européens, il oblige les éditeurs de logiciels à revoir leurs copies… Pas simple.

rgpd-big

 

Batteries : des pistes pour une durée de vie plus longue

Le talon d’Achille des smartphones reste la batterie. De plus en plus sollicitée, elle perd de son efficacité après environ 1000 cycles de charges et décharges. Des chercheurs affirment avoir trouvé des solutions plus performantes. De quoi intéresser aussi les fabricants de vélos électriques !

batterie-iphone-1140

Par I. B

Les e-textiles au service de votre santé

Guillaume Tartare est chercheur au Laboratoire de recherche GEMTEX à l’école d’ingénieurs textile de Roubaix ( ENSAIT). Son équipe travaille sur de nombreux projets de textiles intelligents. Grâce à des capteurs accéléromètres, ils obtiennent le rythme cardiaque et le cycle respiratoire du porteur. Ces vêtements connectés peuvent par exemple être utilisés par des pompiers en intervention.

« Trois capteurs sont placés précisément sur le textile pour avoir une pression constante sur la peau », explique Guillaume Tartare. Après transformation du signal, il est possible de voir si le rythme cardiaque est trop élevé ou si le porteur est en hyperventilation.« Il y a toujours une variation du rythme cardiaque entre chaque battement du cœur. En faisant de l’analyse de la variabilité cardiaque, il est possible d’aller beaucoup plus loin dans la prise d’informations sur la situation du pompier et déterminer le niveau de fatigue, de stress et du niveau d’attention », complète-t-il.

Le laboratoire GEMTEX travaille également sur une ceinture ventrale pour femmes enceintes, qui détecte les mouvements fœtaux. Des bonnets permettent aussi de faire l’électro-encéphalogramme pour détecter le risque de crise d’épilepsie par exemple. D’autres applications concernent le monitoring des personnes âgées, des sportifs et des personnes atteintes de diverses maladies. « Nous sommes au dernier stade avant commercialisation sur certains produits, notamment les textiles qui traitent l’adénocarcinome, un cancer de la peau, traité par photothérapie », estime Guillaume Tartare.

Coupler les textiles intelligents avec les objets connectés

Mehdi Ammi, enseignant-chercheur au Laboratoire d’Informatique pour la Mécanique et les Sciences de l’Ingénieur (LIMSI-CNRS) de l’Université Paris-Saclay travaille également sur ces questions. « Notre objectif dans le cadre du projet Text Sensor, financé par l’IDEX Paris-Saclay, est de développer des technologies pour le monitoring de personnes à l’extérieur des infrastructures de santé, par exemple à domicile ou dans la vie de tous les jours », explique-t-il.

Le projet vise à analyser l’activité motrice de patients, notamment pour calculer le risque de récidive de personnes qui ont déjà subi un premier AVC. Pour ce faire, il s’appuie sur un ensemble d’objets connectés : un verre qui mesure l’activité motrice de la main, une balance qui détermine l’équilibre de la personne et un bracelet qui calcule la quantité d’activité. Avec son collègue Frank Bimbard, Mehdi Ammi a développé un vêtement connecté doté de fibres fonctionnelles qui mesurent directement les débattements articulaires. Il permet ainsi d’analyser l’activité de la partie supérieure du corps, déterminer la quantité de mouvement de chaque partie et déceler une faiblesse motrice. « Le capteur, c’est la fibre, simplifie Mehdi Ammi. À partir de toutes ces informations issues de différents objets, nous calculons le risque de récidive de la personne et améliorons le diagnostic. »

Le projet est encore au stade expérimental, mais des prototypes fonctionnels sont déjà en cours d’utilisation. Le défi est désormais d’avoir des mesures et des traitements robustes. « Ce vêtement pourra aussi être utilisé par des patients atteints de diabète, par les sportifs ou pour le monitoring de personnes âgées », prévient le chercheur.

Des applications déjà commercialisées

Côté sport, plusieurs start-ups se lancent dans l’analyse de la variabilité cardiaque pour suivre les risques vasculaires. « Plusieurs entreprises se lancent dans le secteur sportif plutôt que le médical car les contraintes en termes de normes y sont beaucoup simples », fait savoir Guillaume Tartare.

Toutefois, quelques textiles connectés sont déjà commercialisés en santé. Ainsi, Neomedlihht est une société lyonnaise qui fabrique des textiles lumineux pour guérir les nourrissons de la jaunisse. Pour sa part, @-Health crée un service de monitoring des personnes qui ont un problème cardiaque.

Par Matthieu Combe, journaliste scientifique