Nouveaux matériaux : du biomimétisme à l’intelligence artificielle

La recherche de nouveaux matériaux s’appuie depuis de nombreuses décennies sur le biomimétisme : les chercheurs identifient un matériel biologique aux caractéristiques intéressantes comme la soie d’araignée ; Ils en étudient la microstructure, essaient de comprendre comment naissent les caractéristiques qui les intéressent puis essaient de la reproduire en créant des matériaux artificiels. Des chercheurs du laboratoire des sciences informatiques et de l’intelligence artificielle du MIT ont développé un système qui renverse cette logique. Les scientifiques spécifient les propriétés qu’ils désirent obtenir dans un logiciel qui va générer par calcul quelles sont les microstructures idéales pour coller aux spécifications.

Une recherche de compromis

A l’origine de l’outil présenté dans les travaux publiés dans Science Advances, il y avait déjà d’autres recherches publiées l’été dernier par le même groupe de travail. Il s’agissait alors de générer des modèles de microstructures puis d’utiliser un logiciel de simulation pour les évaluer selon trois ou quatre propriétés mécaniques. Chaque évaluation d’une microstructure définissait un point dans un espace à 3 ou 4 dimensions. Les différentes évaluations finissaient par créer des nuages de points qui ont ensuite été délimités. Les points proches de la surface de ces nuages correspondent aux microstructures pour lesquelles le compromis est maximum et où il est impossible d’augmenter les performances d’une propriété sans faire baisser les performances de l’une des autres.

Reconstitution à partir d’un squelette

En partant de ces travaux préliminaires, les chercheurs ont utilisé des mesures standards pour identifier des similarités géométriques entre les différentes microstructures formant les points à la frontière du nuage. Le logiciel a réuni ensemble les microstructures à la géométrie similaire et en a tiré un squelette (une forme rudimentaire) partagé par toutes ces microstructures. Dans une deuxième étape, le programme informatique repart du squelette pour essayer de recréer la structure originelle en procédant par ajustement et ajout d’éléments autour du squelette. Le système finit par déduire une formule mathématique pour reconstruire les microstructures d’un nuage. Ensuite, les chercheurs ont utilisé des techniques d’apprentissage profond des machines (deep learning) pour déterminer des corrélations entre des valeurs spécifiques des variables de la formule et les propriétés mesurées des microstructures. L’ensemble produit un système rigoureux de transposition à double sens entre microstructures et propriétés physiques.

Comme l’ensemble des processus mis en œuvre pour aboutir à une application opérationnelle est entièrement automatisée, l’approche peut être transposée pour n’importe quelle type de propriétés dès lors que l’on dispose d’une collection de structures aux propriétés connues. Ainsi, si ces chercheurs ont testé leur outil pour produire des microstructures présentant un compromis idéal entre différentes propriétés relatives à des phénomènes d’élasticité, il est possible d’envisager des requêtes beaucoup plus complexes et des combinaisons de propriétés tant mécaniques, que thermiques, optiques ou électromagnétiques.

Par Sophie Hoguin

Les auteurs lauréats des 10 articles de ressources documentaires les plus consultés en 2017

Yves Valentin, directeur de Techniques de l’Ingénieur, récompense cette année les auteurs des 10 articles les plus téléchargés des ressources documentaires. Ils sont ingénieurs, chercheurs, enseignants ou consultants, tous experts de leur domaine ; ci-dessous les auteurs à qui nous avons le plaisir de remettre un diplôme pour l’année 2017 :

 

  1. Floriane LAVERNE, Frédéric SEGONDS, Patrice DUBOIS

Pour leur article : [BM7017] Fabrication additive – Principes généraux, dans Travail des matériaux – Assemblage (février 2016)

 

  1. Marc RAPIN, Philippe LECONTE

Pour leur article : [BM4640] Éoliennes – Évolution, principes de base et potentiel de conversion, dans Machines hydrauliques, aérodynamiques et thermiques (janvier 2017)

 

  1. Joël SCHER

Pour son article : [F3300] Rhéologie, texture et texturation des produits alimentaires, dans Agroalimentaire (septembre 2014)

 

  1. Abdelilah SLAOUI

Pour son article : [BE8578] Électricité photovoltaïque – Principes, dans Ressources énergétiques et stockage (janvier 2013)

 

  1. Pascal BROCHETTE

Pour son article : [J2150] Émulsification – Élaboration et étude des émulsions, dans Formulation (décembre 2013)

 

  1. Bruno GAGNEPAIN

Pour son article : [BE8550] Biocarburants, dans Ressources énergétiques et stockage (avril 2016)

 

  1. André BONTEMPS, Jean-François FOURMIGUE

Pour leur article : [BE9517] Échangeurs de chaleur – Dimensionnement thermique, dans Thermique industrielle (octobre 2014)

 

  1. Jean GRENET, Bernard LEGENDRE

Pour leur article : [P1205] Analyse calorimétrique différentielle à balayage (DSC), dans Techniques d’analyse (décembre 2010)

 

  1. Christophe BALEY

Pour son article : [AM5130] Fibres naturelles de renfort pour matériaux composites, dans Plastiques et composites  (janvier 2013)

 

  1. Lian-Ming SUN, Francis MEUNIER, Nicolas BRODU, Marie-Hélène MANERO

Pour leur article : [J2730] Adsorption – Aspects théoriques, dans Opérations unitaires. Génie de la réaction chimique (décembre 2016)

 

L’équipe éditoriale

[email protected]

Electrification : un grand ferry suédois transportant 1500 passagers et 500 voitures passe à l’action

Plus discrète que dans le monde automobile la révolution des batteries lithium concerne aussi le transport maritime. Et c’est dans ce domaine qu’elle est la plus simple. Bien davantage que dans l’aviation.

Stena Line, l’une des plus importantes compagnies de transport privées du monde, a signé un accord de partenariat avec Callenberg Technology Group, une société suédoise, afin d’électrifier son ferry. Pour atteindre une autonomie de 10 miles (1 mile nautique = 1,852 kilomètres) il faudra équiper le Stena Jutlandica, long de 180 mètres, de batteries totalisant un volume de 20 MWh . Et de 50 MWh pour 50 miles. La Tesla Model S, longue de 4,97 mètres, est équipée d’une batterie de 100 kWh qui autorise environ 613 kilomètres d’autonomie en cycle normalisé.

La traversée entre les ports de Göteborg et de Frederikshavn s’effectue actuellement en 3H30, à une vitesse moyenne de 14 nœuds (environ 25 kilomètres par heure). En cas de succès de la phase de test sur son premier ferry Stena Line a annoncé vouloir électrifier l’ensemble de sa flotte de 38 ferries. Outre le Danemark Stena Line relie la Suède avec l’Irlande, le Royaume-Uni et les Pays-Bas.

La société française Bolloré a choisi l’option des supercondensateurs pour stocker l’électricité des ferries. Elle permet une charge très rapide, même si l’autonomie est plus faible qu’avec les batteries. Le transbordeur breton Ar Van Tredan permet de transporter 113 personnes pendant 7 minutes entre Lorient et Locmiquélic.

«La durabilité est au cœur de nos priorités et nous évaluons constamment de nouvelles façons de réduire notre impact sur l’environnement » a déclaré Niclas Mårtensson, le directeur exécutif de Stena Line. « Comme la taille et le coût des batteries diminuent, y recourir devient une alternative très intéressante comparativement aux carburants traditionnels ; et les émissions atmosphériques peuvent être complètement éliminées ».

France Nature Environnement a régulièrement alerté à propos de la nocivité des transports maritimes actuels. « En Europe, la pollution de l’air du transport maritime est responsable de 60 000 morts par an, soit l’équivalent de la totalité des habitants de Valence, Troyes ou encore de la ville de Chambéry » estime cette fédération d’ONG et associations environnementales.

Jean-Gabriel Marie

+500 GW : l’Asie va dominer les investissements dans les énergies renouvelables d’ici 2027

« Sismique ». La Chine et L’Inde se tailleront la part du Lion (ou du Dragon), totalisant 430 GW selon les estimations du cabinet BMI Research rapportées par la Singapore Business Review. « L’arme énergétique de la Chine vient en une couleur : le vert. Investir dans les énergies renouvelables contribue à atténuer l’influence des États-Unis (…) La Chine pivotant d’une aspiration des combustibles fossiles vers l’augmentation des investissements dans les nouvelles technologies énergétiques exportables représente un changement sismique sur le marché mondial de l’énergie » estime l’agence Bloomberg.

« Oubliez le dragon rouge de la Chine, craignez le vert renouvelable » a titré de son côté The Sydney Morning Herald. « Alors, pourquoi les États-Unis (et l’Australie) sont-ils maintenant idéologiquement attachés aux sources d’énergie et à la technologie du siècle dernier alors qu’ils sont aveugles aux embrassements chinois des sources d’énergie de ce siècle ? Sommes-nous si bêtes ? » interroge l’éditorialiste Crispin Hull. Selon un proverbe chinois « il vaut mieux se disputer avec quelqu’un d’intelligent que parler à un imbécile ». La future puissance géostratégique de la Chine repose sur un mot : l’énergie.

Il est peu probable que les campagnes médiatiques menées en Europe de l’ouest à propos des « terres rares », en recourant à des moyens parfois critiquables, conduisent à freiner la montée en puissance asiatique.

Elles ressemblent en réalité plutôt à un chant du cygne.

Jean-Gabriel Marie

L’Alliance solaire internationale officiellement lancée

Sous le solaire évidemment

Des chiffres qui donnent le tournis. L’ASI compte mobiliser pas moins de 1 000 milliards de dollars d’ici 2030 pour installer 1 000 GW d’énergie photovoltaïque sur le continent africain. C’est aujourd’hui l’énergie la moins chère et la plus facile à déployer sur le terrain. Elle sert bien sûr à produire de l’électricité mais peut également être utilisée pour le chauffage et le pompage de l’eau. Une problématique endémique sur le continent africain. Elle répond aussi au besoin d’accès à l’énergie dans les zones isolées où tirer des câbles électriques pour étendre le réseau s’avère bien trop coûteux.

C’est en partant de ce constat, que la France et l’Inde ont créé l’ASI en 2015, lors de la COP21 de Paris. Le but : mettre en place une organisation internationale qui faciliterait l’identification des projets solaire et surtout leur financement, le point sensible. Pas moins de 121 pays ont rejoint l’ASI, mais seuls une soixantaine ont aujourd’hui signé la charte, et seulement la moitié l’ont ratifié… « Cela peut sembler long mais pour une infrastructure de cette taille et de cette complexité, c’est plutôt rapide », explique un fin connaisseur du dossier.

1 000 milliards $ à investir

La visite présidentielle en Inde était donc l’occasion de faire avancer les choses. Un grand pas a été fait ce week-end avec la déclaration conjointe de cinq grandes institutions (Asian  development bank, Asian Infrastructure Investment Bank, African Development Bank, Green Climate Fund, International Energy Agency et New Development Bank) s’engageant à investir massivement dans les projets solaires pour atteindre la fameuse barre des 1 000 milliards de dollars d’ici 2030. Il s’agit d’une étape importante car si de nombreux projets ont d’ores et déjà été identifiés, les institutions financières sont encore frileuses à accorder des lignes de crédit dans des pays africains jugés risqués en raison des conditions géopolitiques, de l’absence de cadre réglementaire sur les énergies renouvelables, sans oublier le risque inhérent aux taux de change.

Reste désormais à passer à l’étape suivante : le financement concret de centrales solaires. Selon des sources proches de l’organisation, une centaine de projets soutenus par l’Alliance solaire internationale devraient être présentés à la prochaine Re-Invest Conference qui se tiendra en Inde du 19 au 21 avril prochain.

Romain Chicheportiche

Ecojoko, la start-up qui facilite vos économies d’énergies

Techniques de l’ingénieur : En quoi consiste votre solution Ecojoko ?

Laurent Bernard : Ecojoko est un assistant d’économies d’énergie qui repose sur une intelligence artificielle. Il est composé de deux boîtiers et d’une application pour smartphone. Le premier boîtier est à positionner sur le disjoncteur général. Il communique avec le second boîtier qui est à placer dans une pièce à vivre. L’assistant analyse la consommation liée au chauffage électrique et de tous les appareils électriques dont il capte le signal électrique.

Nos algorithmes reposent à la fois sur le machine learning et le deep learning. Un frigo, par exemple, n’a pas la même signature électrique qu’un lave-vaisselle. Le capteur posé sur le disjoncteur général mesure la consommation totale en temps réel. Les algorithmes reconnaissent la signature de chaque appareil et vont permettre de décomposer la consommation totale pour déterminer celle de chaque appareil du foyer. Pour sa part, le boîtier, placé dans une pièce à vivre, présente deux aiguilles. La première montre la consommation en watts en temps réel. La seconde situe la consommation actuelle par rapport à une semaine de référence pour mesurer les efforts de l’utilisateur.

E.T.I : Combien d’économies d’énergie peut-on espérer atteindre ? Quand est-ce que votre solution sera disponible ?

L.B : Le fait de pouvoir suivre sa consommation d’électricité en temps réel et d’être accompagné pour la réduire change les comportements. Cela été démontré par une étude du CNRS. Simplement en suivant sa consommation et en ayant un suivi appareil par appareil, l’utilisateur la baisse de l’ordre de 25 %. C’est un résultat supérieur à ce qu’il pourrait obtenir à travers des travaux d’isolation ou de rénovation qu’il pourrait entreprendre. En moyenne, l’économie annuelle est de 500€ par foyer.

La prévente sera lancée fin avril à 99 euros pour les premiers utilisateurs sur la plateforme KissKissBankBank. Son prix commercial sera ensuite de 199 euros. Nous nous concentrons sur l’électricité pour le moment, mais nous développerons probablement des solutions pour le gaz et l’eau par la suite. Pour la petite histoire, Joko est le nom d’un singe à Bornéo. Le singe est intelligent et bienveillant, tout comme notre solution !

ETI : Quelle est votre force par rapport à la concurrence ?

L.B : Aujourd’hui le principal enjeu de notre marché est de faire prendre conscience aux consommateurs du gain énorme qu’ils ont avec un assistant d’économie d’énergie, et ceux sans faire aucun travaux ! Ensuite, nous avons mené un long travail pour proposer la meilleure expérience utilisateur possible. L’installation du capteur sur le disjoncteur général peut être faîte par n’importe qui. Le design de l’assistant est pensé pour que même les enfants puissent comprendre les informations. Il y a un an, nous avons installé une première version d’Ecojoko dans une vingtaine de maisons et appartements. Nous avons obtenu en moyenne une économie d’énergie de 20 %. Ce n’était certes pas un échantillon représentatif, mais cela nous a permis d’améliorer notre produit. Nous en sommes désormais à la cinquième version de l’application.

Notre objectif est d’équiper 5 % des foyers français en trois ans. C’est très ambitieux, mais il s’agit là d’un objectif atteignable. Si l’on y parvient, nous avons calculé que cela permettrait d’éteindre l’équivalent d’un réacteur nucléaire. Pour ce faire, nous souhaitons développer de nombreux partenariats, en particulier avec des fournisseurs d’électricité.

ETI : Quelles informations et conseils donne l’application ?

L.B : La première chose que fait l’application est de séparer la consommation entre les appareils en veille et ceux en activité. La plupart des veilles ne servent à rien, mais coûtent environ 80 € par an aux ménages. L’application calcule vos économies et, grâce à une large base de données, situe votre consommation par rapport à une catégorie de référence. Elle calcule aussi vos émissions de CO2 et les réductions permettent de gagner des bananes à offrir à notre singe mascotte. L’écologie peut être drôle : notre solution est bonne pour la planète et le portefeuille !

L’application vous donne également la consommation annuelle de chacun de vos appareils et l’évolution de votre consommation par rapport à la semaine de référence. Elle propose trois actions très simples pour baisser votre consommation de chaque appareil. Si l’utilisateur veut aller plus loin, il a accès à plus d’une centaines d’actions simples supplémentaires.

Propos recueillis par Matthieu Combe

Une expédition sur les traces du réchauffement climatique #1

Marquée par la présence du plus gros fjord de l’île, le Scoresby  Sund, la région ressent d’autant plus l’impact du réchauffement climatique : épaisseur de plus en plus réduite de la banquise en hiver, faible régénération des glaciers voisins.

Avec leurs seules pulkas – traineaux d’expédition pour transporter du matériel – ils parcourront ainsi 300km sur les traces des fjords et montagnes voisines.

conserves400Au total, c’est avec 80kg chacun qu’ils s’élanceront le 16 Mars prochain.

Dans leur besace : tente, réchaud, piolet, duvet, pharmacie, fusil pour se défendre des ours polaires et bien sûr de quoi tenir pendant ces 5 semaines en autonomie totale.

preparatifs400Tout cela se prépare longtemps en avance, alors, pendant la période de Noël, ils ont méticuleusement préparé un fret pour envoyer tout leur matériel sur place, 2 mois avant le démarrage de l’expédition.

Courses, rationnement, conditionnement, pesage et mise sous vide sont de rigueur pour optimiser au mieux l’envoi.cargaison400

Pour les aider dans leur aventure, les 4 coéquipiers ont pu compter sur de nombreux sponsors : lunettes de glacier, vêtements techniques, chaussettes polaires, produits d’hygiène spécifiques leur ont été ainsi fournis. Ils ont aussi pu compter sur la participation d’entreprises pour les accompagner dans leur projet. OMEXOM, entreprise majeure actrice de la transition énergétique, a été séduite par leur approche curieuse : aller découvrir par soi-même les effets du réchauffement climatique et leurs conséquences sur l’environnement et les populations locales.

En attendant le départ, un programme intensif d’entrainement les a occupé pendant plus de deux mois pour arriver préparés au mieux dans cet univers aussi hostile que fragile, où nous vous proposons de les suivre pendant les 5 semaines de leur aventure.

Pour en savoir plus sur cette expédition :

Vents contraires pour les entreprises françaises au Gabon

Russie en embuscade ?

Le 16 février dernier, « des hommes en armes ont réquisitionné la SEEG – Société d’énergie et d’eau du Gabon, sur décision du Ministère de l’Eau et de l’Energie du Gabon » explique Veolia. La compagnie, filiale de Veolia à 51%, assure la production et la distribution d’eau potable et d’électricité sur l’ensemble du territoire. L’affaire a fait grand bruit en Afrique, et depuis Veolia et l’Etat gabonais s’opposent par medias interposés. « Nous avons des preuves accablantes, notamment des photos d’un lac pollué par les hydrocarbures », assurait à Jeune Afrique Patrick Eyogo Edzang, ministre de l’Eau et de l’Energie.

Depuis, la Russie semble avancer ses pions. Lors d’une conférence de presse organisée quelques jours plus tard, et fortement relayée par la presse gabonaise, l’ambassadeur russe à Libreville, Dmitri Kourakov, aurait indiqué l’arrivée prochaine du groupe RusHydro, 2ème producteur mondial d’hydroélectricité. De son côté, le gouvernement ne confirme pas et tente de jouer l’apaisement en rappelant que le successeur de Veolia pourrait tout aussi bien être un acteur français. Difficile à imaginer tant les relations se détériorent avec les compagnies issues de l’Hexagone.

Bolloré attaque, Bouygues s’en va

Veolia n’est pas le seul groupe à éprouver des difficultés au Gabon. Bolloré, un des symboles de la Françafrique, est également lancé dans une bataille juridique contre le Gabon. Le groupe breton a porté plainte contre l’Etat gabonais devant une cour d’arbitrage internationale dépendant de la Banque Mondiale. Il lui reproche de ne pas avoir respecté son engagement d’accorder l’exclusivité de construction et gestion du port d’Owendo. En effet, Libreville a signé en 2014 un autre partenariat avec la Gabon Special Economic Zone (GSEZ), filiale du groupe singapourien Olam, pour la construction d’un autre port en eaux profondes, rappelle Mediapart. De son côté, les autorités reprochent à Bolloré Africa Logistics de ne pas avoir réalisé les investissements prévus, renchérissant mécaniquement le prix final des produits importés grâce au port.

Alors que Bolloré se bat, d’autres ont jeté l’éponge. C’est le cas de Bouygues Energies & Services, présente depuis près de 70 ans au Gabon, qui a annoncé en octobre dernier, par vidéo-conférence depuis Paris, à ses 223 salariés la fin immédiate de ses activités dans le pays. La nouvelle a fait l’effet d’une bombe car rien ne semblait présager une telle décision. De leurs côtés, Egis et Aéroport de Marseille Provence (AMP) se sont vus notifier en début d’année la non-reconduction de leur contrat de concession de l’aéroport de Libreville, accordé en… 1988.

Romain Chicheportiche

Rium, le compteur Geiger « new look », sort en mai

C’est en mai prochain que débuteront les premières livraisons de Rium, le détecteur de radioactivité connecté, inventé par la société Icohup. «La production commencera quand les partenaires industriels seront qualifiés, confie Gaël Patton, cofondateur de Icohup. Ce produit sera fabriqué à 80% en France. L’assemblage sera réalisé à Limoges, dans nos locaux, car nous voulons garder la maîtrise du produit fini.»

Développé depuis fin 2015, ce détecteur de 250 grammes compte les particules alpha/beta/gamma et fait office de dosimètre et de spectromètre gamma. La mesure du radon sera ajoutée dans une prochaine version. Rium fonctionne en relation avec une application mobile iOS/Android, qui sert à visualiser les données. C’est le fruit du savoir-faire accumulé par Gaël Patton jusqu’au terme de ses études. «Ma thèse, réalisée à l’Institut lumière matière de Villeurbanne, portait sur les matériaux scintillateurs à destination de l’imagerie médicale, explique-t-il. Est venue l’idée de rendre accessibles au grand public ces technologies de détection de rayonnements ionisants

Bientôt embarqué sur des drones ?

Des travaux d’ingénierie s’imposent. «D’ordinaire, une grande quantité de composants électroniques sont nécessaires pour traiter le signal avant sa numérisation, détaille Gaël Patton. Pour la conception de Rium, nous avons adopté le schéma inverse, ce qui a pour avantage de supprimer beaucoup de composants. La consommation énergétique et le coût baissent, la compacité augmente. Le rapport qualité/prix est meilleur que celui d’un compteur Geiger. C’est un outil citoyen et pédagogique. Nous avons du reste le projet d’équiper des lycées et des universités. Des collectionneurs de minéraux peuvent aussi en avoir l’utilité, car certaines pierres sont susceptibles d’être légèrement radioactives

Les particuliers ne sont pas le seul public visé, toutefois. «L’industrie exprime aussi des besoins de supervision et de contrôle, constate Gaël Patton. En version professionnelle, Rium forme un boîtier étanche livré avec un logiciel plus perfectionné et une formule d’abonnement pour la collecte de données. Nous sommes également à la recherche de partenariats avec des dronistes, car la cartographie des potentielles zones à risque est une application envisageable, dans un cadre civil ou militaire. Une preuve de concept sera mise en place d’ici à l’été. Enfin, nous discutons avec l’Institut de radioprotection et de sûreté nucléaire (Irsn), qui pourrait utiliser Rium dans son système de surveillance du territoire

Rium, dans sa version grand public, produit de l’open data, à disposition des ONG et des pouvoirs publics. Autant dire qu’il peut servir à la fois le camp des pro et les antinucléaires. «Les uns et les autres sont des clients possibles. Nous fournissons un capteur et c’est tout» tranche Gaël Patton.

  • Prix : 399 € TTC pour la version grand public/590 € HT pour la version pro

Frédéric Monflier

Quand l’aluminium est plus fort que l’acier

La plupart des alliages d’aluminium légers gardent les propriétés de souplesse et de faible résistance mécanique intrinsèque à l’aluminium, limitant leurs applications industrielles. De récents travaux menés par des chercheurs de l’Université de Purdue (Etats-Unis) ont montré comment altérer la microstructure de l’aluminium pour lui conférer à la fois résistance et ductilité (capacité à se déformer sans rupture).

La qualité est dans les défauts

aluminum-samples

Cet aluminium super-fort a été fabriqué en introduisant des fautes d’empilements des feuillets du cristal (stacking fault) ou des maclages nanométriques. Des opérations qui sont très difficiles dans l’aluminium – comparés à d’autres métaux comme le cuivre ou l’argent – car l’aluminium possède une très haute énergie de faute d’empilement (« stacking fault energy ») et que l’introduction de macles nécessite des basses températures et des forces de déformations élevées.

Parmi les différents défauts et distortions possibles dans l’aluminium, les chercheurs se sont plus particulièrement intéressés à une faute d’empilement baptisé « 9R phase ». La première étape de ces travaux a donc consisté à trouver une méthode pour introduire les défauts « 9R phase » et des nanomacles permettant de rendre l’aluminium plus résistant et ductile et d’améliorer sa stabilité thermique. Deux techniques ont été mises au point pour cela.

Bombardement et pulvérisation

La première technique, qui a fait l’objet d’une publication en novembre 2017 dans Nature Communication, permet d’obtenir le défaut de phase 9R, en bombardant des films d’aluminium ultra-fin avec des micro-projectiles de dioxyde de silicium. Dans cette expérience menée avec des chercheurs de la Rice University un rayon laser éjecte des particules à plus de 600m/s sur différents films d’aluminium. On observe ensuite les dégâts. La méthode qui a permis de créer de défaut 9R phase permet d’ailleurs aussi de tester la résistance aux chocs.

La deuxième technique, relatée dans un article de janvier 2018 d’Advanced Materials décrit comment induire ce défaut non par chocs mais en introduisant des atomes de fer dans la structure cristalline de l’aluminium. Elle s’appuie sur une technique de pulvérisation cathodique magnétron. L’étude montre que l’introduction d’environ 5 % de fer dans le réseau d’aluminium permet la formation de nombreuses fautes d’empilement de type 9R phase. Les revêtements ainsi formés par l’alliage fer-aluminium nanomaclés se sont révélés extrêmement forts, comparables aux aciers les plus résistants affirment les chercheurs. Ces résultats ouvrent la voie à la création de nouveaux alliages d’aluminium légers et résistants pour l’industrie et à la création d’autres alliages métalliques s’appuyant sur le même principe d’amélioration des qualités de résistances et de ductilité par l’introduction de nanomaclage et de fautes d’empilements de type 9R phase.

Sophie Hoguin

L’énergéticien français Neoen va entrer en bourse d’ici fin 2018

Jacques Veyrat, via sa société Impala, est aujourd’hui l’actionnaire principal (56%) de Neoen. Cette entreprise française est spécialisée dans le solaire, l’éolien mais aussi les solutions de stockage. Elle a été choisie le 22 novembre 2017 par le Mexique pour la réalisation de son projet solaire photovoltaïque de 377 MWc situé dans l’état d’Aguascalientes, lequel entrera en service en juin 2020. Il s’agit d’un projet de puissance supérieure à celle de la centrale solaire de Cestas (300 MW) près de Bordeaux, qui est pourtant la plus grande d’Europe.

Neoen a installé en Australie du sud la plus grande batterie lithium du monde, en partenariat avec le groupe américain Tesla. « Peut-on recourir à une batterie pour stocker à l’échelle d’un état ? ». Sur la chaîne BFM TV Xavier Barbaro a répondu en décembre 2017: « Avec des batteries, oui. »

L’entreprise envisage à présent d’expérimenter la production d’hydrogène, également en Australie, ceci pour le marché de l’export (principalement vers l’Asie). C’est ce qu’elle a annoncé le 7 mars 2018, soit la veille de la présentation des résultats du groupe Engie qui a fait de l’hydrogène l’un de ses chevaux de bataille.

Comme son site officiel l’indique, Neoen a installé 1,125 MW de capacités solaires et éoliennes dans le monde, et 800 MW supplémentaires sont dans le pipeline. « Notre objectif est d’atteindre 3000 MW en 2020 » avait indiqué en août 2017 Xaxier Barbaro, PDG du groupe, à l’occasion d’une interview pour le média spécialisé PV Magazine.

Jean-Gabriel Marie

Une collision catastrophique à l’origine de la comète Tchouri

Depuis Giotto visitant la comète de Halley en 1986, quelques sondes spatiales ont permis d’approcher plusieurs noyaux de comètes. Or, la majorité d’entre eux sont apparus allongés voire formés de deux lobes, comme la célèbre « Tchouri » observée de très près par la sonde Rosetta en 2014 et 2015. Les astronomes considèrent que cette forme étonnante s’explique par la jonction de deux anciennes comètes distinctes. Deux comètes forcément très peu denses et riches en éléments volatiles, donc évoluant très lentement, pour permettre un rapprochement en douceur et un contact qui ne les fasse pas exploser. Pour plusieurs raisons, il est supposé habituellement que ce type de rencontres en douceur ne se produit que dans les premières phases du Système solaire, il y a plus de 4 milliards d’années. Toutefois, un mystère demeure : comment des corps de la taille de Tchouri et aussi fragiles, nés il y a si longtemps, ont-ils pu survivre jusqu’à nous, alors qu’ils sont soumis constamment aux collisions dans les régions où ils évoluent ?

Une équipe internationale, comprenant notamment un chercheur français du laboratoire Lagrange, propose aujourd’hui un tout autre scénario, grâce à des simulations numériques en partie effectuées sur le Mésocentre Sigamm de l’Observatoire de la Côte d’Azur. Celles-ci ont montré que lors d’une collision destructrice entre deux comètes, seule une faible partie de la matière est pulvérisée à haute vitesse, réduite à l’état de poussières. Mais à l’opposé du point d’impact, les matériaux riches en éléments volatiles peuvent résister, et être éjectés à des vitesses relatives suffisamment faibles pour s’attirer et se ré-accumuler en formant de nombreux petits corps, qui s’agglutinent à leur tour pour n’en former qu’un seul. Un processus qui ne prend que quelques jours, voire quelques heures ! Et la comète ainsi produite préserve une faible densité et sa richesse en substances volatiles, comme Tchouri.

Ce phénomène serait possible même lors d’impacts à la vitesse d’1 km/s, typique dans la ceinture de Kuiper, l’anneau de comètes situé au-delà de Neptune d’où provient Tchouri.
Ce type de collisions entre comètes se produisant régulièrement, alors Tchouri a pu naître à n’importe quel moment de l’histoire du Système solaire et pas forcément à ses débuts, comme cela semblait acquis, réglant le problème de sa survie pendant si longtemps.

Ce nouveau scénario permet également d’expliquer la présence de trous et de couches stratifiées observés sur Tchouri : ceux-ci se seraient bâtis naturellement lors du processus de ré-accumulation, ou plus tard après sa formation.

Enfin, lors de la collision à l’origine de ce type de comètes, puisqu’aucune compaction ni échauffement significatifs ne se produisent, la composition primordiale est préservée : ces nouvelles comètes demeurent bien des objets primitifs. Même si Tchouri s’est formée récemment, l’analyse de sa matière nous permet bel et bien de remonter aux origines du Système solaire.

© ESA/Rosetta/Navcam – CC BY-SA IGO 3.0 Image de l'étape finale d'une simulation de collision catastrophique de comètes effectuée par les auteurs, montrant l'un des objets formés par réaccumulation des débris de la collision de forme identique à Tchouri.
© ESA/Rosetta/Navcam – CC BY-SA IGO 3.0
Image de l’étape finale d’une simulation de collision catastrophique de comètes effectuée par les auteurs, montrant l’un des objets formés par réaccumulation des débris de la collision de forme identique à Tchouri.
© ESA/Rosetta/Navcam – CC BY-SA IGO 3.0 Image de la comète Tchouri prise par la sonde Rosetta
© ESA/Rosetta/Navcam – CC BY-SA IGO 3.0
Image de la comète Tchouri prise par la sonde Rosetta

Références :

Catastrophic disruptions as the origin of bilobate comets. Stephen R. Schwartz, Patrick Michel, Martin Jutzi, Simone Marchi, Yun Zhang and Derek C. Richardson. Nature Astronomy, le 5 Mars 2018.
DOI 10.1038/s41550-018-0395-2

Source : cnrs

Le solaire + éolien limités à 80% dans le mix électrique des USA ?

D’un point de vue théorique, selon cette étude (Shaaner et al) dont fait écho par exemple le magazine Sciences et avenir (« Usa : éolien et solaire peuvent fournir 80% de la demande en électricité »), il faudrait multiplier de façon massive le volume de stockage pour parvenir au graal des 100%. L’étude montre l’impact de différents volumes de stockage (3, 6, 12, 24 heures et 2, 4, 8, 16 et 32 jours) sur le niveau de solaire + éolien alors possible (page 13).

Autre stratégie possible : surdimensionner la puissance solaire et éolienne installée, et produire en excès. Si un niveau de surproduction de 50% est accepté, alors il est possible de parvenir à 99,63% de solaire + éolien (moitié, moitié). Pour les 0,37% restants (ce qui correspond à 32 heures), accepter quelques coupures d’électricité est une option possible. Accepter un niveau de perte de 10 ou 20% permet déjà d’optimiser significativement le niveau de solaire + éolien. Atteindre un niveau de 50% n’est pas forcément souhaitables compte-tenu de l’impact paysager des parcs éoliens et solaires.

Dans le cas d’un mix uniquement basé sur le solaire (0% d’éolien), le niveau maximal envisageable est de 93,86%, ceci en acceptant une surproduction de 50%. Le solaire est en général mieux accepté que l’éolien, pour des raisons paysagères. Un mix ¾ solaire et ¼ éolien permet d’atteindre les 98,74%, ceci en acceptant une surproduction de 50%.

Une troisième stratégie est possible : muscler les réseaux électriques pour favoriser les effets de lissage entre régions éloignées. Mais, contrairement à la solution reposant sur le stockage batterie, recourir à des lignes électriques pose un problème d’acceptation paysagère et n’élimine pas la dépendance envers plusieurs métaux.

Il est enfin possible de choisir la solution du back-up thermique, tout en recourant à un combiné des trois autres solutions. La consommation de gaz fossile est alors modeste, bien inférieure à 20%, ce qui est compatible avec les objectifs climatiques de l’ONU visant à limiter l’ampleur du réchauffement anthropique. Un back-up reposant sur des centrales nucléaires est difficilement envisageable compte-tenu des aspects cinétiques (ramp-up) et économiques : construire une centrale nucléaire est coûteux et cela n’a de sens que si son facteur de capacité est élevé.

Le coût d’installation d’1 GW de centrale à gaz est environ 10 fois plus faible que celui d’1 GW de nouveau nucléaire EPR. Ces centrales thermiques ne seront utiles que de façon très ponctuelle. Elles deviendront inutiles quand le coût des batteries aura été divisé par un facteur d’environ 20 comparativement au coût actuel. Le coût des batteries lithium s’est effondré d’un facteur 5 entre 2010 et 2017.

L’équipe de l’ICE a analysé 36 années de données météorologiques américaines (de 1980 à 2015) afin de comprendre les barrières géophysiques fondamentales à la fourniture d’électricité avec seulement l’énergie solaire et éolienne.

Dès 2012, NREL avait publié un rapport suggérant que les États-Unis pourraient couvrir 80% de leurs besoins en énergie éolienne et solaire, avec divers degrés de dispatchabilité, une combinaison de production conventionnelle flexible et de stockage et des investissements dans les réseaux.

En avril 2017, « l’Initiative sur les politiques climatiques » a publié un autre rapport novateur intitulé « Flexibilité, Le chemin vers des réseaux électriques à faible émission de carbone et à faible coût ». Le groupe a montré que le coût maximum de ce système basé sur l’énergie renouvelable est aujourd’hui compétitif par rapport à un système basé sur le gaz avec un prix du carbone de 50 $ la tonne. D’ici 2030, il sera compétitif même sans intégrer un prix du carbone. Le chercheur Amory Lovins, fondateur du Rocky Moutain Institute, a répondu à une question d’importance stratégique dans un article publié récemment dans la revue Energy Research & Social Science: « Qui peut remplacer plus rapidement la production d’électricité à partir de combustibles fossiles – l’énergie nucléaire ou les énergies renouvelables modernes? Contrairement à un mythe persistant basé sur des méthodes erronées, les données mondiales montrent que l’électricité renouvelable augmente la production et économise du carbone plus rapidement que l’énergie nucléaire ne l’a jamais fait. »

Une guerre de communication ?

Le chercheur Mark Jacobson (Stanford) a proposé en février 2018 trois stratégies pour parvenir à un mix électrique 100% renouvelable. L’étude est disponible depuis le site de Stanford University. Contacté par voie électronique ce scientifique californien n’est pas enthousiaste à propos de l’étude Shaaner et al, dont le climatologue pro-nucléaire Ken Caldeira fait partie des quatre co-auteurs. Techniques de l’ingénieur publie ici en intégralité son commentaire, avec son aimable autorisation :

« Non, je ne suis pas d’accord avec cette étude. Dans une étude que nous avons publié la semaine dernière nous contredisons ce qu’ils affirment.  Un système 100% éolien, hydraulique et solaire peut alimenter non seulement le secteur de l’énergie électrique, mais tous les secteurs énergétiques (électricité, transport, chauffage / refroidissement, industrie, agriculture / foresterie / pêche) et pas seulement pour l’Amérique du Nord mais aussi pour les 20 régions du monde examinées et sous 3 scénarios de stockage différents dans chaque cas. Notre étude diffère de la leur de la façon suivante:

  1. Ils ignorent les énergies renouvelables à l’exception du solaire et du vent; à savoir hydro et géothermique existantes. De notre côté nous avons comptabilisé ces dernières.
  2. Ils ne tiennent pas compte de la réponse à la demande, ils supposent donc qu’il est impossible d’inciter les gens, par exemple, à faire fonctionner leur lave-vaisselle et leur lessive la nuit en leur offrant de meilleurs taux nocturnes. Nous avons expliqué cela.
  3. Ils ne parviennent pas à électrifier tous les secteurs énergétiques, leurs profils de demande pour un futur système d’énergie renouvelable sont donc incorrects, car le chauffage / refroidissement électrifiés, par exemple, augmente l’électricité nocturne pour la chaleur (coïncidant avec le vent) et le refroidissement diurne (solaire) et le transport électrifié crée une énorme charge flexible qui peut être décalée dans le temps.
  4. Ils ne tiennent pas compte du stockage de chaleur ou de froid et supposent que le stockage d’électricité est une boîte noire, alors qu’en réalité il est souvent lié à l’énergie hydroélectrique et à l’énergie solaire concentrée (stockage thermique à base de sels fondus ndlr), qui sont beaucoup moins chères que les batteries.
  5. Ils ne parviennent pas à projeter des charges à 2050 ou à les réduire de 42 à 58%, comme c’est le cas avec un système Wind Water Sun (WWS) à 100% (voir le document ci-dessus).
  6. Leur jeu de données sur le vent est à la mauvaise hauteur – 50 m, alors que les hauteurs des moyeux des éoliennes sont toutes maintenant de 80 à 120 m. Notre étude modélise les vents à une hauteur de moyeu de 100 m.
  7. Une autre différence est que nos champs de vent, par exemple, sont à une résolution de 30 secondes. Ils utilisent une résolution d’une heure.

Dans l’ensemble, il s’agit d’un exemple classique d’auteurs qui tentent de publier une étude portant sur un problème particulier (la dépendance temporelle des ressources solaires et éoliennes par rapport à la demande) pour affirmer que cela s’applique à autre chose.

Non seulement leur étude est beaucoup plus simple que les études de base d’il y a 8 ans, qui ont montré que les énergies éolienne, solaire et hydraulique en Californie pouvaient, à elles seules, correspondre à la demande avec 99,8% de sources sans carbone mais il existe au moins 30 articles publiés dans des revues à comité de lecture qui sont beaucoup plus détaillés que ce nouveau document et montrent qu’il est possible de faire coïncider la demande et l’offre avec les seules énergies renouvelables à travers le monde. »

Jean-Gabriel Marie

 

Crowdlending : anatomie d’une stratégie réussie

Le crowdlending est un financement participatif de pair-à-pair permettant à des particuliers de financer directement des projets ou des entreprises sous forme de prêts rémunérés. Apparu au début des années 2010, le crowdlending s’est rapidement développé via des plateformes sur internet et représente plus de 190 millions d’euros de prêts aux entreprises en France en 2017. Toutefois, développer une plateforme de crowdlending n’a pas toujours été chose facile; c’est pourquoi des chercheurs se sont demandés quelles stratégies un entrepreneur peut-il mettre en œuvre pour développer un « business model » innovant vis-à-vis des acteurs en place (les banques) et de ses futurs concurrents (autres plateformes du secteur) ?

Pour répondre à cette question, les chercheurs ont réalisé des entretiens qualitatifs avec les différents acteurs du secteur et analysé le cas particulier d’un pionnier du crowdlending étant parvenu à innover à deux niveaux. D’un côté, il a créé une niche, dont il était le seul acteur de fin 2013 à 2016, qui lui a permis de contourner le monopole bancaire en place. De l’autre, il a aidé au développement d’une règlementation qui « protège » désormais toutes les entreprises du crowdlending et a favorisé le développement de ce marché en France. Sa stratégie a bénéficié à la fois à son entreprise et à l’ensemble du secteur.

Pour cela, la stratégie de l’entrepreneur peut se résumer en trois actes. Le premier a consisté à contourner le monopole bancaire sur sa plateforme grâce au « bon de caisse », un outil datant de 1937 et depuis longtemps oublié, qui permet de réaliser des prêts de particulier à particulier sans l’intermédiaire d’une banque. Dans un deuxième temps, en collaborant avec ses futurs concurrents, les pouvoirs publics et les régulateurs du secteur, l’entrepreneur a contribué à l’élaboration d’une régulation pérenne du crowdlending en France. Cette collaboration s’appuie sur la création d’une méta-organisation, « Financement Participatif France » (FPF), qui a œuvré pour la définition du statut d’Intermédiaire en Financement Participatif (IFP), régulant ce nouveau marché. Dans son activité, l’entrepreneur persiste néanmoins à utiliser le bon de caisse plutôt que ce nouveau statut car il n’est pas obligatoire et est surtout plus restrictif que le bon de caisse. Il reste ainsi le seul utilisateur de cet outil pendant trois ans jusqu’à ce qu’une nouvelle légifération mette fin à sa stratégie, dans un troisième et dernier temps.

C’est la première fois que les chercheurs observent la réussite d’une telle stratégie de « coopétition », c’est-à-dire articulée sur des niveaux concurrentiels et coopératifs en même temps, dans un secteur nouveau avec de fortes barrières à l’entrée, initialement sans règlementation propre et contournant une industrie très protégée et installée depuis longtemps. Cette stratégie de collaboration entre régulateur de marché et plateformes via une méta-organisation est également la voie explorée par un autre secteur encore mal cerné : celui des crypto-monnaies.

Références :
Stratégies de conquête d’un nouvel espace de marché : la structuration du crowdlending. Héloïse Berkowitz et Antoine Souchaud, Gérer et Comprendre, 1er mars 2018.

Source : cnrs

Trois technos de rupture selon le MIT

Ville intelligente, nouvelles protéines grâce à l’informatique quantique, gaz naturel zéro carbone… La livraison 2018 de cette publication du Massachusetts Institute of Technology (MIT) couvre divers domaines. Nous ne reviendrons pas sur la ville intelligente, un sujet déjà couvert par notre site, ou les autres sujets qui restent encore assez hypothétiques.

Parmi les innovations mises en avant, nous en avons retenu trois : l’intelligence artificielle, la traduction en temps réel et l’impression 3D du métal.

L’IA au service des entreprises

L’IA commence à être un marronnier tant les annonces se multiplient. Mais pour cette revue, la « révolution » va être la démocratisation de l’IA. De très nombreux secteurs (la médecine, la fabrication et l’énergie) pourraient profiter de l’IA et de la puissance de calcul du cloud.

De plus en plus de fournisseurs dans le cloud proposent en effet aux entreprises, qu’elles que soient leur taille et leur activité, de s’appuyer sur leurs infrastructures pour améliorer leur performance et automatiser des tâches comme l’analyse de gros volumes de données.

En utilisant conjointement des outils big data, le machine learning et les ressources du cloud, les entreprises peuvent par exemple mieux comprendre les attentes de leurs clients ou repérer une tendance forte de leur marché. Sous catégorie de l’IA, le machine learning est la faculté qu’ont des machines d’apprendre et de s’améliorer elles-mêmes, en tirant les leçons de leurs propres erreurs

L’avis du MIT Technology Review rejoint celui d’Ariane Bucaille, Associée responsable TMT pour Deloitte en France : « au cours des prochains mois, le machine learning sera déployé dans les entreprises, mais il ne sera pas encore omniprésent. Cette année est un point de bascule où l’adoption du machine learning par les organisations est en passe de s’accélérer et d’aider ces dernières en travaillant plus rapidement et de façon plus souple ». Mais l’expérience et l’intuition humaine des Data scientist resteront essentielles pour analyser correctement les tendances mises en avant par des algorithmes.

In English dans mes écouteurs

La reconnaissance vocale améliorée grâce à l’IA et le cloud devraient aussi favoriser le développement de la traduction en temps réel. Plusieurs entreprises proposent des modèles d’écouteurs capables de traduire des conversations en plusieurs langues. Ceux de Google, les Pixel Buds (vendus uniquement aux États-Unis), s’appuient évidemment Google Traduction. D’autres, comme les Pilot (encore au stade de prototype) de Waverly Labs et Click de Mymanu utilisent leur propre programme.

L’impression 3D en métal pour aller plus vite

Cette technologie n’est pas récente. Mais la fabrication additive, avec autre chose que des matières plastiques (dont le thermoplastique), en particulier le métal, a été coûteuse et lente. Le développement de l’impression en métal devrait révolutionner l’industrie manufacturière. Elle devrait permettre aux entreprises de produire sur demande des éléments plus ou moins complexes et fonctionnels. Certains fabricants offrent maintenant des imprimantes 3D pour métal autour de 100 000 euros.

En 2017, des chercheurs du Lawrence Livermore National Laboratory avaient annoncé la mise au point d’une technique d’impression 3D capable de créer des pièces en acier inoxydable deux fois plus résistantes que les traditionnelles.

Avec ces procédés, les industriels, mais aussi les commerçants n’auraient pas besoin de maintenir des stocks importants. Ils pourraient par exemple imprimer un objet, comme une pièce de remplacement pour une voiture pas très récente, chaque fois que quelqu’un en a besoin. Mais l’armée américaine n’a pas attendu l’impression en métal. Elle utilise la fabrication additive (thermoplastique) pour limiter la quantité de pièces détachées sur ses porte-avions.

Philippe Richard

Cadres : les nouvelles compétences indispensables

L’étude sur les mobilités vers le secteur de l’aéronautique montre qu’au-delà de l’expertise technique, préalable à toute mobilité vers le secteur, sont désormais indispensables des compétences transverses telles que la capacité à échanger dans un environnement de travail international, le management d’équipes projet ou encore les compétences relationnelles.

En plus des exigences sur les compétences cœurs de métier, spécifiques à chaque fonction et sur lesquelles il peut y avoir des exigences d’expertise, six groupes de compétences transverses ont pu être identifiées. Il ne s’agit pas de maîtriser toutes ces compétences dès le début de son parcours professionnel, mais d’être conscient que ces compétences seront un atout pour les cadres qui voudront continuer à évoluer dans leur métier et leur entreprise.

La réglementation

Pour faire face aux défis de la réglementation, les cadres devront avoir des appétences pour les sujets technico-réglementaires. Les contraintes réglementaires impactent tous les secteurs et tous les métiers, y compris les métiers de la R&D. Il ne s’agit pas d’être un expert en droit (sauf pour les juristes et fiscalistes), mais d’être capable d’appréhender les impacts de nouvelles réglementations et de poser les bonnes questions aux experts juristes et fiscalistes.

Les outils digitaux

Les compétences dans la maîtrise des outils digitaux, de la modélisation et du traitement des données dépassent désormais la simple utilisation des outils bureautiques, voire des outils décisionnels. La capacité à maîtriser les outils informatiques à un haut niveau de technicité est, par exemple, une compétence attendue pour les chercheurs. Grâce à l’augmentation spectaculaire des flux d’information et au potentiel d’exploitation grâce au numérique (données d’usage, de comportement et de géolocalisation notamment), le traitement des données massives et leur analyse se sont largement développés dans tous les domaines du marketing afin d’analyser le parcours client, ou encore le secteur de l’assurance pour la politique de tarification, jusqu’au secteur sanitaire où les capacités à modéliser les données d’informations médicales s’imposent au médecin DIM. Les indicateurs de suivi, les outils d’aide à la décision ont envahi notre quotidien et il est demandé aux cadres de tirer au maximum profit de ces outils pour accroître leur performance.

La gestion de projets

Elle demande la maîtrise de processus organisationnels innovants : la gestion de projets, de plus en plus souvent collaboratifs et le management moins hiérarchique nécessitent de savoir piloter des équipes transverses (et interdisciplinaires) sur des projets de plus en plus complexes. Ainsi, implémenter les objets connectés va demander de savoir développer et intégrer des solutions complexes faisant cohabiter des solutions existantes et en devenir, et intégrer des domaines divers tels que les mécanismes de connectivité, la transmission de données, les systèmes de communication sans fil, la mécanique.

Le management des équipes

Il va souvent nécessiter de savoir travailler au sein d’équipe multidisciplinaires et éventuellement, du fait de la mondialisation, multiculturelles. Cette compétence est considérée comme essentielle dans certains secteurs comme l’aéronautique et ne se limite pas à l’usage quotidien de l’anglais. L’exigence de spécialisation et de polyvalence va nécessiter de savoir faire travailler ensemble des experts n’ayant pas les mêmes cultures professionnelles ni les mêmes langages.

La capacité à gérer des équipes interdisciplinaires et à développer un réseau était soulignée dans les compétences attendues du chercheur français. La capacité à développer un réseau de compétences sur lequel s’appuyer en cas de besoin afin d’optimiser ses actions est considérée comme faisant partie intégrante de la fonction, de même qu’il est demandé à tous les cadres de savoir communiquer tant en interne qu’en externe de façon à être compris par tous, et de savoir « vendre » ses projets.

La stratégie globale des entreprises

La capacité à prendre en compte la stratégie globale de l’entreprise et ses enjeux commerciaux se retrouve dans tous les métiers. Ainsi, présenter sa thèse en 180 secondes transforme un sujet de thèse en un exercice plus commercial que scientifique. Alors que les contraintes de rentabilité sont prégnantes à tous les niveaux, il est demandé à tous, grâce aux outils de suivi que les technologies numériques mettent à notre service, de mesurer sa contribution au développement de son entreprise.

L’approche systémique

Doté de toutes ces compétences, les cadre doivent avoir une approche systémique, comprenant les enjeux stratégiques de l’entreprise et ayant une vision globale de sa place dans l’écosystème de l’entreprise. Cette approche doit leur permettre de savoir arbitrer les projets de son entité en fonction de la stratégie globale de l’entreprise. Ils doivent par exemple être capable de gérer des projets innovants tout en s’inscrivant dans une démarche de RSE, prenant en compte les problématiques de la transition écologique dans son quotidien, mais également celles liées aux problématiques sociales. Car la RSE est considérée comme un outil de management, de communication et de développement par les entreprises qui la mettent en œuvre.

Le savoir être

Certaines des compétences transverses décrites ci-dessus renvoient à l’importance du savoir-être (ou qualités individuelles). Savoir s’adapter à un nouvel environnement, avoir une ouverture d’esprit sont des qualités réclamées, par exemple, par les entreprises du secteur, très mondialisé, de l’aéronautique. L’ouverture d’esprit, la créativité, l’adaptabilité sont considérées comme des qualités incontournables pour les chercheurs. Dans le bâtiment et l’industrie du futur, au-delà de la rigueur qui est une évidence dans ces domaines très techniques, les entreprises sont très attentives au sens relationnel de leurs collaborateurs et collaboratrices.

Source : Apec

Transformation numérique : quel impact sur les cadres ?

Les Smacs (Social, Mobility, Analytics, Cloud, Security) synthétisent les principales évolutions technologiques du numérique à l’heure actuelle. Réseaux sociaux, internet des objets, applications multi device, impression 3D, virtualisation, traitement des données massives, sécurisation des données, etc. La transformation numérique des entreprises, ainsi que celle de l’ensemble des individus du fait des nouveaux usages, ont un impact sur l’ensemble des métiers, que ce soit ceux des systèmes d’information ou ceux de l’ensemble des autres fonctions.

Les évolutions rapides de l’informatique ont amené à la création de métiers, qui restent néanmoins des métiers de niche. Ainsi, les problèmes liés au stockage de données de plus en plus massives dans le cloud, en garantissant de bonnes pratiques environnementales et en matière de sécurité, disponibilité et fiabilité des données, ont conduit au recrutement de responsables de data centers. C’est aussi le besoin de maîtrise de la fiabilité et de la disponibilité des applications qui a incité les très grandes entreprises à se doter de gestionnaires de contrats informatiques, chargés des relations avec les sous-traitants.

Les problématiques de sécurité sont devenues une source de création ou de transformation des emplois. Poussées par les contraintes réglementaires, mais aussi par les problèmes d’intrusion ou de pertes de données, les entreprises tentent de maîtriser certains risques en se dotant de responsables de sécurité des systèmes d’information, d’ingénieurs sécurité informatique (cybersécurité), voire d’experts en cryptologie. Le nombre d’offres d’emploi diffusées par l’Apec pour les postes en cybersécurité – principalement ingénieur sécurité et RSSI – ont quadruplé entre 2014 et 2016. La sécurité fait également partie des compétences que doivent posséder les ingénieurs et chefs de projets maîtrise d’œuvre, les ingénieurs systèmes et réseaux, les responsables et architectes infrastructures.

Les métiers traditionnels de l’informatique sont bouleversés en permanence par les nouvelles technologies venues de l’internet. Les technologies web se sont étendues à une grande partie de l’informatique d’entreprise ; les développements pour les applications mobiles doivent être envisagés, nécessitant la prise en compte de problématiques d’urbanisme et d’architecture fonctionnelle et technique croissantes avec la taille des systèmes d’information.

Les fonctions informatiques sont également impactées par la nécessité pour les entreprises de traiter et valoriser de multiples données internes et externes de plus en plus massives et éventuellement non structurées. Les métiers de la data, comme celui de data scientist, de data architect ou de data manager se développement, dans les services mais également dans l’industrie. Cette évolution a également des impacts sur des métiers à la frontière avec le marketing ou la stratégie d’entreprise comme les data officers.

Au-delà des métiers informatiques, beaucoup d’autres activités sont impactées par le numérique ; le bâtiment du futur ou l’industrie du futur en sont des symboles. L’industrie du futur, appelée aussi industrie 4.0, se caractérise avant tout par une intégration massive d’outils numériques sur toutes les dimensions de la chaîne industrielle : conception, fabrication, logistique, maintenance, vente. Les exemples concrets sont nombreux. La simulation numérique d’une usine permet ainsi de tester facilement de nouveaux procédés. L’impression 3D (appelée plus souvent fabrication additive) d’objets ou de pièces ouvre de nouvelles perspectives en matière de personnalisation de la production. L’utilisation de capteurs connectés (Internet des objets) sur des machines permet de récupérer des données massives (big data) qui faciliteront les opérations de maintenance (maintenance prédictive). Des logiciels spécialisés facilitent le partage d’informations sur l’ensemble du cycle de vie d’un produit (PLM : product lifecycle management), etc. Côté bâtiment du futur, le BIM (building information modeling) peut être utilisé de la conception à la destruction, en passant par la construction et la maintenance. Il constitue un outil numérique de centralisation de l’information, de co-conception, de collaboration, de pilotage de la réalisation d’un projet de construction.

De même, la digitalisation et l’usage des réseaux sociaux a fait se développer ou se transformer un grand nombre de métiers du marketing. Ces métiers d’analyse de la relation client ou des données marketing utilisent de nouveaux outils afin de produire des recommandations opérationnelles créatrices de valeur pour l’entreprise en prenant en compte la multiplication des canaux de vente et de communication avec les clients.

C’est également le cas de métiers de la fonction ressources humaines. Le responsable recrutement diffuse des offres d’emploi sur Internet, emploie des logiciels de présélection de candidatures, utilise les réseaux sociaux pour chasser les candidats ou pour se renseigner sur eux, gère ses recrutements grâce à des applications informatiques. Le responsable formation innove dans les sessions qu’il propose aux salarié·e·s : Mooc, blended learning, elearning, etc.

L’ensemble des métiers de l’industrie utilise les objets connectés pour la plupart des métiers de la maintenance, de la production ou de la logistique. Ainsi, les métiers de la logistique sont transformés par l’Internet des objets qui permet, grâce à une technologie embarquée, de suivre les containers en temps réel et de planifier de manière de plus en plus précise les livraisons. Dans l’industrie, la fabrication additive ou impression 3D contribue au développement de métiers informatiques tels que celui d’ingénieur développement de logiciels de conception 3D, mais opère également des transformations dans des métiers classiques comme celui d’ingénieur conception, impliquant de concevoir différemment des produits ou des pièces.

Dans la chimie du végétal, on voit apparaître de nouvelles compétences à la croisée de l’informatique et de la biologie. On assiste ainsi à l’émergence des bioinformaticiens, qui créent les logiciels et bases de données pour traiter les informations issues du vivant.

Dans le secteur sanitaire, l’utilisation de mannequins intelligents et les techniques de e-learning ont amené les responsables pédagogiques à repenser les formations en soins infirmiers. Le médecin DIM (département d’information médicale) optimise les outils informatiques permettant d’effectuer le codage des actes et exploite des données pour suivre l’activité opérationnelle et économique de l’établissement.

Aujourd’hui, ces facteurs d’évolution peuvent s’interpénétrer ; ainsi les contraintes réglementaires sont porteuses d’innovations et certains estiment que « les innovations naissent aujourd’hui davantage de contraintes ou d’évolutions réglementaires que d’une réelle liberté d’innovation comme dans le passé ». La transformation numérique est porteuse d’innovation non seulement dans la sphère technologique, mais également dans l’organisation des relations entre les acteurs. La transition énergétique s’appuie sur l’innovation technologique et est portée par les règlementations issues du Grenelle de l’environnement.

Source : Apec

MWC18 : le mobile, objet de loisirs

Il est loin le temps où toutes les marques ou presque étaient présentes en Espagne pour présenter leur nouvelle gamme de téléphone. Aujourd’hui, on parle toujours un peu des appareils, mais surtout d’innovations technologiques. Mais à la différence de l’augmentation de la diagonale d’écran (et de sa définition), de l’épaisseur de l’appareil ou encore de la vitesse de connexion, la majorité des innovations seront transparentes pour les utilisateurs.

Ainsi d’ici à 2020, la mémoire qui équipera les smartphones augmentera fortement, passant de 32 Go à 128 Go. Et les nouveaux processeurs, capteurs, logiciels et solutions basées sur l’IA transformeront les usages.

Il n’est donc pas étonnant que les allées de ce salon aient résonné d’annonces concernant la 5 G (les premiers déploiements commerciaux devraient commencer cette année et l’an prochain aux États-Unis, en Corée et au Japon), le LiFi (Light Fidelity, une alternative au Wi-Fi dont la bande passante n’est pas limitée) et bien sûr l’Intelligence artificielle (IA) comme tout événement high-tech !

Cette édition confirme que le smartphone ne sert plus uniquement à téléphoner. Ce sera de plus en plus un appareil de loisirs numériques. D’ailleurs, le cabinet Deloitte affirme que cette année, plus d’1 milliard d’utilisateurs créeront du contenu de réalité augmentée sur leur smartphone.

Difficile de réinventer la roue !

Bien sûr, la plupart des marques (à part l’éternel absent Apple, mais aussi Huawei, HTC…) ont braqué leurs projecteurs sur leurs dernières nouveautés et notamment le format 18:9. Enrichissant en permanence sa gamme, le numéro 1, Samsung en a profité pour présenter son nouveau flagship (modèle emblématique haut de gamme), le S9 et sa version à écran XXL S9+. Mais là aussi, le Coréen a surtout parlé technologie avec la partie capteur photo qui bénéficie d’une ouverture de diaphragme variable (de f/1.5 à 2.4). Une raison de plus pour laisser définitivement dans un carton son appareil photo numérique…

Toujours à propos de photo, mais cette fois agrémentée d’IA, LG a mis en avant l’appareil photo de son LG V30 qui devient plus intuitif. La fonction Vision AI analyse automatiquement les objets et propose le meilleur mode de prise de vue parmi huit modes. La marque précise avoir collaboré avec un partenaire du domaine de la reconnaissance d’images (mais sans préciser lequel) afin d’analyser plus de 100 millions de photographies et développer les algorithmes de reconnaissance d’images du téléphone.

De son côté, Sony confirme bien cette tendance « loisirs ». Disponible en avril, son Xperia XZ2 intégrera un écran HDR Full HD+ et un tout nouveau système de vibration dynamique qui donne vie aux contenus. Ce modèle permet d’enregistrer des vidéos en 4 K HDR et le mode Super slow motion à 960 images par seconde passe en Full HD.

Techno toujours avec les écrans pliables qui continuent à jouer aux Arlésiennes. Mais ils font toujours leur effet sur un stand même si maîtrise et l’industrialisation restent à prouver. Lors de ce salon, Samsung a d’ailleurs évoqué un lancement en 2019 (uniquement en Corée du Sud dans un premier temps) de son mystérieux Galaxy X.

En attendant leur apparition, certains préfèrent rester pragmatiques et répondre aux attentes des utilisateurs. Comme nous l’avons vu dans un article sur l’avenir des batteries, leur faible autonomie reste le talon d’Achille des mobiles. Différentes alternatives sont envisagées pour l’augmenter. À Barcelone, Energizer a annoncé une batterie de 16.000 mAh. La marque a même présenté un smartphone très classique en apparence (écran 5.99’’, 6 Go de RAM et 128 Go de stockage).

Autant de bonnes (ou de mauvaises) raisons de ne plus se passer de son smartphone. Le cabinet Deloitte estime qu’en 2023, les utilisateurs interagiront 65 fois par jour en moyenne avec leur smartphone contre 50 fois l’année dernière…

Philippe Richard

TOP 5 : les articles les plus lus #février2018

Un pas de plus vers la maîtrise de la lévitation acoustique

Pour la première fois, des chercheurs ont réussi à faire léviter par le son des objets dont la taille est supérieure aux longueurs d’ondes acoustiques utilisées. Un premier pas qui ouvre la possibilité à la manipulation acoustique de plus gros objets.

levitation-big

 

Réponse à la taxe anti-solaire de Trump : la Chine construit une énorme usine de panneaux photovoltaïques en Inde

L’usine (1 GW) sera opérationnelle pour le premier trimestre de 2019. Dans seulement un an. Il n’existe en France aucune usine capable de produire une telle quantité de panneaux PV.

donald-trump-big

 

Construction : un aérogel rend les briques simples ultra-isolantes

Des chercheurs suisses de l’Empa ont mis au point un aérogel pour garnir les briques qui permet de les rendre ultra-isolantes pour des épaisseurs de mur inférieures à 20cm.

Aerobrick_1140

 

Logiciels et applications mobiles : le casse-tête de la conformité avec le RGPD

Le 25 mai prochain, le RGPD (Règlement Général sur la Protection des Données) entre en vigueur. En renforçant la protection de tous les citoyens européens, il oblige les éditeurs de logiciels à revoir leurs copies… Pas simple.

rgpd-big

 

Batteries : des pistes pour une durée de vie plus longue

Le talon d’Achille des smartphones reste la batterie. De plus en plus sollicitée, elle perd de son efficacité après environ 1000 cycles de charges et décharges. Des chercheurs affirment avoir trouvé des solutions plus performantes. De quoi intéresser aussi les fabricants de vélos électriques !

batterie-iphone-1140

Par I. B

Les e-textiles au service de votre santé

Guillaume Tartare est chercheur au Laboratoire de recherche GEMTEX à l’école d’ingénieurs textile de Roubaix ( ENSAIT). Son équipe travaille sur de nombreux projets de textiles intelligents. Grâce à des capteurs accéléromètres, ils obtiennent le rythme cardiaque et le cycle respiratoire du porteur. Ces vêtements connectés peuvent par exemple être utilisés par des pompiers en intervention.

« Trois capteurs sont placés précisément sur le textile pour avoir une pression constante sur la peau », explique Guillaume Tartare. Après transformation du signal, il est possible de voir si le rythme cardiaque est trop élevé ou si le porteur est en hyperventilation.« Il y a toujours une variation du rythme cardiaque entre chaque battement du cœur. En faisant de l’analyse de la variabilité cardiaque, il est possible d’aller beaucoup plus loin dans la prise d’informations sur la situation du pompier et déterminer le niveau de fatigue, de stress et du niveau d’attention », complète-t-il.

Le laboratoire GEMTEX travaille également sur une ceinture ventrale pour femmes enceintes, qui détecte les mouvements fœtaux. Des bonnets permettent aussi de faire l’électro-encéphalogramme pour détecter le risque de crise d’épilepsie par exemple. D’autres applications concernent le monitoring des personnes âgées, des sportifs et des personnes atteintes de diverses maladies. « Nous sommes au dernier stade avant commercialisation sur certains produits, notamment les textiles qui traitent l’adénocarcinome, un cancer de la peau, traité par photothérapie », estime Guillaume Tartare.

Coupler les textiles intelligents avec les objets connectés

Mehdi Ammi, enseignant-chercheur au Laboratoire d’Informatique pour la Mécanique et les Sciences de l’Ingénieur (LIMSI-CNRS) de l’Université Paris-Saclay travaille également sur ces questions. « Notre objectif dans le cadre du projet Text Sensor, financé par l’IDEX Paris-Saclay, est de développer des technologies pour le monitoring de personnes à l’extérieur des infrastructures de santé, par exemple à domicile ou dans la vie de tous les jours », explique-t-il.

Le projet vise à analyser l’activité motrice de patients, notamment pour calculer le risque de récidive de personnes qui ont déjà subi un premier AVC. Pour ce faire, il s’appuie sur un ensemble d’objets connectés : un verre qui mesure l’activité motrice de la main, une balance qui détermine l’équilibre de la personne et un bracelet qui calcule la quantité d’activité. Avec son collègue Frank Bimbard, Mehdi Ammi a développé un vêtement connecté doté de fibres fonctionnelles qui mesurent directement les débattements articulaires. Il permet ainsi d’analyser l’activité de la partie supérieure du corps, déterminer la quantité de mouvement de chaque partie et déceler une faiblesse motrice. « Le capteur, c’est la fibre, simplifie Mehdi Ammi. À partir de toutes ces informations issues de différents objets, nous calculons le risque de récidive de la personne et améliorons le diagnostic. »

Le projet est encore au stade expérimental, mais des prototypes fonctionnels sont déjà en cours d’utilisation. Le défi est désormais d’avoir des mesures et des traitements robustes. « Ce vêtement pourra aussi être utilisé par des patients atteints de diabète, par les sportifs ou pour le monitoring de personnes âgées », prévient le chercheur.

Des applications déjà commercialisées

Côté sport, plusieurs start-ups se lancent dans l’analyse de la variabilité cardiaque pour suivre les risques vasculaires. « Plusieurs entreprises se lancent dans le secteur sportif plutôt que le médical car les contraintes en termes de normes y sont beaucoup simples », fait savoir Guillaume Tartare.

Toutefois, quelques textiles connectés sont déjà commercialisés en santé. Ainsi, Neomedlihht est une société lyonnaise qui fabrique des textiles lumineux pour guérir les nourrissons de la jaunisse. Pour sa part, @-Health crée un service de monitoring des personnes qui ont un problème cardiaque.

Par Matthieu Combe, journaliste scientifique

Les e-textiles s’invitent dans le design

Aurélie Mossé est designer indépendante, chercheur et enseignante à l’Ecole nationale supérieure des Arts décoratifs (ENSAD). Elle forme ses étudiants en design aux nouvelles technologies textiles et aux enjeux écologiques. Cela inclut les e-textiles de façon générale, qu’il s’agisse de textiles high-tech et complexes, comme les tissus photovoltaïques, et les textiles low-tech, à base de fibres naturelles.

Techniques de l’ingénieur : Quelles recherches avez-vous menées sur les textiles intelligents?

Aurélie Mossé : J’ai principalement travaillé sur deux projets pour explorer l’utilisation des matériaux qui réagissent à la lumière ou changent de forme avec l’électricité dans la maison.

Ainsi, en 2009 j’ai développé une membrane textile composite dotée de films photovoltaïques souples qui change de forme pour produire de l’électricité en fonction du rythme solaire. Les cellules photovoltaïques sont collées sur des voiles en tulle. Pour les activer, il suffit d’ajouter un capteur de lumière qui détecte les variations lumineuses, un microcontrôleur qui les traduit en données numériques et des mécanismes de poulies pour faire bouger le textile. En cas de forte luminosité, le textile est complètement déployé et génère de l’électricité. En revanche, quand l’ensoleillement diminue, il se contracte pour laisser passer la lumière du jour et se redéploie la nuit pour préserver l’intimité.

e-textile-design-photovoltaique
Membrane textile photovoltaïque repliée lorsque le soleil brille. ©Aurélie Mosse

En 2011 et 2012, j’ai travaillé sur un plafond qui change de forme avec le vent et l’électricité. Les éléments ont deux niveaux d’activité. Des structures s’ouvrent ou se ferment en fonction de la vitesse du vent et des motifs passifs vont juste frémir avec les courants d’air intérieur. Les structures sont réalisées grâce à des polymères électroactifs, en particulier des élastomères diélectriques. Ce sont des plastiques qui changent de forme lorsqu’ils sont soumis à une impulsion électrique. Dans ce cas précis, il s’agit d’élastomères diélectriques. C’est la structure moléculaire qui se déforme sous la pression du courant électrique. Pour ce faire, il faut appliquer un voltage entre 1.000 et 5.000 volts. Pour préparer chaque structure, l’élastomère est pré-tendu sur un cadre et recouvert d’un enduit conducteur. Il suffit ensuite d’ajouter les électrodes. Lorsque l’on relâche cette structure, elle forme un volume en 3D. Elle passe à une forme plus plate pré-enregistrée dans le processus de fabrication de la structure lorsqu’on applique le voltage. Il y a toutefois encore des recherches à mener pour arriver à 230 volts et avoir des applications en décoration pour les particuliers.

e-textile-plafond-reef

Plafond doté de structures qui changent physiquement de forme en réaction à l’électricité (haut voltage). Dans cette installation, les structures sont connectées à un capteur de vent ce qui implique qu’elles s’ouvrent et se ferment en fonction de la vitesse du vent extérieur. ©Anders Ingvartsen

ETI : Où en est aujourd’hui la recherche dans ces domaines?

A.M : Le champs des polymères électroactifs se développe assez rapidement et il y a des solutions commercialisées pour des applications très ciblées, notamment en robotique. En laboratoire de recherche, on arrive désormais à faire de l’impression in-jet de solutions conductrices, à créer des matériaux complexes et on commence à développer des technologies d’activation sous formes de fils et non plus de films. Ces fils peuvent par exemple réagir à différentes longueurs d’onde. Nous sommes dans des choses assez expérimentales au stade de laboratoire, mais cela est très prometteur.

Côté photovoltaïque, il est possible d’apposer des panneaux souples sur les textiles, mais on a encore du mal à faire des fibres photovoltaïques. Techniquement, les niveaux de production d’électricité sont tellement bas que le rapport entre le coût et le gain n’est pas du tout intéressant.

ETI : Quelles sont les tendances d’utilisation en design?

A.M : Pour la mode, plusieurs vêtements chauffants arrivent sur le marché. Il y aussi les foulards anti-pollution de la start-up française Wair. En design d’intérieur, la réflexion se porte sur les solutions pare-soleil, les rideaux pour gérer la luminosité et la façon d’améliorer la qualité de l’air des bâtiments.

Une autre tendance est à suivre. Il s’agit des surfaces qui changent de couleur, d’esthétique ou de forme en fonction de différents stimuli : la lumière, l’humidité, le son l’électricité, etc.

ETI : Y a-t-il de la place pour l’écologie dans le domaine?

A.M : Il y a des efforts d’utilisation de bioplastiques ou de fibres naturelles, mais ces solutions sont encore au stade de la recherche et ne se retrouvent pas dans les produits commercialisés. Pour réduire l’empreinte écologique, il faut par exemple trouver d’autres façons que l’électronique pour activer les surfaces. Je pense aux plastiques qui changent de forme avec la lumière et aux fibres naturelles qui changent de forme avec l’humidité. Il faut également penser au devenir post-utilisation et post-consommation des textiles et réfléchir au désassemblage en vue du recyclage. Le projet européen Wear Sustain s’intéresse de près à ces questions.

Propos recueillis par Matthieu Combe, journaliste scientifique

Peut-on laver et recycler un textile connecté ?

« Lorsque l’on parle de textile électronique, un aspect qui revient régulièrement est celui de la maintenance, explique Guillaume Tartare, chercheur du Laboratoire de recherche GEMTEX à l’école d’ingénieurs textile de Roubaix (ENSAIT). Va-t-il résister au lavage ? Si oui, combien ? Faut-il enlever des parties pour le laver ? ». Ces questions sont évidemment légitimes.

Avoir un vêtement et ne pas pouvoir le laver est on ne peut plus problématique. Les chercheurs ont donc développé plusieurs solutions pour isoler les parties électroniques et faire en sorte qu’elles puissent passer au lave-linge. Pour protéger les capteurs et les câbles, des résines souples étanches ou des vernis sont apposés. Dans le cas des textiles qui utilisent des fibres conductrices, les fibres sont isolées de l’extérieur grâce à une gaine, un surfil de polyamide qui va permettre d’isoler la matière plastique autour d’un fil central conducteur.

Le plus gros problème demeure l’interconnexion entre toutes les pièces électroniques et les câbles, quelle que soit leur forme. Pour assurer l’étanchéité, une surcouche de résine ou un autre type d’isolant est apposé. « Cela permet de passer au lavage sans souci, il faut simplement toujours bien penser à retirer la batterie », prévient Guillaume Tartare.

Et comment on recycle un textile connecté ?

La grande majorité des textiles intelligents déjà commercialisés utilise de l’électronique. Leur recyclage est une problématique importante. Il reste compliqué, car comme pour les textiles composites, ils renferment plusieurs fibres différentes, qu’elles soient naturelles ou artificielles à l’échelle d’un seul fil. En plus, la présence d’électronique complexifie encore la donne.

« Il serait possible d’enlever l’électronique pur, notamment les batteries ou les piles, les capteurs et le microprocesseur pour récupérer le cuivre et les métaux rares, analyse Guillaume Tartare. En revanche, une fois que le fil est intégré, il est plus difficilement récupérable. » En effet, les industriels n’iront pas détricoter un textile pour aller chercher quelques fils conducteurs qui n’auraient pas beaucoup de poids.

Pour développer le recyclage, il faudra miser sur l’éco-conception. « Malheureusement, ces questions restent encore peu développées dans les start-up qui commercialisent aujourd’hui des produits », regrette Aurélie Mossé, enseignante à l’Ecole nationale supérieure des Arts décoratifs (ENSAD).

Les nouvelles technologies ne vont pas forcément simplifier le problème, car les matériaux sont de plus en plus complexes. Lorsque les capteurs et les différents composants seront directement imprimés sur les textiles ou intégrés aux fibres, ils feront partie intégrante du textile. Il seront alors impossibles à séparer et donc à recycler avec les technologies actuelles.

La question du recyclage des textiles est au coeur du projet RETEX et sera à l’honneur du Forum de la mode circulaire les 24 et 25 mai 2018 à Roubaix.

Par Matthieu Combe, journaliste scientifique

La révolution des textiles intelligents

« L’avenir du vêtement est d’être l’interface entre la personne et l’environnement et le monde qui l’entoure. Ce sera l’interface entre son porteur et ses autres objets connectés, le web, le cloud, sa maison et même son avatar sur le web », analyse Bruno Mougin, responsable de projets du pôle de compétitivité Techtera. Dans les autres domaines, les textiles intelligents se développeront également.

Comment faire un textile connecté ?

Un textile est un matériau multicouche formé de fils qui s’entrecroisent. Chaque fil est lui-même formé de plusieurs fibres d’un ou plusieurs matériaux. Pour être connecté, un textile nécessite d’être équipé de plusieurs systèmes embarqués avec décision locale. En premier lieu, il requiert une source d’énergie. Elle est soit directement apportée par une pile ou une batterie, soit par un système de récupération local d’énergie (photovoltaïque, éolien, dynamo, etc.). Le textile intelligent demande également des capteurs qui permettent d’obtenir les informations désirées sur le porteur ou son environnement : rythme cardiaque, température…

Pour être fonctionnel, un textile connecté nécessite un actuateur. Ce dernier permet d’interagir avec le porteur et l’environnement. C’est par exemple un moteur qui change la forme du textile ou une LED qui modifie sa couleur. Un tel textile requiert également un microprocesseur doté d’un algorithme et d’une base de donnée permet le traitement du signal. Et parfois de la communication extérieure pour dialoguer avec un smartphone en bluetooth, un ordinateur ou le cloud. Enfin, pour relier les différents éléments précédents, il faut des systèmes de conduction et de transfert d’énergie ou de donnée et de la connectique.

« Dans une dizaine d’année, nous aurons des purs textiles électroniques par nature et non plus par ajout, projette Guillaume Tartare, chercheur du Laboratoire de recherche GEMTEX à l’école d’ingénieurs textile de Roubaix ( ENSAIT). Les futures ambitions du textile électronique est qu’il n’y ait plus de composants électroniques et que le textile lui-même devienne électronique ».

Des innovations dans les fibres

La tendance est au développement de fibres connectées. Par exemple, la startup grenobloise Primo1D développe le fil RDFID e-thread. Ce dernier intègre une puce RFID à l’intérieur du fil. Le projet européen PowerWeave développe de son côté un fil qui récolte et stocke l’énergie électrique dans sa matrice fibreuse. Il travaille sur la connexion entre des fibres batterie et des fibres photovoltaïques. L’objectif est de répondre au besoin d’une alimentation électrique facilement stockable et transportable. « Vous branchez quasiment votre téléphone à votre tee-shirt et c’est lui qui va recharger votre batterie », s’extasie Guillaume Tartare.

Beaucoup de travaux sont menés sur les différentes façons de récupérer l’énergie localement. Les chercheurs travaillent sur du photovoltaïque ou de l’éolien textile, sur de la récupération de chaleur sous forme d’énergie électrique. En revanche, ils peinent encore à obtenir de la production d’électricité stable. Ce qui reste encore le plus souvent incompatible avec l’utilisation de capteurs ou de microcontrôleurs. « Les chercheurs doivent trouver une méthode pour stocker cette énergie intermittente et la transformer », assure Guillaume Tartare. En attendant, la plupart des solutions commercialisées utilisent simplement des batteries rechargées sur le secteur.

Des innovations dans les procédés

Les procédés textiles évoluent également. Le défi est d’utiliser des fibres textiles pour produire directement des composants électroniques. L’entreprise allemande ZSK vend par exemple des machines qui intègrent des puces électroniques au moment de la broderie des tissus. La transition est déjà en marche. Il existe sur le marché des transistors textiles qui ne nécessitent aucun composant électroniques supplémentaire. « Simplement, c’est le textile qui devient transistor », précise Guillaume Tartare. Bientôt, les fibres embarqueront directement la donnée et il sera possible d’imprimer directement le capteur sur le textile. Les fibres deviennent intrinsèquement communicantes, la matière et le flux d’information sont complètement fusionnés.

Sur ce point, le projet P-tronics, mené par le CNRS et l’Université de Lorraine est particulièrement innovant. Grâce à des plastiques fonctionnels, il permet d’imprimer en 3D des capteurs flexibles, des actionneurs et des objets complets avec de l’électronique intégrée. « Cela permet par exemple d’imprimer des semelles connectées et des capteurs portables personnalisés », confie Mehdi Ammi, enseignant-chercheur au Laboratoire d’Informatique pour la Mécanique et les Sciences de l’Ingénieur (LIMSI-CNRS) de l’Université Paris-Saclay. Le laboratoire recherche activement un partenaire industriel en vue de transférer sa technologie.

Quel vêtement connecté aujourd’hui ?

Plusieurs textiles connectés sont déjà disponibles sur le marché. Si l’on se réduit au secteur de l’habillement, il y a par exemple la veste connectée de Levi’s et Google qui permet de contrôler quelques applications sur son smartphone en la touchant ou en la tapotant. Spinali design propose déjà des jeans et maillots de bain connectés. La fonction géo-localisation des jeans permet, par vibration sur le coté droit ou gauche, d’indiquer la direction à prendre lorsqu’un trajet est programmé. Les maillots de bain sont dotés d’un capteur qui mesure la dose d’UV au soleil et invite son utilisateur à mettre de la crème solaire.

Par Matthieu Combe, journaliste scientifique

Protection des données personnelles et objets connectés

Nous allons rapidement vivre dans un environnement bourré de capteurs. Mais veut-on transmettre en permanence nos données ? Et qui pourra y accéder ? Autant de questions légitimes auxquelles la réglementation doit répondre.

Les objets connectés sont complexes et renferment une large gamme de composants. Ainsi, plusieurs qualifications juridiques pourront s’appliquer pour un même objet. « C’est un sujet de droit complexe qui va nécessiter du travail pour décortiquer les différents éléments, les qualifier et appréhender l’écosystème dans son ensemble », prévient Nathalie Puigserver, avocate chez P3B avocats et spécialiste du droit des technologies de l’information et des communications électroniques.

Un sujet complexe pour les juristes

La plus grande difficulté juridique avec Internet est qu’il n’y a pas de limite territoriale. « Cette absence de territorialité pose des difficultés pour attaquer des règles », observe Nathalie Puigserver. Le développement des objets connectés pose un problème similaire, puisqu’ils se déploient dans tous les secteurs d’activité, avec des produits et services d’une diversité infinie. Parmi eux, on trouve des secteurs qui ont des réglementations propres.

La problématique pour le juriste est la rapidité de développement des objets connectés.« À horizon 2020 plusieurs milliards d’objets connectés seront en circulation, ce qui est incompatible avec la lenteur du processus législatif », note Nathalie Puigserver. En effet, il aura déjà fallu attendre six ans pour aboutir à l’entrée en vigueur de la nouvelle réglementation européenne sur les données personnelles. Celle-ci modifie en profondeur la loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés.

Cette nouvelle réglementation harmonise les législations des différents pays européens pour permettre le développement de l’économie numérique. Elle a pour objectif d’appliquer beaucoup plus largement la protection des données personnelles des citoyens européens. Ces règles s’appliqueront à toutes les entreprises, quelle que soit leur taille, et à tous les produits vendus en Europe.

Données personnelles et droit commun de la responsabilité

Les objets connectés enregistrent différentes données personnelles. Les règles en place seront-elles suffisantes et efficaces pour protéger la vie privée de tout un chacun? « C’est la question centrale par rapport aux objets connectés », estime Nathalie Puigserver.

Le sujet concerne tout autant le droit commun de la responsabilité. En cas de défaillance d’un objet connecté, qui sera responsable ? L’utilisateur, le concepteur du logiciel, le fabricant, les sous-traitants, un assureur ?« Le fait qu’un objet soit augmenté par des technologies pose des questionnements sur qui en a le contrôle au moment de défaillances », précise l’avocate. C’est notamment tout le débat en cours sur la responsabilité en cas d’accident avec des véhicules autonomes.

Réformer ou créer de nouvelles règles ?

Le droit actuel peut-il s’adapter aux objets connectés ? C’est tout le débat. « Il ne faut pas légiférer dans précipitation, faire une réglementation spécifique qui se révélerait être contre-productive et un frein au développement de ces technologies, prévient l’avocate. On peut toutefois déjà faire des adaptations spécifiques. »

Le fabricant d’objets connectés doit déjà respecter toutes les obligations en matière de sécurité et de confidentialité des données. Cela signifie qu’il doit prévoir des durées de conservation, un droit d’accès et de suppression de ces données. La nouvelle loi instaure également des règles d’importation et d’exportation de données plus strictes vers et en dehors de l’Union européenne. Chaque sous-traitant aura également une responsabilité propre de protection des données.

Les objets connectés seront acceptés par les utilisateurs à condition que l’utilisation des données se fasse de façon éthique et transparente. Cela signifie que les utilisateurs devront savoir pourquoi les données sont captées et comment elles sont utilisées. « Ce n’est pas tant le type de donnée collectée qui pose problème que le pourquoi on la collecte et ce que l’on va en faire », conclut la spécialiste.

Par Matthieu Combe, journaliste scientifique

Revue du web #111 spéciale robotique : les vidéos étonnantes du mois

 La dernière nouveauté de Boston Dynamics : un robot qui ouvre les portes tout seul

Après avoir enseigné le salto arrière à Atlas, voilà que Boston Dynamics vient de montrer à SpotMini comment ouvrir lui-même une porte (et faire entrer ses comparses).

 

Un robot microscopique tout-terrain

μTUM est si habile qu’il pourrait un jour se faufiler dans le corps humain…

 

 

Le drone taxi vient d’embarquer ses premiers passagers

Revivez en vidéo les premiers essais du drone quadrirotor Ehang 184 !

 

Commander un drone avec ses Lego

Fruit de la collaboration entre l’université Queen’s au Canada et l’entreprise Lego, ce projet est aussi pédagogique que ludique !

 

 

Des robots aux JO

Non loin de Pyeongchang, des robots skieurs ont tenté de remporté le « Edge of Robot: Ski Robot Challenge », une compétition organisée  par des universités, des instituts de recherche et des entreprises privées. Le but ? Promouvoir l’industrie robotique !

 

Bonus insolite : un captcha… pour robot

Si vous êtes humain, vous n’entrerez pas : www.humansnotinvited.com

selection-computers

Par I. B

Bioraffinerie : une digestion plus efficace du xylane ouvre de nouvelles perspectives

Les déchets végétaux sont une ressource de choix pour la filière des biocarburants mais leur exploitation se heurte depuis plusieurs années à la difficulté d’extraction de la cellulose piégée dans la lignocellulose de la paroi des végétaux. Pour exploiter la lignocellulose, constituée de lignine, d’hémicellulose et de cellulose, les scientifiques cherchent comment casser efficacement les autres composés. Parmi ces derniers, le xylane, est un polysaccharide particulièrement résistant aux dégradations enzymatiques actuelles. Des chercheurs de l’Inra, du CNRS et de l’Université de York (Royaume-Uni) ont identifié une enzyme produite par des champignons capables de dégrader le xylane, et permettant ainsi d’accéder plus facilement à la cellulose des parois végétales. Leurs travaux ont été publiés dans la Nature Chemical Biology.

Aux confins de la forêt guyanaise

La découverte de cette enzyme, dont la famille a été baptisée AA14 dans la classification des enzymes actives sur les hydrates de carbone(CAZY), est le fruit d’autres recherches antérieures. Tout d’abord, entre 2007 et 2010, des chercheurs de l’Inra ont constitué en Guyane une collection de champignons filamenteux spécifiques de la dégradation du bois. C’est dans cette collection qu’a été choisi Pycnoporus coccineus pour un séquençage de génome ayant permis d’étudier les différentes enzymes que ce champignon fabrique quand il colonise et se nourrit d’un bois. Parmi ces enzymes, un nouveau type a été mis en évidence et constitue désormais une quatrième famille dans le groupe des enzymes LPMO fongiques (lytic polyssacharides monooxygenases). Les LPMO sont des enzymes comprenant un site actif à base de cuivre qui sont produites par des bactéries et des champignons filamenteux. Elles ont été découvertes en 2010 et ont déjà induit de nombreuses évolutions dans les industries biosourcées (énergies et matériaux) et les cocktails d’enzymes qu’elles emploient.

Premiers essais transformés

Les chercheurs ont mené des essais sur la dégradation du pin et du peuplier et ont montré que l’utilisation de l’enzyme AA14 permet de quasiment doubler l’efficacité de la transformation de la cellulose du bois en glucose par rapport à l’action des cellulases habituellement employées par l’industrie. Le glucose peut ensuite facilement être transformé en éthanol pour la production de biocarburants. Ces recherches ont donné lieu à deux dépôts de brevet (facilitation de la saccharification de la biomasse végétale pour production d’éthanol et modification de surface des fibres papetières). En effet, l’utilisation des LPMO fait à présent l’objet de nombreuses recherches pour plusieurs filières agrosourcées et les laboratoires de l’Inra ont par exemple testé leur utilisation pour la fabrication de nanofibrilles de cellulose. Ces dernières présentent des propriétés remarquables mais leur production est très énergivore. Grâce aux LPMO, on espère réussir à rendre le procédé plus accessible. Une autre recherche s’est aussi intéressée à l’emploi de LPMO lors du stockage de biomasse lignocellulosique avant utilisation industrielle afin de pré-dégrader la lignine et rendre ces stocks plus facilement et efficacement utilisables.

Sophie Hoguin

R&D : la Chine rattrape les Etats-Unis

« Les dépenses de la Chine dans la recherche et développement (R&D) ont continué de croître à un rythme soutenu en 2017 » annonçait mi-février un communiqué officiel du bureau d’État des statistiques chinois.

En base annuelle, l’investissement global s’élève ainsi à près de 225 Md€* (1750 Md de yuans) en augmentation de 11,6 %. La R&D représente désormais 2,12 % du PIB du pays, en progression de 0,01 % par rapport à 2016. L’effort d’investissement provient autant des entreprises (+13,1%) que des institutions gouvernementales (+7%) ou des universités (+5,2%). Si la participation du secteur privé reste prépondérante avec 1370 Md de yuans investis, la recherche fondamentale n’est pas délaissée et représente 5,3 % des dépenses totales, en hausse de 11,8 %. Fin 2015, la Chine comptait ainsi 5,35 million de personnes travaillant dans la R&D et le pays prévoit toujours d’augmenter ses dépenses annuelles pour atteindre 2,5 % de son PIB en 2020. Rappelons que cet effort est continu et massif depuis le début des années 2000 et avait connu un premier bond entre 2008  et 2012 où la Chine avait doublé ses dépenses en R&D, lui permettant de représenter 20 % de la R&D mondiale en 2012 contre seulement 6% en 2002.

L’innovation se déplace en Asie

Selon le rapport biennal de la National Science Foundation américaine (NSF), les chercheurs chinois ont publié davantage d’articles dans des revues internationales à comité de relecture que les américains en 2016 (426 000 articles contre 409 000). Mais encore loin derrière l’Union Européenne qui dépasse les 600 000.

Un classement qui, cependant, présente des biais puisque aujourd’hui la recherche est surtout le fruit d’équipes internationales. La NSF relève d’ailleurs que si l’on refait le classement avec le nom des auteurs, les Américains reprennent la tête. Une rectification qui ne doit pas entacher la réelle dynamique asiatique dont la Chine est désormais l’un des moteurs : on peut noter par exemple que le nombre de thésards atteint désormais 34000 contre 40000 aux Etats-Unis. Ces derniers accusent une réelle perte de vitesse en matière d’attractivité d’étudiants étrangers qui représentent habituellement une grande part de leurs doctorants.

De manière globale, on voit se déplacer depuis quelques années, la dynamique mondiale de l’innovation vers l’Asie. Selon le rapport de la NSF, l’Asie (Chine, Inde, Japon, Corée du Sud et les autres pays d’Asie du Sud-Est) représente en 2015  plus de 40 % des dépenses mondiales de R&D contre 25 % en 2000 quand l’Amérique du Nord est passé de 40 à 28 % et l’Europe de 27 % à moins de 22 %. En outre, si l’on regarde les investissements dans le capital des entreprises évoluant sur le marché des technologies émergentes, la Chine se montre là encore très attractive : elle a attiré en 2016, 27 % des capitaux mondiaux (en passant de 2,4Md€ en 2013 à 27Md€ en 2016).

Sophie Hoguin

La formation de la galaxie d’Andromède enfin élucidée

La grande nébuleuse d’Andromède a été décrite pour la première fois en 964, par l’astronome Perse, Abd al-Rahman al-Sufi. Répertoriée en 1923 comme galaxie, elle a souvent été considérée comme la sœur jumelle de notre Voie lactée. C’est sa plus proche voisine et cette proximité permet l’observation comparée de ses propriétés qui, jusqu’à aujourd’hui, intriguaient les astrophysiciens.

Une campagne d’observations américaine, menée entre 2006 à 2014, avait en effet souligné une différence considérable avec la Voie lactée : dans le disque géant d’Andromède, toutes les étoiles âgées de plus de 2 milliards d’années, subissent des mouvements désordonnés, dont l’ampleur est presque comparable à leur mouvement de rotation autour du centre de cette galaxie. À titre comparatif, les étoiles du disque de la Voie Lactée, dont fait partie notre Soleil, ne sont sujets qu’à un simple mouvement de rotation. Comment expliquer cette différence ?

À l’aide de modélisations effectuées sur les plus puissants moyens de calcul disponibles en France – les calculateurs de l’Observatoire de Paris (MesoPSL) et de GENCI (IDRIS – CNRS) -, et après traitement de près d’un téraoctet de données, une équipe scientifique franco-chinoise de l’Observatoire de Paris – PSL, du National Astronomical Observatory of China (NAOC), de l’Observatoire astronomique de l’Université de Strasbourg et du CNRS est enfin parvenue à caractériser les mécanismes physiques de formation d’Andromède, levant ainsi le voile sur l’origine de sa formation. Les scientifiques ont démontré que seule une collision « récente » pouvait expliquer l’agitation des étoiles, collision suivie par un épisode de formation stellaire dans l’ensemble du disque géant d’Andromède.

Il y a 7 à 10 milliards d’années, à la place d’Andromède, se trouvaient deux galaxies sur une même trajectoire de rencontre. Les astronomes ont optimisé par simulation les trajectoires des deux galaxies progénitrices. Ils ont découvert qu’elles avaient fusionné il y a 1,8 à 3 milliards d’années. Cette collision a donné naissance à Andromède telle que nous la connaissons. « Nous avons montré que la plus grande des deux galaxies progénitrices était environ quatre fois plus massive que la plus petite », précise François Hammer, astronome de l’Observatoire de Paris – PSL, premier coauteur de l’étude.

Grâce à des calculs numériques intensifs, les astrophysiciens parviennent pour la première fois à reproduire en détail l’ensemble des nombreuses structures qui composent la galaxie d’Andromède : le bulbe, la barre et le disque géant. Ce dernier inclut un gigantesque anneau d’étoiles jeunes dont la stabilité avec le temps restait inexpliquée, ce qui vient d’être résolu.

La galaxie d’Andromède est entourée de gaz et d’étoiles peuplant une région dix fois plus étendue qu’elle, communément appelée le halo. Des observations réalisées entre 2008 et 2014 sur le télescope franco-canadien à Hawaii (CFHT) montrent que le halo d’Andromède est peuplé par de gigantesques courants d’étoiles, dont le plus proéminent, s’appelle précisément le « courant géant d’étoiles ». Le disque géant présente des bords déformés, sur lesquels on retrouve également d’autres structures ayant la forme d’amas diffus ou de coquilles.

En faisant une comparaison systématique avec ces observations qui sont les plus profondes du halo d’Andromède, la collaboration franco-chinoise est parvenue à reproduire et à comprendre l’origine de ces structures. Le « courant géant d’étoiles » ainsi que les coquilles proviennent du plus petit progéniteur, tandis que les amas diffus et la déformation du disque proviennent du plus grand. Cela explique pourquoi les premières structures sont sous-abondantes en éléments lourds par rapport aux secondes : le plus petit progéniteur étant moins massif, il a formé moins d’éléments lourds et d’étoiles que le plus grand.

C’est la toute première fois qu’une simulation numérique, basée sur 24 millions de particules, parvient à reproduire une galaxie avec autant de détails. La collision gigantesque qui a eu lieu alors que notre Terre existait déjà, pourrait avoir laissé des traces dans notre environnement, le Groupe Local. Elle est le seul moyen d’expliquer comment se sont formés le bulbe, la barre, les disques minces et épais, l’anneau stable de jeunes étoiles dans le disque, le récent événement de formation stellaire dans tout le disque, la structure 3D du « courant géant d’étoiles », les coquilles et amas diffus et la distribution des étoiles dans le halo.

Découvrir en vidéos l’origine de la formation d’Andromède sur la chaine Youtube de l’Observatoire de Paris :

andromede1

andromede2

andromede3

Référence :

Ce travail de recherche a fait l’objet d’un article intitulé “A 2-3 billion year old major merger paradigm for the Andromeda galaxy and its outskirts”, par F. Hammer et al., à paraître le 14 février 2018 dans la revue Monthly Notices of the Royal Astronomical Society (arXiv: 1801.04279). https://doi.org/10.1093/mnras/stx3343 Collaboration L’équipe est composée de François Hammer (Observatoire de Paris – PSL), Yanbin Yang (Observatoire de Paris – PSL), Jianling Wang (National Astronomical Observatory of China), Rodrigo Ibata (Observatoire astronomique de l’Université de Strasbourg), Hector Flores)

Source : cnrs

Budget de la Nasa 2019 : carton plein pour un avion supersonique silencieux

Alors que les budgets prévisionnels des agences scientifiques continuent d’être tirés vers le bas sous le mandat de Donald Trump, la Nasa se voit octroyer pour 2019 une légère hausse (+1,3% par rapport à 2017). Mais pour autant les choix stratégiques sont clairs : l’utilitarisme est le grand prioritaire. Ainsi le gouvernement voudrait par exemple transformer l’ISS en une plateforme d’activité privées à partir de 2025 et propose d’annuler le WFIRST, un programme de télescope dédié à la recherche d’exoplanètes et de la matière noire.

Certains projets, au contraire reçoivent un soutien plein et entier. Parmi eux, le véhicule de transport aérien supersonique silencieux (QueSST) dont une étape cruciale du développement a été passée l’an dernier avec la validation du design de son démonstrateur : le LBFD (Low-Boom Flight Demonstrator). Son premier vol de test grandeur réelle est prévu en 2021 et selon la Maison Blanche « il ouvrirait un nouveau marché pour les compagnies américaines en permettant de construire des lignes aériennes commerciales plus rapides, créatrices d’emplois et qui diviserait les temps de trajets pour traverser le pays par deux ».

quiet supersonic - nasa (1)

Passer le « Bang »

Le plus gros frein au développement d’avions supersoniques pour le transport de passager reste le bruit : notamment le « bang » du passage du mur du son et le cortège d’ondes sonores stridentes et insupportables pour l’homme qui l’accompagnent. Rappelons que ce « bang » n’est pas unique au moment du passage du mur du son, il suit en réalité le parcours de l’avion et se produit en continu car les ondes sonores des différentes parties de l’appareil fusionnent et se transforment en une onde de choc. C’est pourquoi d’ailleurs le Concorde n’effectuait que des trajets au-dessus de l’océan et a, tout au long, de sa carrière essuyé des plaintes pour nuisances sonores. Le travail de la Nasa consiste à la fois à dessiner un avion qui limite ce « bang »,  à étudier les modalités d’approches des infrastructures les moins bruyantes (approche en piqué par exemple) et à tester la réaction des hommes et des constructions dans différentes configurations (force du bang, fréquence etc.). Concernant la forme de l’avion, la Nasa travaille sur une forme en aile delta classique pour ce genre d’avion car elle permet naturellement de limiter le bruit et la consommation de carburant. Plusieurs maquettes ont déjà été testées en soufflerie et le design du nez de l’avion semble particulièrement déterminant pour réussir ce pari. Le design général a été validé à l’été 2017 ce qui a permis à la Nasa d’ouvrir un appel d’offre pour que d’autres partenaires rejoignent le projet QueSST mené pour le moment avec Lockheed Martin. L’objectif final serait un avion qui volerait à Mach 1,4.

Grâce au budget 2019, l’agence espère vraiment pouvoir commencer la construction du LBFD à pleine échelle pour des premiers vols de tests en 2021.

Le Spike Aerospace

La Nasa n’est pas la seule à plancher sur un supersonique silencieux. Depuis 2013, la compagnie américaine Spike Aerospace travaille aussi sur un tel projet. Son concept est maintenant bien avancé puisque les premiers vols d’un prototype à petite échelle et sans pilote du S-512 Quiet Supersonic Jet ont eu lieu début octobre 2017. Ils ont permis de valider le design aérodynamique de l’avion. Spike Aerospace, qui a répondu à l’appel d’offre de la Nasa pour travailler sur le QueSST, espère de son côté une validation complète de son engin pour 2021 et de premières livraisons en 2023. La version finale du S-512 doit permettre de transporter 22 passagers à Mach 1,6 tant au-dessus des océans que des terres grâce à son faible « bang » supersonique.

Par Sophie Hoguin

Revue de presse anglophone #13 : réalité virtuelle, recherche et bitcoin

VRChat, l’application de réalité virtuelle qui séduit de plus en plus

realite-virtuelle1024

Source : The Conversation

 

Le manque de lumière pourrait ralentir notre cerveau

cerveau

Source : Science daily

 

Vous souhaitez respirer de l’air moins pollué ? Arrêtez le déodorant !

homme-nature-bras-1140

Source : The New York Times

 

Selon Warren Buffett, le bitcoin est un poison

bitcoin-cash-big

Source : The Guardian

 

Problème de réseau : lever les bras sert-il à quelque chose ?

portable-reseau

Source : The Verge

 

Grâce à son bloqueur de pubs, Chrome (donc Google) est devenu le plus grand policier de la publicité

publicites-rues-1140

Source : The Washington Post

Par I. B