Ces robots visiteront l’intérieur des pyramides

Ainsi la Pyramide de Khéops recèle-t-elle encore bien des mystères, d’après une étude publiée dans la revue Nature en novembre dernier. Initiée par la Faculté des ingénieurs de l’université du Caire et l’Institut HIP (Héritage Innovation Préservation), la mission ScanPyramids, avec le concours du CEA, avait annoncé la découverte de cavités inconnues jusqu’à présent. Les premiers résultats datent en fait d’octobre 2016 et, depuis lors, les équipes scientifiques s’interrogent sur la manière d’explorer l’intérieur de ces cavités en les laissant intactes. Un robot ne pourrait-il pas se faufiler dans un trou de souris, résultat d’un perçage minutieux, puis atteindre ces recoins de pyramide toujours cachés aux yeux du monde ?

La mission ScanPyramids prend contact avec l’Inria (Institut national de recherche en informatique et en automatique) et ses experts-roboticiens. «A l’époque, nous ne savions pas réaliser ce genre de robot explorateur, admet Jean-Baptiste Mouret, chercheur et spécialiste en robotique et en intelligence artificielle. Mais le challenge était intéressant.» Le projet pour réaliser ce robot «minimalement invasif» est amorcé et, un an plus tard, les premiers détails techniques viennent d’être dévoilés : les chercheurs de l’Inria ne vont pas réaliser un seul robot miniature, mais deux. Le premier robot fait figure d’éclaireur et sert à établir l’état des lieux, en quelque sorte. Le second, qui ressemble à un petit dirigeable, est prévu pour se déplacer et examiner le site plus en détails, si possible ou si nécessaire.

blimp-1140x336

Un défi de miniaturisation

«Le robot de reconnaissance est équipé d’une caméra, orientable dans toutes les directions, qui permet de produire des images panoramiques de 15 000 pixels de large, explique Jean-Baptiste Mouret. Les trois torches bénéficient d’une puissance totale de 1500 lumens afin de percer l’obscurité. Le robot ne mesure que 3,5 centimètres de diamètre et il a fallu caser les moteurs, l’électronique… La miniaturisation a été un défi.» Relié à un câble transportant l’énergie et les données, ce robot se déplace à l’aide de roues et de chenillettes. «Celles-ci sont en contact permanent avec la paroi du trou pour assurer la propulsion, grâce au système de suspension que nous avons mis au point» détaille Jean-Baptiste Mouret. Le robot est aujourd’hui quasi-fonctionnel, bien qu’il demande encore à être éprouvé hors d’un laboratoire. A l’exception des composants électroniques et des axes, les prototypes ont été intégralement fabriqués en plastique, à partir d’une imprimante 3D Form 2.

Long de 30 à 35 centimètres dans sa configuration initiale, ce robot a l’avantage d’être modulaire. Les composants de propulsion sont indispensables, mais la plupart des autres pièces sont interchangeables. Une fois sa mission accomplie, le module de reconnaissance revient à son point de départ, est retiré puis remplacé par le robot d’exploration, qui emprunte le même chemin. Pour cette phase qui demande un robot mobile et même volant, les chercheurs de l’Inria ont imaginé et conçu un petit dirigeable, gonflé à l’hélium, et sa station d’accueil, autrement dit une mini-piste d’envol et d’atterrissage. Le dirigeable est piloté à distance par un opérateur à l’aide un émetteur-récepteur radio, logé dans la station d’accueil. La «nacelle»  embarque plusieurs composants, pour certains issus du modélisme, dont quatre moteurs, des projecteurs, une caméra analogique, un micro-contrôleur et surtout plusieurs capteurs qui aident à la navigation. Car l’engin est conçu pour être partiellement autonome. «Si la liaison radio est perdue, le robot doit retourner à sa base de lui-même, commente Jean-Baptiste Mouret. Dans une situation normale, ces capteurs assistent le pilotage, pendant le vol, et l’atterrissage de précision sur la station d’accueil.»

Des déplacements analysés à l’aide d’une vision d’insecte

Les capteurs en question sont élaborés à l’Institut des sciences du mouvement de Marseille (CNRS/Aix-Marseille Université). «Le capteur de flux optique mesure la vitesse des objets sur sa «rétine» lorsque le robot se déplace, développe Jean-Baptiste Mouret. Si les parois d’un couloir défilent à la même vitesse à gauche et à droite, le robot-dirigeable en déduit qu’il évolue au milieu. Ce système s’inspire de la vision des mouches et des abeilles. Le second capteur, HyperCube, sert à calculer l’angle d’approche en phase d’atterrissage.» Tous les éléments qui composent la nacelle, y compris les 20 grammes de batterie lithium-polymère pour 15 minutes d’autonomie, pèsent au total 50 grammes. Ce poids n’a pas été décidé de manière arbitraire car il dépend du volume du ballon, lequel fait 80 centimètres de diamètre. Ceci pour une bonne raison :  «Les couloirs dans la partie connue de la pyramide de Kheops mesurent un peu plus d’un mètre de large, constate Jean-Baptiste Mouret. La limite est donc imposée.» La quantité de gaz injectée dans le ballon, à partir d’une bouteille d’hélium située à l’extérieur, a également intérêt à être exacte au gramme près. Au-delà de 50 grammes, le ballon s’envole au plafond. En-dessous, il est incapable de soulever sa charge.

Le dépliement et le repliement de ce ballon, quand il est de retour sur la station d’accueil, donne toujours du grain à moudre aux chercheurs de l’Inria. «C’est en cours de réflexion, mais les astuces que nous mettons en œuvre commencent à fonctionner, se réjouit Jean-Baptiste Mouret. Le robot volant requiert encore au moins un an de travail avant que nous n’obtenions un prototype fiable. A ce moment-là, nous prévoyons d’inclure des algorithmes d’apprentissage pour que le robot puisse réagir à des situations imprévues, quand il subit un dommage par exemple. C’est aussi un axe de recherche.» L’ensemble du projet, s’il est lié à la mission ScanPyramids, a d’autres applications potentielles. «L’exploration des grottes ornées, difficiles d’accès ou préservées de l’influence humaine, et d’autres usages dans l’industrie sont envisageables, estime Jean-Baptiste Mouret. Ces robots répondent à un besoin que d’autres technologies actuelles ne peuvent assumer.»

Frédéric Monflier

Les molécules sont-elles droitières ou gauchères ?

Les équations théoriques prédisaient le phénomène, mais personne n’avait pu le prouver, comme l’expliquent les chercheurs dans leur article publié le 8 décembre 2017 dans la revue Science.

En enfilant le gant droit dans la main gauche, on expérimente ce qu’on appelle la chiralité : deux formes en tout point semblables mais qu’on ne peut pas superposer puisqu’elles sont des images miroir différentes. Cette propriété se retrouve un peu partout dans notre univers et à toutes les échelles, des particules élémentaires aux galaxies.

Bien que les caractéristiques physiques des molécules chirales soient les mêmes, une forme est la plupart du temps favorisée par les organismes vivants, dans l’ADN ou les acides aminés, par exemple. Diverses pistes existent pour expliquer cette « homochiralité de la vie » mais aucune ne fait consensus. Les conséquences de ce phénomène sont pourtant immenses, en pharmacologie par exemple : les deux images miroir d’une molécule chirale peuvent avoir des effets thérapeutiques très différents.

Dans cette étude, afin de révéler les propriétés subtiles des molécules miroir, les chercheurs ont étudié leur photoionisation, c’est‐à‐dire la manière dont elles perdent leurs électrons quand elles sont soumises à la lumière. La lumière produite par un laser ultrarapide du Centre lasers intenses et applications (CELIA, CNRS/Université de Bordeaux/CEA) à Bordeaux est d’abord polarisée de façon circulaire, puis dirigée vers les molécules de camphre. Ainsi, le champ électromagnétique décrit une spirale régulière dont le sens peut être ajusté à loisir. Lorsque cette lumière en spirale atteint la molécule chirale, elle provoque l’éjection d’un électron qui suivra lui aussi une trajectoire en spirale.

Dans le camphre sous forme gazeuse, les molécules sont orientées au hasard. La lumière du laser ne frappe donc pas toujours le même côté de la molécule chirale, et éjecte les électrons dans différentes directions. Pourtant, pour une image miroir donnée, les électrons sont éjectés davantage vers l’avant ou vers l’arrière de la direction de la lumière, selon son sens de polarisation, de la même façon qu’un écrou se déplace dans un sens ou l’autre selon la direction de la rotation.

Samuel Beaulieu, doctorant en science de l’énergie et des matériaux en cotutelle à l’INRS et à l’Université de Bordeaux, est remonté avec ses collègues aux sources de ce phénomène en mesurant très précisément l’éjection des électrons. Il a ainsi non seulement confirmé qu’un plus grand nombre d’électrons sont émis dans une direction, mais a surtout découvert qu’ils sont émis sept attosecondes plus tôt que dans la direction opposée. Il y a donc une asymétrie dans la réactivité de la molécule de camphre lorsqu’elle est ionisée par la lumière polarisée circulairement.

L’ionisation asymétrique des molécules chirales est une des explications possibles de l’homochiralité de la vie. L’expérience de Samuel Beaulieu a capturé les premières attosecondes d’un processus qui, sur des milliards d’années d’évolution, pourrait avoir mené à une préférence pour certaines molécules gauches ou droites dans la chimie de la vie. Il faudra d’autres découvertes fondamentales comme celle‐ci pour comprendre chaque étape de cette histoire où les événements se produisent à l’échelle de l’attoseconde.

Source : cnrs

La chimie, un secteur en plein rebond en 2017

Une croissance forte pour le premier semestre

L’industrie de la Chimie en France enregistre une croissance de 4 % en volume sur les sept premiers mois de 2017 par rapport à la même période de 2016 d’après l’Union des Industries Chimiques (UIC).

De bons résultats qui permettent de revoir les prévisions à la hausse et d’espérer une croissance d’au moins 3 % en volume en 2017 contre 2 % en 2016 précise Pascal Juéry, président de l’UIC.

Une balance commerciale en progression portée par les exportations

Selon Pascal Juéry, «en cumul à fin avril 2017, les exportations qui s’élèvent à 20 milliards d’euros, sont en hausse de 6,2 % en valeur par rapport à la même période de 2016».

Les prix des produits chimiques enregistrent une progression significative de 3 % en cumul à fin juillet 2017 par rapport à la même période de 2016 d’après l’UIC.

Grâce à ses exportations, le secteur de la chimie prend une place grandissante dans la balance commerciale du pays en affichant un solde positif des échanges cumulé à fin juillet 2017 de 4,9 milliards d’euros (contre 4,5 milliards d’euros en 2016).

A noter que deux secteurs de la chimie profitent d’une progression plus significative : le secteur des produits organiques (matières plastiques de base, caoutchouc synthétique…) et celui des produits chimiques de consommation (savons, parfums, cosmétiques, produits d’entretien…).

L’avenir de l’industrie chimique en France

Le rebond observé s’inscrit dans une dynamique positive qui s’opère depuis ces dernières années en chimie. La filière a, en effet, engendré une croissance de 2,8 % en 2013 et 2014, puis de 1,6 % en 2015 et de 2 % en 2016. Depuis dix ans, le secteur de la chimie est le bon élève de l’industrie française avec un taux moyen de croissance qui atteint 1 % par an.

Avec un chiffre d’affaires de 71 milliards d’euros en 2016, la France se hisse au deuxième rang européen des pays producteurs derrière l’Allemagne.

Cependant, au-delà de cette situation conjecturelle avantageuse, l’activité de l’industrie chimique française est en déclin depuis une dizaine d’année avec des parts de marché passant de 4% à 2% entre 2007 et 2015. La compétitivité de la filière est confrontée à la concurrence des pays d’Asie et du MoyenOrient qui bénéficient de débouchés importants ou de matières premières bon marché.

Selon Pascal Juéry, la chimie doit mettre en place de véritables stratégies pour répondre aux enjeux de ce secteur notamment dans le domaine de l’innovation. Dans cette optique, les représentants de l’UIC, des pôles de compétitivité Axelera, Elastopôle, IAR, Matikem, Plastipolis, Trimatec, Xylofutur et du cluster Novachim ont signé le 19 octobre dernier la convention de partenariat pour la création de CROSSCHIM. Cet inter-réseaux de la filière chimie aura notamment pour mission de renforcer la compétitivité des entreprises françaises via différentes actions visant à promouvoir l’innovation dans les industries de la chimie.

Par Aliye Karasu

L’informatique aux commandes de la biologie

La biologie de synthèse qui allie la biologie et l’ingénierie, a pour but de (re)programmer les cellules pour qu’elles améliorent leur rendement dans une tâche précise ou qu’elles accomplissent efficacement une tâche nouvelle. Un des enjeux de cette discipline est donc de contourner les limitations des systèmes biologiques existants. Il est par exemple difficile d’obtenir la même expression des gènes d’une cellule à l’autre même si celles-ci sont cultivées dans un même milieu. Grâce à ces technologies de pointe, les chercheurs parviendraient à contrôler de façon très homogène un processus cellulaire sur une longue période.

Les chercheurs de l’Institut Pasteur et d’Inria, du CNRS et de l’université Paris-Diderot, et de l’IST Austria ont mis au point deux plate-formes connectant un microscope à un ordinateur. Les cellules sont placées dans un dispositif de microfluidique permettant de leur imposer des variations dans leur environnement chimique ou des stimulations lumineuses. Le programme informatique décide des modifications à apporter à l’environnement chimique ou lumineux de la cellule en fonction de son comportement courant et de l’objectif désiré. L’ordinateur gère également l’acquisition d’images par le microscope et leur analyse pour connaitre en temps réel les réponses cellulaires.

Dans le premier article, des chercheurs de l’unité InBio – Méthodes expérimentales et computationnelles pour la modélisation des processus cellulaires (Institut Pasteur / Inria)¹ , et des groupes Biologie des systèmes et de synthèse des réseaux génétiques, dirigé par Călin C. Guet, et Biophysique et neuroscience, dirigé par Gašper Tkačik, de l’IST Austria, ont utilisé l’optogénétique pour activer l’expression d’un gène grâce à une exposition à la lumière. L’utilisation d’une protéine fluorescente permet de mesurer la quantité de protéine produite. Un contrôleur utilisant un modèle du système permet alors de choisir en temps réel les perturbations dynamiques à appliquer en tenant compte du comportement futur des cellules.

Grâce au programme informatique créé par les chercheurs, ceux-ci ont la possibilité de contrôler chaque cellule individuellement de différentes façons, ou de créer des communications entre plusieurs cellules qui font circuler des messages dans un ordre aisément reconfigurable. « Nous sommes parvenus à créer une plate-forme expérimentale nous permettant de concevoir des circuits qui sont partiellement biologiques et partiellement virtuels. Les parties virtuelles de ces circuits peuvent être modifiées arbitrairement pour explorer rapidement des comportements cellulaires divers,allant même au-delà de ce qui était jusque-là biologiquement possible » commente Jakob Ruess, co-premier auteur du premier article.

Dans le deuxième article, Grégory Batt, responsable de l’unité InBio et co-dernier auteur avec Pascal Hersen (CNRS)2 du Laboratoire Matière et systèmes complexes (CNRS/Université Paris Diderot), explique comment ils sont parvenus à amener un système cellulaire dans une configuration instable : « Nous avons conçu un programme informatique qui vise à forcer les cellules à prendre des décisions binaires de manière aléatoire. Pour ce faire, les cellules sont entraînées dans une région d’instabilité – comme des alpinistes sur une ligne de crête – puis on les laisse évoluer librement vers l’une des deux configurations stables possibles. De manière inattendue, nous avons constaté qu’une même stimulation, si elle était bien choisie, était capable d’entraîner et de maintenir des groupes de cellules différentes dans la région d’instabilité. » Ces résultats peuvent aider à mieux comprendre comment des populations de cellules prennent collectivement des décisions robustes sans coordination individuelle.

Les avancées scientifiques décrites dans ces articles ont été rendues possible par l’alliance entre deux disciplines aujourd’hui complémentaires : la biologie et les sciences du numérique. L’étroite collaboration entre l’Institut Pasteur et Inria, formalisée par la structure commune de recherche InBio dont l’objectif est de développer un cadre méthodologique permettant une compréhension quantitative du fonctionnement des processus cellulaires, illustre donc parfaitement l’utilité d’une recherche interdisciplinaire où se mêlent approches expérimentales et développements méthodologiques.

De son côté, l’équipe de Pascal Hersen au Laboratoire Matière et systèmes complexes (CNRS/Université Paris Diderot) combine les outils et les concepts de physique, d’ingénierie, de théorie du contrôle et de biologie synthétique pour établir les fondements de la cybergénétique² .

¹ L’unité InBio fait partie du Centre de bioinformatique, biostatistique et biologie intégrative (Institut Pasteur / CNRS)

² Projet SmartCells, voir http://www.cnrs.fr/insis/international-europe/erc/consolidator/pascal-hersen.htm

Source : cnrs

Quand l’énergie solaire produit du pétrole

Centrale solaire de 850 MW

La compagnie GlassPoint Solar sera chargée de construire cette centrale solaire à concentration de 850 MW, capable de fournir assez de vapeur d’eau pour extraire 12 millions de barils par an, soit environ 40% de la capacité de production du gisement situé à Bakersfield, en Californie. Découvert en 1911, c’est l’un des plus vieux sites pétroliers des Etats-Unis. Après une période de déclin, l’amélioration des techniques de récupération (enhanced oil recovery) lui a redonné une nouvelle jeunesse. Or, ces procédés nécessitent beaucoup de vapeur d’eau pour fluidifier le pétrole lourd qu’abrite le réservoir. Jusqu’à maintenant, elle était produite par une centrale à gaz. L’opérateur Aera Energy, détenu par Shell et ExxonMobil, estime qu’il réduira ses émissions de CO2 de 376 000 tonnes, grâce à la centrale solaire dont la mise en service est annoncée pour 2020. Une ferme photovoltaïque de 26,5 MW sera également construite pour répondre à une partie des besoins électriques du site.

Projet Miraah

Selon John O’Donnel de GlassPoint, la préoccupation environnementale n’est pas la seule qui motive les pétroliers américains, même s’ils sont soumis à un système cap & trade de leurs émissions de CO2. La chute des coûts des énergies renouvelables est également un facteur déterminant, tout comme la sécurité d’approvisionnement. Il prend ainsi  l’exemple d’Oman, où l’entreprise américaine a déjà construit une centrale solaire à concentration de 1 000 MW pour le projet Miraah. «À Oman, il y a un véritable problème d’approvisionnement en gaz, l’énergie solaire joue donc un rôle indispensable dans le pays», explique-t-il. Inutile de préciser que dans cette région, les conditions sont extrêmement favorables aux technologies solaires. Le norvégien Statoil étudie lui aussi la possibilité d’utiliser l’énergie solaire pour des projets au Brésil.

Si les écologistes sont plutôt réservés, c’est que le bilan carbone de ces initiatives consistant à utiliser les énergies renouvelables pour produire, et donc consommer, des énergies fossiles reste globalement négatif. Sauf à considérer que ces énergies carbonées auraient de toute manière été exploitées, d’une manière ou d’une autre. Un débat que Techniques de l’Ingénieur laisse ouvert à ses lecteurs.

Romain Chicheportiche

Une nouvelle méthode de synthèse des matériaux joue au billard avec les ions

Baptisée PDII, pour « proton-driven ion introduction », cette méthode utilise un phénomène similaire à l’éjection des boules de billards par d’autres boules. Le principe de la PDII est d’appliquer un courant à haute tension (plusieurs kV) à une anode en forme d’aiguille placée dans une chambre à hydrogène. La tension génère alors des protons par dissociation de l’hydrogène. Les protons migrent le long du champ électrique et sont dirigés vers un premier matériau, source des ions que l’on souhaite introduire. Les ions (positifs) de la source sont alors eux-mêmes éjectés de la source vers le matériau hôte placé dessous où ils s’intercalent dans des espaces nanométriques entre les feuillets d’un cristal.

D’intéressants premiers essais

Dans cette étude, parue dans le Journal of American Chemical Society, l’équipe de chercheurs a réussi à introduire de manière homogène des ions lithium, sodium, potassium, cuivre et argent dans un matériau 2D, le bisulfure de tantale, tout en maintenant ses caractéristiques cristallines. L’équipe a aussi réussi à substituer des atomes de sodium à des atomes de potassium dans un Nasicon (Na-Super Ionic Conductor) de type Na3V2(PO4)3, créant ainsi un nouveau matériau thermodynamiquement stable que l’on ne peut pas obtenir par des méthodes de synthèse conventionnelle. Les chercheurs espèrent pouvoir utiliser d’autres ions dans des matériaux hôtes plus divers, ouvrant ainsi la voie pour la synthèse de très nombreux nouveaux matériaux. Reste maintenant à travailler sur une méthode similaire qui permettrait de manipuler des ions négatifs ou multivalents, notamment pour le développement de matériaux fonctionnels pour les batteries ou l’électronique.

pdii illustration 1
Copyright : Fujioka M. et al., Journal of the American Chemical Society, November 16, 2017 Les protons, générés par dissociation électrique de l’hydrogène (en bleu), viennent prendre la place d’autres ions positifs (en rouge) dans le matériau source. Ces derniers sont alors expulsés vers le cristal hôte, dans lequel ils s’insèrent entre les feuillets (symbolisés par des rangées de triangles).

Avantages par rapport à d’autres méthodes

Bien souvent, l’insertion ou la substitution d’ions sont menées dans des solutions ioniques. Outre l’aspect parfois peu pratique, ces réactions présentent plusieurs inconvénients majeurs : il est difficile de rendre l’insertion homogène et certaines molécules du solvant peuvent aussi s’insérer en plus des ions, dégradant la qualité du cristal, sans compter tous les matériaux qui ne supportent pas d’être placés dans un liquide ! Dans des méthodes à l’état solide comme le dépôt chimique en phase vapeur (CVD) parfois utilisé pour l’insertion d’ions, certaines contraintes de mise en œuvre limite les possibilités : limitation de la taille des échantillons, besoin de très hautes températures. La PDII développée ici pourrait permet de se passer de ces contraintes : pas de limitations de taille, températures moins élevées (100-350°C pour le transfert d’ions cuivre, argent ou de métaux alcalins).

pdii illustration 2
Copyright : Fujioka M. et al., Journal of the American Chemical Society, November 16, 2017) Schéma de fonctionnement avec expulsion en cascades d’ions

 

Copyright : Fujioka M. et al., Journal of the American Chemical Society, November 16, 2017) Photo de l'échantillon où s'est fait la substitution
Copyright : Fujioka M. et al., Journal of the American Chemical Society, November 16, 2017)
Photo de l’échantillon où s’est fait la substitution

Par Sophie Hoguin

Unplugged Afrique

Disparités électriques

La conférence organisée mi-novembre par Business France et GreenUnivers à Paris a permis de dresser un tableau actualisé de la situation africaine. Le continent est le moins électrifié du monde avec un taux moyen de 42%. Ce chiffre cache néanmoins de fortes disparités entre les pays et les régions (voir carte). Les pays sub-sahariens présentent des taux extrêmement faibles (4,5% pour le Soudan du sud, 8% au Tchad) tandis que les pays du Maghreb sont tous au-dessus de 90%, tout comme l’Egypte et l’Afrique du sud. Au sein même des pays, le clivage ville/campagne est lui aussi très important. Les quelque 620 millions d’africains vivant sans électricité se trouvant majoritairement en zones rurales. Tirer des lignes électriques pour étendre le réseau haute-tension existant coûte cher et ne s’avère généralement pas rentable.

Electrification Afrique Banque mondiale 2014

Les besoins d’énergie sont particulièrement importants en Afrique de l’Ouest en raison d’un phénomène de rattrapage (+10/15% par an de la consommation) suite à une dizaine d’années de crise économique et/ou politique. Dans la région, la Côte d’Ivoire fait office de hub énergétique. La diversification de son économie l’a relativement préservé des crises et le pays exporte de l’énergie à ses voisins. Dans le cadre de la COP21, la Côte d’Ivoire s’est engagé sur la voie des énergies renouvelables (Enr) en promettant d’hybrider 51 centrales existantes et en mettant en place un début de cadre réglementaire pour les Enr. Le potentiel éolien étant relativement faible dans cette région, le solaire devrait prendre une part significative des nouvelles installations.

En Afrique de l’Est, les pays tels que le Kenya, Tanzanie, Ouganda, Rwanda ou Ethiopie sont des marchés scrutés de près par les acteurs de l’énergie. Les économies sont plus diversifiées qu’à l’Est et affichent des croissances significatives depuis les 10 dernières années (4,9%/an en moyenne). Selon Xavier Chatte-Ruols, directeur du bureau Afrique de l’Est à Business France, l’Ethiopie notamment devrait devenir « un monstre économique dans 10-15 ans » dont les besoins en énergie, déjà largement couvert par l’hydroélectricité, devraient l’être par le triptyque : eau-vent-soleil. Les entreprises chinoises, bien implantées dans le BTP, sont encore peu présentes dans le secteur énergétique ce qui laisse encore des marges de manœuvres aux acteurs français. Un projet d’union douanière couvrant ces 5 pays prévoit de réduire les barrières douanières pour favoriser le développement économique de la région.

Le potentiel de l’off-grid

Malgré quelques grands projets renouvelables, l’Afrique peine à développer ces grandes infrastructures qui nécessitent des réseaux solides et étendus et de lourds financements. C’est pourquoi de nombreuses entreprises ont préféré miser sur les solutions hors-réseau. C’est le cas d’upOwa, société franco-camerounaise qui propose des kits solaires pour les villages ruraux. Ils sont composés de panneaux photovoltaïques de 5 à 30 Watts, d’une batterie, de lampes torches, d’une radio et d’un téléphone. Ce dernier est indispensable car c’est lui qui permet de réaliser les paiements. « C’est le concept pay-as-you go. Les familles ou petits commerces contractent un crédit sur 1 à 3 ans pour rembourser le kit. En cas de non paiement, le kit arrête de fonctionner », explique Caroline Frontigny, cofondatrice d’upOwa. Un système inspiré du leader africain du secteur, M-Kopa, qui a écoulé ainsi plus de 500 000 kits solaires sur le continent !

Très adaptés à son public, les kits solaires nécessitent en revanche la mise en œuvre d’un important réseau de distribution. « C’est un véritable défi car dans certains de ces villages, il n’y a que Coca Cola qui est présent », remarque Caroline Frontigny.

Par ailleurs, un service financier de type micro-crédit est indispensable pour convaincre des utilisateurs aux revenus très faibles. Mais grâce à l’arrivée des nouveaux acteurs de l’off-grid, le prix des kits a déjà été réduit de 50%. Et leur utilisation devrait aller plus loin que la seule télévision avec une multiplication des usages de l’énergie, tel que des kits avec pompe à eau. L’accès à l’eau est en effet une autre problématique centrale en Afrique.

Par Romain Chicheportiche

Les mâts d’éoliennes en béton imprimés en 3D

Impression 3D

Grâce à cette subvention, RCAM Technologies va pouvoir lancer la fabrication de la partie inférieure de deux mâts d’éoliennes d’une hauteur comprise entre 140 et 170 mètres. Les sections prototypes seront fabriquées à l’aide d’un bras robotisé contrôlé par l’imprimante 3D, et testées à l’Université de Californie à Irvine. «Lorsque vous construisez un parc éolien, vous voulez construire les éoliennes les plus hautes possible pour capturer le vent en altitude », constate Jason Cotrell. «Cependant, lorsque vous construisez des éoliennes de grande taille, le diamètre des tours devient si important qu’elles sont difficiles à transporter sur les routes. Avec cette technologie, nous sommes en mesure de fabriquer ces mâts sur site en utilisant un processus automatisé de fabrication qui nous permet de contourner les contraintes de transport et de logistique», explique-t-il. De plus, le rendement moyen de ces grandes éoliennes serait augmenté de 20%, selon les calculs de l’Américain.

Acier ou béton ?

Les grands leaders du secteur proposent à leurs clients des plateformes avec des mâts en acier ou béton. Ces derniers comporte aussi un segment en acier par-dessus. La tour en béton est construite à l’aide de différents anneaux qui sont assemblés sur le chantier. La partie en acier est placé par-dessus à l’aide de la grue. Le mât entièrement en acier se compose lui de 4 segments qui s’empilent. Pour l’éolien en mer, l’utilisation d’un béton fibré à ultrahaute performance (BFUP) est étudiée par les porteurs de projets. A noter enfin que le développeur de parcs éoliens Innovent a installé la toute première turbine française équipée d’un mât en bois, à Argentan, dans l’Orne. Plus économique et écologique, il ne mesure néanmoins que 60 mètres.

Reste la question du coût. Selon Aaron Barr, consultant senior chez Make Consulting, «Les tours de béton sont rapidement apparues comme une alternative économique aux tours tubulaires en acier pour les hauteurs moyenne de plus de 120 mètres». La plupart des tours en béton ont utilisé des sections préfabriquées ailleurs et expédiées en plusieurs segments. Le procédé de RCAM Technologies éviterait ces contraintes logistiques en coulant du béton directement sur le site. La start-up californienne n’est pas la seule à travailler sur le sujet et serait en conversation avec un industriel dont le nom est resté confidentiel. « Nous sommes en contact avec ce fabricant et espérons collaborer avec lui à l’avenir », confie l’heureux lauréat.

Romain Chicheportiche

Comment les prix des énergies renouvelables ont-ils pu tomber si bas ?

Mexique : terre bénie

Avec un prix minimum de 20,57 $/MWh, le gouvernement mexicain peut se frotter les mains. Il a reçu des offres pour la construction de centrales solaires et éoliennes avec des prix défiant toute concurrence, même d’énergies fossiles polluantes. Ce nouvel appel d’offres va se traduire par la construction de quinze centrales cumulant 2 562 MW. Le pays bénéficie de conditions climatiques idéales, d’une consommation en hausse et a récemment libéralisé son secteur de l’énergie pour attirer les investisseurs. C’est donc assez logiquement que les appels d’offres organisés par le Mexique – c’est le 3e en seulement 18 mois – se soient traduits par des prix très bas (42$ et 31$/MWh). Mais la chute continue des coûts des énergies renouvelables (Enr) laisse désormais perplexes certains observateurs du secteur.

Mexico a bénéficié à plein de la guerre des prix qui fait actuellement rage dans le secteur de l’énergie. En élaborant des appels d’offres internationaux et surtout « technologiquement neutres », le gouvernement mexicain abandonne une vieille tradition consistant à déterminer son mix électrique selon des considérations politiques pour ne faire jouer que le principe de concurrence entre énergies. Le Mexique n’est pas le seul à avoir choisi cette voie dans la région à l’image du Chili, de l’Argentine ou plus proche de nous, l’Espagne. Tous ces pays ont tiré profit de la baisse des coûts des Enr tout en surfant sur la concurrence acharnée que se livrent les grands groupes pour capter ces parts de marché.

Guerre des prix

Une stratégie symbolisée par le cas Enel Green Power, grand vainqueur du dernier appel d’offres mexicain comme des précédents d’ailleurs, et poids lourd du secteur. Cette fois-ci, le groupe italien a remporté 593 MW éoliens à lui seul, notamment sur trois parcs dénommés Amistad (2-3 et 4). Ils sont des extensions d’un parc existant, Amistad 1, déjà remporté lors d’un autre appel d’offres, ce qui permet de réduire une partie des coûts (notamment liés au raccordement réseau). Enel a également mis en place une stratégie financière agressive visant à revendre très rapidement les projets remportés pour ne pas faire face au mur d’investissements qu’ils représentent. Dans l’éolien, l’investissement est d’environ 1 millions d’euros par Mégawatt installé. C’est ainsi qu’en octobre dernier, le groupe italien a revendu pour plus d’un milliard d’euros ses projets Enr mexicains à la Caisse de dépôt et placement du Québec (CDPQ) et le fonds de pension CKD Infraestructura México, à travers une structure nommée Holdco.

Une stratégie qui a placé l’Enel comme le 1er opérateur Enr du pays avec 728 MW installés et plus de 1 800 MW en projet ou construction. A noter également le projet photovoltaïque de 377 MW remporté par le développeur français Neoen et les quatre centrales gagnées par Engie cumulant 688 MW.

Par Romain Chicheportiche

Une nouvelle voie peu énergivore pour mélanger huile et eau

Aujourd’hui on fabrique des émulsions d’huile dans l’eau (ou d’eau dans l’huile) en secouant énergiquement les deux corps soit mécaniquement soit en utilisant des ondes sonores -ultrasons (qui provoquent d’intenses vibrations dans le liquide). Plus on recherche une émulsion fine, c’est-à-dire où les bulles sont petites, et le plus stable possible (sans phénomène de coalescence ou de séparation), plus il faut dépenser de l’énergie pour fabriquer l’émulsion. Pour stabiliser ces émulsions on utilise en plus des tensioactifs en plus ou moins grande quantité. Les chercheurs du MIT propose un système qui permet d’obtenir des émulsions nanométriques stables avec une dépense d’énergie minimale.

S’appuyer sur la condensation

Le principe de ce nouveau process est simple : une cuve contenant de l’huile (ici du dodécane) et une petite quantité de tensioactif -en l’occurrence du monooléate de sorbitane, un tensioactif non ionique très courant – est placée dans une pièce contenant de l’air très humide (75-80% d’humidité) à 20°C. La cuve est refroidie (via un module Peltier dont on diminue le thermostat de 2°C). L’humidité de l’air environnant condense alors à la surface de l’huile. Les expériences effectuées, relatées dans Nature Communications montrent que les gouttelettes d’eau qui se forment à la surface sont particulièrement uniformes et finissent par couler dans l’huile. La quantité de tensioactif permet en outre de contrôler la taille de ces gouttelettes. Les chercheurs du MIT ont ainsi réussi à obtenir des émulsions nanométriques stables pendant plusieurs mois. Les recherches menées à l’occasion de ces différentes expériences ont permis de mieux comprendre les phénomènes d’interaction entre tensioactif/eau/huile dans ces conditions. Les chimistes du MIT assurent que le process est facilement transférable à l’échelle industrielle en raison de sa simplicité et de son faible coût et qu’il est reproductible avec de nombreux autres tensioactifs, corps gras ou liquides à base aqueuse.

Des applications industrielles possibles

Trois secteurs principaux utilisent régulièrement des émulsions : la pharmaceutique, les cosmétiques et l’agroalimentaire et pourraient donc être intéressés par cette nouvelle voie de fabrication des émulsions. Rappelons en effet que les dates de péremption de nombreux produits cosmétiques ou pharmaceutiques sont liés à l’instabilité des émulsions qui les composent. Les chercheurs pensent même que le procédé pourrait trouver des applications dans l’industrie du gaz et du pétrole où les fluides utilisés pour l’évacuation des boues sont aussi basés sur des émulsions.

Sophie Hoguin

TOP 5 : les articles les plus lus #novembre2017

La COP23 lance une année clé pour le climat

La COP23 a lancé le dialogue Talanoa visant à revoir l’ambition de réduction des émissions de gaz à effet de serre mondiales d’ici 2020. Les négociations prendront fin à la COP24 en Pologne en 2018. De quoi faire de l’année prochaine une année clé pour le climat.

bonn-cop23-1140x336

 

La surveillance permanente des internautes

Tout le monde sait que les sites, en particulier ceux du e-commerce, s’appuient sur des mouchards pour enregistrer nos comportements pour nous proposer des offres personnalisées. Mais certaines entreprises, ainsi que Google (avec Android), poussent cette analyse encore plus loin…

donnees-personnelles-1140x366

 

Astrophysique: une théorie se passe de la matière noire

Un article paru dans The Astrophysical Journal propose un nouveau modèle théorique de l’Univers basé sur l’invariance d’échelle du vide. Il se passe de l’existence de la matière et de l’énergie noire pour expliquer l’accélération de l’expansion de l’univers et sa «masse manquante».

matiere-noire-1140x336

 

Piratage : transformer un robot en tueur

En 2000, « Mon voisin, le tueur » sort au cinéma. Dans ce film, Bruce Willis joue le rôle d’un exécuteur sous les traits d’un paisible voisin. Demain, nous aurons peut-être droit à l’équivalent pour les robots. Méfions-nous des apparences…

robot-tueur-1140

 

Une nouvelle filière de recyclage pour les petits aluminiums

Déjà 9 millions de Français peuvent trier et recycler leurs petits emballages métalliques grâce au Projet Métal. À l’occasion du 100e Congrès des Maires et des présidents d’intercommunalité, le projet est relancé. Objectif : couvrir 30 millions d’habitants en 2022.

nespresso-capsules-1140x336

Par I. B

Coup de projecteur sur nos nouveautés !

 

couv_SE

MENACES ET VULNÉRABILITÉS : PROTECTION DES SITES INDUSTRIELS

Les attaques du 11 septembre 2001 contre les tours jumelles du World Trade Center ont marqué un tournant dans la prise en compte des menaces dans les pays occidentaux. Dans le domaine de la sécurité industrielle, la France a développé une approche intégrée en matière de prévention des pollutions et des risques et de délivrance unique des autorisations administratives. Avec la croissance des cas de malveillance industrielle, un nouvel enjeu de « sûreté industrielle » est apparu. >> À retrouver dans l’offre Sécurité et gestion des risques

 

couv_int

LES GRANDS ÉVÉNEMENTS DE L’ANNÉE [actualisation]

 L’année 2017 a été marquée par trois événements majeurs : les catastrophes naturelles – cyclones, typhons et orages violents ; la polémique autour du désherbant à base de glyphosate ; et la décision politique concernant les 11 vaccins obligatoires. Dans le cadre de l’actualisation de cette rubrique, découvrez une sélection d’articles de fond de notre collection pour analyser, approfondir et prendre du recul face à ces événements. >> À retrouver dans l’offre Innovations technologiques

 

couv_epub 

INNOVATIONS MARQUANTES – TIC & ELECTRONIQUE  [epub]

Technologie LiFi, Monnaies cryptographiques et blockchains, Big Data… Cette sélection d’articles vous propose de faire le tour de quelques-unes des grandes technologies numériques qui ouvrent la voie à une nouvelle révolution industrielle. Le format epub permet de lire et d’interagir avec le contenu sur tous les supports PC, tablettes ou smartphones. >>À retrouver dans l’offre Innovations technologiques

 

Télécharger la lettre des éditeurs au format PDF

Propriété intellectuelle et brevets d’invention

 

Qu’est-ce que la propriété intellectuelle ?

Le domaine d’application de la propriété intellectuelle est à la fois vaste et hétérogène : la propriété intellectuelle intéresse des réalisations aussi diverses que les inventions, les logiciels, les créations littéraires ou artistiques, les bases de données, les semi-conducteurs, les obtentions végétales, les marques, les dessins et modèles…, dont les régimes juridiques diffèrent fortement, qu’il s’agisse de la nature, de la durée ou de l’efficacité de la protection, ou des conditions à remplir et formalités à accomplir pour en bénéficier. Sans prétendre devenir un spécialiste de la propriété intellectuelle, il est important de pouvoir se repérer dans ce maquis de droits afin de préserver ou d’optimiser la protection de ses innovations et actifs intellectuels.

Les idées novatrices sont-elles protégeables par le droit de la propriété intellectuelle ?

En droit de la propriété intellectuelle, selon une expression jurisprudentielle, les idées sont libres de parcours. En d’autres termes, les idées, novatrices ou non, ne sont pas protégées ni protégeables par le droit de la propriété intellectuelle, même par le droit d’auteur qui est pourtant le plus souple. Il n’existe d’ailleurs aucun registre des idées. Tel est également le cas des concepts, savoir-faire industriels ou techniques non brevetables, savoir-faire commerciaux, méthodes de toute nature (économique, financière, commerciale ou d’enseignement), quels que soient leur valeur ou leur intérêt économique. En effet, les idées ne sont pas considérées comme des biens intellectuels, dans la mesure où l’idée n’est pas toujours le résultat d’une activité créative ou inventive, parce qu’elle peut être fortuite et est, par définition, insuffisamment formalisée.Toutefois, l’absence de protection en tant que telle d’une idée novatrice, par le droit de la propriété intellectuelle, ne lui fait pas perdre son intérêt économique et stratégique. Les idées novatrices sont souvent les prémices d’une activité créative ou inventive. Dès lors, son secret doit être conservé et protégé, afin de conserver tout avantage concurrentiel sur l’œuvre, la marque, le brevet ou encore le dessin et le modèle à venir.

Comment protéger et valoriser son savoir-faire ?

Le secret est l’un des premiers modes de protection du savoir-faire. Il est d’ailleurs au cœur de sa définition. C’est lui seul qui confère son avantage concurrentiel. Juridiquement, la protection du savoir-faire par le secret nécessite la conclusion de contrats ou de clauses de confidentialité imposant à leurs signataires une obligation de non-divulgation et de non-utilisation, à des fins autres que celles prévues dans l’accord, des informations confidentielles auxquelles ils pourront accéder. Ces obligations de confidentialité sont essentielles et doivent être imposées à toute personne susceptible d’avoir accès au savoir-faire. Techniquement, la protection du savoir-faire par le secret impose des mesures pratiques et organisationnelles garantissant, directement et indirectement, la confidentialité. Il s’agit par exemple de mettre en place un système de sécurité d’entreprise efficace et notamment des mesures physiques de sécurité. Il est également souhaitable d’instaurer un système d’identification et de classement des éléments constitutifs du savoir-faire, selon leur valeur et leur sensibilité. Les nouveaux éléments secrets doivent être identifiés et classés, et les éléments ayant perdu, pour diverses raisons, leur valeur économique doivent être déclassifiés.

>> Découvrez Propriété intellectuelle et brevets d’invention dans l’offre Management et ingénierie de l’innovation

 

Télécharger la lettre des éditeurs au format PDF

Des experts mis à l’honneur en 2017

 

pierre_monsan

Pierre Monsan a reçu le prix Enzyme Engineering 2017 au nom d’ECI (Engineering Conferences International) et de Genencor, lors de la 24e session de l’« Enzyme Engineering Conference ». Ce prix récompense une réussite exceptionnelle dans le domaine de l’ingénierie enzymatique, tant d’un point de vue académique qu’industriel. Conseiller éditorial pour Techniques de l’Ingénieur sur l’offre Bioprocédés depuis sa création, Pierre Monsan est Directeur de Toulouse White Biotechnology (TWB), Professeur émérite à l’INSA (Institut national des sciences appliquées) – Université de Toulouse, membre de l’Académie des technologies, de l’Académie de l’agriculture de France et du College of fellows de l’AIMBE (American Institute for Medical and Biological Engineering).

 

marie-odile simmonot2

Marie-Odile Simonnot vient de recevoir la médaille d’or de l’Académie d’agriculture pour l’ensemble de ses travaux sur le transport réactif dans les sols, la valorisation des métaux contenus dans les plantes et la requalification des sites dégradés. Professeur en génie des procédés à l’université de Lorraine (Nancy), Marie-Odile Simonnot dirige depuis 2017 le pôle scientifique EMPP (Énergie, Mécanique, Procédés, Produits). Elle est conseillère éditoriale pour Techniques de l’Ingénieur sur la rubrique Génie des procédés et protection de l’environnement depuis 2012.

 

Télécharger la lettre des éditeurs au format PDF

30e prix Roberval : « Stockage de l’énergie » parmi les finalistes !

 

À quoi sert le stockage de l’énergie ?

L’énergie éolienne ainsi que l’énergie solaire sont intermittentes et non modulables en fonction de la demande. Pour assurer leur développement futur, il faut pouvoir stocker de l’énergie et en restituer pour équilibrer offre et demande. Par ailleurs, se pose la question épineuse de l’utilisation de ces « énergies de flux » pour le transport automobile (véhicules particuliers et utilitaires), dans le contexte d’un développement rapide des véhicules électriques (stockage embarqué). Il faut noter aussi la multiplication des applications portables (ordinateurs, smartphones, etc.), qui nécessitent un stockage d’énergie.

Quelles sont les différents types de stockage ?

Il existe de nombreux types de stockage, qui correspondent à des applications différentes, stationnaires ou mobiles. Pour de grandes capacités de stockage, on utilise généralement les systèmes gravitaires dans des lacs d’altitude, qui  nécessitent des sites appropriés, souvent éloignés des zones d’utilisation. Les batteries, qui stockent l’électricité sous forme électrochimique, trouvent des applications à la fois stationnaires et mobiles. Des progrès importants ont accompagné récemment la commercialisation de véhicules électriques. La densité d’énergie stockée a pu ainsi être multipliée par un facteur de 4 à 5 pour les batteries Li-ion par rapport aux batteries au plomb. Enfin, il faut noter l’intérêt des grands acteurs de l’énergie pour l’hydrogène, comme vecteur de stockage et de transport de l’énergie. Les systèmes power-to-gas, consistant à produire du méthane de synthèse (SNG) en utilisant de l’énergie électrique, permettent de faire appel aux infrastructures existantes de transport et de stockage du gaz naturel.

Quel est l’avenir du stockage de l’énergie ?

Le stockage d’énergie est déjà indispensable pour de nombreuses applications. Il devrait donc connaître des développements importants dans l’avenir, notamment dans le domaine des applications mobiles ou portables. L’évolution est plus lente dans le domaine des applications stationnaires de grande capacité, qui nécessitent des investissements très importants. Dans ce secteur, le stockage gravitaire reste l’option prédominante. Les options de stockage décentralisé, notamment par batteries, devraient prendre une place croissante.

Quelle est la place de la France dans ce secteur ?

La France se place en relative bonne position, notamment en R&D, avec les travaux menés au CEA et à l’IFPEN. Elle dispose également de fabricants de batteries à haute valeur ajoutée (SAFT, Blue Solutions, ARTS Energy). Enfin, dans le domaine automobile, les constructeurs, notamment Renault, ainsi que des industriels tels que Bolloré, avec son réseau d’auto-partage Autolib’, sont très actifs. Il reste à faire valoir tous ces atouts dans la rude compétition qui s’annonce à l’échelle internationale, face notamment aux acteurs asiatiques.

>> Accéder à l’offre Ressources énergétiques et stockage

 

alexandre-rojey

Alexandre Rojey anime le think tank IDées au sein de la Fondation Tuck, dans le domaine de l’énergie et du développement durable. Il intervient dans l’enseignement à IFP School et mène par ailleurs différentes activités de conseil. Il a été précédemment directeur du Développement durable à l’IFPEN où il a coordonné l’ensemble des activités de R&D liées à la préservation de l’environnement et à la prévention du réchauffement climatique. Il a été également président de CEDIGAZ, association internationale qui intervient dans le domaine du gaz naturel ainsi que président d’ECRIN Énergie. Il est l’auteur de différents ouvrages, portant notamment sur la transition énergétique, et est conseiller éditorial pour Techniques de l’Ingénieur depuis juin 2015.

 

Télécharger la lettre des éditeurs au format PDF

Quelle place pour la French Health Tech ?

La France dispose traditionnellement d’une bonne dynamique en matière de recherche médicale. Les nouvelles technologies ont naturellement intégré cette dynamique créant un important vivier d’entreprises positionnées sur le secteur de la Health Tech : l’étude BBC en inventorie plus de 600 dont une vingtaine sont en train de développer des produits innovants destinés à plus de 11 millions de patients français (et 250 millions dans le monde).

Quels enjeux autour de la Health Tech ?

La Health Tech recouvre à la fois les innovations issues des biotechnologies, des nouvelles technologies médicales (Medtechs) – touchant par exemple aux dispositifs médicaux – que des technologies digitales (gestion des données, prise en charge des patients, suivi etc.). Aussi, souligne l’étude, l’essor des entreprises de la Health Tech constitue un enjeu pour l’ensemble de l’innovation, car «par sa vitalité, la Health Tech renforcera tout le tissu de recherche hexagonal, public et privé, en sciences de la vie, mathématiques ou sciences de l’ingénieur.»

Outre des avantages en terme de santé, les enjeux économiques sont aussi majeurs. Selon l’analyse menée par BCC, se fondant notamment sur une analogie avec l’environnement de la région de Boston en 2009 et son évolution aujourd’hui, la France possède de solides bases pour construire un secteur de la Health Tech pouvant générer un chiffre d’affaires annuel de 40Md d’euros par an et 130000 emplois supplémentaires d’ici 2030.

Des atouts indéniables

La France possède des atouts pour se positionner comme un centre incontournable de la Health Tech au niveau européen et mondial dans les années qui viennent. En effet, elle possède une tradition d’excellence en matière de recherche scientifique en la matière via un fort soutien à la recherche publique (Inserm et AP-HP par exemple) et son système sanitaire reste l’un des mieux structuré du monde. En outre, la recherche publique, via les CHU, dispose d’un maillage national qui permet à la fois de mener des recherches cliniques d’envergure et d’accéder tout de suite à un large marché. Parallèlement de nombreux efforts ont été faits par les pouvoirs publics pour aider à l’amorçage des start-up dont le secteur de la Health Tech bénéficie déjà largement.

Encore des freins à lever

Les freins identifiés par l’étude de BCC sont les mêmes que ceux déjà soulignés dans d’autres études concernant l’avènement d’une réelle économie stable autour des nouvelles technologies : insuffisance des financements au-delà de la phase d’amorçage, pénurie d’expertise pour les aspects non scientifiques et techniques, transfert de technologie public-privé encore trop peu souple et structuré. Enfin, un point souvent évoqué reste celui de la réglementation française qui est considérée comme une réelle bride pour l’émergence de solutions innovantes thérapeutiques en raison de procédures trop longues et lourdes tant pour les essais cliniques que pour l’accès au marché.

Quinze propositions

France Biotech dans cette étude propose 15 mesures pour que «la France devienne un leader mondial de la Health Tech et en récolte tous les bénéfices médicaux, sociaux et économiques». Elles doivent permettre, par exemple en matière de financements, de prendre en compte la durée de développement des produits, plus longue dans les Health Tech que dans les Digital Tech, en augmentant la durée des aides ou de statut particuliers des jeunes entreprises. Ces propositions souhaitent que soit initiée une véritable montée en puissance de l’expertise par des systèmes d’encouragement à la venue d’experts étrangers, par un échange facilité entre personnels publics et privés et par un rapprochement des acteurs de la Health Tech dans les cursus universitaires de sciences de la vie et de médecine. Cinq points concernent directement la réglementation et proposent de revoir l’ensemble des procédures pour accélérer l’accès aux essais et au marché et mettre en place un système d’évaluation des bénéfices socio-économiques que peuvent apporter les nouvelles solutions proposées.

Sophie Hoguin

Une panne générale d’Internet : fantasme ou réelle menace ?

Une panne mondiale semble peu probable, mais la toile a déjà été victime de coupures qui ont paralysé des activités durant quelques heures ou semé la pagaille pendant une journée. C’est ce qu’explique l’AFNIC dans un dossier très clair et concis sur cette problématique.

Créée en 1997 par l’INRIA, l’AFNIC (Association Française pour le Nommage Internet en Coopération) gère en 2017 plus de 3 millions de domaines en .fr (dont l’ouverture aux particuliers remonte à 2006). Cet organisme maîtrise donc très bien les différents rouages du réseau mondial.

Ses compétences se retrouvent de façon vulgarisée dans un court dossier titré «Peut-on casser l’Internet ?» (PDF). Ce document de 8 pages est en effet destiné à un large public n’ayant pas de connaissances techniques du fonctionnement des réseaux IP.

Câbles et routeurs

Pour comprendre les menaces qui pèsent sur la toile mondiale, l’AFNIC commence par expliquer qu’il ne faut pas la résumer aux seuls sites que l’on consulte plus ou moins régulièrement. L’Internet, c’est d’abord du matériel: des centaines de millions de kilomètres de câbles qui relient les ordinateurs entre eux, en passant par les centaines de milliers de routeurs. Ces équipements actifs sont des maillons essentiels, car ils aiguillent les emails et nos requêtes vers la bonne direction.

L’AFNIC signale donc le premier point faible d’Internet: le petit nombre de constructeurs de routeurs (comme Huawei, Cisco ou Juniper). Autant de «boites noires» propriétaires : que cachent-elles réellement ? Sont-elles vraiment sécurisées ? Imaginons que des pirates prennent le contrôle de certains de ces éléments-clés et c’est le web qui, au mieux «tousse» avec quelques bugs. Dans le pire des cas, le web peut avoir une grosse fièvre avec un impact majeur sur l’activité des entreprises et la vie des particuliers. À la place de se connecter à un site en particulier, on pourrait être redirigé vers un clone malveillant !

Le second maillon faible relevé par cette association s’appelle le DNS (Domain Name System). Lorsqu’un internaute se connecte à un site, le serveur DNS vérifie dans son «cache» l’existence de cette adresse. C’est donc une infrastructure indispensable, car toute l’infrastructure réseau passe par le DNS : sites, messagerie, imprimante, gestion des badges d’accès… «Pas de DNS, c’est quasiment pas d’Internet», prévient l’AFNIC.

Localement vulnérable et globalement robuste !

Les DNS ont déjà subi des pannes : celle de Bouygues en avril 2015 et d’Orange en octobre 2016. Celle-ci avait classé Wikipédia et Google dans la liste noire. Il s’agissait d’une erreur.

En mai 2017, c’est une attaque informatique qui a impacté un hébergeur de DNS. Cedexis a été victime d’une attaque par déni de service (Ddos) qui a duré environ deux heures et demie. En clair, des millions de requêtes ont été envoyées simultanément sur le serveur de cette entreprise afin qu’ils se mettent en alerte et «disjonctent». Résultat de nombreux médias français étaient peu accessibles ce jour-là.

Ce n’est pas la première fois que ce type d’attaque se produit. Ces dernières années, Evernote, Deezer, Xbox Live ont vu leurs services bloqués pendant plusieurs minutes, voire plusieurs heures, à cause d’une attaque DoS. Face à de telles menaces, les solutions classiques reposant notamment sur les pare-feux ne sont pas adaptées.

Ces quelques exemples confirment qu’Internet est «localement vulnérable et globalement robuste». Il est très facile «de provoquer des défaillances limitées dans l’espace et dans le temps, et bien plus difficile de le faire à l’échelle de l’Internet pendant une longue période», constate Pierre Col, un expert en réseaux.

Il est donc indispensable d’améliorer la résistance de l’Internet et de favoriser la diversité des fabricants de routeurs.

Un protocole dépassé

Il y a urgence, car «Internet est bâti sur un marécage», affirme Louis Pouzin. Pionnier français des réseaux, le président d’honneur de la Société française de l’Internet Louis Pouzin explique que le «protocole de communication utilisé aujourd’hui n’apporte aucune protection. C’est un prototype qui aurait dû être refait il y a longtemps. À l’origine, il fallait aller vite pour inonder la planète avec ce qui était disponible.»

En étant «rafistolé sans cesse, ce protocole de communication est de plus en plus compliqué et instable», indique-t-il. Il faut penser à un Internet du futur. Il pourrait s’appuyer sur les travaux menés dans le cadre du projet Rina (Recursive InterNetwork Architecture) LIEN : ) lancé en 2008 en Europe.

Par Philippe Richard

La réalité virtuelle cimentera le bâtiment du futur, fondé sur la maquette numérique

Dans la promotion immobilière, la réalité augmentée (RA) et la réalité virtuelle (RV) se systématisent. «Dès qu’un nouveau programme immobilier est décidé, les grandes entreprises pour lesquels nous travaillons (Bouygues, Icade, Nexity…) demandent de plus en plus fréquemment de réaliser une application mobile dédiée et sur mesure qui sert à visualiser le projet en 3D» confie Xavier Gallée, responsable commercial pour l’industrie chez Artefacto, une agence spécialisée dans la RA, la RV et la modélisation 3D. La maquette 3D du bâtiment s’affiche automatiquement sur le smartphone ou la tablette à partir d’un plan 2D, identifié au préalable par l’application logicielle. Ou mieux encore : lors d’une visite sur le site, une fois la tablette pointée dans la bonne direction, le bâtiment virtuel se construit à l’endroit précis où il sera érigé plus tard, alors que la première pierre n’a même pas été posée. «C’est un outil d’aide à la décision ou à la conception pour l’architecte, qui visualise le projet architectural, ses variantes, l’intégration dans l’environnement réel, poursuit Xavier Gallée. C’est également utile lors des réunions sur place avec les élus locaux ou le futur acquéreur, qui a possibilité de voir le futur bâtiment en situation.» Chez Bouygues Constructions, la finalité de l’application Ramby Outdoor est comparable.

Réalité Augmentée site artefacto - école ingénieur ensibs lorient
Application de réalité augmentée pour le chantier de l’école d’ingénieur Ensibs, à Lorient.

L’agence Artefacto maîtrise le procédé depuis cinq à six ans désormais. Le prochain défi consiste à déployer une solution plus autonome. «Aujourd’hui, l’agence récupère le fichier SketchUp ou Revit/BIM (Building Information Modeling) de l’architecte et conçoit l’application à partir des ces données, explique Xavier Gallée. L’objectif serait de fournir une plateforme en «back office» pour que le promoteur puisse lui-même charger les données BIM et obtenir l’application de RA appropriée sur site. L’attente est également forte de la part des constructeurs. L’idée serait que le maçon et l’électricien, en réunion sur le chantier, puissent visualiser en RA l’un les murs porteurs, l’autre le câblage électrique. Superposer la maquette BIM et l’image réelle serait intéressant pour suivre le chantier en cours, améliorer la communication entre les corps de métier, contrôler la qualité de mise en œuvre, connaître l’état d’avancement et le planning… Or, un fichier BIM, qui s’apparente à la carte Vitale du bâtiment, contient de multiples calques et se révèle lourd et exigeant. La difficulté, c’est de le transposer d’une station de travail du bureau d’études à un outil mobile comme une tablette, à la puissance et la capacité mémoire bien inférieures. Notre projet de recherche, qui vise à conserver l’intelligence et la souplesse du fichier BIM sur une tablette, est cependant finalisé et ne tardera pas à être commercialisé.» Autre problématique : la filière du BTP, réputée peu encline aux transformations numériques, se convertit très doucement au BIM. Le grands acteurs du bâtiment ont toutefois signé une charte en septembre dernier et s’engagent à généraliser le BIM dans le neuf d’ici à 2022.

Améliorer la perception d’un projet

Par analogie avec d’autres industries, la RV est un autre prolongement potentiel de la maquette numérique. La visite d’un bâtiment virtuel mis à l’échelle et l’immersion 3D dans les volumes intérieurs favorisent la perception de l’architecture et de l’aménagement, la compréhension d’un projet et la prise de décision. Le postulat est valable tant pour le particulier qui prospecte un bien immobilier avant l’achèvement, que pour le client professionnel qui inspecte ses futurs locaux. Le spécialiste de l’immobilier d’entreprise JLL, par exemple, a mis au point une application de réalité virtuelle et augmentée, grâce à laquelle le preneur visite virtuellement ses futurs bureaux et choisit les finitions, à l’aide d’un casque de réalité virtuelle ou mixte. C’est aussi un casque de réalité virtuelle, en l’occurrence le HTC Vive, dont fait usage le groupe Legendre. Pendant la phase de conception, le client – maître d’ouvrage, promoteur… – a l’occasion de parcourir le clone virtuel du futur ouvrage, de valider le projet en l’état ou de demander des modifications. Il a la possibilité de faire varier l’heure de la journée pour vérifier comment évoluent les conditions de luminosité et les ombres portées. L’outil, différenciant, est à la disposition des forces commerciales du constructeur et valorise leur argumentaire auprès des décideurs. Il est également au service de la formation professionnelle, notamment sur les problématiques de sécurité sur les chantiers. Bouygues Construction et HTC ont récemment entrepris une démarche similaire concernant la prévention des risques sur les sites de construction.

Le groupe Legendre utilise des casques de réalité virtuelle pour ses clients, ses commerciaux et ses compagnons.

Ces techniques d’immersion et de virtualisation vont au-delà des murs d’un simple bâtiment. Illustration avec le réaménagement du quartier Bastide Niel à Bordeaux, qui s’étend sur 35 hectares, et qui l’objet d’un projet de recherche RA/RV par la société Immersion. «L’objectif est de réaliser la maquette numérique de cette zone d’aménagement concertée puis, au fur et à mesure des constructions, de la mettre à disposition des corps d’Etat, des agents de la ville, des promoteurs et des citoyens, explique Christophe Chartier, PDG d’Immersion. Avec des outils de réalité virtuelle et de réalité mixte, tout le monde pourra s’approprier au plus tôt l’évolution du quartier. C’est de la co-construction. Le citoyen pourra se téléporter dans un appartement, le situer par rapport à l’école ou à la crèche et vérifier les points de vue de chaque fenêtre. Nous avons mis au point un prototype, basé sur les lunettes HoloLens, qui permet de superposer la maquette physique et des informations, telles que les prévisions de flux des transports.» La maison hébergeant ce projet sera bâtie au premier semestre 2018.

Dans la plupart de ces cas d’usage et hors chantier, les casques grand public s’imposent du fait de leur prix de plus en plus abordable. En revanche, le principe du Cave (ou salle immersive 3D, NDLR), déjà ancien dans la conception automobile ou aéronautique, est récent dans le BTP. L’organisation du travail et les besoins diffèrent. Par exemple, un bâtiment, contrairement à un avion ou une voiture, est unique et n’est jamais précédé par un prototype. En France, la première salle immersive et stéréoscopique dédiée a été installée fin 2014, au siège de Bouygues Construction à Guyancourt, et assiste les ingénieurs pendant la conception, entre autres fonctions. Dans la foulée de la généralisation du BIM et de la baisse constante des prix, les grands du BTP ne manqueront probablement pas d’adopter cet outil complémentaire. Il est aussi question de concurrence et d’image de marque.

Frédéric Monflier

La réalité virtuelle atteint sa vitesse de croisière, la réalité augmentée décolle

La réalité augmentée (RA) et l’aéronautique ont une longue histoire en commun, qui a débuté dans les années 50. «L’affichage tête haute utilisé par les pilotes de chasse dans les situations de combat, et aujourd’hui les pilotes d’avions de ligne et d’hélicoptère, est une technique de réalité augmentée» rappelle Alexandre Godin, responsable des activités de réalité augmentée et de réalité virtuelle chez Airbus. La réalité virtuelle (RV) fait irruption plus tard au bénéfice de missions d’entraînement. Avant de s’envoler fin 1993 pour réparer le télescope spatial Hubble, frappé de myopie, les astronautes de la NASA se sont préparés sur Terre en se plongeant dans des images de synthèse.

Les industries de l’aérospatiale et de l’aéronautique sont peu à peu conquises. «Airbus a pris le virage de la réalité virtuelle dans les années 90 avec l’installation des premiers Caves (ou cube immersif avec stéréoscopie 3D, NDLR) et «powerwalls» (mur d’images 3D, NDLR) sur plusieurs sites, poursuit Alexandre Godin. L’ingénierie, le design et la formation ont été les premiers métiers à en profiter. Très vite, des applications orientées client, telles que le rendu de cabine, ont vu le jour. Par la suite, ces installations, casques de réalité virtuelle y compris, ont également été mises à contribution par nos équipes de recherche. Celles-ci étudient les interactions homme-machine dans le cockpit ou mesurent l’impact d’une modification de la cabine – hauteur du plafond, écartement des sièges… – sur le comportement de pilotes volontaires ou d’employés qui jouent le rôle des passagers. Les données extraites accélèrent les prises de décision concernant les aménagements intérieurs.»

Vérifier l’accessibilité des équipements

Les opérations de finalisation sont désormais réalisées sur le jumeau numérique du futur avion. «Chaque rivet, chaque boulon de l’A350 a été au préalable numérisé et les études d’accessibilité, parmi d’autres, ont été menées sur la base de ces modèles 3D, avant même que les premières pièces ne soient produites, explique Alexandre Godin. Ainsi a-t-on pu s’assurer que les techniciens pouvaient se mouvoir à travers une trappe puis travailler dans de bonnes conditions.» Airbus possède maintenant plus d’une dizaine de Caves. «Le coût d’une installation, autrefois entre 2 et 3 millions d’euros, a été divisé par dix, estime Alexandre Godin. Un Cave est par exemple situé au sein même de notre usine de fabrication de l’A350, à Toulouse, et sert de support aux processus de fabrication. Un autre exemplaire haut de gamme, situé à Hambourg, est réservé aux présentations pour les clients, car la définition de l’image reproduit de manière optimale les finitions intérieures. Nous employons aussi des casques grand public, comme le HTC Vive et l’Oculus Rift. Mais leur champ de vision horizontal est limité à 110° et leur définition insuffisante pour que le porteur du casque puisse lire un écran virtuel situé à un mètre de distance. C’est la raison pour laquelle nous n’abandonnons pas les casques professionnels pour des cas d’usage liés au pilotage et au cockpit

Les phases d’inspection du fuselage, voire son assemblage, font appel à la réalité augmentée. Le principe a été exploré relativement tôt chez Airbus. «Notre solution MIRA (Mixed Reality Application), reposant sur une tablette et une caméra, a été déployée industriellement à partir de 2011 pour vérifier le positionnement des supports sur le fuselage du A380, précise Alexandre Godin. Nous testons également sur les lunettes HoloLens une cinquantaine d’applications, relatives au marketing, au contrôle qualité, etc. L’assistance à la pose de câbles sur la structure de l’avion est l’un des concepts les plus avancés. La tâche est accomplie de 20 à 30% plus vite.»

aero1

Dans d’autres situations, la robotique pourrait venir à la rescousse pour accélérer les processus et supprimer les mauvaises postures affectant les techniciens. Actemium, le réseau d’intégration industrielle de Vinci Energies, développe ainsi un projet depuis deux ans pour automatiser l’inspection du montage d’un moteur d’avion. «Le robot dispose du modèle numérique de référence et le compare au montage effectué, à l’aide de deux dispositifs de «tracking» 2D et d’un système 3D pour le contrôle, précise Thomas Leseigneur, responsable de l’innovation chez Actemium. Ce robot lui-même repose sur un AGV (véhicule à guidage automatique, NDLR) qui se déplace suivant des trajectoires programmées. L’ensemble est donc autonome

La RA accélère l’assemblage des satellites

Au CNES (Centre national d’études spatiales), la RA a été expérimentée l’an dernier dans le but de vérifier la conformité de l’assemblage des charges utiles du satellite scientifique Taranis, dont le lancement est prévu en 2019. Ce projet-pilote a été mis au point par Sogeti High Tech, un intégrateur industriel filiale de Cap Gemini, et Diota, qui émane du CEA (Commissariat à l’énergie atomique). «L’enjeu est d’établir un lien entre le bureau d’études, donc le modèle numérique, et la salle blanche où est assemblé le satellite, explique Alexandre Embry, en charge de l’offre RA/RV chez Sogeti High Tech. L’idée est d’effectuer la comparaison entre le «as built» et le «as designed». Le logiciel identifie et localise les éléments constituant le satellite et déroule la procédure d’inspection. Grâce à la technologie de Diota, les images numériques sont calées avec précision dans les images filmées sans préparation et instrumentation de la zone de travail, à condition qu’une maquette numérique de l’ensemble soit disponible.» D’ordinaire, l’ingénieur réalise cette comparaison en prenant comme référence un plan papier, mais la méthode est laborieuse. Désormais, il regarde une tablette qui lui signale automatiquement les anomalies. Ce procédé a semble-t-il convaincu puisque le CNES «envisage son industrialisation», selon Sogeti High Tech.

L’intégrateur s’est également rapproché d’un fabricant de satellites, Thales Alenia Space, pour fournir une solution d’assistance aux opérations de montage cette fois. La technologie est toujours d’origine Diota, sauf que les éléments virtuels ne sont plus incrustés dans l’image filmée par la tablette, mais projetés sur le satellite. «Il s’agit de faciliter le montage d’une multitude de composants, comme des fixations, sur les antennes ou les modules de communication, enchaîne Alexandre Embry. Ces petites pièces sont pénibles à repérer. Habituellement, ces opérations imposent des techniques de métrologie, l’impression et le découpage de calques… et signifient deux jours de préparation. Avec la RA, quelques minutes suffisent et le positionnement des pièces est millimétrique. Cette solution suscite de l’intérêt chez le fabricant et une forte adhésion de la part des techniciens.» Ce n’est qu’en démontrant sa valeur économique et en réduisant les contraintes sur le poste de travail que la RA réussira elle-aussi sa mise en orbite.

 

  • La réalité augmentée au service du contrôle de l’assemblage d’un satellite scientifique, au CNES :

  • Dans le CHILL de Lockeed Martin, mis au point avec le concours de TechViz, les avatars des ingénieurs se déplacent au cœur de la maquette numérique des engins spatiaux :

Par Frédéric Monflier

Réalité virtuelle et augmentée, moteurs du réalisme et de l’efficacité

La réalité virtuelle (RV) et la maquette numérique bénéficient d’un tel éclairage aujourd’hui qu’elles sont parfois considérées comme faisant partie des «nouvelles» technologies. Elles sont pourtant employées de longue date dans la grande industrie disposant des ressources financières adéquates, dont l’industrie navale. «Nous utilisons la réalité virtuelle depuis la fin des années 90, un premier «Cave» (ou cube immersif 3D, NDLR) ayant été mis en place sur notre site de Lorient, confirme Yves Dubreuil-Chambardel, de la direction de l’innovation et de la maîtrise technique au sein de Naval Group, anciennement DCNS (Direction des constructions navales). Ces salles de RV ont accompagné la généralisation de la maquette numérique, apparue pendant la conception des frégates Sawari 2. Dans un premier temps, elles ont aidé nos équipes d’ingénierie à aménager les locaux à l’intérieur des navires. Progressivement, elles deviennent aussi des outils de dialogue avec les clients, qui ont la possibilité de vérifier l’aménagement de la passerelle, la disposition des consoles… La phase d’industrialisation, en aval de la conception, en tire également parti : dans un environnement simulé, les préparateurs rédigent plus facilement les dossiers consacrés aux opérations de montage, destinés aux équipes de terrain.»

Le Cave s’est de même introduit au cœur de la chaîne de conception dans la filière automobile. En particulier chez Renault, l’un des précurseurs en matière de réalité augmentée (RA) et de RV, dont le fleuron se nomme Iris. Installé début 2013 au Technocentre de Guyancourt, Iris a coûté la bagatelle de trois millions d’euros et produit une image de 70 millions de pixels. «C’est un Cave à cinq faces équipés de projecteurs 4K Christie, décrit Andreas Kemeny, expert leader chez Renault. Trois Caves ont suivi, toujours à Guyancourt, et un autre a été monté en Roumanie. Ils répondent à une quinzaine de cas d’usage : design, architecture du véhicule, éclairage intérieur ou extérieur, ergonomie, etc. Dans un projet haut de gamme comme celui de la nouvelle Alpine, produite à quelques milliers d’exemplaires, les designers ont travaillé davantage dans les Caves que sur des prototypes physiques, pour des raisons de coût. Grâce à une image précise, à une colorimétrie optimale et à l’échelle 1:1, ils ont un aperçu fidèle de la qualité des finitions intérieures, de la texture des matériaux et de l’ergonomie du tableau de bord.» Andras Kemeny et ses équipes continuent leurs recherches sur l’aspect collaboratif et sur les techniques haptiques, faisant appel par exemple à un robot collaboratif (système LobbyBot).

Les casques RA/RV se démocratisent

Le Cave a accompli en quelque sorte un retour en grâce chez le constructeur automobile. «Le premier exemplaire au début des années 2000 n’offrait qu’une définition d’un million de pixels par face, insuffisante pour des applications avancées relative à la perception du design et à l’ergonomie, poursuit Andras Kemeny. Nous nous sommes alors tournés vers des casques, équipés de caméras, qui permettaient de comparer des données CAO d’un véhicule en cours d’étude avec l’architecture d’un véhicule existant, de marque Renault ou concurrente. C’était déjà de la réalité augmentée ou mixte. Cet outil, nommé MOER, a été déployé de 2004 à 2014, et s’est inséré dans les processus de développement des véhicules. Nous avions opté pour les casques SEOS 120 et nVisor SX111, qui coûtaient de 50 000 à 60 000 euros l’unité, ce qui restait moins cher qu’un Cave.» L’ordre de grandeur n’est plus du tout le même aujourd’hui : le casque de réalité mixte HoloLens de Microsoft, assorti d’une visière semi-transparente et capable de superposer des hologrammes 3D et le champ de vision réel, est commercialisé autour de 5000 euros pour la version pro. Grâce à l’impulsion des géants du numérique tels que Facebook, Google ou Microsoft, les casques et les lunettes de RV et de RA se démocratisent et percent dans les milieux professionnels et dans l’industrie, qui ne sont pas toujours leur destination prioritaire. A l’exception des lunettes HoloLens, lesquelles demandent à convaincre dans un cadre opérationnel. «Le potentiel est là, les limitations aussi, admet Andras Kemeny. Le champ de vision actuel de HoloLens, par exemple, n’est que de 20/30° et l’on souhaite davantage. Ce dispositif a l’avantage d’être autonome mais n’affiche en contrepartie qu’une centaine de milliers de polygones.»

En attendant qu’une deuxième version plus performante voie le jour, Renault expérimente HoloLens premier du nom dans un projet de formation pour le personnel travaillant sur les lignes d’assemblage. «La réalité augmentée peut faciliter l’implantation d’un robot ou d’un cobot puis l’apprentissage de son fonctionnement, avec comme objectif un gain de temps et d’efficacité», précise Andras Kemeny. Les lunettes HoloLens ont également fait l’objet d’une preuve de concept chez Naval Group. «Nous sommes assez convaincus que la RA a du sens pour l’assistance cognitive aux opérateurs qui interviennent sur site, dans la construction neuve ou dans l’entretien, confie Yves Dubreuil-Chambardel. Les tâches de montage sont effet très complexes, en particulier dans les navires militaires dont la densité d’équipements est énorme. La RA, en combinant des informations virtuelles et la vision réelle, peut aider l’opérateur à monter les pièces dans le bon ordre et à anticiper les possibles interférences avec d’autres équipements qui n’ont pas encore été installées dans la zone. L’enjeu est de réduire les erreurs, qui impliquent des reprises, des délais et donc des coûts supplémentaires. Etant donné que la vue filmée par la caméra peut être partagée avec un ingénieur distant, l’aspect collaboratif est également intéressant, dans la perspective de fournir un service de téléassistance à nos clients, c’est-à-dire les équipages à bord.» Quoi qu’il en soit, la technologie HoloLens n’a pas été jugée «totalement mature pour un environnement industriel.» Naval Group a engagé le projet-pilote d’un autre dispositif de RA, mise au point avec la société Diota (issue du CEA), reposant cette fois sur l’usage d’une tablette. «Cette solution est prévue pour accompagner les contrôleurs, qui vérifient que tous les équipements sont bien montés et au bon endroit, détaille Yves Dubreuil-Chambardel. La RA permet de constater les écarts entre la théorie et la réalité. Une tablette est suffisante car les contrôleurs n’ont pas besoin d’avoir les mains libres. Le test est réalisé en grandeur nature, à Lorient, sur une frégate en construction. Le déploiement opérationnel pourrait avoir lieu dès l’été prochain.»

Des données métier dans le champ de vision

La situation est comparable chez Alstom, où la RV fait presque partie des meubles, tandis que la RA tente de démontrer sa pertinence. «Leur système de RV interactive, sur un grand écran de 6 mètres de base, contribue depuis des années au prototypage, à la revue technique et de design et à l’exploration de nouvelles pistes en innovation» rappelle Christophe Chartier, PDG d’immersion, intégrateur spécialisé dans la RA et la RV. Cette PME bordelaise a également développé pour le constructeur de trains et de tramways un projet-pilote de réalité mixte, basé sur les HoloLens. Au programme : la configuration immersive, pour modifier instantanément les couleurs et les matières des sièges, et l’aide à la maintenance, grâce à laquelle l’opérateur découvre, en surimpression virtuelle dans son champ de vision, les chemins de câbles dans les wagons. Immersion a mis le même matériel en œuvre chez Renault Trucks, à des fins de contrôle qualité des moteurs. Les tests débuteront en janvier prochain, dans l’usine de Lyon. «L’enjeu est de superposer les données métier en 3D et l’image réelle du moteur pour que l’opérateur accomplissent sa tâche dans les règles de l’art, commente Christophe Chartier. Le processus gagne en agilité et en qualité. Les instructions ne sont plus listées sur une notice en papier mais s’inscrivent dans le champ visuel. En outre, l’opérateur va s’auto-former. La charge cognitive est supposée diminuer mais cet aspect demande à être éprouvé dans un contexte intensif, pour que l’on soit assuré qu’il est bien accepté par le porteur des lunettes.» Pour Christophe Chartier, il n’y a pas de doute : la réalité mixte est un pas supplémentaire vers l’usine du futur.

  • Salle 3D immersive chez Alstom

 

revue de presse anglophone #11

  • Google récupère vos données de localisation même si le service est désactivé per l’utilisateur

Même si votre téléphone ne contient pas de carte SIM, même s’il est éteint, et même si vous avez désactivé ce service, les téléphones sous Androïd envoient les données de localisation de votre téléphone à Google, dès que celui-ci est connecté à nouveau. Lire

localisation-500x300

Source: Quartz

 

  • Les 40 meilleurs objets high-tech de l’année selon The Guardian

Le quotidien publie sa liste au père Noël: robots, consoles, appareils photos, téléphones, enceintes… tout y est. Lire

googles-500x200

Source: The Guardian

 

  • A-t-on le droit d’exploiter la lune ?

La question commence à se poser sérieusement: vu que la lune n’appartient à personne, comment imaginer exploiter ses ressources naturelles ? Lire

lune-500x300

Source: NYT 

 

  • Le Bitcoin passe la barre des 10 000 dollars

La valorisation de la monnaie cryptée virtuelle atteint des sommets, ce qui n’est pas sans poser quelques problèmes réels. Lire

bitcoin-500x300

Source: Tech Crunch

 

  • La ville de Chicago porte plainte contre Uber

 

uber-500x300

Après les révélation confirmant qu’Uber a tout fait pour dissimuler une faille de sécurité massive dans la protection des données de ses utilisateurs, la ville de Chicago a décidé de porter l’affaire en justice. D’autres villes pourraient lui emboîter le pas. Lire

Source: Washington Post

 

Astrophysique: une théorie se passe de la matière noire

Pour expliquer l’accélération de l’expansion de l’Univers, les mouvements des étoiles et des galaxies, les chercheurs ont émis l’hypothèse de l’existence d’une matière que l’on ne peut pas voir, la matière noire et d’une force supérieure à l’attraction gravitationnelle, l’énergie noire. Cependant, malgré tous leurs efforts, matière noire et énergie noire n’arrivent pas à être observée de manière formelle ou n’arrivent pas à définir réellement les propriétés et caractéristiques de ces deux entités. Un article d’un chercheur suisse paru dans l’Astrophysical Journal et disponible sur ArXiv vient bousculer cette vision.

Faire appel à l’invariance d’échelle du vide

André Maeder, professeur honoraire au département d’Astronomie de la Faculté des sciences de l’UNIGE (Université de Genève – Suisse), propose un modèle théorique où ces deux hypothèses seraient caduques. Les phénomènes que ces hypothèses sont censées expliquer peuvent l’être autrement en se basant sur les propriétés de l’invariance d’échelle du vide. Ne remettant pas en cause la théorie de base du Big Bang, André Maeder explique que si l’on garde les équations de la relativité générale d’Einstein, de la gravitation universelle de Newton et de la mécanique quantique, il faut ajouter un paramètre oublié jusqu’alors : le fait que le vide et ses propriétés ne changent pas suite à une dilatation ou une contraction. Or, précise-t-il, le vide joue un rôle primordial dans les équations d’Einstein en intervenant dans une grandeur nommée constante cosmologique et dont dépend le modèle d’Univers qui en découle. En se basant sur cette hypothèse, André Maeder reconsidère donc aujourd’hui le modèle de l’Univers et rappelle que l’invariance d’échelle du vide est aussi présente dans la théorie fondamentale de l’électromagnétisme.

Plusieurs grands mystères résolus ?

André Maeder a soumis son modèle à différents tests et il a constaté que les calculs théoriques qu’il permet correspondent aux observations. Mais il a aussi découvert qu’il permet de prédire l’accélération de l’expansion de l’Univers sans faire appel à de la matière noire ou de l’énergie noire. Ces dernières n’existeraient tout simplement pas, puisque les équations de la physique suffisent à expliquer les phénomènes observés !

Le chercheur suisse s’est ensuite intéressé au cas de la masse manquante de l’Univers. En appliquant sa nouvelle théorie à la loi de Newton, celle-ci est légèrement modifiée avec l’hypothèse de l’invariance d’échelle du vide. Comme l’explique le communiqué de l’Unige, «cette loi contient un très petit terme d’accélération vers l’extérieur, particulièrement significatif aux faibles densités». Quand on l’applique aux amas de galaxies, on obtient une masse pour ces amas en accord avec celle de la matière visible – contrairement aux calculs précédents qui trouvaient une masse manquante. Ainsi ce nouveau modèle permet d’expliquer les grandes vitesses des galaxies dans les amas. Mais il s’est aussi révélé tout aussi pertinent pour prédire les vitesses élevées des étoiles dans les régions extérieures des galaxies ou la dispersion des vitesses des étoiles oscillant autour du plan de la Voie Lactée. Cette dispersion, qui croît beaucoup avec l’âge des étoiles considérées, est très bien expliquée avec l’hypothèse du vide invariant alors qu’aucun accord n’existait sur l’origine de cet effet.

La théorie d’André Maeder devrait faire couler beaucoup d’encre dans les mois qui viennent car elle pourrait bousculer de nombreuses conceptions ou théories sur l’Univers et elle va certainement faire l’objet de très nombreuses vérifications de la part de la communauté des astrophysiciens.

Sophie Hoguin

Une start-up pour des batteries de plus en plus rapides

En novembre 2015, des chercheurs principalement du CNRS, du CEA et de plusieurs universités françaises3, regroupés au sein du RS2E, ont réussi à concevoir le premier prototype de batterie sodium-ion au format « 18650 », un format très répandu dans l’industrie, notamment pour les batteries lithium-ion. S’inspirant directement de ces batteries, il est doté de meilleures performances que celles-ci, notamment en termes d’espérance de vie, de rapidité de charge et décharge. Son principal atout est d’utiliser le sodium, un élément moins coûteux et plus abondant que le lithium (on trouve 2,6 % de sodium dans la croûte terrestre, contre 0,06 % de lithium à peine). De plus, le sodium se trouve partout sur la planète, notamment dans l’eau de mer, sous forme de chlorure de sodium (NaCl) alors que les ressources en lithium sont très localisées dans quelques régions du globe (Argentine, Chili et Bolivie détiennent les deux tiers des ressources mondiales).

La création aujourd’hui de la société Tiamat, dédiée au développement et à la production de ces alternatives au lithium-ion, s’inscrit dans la continuité de ces travaux. Son objectif cependant n’est pas de détrôner les batteries lithium-ion, qui équipent déjà la plupart des appareils électroniques mobiles. Tiamat se positionne sur la puissance et la continuité de service grâce à des batteries endurantes (plus de 10 ans d’espérance de vie contre 3-4 ans pour celles au lithium dans des conditions d’usage continu), des charges et des recharges 10 fois plus rapides. Ces performances ouvrent des possibilités d’utilisation pour des usages aujourd’hui peu exploités ou bien développés avec des technologies peu adaptées, comme le stockage stationnaire (stockage de masse des énergies renouvelables intermittentes, éolienne ou solaire) et le stockage mobile pour des véhicules électriques (les bus rechargeables en fin de ligne par exemple). Tiamat s’intéresse notamment aux flottes de véhicules en location, qui requièrent des temps de recharge courts et nécessitent une continuité de service aux usagers. La technologie sodium-ion permet ainsi d’envisager de nouveaux usages du quotidien, tels des véhicules électriques avec 200 km d’autonomie qui se rechargent en quelques minutes.

Après une phase d’homologation de ces technologies, la société basée à Amiens entend y développer son activité. Forte du soutien du RS2E, elle travaille d’ores et déjà en collaboration avec le tissu d’acteurs académiques et industriels de ce réseau. Un premier pas, avant de pouvoir lancer la production de ces batteries si possible sur le sol français, qui permettrait à la France de prétendre à un leadership dans ces nouvelles solutions de stockage de l’énergie.

L’ensemble de ces travaux de recherche a fait l’objet de plusieurs publications et de brevets déposés par le CNRS et le CEA. Il a bénéficié des soutiens notamment du ministère de l’Enseignement supérieur, de la Recherche et de l’Innovation4, du CNRS, du CEA, de l’Agence nationale de la recherche (Labex Store-Ex) et de la DGA (Direction générale de l’armement). Le CNRS fait partie des actionnaires de Tiamat.

Notes :
1 Pour en savoir plus Consulter le site web
2 Lancé en 2011 à l’initiative du CNRS et du ministère de l’Education nationale, de l’Enseignement supérieur et de la Recherche, ce réseau regroupe notamment 17 laboratoires de recherche en France, un centre de recherche technologique et d’intégration ainsi qu’un club des industriels (15 entreprises à ce jour). Voir Consulter le site web
3 Huit laboratoires et entités impliqués : six laboratoires français du réseau RS2E (Institut de chimie de la matière condensée de Bordeaux (CNRS), Laboratoire réactivité et chimie des solides (CNRS/Université de Picardie Jules Verne), Centre interuniversitaire de recherche et d’ingénierie des matériaux (CNRS/Université de Toulouse III – Paul Sabatier/INP Toulouse), Laboratoire « Chimie du solide et de l’énergie » (CNRS/UPMC/Collège de France), Institut Charles Gerhardt Montpellier (CNRS/Université de Montpellier/ENSC Montpellier) et Institut de sciences des matériaux de Mulhouse (CNRS/Université de Haute Alsace), Rosa Palacin, chercheuse à l’Institut des sciences des matériaux de Barcelone et le Liten, institut de CEA Tech
4 Tiamat fait partie des 62 lauréats 2017 du concours national i-Lab d’aide à la création d’entreprises et de technologies innovantes i-Lab, organisé par le ministère de l’Enseignement supérieur, de la Recherche et de l’Innovation.

Source : cnrs

La surveillance permanente des internautes

Décidément, la surveillance des internautes et des citoyens n’est pas un vain «maux». Chacun sait que des cookies ne sont pas de simples gâteaux, mais des petits mouchards. Mais l’analyse de nos moindres faits et gestes sur la toile est poussée à l’extrême par certains sites.

Hp.com, intel.com, gap.com, windows.com, toysrus.com, logitech.com, adidas.com, bose.com… Toutes ces marques ont inséré dans leurs pages web des codes Javascripts (des SRSc) qui enregistrent nos mouvements de souris, les contenus visités ou cliqués, les textes tapés dans les formulaires… Toutes ces informations alimentent les bases de données de sociétés spécialisées dans le marketing Web et l’analyse comportementale.

Il y aurait près de 500 sites aussi curieux ! C’est la conclusion d’une étude menée par trois chercheurs de l’université de Princeton. En analysant les 50 000 plus gros sites référencés par Alexa, ils ont constaté que 482 d’entre eux étaient des clients de l’un des sept plus gros fournisseurs de SRSc.

Des données non protégées

Le site 01net pointe du doigt un risque élevé : «les chercheurs ont pu mettre en évidence que pour quatre prestataires sur sept, un certain nombre de données personnelles – l’email, le nom, le numéro de téléphone, l’adresse, la date de naissance, le numéro de sécurité sociale – sont transmises sans anonymisation».

Le pire serait que ces informations sensibles soient stockées chez ces prestataires sans aucune sécurité. La multiplication des fuites majeures de données (la dernière concernant Uber et 57 millions de comptes, mais la plus importante étant celle de Yahoo! avec plus d’un… milliard de profils) a de quoi inquiéter…

On peut être un peu rassuré en apprenant, selon Motherboard, qu’Adblock Plus vient d’ajouter ces sept prestataires à sa liste noire.

Cette recherche universitaire confirme néanmoins que le respect de la vie privée est de moins en moins garanti. La situation est d’autant plus préoccupante que les sites, les marques et les systèmes d’exploitation récupèrent des données à notre insu.

Il y a quelques années, un rapport de l’équivalent de la CNIL en Belgique affirmait que Facebook procédait à un tracking des internautes non inscrits. Le réseau social avait parlé d’un bug… Mais cette pratique reste d’actualité selon des chercheurs français.

Android et le tracking GSM

Plus récemment, Wiko et OnePlus ont été mis sur la sellette pour des pratiques douteuses. Ainsi, le OnePlus 2 cache un mouchard qui envoie des données (numéro IMEI, noms des points d’accès Wi-Fi, adresses MAC…) au constructeur chinois.

De son côté, la marque française Wiko collecte des données même si l’utilisateur n’a pas accepté la « collecte des données anonyme ». Ces informations sont transmises depuis des mois (tous les téléphones produits à partir d’octobre 2016) à Tinno, la maison mère chinoise de la marque.

Enfin, des journalistes viennent de révéler que Google collecte en douce et en permanence la localisation (numéros de cellule GSM) de tous les smartphones Android. Pour ne pas être pistés, certains possesseurs désactivent la géolocalisation. Peine perdue ! Le tracking de Google reste actif, même en l’absence d’une carte SIM.

La révélation sur le tracking GSM complète une analyse faite par des experts français. Ils ont constaté que Google surveillait aussi le Wi-Fi.

Philippe Richard

Une nouvelle filière de recyclage pour les petits aluminiums

Moderniser les centres de tri est un défi majeur. La loi de transition énergétique pour la croissance verte promet une couverture nationale de l’extension des consignes de tri des emballages en 2022. À cet horizon, tous les emballages iront dans la poubelle de tri. Mais le Plan Climat de Nicolas Hulot se cantonne à un objectif de recyclage de 100 % des plastiques en 2025. Les professionnels du Projet Métal aimeraient aussi aboutir à la fin de l’enfouissement des métaux. Ils espèrent donc que les résultats obtenus sur les petits emballages métalliques trouveront leur place dans la feuille de route de l’économie circulaire qui sera présentée en mars 2018.

Recycler les petits emballages en métal

Le Projet Métal, lancé en 2014 par Citeo (ex Eco-Emballages), l’Association des Maires de France (AMF), le CELAA (Club du recyclage de l’emballage léger en aluminium et en acier ) et le Fonds de dotation pour le recyclage des petits aluminiums créé par Nespresso, peut en effet de se vanter de ses résultats. En 2016, le projet a permis de recycler 338 tonnes de petits emballages en aluminium supplémentaires. C’est une augmentation de 65 % par rapport à 2015 pour les neuf centres de tri nouvellement équipés. « En 2022, l’objectif est de multiplier ce volume de collecte par dix », prévient Harold de Jacquelot, Directeur Tri & Valorisation chez Citeo. Ces bons résultats ont convaincu dix nouveaux centres de tri de rejoindre le projet en 2017. Désormais, ce sont donc 19 centres de tri qui sont équipés en France sur les 200 que compte le pays. Et le taux de recyclage des emballages en aluminium atteint actuellement 43 % au niveau national, contre 32 % en 2009.

Les emballages concernés par cette extension sont divers. Il s’agit par exemple des capsules de bouteilles, des couvercles de bocaux et boîtes de conserves Mais aussi de tous les opercules et les papiers en aluminium, des dosettes de café et de thé, ou encore des petites canettes. Si ces emballages sont petits et non collectés, ils représentent tout de même 60.000 tonnes  d’aluminium. Soit 60% du gisement d’emballages en aluminium mis sur le marché en France.

Le Projet Métal veut changer d’échelle

Les membres du projet veulent aller plus loin. Notamment, ils souhaitent profiter de la modernisation des centres de tri pour les équiper également de nouveaux équipements capables de trier les petits emballages en aluminium et acier. Ces emballages refusés dès l’entrée des centres de tri ne seront plus envoyés à l’incinération ou en centre d’enfouissement. Les emballages en aluminium seront récupérés grâce à un courant de Foucault. Et les emballages en acier grâce à un aimant, un «overband».

En 2022, 60 centres de tri devraient avoir les équipements nécessaires. Dans les quatre vagues successives d’appels d’offres lancés par Citeo entre 2018 et 2021, il sera demandé aux centres traitant plus de 20.000 tonnes de déchets de trier également ces petits emballages. Globalement, il s’agit des centres collectant les déchets d’environ 400.000 habitants. «Nous avons défini ce seuil pour avoir des volumes suffisants, qui assurent la rentabilité de l »investissement», explicite Jean Hornain, Directeur général chez Citeo. Outre l’intérêt environnemental, il y a un intérêt économique certain à recycler l’aluminium. Une balle de canettes en aluminium en sortie de centre de tri est vendue autour de 300 euros. Et pour accélérer les décisions, le Fonds de dotation pour le recyclage des petits aluminiums de Nespresso promet même une prime supplémentaire. Celle-ci s’élève à 300 euros pour chaque tonne d’aluminium sortie des centres grâce au tri des petits emballages.

Créer une filière française ?

Les petits emballages en aluminium sont traités par pyrolyse. Si quelques initiatives sont en cours en France, la plupart de ces emballages nouvellement triés sont envoyés en Allemagne chez la société Pyral. «Les déchets en alluminium y sont envoyés dans des fours à 500°C sans oxygène, résume Jean Hornain. Cela permet d’éliminer les impuretés et il ne reste que l’aluminium non dégradé à la fin». Cette société serait prête à s’installer en France lorsque les volumes seront suffisants.

Par Matthieu Combe, journaliste scientifique

Des observations de l’ESO témoignent de l’étrange nature du tout premier astéroïde interstellaire détecté à ce jour

Le 19 octobre 2017, le télescope Pan-STARRS 1 détecta depuis Hawaï un petit point de lumière se mouvant dans le ciel. A première vue, il ressemblait à un astéroïde de faibles dimensions se déplaçant à vitesse élevée. Toutefois, des observations complémentaires ont permis de précisément définir son orbite. Les calculs révélèrent, sans l’ombre d’un doute, que son origine différait nettement de celle de l’ensemble des astéroïdes et autres comètes observés à ce jour. Cet objet provenait, non pas de l’intérieur du Système Solaire, mais de l’espace interstellaire, en effet. Bien que classifié en premier lieu parmi les comètes, les observations de l’ESO ainsi que d’autres observatoires ne révélèrent aucun signe d’activité cométaire lors de son passage à proximité du Soleil en septembre 2017. L’objet a donc été rangé dans la classe des astéroïdes interstellaires et baptisé 1I/2017 U1 (`Oumuamua) [1].

“Il nous fallait agir rapidement” précise l’un des membres de l’équipe, Olivier Hainaut de l’ESO à Garching en Allemagne. “ Oumuamua s’éloignait déjà du Soleil en direction de l’espace interstellaire”.

Le Very Large Telescope de l’ESO fut aussitôt réquisitionné dans le but de déterminer l’orbite de l’objet, sa brillance ainsi que sa couleur, avec une précision meilleure que celle caractérisant les plus petits télescopes. La rapidité d’exécution fut essentielle, la luminosité d’`Oumuamua diminuant drastiquement à mesure qu’il s’éloignait du Soleil, de l’orbite terrestre notamment, vers l’extérieur du Système Solaire. D’autres surprises étaient à venir.

En combinant les images acquises au travers de quatre filtres différents intercalés sur l’instrument FORS du VLT avec les clichés obtenus au moyen d’autres grands télescopes, l’équipe d’astronomes emmenée par Karen Meech (Institut d’Astronomie, Hawaï, Etats-Unis) a mis en évidence la variation périodique de luminosité de `Oumuamua : sa brillance varie d’un facteur dix en effet au fil de sa rotation autour de son axe, soit en l’espace de 7,3 heures.

Karen Meech revient sur cette découverte : “Cette variation importante et inhabituelle de luminosité s’explique par la forme très allongée de l’objet : il est une dizaine de fois plus long que large, d’apparence compliquée, ondulée. Nous avons par ailleurs constaté qu’il était de couleur rouge foncé, semblable à celle des objets situés en périphérie du Système Solaire, et qu’il était totalement inerte, aucune trace de poussière n’ayant été détectée dans son environnement proche.”

Ces propriétés laissent à penser que `Oumuamua est un objet dense, potentiellement rocheux voire majoritairement constitué de métal, dépourvu de quantités significatives d’eau ou de glace, et que la couleur sombre de sa surface résulte des effets de l’irradiation par les rayons cosmiques sur des millions d’années. Sa longueur est estimée à plus de 400 mètres.

Les calculs orbitaux préliminaires indiquent que l’objet provenait d’une région du ciel voisine de l’étoile Vega, dans la constellation boréale de la Lyre. Toutefois, bien qu’il se meuve à la vitesse éclair de 90 000 kilomètres par heure, le voyage depuis l’espace interstellaire jusqu’à notre Système Solaire dura quelque 300 000 ans. A cette époque reculée, Véga n’occupait pas sa position actuelle. `Oumuamua a probablement erré dans la Voie Lactée, indépendamment de tout système stellaire, des centaines de millions d’années avant qu’il ne rencontre fortuitement le Système Solaire.

Les astronomes estiment qu’un astéroïde interstellaire semblable à `Oumuamua pénètre à l’intérieur du Système Solaire chaque année ou presque. Toutefois, leur faible luminosité les rend difficiles à détecter. A l’heure actuelle, seuls les télescopes de sondage tel Pan-STARRS s’avèrent suffisamment puissants pour les détecter.

“Nous continuons d’observer cet objet si particulier”, conclut Olivier Hainaut, “et espérons déterminer, avec une précision accrue, sa provenance ainsi que sa destination prochaine au sein de la galaxie. Maintenant que nous avons découvert le tout premier rocher interstellaire, nous nous préparons à en observer d’autres !”

Notes

[1] L’équipe de Pan-STARRS a suggéré d’attribuer à l’objet interstellaire une appellation hawaïenne. Cette proposition a été retenue par l’International Astronomical Union, responsable de l’attribution des noms officiels aux corps du Système Solaire et au-delà. En outre, l’IAU a créé une nouvelle classe d’objets pour les astéroïdes interstellaires, dont cet objet constitue le tout premier représentant. Les références à cet objet figurent ci-après : 1I, 1I/2017 U1, 1I/`Oumuamua et 1I/2017 U1 (`Oumuamua). Le caractère précédant le O est un okina. Cette appellation se prononce comme suit : H O u  mu a mu a. Avant l’introduction de cette nouvelle nomenclature, l’objet était désigné A/2017 U1.

Source : eso

Black Friday

Pour accéder à l’article, cliquer sur le lien puis sur le bouton « Libre Accès » en haut de la page.

 

Dans l’offre AUTOMATIQUE ET INGÉNIERIE SYSTÈME :
Domaines d’application de la microrobotique

Dans l’offre ROTOTIQUE :
Microdrones bio-inspirés- Doter nos futurs robots aériens de l’agilité des insectes

Dans l’offre TECHNOLOGIES BIOMÉDICALES :
Implants dentaires : corrosion et traitements de surface

Dans l’offre MÉDICAMENTS ET PRODUITS PHARMACEUTIQUES :
Bioréacteurs à usage unique- Conception et principes

Dans l’offre DROIT ET ORGANISATION GÉNÉRALE DE LA CONSTRUCTION :
Diagnostic de pertinence- Comment évaluer l’opportunité d’un projet

Dans l’offre LE SECOND OEUVRE ET L’ÉQUIPEMENT DU BÂTIMENT :
Bonnes pratiques de l’éclairage dans l’habitat

Dans l’offre LES SUPERSTRUCTURES DU BÂTIMENT :
Construction mixte acier-béton – Calcul des poteaux mixtes

Dans l’offre TRAVAUX PUBLICS ET INFRASTRUCTURES :
Géomembranes

Dans l’offre VIEILLISSEMENT, PATHOLOGIES ET RÉHABILITATION DU BÂTIMENT :
Mise aux normes sismiques des constructions

Dans l’offre LA CONSTRUCTION RESPONSABLE :
Bois énergie. Propriétés et voies de valorisation

Dans l’offre MÉCANIQUE DES SOLS ET GÉOTECHNIQUE :
Bases de l’interaction sol-structure sous séisme. Principes généraux et effets inertiels

Dans l’offre TECHNIQUES DU BÂTIMENT : PRÉPARER LA CONSTRUCTION :
Cycle de réalisation d’ouvrages. Arrêts et reprises de bétonnage

Dans l’offre TECHNIQUES DU BÂTIMENT : L’ENVELOPPE DU BÂTIMENT :
Les fermetures d’habitations : fenêtres et volets

Dans l’offre TECHNIQUES DU BÂTIMENT : LE SECOND OEUVRE ET LES LOTS TECHNIQUES :
Systèmes de climatisation

Dans l’offre ÉLECTRONIQUE :
Cadre physique de la métrologie en compatibilité électromagnétique- Descriptif général

Dans l’offre TECHNOLOGIES RADARS ET APPLICATIONS :
Géoradar – Principes et applications

Dans l’offre OPTIQUE PHOTONIQUE :
Matériaux scintillateurs inorganiques

Dans l’offre PHYSIQUE ÉNERGÉTIQUE :
La loi Constructurale et sa place dans la thermodynamique

Dans l’offre RESSOURCES ÉNERGÉTIQUES ET STOCKAGE :
Systèmes de stockage associés aux énergies renouvelables

Dans l’offre THERMIQUE INDUSTRIELLE :
Fluides frigoporteurs. Propriétés

Dans l’offre FROID INDUSTRIEL :
Applications industrielles du froid. Généralités

Dans l’offre GÉNIE NUCLÉAIRE :
Analyse de sûreté des installations nucléaires. Principes et pratiques

Dans l’offre CONVERSION DE L’ÉNERGIE ÉLECTRIQUE :
Spectroscopie diélectrique appliquée aux polymères

Dans l’offre  RÉSEAUX ÉLECTRIQUES ET APPLICATIONS :
Transport électrique routier – Batteries pour véhicules électriques

Dans l’offre SÉCURITÉ ET GESTION DES RISQUES :
Prévention des risques professionnels. Acteurs de la prévention

Dans l’offre ENVIRONNEMENT :
Panorama sur la réglementation environnementale en France

Dans l’offre TECHNOLOGIES DE L’EAU :
Économie de l’environnement appliquée au domaine de l’eau

Dans l’offre BRUIT ET VIBRATIONS :
Phénomènes fondamentaux des vibrations des moteurs d’automobile

Dans l’offre MÉTIER : RESPONSABLE RISQUE CHIMIQUE :
Solvants verts

Dans l’offre MÉTIER : RESPONSABLE ENVIRONNEMENT :
Modélisation appliquée aux études environnementales

Dans l’offre MATHÉMATIQUE :
Unités légales et facteurs de conversion

Dans l’offre PHYSIQUE CHIMIE :
Méthodes de la chimie quantique

Dans l’offre CONSTANTES PHYSICO-CHIMIQUES :
Unités de mesure SI

Dans l’offre NANOSCIENCES ET NANOTECHNOLOGIES :
Glossaire de nanosciences et de nanotechnologies

Dans l’offre RÉSEAUX TÉLÉCOMMUNICATIONS :
Vers un Internet plus performant ?. Une introduction au protocole LISP (Locator/ID Separation Protocol)

Dans l’offre LE TRAITEMENT DU SIGNAL ET SES APPLICATIONS :
Méthodes mathématiques pour le traitement des signaux et des images

Dans l’offre DOCUMENTS NUMÉRIQUES GESTION DE CONTENU :
Moteurs de recherche web. Google Bing et leurs challengers

Dans l’offre TECHNOLOGIES LOGICIELLES ARCHITECTURES DES SYSTÈMES :
Monnaies cryptographiques et blockchains. Créer de la confiance

Dans l’offre SÉCURITÉ DES SYSTÈMES D’INFORMATION :
Sécurité dans le téléphone mobile

Dans l’offre TECHNOLOGIES RADARS ET APPLICATIONS :
Systèmes de navigation par satellites

Dans l’offre AGROALIMENTAIRE :
Fromage fondu : physico-chimie du processus de fonte

Dans l’offre CHIMIE VERTE :
Chimie et développement durable – Vers une chimie organique écocompatible

Dans l’offre OPÉRATIONS UNITAIRES. GÉNIE DE LA RÉACTION CHIMIQUE :
Usine du futur. Nouvelles approches dans les industries des procédés

Dans l’offre FORMULATION :
Planification d’expériences en formulation : optimisation

Dans l’offre BIOPROCÉDÉS :
Glossaire de biotechnologies

Dans l’offre MANAGEMENT INDUSTRIEL :
Règlement des litiges à l’international : arbitrage, ADR et prévention

Dans l’offre CONCEPTION ET PRODUCTION :
Fabrication additive. Principes généraux

Dans l’offre LOGISTIQUE :
Transport de matières dangereuses

Dans l’offre EMBALLAGES :
Complexes souples et rigides utilisés en emballage

Dans l’offre MAINTENANCE :
Responsabilité pénale en maintenance. Ce qu’il faut savoir a minima

Dans l’offre TRAÇABILITÉ :
Traçabilité et libertés individuelles

Dans l’offre MÉTIER : RESPONSABLE QUALITÉ :
Audits de systèmes de management : les fondamentaux

Dans l’offre MÉTIER : RESPONSABLE BUREAU D’ÉTUDE/CONCEPTION :
Écoconception dans le secteur textile

Dans l’offre INSTRUMENTATION ET MÉTHODES DE MESURE :
Étalons métrologiques fondamentaux

Dans l’offre MESURES PHYSIQUES :
Étalonnage d’une balance par les utilisateurs

Dans l’offre MESURES MÉCANIQUES ET DIMENSIONNELLES :
Mesure du champ de pesanteur terrestre

Dans l’offre CONTRÔLE NON DESTRUCTIF :
Magnétoscopie. Aspect pratique

Dans l’offre MESURES ET TESTS ÉLECTRONIQUES :
Les représentations temps-fréquence en traitement du signal

Dans l’offre TECHNIQUES D’ANALYSE :
Chromatographie de partage centrifuge. Principes et applications

Dans l’offre QUALITÉ ET SÉCURITÉ AU LABORATOIRE :
Les indicateurs de performance du laboratoire

Dans l’offre VÉHICULE ET MOBILITÉ DU FUTUR :
Biocarburants

Dans l’offre SYSTÈMES FERROVIAIRES :
Homologation du matériel roulant

Dans l’offre SYSTÈMES AÉRONAUTIQUES :
Les composites en aérospatiale

Dans l’offre TRANSPORT FLUVIAL ET MARITIME :
Transport et développement durable

Dans l’offre FROTTEMENT, USURE ET LUBRIFICATION :
Glossaire de tribologie

Dans l’offre FONCTIONS ET COMPOSANTS MÉCANIQUES :
Définition des chargements en fatigue

Dans l’offre TRAVAIL DES MATÉRIAUX – ASSEMBLAGE :
Impression 3D : niches applicatives porteuses

Dans l’offre MACHINES HYDRAULIQUES, AÉRODYNAMIQUES ET THERMIQUES :
Maintenance des machines et des moteurs

Dans l’offre INNOVATIONS TECHNOLOGIQUES :
Bioséquestration du carbone. Piégeage de carbone et bio-inspiration

Dans l’offre MANAGEMENT ET INGÉNIERIE DE L’INNOVATION :
Créativité industrielle. Définition et méthodes d’accompagnement

Dans l’offre ÉCO-CONCEPTION ET INNOVATION RESPONSABLE :
Fabrication additive et impact sociétal

Dans l’offre BOIS, VERRE, CÉRAMIQUE ET TEXTILE :
Matériaux dérivés du bois

Dans l’offre PLASTIQUES ET COMPOSITES :
Recyclage des caoutchoucs

Dans l’offre ÉTUDE ET PROPRIÉTÉS DES MÉTAUX :
Minerais de conflit utilisés dans l’industrie électronique

Dans l’offre TRAITEMENTS DES MÉTAUX :
Traitements thermiques des aciers inoxydables

Dans l’offre MATÉRIAUX FONCTIONNELS :
Textiles bioactifs et à activité biologique

Dans l’offre CORROSION VIEILLISSEMENT :
Corrosion atmosphérique

Dans l’offre ÉLABORATION ET RECYCLAGE DES MÉTAUX :
Métallurgie du zirconium et du hafnium

Revue du web #108 : les vidéos scientifiques les plus étonnantes du mois

Déverrouiller l’iPhone X avec… un masque

Apple nous jurait qu’il était impossible de déverrouiller le nouvel iPhone avec un simple masque.

C’était sans compter sur Bkav Corporation, une société vietnamienne spécialisée dans la sécurité des systèmes informatiques.  Le leurre ? Un masque imprimé en 3D d’une valeur de 150 dollars…

 

Contrôler un jeu vidéo par la pensée

Après Space Invaders, voici Brain Invaders ! Développé par le CNRS, ce petit jeu vous invite à détruire des extraterrestres comme son illustre aîné, mais sans les mains !

Grâce à un bonnet rempli d’électrodes, la machine peut analyser l’activité du cerveau. Voici comment rendre l’électroencéphalographie ludique !

 

Boston Dynamics vous présente SpotMini nouvelle version

SpotMini, petit frère des célèbres BigDog et Spot a bénéficié d’une cure de jouvence. Son design plus abouti, son agilité et sa légèreté lui ouvriront-ils les portes de la gloire robotique ?

 

 Les progrès accomplis par Atlas

Boston Dynamics n’a pas pour autant délaissé le jeune Atlas qui est désormais capable d’effectuer des saltos arrières parfaits.

L’entreprise démontre une fois encore sa maîtrise logicielle et matérielle.

 

Un taxi volant signé Airbus

Voici peut-être le transport urbain de demain : Vahana est un projet d’aéronef électrique capable de décoller et atterrir à la verticale.

Un prototype devrait être testé d’ici la fin de la l’année.

 

Ampoule en graphène

Des chercheurs américains et coréens ont créé l’ampoule la plus fine du monde : elle ferait un atome d’épaisseur.

Par I. B

Participer à EnerGaÏa, c’est accompagner la filière et contribuer à la transition énergétique

EnerGaïa est le Forum qui mobilise territoires et entreprises pour une économie bas carbone en Méditerranée.

A la fois Forum intégrant un cycle de conférences et de tables rondes abordant les nouveaux enjeux du marché, et convention d’affaires avec l’organisation de plus de 150 rendez-vous B to B ciblés, le Forum EnerGaïa conforte son positionnement de rendez-vous majeur des professionnels la filière des énergies renouvelables dans le Grand Sud.

Transition énergétique, nouvelles technologies, innovations … quelques-unes des thématiques phares qui seront abordées lors du cycle de conférences avec la participation d’intervenants tels que Bertrand Piccard (médecin-psychiatre, conférencier et aéronaute), Cynthia Fleury (Enseignant/chercheur en philosophie politique et psychanalyste), Cyril Dion (porte-parole et membre du cercle de pilotage du mouvement colibris)

Téléchargez votre badge gratuit sur : http://energaia.mediactive-events.com/index.php?langue_id=1

Plus d’infos sur www.energaia/fr

Politique industrielle : un fonds de 10 Md€ et des objectifs ciblés

Ce lundi 20 novembre, le Premier ministre, Edouard Philippe, et neuf de ses ministres se sont rendus à Bobigny (Seine-Saint-Denis) au centre de recherche de l’équipementier automobile Valeo pour marquer la volonté du gouvernement de soutenir l’industrie et lancer la réunion du Conseil national de l’industrie (CNI). Cette instance, qui réunit dirigeants d’entreprises, partenaires sociaux et pouvoirs publics, va être rénovée et devrait jouer un rôle plus important dans la gouvernance industrielle des années à venir.  Matignon a  décidé de nommer Philippe Varin au poste de vice-président du CNI, (ce qui correspond au poste de dirigeant opérationnel de du Conseil). Cet ancien PDG de PSA et actuel président du conseil d’administration d’Areva est aussi le président de la nouvelle instance représentative des patrons du secteur, France Industrie. En outre, comme annoncé début octobre, un délégué interministériel aux restructurations industrielles devrait être prochainement nommé. Il s’agira de Jean-Pierre Floris, ex-PDG de Verallia (ancienne filiale de St Gobain spécialisée dans l’emballage en verre). Un de ses rôles principaux sera de gérer les crises liées aux fermetures ou aux licenciements massifs.

Refonte du soutien à l’innovation

La plus grande annonce est bien sûr celle d’un fonds spécial pour l’industrie et l’innovation à hauteur de 10 Md€ dès janvier 2018. Le financement devrait en être assuré par les cessions de participations de l’Etat dans Renault et Engie (déjà 1,6 milliards d’euros ont été récoltés), le reste doit provenir des dividendes issus des entreprises où l’Etat est encore actionnaire. «Le rendement annuel du fond, estimé à 200-300 millions d’euros par an, sera sanctuarisé pour garantir l’effort en matière d’innovation» a affirmé le Premier minsitre. En parallèle, le gouvernement a aussi annoncé une refonte des aides à l’innovation, qui rappelons-le représentent au total 10Md€ d’aide au secteur industriel.

La Nouvelle France Industrielle passée au crible

Lancée en 2013 par Arnaud Montebourg, le programme de la Nouvelle France Industrielle, avait déjà été revu en 2015 par Emmanuel Macron. On était alors passé de 34 plans visant à faire émerger les inventions, les produits et les usines de demain à une matrice de 5 piliers et 9 solutions. Ce plan va être revu : les projets en cours vont être examinés et certains seront accélérés et d’autres freinés. Parallèlement, un audit des 14 comités stratégiques de filières qui pilotent habituellement la politique industrielle au sein du CNI va être mené en vue d’un réajustement des objectifs et des périmètres de chaque filière. L’annonce des nouvelles directions à prendre et de la suppression ou non de certains comités est d’ores et déjà prévue pour le 26 février 2018.

Excellence et ambitions

Pour rendre l’industrie française plus compétitive et lui faire prendre le chemin de l’industrie 4.0, l’Etat compte s’appuyer sur des leviers socio-économiques déjà présentés (réforme du code du travail, allégement de la fiscalité des entreprises – impôts, charges salariales, capital…) et sur des initiatives diverses allant de la création du label French Fab, vitrine d’excellence pour l’exportation, à la réforme de formation professionnelle. Le gouvernement s’est assigné quatre missions pour les mois à venir. Deux missions sectorielles concernant le positionnement de la France et ses industries autour du véhicule autonome et des batteries (suivront ensuite les secteurs de la nanoélectronique, du ferroviaire, des énergies renouvelables et des industries de santé). Et deux missions transversales : une réflexion pour faire émerger des champions européens sans que Bruxelles ne puisse invoquer une entrave à la concurrence et un nouvel effort de simplification réglementaire visant à soutenir la compétitivité. Il s’agira de rendre concret l’objectif de deux normes supprimées ou simplifiées pour une nouvelle norme créée et de proscrire toute surtransposition de directives européennes. Un inventaire des surtranspositions passées est en cours et doit être achevé au 1er mars 2018.

Sophie Hoguin