La réalité virtuelle, outil de formation à la rhétorique

La rhétorique est un art que la technologie peut contribuer à perfectionner. Chez Orange, la réalité virtuelle (RV) est ainsi envisagée comme un outil de formation complémentaire à l’usage des managers qui s’entraînent à la prise de parole en public. Le participant s’équipe d’un casque de RV et se retrouve sur l’estrade d’un amphithéâtre, en face d’une galerie de personnages réalisés en images de synthèse. L’auditoire, piloté par le formateur, réagit au discours de façon à ce que la situation soit aussi stressante que dans la réalité.

Si la réalité virtuelle et surtout la réalité augmentée se répandent dans l’industrie, démontrant leur efficacité pour les opérations de manutention et les métiers de terrain, leur utilité reste à prouver pour les «soft skills», par exemple le management. «Nos premières réflexions remontent à octobre 2016 et nous avons étudié l’état de l’art sans rien découvrir de tangible, constate Anne-Sophie Gimenez, directrice de l’innovation dans le domaine de la formation chez Orange. Nous avons alors décidé d’expérimenter la RV, ce qui fait partie de nos attributions

Orange Campus, école à Montrouge qui s’occupe de la montée en compétences des managers, s’avère le laboratoire idéal. «L’aspect innovant de la réalité virtuelle est un moyen d’attirer les «top managers», des personnalités qui sont très occupées par ailleurs» confie Anne-Sophie Gimenez. Un cahier des charges est adressé à des prestataires et l’agence Digital and Human, du groupe Persistant Studios, remporte l’appel d’offres. Le casque HTC Vive se révèle vite le meilleur choix. «Contrairement à la RV sur mobile, il offre la possibilité de se déplacer dans un environnement fixe et respecte avec précision les mouvements de la tête, indique Jean-Thomas Seité, concepteur multimédia chez Orange. En outre, le confort est supérieur et la fatigue oculaire est moindre

Des réactions positives difficiles à simuler

Débute en janvier 2017 le développement de la partie logicielle, avec le repérage des lieux dans deux amphithéâtres distincts et la prise de photographies. La modélisation d’un auditoire réaliste est un premier défi. «Les réactions positives, quand le public se montre attentif, sont difficiles à simuler, explique Jean-Thomas Seité. Il est beaucoup plus simple de reproduire une personne qui se lève ou qui soupire.» Cette mise en scène n’est pas automatisée et est donc dirigée via une console par le formateur, qui voit ce que voit le participant. «Le coaching s’effectue en direct car nous n’avons pas les moyens de faire appel à une intelligence artificielle, poursuit Jean-Thomas Seité. Ceci dit, comment une IA pourrait analyser le discours d’une personne qui parle aussi beaucoup avec les mains par exemple ?»

La restitution du son a été une autre difficulté. «Elle doit être de bonne qualité pour favoriser l’immersion, confirme Jean-Thomas Seité. Quand le participant prend la parole, il doit s’entendre dans le même temps. La réduction de la latence a été un gros challenge.» Si la solution fonctionne sur un PC de bureau ou sur un PC portable «gamer», son déploiement est encore en question, «car il s’agit de trouver un équilibre économique» selon Anne-Sophie Gimenez. En tout cas, après avoir été présentée en avant-première au dernier salon Laval Virtual, elle a convaincu les premiers cobayes, dont plusieurs hauts responsables d’Orange. «Le niveau de réalisme est suffisant pour ressentir la proximité du public et interpréter son comportement, se félicite Anne-Sophie Gimenez. Les participants sont confrontés à des situations réelles, ce qui améliore l’ancrage mémoriel. Est-ce qu’ils y croient ? Oui, et c’est un signe de réussite.»

Frédéric Monflier

A la recherche de la mousse éternelle

Pour stabiliser les mousses, qu’elles soient alimentaires ou utilisées dans des matériaux plus avancés, on utilise généralement des composés tensioactifs qui recouvrent la surface des bulles de mousses et les « protègent » des forces extérieures liées à la pression ou la température. Des chercheurs de l’ETZ de Zurich sont partis de l’étude micrométriques des mécanismes à l’oeuvre dans la dissolution d’une mousse pour trouver de nouvelles solutions de stabilisation.

Ces indésirables fusions et explosions

Plusieurs processus physiques sont à l’origine de la déstabilisation d’une mousse (ou d’une émulsion) : drainage de la mousse par le liquide sous-jacent (ou diffusion de l’émulsion dans la phase dispersante), fusion des bulles ou bien sûr éclatement de bulles.

L’équipe de Jan Vermant à l’ETHZ s’est particulièrement attachée au phénomène du mûrissement d’Ostwald (Ostwald ripening), du nom de son découvreur, le chimiste allemand Wilhelm Ostwald, prix Nobel de physique en 1909. Ce processus explique que la pression capillaire entre deux gouttes de tailles différentes (ou entre les gouttes d’une émulsion dans un dispersant) est différente et provoque la fusion, par diffusion moléculaire, de la petite goutte vers la grosse. Pour éviter cela, on utilise des stabilisants qui couvrent la surface des bulles et ralentissent ce phénomène.

Des mesures de pression miniatures

Les chercheurs ont testé le comportement de bulles d’air dans de l’eau en étudiant les réactions aux interfaces dans de nombreuses configurations: couvertes avec des particules de latex de taille micrométriques, couvertes de manière homogène ou non, en faisant varier les différentes structures et le tout soumis à différentes pressions au sein d’une mini chambre pressurisée. Dans ce système microfluidique, ils ont pu évaluer leur résistance à la dissolution. Ils en ont conclu que même partiellement recouvertes les bulles peuvent être aussi stables que celles qui sont complètement recouvertes et ils ont pu déterminer avec précision à partir de quelle plage de valeurs de pression chaque type de « bouclier » pouvaient résister. Dans la conclusion de l’article paru dans le journal PNAS les chercheurs estiment en outre que leur système de mesure peut être adapté à d’autres formes de mousses, émulsions, ingrédients permettant ainsi de disposer d’un outil d’étude et de prévision du comportement ou de la quantité de stabilisant requis pour différents mélanges. A la clé, l’industrie agroalimentaire notamment, y voit là une possibilité de réduire les coûts de fabrication en économisant certains ingrédients.

Ces recherches ont d’ailleurs été en partie financées par Nestlé, et ont déjà abouti à la fourniture par le laboratoire de guides et d’outils de quantification que l’industrie agroalimentaire peut utiliser pour développer des stabilisants et des nouveaux produits. Les premières applications sont destinées à la crème glacée où l’incorporation de petites bulles stables permet de lui conférer la capacité à la mieux résister à des cycles gel-dégel et à la rendre plus légère.

Sophie Hoguin

Le SIANE : 24-25-26 octobre à Toulouse, le rendez-vous incontournable des industriels du Grand Sud

Découvrir le SIANE :

  • Une 13ème édition placée sous le thème de la « transition numérique pour les PME et ETI » qui a pour objectif d’éclairer les mutations actuelles et à venir dans l’usine du futur à travers des démonstrations, conférences et plateaux TV.
  • Une véritable usine de production avec près de 150 machines-outils, équipements et innovations remarquables sur 7 000 m2 d’exposition comme la présentation d’un équipement intégré de production de 25 tonnes ou un nouveau robot de très grande capacité.
  • Des sous-traitants dans les secteurs des équipements de production, du travail des métaux, des fournitures industrielles, de la transformation des matières, de l’électricité et de l’électronique, des services à l’industrie…
  • Des rendez-vous d’affaires ciblés et qualifiés avec les exposants pour un gain de temps et une efficacité maximale.
  • Des Business Brunchs organisés chaque jour entre exposants et donneurs d’ordres.
  • Un programme de conférences techniques sur 3 jours.

Une belle vitrine pour les industriels et sous-traitants qui offre la possibilité de profiter du boom économique de la région !

N’attendez plus pour imprimer gratuitement votre badge visiteur sur www.salonsiane.com.

megabanner-SIANE

L’expérience le confirme: Neptune et Uranus accumulent les diamants

Une équipe de chercheurs internationaux (principalement allemands et américains) publie dans Nature du 21 août un article relatant leur expérience montrant la formation de diamants à partir de polymères hydrocarbonés dans des conditions semblables à celles régnant dans les profondeurs des deux géantes de glaces que sont Neptune et Uranus. Confirmant ce que l’on soupçonne depuis plus de 30 ans : la présence en grande quantité de diamants solides au sein des deux planètes.

Un résultat prévu de manière théorique

Les théories actuelles concernant Neptune et Uranus considèrent qu’elles sont structurées en trois couches principales : un noyau solide rocheux a priori composé de silicates de fer et nickel entouré d’un manteau de glaces plus ou moins liquides d’eau, d’ammoniac et de méthane et d’une atmosphère riche en hélium, hydrogène, méthane. En réalité, la transition entre l’atmosphère et le manteau est graduelle, il n’y a donc pas à proprement parler de surface sur ces planètes.

Les scientifiques pensent que plus on s’enfonce vers le noyau de la planète, plus des hydrocarbures simples comme le méthane traversent différentes transitions chimiques aboutissant à la perte de leurs atomes d’hydrogène. Sous l’effet de la température et de la pression, ils passeraient d’abord par une phase de polymères puis perdraient leurs atomes d’hydrogène pour voir s’agréger les atomes de carbone sous la forme de diamants notamment. C’est cette dernière réaction, menant à la formation de diamants que les chercheurs ont réussi à recréer.

Quand le plastique devient diamant

Dans l’expérience, des échantillons de polystyrène ( C8H8) sont soumis à des conditions extrêmes comme celles régnant à 10 000 km sous la surface d’Uranus ou Neptune : à peu près 5000°K et 150 gigapascals. Le polystyrène simule les composés polymères qui se forment à partir du méthane, quand on s’enfonce dans les couches les plus profondes de la planète.

Pour atteindre les bonnes conditions, les échantillons de polystyrène sont bombardés par deux ondes de chocs successives provoquées par un laser (dans la lumière visible). L’effet de ces chocs sur le polystyrène a été capturé grâce au laser à électrons libres (XFEL) du SLAC de l’université de Stanford en Californie. Ce dernier permet une diffraction à rayon X avec des impulsions extrêmement brèves de l’ordre de 50 femtosecondes qui fournissent les images de la formation des nanodiamants et les détails sur la réaction chimique qui s’est opérée.

Une nouvelle voie de synthèse pour les nanodiamants ?

Les scientifiques en ont conclu qu’il faut des hautes pressions pour initier la séparation entre le carbone et l’hydrogène et que pour engendrer une précipitation des atomes de carbone sous forme diamantaire il faut que ces pressions soient à peu près 10 fois plus élevées que ce que l’on pensait jusque-là. Ces résultats laissent à penser qu’il pourrait y avoir des phénomènes de convections au sein de ces planètes sous l’influence de la chaleur dégagée lors de la séparation hydrogène / carbone. En outre, si en laboratoire, seuls des nanodiamants sont créés, au sein d’Uranus et Neptune, les chercheurs estiment que les phénomènes sont majeurs et aboutissent à la formation de diamants dont le poids excède plusieurs millions de carats (le carat étant ici l’unité de masse des gemmes). Ils pensent probable que ces diamants coulent dans les couches les plus profondes des deux planètes et s’agrègent, formant une épaisse couche autour du noyau. Par ailleurs, cette expérience ouvre la perspective d’une fabrication via des lasers de nanodiamants, ce qui serait bien plus économique et écologique que les explosions habituellement utilisées. Les nanodiamants sont aujourd’hui utilisés dans le domaine médical, électronique ou encore comme additifs pour des plastiques ou des lubrifiants par exemple.

Sophie Hoguin

Il n’existe que 15 pavages pentagonaux possibles

Pour recouvrir un sol avec une seule et même forme, il existe de nombreuses solutions : triangles, carrés, rectangles, hexagones, etc. La recherche exhaustive de toutes les formes convexes pouvant paver un plan, c’est-à-dire une forme avec des angles inférieurs à 180° et qui permettent de recouvrir tout un mur sans chevauchement, fut initiée par Karl Reinhardt durant sa thèse en 1918. Il a montré que tous les triangles et quadrilatères pavent le plan, qu’il n’existe que 3 types d’hexagones qui permettent de réaliser un pavage et qu’un polygone à sept côtés ou plus ne permet pas de recouvrir un plan. Seule la question des pentagones restait ouverte.

De 1918 à 2015, 15 types de pentagones ont été découverts, lors de recherches plutôt singulières : initiée par Reinhardt en 1918, elle a subi plusieurs rebondissements, comme des nouvelles découvertes de mathématiciens amateurs, jusqu’à l’annonce médiatisée, en 2015, d’une nouvelle et 15e forme, 30 ans après la 14e, sans que la communauté scientifique ne parvienne à déterminer s’il existait encore d’autres formes de pentagones possibles pour paver un plan.

Michaël Rao, chercheur du CNRS au Laboratoire d’informatique du parallélisme (CNRS/Inria/ENS Lyon/Université Claude Bernard Lyon 1) a aujourd’hui définitivement montré qu’il n’existe qu’un ensemble fini de familles1 de pentagones à considérer. En générant toutes les possibilités via un programme informatique2, Michaël Rao a montré que 371 familles de pentagones pouvaient potentiellement recouvrir un plan. Il a ensuite testé chacune de ces familles, à l’aide d’un autre programme informatique, et a montré que seuls 19 types de pentagones satisfaisaient les conditions nécessaires, à la fois pour les angles et la longueur des côtés, pour paver un plan. Parmi ces 19 types, 15 correspondent à des types déjà connus, et les quatre autres s’avèrent être des cas particuliers de ces 15 types. Seuls 15 types de tuiles sont donc possibles pour un recouvrir une surface plane.

Avec sa méthodologie, Michael Rao clôt ainsi un problème vieux d’un siècle, mais pas seulement. Toutes les tuiles convexes pavent le plan de façon périodique (c’est-à-dire que le pavage se répète à l’infini). On ne sait pas encore s’il existe une tuile qui permet de réaliser un pavage non-périodique. Or, la plupart des techniques utilisées ici peuvent également être utilisées dans le cas des polygones non convexes et pourraient donc servir de base à la résolution de cet autre problème encore ouvert dans le domaine des pavages, plus connu sous le nom d’ « Einstein Problem » (de l’allemand « ein stein »).

cap-cnrs-1140
© Michaël Rao, Laboratoire d’informatique du parallélisme (CNRS/Inria/ENS de Lyon/Université Claude Bernard Lyon 1). Les 15 types de pavages pentagonaux et leurs 4 types particuliers.

Notes :

1 Une « famille » est un ensemble de conditions portant uniquement sur les angles du pentagone.
2 L’exhaustivité de cette liste a également été revérifiée, de manière indépendante, par Thomas Hales qui a notamment prouvé la conjecture de Kepler par ordinateur.

Références :

Exhaustive search of convex pentagons which tile the plane. Michaël Rao, disponible sur Arxiv.org, arXiv:1708.00274 (Consulter le site web)

Source : cnrs

Produits chimiques : le règlement PIC entre dans les mœurs

L’agence européenne des produits chimiques, l’Echa, a la charge de traiter les informations techniques et administratives liées au règlement PIC qui est entré en vigueur le 1er mars 2014. Le règlement sur le consentement préalable informé (Prior informed consent – PIC règlement UE n°649/2012) impose des obligations aux entreprises qui souhaitent exporter certains produits chimiques dangereux vers des pays hors Union européenne – il comprend aussi les dispositions prévues par la convention de Rotterdam qui utilise déjà aussi cette procédure de consentement préalable. Il a notamment pour but de fournir aux pays en développement des informations sur le stockage, le transport, l’utilisation et l’élimination en toute sécurité des produits chimiques dangereux.

Plus de 8000 notifications

Dans ce premier rapport triennal (2014-2016), l’Echa souligne que la prise de conscience et la conformité au règlement PIC ont augmenté significativement pendant ces trois premières années d’implémentation. Ainsi, le nombre de notifications est passé de 4500 en 2014 à 8000 en 2016. Une augmentation bien supérieure à celle espérée qui était estimée à 10% par an. En outre, le nombre d’entreprises déclarantes a, lui, triplé, passant de 390 à 1177. Cette augmentation s’explique d’une part par l’ajout de nouveaux produits chimiques à la liste des produits dont la notification d’exportation est obligatoire et d’autre part à l’active promotion du règlement par l’Echa et les différents gouvernements européens. L’Echa, qui fournit aussi une assistance administrative, technique et scientifique sur ce règlement tant pour les pays de l’UE que pour les pays tiers a aussi enregistré une importante hausse d’activité dans ce domaine : le nombre de requêtes étant passé de 1000 en 2014 à 1800 en 2016.

Un règlement qui atteint son but

Geert Dancet, directeur executif de l’Echa s’est félicité de ce bilan très positif : « grâce à l’implication de toutes les parties prenantes, nous sommes sur le chemin pour que les objectifs clés de ce règlement soient atteints – rendre le commerce international des produits chimiques dangereux plus transparent pour la santé humaine et l’environnement partout dans le monde ». Le nombre important de notifications implique en effet que l’UE fournit d’importantes masses de données aux autorités des pays importateurs, qu’ils peuvent alors utiliser pour créer leur propre réglementation et pour identifier les entreprises qui utilisent ces produits dans leur pays.
Le rapport fait aussi le point sur les améliorations qui peuvent encore être apportées et souligne la nécessité pour l’Echa de disposer de moyens supplémentaires pour traiter la masse de données et de requêtes qui lui sont soumises et qui ont été grandement sous-estimées.

Par Sophie Hoguin

Ondes gravitationnelles : première détection conjointe LIGO-Virgo

Les trous noirs sont le stade ultime de l’évolution des étoiles les plus massives. Il arrive que certains évoluent en couple. Ils orbitent alors l’un autour de l’autre et se rapprochent lentement en perdant de l’énergie sous forme d’ondes gravitationnelles, un phénomène qui finit par s’accélérer brusquement jusqu’à les faire fusionner en un trou noir unique. Un tel tourbillon final avait déjà été observé trois fois par les détecteurs LIGO en 2015 et début 2017. Cette fois ce sont trois instruments qui en ont été témoins, le 14 août 2017 à 10h30 UTC, permettant une bien meilleure localisation dans le ciel.

Ce nouvel évènement confirme que les couples de trous noirs sont relativement abondants et va contribuer à leur étude. Les deux trous noirs, qui avaient des masses égales à 25 et 31 fois celle du Soleil, ont fusionné en un trou noir de 53 masses solaires, l’équivalent de 3 masses solaires ayant été converties en énergie sous forme d’ondes gravitationnelles. Cet événement s’est produit à environ 1,8 milliard d’années-lumière de la Terre ; autrement dit, les ondes gravitationnelles se sont propagées dans l’espace pendant 1,8 milliard d’années avant d’être détectées par le détecteur Advanced LIGO situé en Louisiane (États-Unis), puis 8 millièmes de seconde plus tard par celui situé dans l’État de Washington, et enfin 6 millièmes de seconde après par Advanced Virgo situé près de Pise en Italie.

L’apport d’un troisième instrument, Advanced Virgo, permet d’améliorer significativement la localisation des évènements astrophysiques à l’origine des ondes gravitationnelles. Ces évènements, extrêmement violents, peuvent dans certains cas éjecter de la matière très chaude qui peut être visible pour des télescopes optiques. Avec seulement deux détecteurs d’ondes gravitationnelles, la zone de recherche dans le ciel s’étendait sur une zone équivalant à plusieurs milliers de fois la surface de la pleine Lune. Grâce à Advanced Virgo, elle est environ dix fois plus petite, et l’estimation de la distance à laquelle se trouve la source est aussi deux fois meilleure. Ceci améliore grandement les chances d’observer des signaux avec d’autres instruments.

Pour cet évènement, la combinaison des temps d’arrivée avec l’amplitude des signaux observés a permis d’établir une zone de recherche dans le ciel de 80 degrés carré, qui a été scrutée par 25 groupes d’astronomes. Comme pour les précédents événements, aucun signal optique n’a été observé.

Un autre atout du détecteur Virgo est son orientation, différente de celle des deux instruments LIGO. Ceci rend possible de nouveaux tests de la théorie de la relativité générale, élaborée par Albert Einstein, qui décrit la force de gravitation. En effet, cette théorie prédit que lors du passage d’une onde gravitationnelle, l’espace s’étire dans une direction tout en se contractant dans une autre, au lieu, par exemple, de se déformer dans une seule direction ou dans toutes les directions à la fois comme le prédisent des théories alternatives. L’analyse des signaux observés indique que c’est effectivement le cas. C’est un prélude à de futurs tests plus poussés de la relativité générale.

En attendant de nouvelles observations à l’automne 2018, les premières données de ce réseau de trois détecteurs sont toujours en cours d’analyse et devraient donner lieu prochainement à d’autres annonces.

Advanced Virgo est un instrument principalement cofinancé par le CNRS en France et l’Istituto Nazionale di Fisica Nucleare (INFN) en Italie. Les chercheurs travaillant sur Virgo sont regroupés au sein de la collaboration du même nom, comprenant plus de 250 physiciens, ingénieurs et techniciens appartenant à 20 laboratoires européens dont 6 au CNRS en France, 8 à l’INFN en Italie et 2 à Nikhef aux Pays-Bas. Les autres laboratoires sont Wigner RCP en Hongrie, le groupe POLGRAW en Pologne, un groupe à l’université de Valence (Espagne) et EGO (European Gravitational Observatory), près de Pise, en Italie, où est implanté l’interféromètre Virgo. Après plusieurs années de travaux d’amélioration et quelques mois de tests, Advanced Virgo a recommencé à écouter le ciel le 1er août 2017, rejoignant Advanced LIGO. Cette détection est l’aboutissement d’un quart de siècle d’investissements du CNRS et de l’INFN dans ce grand équipement.

LIGO (Laser Interferometer Gravitational-Wave Observatory) est un observatoire dédié aux ondes gravitationnelles composé de deux interféromètres identiques, situés aux Etats-Unis. La version améliorée de ces détecteurs (Advanced LIGO) a redémarré en septembre 2015. Autour de ces instruments s’est constituée la collaboration scientifique LIGO (LIGO Scientific Collaboration, LSC), un groupe de plus de 1000 scientifiques travaillant dans des universités aux Etats-Unis et dans 14 autres pays. Elle travaille main dans la main avec la collaboration Virgo. En effet, depuis 2007, les scientifiques des deux groupes analysent en commun les données et signent ensemble les découvertes.

La publication scientifique des collaborations LIGO et Virgo annonçant cette observation est cosignée par 76 scientifiques de six équipes du CNRS et d’universités associées :

  • le laboratoire Astroparticule et cosmologie (CNRS/Université Paris Diderot/CEA/Observatoire de Paris), à Paris;
  • le laboratoire Astrophysique relativiste, théories, expériences, métrologie, instrumentation, signaux (CNRS/Observatoire de la Côte d’Azur/Université Nice Sophia Antipolis), à Nice;
  • le Laboratoire de l’accélérateur linéaire (CNRS/Université Paris-Sud), à Orsay;
  • le Laboratoire d’Annecy de physique des particules (CNRS/Université Savoie Mont Blanc), à Annecy;
  • le Laboratoire Kastler Brossel (CNRS/UPMC/ENS/Collège de France), à Paris;
  • le Laboratoire des matériaux avancés (CNRS), à Villeurbanne.

Le CNRS a décerné le 27 septembre 2017 une double médaille d’or aux physiciens Alain Brillet et Thibault Damour pour leurs contributions majeures à la détection des ondes gravitationnelles.

schema-cnrs-1
© Collaboration LIGO-Virgo Localisation de la source des ondes gravitationnelles. En jaune : localisation obtenue avec les deux détecteurs LIGO. En vert : localisation obtenue en utilisant les données des trois détecteurs (LIGO et Virgo), par une analyse en temps réel. En mauve : localisation plus précise obtenue après une analyse plus poussée.

 

schema-cnrs-2
© LIGO Laboratory (deux premières photos) et Virgo / Nicola Baldocchi 2015 De gauche à droite : les deux détecteurs LIGO (à Hanford et Livingston, États-Unis) et le détecteur Virgo (Cascina, Italie).

 

Source : cnrs

Une concertation nationale sur l’économie circulaire

« L’économie circulaire, c’est le meilleur exemple possible de réconciliation entre l’économie et de l’écologie », a assuré Brune Poirson, secrétaire d’État auprès du ministre d’État, ministre de la Transition écologique et solidaire. Un secteur qui touche de très près à l’économie sociale et solidaire qui compte plus de 500.000 emplois, et est l’un des rares en croissance. Devant les professionnels du recyclage rassemblés dans la Cité des Congrès de Nantes, elle y a rappelé les bénéfices environnementaux capitaux du secteur. Notamment, le recyclage des déchets évite l’émission de 22,5 millions de tonnes de CO2 chaque année en France. Soit l’équivalent de 5% des émissions totales de la France. Et le recyclage d’une tonne de déchets créerait 30 plus fois plus d’emplois que de la mettre en décharge.

Sur la question capitale des déchets, le Gouvernement doit répondre à deux objectifs phares. D’une part, diminer de moitié la mise en décharge des déchets. De l’autre, atteindre un recyclage de 100% des plastiques d’ici 2025. Un objectif jugé irréaliste par les professionnels du recyclage. Mais le Gouvernement ne veut pas faire machine arrière. Comment y parvenir? Le Plan Climat présenté en Juillet dernier prévoit la publication début 2018 d’une feuille de route sur l’économie sociale et solidaire.

Des leviers incitatifs à activer

Les leviers à activer pour répondre aux objectifs sont multiples. Il faudra créer de nouveaux débouchés pour les matières recyclées, mais aussi mobiliser les fonds d’investissement pour qu’ils investissent dans des systèmes de collecte et des centres de tri modernes. Bruno Poirson voit « le développement d’une véritable culture en France de l’économie pour les entreprises et les consommateurs » et imagine la possibilité de ne mettre sur le marché que « des produits éco-conçus et facilement recyclables ».

Elle voit aussi une fiscalité nouvelle qui sera « incitative et cohérente avec les objectifs fixés ». Car les signaux économiques actuels ne sont pas bon. « Il faudra réorienter les investissements de la mise en décharge et des incinérateurs vers le recyclage », assure la ministre. Pour cela, les taxes portants sur ces dernières seront revues à la hausse d’ici la fin du quinquennat. Il faudra aussi lever les verrous réglementaires à l’utilisation des matériaux recyclés. La feuille de route du Gouvernement devra répondre à tous ces enjeux.

Une large concertation en préparation

Pour y parvenir, Brune Poirson a choisi les Assises des Déchets de Nantes pour présenter la méthode et le calendrier d’élaboration de cette feuille de route. Les citoyens, les associations, les collectivités et les entreprises seront largement mises à contribution. L’idée sera de s’appuyer au maximum sur les instances existantes. « Nous associerons les parties prenantes issues du conseil national des déchets et du conseil national de l’industrie et de l’institut de l’économie circulaire », prévient Brune Poirson.

Un panel d’ambassadeurs de l’économie circulaire sera associé à la concertation pour identifier les solutions innovantes et contribuer à diffuser les bonnes pratiques. Il formulera des recommandations pour élaborer la feuille de route. Des personnalités comme Ellen McArthur, Thierry Kuhn, Président d’Emmaüs France et Emmanuel Fabert, PDG de Danone, ont déjà accepté d’y prendre part.

Un calendrier pour établir la feuille de route

Concrètement, toutes ces parties prenantes seront reçues à Paris le 24 octobre pour lancer formellement les travaux d’élaboration de la feuille de route qui devront aboutir au premier trimestre 2018.

Fin octobre, une plateforme collaborative sera lancée pour recueillir les attentes et les propositions concrètes des citoyens. Des séances de travail seront aussi organisées pour faire émerger des solutions pour changer les comportements de tri. Par ailleurs, pour valoriser les données issues du Ministère et de l’ADEME sur la production des déchets, un « hackaton » sera organisé. Dans l’espoir de donner naissance à de nouvelles start-up de la greentech.

Par Matthieu Combe, journaliste scientifique

Réseaux énergétiques : la cible des hackers

Depuis 2009, tous les spécialistes de la sécurité informatique savent que le secteur énergétique est une cible pour certains États. Cette année-là, en juin, Stuxnet est repéré par une petite firme de sécurité biélorusse. Ce code destructeur a exploité plusieurs failles Windows non corrigées. Le code est relativement classique, mais il est intéressant d’un point de vue technique, puisqu’il consiste en un cheval de Troie doublé de technologies de type Rootkit pour le rendre invisible (ce qui n’est pas le cas de simples virus).

Autre particularité, il ne vise pas l’ordinateur de monsieur Tout-le-Monde, mais des systèmes de contrôle industriels que l’on trouve sur des sites sensibles (usines, centrales nucléaires…). Stuxnet analyse les systèmes informatiques et recherche certains critères – un contrôleur particulier, notamment – pour cibler de manière sûre des machines industrielles.

Depuis, ce secteur d’activité très sensible a déployé différentes techniques pour réduire les risques. Mais les pirates continuent à multiplier les attaques. Selon Symantec, éditeur de l’antivirus Norton, Dragonfly est de retour. En 2014, ce groupe de pirates soutenus par un État s’en prenait aux réseaux énergétiques de plusieurs pays, dont les États-Unis, la France, l’Italie, l’Espagne ou encore l’Allemagne.

Grizzly Steppe

Après une période de calme, il sévirait de nouveau. Baptisée Dragonfly 2.0, leur offensive s’appuie sur différents procédés pour infiltrer les systèmes informatiques de réseaux énergétiques : emails malveillants, usurpation d’applications légitimes ou des mises à jour autorisées, opérations d’ingénierie sociale… Rien de vraiment d’original ! Du moins, pour ce qui est des attaques connues…

Cible principale ? Les États-Unis. Cet été, une douzaine de centrales énergétiques ont repéré (ou ont été victimes) des intrusions dans leur système, selon un rapport du FBI et du département de la sécurité intérieure. Heureusement, les pirates n’ont pas pu prendre le contrôle des infrastructures. Quelques mois plus tôt, c’est le réseau électrique d’un fournisseur du Vermont (est des États-Unis) qui a été touché. « Un code associé à l’opération de piratage informatique baptisée Grizzly Steppe par l’administration Obama a été détecté à l’intérieur», écrit le Washington Post qui ne fournit plus de détails. Là aussi, officiellement, les menaces ont été repérées et donc endiguées. Qu’en est-il des attaques vraiment ciblées qui peuvent s’appuyer sur des codes malveillants conçus spécifiquement pour une cible ? Dans ce cas bien sûr, les antivirus n’apportent aucune parade…

Reste que la plus importante attaque visant ce type de réseau remonte à décembre 2015 : 80.000 habitants de l’ouest de l’Ukraine avaient été plongés pendant six heures dans le noir à la suite d’une cyberattaque d’une ampleur inédite. Le service avait été rétabli quand les opérateurs ont pris le contrôle manuel des systèmes et rebasculé les disjoncteurs. Selon l’entreprise de sécurité iSight Partners, le code malveillant portait la signature d’un groupe de pirates surnommé Sandworm Team qui opérerait depuis la Russie.

Par Philippe Richard

Donald Trump à l’assaut du solaire chinois… et mexicain

Section 201

Tout a débuté en mai dernier lorsque les constructeurs de panneaux solaires Suniva et Solarworld ont déposé une plainte pour concurrence déloyale auprès de l’International Trade Commission (ITC). Très affectés par la chute des prix de vente des modules PV, les deux groupes éprouvent les plus grandes difficultés à concurrencer les acteurs asiatiques notamment, qui produisent bien moins chers, voire à perte selon leurs détracteurs. Les deux compagnies ont demandé à l’ITC de faire jouer la section 201 du droit commercial américain qui autorise le gouvernement fédéral à prendre des mesures de rétorsion contre un produit « lorsque celui-ci est importé dans de telle quantités qu’il cause ou risque de causer de sérieux préjudices à l’industrie américaine ».

Trump prend la main

La semaine dernière, l’ITC donnait raison aux plaignants sur le fond ce qui implique que la commission va devoir proposer au président des Etats-Unis différentes options se basant sur les demandes de Suniva et Solarworld. Il lui appartiendra, le 13 novembre, de décider quelles mesures adopter. Les pays concernés sont la Chine, la Corée du sud et le Mexique, où de nombreuses entreprises américaines ont délocalisé leurs sites de production.

Il y a fort à parier que Donald Trump ne manquera pas cette occasion en or ; lui qui considérait pendant la campagne électorale que les entreprises chinoises exerçaient une concurrence déloyale. Par ailleurs, le président est ouvertement pro-hydrocarbures et a largement critiqué les énergies renouvelables. Les mesures protectionnistes pourraient être une taxe à l’importation (37 cents par Watt selon les plaignants), des quotas ou un prix plancher, ou encore une combinaison des trois.

Impacts

Le premier impact visible de cette décision a été la hausse des prix des modules. Les acteurs anticipant les futures taxes, ils ont constitué des stocks, ce qui a mécaniquement fait monter les cours sur le marché américain, explique Rhone Resch, ancien président de la Solar Energy Industries Association (SEIA).

La SEIA se dit très inquiète : « La décision de l’ITC est décevante pour près de 9 000 entreprises solaires américaines et les 260 000 personnes qu’elles emploient ». En effet, la grande partie des emplois liés à l’industrie solaire aux Etats-Unis est liée à l’installation, la maintenance, la vente de modules photovoltaïques. Les emplois de manufacture sont minoritaires. La hausse mécanique des prix de vente sur le marché, en raison des taxes à l’importation, va réduire l’attractivité de l’énergie solaire, face à d’autres technologies devenues plus compétitives. La demande pourrait baisser de plusieurs gigawatts selon le SIEA.

La section 201 a déjà été utilisé par le président George W. Bush en 2002 pour imposer durant trois ans des tarifs douaniers allant jusqu’à 30 % sur certaines importations d’acier, ainsi que des quotas pour protéger la sidérurgie américaine. La cible était là encore la Chine. Les conséquences de ces mesures n’ont pas fait l’unanimité pour le secteur qui a perdu beaucoup d’emplois. De plus, de nombreuses industries utilisant l’acier (automobile, pétrolière, armement) se sont vus impacter par la hausse de leur matière première, causant une baisse de compétitivité et des pertes d’empois collatérales.

Romain Chicheportiche

 

Un Plan Santé connectée pour la France ?

Si le modèle de santé français est encore vanté dans le monde, il recule dans les classements internationaux. Pourquoi ? Patrice Cristofini, Président et fondateur du club e-santé n’y va pas par quatre chemins. «L’une des raisons principales tient, selon nous, à ce que le système de santé français a manqué sa révolution digitale», souligne-t-il.

La France n’a pas assez investi pour déployer la santé connectée sur ses territoires. Télémédecine, téléexpertise, outils d’auto-diagnostics, cabine connectée de diagnostic, applications mobiles… «La France entre à peine dans cette nouvelle ère», regrette Patrie Cristogini. Pourtant, le pays présente de nombreux atouts: il détient des start-up de pointe dans le domaine, de grands groupes industriels en informatique et parmi les meilleurs médecins et chercheurs au monde.

Pour un Plan Santé connectée France

Mais tout médecin le sait bien, rien n’est jamais perdu. Le CEPS demande donc le lancement d’un vaste plan «Santé connectée France» portant sur cinq axes. Objecif: faire de la France l’un des leaders de la santé connectée d’ici 5 ans. Et assurer la «e-confiance» des Français pour ce nouveau mode de pratique de la médecine, «la clé de ce virage stratégique», projette Patrice Cristofini.

La top des priorités sera celle de la formation. Car le CEPS s’indigne de voir que la e-santé est totalement absente des programmes de formation. Il propose au moins 20 heures de cours chaque année dans la formation initiale de tous les professionnels de santé. Durant leurs études, ces derniers devraient aussi pouvoir suivre un stage de 6 mois dans une entreprise de la e-santé. Et un plan de formation continue sur ces nouveaux enjeux devrait être proposé à tout professionnel en activité, notamment aux plus de 50 ans.

Mais il faut aussi que l’Etat priorise ses financements pour favoriser la santé digitale. Le CEPS propose ainsi de le faire dans les contrats Etats-régions, par exemple pour encourager la télémédecine au service du suivi des maladies chroniques.

Structurer la e-santé en France et en Europe

Il faudra également structurer le secteur et créer une gouvernance forte. Le CEPS propose «la mise en place d’un tiers de confiance national à parité public-privé associant des professionnels de santé pour organiser l’accès aux données d’usage de la santé». Le centre adepte de prospective voit aussi la création d’une Haute Autorité pour la e-santé et une Agence Européenne de la e-santé.

Aujourd’hui, n’importe quel fabricant peut proposer un outil de e-santé. Et rien ne garantit son utilité ou sa fiabilité médicale. La Haute Autorité pour la e-santé permettrait de faire le tri parmi ces innovations, les labelliser ou les certifier. Les citoyens pourraient ainsi s’appuyer sur un avis indépendant pour éviter les gadgets médicaux connectés et les professionnels de santé pourraient recommander les meilleures solutions de santé connectée sur des bases fiables. De son côté, l’Agence Européenne de la Santé jouerait un rôle crucial pour mieux encadrer la collecte des données de santé par ces mêmes entreprises et les grands groupes. Qui a dit qu’il fallait craindre l’intelligence artificielle ?

Par Matthieu Combe, journaliste scientifique

Les jeux vidéos peuvent être des dispositifs médicaux !

«On n’est pas dans le bien-être, mais dans la santé», assure Pierre Foulon, Directeur du pôle numérique e-santé du groupe Genious. Très loin des applications bien-être, son jeu X-TORP, destiné aux patients atteints de la maladie d’Alzheimer ou de pathologies assimilées est reconnu comme un dispositf médical de Classe 1 et bénéficie du marquage CE. Il permet de mesurer les effets de la maladie tout en pratiquant sa mémoire, en faisant une activité physique et en s’amusant. Pour le patient, il est possible de jouer avec sa famille ou des amis. De quoi favoriser le lien social, essentiel dans la lutte contre la maladie.

Curapy, la plateforme de jeux-vidéos thérapeutiques

Le jeu est disponible sur la plateforme de jeux-video thérapeutiques Curapy.com. Les jeux qui y sont proposés permettent de soigner différemment, de solliciter les patients sur des aspects physiques, mais aussi cognitifs. «Le patient va se libérer et faire une séance de rééducation tout en prenant du plaisir», se félicite Pierre Foulon.

D’ores et déjà, Curapy est en relation avec 5.000 professionnels de santé. Et environ 1.000 patients utilisent la solution. La plateforme est libre et gratuite pour les professionnels de santé. «Notre marché est sur le patient», explique Pierre Foulon. Mais le dispositif est clairement abordable. L’entreprise propose ainsi un accès gratuit aux jeux. Pour obtenir les résultats et progresser, l’abonnement monte à 5 euros par mois. Et pour pouvoir communiquer sur ces résultats avec son professionnel de santé, il faudra débourser 10 euros par mois au total.

L’évolution de la maladie peut-être suivie grâce à une interface intuitive.

Des jeux-videos pas comme les autres !

Pour développer un nouveau jeu, l’entreprise passe par une lourde charge administrative. D’abord, il faut définir des objectifs thérapeutiques à atteindre. «Ils portent sur le cognitifs, sur le physique et on rajoute les tests classiques de mesure d’évolution de la maladie», précise Pierre Foulon. Il faut ensuite créer les thérapies numériques, valider cliniquement l’efficacité et mesurer l’efficacité médico-économique de cette innovation sur le système de santé. «Tous nos essais cliniques et résultats sont publiés dans des revues scientifiques», assure le directeur. Il faut enfin travailler sur la conformité réglementaire.

L’entreprise dispose actuellement de plusieurs jeux en expérimentation clinique. Par exemple, Toap Run va travailler sur les troubles de la marche et de l’équilibre, une expérimentation clinique est en cours sur la maladie de Parkinson. JeMime s’adresse aux enfants autistes, Memo s’attaque aux troubles cognitifs,  Ergotact à la rééducation du membre supérieur post-AVC et VisioNum à la rééducation orthoptique.

Le jeu X-TORP a été validé cliniquement au CHU de Nice comme outil de mesure d’évolution de la maladie d’Alzheimer. Les résultats ont été publiés dans le Journal of Alzheimer’s Disease en août 2016. X-TORP fait actuellement l’objet d’une nouvelle étude auprès de 180 patients, en PACA et en Ile-de-France. Ces tests sont encadrés par le Professeur Philippe Robert et le Professeur Bruno Dubois, deux références sur la maladie d’Alzheimer.

Par Matthieu Combe, journaliste scientifique

DowDupont est en marche, la chimie des géants se poursuit

Après l’accord des différentes autorités du marché pour la fusion entre Dow Chemical et DuPont, la nouvelle société est officiellement entrée en bourse le 1er septembre 2017 sous le nom de DowDuPont. Cette fusion, actée depuis fin 2015, crée le numéro 1 mondial de la chimie devant l’allemand BASF avec une capitalisation boursière de l’ordre de 130 milliards d’euros et plus de 100 000 salariés dans le monde.

Déjà des changements dans les trois pôles

Dès le projet de rapprochement, il avait été décidé d’ensuite scinder le groupe en trois entités indépendantes cotées en bourse : chimie des matériaux, chimie de spécialités, agrochimie. Le périmètre de ces trois entités vient d’évoluer. Suivant l’avis de certains actionnaires activistes (notamment Third Point et Trian Fund), certaines activités vont passer du pôle chimie des matériaux vers le pôle chimie de spécialités. Il s’agit des activités de Dow dans les adhésifs, fluides et lubrifiants automobiles, le traitement des eaux, la construction, la pharmacie et l’alimentaire, les produits biocides ainsi que les activités de DuPont dans les polymères spécialisés et plusieurs autres entités liés à l’éclairage LED, les semi-conducteurs ou le médical. L’ensemble des activités concernées par ce changement représentent un chiffre d’affaires annuel de l’ordre de 7 Md€. Une évolution a priori porteuse pour les actionnaires et qui a ravi les marchés boursiers : le jour de l’annonce (12 septembre), le titre de DowDuPont a ainsi grimpé de 2,23%…

Au final, les trois pôles sont donc composés comme suit :

  • Pôle agrochimie : il réunit DuPont Pioneer, DuPont Crop Protection et Dow AgroSciences offrant ainsi un éventail de produits et services aux agriculteurs depuis les semences jusqu’aux solutions numériques de gestion. Le siège sera à Wilmington dans le Delaware (siège de DuPont).
  • Pôle Science des matériaux : il sera lui-même divisé en trois segments (matériaux performant et revêtements ; intermédiaires industriels et infrastructure ; emballages et plastiques de spécialités). Il préservera la marque Dow sur ces produits et son siège sera situé à Midland dans le Michigan (siège de Dow Chemical)
  • pôle chimie de spécialités : divisé en quatre segments (électroniques et imagerie ; transport et polymères avancés ; construction et sécurité ; nutrition et biosciences). Son siège sera à Wilmongton dans le Delaware.

Toujours plus gros, toujours plus fort

Mais la fusion DowDupont ne doit pas être l’arbre qui cache la forêt. D’autres mouvements massifs sont en cours dans le secteur de la chimie. Sans être exhaustif, on peut citer

  • Le rachat de Monsanto par Bayer pour 66 Md€
  • Le chinois ChemChina qui est en train de boucler son achat du suisse Syngenta pour 37 Md€
  • la fusion bientôt finalisée entre canadiens dans les engrais chimiques. Potash corp et Agrium doivent d’ici la fin de l’année former un groupe baptisé Nutrien dont la valeur totale est estimée à 30 Md€. Ce nouveau géant des engrais comptera environ 20 000 employés répartis dans 18 pays.
  • La fusion entre l’allemand Linde et l’américain Praxair pour former le leader des gaz industriels (devant le français Air Liquide qui vient de racheter Airgas pour 12Md€). Le nouveau groupe possédera un chiffre d’affaires de 27Md€ pour 80000 salariés dans le monde, et pèsera quelques 66 Md€ de capitalisation boursière.
  • le rachat par BASF de l’activité nylon de Solvay pour 1,1 Md€, annoncée le 19 septembre dernier.
  • le suisse Clariant (pigments) et l’américain Huntsman (polyuréthanes et pigments), qui sont en train de créer un groupe de 12 Md€ de chiffre d’affaires.
  • et plus modestement en France, la fusion en cours entre Novacap (pharmacie chimie fine) et PCAS (biopharmaceutique) pour former une entité approchant le milliard d’euros de chiffre d’affaires.

Sophie Hoguin

Cardiologs et le deep learning sur les électrocardiogrammes

Le premier produit de Cardiologs est un logiciel qui facilite l’interprétation des électrocardiogrammes, l’examen classique qui analyse l’activité électrique du coeur. Grâce à une base de données d’environ 500.000 électrocardiogrammes, le logiciel a appris à lire les électrocardiogrammes et à détecter des défauts infimes dans leur profil. Il dépiste ainsi toutes sortes de pathologies, notamment des arythmies cardiaques comme la fibrillation atriale.

Ce trouble fréquent du rythme cardiaque affecte environ 2 % de la population. « C’est un facteur de risque qui provoque des AVC [accidents vasculaires cérébrales], explicite Yann Fleureau, Fondateur de Cardiologs. Elle peut être paroxystique, c’est-à-dire que vous ne l’avez pas tout le temps, et elle peut être silencieuse, c’est-à-dire que vous ne la sentez pas ». D’où la difficulté pour les médecins de faire de la prévention.

L’intelligence artificielle, au service de la prévention

La prévention de la fibrillation atriale est avant tout secondaire, suite à un AVC. Ce n’est pas l’idéal. Il faudrait diagnostiquer cette pathologie au plus tôt, tant qu’elle n’est pas permanente. Mais au départ, elle ne survient que par épisodes, quelques minutes par semaine. Ensuite, elle s’aggrave quelques heures par semaine jusqu’à devenir permanente et de plus en plus difficile à traiter. Pour la détecter, les médecins mettent donc en place des suivis de longue durée jusqu’à plusieurs semaines. Mais il faut diagnostiquer de plus en plus de patients, faire des enregistrements de plus en plus longs. Et la lecture des électrocardiogrammes prend plusieurs heures.

« C’est un des terrains favorables au développement de l’intelligence artificielle : permettre de démultiplier la capacité du médecin à suivre plus de patients, à les suivre pendant plus longtemps et accompagner la transition d’une médecine ponctuelle à une médecine plus continue où on va pouvoir monitorer le patient à distance », prévient Yann Fleureau.

Cardiologs détecte les pathologies en quelques minutes

Concrètement, grâce à Cardiologs, le cardiologue va pouvoir naviguer parmi les épisodes qui ont été pré-détectés par l’intelligence artificielle. Chaque épisode anormal va être automatiquement classé par pertinence clinique. « Un processus qui prenait plusieurs heures avec un logiciel classique prend maintenant quelques minutes », soutient Yann Fleureau. Le cardiologue peut ensuite générer automatiquement un rapport. « C’est un exemple clinique de comment l’intelligence artificielle peut se mettre au service du cardiologue pour lui permettre de faire des examens de plus longue durée, plus précis, d’aller chercher une information complémentaire au service du patient », résume-t-il. Le logiciel peut aussi aider les médecins non-cardiologues à lire les électrocardiogrammes. Il les assiste, statistiquement, pour avoir un meilleur diagnostic, et cela beaucoup plus rapidement.

La start-up fondée en 2014 comprend déjà une quizaine de collaborateurs. Elle a a gagné le concours mondial d’innovation en 2014. Et la suite a été tout aussi bénéfique. Elle a été la toute première société au monde à recevoir le marquage CE pour un algorithme de deep learning. Et la deuxième à recevoir l’accord de la FDA aux Etats-Unis pour commercialiser un algorithme de deep learning. Aujourd’hui, Cardiologs a vocation à pousser sa solution de monitoring cardiaque aux Etats-Unis et en Europe.

Par Matthieu Combe, journaliste scientifique

Cosmologie, ressources minières… Ruée sur les astéroïdes

La communauté scientifique (et industrielle) s’intéresse de près aux astéroïdes pour des raisons très diverses :

  • les astéroïdes voyagent et transportent de la matière dans le temps et dans l’espace et sont donc porteurs de réponses concernant la formation de l’univers, de notre planète et de l’apparition de la vie.
  • Un intérêt de sécurité car mieux les connaître et être capable de s’en approcher voire s’y poser c’est pouvoir plus facilement trouver des solutions pour éviter une collision dramatique avec la Terre.
  • Un intérêt économique, car on commence à imaginer comment exploiter leur richesse minière.

Bon. Sauf que pour le moment la mission Rosetta et l’atterrissage de Philae sur la comète Tchouri en 2014 reste une réalisation exceptionnelle.

En route pour Ryugu et Bennu

Il y a un an, le 8 septembre 2016, la Nasa a lancé Osiris-Rex, une sonde à destination de l’astéroïde 101955 Bennu (Bénou en version française). Hasard du calendrier, Osiris Rex vient de nous rendre visite ce vendredi 22 septembre pour profiter de l’assistance gravitationnelle de la Terre, prendre quelques clichés et repartir plus vite vers sa destination qu’elle doit atteindre en 2020. Pour elle, le retour est programmé en 2023. Son objectif ? Récolter quelques échantillons de roche et les ramener sur Terre. Comment? Grâce à un bras de 3,35m qui crache un jet d’azote qui doit décoller des roches et un aspirateur capable de récolter et stocker 60g de matière. Un système largement inspiré des Japonais qui sont eux en route pour 162173 Ryugu avec Hayabusu 2 dans le but de récolter 1g de matière. Lancée en décembre 2014, Hayabusa 2 doit tenir compagnie à Ryugu de juillet 2018 à février 2019 et lâcher Mascot, un atterrisseur fourni par les Allemands (DLR) et les Français (CNES), avant de revenir sur Terre en décembre 2020. L’agence spatiale japonaise (JAXA) n’en est pas à son coup d’essai, elle bénéficie de l’expérience d’Hayabusa 1 qui a touché le sol de de l’astéroïde Itokawa en 2005 sans réussir à se poser convenablement mais en ramenant quelques centaines de grains de poussières à son bord.

Des plans sur la comète

Ces tentatives ont tôt fait d’échauffer les esprits inventifs et cupides de plusieurs entités économiques prêtes à partir à la chasse aux minéraux, métaux et ressources énergétiques que l’espace peut nous offrir. Après tout, selon son type, un seul astéroïde d’un kilomètre de diamètre pourrait fournir le fer et le nickel mondial pour une année entière. Outre la création spécialement dans ce but de deux entreprises américaines (Planetary Ressources et Deep Space Industries), ce sujet a fait l’objet récemment de la publication d’un livre blanc par le Luxembourg à la suite d’une discussion mondiale entre toutes les parties intéressées en septembre 2016. Notons d’ailleurs que le Luxembourg se veut à la pointe du sujet . Il vient de mettre en place (aout 2017) un cadre législatif favorable pour les entreprises qui envisagent cette activité. Ce cadre se veut un modèle pour un futur droit commercial international de l’espace ; il est calqué sur le droit maritime où il n’y a pas d’appropriation en soi mais un droit à exploiter les ressources.

Le contenu de ce livre blanc de 80 pages a été présenté à l’occasion du congrès européen des sciences des planètes (European Planetary Science Congress) organisé par Europlanet à Riga en Lettonie du 17 au 22 septembre 2017.

Mettant en avant le fait qu’on ne sait pas encore grand chose des astéroïdes : quels sont ceux qui sont « facilement » accessibles depuis la Terre, quel est leur composition ? Comment la connaître ? Comment les exploiter : sur place, sur Terre, sur une base lunaire ? Que nous reste-t-il à développer ? De quoi mesurer que leur exploitation n’est vraiment pas pour demain…

Plus on est de fous…

A l’occasion du Congrès d’Europlanet, le Dr. Pekka Janhunen de l’Institut finlandais de météorologie, est venu présenter son concept pour visiter 300 astéroïdes en trois ans. De quoi s’agit-il ? Simplement d’une flotte d’une cinquantaine de mini-sondes spatiales munies d’une propulsion à base de voiles électriques à vent solaire (E-sails) embarquant télescope, caméras et spectromètre pour évaluer la composition des astéroïdes. Chaque sonde passerait à quelque 1000 km de 6-7 astéroïdes avant de revenir sur Terre délivrer ses données. Les sondes feraient à peu près 5 kg et seraient placées au bout d’une longe d’une vingtaine de kilomètres. Le système d’E-sail inventé par Pekka Janhunen en 2006 fournirait une vitesse de l’ordre d’un millimètre par seconde. Il utilise l’énergie des protons des vents solaires pour créer la rotation d’une tige qui fournit alors un faible courant électrique. L’aller-retour jusqu’à la ceinture d’astéroïdes prendrait donc à peu près 3,2 ans. Comme ces sondes n’auraient pas la capacité d’emporter une grande antenne, elles seraient obligées de repasser vers la Terre pour livrer leurs données. « Le coût total de la mission est estimé à 60M€ (lancement compris), soit 200 000 euros par astéroïde visité, une bagatelle comparativement au coût d’une mission conventionnelle qui se chiffrerait tout de suite en milliards », précise l’auteur. Reste qu’on attend encore la validation du fonctionnement dans l’espace d’une telle sonde.

Par Sophie Hoguin

Revue du web #106 : les 8 vidéos les plus étonnantes du mois

Le premier service de livraison par drone bientôt mis en service en Suisse

La société nord-américaine Matternet a enfin reçu l’agrément des autorités suisses ! Ses drones devraient bientôt pouvoir livrer aux hôpitaux les prélèvements sanguins et échantillons d’analyses réalisés dans les laboratoires.

 

Un robot mis en mouvement par aspiration d’air

Simple mais efficace. Ce système robotique inédit imaginé par les roboticiens de l’École Polytechnique Fédérale de Lausanne exploite un élément dont nous espérons ne jamais manquer !

 

Sauvé par un drone !

Une start up française a imaginé Helper, un drone sauveteur en mer qui détecte la personne en danger, lui lance une bouée et contacte un sauveteur (humain, cette fois).

 

Surveiller son salon avec un drone

Les drones s’invitent partout, même chez vous ! Finie la caméra fixe, ce drone explore toutes les pièce de votre maison…
Les cambrioleurs vont devoir rivaliser d’inventivité.

 

Construction d’une éolienne en time-lapse

Si vous n’avez pas encore eu l’occasion d’assister à l’assemblage d’une éolienne, suivez-nous, il y en a pour 5 minutes !

 

Propulser un satellite avec… de l’eau !

Voilà un système de propulsion plutôt original mis au point par des ingénieurs américains. Une cuillère à café d’eau ultra purifiée suffit !

 

 

L’Usine du futur selon PSA

Pour PSA, voici à quoi devrait ressembler l’usine idéale d’ici quelques années. Naturellement, on croise beaucoup de robots, bracelets connectés, écrans…

 

Le laser le plus puissant du monde

Il a été inauguré au début du mois, en Allemagne. European XFEL va notamment sonder la matière et observer virus et réactions chimiques.

Pour (re)découvrir cette incroyable innovation, (re)lisez notre article publié il y a quelques semaines :  Inauguration du European XFEL : le plus puissant des rayons X du monde

 

Par Iris B.

L’ADEME vante les mérites de l’éolien !

En 2015, quelques 600 entreprises étaient impliquées dans la filière éolienne française. Le marché de l’investissement dans de nouveaux parcs est estimé à 1,3 milliards d’euros, pour un marché de l’exploitation-maintenance de 475 millions d’euros, selon un nouveau rapport de l’ADEME. Ces entreprises importent pour 685 millions d’euros, principalement des turbines et des composants. À l’opposé, la vente d’électricité rapporte 1,87 milliards d’euros. Et ces entreprises réalisent 663 millions d’euros de chiffres d’affaires pour l’exportation, principalement dans la fabrication de composants.

En 2015, la filière représentait 18.000 emplois équivalent temps plein (ETP), qu’ils soient directs ou indirects. Soit 18 ETP par mégawatt (MW) installé. C’est mieux qu’au Brésil (15), mais très loin de l’Allemagne (30). L’ADEME explique cette différence notamment par l’absence d’un important fabricant de turbines en éolien terrestre de plus de 1 MW sur le territoire français. Toutefois, l’ADEME note des « signes encourageants ». Le ratio est passé de 7 à 11 ETP directs par MW entre 2007 et 2015. Par ailleurs, l’essor de l’éolien en mer dynamise l’emploi dans les zones côtières, avec l’installation de grands turbiniers et fabricants de composants étrangers. Sans oublier le développement d’un marché pour la gestion de la fin de vie qui devrait être générateur de nombreux emplois pour la filière. Ainsi, les projections de l’ADEME montrent que cette dernière pourrait représenter entre 40.000 et 75.000 ETP en 2035, hors exportation. Et entre 60.000 et 93.000 ETP directs et indirects en 2050.

L’éolien, au service de la transition écologique

« Une analyse des données historiques disponibles montre que l’électricité éolienne se substitue à la production des centrales nucléaires et au gaz, charbon ou fioul », note l’ADEME. Elle contribue ainsi à l’indépendance énergétique française et à atteindre les engagements de diminution des émissions de gaz à effet de serre de la France. En effet, entre 2002 et 2015, le développement de l’éolien a évité l’émission de près de 63 millions de tonnes de CO2 équivalent. Pour l’année 2014, l’éolien a même représenté environ 9% de l’effort national de réduction par rapport à 1990.

Mais ce n’est pas tout. Le développement de l’éolien a permis d’éviter de façon significative les émissions de polluants atmosphériques tels que le SO2, les NOx ou encore les particules fines. « En 2013, les émissions évitées de SO2 et NOx représentaient ainsi de l’ordre de 22% à 37% du total des émissions de SO2 et NOx du secteur de production d’électricité », précise l’ADEME. L’éolien a aussi permis de réduire les risques d’accidents industriels, les risques liés à la gestion des déchets radioactifs et les risques financiers liés à la volatilité des prix du carbone et des énergies fossiles.

Des gains supérieurs aux dépenses

Jusqu’en 2010, la politique de soutien à l’éolien n’a pas eu beaucoup d’effet sur la facture d’électricité des ménages. Celle-ci a augmenté à partir de 2011 mais l’impact reste limité : la part de la CSPE attribuable à l’éolien représente environ 2,9 % de leur facture. Entre 2002 et 2013, le coût complet de la politique de soutien à l’éolien est évalué à 3,2 milliards d’euros. En face, les bénéfices environnementaux énoncés précédemment sont monétarisés entre 3,1 et 8,8 milliards d’euros sur la même période. Les bénéfices environnementaux sont donc à la hauteur, voire supérieurs, aux coûts associés au dispositif de soutien.

Accélérer le développement de l’éolien

Malgré tous ces avantages, la moitié des projets éoliens ont fait l’objet de recours entre 2012 et 2014. Les retards induits ont pu dépasser trois ans. « La fixation des objectifs et l’élaboration du cadre réglementaire n’ont pas suffisamment anticipé les difficultés qui allaient se présenter en termes de conflits d’usages, d’intégration locale, de prise en compte des impacts environnementaux et d’aménagement du réseau », analyse l’ADEME. Résultat : sur la période 2004-2015, les objectifs successifs n’ont pas été atteints. Le rythme moyen d’installation d’éoien terrestre et en mer aurait dû s’élever à 1.580 MW/an, alors que le rythme moyen réel a été de 840 MW/an. L’ADEME plaide donc pour une implication croissante des parties prenantes pour intégrer localement les projets, une simplification accrue du cadre réglementaire et une rationalisation des procédures.

Pour atteindre les objectis de la Programmation Pluriannuelle de l’énergie (PPE) pour 2023, le rythme d’installation doit encore s’accélérer. En effet, il faudra installer entre 1.400 et 2.000 MW d’éolien sur 2017 et les six prochaines années. Contre un rythme annuel de 1.150 MW sur les dernières années. Il faudra à nouveau dépasser le record de 2016 qui s’élevait à 1.345 MW.

L’ADEME a identié plusieurs innovations techonologiques et des leviers logistiques et financiers pour réduire les coûts. L’agence estime qu’ils pourraient donc atteindre 42 €/MWh à terre, 54 €/MWh en mer pour les éoliennes posées et 62 €/MWh en flottant sur une durée de vie de 30 ans. « À cet horizon, l’éolien serait donc l’une des technologies au coût de production unitaire le plus faible », prévoit l’agence. Et l’éolien serait même compétitif sans mécanisme de soutien.

Par Matthieu Combe, journaliste scientifique

Satellites : Lockheed Martin investit 350 millions de dollars pour son usine du futur

Baptisé le Gateway Center, la nouvelle usine comprendra une salle propre équipée des dernières technologies capables d’accueillir l’assemblage simultané de plusieurs satellites de toutes tailles, du micro au macro. L’usine sera sans papier, la production connectée et numérique et les lignes de fabrication reconfigurables rapidement avec des fonctionnalités de test avancées. Le centre inclus une très grande chambre d’essais sous vide thermique pour recréer l’environnement spatial, une chambre anéchoïque pour les tests des capteurs et des systèmes de télécommunications et un centre d’analyse pour les opérations avancées. En outre, il est prévu que le centre soit certifié selon les standards de sécurité requis pour répondre à des missions de sécurité nationale. Les travaux de terrassements ont été entamé cet été et la livraison est prévu courant 2020. Rick Ambose, vice-président exécutif de Lockheed Martin, explique ainsi que « la salle propre est tellement vaste que si on y mettait la navette spatiale il y aurait encore de la place. Avec cet espace et cette versatilité, nous allons maximiser les économies d’échelle et grâce à la présence sous le même toit de toutes les chambres de tests, nous pourrons optimiser la production ». Il ajoute que, « couplée aux avancées de l’impression 3D, de la conception et la fabrication via la réalité virtuelle et la robotique Lockeed Martin investit dans des innovations qui changent la donne et permettent des économies de temps et d’argent pour l’entreprise et les clients. »

Par Sophie Hoguin

Un bus 100% électrique Proterra a parcouru 1800 kilomètres avec une seule charge (Record du monde)

Même si leur efficience énergétique est très élevée et très supérieure à celle de l’intégralité des technologies concurrentes, les véhicules électriques à batterie étaient parfois critiqués pour leur autonomie jugée insuffisante. Mais selon le Los Angeles Times le modèle «Catalyst E2» de Proterra a parcouru exactement 1101,2 miles (1770 kilomètres) avec une seule charge. Aucun véhicule électrique au monde n’avait été capable de parcourir une telle distance.

Le réseau de transport public de Los Angeles vient par ailleurs d’annoncer qu’il abandonne les carburants fossiles pour passer au 100% électrique à batterie. Une commande de 2200 véhicules pour un montant de plus d’un milliard de dollars a été signée.

Au salon de l’automobile de Frankfurt, qui est le plus grand du monde et qui se déroule du 14 au 24 septembre 2017, le Coréen Samsung a présenté une batterie qui permet aux voitures 100% électriques d’atteindre une autonomie de 700 kilomètres rapporte le média Turbo. Ce salon est largement dominé par les modèles électriques. Deux ans après le début du DieselGate et face à la déferlante Tesla, les constructeurs traditionnels n’ont plus vraiment le choix.

Sous la houlette de The Climate Group 10 multinationales viennent de lancer l’EV100, y compris le géant chinois de l’internet Baidu ainsi que le leader mondial de la gestion de parcs automobiles, le néerlandais LeasePlan.

En outre un véhicule minier pesant 110 tonnes et de marque Komatsu vient d’être équipé d’une batterie lithium de 700 kWh par deux compagnies suisses, Lithium Storage GmbH et Kuhn Schweiz AG.

De son côté Tesla va présenter le 26 octobre 2017 son camion poids-lourd 100% électrique, baptisé « The Beast ». La Bête noire des marchands de carburants fossiles.
Des bruits courent: il s’agirait en fait de deux modèles de camions, et non pas d’un seul.

Olivier Daniélo 

Revue de presse anglophone #10 : spéciale science & santé

Mais pourquoi certaines personnes ont-elles tant de mal à distinguer leur droite de leur gauche ?

image-20150312-13520-ibyok1

Source : The Conversation

 

En parlant de ça… Comment devient-on droitier ou gaucher ?

Et à quoi sert cette préférence manuelle ?

image-20160404-27145-tsvago

Source : The Conversation

 

Remplacer l’écriture à la main par le clavier d’ordinateur ?

Des étudiants de Cambridge pourraient bientôt obtenir gain de cause

TELEMMGLPICT000131987787_trans_NvBQzQNjv4BqpVlberWd9EgFPZtcLiMQfyf2A9a6I9YchsjMeADBa08

Source : The Telegraph

 

Les sports d’ultra-endurance : quelles conséquences sur le corps des athlètes ?

file-20170829-6699-vyfksg

Source : The Conversation

 

Les végétariens vivent-ils plus longtemps ?

Dans tous les cas, ce ne serait pas lié à leur alimentation mais à leur mode de vie…

image-20170217-10190-4ted66

Source : The Conversation

 

Ne pas utiliser d’après-shampoing en cas d’explosion nucléaire

Oui, ce conseil peut paraître surprenant, mais il provient du site internet officiel du gouvernement américain.

Source : NPR

 

Est-ce qu’un chagrin d’amour peut réellement rendre malade ?

comment-guerir-dun-chagrin-damour

Source : Time

 

L’ Apple Watch pourrait changer la façon de traiter les maladies cardiaques

Oui, rien que ça.

iphone-8-x15

Source : Time

Par Iris B.

Jim Bridenstine est le nouvel administrateur de la Nasa : les « pour et contre »

Jamais administrateur temporaire n’aura tenu le poste aussi longtemps. En effet, Robert M. Lightfoot Jr., administrateur associé, assure l’intérim à la tête de la Nasa depuis le 20 janvier 2017, date d’arrivée de Donald Trump à la Maison Blanche, après la démission de Charles F. Bolden Jr* .

Son successeur, Jim Bridenstine vient enfin d’être nommé. Il lui reste encore à être adoubé par le Sénat.

Mais qui est Jim Bridenstine ?

A 42 ans, Jim Bridenstine est un membre du parti Républicain, membre de la Chambre des Représentants pour l’Oklahoma depuis 2013. Diplômé de la Rice University (Texas) avec des dominantes en économie, psychologie et commerce, il est aussi titulaire d’un MBA de la Cornell University (Etat de New-York). Actif pendant neuf ans comme pilote de l’US Navy, il a ensuite occupé le poste de directeur exécutif du Musée de l’air et de l’espace de Tusla en Oklahoma entre 2008 et 2010. Son intérêt pour l’espace s’est surtout manifesté durant son mandat politique avec des responsabilités au sein de la commission des Forces armées et de la commission de la Science, de l’Espace et de la Technologie de la Chambre des Représentants.

db275f17-c0f1-40dd-a2b3-48b29aa1471d

En 2016, il a soumis un projet de loi baptisé American Space Renaissance Act dans lequel les grandes lignes de sa vision de la politique spatiale américaine pour les 20 prochaines années transparaît. Il l’avoue lui-même en février 2017 ce projet de loi ne visait pas à être adopté tel quel mais à créer le débat autour de ces sujets et à voir un certain nombre de ses propositions intégrées dans d’autres législations.

Ceux qui s’inquiètent…

Dès cette nomination, plusieurs voix se sont élevées pour dénoncer l’arrivée de la politique au sein de l’agence spatiale. Ainsi, le sénateur démocrate Bill Nelson et le sénateur républicain Marco Rubio estiment que la Nasa doit être dirigée par un professionnel de l’espace, pas par un politicien. En effet, ce serait la première fois que la Nasa admettrait à sa tête un membre actif du Congrès. Mais ce ne serait cependant pas la première fois qu’un homme sans bagage « spatial ou scientifique » arriverait à ce poste. Les critiques les plus virulentes sont venues de scientifiques ou de défenseurs de l’environnement en raison des positions climato-sceptiques de Jim Bridenstine. Certains craignent en effet qu’une partie des activités scientifiques de la Nasa, notamment les activités sciences de la Terre et du Climat ne soient délaissées. Pour autant si la position climato-sceptique affirmée de Bridenstine ne peut être remise en cause, elle est à nuancer. En effet, il est loin d’être totalement indifférent aux questions climatiques et environnementales. Il écrit d’ailleurs dans ses réponses au questionnaire soumis par le Sénat avant son audition de confirmation : « la NASA doit continuer à étudier notre planète. Malheureusement, les sciences de la Terre entrent parfois en conflit avec les sciences des autres planètes pour les ressources à allouer […] La Nasa doit continuer à avancer sur ces questions, pour le bien-être de l’humanité ». Un intérêt pour le soutien aux sciences de la Terre que confirme aussi Antonio Busalacchi, président de la University Corporation for Atmospheric Research (organisation qui coordonne les recherches de plusieurs institutions ou agences dans le domaine) qui explique que « sa profonde connaissance de l’importance d’améliorer les prévisions météorologique pour l’économie américaine et la sécurité nationale autant que pour protéger les biens et les hommes » sont appréciées. Antonio Busalacchi reste néanmoins attentiste et n’apportera un total soutien à cette candidature qu’après avoir jugé sur pièces.

Et ceux qui applaudissent

Mais ces quelques voix semblent assez minoritaires face aux principaux responsables du secteur aérospatial qui ont officiellement approuvé cette nomination. Ainsi parmi les soutiens à Jim Bridenstine on peut trouver : Mike Gold, le président de la commission consultative sur le transport spatial commercial de la FAA (Federal Aviation administration) et vice-président de Space Systems Loral, un constructeur de satellites américain, Tom Zelibor, chef exécutif de la Space Foundation (une organisation qui regroupe les principales entreprises du secteur aérospatial américain), de Walter Scott, fondateur de DigitalGlobe, société spécialisée dans l’imagerie spatiale ou encore de la fédération des vols spatiaux commerciaux via la parole de son président Eric Stallmer et de son président du conseil d’administration Alan Stern (planétologue et astronome américain notamment en charge de la mission New Horizon vers Pluton). Au niveau politique, il a le soutien de membres influents comme les sénateurs républicains du Texas Ted Cruz et Lamar Smith ou plus récemment de Richard Shelby (Alabama).

Changements en vue ?

Jim Bridenstine semble déterminé à fixer le cap des objectifs de la Nasa sur le long terme pour « maintenir consistance et constance » dans ses missions et ce grâce à un agenda consensuel qui contenterait toutes les branches d’activité de l’agence. Il insiste sur la nécessité de poursuivre les partenariats internationaux et d’en construire de nouveaux mais précise qu’il faut pouvoir arrêter la dépendance à des nations qui ne seraient pas amicales pour éviter d’être vulnérable. Par ailleurs, il estime essentiel d’intégrer les nouvelles entreprises spatiales et les anciennes pour améliorer l’efficacité de la Nasa et préserver ses ressources financières. Il est en accord avec ce qui a déjà été proposé au niveau budgétaire concernant un passage en revue des solutions possibles pour gérer les débris spatiaux et pour développer un plan post-ISS afin d’éviter de préserver l’existence d’une plateforme spatiale en basse orbite terrestre.

Fervent défenseur du retour de l’homme (américain) sur la Lune, c’est pour lui un premier pas nécessaire avant d’envisager Mars ou au-delà. En toute cohérence avec cette approche, il soutient la conception du SLS (Space Launch System) et d’Orion, le coûteux nouveau lanceur lourd américain et le vaisseau spatial qu’il doit lancer pour embarquer des astronautes au-delà de l’orbite basse (vers la Lune notamment).

Maintenir la pré-éminence des Etats-Unis dans l’Espace, conquérir de nouveaux lieux, explorer (exploiter) l’espace… Son discours est empreint de cette emphase grandiloquente qui habite la plupart du temps les politiciens américains lorsqu’il s’agit du spatial. Mais en version très pragmatique et capitaliste, la création d’un véritable marché de l’espace tant touristique que pour l’exploitation de ses richesses (minerais ou source d’énergie) par exemple est au cœur des ses préoccupations et la privatisation de certains services actuellement fournis par la Nasa semble inéluctable.

*il est d’usage que l’administrateur de la Nasa quitte son poste lors d’un changement de Président

Par Sophie Hoguin

SKEYETECH : Un drone intelligent pour sécuriser les sites industriels

SKEYETECH est une entreprise d’ingénierie mécatronique spécialisée dans la conception de solutions drones innovantes. Créée en 2014 par 3 ingénieurs passionnés d’aéronautique, la société compte aujourd’hui parmi son équipes 15 personnes aux compétences pluridisciplinaires. Son expertise dans 5 grands domaines (mécanique, électronique, intelligence embarquée, capteurs et liaison de données) lui permet de concevoir des produits drones durcis pour les secteurs de l’inspection, de la surveillance et de la défense.

Le marché du drone promet de grandes possibilités mais fait face à de nombreux freins : présence obligatoire d’un télépilote, homologations DGAC, manque d’autonomie, manque de fiabilité des machines…

C’est pour lever ces freins que SKEYETECH a développé la première solution de drone autonome et sans pilote. Cette solution révolutionnaire, permettant d’assurer des missions à forte récurrence et avec une grande réactivité, comprend un drone au fonctionnement autonome, grâce à un progiciel intégré, ainsi qu’une base d’accueil et de rechargement.

Le drone pourra ainsi décoller automatiquement de sa base sur alerte ou sur demande d’un opérateur afin de se rendre directement sur le point désigné. Sur place, il pourra capter des images permettant de lever le doute ou valider une inspection avec une rapidité d’intervention hors normes. A l’issue de sa mission, le drone rejoindra, seul, sa base avec une précision d’atterrissage unique afin de se recharger dans un espace protégé et sécurisé. La simplicité d’utilisation est liée au fait que toutes ces opérations se font sans l’intervention d’aucun pilote.

  • Le drone est un quadri-rotor à décollage vertical avec une autonomie de 25 minutes. Il peut être équipé d’une grande variété de capteurs (jour-nuit, thermique…) afin de distinguer une intrusion dans toutes les conditions climatiques. Il présente de nombreuses redondances électroniques et systèmes de sécurité (batteries de secours, monitoring système…) pour assurer une fiabilité.
  • La base d’accueil est identifiée via une connexion sécurisé Opérable à distance, elle assure le lien entre le drone, l’interface logicielle, et l’opérateur. Son ouverture, sa fermeture, ainsi que le recentrage du drone sont complètement automatisés. Via son interface logicielle, elle assure un déploiement du drone en moins de 30 secondes. Conçue pour abriter le drone et testée dans toutes les conditions climatiques, la station ainsi que tous ses composants ont été choisis afin de respecter les standards aéronautiques et un indice de protection IP67. Des prises Ethernet et USB sont facilement accessibles pour des opérations de maintenance simplifiées.  Elle peut être alimentée via une alimentation de type secteur ou un groupe électrogène.
  • L’interface logicielle permet à l’opérateur, via une tablette / un smartphone / un poste de sécurité de démarrer une mission de routine ou de prendre directement la main sur les caméras du drone. Une fonctionnalité « click and go» est également disponible afin de permettre une levée de doute en toute simplicité.

Le développement de cette solution a été mené en étroite collaboration avec la DGAC afin d’obtenir les autorisations réglementaires nécessaires à un usage sans intervention humaine. SKEYETECH est aujourd’hui la seule entreprise française à avoir des dérogations pour opérer sans télépilote, sur sites privés, de jour comme de nuit.

L’entreprise vise la commercialisation des premiers systèmes début 2018 via son partenaire et installateur français DRONE PROTECT SYSTEM.

Pour plus d’informations : www.skeyetech.fr

OptimData : Et si les machines pouvaient parler ?

Fondé il y a un peu plus de deux ans par Laurent Couillard et Etienne Droit, OptimData est né du constat que la digitalisation est à la fois un défi majeur et une opportunité pour le secteur industriel, dont la majeure partie n’a à ce jour pas intégré la révolution numérique.

Les défis que rencontre l’ensemble des acteurs du secteur (les producteurs de machines-outils et équipements, mais également leurs clients qui sont des producteurs de biens et services) sont multiples et nécessitent de revoir en profondeur certaines stratégies d’entreprise. Ainsi, l’augmentation de la compétition résultant notamment du fait de l’arrivée de nouveaux acteurs à envergure mondiale nécessite de disposer d’un outil de production à forte valeur ajoutée pour rester compétitif. Par ailleurs, des nouvelles technologies comme l’impression 3D peuvent intermédier des segments entiers, comme par exemple le marché des pièces détachées, qui est actuellement la principale source de revenu après-vente pour des producteurs d’équipements industriels. Enfin, les cadences de production actuelles et la versatilité des biens de grande consommation représentent des nouveaux défis pour la gestion de la disponibilité des machines (reconfigurations fréquentes etc.), la gestion des coûts et les procédures de sécurité.

Or, l’internet des objets industriels permet de répondre à ces enjeux de manière efficace en créant de nouveaux business modèles, en rendant les machines plus intelligentes, et en « augmentant » les hommes dans les usines. Cette perspective a poussé OptimData à développer sa solution ProductInUse, un logiciel destiné à répondre aux challenges des industriels souhaitant digitaliser leur outil et leur environnement de production.

ProductInUse est une application disponible sur mobile et PC, dont le fonctionnement repose sur deux volets innovants. Le premier est un outil de conception d’intelligence artificielle (« IA ») pour machines et équipements industriels. Reposant sur une exploitation big data et IoT, il permet aux ingénieurs de systèmes experts, d’identifier, designer, simuler et publier l’IA de machines. L’utilisateur est assisté dans la manipulation de données pour créer des algorithmes avancés. L’outil lui permet de créer des niveaux d’abstraction nécessaires au développement d’une IA et de conférer aux machines un langage qui est distribué facilement et à juste coût. Les machines exploiteront l’IA en contexte de leur propre production à travers une communauté de performance connectée. Cette communauté est le deuxième volet de ProductInUse. Les machines publient des messages et font des suggestions d’actions dans des fils d’actualité (assimilables à des carnets de santé de la machine). Elles interagissent telles des amies avec toutes les parties prenantes de la chaîne de production. L’utilisation de nouveaux paradigmes induits par l’évolution d’internet (mobilité, réseau social, outils collaboratifs) permet l’adoption rapide de cet outil.

La combinaison d’un service de conception assistée d’IA avec un outil de communauté de performance permet aux clients d’OptimData de développer des nouveaux services, que la jeune startup qualifie de services digitaux. Ces services digitaux ont vocation à véritablement être au cœur de la stratégie de digitalisation des industriels, car ils permettent de créer des nouvelles sources de revenus et d’améliorer les marges opérationnelles. Les applications envisageables sont très nombreuses (maintenance prescriptive, paiement à l’usage, coaching de performance, traçabilité logistique…) et OptimData collabore étroitement avec des industriels français et européens pour identifier et exploiter ces relais de croissance. Ainsi, l’adoption de la solution ProductInUse a par exemple permis à Sidel, leader mondial des solutions PET pour le conditionnement des liquides alimentaires, d’annoncer au salon drinktec 2017 la commercialisation de machines connectées capables d’utiliser plus de 80 expressions de langage pour auto-diagnostiquer des pannes et de suggérer la meilleure action corrective.

Pour plus d’informations : www.optimdata.eu