Perturbateurs endocriniens : la nouvelle stratégie nationale dévoilée

Des avancées et des faiblesses…

Afin de réduire l’exposition des populations aux produits chimiques à risque, la France s’est dotée d’une stratégie nationale sur les perturbateurs endocriniens (SNPE) en 2014. La dernière version de ce document, une SNPE2, qui définit le plan d’action pour la période 2019-2022, a été présentée aux membres du Groupe santé environnement, un groupe composé de professionnels de santé, d’associations et de chercheurs. Ce projet sera soumis à une consultation publique courant janvier 2019.
Parmi les mesures phares, la publication par l’Anses (Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail) d’ici fin 2021 d’une liste de substances chimiques pouvant avoir des propriétés de perturbateur endocrinien (PE). L’agence, qui évalue actuellement cinq PE par an dans le cadre du SNPE1 devra expertiser 6 substances par an en 2019 et 2020, puis 9 par an à partir de 2021. Cette nouvelle version ajoute également la période pubertaire comme fenêtres de vulnérabilité aux PE. Le projet prévoit aussi une meilleure formation sur les PE des professionnels de santé et de la petite enfance (pédiatres, gynécologues, responsables de crèches, d’écoles) ainsi que des professions les plus exposées (professionnels de l’agroalimentaire, de la chimie, agriculteurs, vétérinaires, ingénieurs sécurité, architectes, urbanistes).
Néanmoins, certaines associations comme Génération Futures soulignent plusieurs faiblesses notamment dans le domaine crucial de l’alimentation (le manque de recommandations officielles incitant les femmes enceintes et les jeunes enfants à consommer des produits biologiques par exemple). Autre regret : la protection des populations vivant dans des zones à risques (riverains de zones cultivées) ne figure pas dans le projet de SNPE2.

Une dynamique nouvelle autour de la substitution

Au cœur de cette stratégie : la question de la substitution qui prévoit de remplacer les perturbateurs endocriniens par des alternatives non chimiques ou des produits chimiques alternatifs plus sûrs.
L’objectif est de recourir à des appels d’offres afin de financer des projets ambitieux pour explorer notamment la toxicité des substituants. Cette mesure, qui fait appel à des financements publics, suscite de vives critiques même si les ministres assurent que « la mobilisation des acteurs industriels est cruciale sur ce sujet ».
Le projet s’appuie sur une approche volontariste puisque qu’aucune obligation n’est imposée aux industriels. Ils seront simplement encouragés au retrait volontaire des produits contenant des substances PE ; une démarche décrite comme un “manque d’ambition” par Générations Futures.
Mais, surtout, pour l’association, la question de la substitution a été vidée de sa substance par rapport à la première version qui visait également la réduction de l’exposition à d’autres polluants chimiques. « Il n’est plus question de penser la substitution dans le cadre plus large du risque chimique, qui inclut d’autres pollutions (micro plastiques, nanoparticules, métaux lourds, etc.). » ce qui fait craindre à l’association que « la nouvelle stratégie abandonne l’objectif de développer une culture de la substitution généralisée des substances chimiques, en impliquant les acteurs de la recherche et les professionnels. »

Informatique quantique : une menace pour la cryptographie ?

Mieux comprendre les cancers ou la maladie d’Alzheimer, percer les mystères de l’univers, anticiper l’arrivée d’ouragans, mieux gérer le trafic automobile… l’informatique quantique pourrait améliorer notre quotidien. Mais elle pourrait aussi remettre en cause toutes les activités économiques reposant sur le chiffrement.

Un rapport sur les progrès et les perspectives de l’informatique quantique, publié par les NASEM (National Academies of Sciences, Engineering, and Medicine), aux États-Unis, sonne l’alerte. Il est urgent d’entamer des travaux de recherche dès maintenant pour développer des algorithmes capables de déjouer des actions cybercriminelles.

L’alerte n’est pas récente. En 1994, le mathématicien Peter Shor, travaillant au Massachusetts Institute of Technology (MIT), démontre que les ordinateurs quantiques sont capables de factoriser de grands nombres plus efficacement que les ordinateurs classiques. En un mot, son algorithme se sert de la superposition quantique pour tester tous les nombres premiers en un seul cycle de calcul (un ordinateur classique le faisant l’un après l’autre) !

Résultat, les algorithmes actuels mettraient des millions de millions d’années pour factoriser un nombre de 600 chiffres. Un ordinateur quantique entièrement fonctionnel pourrait effectuer cette opération en quelques… minutes.

1 milliard d’années pour craquer une clé de chiffrement

 Même si l’informatique quantique ne sera pas une réalité avant plusieurs années, voire deux ou trois décennies, les experts américains rappellent qu’il est urgent de s’y mettre dès maintenant, car le remplacement des standards web actuels (en matière de cryptographie à clé publique) va prendre beaucoup de temps.

Principale inquiétude : la puissance de calcul de l’informatique quantique pourrait être utilisée pour casser très rapidement la cryptographie à clés publiques que nous utilisons régulièrement pour sécuriser nos messageries, nos achats avec notre carte bancaire…

Pour schématiser, la cryptographie à clé publique repose sur des problèmes mathématiques faciles à calculer dans un sens, mais beaucoup plus difficiles à calculer dans l’autre sens. On estime ainsi qu’en utilisant 500 ordinateurs classiques d’aujourd’hui, il faudrait un milliard d’années pour craquer une clé de chiffrement RSA de 2048 bits. L’informatique quantique pourrait le faire en… 100 secondes.

Équipés de calculateurs quantiques, des États pourraient être en mesure d’exploiter la puissance de l’informatique quantique pour attaquer les systèmes bancaires et financiers.

Autre cible : la Blockchain. Le piratage des signatures numériques est la principale menace la plus imminente. Un cybercriminel équipé d’un ordinateur quantique pourrait utiliser l’algorithme de Shor pour falsifier n’importe quelle signature numérique, se faire passer pour cet utilisateur et s’approprier ses actifs numériques.

Évidemment, ce risque reste encore à l’état d’hypothèse, car les PC quantiques ne sont pas près d’apparaître dans les linéaires des magasins.

Mais il semble urgent de développer une cryptographie dite post-quantique. L’industrie de la sécurité de l’information reconnaît actuellement cinq types de cryptosystèmes (échange de clef, chiffrement, signature…) comme des candidats prometteurs pour remplacer la cryptographie actuelle (réseaux euclidiens, codes correcteurs d’erreur…).

Le National Institute of Standards and Technology (NIST), aux États-Unis, est actuellement en train de mener des analyses et des recherches afin de déterminer lesquels conviendraient.

Mais afin de ne pas laisser les États-Unis gérer seuls ces alternatives, d’autres organisations, comme l’Institut européen des normes de télécommunications et l’Union internationale des télécommunications des Nations Unies, s’efforcent de faire évoluer la sécurité quantique.

Une loi début 2019 pour modifier l’objectif de baisse du nucléaire

« Ce serait une loi qui n’aurait que quelques articles, qui serait présentée en conseil des ministres sans doute au mois de février prochain et qui (…) aurait pour but de clarifier les choses quant à ce qui a été voté en 2015 », en particulier l’échéance sur la baisse du nucléaire, a détaillé M. de Rugy lors d’une audition au Sénat.

La loi de transition énergétique de 2015 prévoit que la part du nucléaire soit ramenée de 75 à 50% de la production d’électricité du pays d’ici à 2025, mais le gouvernement a repoussé cet objectif à l’horizon 2035, avec la fermeture de 14 réacteurs nucléaires de 900 mégawatts à cette nouvelle échéance.

Cette révision de la loi de 2015 est indispensable avant l’adoption de la nouvelle feuille de route énergétique de la France à horizon 2028, un texte réglementaire baptisé Programmation pluriannuelle de l’énergie (PPE) et qui est censé décliner les objectifs de la loi.

Le gouvernement a présenté fin novembre les grands axes de cette PPE mais un document complet est toujours en cours de rédaction. « Nous avons souhaité qu’elle soit précise et qu’elle soit complète », a justifié le ministre.

« Tous droits de reproduction et de représentation réservés. © 2018 Agence France-Presse. »

Usines connectées : des cibles « faciles » pour les pirates

De nombreux colloques sont organisés autour de l’industrie 4.0. Les thèmes abordés sont souvent les mêmes : analyse des données pour améliorer la productivité et optimiser la maintenance, automatisation de la logistique, personnalisation des produits…

Mais peu de conférences abordent précisément les risques de cyberattaques. Cette menace est pourtant loin d’être fantôme ! En décembre 2017, une raffinerie de la société Aramco en Arabie saoudite subissait une cyberattaque. Heureusement, elle a été déjouée de justesse.

Niveau de sécurité trop faible

Mi-mai 2017, WannaCry, un logiciel rançonneur (ou ransomware) avait impacté très fortement l’activité de nombreuses entreprises et organismes. Et pas des moindres : Renault, FedEx ou Telefonica, le centre opérationnel des services ferroviaires russe, des universités…

Bref, il y a péril en la demeure. « L’industrie manufacturière affiche des taux plus élevés que la normale en matière de cyberattaques » affirme Vectra Networks, dans son dernier rapport. Selon cette entreprise, qui détecte des attaques en cours en surveillant le trafic réseau en temps réel, cette situation s’explique en partie par la convergence accrue des réseaux des technologies de l’information et des technologies de l’exploitation dans les entreprises manufacturières. En un mot, l’hyperconnexion augmente les vulnérabilités.

Son rapport est basé sur les observations des environnements cloud de ses clients et de datacenters ainsi que sur les métadonnées de plus de quatre millions d’appareils, entre janvier et juin 2018. Cette analyse indique notamment que lorsque des attaquants peuvent franchir le périmètre de sécurité d’un industriel, ils peuvent facilement voler des données sensibles ou perturber une chaîne de production en raison des faibles niveaux de surveillance.

Son rapport signale également :

  • un volume beaucoup plus élevé de comportements internes malveillants, ce qui indiquerait que les attaquants sont déjà à l’intérieur du réseau ;
  • de nombreux de comportements de reconnaissance, ce qui est un signifie que les pirates sont en train de cartographier les réseaux de fabrication à la recherche d’actifs critiques.

Le rapport de Vectra Networks intègre également des données extraites du Verizon Data Breach Industry Report de 2018, qui examinait l’intention et les motifs des cyberattaques.

  • 53 % des infractions dans le secteur manufacturier ont été commises par des attaquants affiliés à un État.
  • Un tiers des atteintes à la sécurité de la fabrication a été classé dans la catégorie du cyberespionnage – le motif principal de ces attaques.
  • Les types de données les plus couramment volées étaient les données personnelles (32 %) et les secrets industriels (30 %).

Robot piraté : crash d’un drone

La situation est d’autant plus inquiétante que les robots industriels ne sont pas assez protégés contre les cyberattaques. Dans une étude menée par Trend Micro et l’École polytechnique de Milan, une équipe de chercheurs et d’étudiants en cybersécurité a réussi à pirater un bras robotisé destiné à la conception d’un rotor de drone.

En modifiant à distance un paramétrage très simple de l’usine, le fichier de configuration du robot, l’équipe a provoqué une variation de quelques millimètres sur les dimensions du rotor. Ce sabotage industriel a provoqué le crash du drone en vol !

Imaginez les conséquences s’il s’agissait d’un véhicule ou même d’un outil tranchant…

Cette poignée identifie ce que vous achetez

Les magasins Amazon Go, dont le premier a été présenté il y a deux ans, ne seront bientôt plus les seuls où le passage en caisse est supprimé. Testée dans un magasin bio au centre de Paris, la poignée porte-sac élaborée par la start-up française Mo-ka vise le même objectif : les produits déposés par le client au fond de son panier sont automatiquement identifiés par la caméra en surplomb, adossée à des algorithmes de vision par ordinateur et d’apprentissage approfondi (deep learning). Le paiement est ensuite accompli au travers d’une application mobile, qui contient les informations de la carte bancaire.

« L’idée est de pouvoir faire ses courses simplement et rapidement, surtout quand il s’agit de petits paniers, explique Mehdi Afraite-Seugnet, le fondateur et pdg de Mo-ka. L’essor de la vision par ordinateur et de l’apprentissage automatique est une opportunité pour y répondre. En 2013, quand j’ai commencé à réfléchir sur le sujet, ces technologies n’étaient pas encore assez développées ». Cet autodidacte en programmation s’entoure en 2015 de doctorants et de chercheurs en intelligence artificielle. Tous planchent sur une solution. Mais il n’était plus question d’opter pour des caméras placées au niveau de la caisse, dispositif déjà breveté. « Il a donc fallu innover, avec quelque chose qui soit malgré tout usuel ».

L’équipe conçoit alors et brevète une poignée, munie de capteurs et de caméras, qui se fixe à un sac au format adapté. « Deux caméras grand angle de 8 millions de pixels chacune sont incorporées, précise Mehdi Afraite-Seugnet. Si jamais la vision de l’une est obstruée, l’autre prend le relais. S’ajoute un capteur de mesure de poids (load cell strain gauge). Enfin, la poignée est localisée grâce à des balises Bluetooth (beacons), au nombre d’une dizaine pour couvrir une surface de 600 m2. De cette façon, les recherches de références dans la base de données sont restreintes aux rayons à proximité. Les images sont transmises en Wifi puis analysées par l’intelligence artificielle, qui fonctionne dans un serveur sur place ou dans le cloud. L’implémentation dans la caméra, pour y effectuer un prétraitement, est envisagée. Avec un serveur sur place, la reconnaissance d’image est réalisée en moins d’un quart de seconde ». La batterie de la poignée, d’une capacité de 4000 mAh, assure une autonomie de 8 heures et se recharge sur un présentoir à l’entrée du magasin.

Ces algorithmes s’appuient sur de la documentation existante, concernant des réseaux de neurones à convolution. « Faster R-CNN est une base qui nous a permis de lancer nos expérimentations puis d’affiner nos algorithmes, par exemple d’ajouter des filtres en fonction de l’éclairage du magasin » détaille Mehdi Afraite-Seugnet. Avant d’être déployés de manière opérationnelle, les algorithmes en question requièrent un entraînement, qui consiste à leur apprendre à identifier toutes les références vendues par le magasin.

Services analytiques en vue

« Notre solution est vouée à prendre en charge 20 000 références, poursuit Mehdi Afraite-Seugnet. Mais pour l’expérimentation organisée ces prochains mois, nous ciblons des supérettes et des petits supermarchés. Le profil-type est un point de vente de 800 m2, comptant 5 000 références et situé dans le centre d’une grande métropole, où la population est plus encline à utiliser ce genre de technologie ». La discussion avec les enseignes est en cours et des partenariats sont attendus. Le système coûte moins de 300 € par poignée, quelque 150 € pour les balises, avec en supplément le serveur ou la facturation mensuelle, si l’option cloud est choisie. Quoi qu’il en soit, Mo-ka ne réalise guère de marges sur l’équipement et compte vendre du service aux enseignes. « Nous proposerons une option d’inventaire en temps réel et de l’analytique, commente Mehdi Afraite-Seugnet, avec peut-être des heatmaps (fréquentation des rayons, ndlr) en liaison avec le logiciel de gestion de relation client ».

La pollution de l’air baisse nos capacités cognitives

Une équipe de chercheurs de l’Institut américain des sciences de la santé environnementale (NIEHS) a découvert que la qualité de l’air intérieur avait une influence directe sur les capacités cognitives des employés dans les bureaux. En règle générale, la pollution des espaces de travail est principalement causée par les systèmes de chauffage, de ventilation et de climatisation (CVC).

Cette étude démontre qu’il est nécessaire que les entreprises veillent à fournir un cadre de travail agréable et sain. En effet, lorsque l’organisation de l’espace répond aux règles du développement durable et que la ventilation est bien assurée, la productivité des travailleurs augmente très sensiblement.

Une étude menée sur l’air de trois époques

Afin de mettre en évidence ces conclusions, les chercheurs ont demandé à vingt-quatre personnes de travailler dans un espace fermé de 9 heures à 17 heures pendant six jours. Durant cette période, les scientifiques ont fait varier la qualité de l’air respiré par les participants, et ce sans que ces derniers en soient tenus informés. La qualité de l’air reproduite dans cet espace correspondait à l’atmosphère type des bureaux américains à trois périodes différentes : les années 90, les années 2000 et aujourd’hui.

L’air du bureau des années 90 est de loin le plus pollué. À cette époque, la ventilation ne suffisait pas à évacuer les particules volatiles notamment causées par les produits d’entretien. Dans les années 2000, bien que les systèmes de ventilation se soient perfectionnés, la qualité de l’air était à peine meilleure. Cela tient au fait que les constructions des années 2000 ont été voulues très hermétiques pour éviter toute déperdition d’énergie. Mais cet hermétisme a eu également comme effet de ne pas favoriser le renouvellement de l’air, qui ainsi restait très chargé en CO2 et en particules volatiles. Aujourd’hui, les systèmes de ventilation sont mieux optimisés, ce qui améliore la qualité de l’air.

De meilleurs résultats lorsque l’air est plus respirable

Les résultats de l’étude sont sans appel : moins l’air est chargé en particules volatiles et en CO2, plus les performances des travailleurs sont bonnes. Afin d’aboutir à ce résultat, les participants ont été invités à répondre à une série de questions chaque jour durant 1h30 dans des ambiances plus ou moins polluées. Ainsi, lorsque les participants étaient soumis à l’air des années 2000, leurs performances étaient 10% meilleures par rapport à ceux qui travaillaient dans une atmosphère plus polluée. Et lorsqu’ils travaillaient dans une atmosphère où l’air était plus pur, les résultats étaient 61 % meilleurs par rapport aux moins bons résultats.

Fortes de ces constatations, certaines entreprises ne lésinent pas sur les moyens pour faire travailler leurs employés dans un air le plus sain possible. Et lorsque ces entreprises sont implantées dans des territoires connus pour être hautement pollués, une telle initiative relève même de la préservation de la santé publique. C’est notamment le cas de l’entreprise Infosys, spécialisée en conseil informatique. Cette entreprise s’est dotée de puissants capteurs CVC afin de surveiller la qualité de l’air dans les bureaux de ses locaux de Bangalore, dans le sud de l’Inde. Dans ce pays où les pics de pollution sont très souvent dépassés, la surveillance de la qualité de l’air au bureau est quelque chose d’essentiel. Cependant, ceci est également important en France, car les Français passent en moyenne 90% de leur temps de travail à l’intérieur.

Neogy éclaire la nuit grâce à l’énergie solaire

Comment optimiser l’éclairage nocturne des villes tout en réalisant des économies d’énergie ? C’est la question que s’est posée la start-up girondine Neogy. La société présente son « Solar Light Kit », un kit d’éclairage solaire d’une autonomie maximale de six jours, sans recharge. L’entreprise présente sa solution comme une « première mondiale ».

Doté de détecteurs de présence, le système est conçu pour n’éclairer qu’en cas de passage. Un tel dispositif a donc pour intérêt de limiter la pollution lumineuse nocturne qui nuit à l’écosystème. De plus, le fonctionnement assuré par les panneaux photovoltaïques fait ainsi dépendre l’éclairage urbain d’une énergie renouvelable. La solution peut s’adapter à des conditions météorologiques extrêmes, ce qui rend possible son implantation sur nombre de territoires. Ce système innovant s’exporte déjà et s’installe dans l’archipel des Philippines.

Le kit d’éclairage Neogy, une innovation déjà adoptée aux Philippines

La plus grande innovation de ce kit d’éclairage autrement nommé SLK 40 réside dans le perfectionnement de sa batterie. Neogy se félicite d’utiliser des batteries NiMH (nickel métal hybride) « alors que d’autres fabricants utilisent des batteries lithium ou plomb ». Pour la start-up, ce type de batterie permet d’avoir un produit capable de fonctionner convenablement dans des températures allant de -25° à +80°. En ce sens, les kits sont censés pouvoir fonctionner partout dans le monde d’un pôle à l’autre, du désert le plus aride à la forêt la plus humide.

L’étanchéité du SLK 40 est également optimale pour un usage terrestre car le produit est IP66, autrement dit étanche à la poussière et résistant à la projection de liquide à la force d’une lance. Le système est pensé spécialement pour pouvoir fonctionner en toute saison, et ce grâce à « une technologie innovante basée sur des algorithmes prédictifs » assure Neogy. Le kit d’éclairage solaire SLK 40 qui a une capacité de 5 000 lumens est aussi très facile d’utilisation. Il a été spécialement conçu pour être très aisément installé par de simples citoyens.

Plusieurs acteurs africains et philippins ont signifié leur intérêt pour cette solution. Dans la petite ville philippine de Polillo, dans l’archipel éponyme, plusieurs kits ont été installés pour éclairer l’axe principal qui mène à l’hôpital. La mise en place de ce dispositif nomade a été très simple car étant autonome, il n’a nécessité aucun raccordement à un réseau électrique existant ni de travaux publics. De ce fait, le SLK 40 de Neogy semble être une très bonne solution pour équiper en éclairage public les rues françaises, mais aussi jusqu’aux contrées les plus défavorisées du globe.

L’Inde a 10 ans d’avance sur (certains de) ses objectifs climat

La COP 24, qui se tient à Katowice en Pologne jusqu’au 14 décembre, met en lumière le fait que plusieurs objectifs fixés lors de la COP 21 de Paris sont encore loin d’être atteints. Mais des lueurs d’espoir viennent d’Inde. Ces bonnes nouvelles ont été mises en évidence par l’Institut pour l’économie de l’énergie et l’analyse financière (IEEFA).

L’Inde sur la bonne voie des énergies renouvelables

Lors de la COP 21, le Premier ministre indien Narendra Modi s’est engagé à faire en sorte que le pays puisse produire 40 % d’énergies renouvelables. Il était aussi question de la construction de 25 parcs d’énergie solaire. Ces objectifs étaient initialement à atteindre à l’horizon 2030, mais le seront bien avant la date prévue. Vaibhav Chaturvedi, un chercheur indien, estime même que ces objectifs seront atteints vers 2025.

Ces bons résultats sont dus à l’ambitieuse politique indienne et au développement du plan national sur l’électricité qui date de cette année. Dans un premier temps, il semblerait que l’Inde sera capable de produire plus de 40 % d’électricité avec des énergies renouvelables dès la fin de l’année 2019, et ce sera une grande première pour le géant asiatique.

De plus, l’année 2018 a marqué un recul dans l’exploitation des énergies fossiles dans le pays. En effet, durant le premier semestre de cette année, plusieurs projets représentant une puissance de 26 gigawatts (GW) de centrales au charbon ont été suspendus ou abandonnés. Il serait toutefois faux de penser que tout sera simple pour l’Inde. Pour valider ces bons résultats, il faudra entre autres que le pays parvienne à produire au moins 80 GW de solaire d’ici 2020, considère Vaibhav Chaturvedi.

Les émissions de carbone font planer quelques réserves

L’autre objectif sur lequel l’Inde est sur la bonne voie concerne la baisse de l’intensité carbone de son PIB. Le pays ambitionnait de la réduire de 33 % d’ici 2030 par rapport à 2005. Or, elle était déjà réduite de 21 % en 2014, ce qui pourrait permettre à l’Inde d’atteindre son objectif d’ici 2020, selon l’IEEFA.

Quelques éléments nous poussent cependant à rester vigilants. D’après le Budget Carbone Mondial 2018, la hausse des émissions indiennes de CO2 provenant des combustibles fossiles et de l’industrie est de +6,3 %, après +4 % en 2017. Si les entreprises s’engagent à réduire les émissions de CO2, le nombre de voitures dans le pays croît quant à lui. Ainsi, il n’est pas tout à fait certain que l’Inde s’oriente effectivement vers une réduction globale de la pollution dans les années à venir.

Des voitures et des climatiseurs qui inquiètent

Il reste à l’Inde encore beaucoup d’efforts à faire, alors que les habitudes de consommation des Indiens impliquent l’émission d’encore beaucoup de gaz à effet de serre. Outre la voiture, l’Inde reste encore très dépendante du charbon, tout comme la Chine. Autre problème : la prolifération des climatiseurs. L’Inde en compte aujourd’hui plus d’un million. Alors que les températures sont en constante augmentation et que le prix des équipements baisse, il faut s’attendre à ce que plus de ménages encore s’en procurent. Or, les climatiseurs utilisent des fluides réfrigérants qui libèrent des gaz à effet de serre.

Au-delà des enjeux de la COP 21, c’est un réel problème de santé publique qui se joue en Inde. Selon une étude de l’Institut de politique énergétique de l’université de Chicago, les habitants de New-Delhi ont perdu 10 ans d’espérance de vie à cause du fort taux de particules fines présentes dans l’air.

Innovation : l’Overboat, bateau à propulsion électrique robotisé

C’est un bateau à propulsion électrique en partie robotisé, dont les foils (ou ailes profilées) s’ajustent en permanence pour assurer la meilleure glisse possible sur l’eau. Toutes ces qualités ont valu à l’Overboat, conçu par la start-up montpelliéraine Neocean, d’être mis en vedette dans l’espace Innovation du salon Nautic qui se déroulait à Paris jusqu’au 16 décembre. Ce mini-catamaran monoplace, qui se pilote sans permis, sera commercialisé à partir d’avril prochain, au prix de 33 600 €, auprès des particuliers et des professionnels (loueurs de bateaux, centres de loisirs…) intéressés par ses performances et son allure avant-gardiste.

Vincent Dufour, le fondateur de Neocean, et son équipe d’ingénieurs désiraient mettre au point un véhicule nautique moins polluant qu’un bateau motorisé à essence, sans pour autant sacrifier le plaisir de la vitesse. Trois ans de recherche ont été nécessaires pour trouver la combinaison adéquate, à commencer par la conception des foils qui portent la coque de l’Overboat au-dessus de la surface de l’eau.  « Ce ne sont pas des foils en J, les plus courants aujourd’hui, mais des foils en T inversé, qui équipent les kitesurfs notamment, précise Vincent Dufour. Les spécialistes les considèrent comme la référence absolue. »

Une vitesse de 15 nœuds

Autre aspect novateur : la propulsion électrique d’une puissance de 3 kilowatts, silencieuse, dont l’hélice est carénée par sécurité. Selon Neocean, l’Overboat « décolle » à partir de 7,5 nœuds et atteint une vitesse maximale de 15 nœuds, ce qui correspond à 28 km/h. « C’est aussi rapide qu’un bateau à essence équivalent, grâce aux foils qui réduisent de moitié la résistance de l’eau, explique Vincent Dufour. Les bateaux électriques naviguent généralement entre 5 et 10 nœuds au maximum, alors que les sensations sont amusantes au-delà de 10 nœuds ». A cette vitesse, la batterie d’une capacité de 70 ampères-heure se décharge au bout de deux heures. Le poids ayant logiquement son importance, l’Overboat, fabriqué en matériaux composites et en fibres de carbone, ne pèse qu’une centaine de kilos.

L’automatisation est le troisième et dernier point caractéristique. « Le bateau embarque des capteurs et une centrale inertielle pour déterminer le roulis, le tangage et le lacet. Le calculateur analyse ces paramètres et agit automatiquement sur l’incidence des foils. Cette régulation s’opère 40 fois par seconde ». Des compétences multiples ont donc été convoquées, de l’électronique à l’hydrodynamique en passant par la robotique, et des ressources de l’Université de Montpellier, l’incubateur de Neocean, ont également été mises à contribution. Créée en 2018, l’entreprise a été financée à hauteur de 1,45 million d’euros. Elle ne vise pas que le marché de la plaisance mais aussi celui de la marine professionnelle, sans donner de précisions sur les applications possibles toutefois.

Produits chimiques : quel impact sur la santé des enfants ?

Des chercheurs de l’Université de Californie, à Berkeley, ont tenté d’expliquer l’augmentation de la puberté précoce constatée chez les jeunes filles ces dix dernières années. Pour cela, l’équipe de chercheurs, conduite par Kim Harley et Brenda Eskenazi, a réalisé une étude permettant de connaître le rôle joué par les composés chimiques présents dans les produits cosmétiques sur la santé des enfants et des adolescents.

Cette étude s’appuie sur des données de 338 couples mères-enfants collectées pendant la période in utéro et à l’adolescence.

Dans un premier temps, durant la grossesse des mamans, des tests d’urine permettant de mesurer les concentrations des trois classes de produits chimiques à savoir des parabènes, des phtalates et des phénols (le triclosan et la benzophénone) ont été réalisés. Les mamans ont également été soumises à des questionnaires afin de renseigner leur potentielle exposition à ses produits chimiques.

Dans un deuxième temps, les chercheurs ont suivi le développement des enfants issus de ces grossesses – 159 garçons et 179 filles – en calculant la concentration de composés chimiques présents dans les urines des enfants à l’âge de neuf ans puis en les examinant pour repérer des signes éventuels de puberté tous les neufs mois entre leurs neuf ans et leurs 13 ans.

Les observations révèlent que plus de 90 % des échantillons d’urine prélevés chez la mère et l’enfant présentaient des concentrations détectables des trois classes de produits chimiques. Le triclosan a été détecté dans seulement 73 % des échantillons d’urine issus des femmes enceintes et 69 % des échantillons issus des enfants de neuf ans.

L’étude met également en évidence qu’à chaque fois que la dose de phtalate doublait dans l’urine des mères, en comparaison à un indicateur de base, le développement des poils pubiens chez une jeune fille survenait un mois et trois semaines plus tôt que l’âge moyen. De même, dès que la concentration de triclosan était doublée, en comparaison à un indicateur de base, les menstruations apparaissaient un mois plus tôt que la moyenne.

Les jeunes filles de l’étude présentaient pour la moitié d’entre elles des signes de puberté précoce à savoir l’apparition des poils pubiens à partir de 9,2 ans et une survenue de leurs premières règles à 10,3 ans. Ces observations étaient particulièrement prégnantes chez les filles dont les mères avaient le plus fort taux de phtalate de diéthyle et de parabens.

L’effet de l’exposition in utéro ou en phase prépubère à ses composants chimiques est toutefois très peu visible sur le développement des jeunes garçons.

Il faut préciser que ces résultats sont susceptibles de ne pas refléter l’exposition habituelle car les produits chimiques en question sont rapidement métabolisés dans l’organisme, altérant ainsi l’exactitude des mesures effectuées.

Cette nouvelle étude apporte ainsi sa pierre à l’édifice d’une littérature de plus en plus abondante selon laquelle l’exposition à certains produits chimiques pourrait interférer avec le système endocrinien humain et avoir notamment une incidence sur la précocité de la puberté chez les enfants.

Réalité virtuelle et augmentée : les opportunités d’emploi

Entre 2016 et 2017, le nombre d’offres d’emploi diffusées par l’Apec dans le champ de la réalité virtuelle et de la réalité augmentée a été multiplié par 1,8, passant de 470 à 843 offres. Au total, ce sont 1 313 offres d’emploi qui ont été publiées, sur deux ans, par des entreprises recherchant des compétences et proposant des missions en lien avec les technologies de la réalité virtuelle et/ou la réalité augmentée (développement de logiciel, design, vision par ordinateur, environnement 3D…).

La moitié des offres concernent le secteur informatique

Sur l’ensemble des années 2016 et 2017, 50 % des offres d’emploi dans le domaine de la réalité virtuelle et augmentée ont été publiées par des entreprises implantées dans les activités informatiques. Les entreprises et cabinets d’ingénierie et de R&D sont les deuxièmes pourvoyeurs d’offres d’emploi avec 25 % des offres publiées sur ces technologies. Les sociétés de conseil et de gestion des entreprises représentent quant à elles 13 % des recruteurs. Enfin, 8 % des offres ont été émises par des entreprises industrielles, principalement spécialisées dans les équipements électriques et électroniques.

L’île-de-France concentre plus du tiers des offres d’emploi

En 2016-2017, 37 % des offres d’emploi en lien avec la réalité virtuelle et augmentée ont été émises par des entreprises basées en Île-de-France. En effet, le bassin d’emploi parisien concentre plus de 40 % des offres d’emploi du secteur informatique, puisque bon nombre d’ESN (entreprises de services du numérique) et start-up du numérique y sont implantées. Arrivent ensuite les entreprises situées dans les Pays de la Loire, qui sont à l’origine de 12 % des offres d’emploi. En effet, dans le cadre de la stratégie régionale d’innovation intelligente 2014-2020, les Pays de la Loire accompagnent l’émergence de nouveaux champs d’innovation, tels que l’informatique et l’électronique professionnelle dont les réalités virtuelle, augmentée et mixte. Enfin, trois régions concentrent chacune près de 10 % des entreprises qui recrutent dans le domaine de la réalité virtuelle et augmentée : Provence-Alpes-Côte d’Azur, Auvergne – Rhône-Alpes et Occitanie.

La moitié des offres s’adressent à des candidats confirmés

En 2016, 50 % des entreprises ayant souhaité recruter dans le champ de la réalité virtuelle et augmentée étaient à la recherche de candidats expérimentés, ayant un niveau d’expérience dit « confirmé ». Seule une offre d’emploi sur dix est destinée avant tout aux débutants. Toutefois quatre offres sur dix sont accessibles à tous les candidats, quel que soit leur niveau d’expérience.

Des compétences en développement informatique sont attendues

Plus du tiers des offres d’emploi diffusées en 2016- 2017 concernent les métiers du développement informatique : développeur, ingénieur en développement, ou encore concepteur développeur. Des compétences techniques sont donc attendues, notamment la maîtrise des langages PHP, SQL… et des logiciels tels que Java, C++, Xamarin, AngularJS, JUnit, OpenGL, Unity 3D, DirectX… Il s’agit souvent de postes nécessitant un Bac +5, mais certains sont accessibles à des candidats ayant un Bac +3 en informatique.
D’autres profils sont également très recherchés comme les ingénieurs en R&D, les ingénieurs en traitement de l’image ou vision par ordinateur, également les ingénieurs spécialistes de la 3D. Pour ces postes, des compétences techniques sont également un prérequis.
Enfin, près d’une offre sur dix concerne les postes de commerciaux (technico-commerciaux, chargés d’affaires), avec des niveaux de compétences attendus en réalité virtuelle et augmentée très variables d’une offre à l’autre.

Un intérêt porté aux méthodes de travail

Plus d’une offre sur dix mentionne les méthodes de travail Agile et Scrum. Ces méthodes sont souvent évoquées dans les compétences attendues.
Parfois, ces méthodes de travail entrent dans le cadre des missions liées au poste : un ingénieur en développement devra déployer des méthodologies (Cycle en V, méthodes agiles), là où un chef de projet sera attendu sur sa capacité à assurer le rôle de scrum master.
Ainsi, savoir travailler en méthode Agile est un véritable atout, notamment dans le secteur informatique.
De plus, des qualités telles que la passion, la curiosité et, par conséquent, une appétence pour la veille technologique sont appréciées par la plupart des recruteurs.

Source : Apec

Une taxe de 300 milliards de dollars sur l’énergie fossile ?

Le rapport « La taxe sur les dommages climatiques »   estime que les grandes entreprises exploitant des centrales thermiques aux énergies fossiles retardent l’action climatique. Elles ne participent que trop peu à la transition énergétique, mais engrangent des milliards de dollars de bénéfices. Pour contrer cet état de fait, les auteurs proposent de taxer ces entreprises pour chaque tonne de pétrole, de gaz et de charbon qu’elles extraient. Cette taxe pourrait générer environ 300 milliards de dollars chaque année entre 2021 et 2050.

 Assurer un financement stable jusqu’en 2050

À mesure que le monde s’éloigne des énergies fossiles, le prix de la taxe augmenterait pour assurer une enveloppe de financement stable. Le rapport recommande ainsi l’introduction en 2021 d’une taxe de 5 dollars la tonne de CO2 équivalent. Le prix augmenterait de 5 dollars chaque année jusqu’en 2030, puis de 10 dollars chaque année, pour atteindre 250 dollars la tonne en 2050.

Une grande partie de la taxe serait affectée à des programmes de transition visant à aider en priorité les collectivités à faible revenu à adopter des modes de transport, des sources d’énergie et des emplois à faibles émissions de carbone. « L’introduction de la taxe sur les dommages climatiques est possible : elle se fait dans d’autres domaines comme le nucléaire, les marées noires, le tabac ; les institutions existent, y compris le Fonds vert pour le climat ; aux gouvernement de faire preuve de volonté politique » estime Julie-Anne Richards, auteure principale du rapport.

Inverser le poids du fardeau

Cette nouvelle taxe abonderait des institutions financières existantes telles que le Fonds vert pour le climat. Elle aurait pour but de contrer le problème suivant : bien que les sociétés du secteur des combustibles fossiles aient causé la grande majorité des dégâts climatiques, ce sont les communautés les moins développées qui sont les plus touchées par les catastrophes climatiques. Elles se retrouvent face à des financements astronomiques qu’elles ne peuvent pas financer pour se reconstruire et s’adapter.

« Lorsque le cyclone Pam a frappé en 2015, Vanuatu a perdu 64 % de son PIB, soit 449 millions de dollars de pertes et dommages, rappelle Ralph Regenvanu, ministre des Affaires étrangères, de la Coopération internationale et du Commerce extérieur de Vanuatu. Nous avons présenté des demandes de 700 millions de dollars au Fonds vert pour le climat, et la dernière réunion a approuvé une subvention de 18 millions de dollars ». De nouvelles sources de financement sont bien nécessaires pour aider à combler ces écarts. Les auteurs espèrent vivement que les pays réunis à la COP24 agiront dans ce sens.

Les pays en développement sont à présent les leaders de la transition énergétique (agence BNEF)

Le projet annuel Climatescope de la BNEF a révélé que les pays émergents représentaient la majorité des nouvelles capacités en énergie propre ajoutées et des nouveaux fonds déployés à l’échelle mondiale en 2017 parmi les pays sondés.Ces pays jouent également un rôle de premier plan dans la réduction des coûts de l’énergie propre afin que l’énergie puisse être étendue sans augmenter les émissions de CO2.

En 2017, les pays en développement ont ajouté 114 GW de capacité de production zéro carbone, tous types confondus, avec une capacité de production éolienne et solaire de 94 GW à elles seules – deux records. En conséquence, ce sont eux qui ont mis en service la plus faible capacité de production à base de charbon depuis 2006. Au cours de l’année 2017, les nouvelles centrales au charbon ont chuté de 38% à 48 GW.Cela représente la moitié de ce qui a été ajouté en 2015 lorsque le marché a atteint un sommet avec 97 GW de charbon mis en service.

« Le redressement a été assez difficile », a déclaré Dario Traum, associé principal du BNEF et responsable du projet Climatescope. « Il y a quelques années à peine, certains ont fait valoir que les pays moins développés ne pourraient pas, ou ne devraient pas, développer la production d’énergie avec des sources zéro carbone, car ils étaient trop coûteux. Aujourd’hui, ces pays sont à la pointe en matière de déploiement, d’investissement, d’innovation politique et de réduction des coûts. »  

Cette évolution résulte de l’amélioration rapide des équations économiques  des technologies propres, surtout celles relatives à l’énergie éolienne et au solaire. Grâce aux ressources naturelles exceptionnelles de nombreux pays en développement et à des coûts d’équipement considérablement réduits, les nouveaux projets d’énergie renouvelable supplantent désormais régulièrement les nouvelles centrales fossiles au niveau des prix, ceci sans bénéficier de subventions. Des appels d’offres dans les marchés émergents en 2017 ont porté sur des projets éoliens à seulement 17,7 $ / MWh et de projets solaires à 18,9 $ / MWh.

Climatescope a également révélé que l’argent destiné aux énergies propres affluait dans plus de pays que jamais. Fin 2017, environ 54 pays en développement avaient enregistré des investissements dans au moins un parc éolien et 76 pays avaient reçu un financement pour des projets solaires de 1,5 MW ou plus.

Potager Exky : l’innovation dans votre cuisine

Le potager Exky continue à innover pour faciliter la vie des urbains pressés à la recherche d’une alimentation saine. Dans cette perspective, la startup Véritable propose des « lingots » prêts à l’emploi. Ils intègrent tout le nécessaire pour que les plantes poussent en toute autonomie. Les ingrédients? « Des grains bio, un substrat naturel et des nutriments essentiels », affirme Exky. Pas de pesticides, pas d’OGM, simplement « des paramètres optimisés » notamment en termes de « capacité de rétention d’eau et d’oxygénation du substrat, pH, nombre de graines, espacement et profondeur de semis ». Et un système d’éclairage LED développé spécifiquement, qui permet de garantir la croissance des plantes, même sans lumière extérieure.

Contrairement à d’autres systèmes, les substrats utilisés sont « 100% biodégradables et compostables » et tous les produits sont recyclés, recyclables ou biodégradables. « Avec son système hydroponique passif, Exky utilise uniquement l’eau nécessaire à la croissance des plantes, assure la startup. Il est aussi très économe en énergie ». Il existe 34 lingots aux profils aromatiques variés en fonction des envies des utilisateurs. Entre autres, des herbes aromatiques, de jeunes pousses, des fleurs comestibles, des mini légumes ou mini fruits.

Un potager de la French Tech

Une fois le lingot placé dans le bac, l’utilisateur n’a plus rien à faire. L’irrigation et le cycle d’éclairage jour/nuit sont gérés en toute autonomie. Il faudra simplement remplir le réservoir d’eau toutes les 4 semaines. Si vous avez peur d’oublier ou que vous souhaitez tout de même recevoir des conseils ou suivre l’évolution de leur récolte, une édition « CONNECT » sera proposée. Elle sera dotée d’une application mobile pour suivre la croissance des plantes, programmer l’éclairage du potager, obtenir des conseils à chaque étape (semis, récolte…) et recevoir des rappels utiles pour l’arrosage ou le remplacement de lingot. Lancement prévu au printemps 2019.

Veritable est une startup de la Frenc Tech fondée en 2015. Elle propose des potagers pour permettre à tous de cultiver simplement un très large choix de plantes comestibles directement dans sa cuisine.

Par Matthieu Combe, journaliste scientifique

R-Check analyse le formaldéhyde intérieur en 1 heure

Après trois ans de recherche et développement, la startup Ethera lance la station R-Check, associée à la carte Feel’air et à l’application mobile éponyme. La carte présente un matériau nanoporeux breveté qui renferme une molécule organique qui change de couleur lorsqu’elle réagit avec le formaldéhyde. Le matériau est initialement de couleur jaune claire et donne une couleur jaune d’intensité croissante avec le temps.

 

« Nous avons mis au point un calcul qui traduit une cinétique de changement de couleur en concentration en formaldéhyde », explique Frederic Hammel, DG d’Ethera. La technologie a d’abord été utilisée sur le marché professionnel : le changement de couleur y était suivi par opacimétrie avec de l’électronique et de l’optique de précision. « Pour proposer un prix plus abordable, il fallait s’affranchir de l’optique, nous avons donc pensé qu’il était possible de mesurer le changement de couleur grâce à l’appareil photo d’un simple smartphone », se rappelle-t-il.

Un système simple et performant

Ethera finit de développer son système pour le grand public. Avec son smartphone, il suffit de prendre une première photographie de la carte dans l’application. Elle permet l’analyse de la couleur initiale. La carte est ensuite exposée à l’air pendant une heure sur la station, ventilateur calibré en route. Une seconde photo permet à l’application de calculer une estimation de la concentration en formaldéhyde durant l’exposition.

« Au départ, il fallait 24 heures, mais nous avons décidé de mettre notre monolithe devant un ventilateur pour augmenter l’exposition aux polluants et accélérer le changement de couleur pour obtenir un résultat fiable en 1 heure », détaille Frederic Hammel. « Les recommandations de l’application en cas de pollution vont de la ventilation par ouverture des fenêtres, de l’aération des meubles neufs, de la réduction des sources telles que certains produits de nettoyage ou autres bougies parfumantes, jusqu’à l’acquisition d’un purificateur d’air efficace contre le formaldéhyde ».

Quelle pollution au formaldéhyde dans l’air intérieur ?

L’OMS retient une concentration guide pour l’air ambiant d’une valeur de 100 µg/m³ sur 30 minutes, soit 80 ppb. Elle correspond à la plus faible concentration associée à une irritation du nez et de la gorge chez l’homme en population générale identifiée dans la littérature scientifique.

L’Anses fixe pour sa part la valeur-guide pour le formaldéhyde pour une exposition de longue durée à 30 µg/m³ (25 ppb). Elle l’abaissera à 10 µg.m- ³ au 1er janvier 2023. « Dans ces conditions, la carte Feel’air affiche une couleur verte sur la plage de concentration de 0 à 30 ppb ,de l’orange sur la place 30-80 ppb et du rouge au-dessus de 80 ppb », annonce Frederic Hammel. L’entreprise a retenu le seuil de 30 ppb au lieu de 25 ppb pour des questions de fiabilité de la réponse donnée.

En fonction des paramètres de température et d’humidité et de la qualité de l’appareil photo du smarphone, la technologie a une précision variable, de 10 à 30 ppb. « L’application donne l’indication de concentration estimée et l’épaisseur du trait donne une idée de l’incertitude », précise le directeur général d’Ethera.

La startup cherche un partenaire industriel en France ou en Chine pour l’industrialisation de son système sur ses deux marchés prioritaires. Ethera réfléchit à l’incorporation d’autres capteurs dans sa station, notamment un capteur de particules fines et un autre pour les composés organiques volatiles (COV). « Cela devient une station relativement bon marché puisque l’on souhaite vendre notre système au grand public à moins de 100 euros et une carte permettant de faire jusqu’à deux mesures à moins de 10 euros », prévient Frederic Hammel.

Par Matthieu Combe, journaliste scientifique

Helite lance B’Safe, le gilet airbag pour cyclistes

La solution développée pour protéger les cyclistes adapte la technologie utilisée pour les motards. « Nous avons un gilet qui renferme deux airbags, explique Gérard Thevenot, fondateur d’Helite. En cas d’accident, ils se gonflent automatiquement pour protéger la colonne vertébrale et la partie frontale – thorax, abdomen et cou ».

 

Avec le développement du vélo électrique et de la mobilité douce, on observe une augmentation de l’accidentologie et de la mortalité en vélo. En 2017, les accidents en vélo ont par exemple entraîné davantage de morts qu’en moto en Hollande. Ce gilet dont la prévente est prévue en avril 2019 au prix de 649 euros, est donc capital, en association avec un casque de protection.

Des capteurs sur le vélo et sur la veste

Le système utilise deux capteurs qui communiquent entre eux. Le premier est le capteur CDU (crash detection unit) intégré dans la veste qui analyse la situation en temps réel et détecte les chutes du cycliste. Le second est le capteur selle situé sous la selle qui détecte les chocs du vélo et transmet l’information au capteur CDU. Si le  capteur selle envoie une alerte et/ou que des mouvements anormaux sont détectés, l’airbag s’active automatiquement.La détection de l’accident prend 60 ms, le gonflage de l’airbag 80 ms. Ainsi, le cycliste est protégé avant l’impact.

La veste est un tissu polyester qui ressemble à un gilet vélo classique. Elle est disponible en noir ou en jaune. Son étanchéité est assurée par un film polyuréthane. Une bouteille de CO2 permet de gonfler l’airbag lorsqu’une chute ou un accident est détecté. Elle doit être remplacée après chaque gonflage.

Des crash tests et des testeurs en conditions réelles

Une grosse partie du développement a été réalisé grâce à des crash tests. « Soit on met le vélo à l’arrêt avec un mannequin et on lui fonce dessus avec une voiture sous différents angles, soit on lance le vélo avec le mannequin contre différents obstacles », relate Gérard Thevenot.

Actuellement, plusieurs tests sont menés dans différents pays avec des vélos électriques, des vélos de route loisirs et sportifs, et des vélos urbains. « Il y a des capteurs sur le vélo à différents endroits et sur la veste, informe Gérard Thevenot. Lorsque l’on détecte un crash, on enregistre les données avant le déclenchement effectif de l’airbag pour optimiser les seuils de déclenchement ». Les testeurs servent également à vérifier qu’il n’y a pas de déclenchement intempestifs lors du franchissement de trottoirs ou de dos d’âne. « Les données continueront à être récoltées sur un certain nombre de clients types volontaires pour que l’algorithme continue à apprendre pendant quelques années et détecte un maximum d’accidents », prévient le fondateur d’Helite.

Helite est une entreprise née en 2002 et spécialisée dans la protection airbag individuelle pour protéger des personnes ou des objets. Les systèmes airbags sont fabriqués en France dans son atelier de Dijon, du développement jusqu’à l’assemblage final.

Par Matthieu Combe, journaliste scientifique

Meersens passe au crible votre environnement immédiat

Meersens calcule le risque sanitaire permanent que ses utilisateurs rencontrent dans leur vie quotidienne. Son application passe au crible la qualité de l’air, de l’eau, les UV, les ondes, le bruit et la nourriture. Elle analyse l’exposome dans son ensemble, mais permet surtout de le mettre en perspective avec le profil pathologique propre à chacun de ses utilisateurs.

En utilisant la géolocalisation de votre téléphone ou en scannant un produit, l’application vous expose les risques potentiels liés à votre environnement immédiat. L’application propose aussi des solutions et des alternatives pour diminuer le risque. « La solution va adapter le risque qu’elle identifie en fonction de votre profil santé, explique Morane Rey-Huet, CEO et co-fondateur de Meersens. Les préconisations seront par exemple différentes si vous êtes une femme enceinte, un sportif aguerri ou si vous êtes asthmatique ».

Une application communautaire

La technologie repose sur une intelligence artificielle qui recoupe un ensemble de bases de données disponibles en Amérique et en France. « Nous faisons du data-mining et du machine learning pour arriver à projeter une logique prédictive par rapport à l’usage et aux pathologies de l’utilisateur », complète Morane Rey-Huet.
En plus de l’utilisation de ces bases de données, l’application propose un côté communautaire « comme Waze ». Les utilisateurs deviennent des lanceurs d’alertes des risques sanitaires sur la plate-forme. L’alerte est confirmée ou infirmée par les autres pour forger le niveau de crédibilité et de pertinence de chaque utilisateur. « Cela rend le système fiable et évite que quelqu’un puisse dénigrer un restaurateur ou un industriel par pure vengeance », projette Morane Rey-Huet.

Un objet connecté des plus innovants

Dans les lieux privés, un objet connecté permet de faire des mesures supplémentaires. « ll dispose de trois emplacements pour des capteurs spécifiques, car les personnes sont inquiétées par deux à trois types de pollution par nature, affirme Morane Rey-Huet. Le côté modulaire permet de personnaliser l’appareil en fonction des besoins de chacun ».

De la taille d’un smartphone, l’objet est facilement transportable. Il proposera dès sa sortie sept biocapteurs mSens réutilisables, pendant 6 à 12 mois, pour mesurer l’exposome gazeux : les COV, le CO2, les UVA, les UVB, les PM2,5, les ondes électromagnétiques de 2,4 GHz et le bruit. Ces capteurs privilégient les technologies non destructives et non invasives.

« Nous allons commencer à proposer des capteurs sur la qualité de l’eau en 2019, annonce Morane Rey-Huet. Dans certains cas, en particulier pour le radon ou le plomb, nous allons devoir proposer des capteurs à usage unique ». L’entreprise prévoit toutefois de les recycler en les reconditionnant pour de nouvelles utilisations.

Les données personnelles et médicales sont stockées sur un serveur santé dédié. L’entreprise assure qu’elles demeurent la propriété de l’utilisateur et « que ces données ne seront jamais communiquées ou utilisées hormis pour calculer l’indice de risque de l’utilisateur ».
Le lancement officiel du produit est programmé pour le 6 janvier prochain lors du CES de Las Vegas. La pré-vente sera lancée d’ici début février via une campagne de crowdfunding. La box sera vendue au prix de 99 euros, les biocapteurs seront proposés entre 1 et 30 euros. L’application est pour sa part déjà disponible gratuitement sur iOs et Android.

Par Matthieu Combe, journaliste scientifique

Le Magazine d’Actualité s’invite dans la cartographie interactive de Techniques de l’Ingénieur !

La cartographie interactive permettait jusqu’à ce jour de naviguer par concept sur l’ensemble des ressources documentaires (articles de référence et fiches pratiques) de Techniques de l’Ingénieur.

Vous avez été nombreux à nous réclamer une évolution majeure de cet outil, alors nous l’avons fait pour vous  !

Désormais, tous les contenus du Magazine d’Actualité sont également disponibles dans la cartographie ! (Cela concerne les articles d’actualité, les dossiers mensuels, les livres blancs et les conférences en ligne, soit plus de 3000 nouveaux documents).

Pour rappel, la cartographie interactive est une datavisualisation dynamique de l’ensemble des documents présents sur le site de Techniques de l’Ingénieur. Elle vous permet de naviguer par concept, et même de croiser différents concepts.

Le champ de recherche permet d’accéder directement aux mots-clés utilisés ; il est possible de filtrer la liste des résultats par date ou ordre alphabétique. C’est un outil visuel d’exploration du contenu en complément des autres modes de navigation classique de notre site internet tels que le moteur de recherche ou l’accès par thématique.

Pour mieux utiliser la cartographie interactive :

L’Open Source : une alternative économique aux éditeurs américains

Toujours plus ! En marge de l’édition 2018 d’Oracle OpenWorld, son CEO Mark Hurd a indiqué que le géant des logiciels a un gros appétit : il ambitionne ainsi de passer de 11 à 20 milliards de chiffre d’affaires. Pour atteindre cet objectif, Oracle va développer le mode SaaS de ses applications, mais aussi augmenter le tarif de ses licences…

Pour le CIGREF, la situation devient délétère. Cette association loi 1901, créée en 1970, regroupe près de 150 grandes entreprises et administrations publiques françaises dans tous les secteurs d’activité.

À l’occasion de l’Open CIO Summit et de l’Open Source Summit (POSS) tenus à Paris début décembre, le CIGREF a publié un rapport intitulé « Open source : une alternative aux grands fournisseurs ».

Comportement hégémonique

« Aujourd’hui, le marché mondial des licences logicielles et des services numériques se concentre dans les mains de quelques grands acteurs internationaux, essentiellement américains. Ces derniers ont des objectifs de croissance de leur chiffre d’affaires insoutenables pour les entreprises et organisations publiques. De plus, celles-ci acceptent de moins en moins de supporter les coûts de solutions devenues des commodités, ne disposant que d’une valeur d’innovation très limitée, et qui les rendent dépendantes à un fournisseur au comportement hégémonique », peut-on lire dans ce rapport.

L’intérêt des logiciels libres ne se limite pas à la réduction des coûts.  Pour Pierre Baudracco, CEO de BlueMind, « la mainmise des GAFA(M) sur nos données et leur exploitation, les monopoles créés par l’économie numérique américaine, ont montré les dérives et dangers d’une telle hégémonie et nécessitent également des réponses souveraines afin de restaurer la confiance dans le numérique et permettre une indépendance numérique européenne. L’Open Source et les modèles ouverts, avec leur approche collaborative, de partage et de transparence, sur lesquels repose aujourd’hui massivement le numérique, est une réponse à ces nécessités ».

Les business models de l’Open source

À juste titre, le CIGREF précise aussi que pour de nombreuses entreprises, « les grands éditeurs sont des marques cautions, une assurance, un gage de sécurité pour le Comex ».

Mais c’est avant tout un problème culturel, car il existe des solutions dans le logiciel libre pour chaque risque identifié.

Autre frein à la migration vers l’Open source : la méconnaissance de ses différents business models. L’éditeur open source est une entreprise à but lucratif comme une autre. Le développement de ses logiciels représente un coût que l’éditeur finance sur la base d’un retour sur investissement. Il est donc important de bien comprendre le business model de l’éditeur de logiciel Open source afin d’éviter les mauvaises surprises ultérieures.

Les entreprises peuvent aussi consulter ce document consacré aux fondamentaux juridiques de l’Open source.

En guise de conclusions, le CIGREF met en avant des recommandations pour franchir le pas de l’Open source :

  • acculturer les collaborateurs à l’écosystème open source (caractéristiques clés de cet écosystème, inconvénients et avantages) ;
  • définir des critères d’analyse des logiciels open source, communs à toute l’entreprise et qui prennent en compte la prise de risque à long terme ;
  • établir une gouvernance au sein de l’entreprise dans le choix des logiciels ;
  • mettre en place un processus de choix des logiciels.

Les plus grands investisseurs appellent à l’action climatique

Lundi 10 décembre 2018, 415 investisseurs institutionnels cumulant 32 000 milliards de dollars d’actifs ont publié la Déclaration mondiale 2018 des investisseurs aux gouvernements sur le changement climatique. Ils y réitèrent leur « soutien total à l’accord de Paris » et appellent les gouvernements présents à la COP24 en Pologne à « mettre à jour et renforcer leurs contributions nationales pour atteindre l’objectif de réduction des émissions fixé par l’accord de Paris, en commençant le processus dès 2018 et en le menant à bien d’ici 2020 ».

Trois priorités pour davantage de résilience

La déclaration met en avant trois priorités : atteindre les objectifs de l’Accord de Paris, accélérer les investissements du secteur privé dans la transition vers une réduction des émissions de carbone et s’engager à améliorer les rapports financiers sur le climat. Les investisseurs soutiennent des politiques spécifiques, notamment la fixation d’un prix élevé du carbone, ainsi que l’élimination progressive du charbon et des subventions aux combustibles fossiles. Ils appellent aussi les gouvernements à soutenir publiquement les recommandations du Groupe de travail sur l’information financière relative aux changements climatiques (TCFD) et à les appliquer dans leurs juridictions d’ici 2020.

Selon la déclaration, les gouvernements doivent faire beaucoup plus pour accélérer la transition vers une économie à faible carbone. Ils amélioreront ainsi la résilience de notre économie, de notre société et du système financier aux risques liés au climat. Parmi les signataires figurent les plus importants fonds de pension, gestionnaires d’actifs et sociétés d’assurance du monde. On trouve des noms bien connus tels qu’AXA IM, BNP Paribas AM, CM-CIC AM, ERAFP, Mirova, La Banque Postale, HSBC GAM, Allianz GI, BBVA.

Coup de projecteur sur le charbon

Les investisseurs appellent à la suppression progressive du charbon dans le monde entier. Ils saluent le soutien croissant dont bénéficie la Global Powering Coal Alliance. Lancée par le Royaume-Uni et le Canada, l’Alliance compte désormais 28 signataires des gouvernements nationaux, aux côtés d’autres partisans sous-nationaux et d’entreprises. Elle comprend notamment neuf états des États-Unis.

Malgré la politique de l’administration Trump, plusieurs investisseurs américains s’engagent. « À la caisse de retraite commune de l’État de New York, nous sommes toujours engagés et restons déterminés à soutenir les objectifs de l’accord de Paris sur le climat, affirme Thomas P. DiNapoli, contrôleur de l’État de New York qui supervise la caisse de retraite commune de l’état de New York, un fonds de pension de 207 milliards de dollars. La transition vers une économie à faibles émissions de carbone offre de nombreuses possibilités de création de valeur, et les investisseurs qui ignorent l’évolution du monde le font à leurs risques et périls. »

Agrocarburants: «Le remède est pire que la maladie»

Gaspillage monstrueux de l’eau douce, pollution par les engrais chimiques et les pesticides, consommation des terres agricoles, déforestation, pollution de l’air… « Même si l’agrocarburant est produit en France, on se retrouve avec des parcelles agricoles en moins dédiées à l’alimentation. La demande alimentaire étant croissance, il faudra trouver ces terres ailleurs. Ceci peut être facteur de déforestation et d’augmentation des prix des denrées alimentaires. Pas forcément en France mais dans les pays en développement » a expliqué Laura Buffet, chargée de mission au sein de l’ONG Transport & Environnement, comme le rapporte le média Novethic le 16 novembre 2018. L’arrivée au pouvoir de Bolsonaro au Brésil risque d’aggraver la situation. Produire desagrocarburants en France conduit à ce que les aliments soit produits ailleurs dans le monde, y compris au niveau des réserves amérindiennes méprisées par le nouveau président brésilien, profondément raciste et anti-écolo.

Le groupe agroindustriel Avril va commercialiser en France un nouvel agrocarburant à base de colza. Le groupe met en avant qu’il s’agit d’un carburant national, made in France, et qu’il réduirait « de 60% » les émissions de gaz à effet de serre. Sur France-Inter, Clément Sénéchal, chargé de campagne chez Greenpeace explique qu’« Oleo100 va émettre plus de carbone que les carburants fossiles car il faut prendre en compte les émissions indirectes liées au changement d’affectation des sols. Les prairies stockent du carbone mais quand elles sont plantées avec du colza, elles en stockent moins ».

Si l’on voulait alimenter l’intégralité du parc de voitures, de camions et de bus en France par des agrocarburants, les conséquences  seraient lourdes. Le nouveau gouvernement espagnol a prévu d’interdire les véhicules thermiques et mise sur le 100% électrique. Le gouvernement français a publié sa stratégie contre la déforestation et annonce l’interdiction totale des agrocarburants dits de première génération d’ici 2030. A noter que les carburants de troisième génération, les algocarburants, ont un bilan encore pire que ceux de première génération.

Sortir de l’ère de la combustion (moteur thermique) pour entrer dans l’ère de l’électron. Sous la terminologie méprisante du porte-parole du gouvernement Philippe (pas Morris), cela revient à sortir de l’ère « des gars qui fument des clopes et roulent en diesel ». C’est exactement la réponse, durant l’émission C à vous du 6 novembre 2018, du médecin et journaliste Michel Simes à la bretonne Jacline Mouraud.

Mais cette fois-ci sous une forme intelligente et respectueuse, sans mépris de classe. Cette militante des gilets jaunes aux réels talents populistes est propriétaire d’un 4×4 diesel qui est non sans rappeler l’énorme Cadillac du président des USA Donald Trump qui a enfumé le couple Macron à l’Elysée. Parcourant 25000 kilomètres par an à bord de son char polluant elle se plaint que le carburant coûte selon elle trop cher en France et estime que l’herbe (pétrolière) est plus verte en Espagne. Ce qui a laissé dubitatif le journaliste Patrick Cohen.  Michel Cymes, particulièrement sensible aux impacts sanitaires de la pollution automobile, a déclaré: « Le jour où l’on aura enfin compris qu’il faut passer au tout électrique, on s’en sortira de toutes ces histoires, de cette dépendance vis à vis des pétroliers. C’est insensé que l’on n’aille pas plus vite vers le tout-électrique » . Comme l’ont notamment souligné des chercheurs de l’université Stanford, les agrocarburants, tout comme les carburants pétroliers, posent eux aussi d’importants problèmes sanitaires.

Dès 2020 la nouvelle Renault Zoé, 100% électrique à batterie, aura 600 kilomètres d’autonomie. Sur Radio France International, Christine Siebert a estimé le 15 novembre 2018 que « dans l’idéal, la voiture électrique devrait rouler grâce aux énergies renouvelables. Et certaines initiatives locales s’efforcent de répondre à cette exigence. Ainsi, dans les Hautes Alpes, « l’ombrière photovoltaïque de Baratier » permet aux automobilistes de recharger leurs voitures électriques avec de l’énergie solaire. »

Encre électronique : des prises de note instantanées

Les impatients vont l’être encore plus ! Avec les liseuses électroniques comme Kobo ou Kindle, il faut attendre quelques secondes pour que votre écriture s’affiche à l’écran. Cette latence est due au temps nécessaire pour changer l’état des microbilles qui constituent les « pixels » de l’écran.

Avec sa technologie appelée JustWrite, E-Ink (Electronic Ink) affirme que l’écriture sera quasi immédiate. Pour relever ce défi, E-Link a opté pour l’alimentation du stylet et non plus de la dalle. Exit donc la dalle TFT, JustWrite est un « simple » film électronique – légèrement alimenté en énergie pour maintenir l’état des billes et réagir aux mouvements du stylet.

Autre intérêt : ce film flexible pourrait être produit en rouleau. Cet écran entièrement en plastique, durable et léger, pourrait être fixé et retiré facilement. Cette écriture instantanée pourrait aussi bien s’appliquer sur une tablette que sur des écrans allant jusqu’à 1 mètre de diagonale.

Par ailleurs, si le système de rétroéclairage (optionnel) n’est pas allumé, cet écran n’émet pas de lumière et fatigue donc bien moins les yeux que les dalles des PC, tablettes et autres téléphones. D’ailleurs, Kyocera a présenté le KY-01L, un téléphone ultra fin et compact (91x55x5,3 mm pour 47 grammes) qui n’intègre pas un écran TFT ou OLED. Il repose sur un affichage de type e-Ink ayant une diagonale de 2,8 pouces et une définition de 480×600 pixels.

L’entreprise basée dans le Massachusetts a également commencé à produire des écrans (Advanced Color ePaper présenté en 2016) d’encre électronique de couleur. Capables d’afficher 32 000 couleurs différentes et ayant une définition pouvant atteindre 1600 par 2500 pixels, ils sont destinés à l’affichage numérique. Un modèle de 13 pouces (soit environ 33 cm) est prévu pour le deuxième trimestre 2019.

Les émissions mondiales repartent à la hausse en 2018

Le Global Carbon Project estime les émissions mondiales de CO2 provenant des combustibles fossiles et de l’industrie. Ces émissions augmentaient de plus de 3 % par an dans les années 2000, mais leur croissance a ralenti depuis 2010. De 2014 à 2016, les émissions sont restées relativement stables avec une faible augmentation. L’édition 2018 vient de paraître dans les journaux Nature, Environmental Research Letters et Earth System Science Data. Selon ces projections, en 2018, les émissions de CO2 devraient augmenter de 2,7 %. Cela correspond à des niveaux d’avant la crise économique de 2008.

 Des émissions incompatibles avec l’Accord de Paris

 Cette hausse est principalement due à la croissance soutenue de la consommation de pétrole, de gaz et de charbon dans le monde. Cela signifie que les efforts pour décarboner l’économie demeurent insuffisants pour contrer la hausse du recours aux énergies fossiles. Pour contenir la hausse de la température de la planète en dessous de 2°C, les émissions de CO2 doivent diminuer d’environ 20 % d’ici 2030 et atteindre zéro d’ici 2075. Afin de limiter le réchauffement à l’objectif de 1,5°C, il faut même aller encore plus loin. Les émissions de CO2 doivent diminuer de 50 % d’ici 2030 et atteindre un niveau net nul vers 2050.

« On pouvait espérer que l’augmentation des émissions observée en 2017 ne serait que ponctuelle, mais le taux de croissance en 2018 est encore plus élevé, et il devient clair comme de l’eau de roche que le monde est en train de manquer à son devoir de s’engager dans une voie conforme aux objectifs fixés par l’accord de Paris en 2015 », estime Glen Peters, co-auteur de l’étude et directeur de recherche au centre CICERO.

Des hausses d’émissions régionales

La plus forte hausse des émissions s’observe en Asie. L’Inde, qui représente désormais 7 % des émissions mondiales, poursuit son envolée. La hausse est de +6,3 %, après +4 % en 2017. La Chine, qui représente 27 % des émissions mondiales, renoue également avec une hausse de +4,7 % en 2018, après +1,7 % en 2017.

Les émissions repartent aussi à la hausse aux États Unis qui  représentent 15 % des émissions mondiales. Celles-ci bondissent de +2,5 %, après un léger recul de 0,5 % en 2017. Cette hausse est en grande partie liée aux mauvaises conditions météorologiques qui ont entraîné une hausse de la consommation de chauffage et de climatisation durant l’année.

Une bonne nouvelle est tout de même à noter. Représentant 10 % des émissions mondiales, il semblerait que l’Union européenne soit parvenue à réduire ses émissions de 0,7 %, après une hausse de 1,4% en 2017. Pour le reste du monde (et 42 % des émissions de CO2), la hausse attendue pour l’année est de 1,8 %. En moyenne, les émissions de CO2 atteignent 407 ppm en 2018, un niveau supérieur de 45 % par rapport aux niveaux préindustriels.

Pollution : de nouvelles sources d’ammoniac détectées depuis l’espace

Depuis une douzaine d’années, l’interféromètre IASI embarqué à bord des trois satellites Metop2 fournit aux scientifiques des données globales de divers composés atmosphériques, dont l’ammoniac. L’ammoniac atmosphérique est un composé très important puisqu’il se dégrade en particules fines sous forme de sels d’ammonium, altérant la qualité de l’air que nous respirons. Or, les processus régulant les concentrations de ce gaz dans l’atmosphère sont très mal connus, particulièrement à l’échelle locale.

En exploitant les données journalières de NH3 mesurées par l’instrument pendant près de dix ans, les chercheurs ont généré une carte mondiale de la répartition d’ammoniac atmosphérique, au kilomètre carré près.  En combinant cette carte avec des images satellites, ils ont mis en évidence et catégorisé 241 sources localisées de NH3 liées à l’activité humaine, dont 83 liées à l’agriculture intensive et 158 à l’activité industrielle, ainsi que 178 zones d’émissions plus étendues. (Voir carte).

En plus des nouvelles sources répertoriées et donc absentes des inventaires actuels, l’étude a montré que les émissions provenant de sources connues sont très largement sous-estimées. L’évolution des concentrations d’ammoniac a également permis d’identifier des changements dans les activités humaines comme l’ouverture ou la fermeture de complexes industriels ou encore l’agrandissement d’infrastructures d’élevage intensif.

Ces résultats suggèrent qu’une meilleure gestion des impacts de la pollution par l’ammoniac passe par une révision complète des émissions de ce gaz, très largement sous-estimées dans les inventaires actuels.

© Martin Van Damme et Lieven Clarisse / ULB Carte des flux d’ammoniac atmosphérique construite à partir de 9 ans de données de l’instrument IASI : 242 sources ponctuelles, indiquées par des cercles noirs et 178 zones d’émissions plus étendues, entourées par des rectangles blancs.
© Martin Van Damme et Lieven Clarisse / ULB (IASI); © Google / NASA (Landsat)
Images d’une source d’émission de NH3 localisée en Chine, concomitante à la construction d’un complexe industriel. En bas : Photographies des satellites Landsat (2008 – 2016) montrant la construction du complexe industriel. En haut : Mesures d’ammoniac par IASI pour les mêmes années.

Notes :
¹ Ces chercheurs appartiennent au Laboratoire « atmosphères, milieux, observations spatiales » (CNRS/Sorbonne Université/Université Versailles Saint-Quentin) qui fait partie de l’IPSL (Institut Pierre Simon Laplace) regroupant neuf laboratoires dont les thématiques de recherche concernent l’environnement global.

² Le programme Metop lancé par l’ESA et Eumetsat en 2007 couvrira 18 années d’observation de la composition atmosphérique en continu avec trois satellites successifs. Le dernier satellite, Metop-C a été lancé le 7 novembre 2018.
Références :
Industrial and agricultural ammonia point sources exposed. Van Damme, M., Clarisse, L., Whitburn, S., Hadji-Lazaro, J., Hurtmans, D., Clerbaux, C., Coheur, P.-F. Nature, le 5 décembre 2018. DOI: 10.1038/s41586-018-0747-1.

Source : cnrs

Mercurio, la startup qui mêle numérisation 3D et valorisation du patrimoine

Comment mettre en avant et valoriser le patrimoine lorsque les musées n’ont pas assez de place pour exposer toutes leurs collections ? Eloi Gattet, ingénieur et cofondateur de la startup Mercurio, s’est intéressé à cette problématique et a eu l’idée de mettre en place des solutions de numérisation massive adaptées aux oeuvres d’art et aux besoins des professionnels du patrimoine. Grâce à des machines toujours en cours de développement, ce passionné de robotique et de patrimoine utilise la technique de la photogrammétrie pour créer un double virtuel photoréaliste. Il fonde alors Mercurio en septembre 2018, avec son associé François Nogaret. Leur objectif : valoriser les collections cachées et faciliter la recherche. Nous avons rencontré le jeune ingénieur au Centquatre, le centre de coopération culturelle parisien, lors de la convention nationale des SATT le 16 novembre dernier.

Qu’est-ce que Mercurio ?

Mercurio propose un service de numérisation 3D destiné aux oeuvres d’art. Grâce à nos machines, nous répondons aux besoins spécifiques des musées et des chercheurs qui souhaitent numériser massivement leurs collections. Outre le fait que nos machines soient automatiques et transportables, elles prennent aussi en compte la géométrie, la texture et la réflectance des objets afin de rendre une empreinte virtuelle photoréaliste des oeuvres et objets.

Comment fonctionnent vos machines ?

Notre système de numérisation se base sur la photogrammétrie, une technique qui permet de créer un modèle 3D grâce à des photographies. L’inconvénient de cette méthode est la nécessité d’une prise de photos très rigoureuse, sans flou et sans oubli, afin de d’obtenir une couverture totale de l’objet. Or l’être humain peut faire des erreurs. Avec notre technologie, nous automatisons la prise de photo et la numérisation. L’objet à numériser est placé à l’intérieur de notre machine de forme sphérique et composée de plusieurs dizaines de capteurs photo. Des flashs projettent plusieurs illuminations sur l’objet et permettent d’acquérir les propriétés optiques comme la brillance et la texture. Une fois les photos prises, elles sont traitées par plusieurs logiciels que nous développons pour être combinées et en offrir un rendu 3D interactif.

Les collections des musées peuvent être de tailles et de formes très diverses. Comment vos machines s’adaptent-elles à ces variations ?

Les machines sont composées de modules assemblés entre eux par des barres qui peuvent changer de taille. Aujourd’hui, nous pouvons scanner des objets de 10 cm à 1m. En plus de la machine de forme sphérique, nous en avons une autre en forme de dôme, plus appropriée aux objets en 2,5D comme les tableaux, les bas-reliefs ou les pièces de monnaie. Nous avons créé la machine à 100% c’est-à-dire que nous avons réalisé les pièces au moyen d’imprimantes 3D, assemblé l’électronique et développé le code afin d’avoir une grande flexibilité et de pouvoir ajuster les paramètres de la machine selon nos besoins. A terme, notre objectif est de développer des machines adaptées aux besoins particuliers des musées ou chercheurs.

MERCURIO from Eloi Gattet on Vimeo.

Les musées utilisent déjà des scanners 3D. Qu’est-ce que votre machine apporte de nouveau ?

Aujourd’hui, les scanners 3D sont mal adaptés aux besoins concrets des musées. La machine doit être transportable car on ne peut envisager de sortir les collections des réserves des musées. Ensuite, elle doit s’adapter aux oeuvres et être automatique pour permettre une numérisation massive et des économies d’échelle. Afin de développer notre machine, nous avons travaillé avec plusieurs musées, notamment à Marseille, et ils s’intéressent beaucoup à notre technologie. Nous avons même reçu des demandes de chercheurs qui souhaitent numériser des pièces comme des tuiles, des fossiles, et même des poissons ! Nous nous adressons donc aux professionnels du patrimoine au sens large.

En quoi vos machines vont participer à la valorisation du patrimoine ?

Il faut savoir qu’aujourd’hui, environ 95% des collections des musées restent en réserve à cause d’un manque de place ou d’intérêt des visiteurs. Si leur première mission est de protéger les oeuvres, les musées doivent aussi valoriser leurs collections. Aujourd’hui, les professionnels du patrimoine utilisent déjà le scan 3D mais pour valoriser des objets star comme la Victoire de Samothrace. Je m’intéresse plutôt à la partie immergée de l’iceberg. Il est très difficile d’accéder aux réserves des musées donc s’ils avaient la possibilité de numériser massivement leurs collections, ils pourraient les mettre à la disposition des chercheurs et du public à travers des visites virtuelles. Cela pourrait également apporter des pistes de recherches qui n’étaient pas encore envisageables, comme la comparaison massive de pièces muséales qui appartiennent à différents musées du monde.

Quels sont les points à améliorer avant la commercialisation ?

Pour l’instant, notre technologie n’est pas assez mature pour permettre la numérisation massive car nous pouvons scanner uniquement dix objets par jour. Si la prise de vue dure cinq minutes, la récupération des données demeure encore trop longue. J’évalue à un an et demi le temps nécessaire pour rendre notre machine complètement opérationnelle.

Quels sont vos projets avec Mercurio ?

Comme nous proposerons essentiellement du scan 3D et de l’hébergement en ligne, je pense que nous nous associerons à des partenaires qui font de la valorisation de modèles 3D pour les patrimoines. Ainsi, ils pourront mettre en place des appli directement utilisées par les musées et les professionnels. Nous nous intéressons également au secteur de la vente d’art en ligne, nous pensons que la 3D est un support idéal de communication et de valorisation tant elle apporte des informations sur l’œuvre. Si des opportunités se présentent dans ce domaine, c’est sûr que nous les étudierons.

Propos recueillis par Alexandra Vépierre

Domotique : Free fait irruption dans la maison connectée

Ce mardi 4 décembre, l’opérateur telecom Free a dévoilé sa nouvelle box Internet, la Freebox Delta. Associé au Server (raccordé au réseau Internet), le Player, loin d’être un simple décodeur TV,  bénéficie d’une apparence singulière et d’une polyvalence – c’est aussi une barre de son – qui ont déjà fait beaucoup parler. Par l’entremise de cette box tout-en-un, Free fait également irruption dans le Smart Home. Tous les grands opérateurs français, Orange, SFR et Bouygues Telecom, ont déjà tenté l’aventure auparavant. Tous ont lâché l’affaire ou ne communiquent guère plus sur le sujet, faute d’avoir suscité l’adhésion d’un nombre suffisant de clients.

Free a toutefois choisi une voie différente : optionnelle chez les concurrents, la domotique est ici incluse dans l’offre (49,99 €/mois) et le Player agit d’office comme une passerelle conçue pour interagir avec les équipements du foyer, dont le pack Sécurité fourni. Lequel contient un détecteur d’ouverture de porte ou de fenêtre, un détecteur de mouvement par infrarouge, une caméra Wifi et une mini-télécommande. Par ailleurs, la box incorpore une sirène de 110 décibels, une batterie et se connecte au réseau bas débit Sigfox en cas de coupure électrique et Internet, accidentelle ou provoquée. Une façon de transmettre une notification d’alerte à l’utilisateur en toute circonstance.

Chiffrement, mesh et ouverture

L’usage n’est pas centré que sur la sécurité, certes une préoccupation majeure des amateurs de maison connectée. Le Player est en effet également capable de piloter certains équipements de Somfy, spécialisé dans la motorisation des ouvrants (volets roulants, portails, etc) et les micro-modules d’éclairage, grâce à la prise en charge des protocoles radio RTS et io-Home Control développés ou co-développés par cet industriel. « En tout, cinq protocoles radio configurables sont intégrés, précise un technicien Free, soit un sur la bande 433 MHz, trois sur la bande 868 MHz et un sur la bande 2,4 GHz. Nous avons même mis au point notre propre protocole à 865 MHz, car aucun protocole existant ne réunissait les qualités que nous cherchions, à savoir la portée, la capacité mesh (chaque objet peut répéter le signal pour augmenter la portée), le chiffrement pour sécuriser la liaison et l’ouverture ».

Ouverture ? Il est en effet prévu que les spécifications techniques de ce protocole soient rendues publiques, ce qui pourrait inciter des fabricants de capteurs et d’objets connectés à l’adopter. On peut aussi rétorquer qu’il s’agit d’un protocole supplémentaire sur un marché qui en compte déjà beaucoup (Z-Wave, Zigbee, Enocean…), faute d’une unification qui ne viendra sans doute jamais. Il reste à savoir si la Freebox Delta arrive à point nommé ou non sur un marché progressant doucement, bien qu’il soit de plus en plus agité par les assistants à reconnaissance vocale des GAFA et les nombreux mouvements observés ces derniers mois (acquisition de Netatmo par Legrand, alliance entre EDF, Aldes, Delta Dore et Saunier Duval…).

Par Frédéric Monflier

TOP 5 : les articles les plus lus #novembre2018

Impression 3D plastique : l’aérospatial et le médical s’emparent des polycétones

PAEK, PEKK, PEEK et autres variantes de thermoplastiques polycétones sont en train de s’installer durablement sur les marchés des plastiques hautes performances. Alliant résistance mécanique des métaux et légèreté à la facilité de mise en œuvre des plastiques, ils profitent de l’essor des procédés 3D.

 

La pétrochimie, premier facteur de la croissance de la demande de pétrole

Selon un rapport publié le vendredi 5 octobre par l’Agence internationale de l’énergie (AIE), le secteur de la pétrochimie représentera dans les années à venir près de la moitié de la croissance de la demande de pétrole, devant les voitures, les camions et les avions. Un poids dans l’économie mondiale et un impact sur l’environnement largement sous-évalués.

 

La RSE au service des objectifs de développement durable

Comment la RSE peut-elle contribuer à atteindre les objectifs de développement durable (ODD) ? La plate-forme RSE formule 15 recommandations au gouvernement, aux entreprises, à leurs relais et aux partenaires sociaux pour mieux inclure les ODD dans la stratégie RSE.

 

High-Tech : les fatalités et craintes du Gartner

Comme tous les ans, Gartner scrute sa boule de cristal pour repérer les tendances majeures. Mais au-delà de la simple présentation des tendances, le cabinet d’analyses pointe du doigt des craintes.

 

Le renouveau de l’agroalimentaire français par l’innovation

Pour dépasser la guerre des prix, trouver de nouveaux débouchés à l’export, entraîner leur transition digitale et répondre aux nouvelles attentes des consommateurs, les entreprises agroalimentaires françaises misent désormais sur l’innovation.

 

Par I. B.

Tesla a frôlé la mort en 2018

Elon Musk a avoué que Tesla était à « quelques semaines » de la mort il y a quelques mois alors que l’entreprise avait du mal à atteindre les objectifs de production de la berline Model 3.

S’adressant via le média Axios / HBO, le milliardaire a révélé à quel point la tension de l’année dernière avait eu un impact négatif sur sa santé physique et mentale.

« Tesla a vraiment fait face à la menace de mort de cette année en raison de la rampe de production du modèle 3», a-t-il déclaré. «Nous étions dans les semaines à un chiffre. »

Musk a déclaré que l’entreprise « brulait l’argent de façon folle et que si nous ne résolvions pas ces problèmes en très peu de temps, nous mourrions et qu’il serait extrêmement difficile de les résoudre. »

Après avoir raté plusieurs échéances qu’il s’est imposé, Tesla a finalement atteint son objectif de production de 5000 Model 3 par semaine au cours des sept derniers jours de juin. Le mois dernier, la société a publié son premier bénéfice trimestriel depuis 2016, ce qui a surpris les analystes.

« Je travaillais sept jours sur sept, dormant dans une usine. J’étais dans l’atelier de peinture, dans celui d’assemblée générale, dans l’atelier de carrosserie », a déclaré Musk.

Lorsqu’on lui a demandé s’il s’inquiétait de lui-même « imploser », Musk a répondu : « Oui, absolument. Personne ne devrait consacrer autant d’heures au travail. Ce n’est pas bon Les gens ne devraient pas travailler aussi dur. Ils ne devraient pas faire cela. C’est très douloureux. Cela fait mal à mon cerveau et à mon cœur. »

Avant d’atteindre son objectif de production, Tesla était confrontée à des remboursements de dette d’un milliard de dollars US – environ 230 millions de dollars US dus en novembre – sans disposer de suffisamment de liquidités pour maintenir la société en activité.

« J’ai déjà dit qu’il fallait prouver que Tesla pouvait être durablement rentable », a-t-il déclaré à la presse lors de l’appel des résultats du dernier mois. « C’était un pas important dans cette direction. »

Musk a informé les patients qui ont versé des acomptes pour leurs modèles 3 dès mars 2016 que les premières livraisons australiennes auront lieu vers la mi-2019.

Après taxes et droits d’importation, le modèle 3 le moins cher coûtera environ 80000 $ en voiture, à égalité avec une Mercedes-Benz C300 ou une Audi A4 2.0 TFSI quattro.

Le chef de la direction du constructeur de voitures électriques a connu une année tumultueuse avec des scandales personnels et professionnels. Il a quitté son poste de président le mois dernier dans le cadre d’un règlement de 40 millions de dollars avec la Securities and Exchange Commission, qui affirmait que Musk avait induit en erreur les investisseurs par une série de tweets suggérant qu’il disposait d’un financement lui permettant de privatiser la société.

Musk est également poursuivi pour diffamation par l’expert britannique en plongée Vernon Unsworth – qui a participé au sauvetage des cavernes thaïlandaises plus tôt cette année – pour l’avoir traité de« pédophile » («pedo guy») dans le cadre d’une pitoyable attaque sur Twitter.

Marché du gaz en France : lancement d’une zone unique de prix

900 millions d’euros de travaux

Pendant de nombreuses années, la France se caractérisait par l’existence de plusieurs zones de prix pour son marché du gaz (8 zones de prix en 2003, 5 en 2005, 3 en 2009 et 2 en 2015). Depuis le 1er novembre, cette époque est révolue : la France ne possède plus qu’une seule zone de prix pour son réseau gazier.

Ce marché unique, baptisé « La Trading Region France » (TRF), qui signe l’aboutissement d’un chantier débuté il y a 15 ans, est le fruit de la coopération inédite entre les deux gestionnaires de réseaux de transports de gaz en France, GRTgaz et Téréga (ex-TIGF), grâce à l’appui de la Commission de régulation de l’énergie (CRE).

Les investissements dans les infrastructures gazières nécessaires à cette zone unique et à l’amélioration des capacités de transit entre les deux PEG (point d’échange de gaz) s’élèvent à près de 900 millions d’euros.

Le point d’orgue de ce chantier : les mises en service récentes des renforcements des artères Val de Saône et Gascogne-Midi, développés respectivement par GRTgaz et Téréga. Pour assainir le flux entre le Nord et le Sud du pays, GRTGaz a investi 720 millions d’euros dans le développement du projet de canalisation Val de Saône tandis que Terega (ex-TIGF) a achevé la mise en service du gazoduc Gascogne-Midi, pour un montant d’investissement de 152 millions d’euros.

Fin de la disparité des prix Nord-Sud

France Chimie, l’organisation représentant les entreprises de la chimie en France, s’est félicitée de la mise en place d’une zone unique de prix pour le réseau gazier français, une avancée majeure qu’elle réclamait depuis des années.

En effet, le système de zones était responsable d’un fort différentiel de prix entre le Nord et le Sud du pays, pénalisant surtout les sites industriels implantés dans le sud et principalement en hiver, période de fortes demandes.

La raison de ce déséquilibre ? Depuis des décennies, la capacité de liaison entre les réseaux gaziers Nord et Sud était insuffisante et provoquait des congestions chroniques très coûteuses sur l’une des deux zones, les points d’échange (PEG) Nord et Sud.

Ce marché unique est conçu pour devenir bénéfique aux consommateurs et surtout aux industriels gazo-intensifs. Selon GRTgaz et Téréga, alors que la France importe la quasi-totalité de son gaz, la zone de marché unique permettra d’obtenir « un marché français plus liquide, plus compétitif » ainsi qu’« une sécurité d’approvisionnement de la France renforcée car les risques de congestion entre le Nord et le Sud diminuent ».

En outre, « avec la TRF, l’ensemble du marché français est désormais interconnecté aux principales places de marché européennes ».

Aliye Karasu

Une prothèse de bras qui décode les mouvements du membre fantôme

La plupart des personnes amputées perçoivent des sensations au niveau de leur membre disparu, d’où la dénomination de « membre fantôme ». Dans une étude précédente², les chercheurs avaient montré que plus de 75% des personnes amputées sont capables d’effectuer des mouvements volontaires avec leur membre fantôme. Or, l’exécution de ces mouvements « fantômes », comme par exemple la fermeture des doigts ou de la main, la rotation ou flexion du poignet, sont toujours associés à des contractions musculaires spécifiques au niveau du moignon. Chez les personnes amputées de bras au-dessus du coude, ces contractions impliquent des groupes musculaires qui n’ont aucun lien avec les articulations mobilisées avant l’amputation, comme si une réinnervation musculaire avait eu lieu de façon spontanée, sans chirurgie.

L’équipe de chercheurs a donc développé une approche de contrôle de prothèses naturel qui exploite ce phénomène. Pour le prototype mis au point, les chercheurs ont créé des algorithmes capables de reconnaître les activités musculaires générées par la mobilisation du fantôme et de reproduire le mouvement détecté avec la prothèse : un contrôle intuitif, sans apprentissage ni chirurgie.

Dans les tests mis en œuvre, deux participants amputés de bras ont utilisé ce type de contrôle pour actionner une prothèse non portée mais placée près de leur moignon de bras. Les résultats très encourageants montrent que les participants ont été capables de maîtriser la prothèse et de mener à bien l’exercice après seulement quelques minutes de familiarisation avec le système, malgré des temps d’action allongés. Cette recherche est très prometteuse, les personnes amputées du bras ayant souvent beaucoup de difficultés à contrôler efficacement leur prothèse, au point qu’un grand nombre d’entre elles finissent par l’abandonner.

Les chercheurs poursuivent leurs travaux en envisageant de passer à des tests de prothèses portées, tout en contribuant également à augmenter les connaissances sur le phénomène du membre fantôme dont les mécanismes ne sont pas encore parfaitement compris. A travers cette étude, les scientifiques montrent aussi la nécessité de reconsidérer le phénomène du membre fantôme, généralement tabou, souvent attribué au deuil du membre perdu et majoritairement considéré sous l’angle de la douleur.

Source : cnrs