StarVR, le casque VR qui vous regarde (aussi)

Si l’on se fie à son poids de 450 grammes environ, le casque de réalité virtuelle StarVR est semblable au Vive Pro de HTC ou à l’Oculus Rift. Mais, au vu de ce qu’il contient et ce qu’il propose, il ne joue pas tout à fait dans la même catégorie. Son champ de vision horizontal de 210°, contre 110° chez les concurrents, se révèle en effet beaucoup plus immersif. Il bénéficie en supplément d’un système de «eye tracking» intégré (suivi de la direction du regard) qui modifie dynamiquement la définition de l’image afin d’améliorer les performances graphiques. Dévoilé dans sa version définitive au salon Siggraph, en août dernier, le StarVR s’apprête à la commercialisation. Sa disponibilité et son prix (au delà des 1000 € probablement) ne sont pas encore officiels.

Le StarVR  se distingue également en raison de ses origines françaises. Il est le descendant d’un prototype de casque à large champ de vision conçu en 2013 par des anciens ingénieurs d’Airbus. A l’époque déjà, l’angle horizontal du champ de vision s’élève à 210°, ce qui correspond au champ de vision humain quand on bouge les yeux sans bouger la tête. Ce casque, nommé InfinitEye, et l’entreprise du même nom sont acquis deux ans plus tard par l’entreprise suédoise Starbreeze, spécialisée dans le développement et l’édition de jeux vidéo.

ic3XXCJw

StarVR_One_04_white background

StarVR_One_02_white background

Pour le divertissement et l’industrie

StarVR est désormais le fruit d’une co-entreprise impliquant Starbreeze et l’industriel taïwanais Acer, qui détient 66% du capital. «Le StarVR se destinait principalement au marché du LBE (location based entertainment ou salles d’arcade, ndlr), confie Marc Piuzzi, ingénieur en solutions de réalité virtuelle. Depuis l’arrivée d’Acer, nous ciblons aussi les entreprises et l’industrie.» Si la société StarVR est représentée à Taipei, à Stockholm et à Los Angeles, les locaux consacrés à la recherche et développement sont situés sur les Champs-Elysées et regroupent une petite trentaine de personnes.

«Les premiers clients intéressés par notre technologie sont les concepteurs de l’industrie automobile, qui sont déçus par la qualité et l’étroitesse du champ de vision des casques RV actuels, enchaîne Marc Piuzzi. Un champ de vision large est notamment un argument pour les ingénieurs qui apprécient l’ergonomie dans l’habitacle d’un véhicule. Les secteurs de la simulation automobile et aéronautique sont également des débouchés potentiels.»

De manière concrète, le StarVR se compose de deux écrans de 1840×1460 pixels chacun et de deux lentilles de Fresnel, qui reproduisent ce champ de vision de 210° à l’horizontal et de 130° à la verticale. Ces deux lentilles ont constitué un défi technique à part entière. «Elles ont demandé deux ans de développement, détaille Marc Piuzzi. Elles jouissent de bonnes propriétés optiques et peuvent être fabriquées à l’échelle industrielle.» Les écrans ont de même leurs particularités. Alors qu’une précédente version disposait d’écrans classiques de téléphone portable, à 60 Hz, la version commerciale est équipée d’écrans Amoled à 90 Hz, élaborés par Acer.

«Un taux de rafraîchissement de 60 images par seconde n’est pas suffisant, indique Marc Piuzzi, et peut provoquer des cinétoses et des scintillements sur les surfaces très claires des objets 3D. Qui plus est, l’arrangement des sous-pixels de nos écrans est complet : chaque pixel compte des sous-pixels rouge, vert et bleu, ce qui a son importance quand l’affichage est placé juste devant les yeux. C’est mieux que la technologie Pentile de Samsung, où les sous-pixels verts sont prédominants (l’oeil humain est plus sensible au vert, ndlr).»

Un gain de performances de 100%

Quant au suivi oculaire, l’idée faisait partie initialement du projet d’InfinitEye. Elle s’est concrétisée cette année avec l’intégration d’un système conçu par une autre société suédoise, en l’occurrence Tobii, dont c’est le domaine d’expertise. Cette fonction est avantageuse à double titre. «En premier lieu, elle améliore les performances, explique Marc Piuzzi. Sur la base d’une carte graphique nVidia GTX 1080Ti (carte graphique haut de gamme prisée par les joueurs «hardcore», ndlr), on parvient à créer deux flux vidéo – un pour chaque écran – à 90 images/seconde, ce qui dépend toutefois du niveau de détails graphiques. En liaison avec le dispositif de Tobii, la carte graphique calcule l’image 3D dans sa définition optimale à l’intérieur d’un cercle centré sur le regard de l’utilisateur, qui couvre 30% du champ de vision. A l’extérieur du cercle, elle traite l’image à 40% de la définition native des écrans. Les performances peuvent doubler en fonction des applications. La puce Tobii analysant le regard étant à l’intérieur du casque, la latence est éliminée.»

D’autre part, «ce dispositif automatise l’ajustement de la distorsion optique de l’image, qui dépend de l’écart interpupillaire de l’utilisateur, ajoute Marc Piuzzi. Il n’y a plus besoin de molette de réglage manuel.» Son incorporation n’a pas été une mince affaire. «Les LEDs à infrarouge sont placées sur le pourtour des lentilles, décrit Marc Piuzzi. Il a fallu aussi trouver de la place pour les miroirs et les deux caméras qui analysent la position des rétines.» Cette technologie devrait être également utile dans la filière de la formation (BTP, industrie…), qui fait un usage croissant de la réalité virtuelle pour enseigner les bons gestes ou sensibiliser aux risques. «On sait où la personne regarde» constate Marc Piuzzi. Une information qui peut être mise à profit pour améliorer les opérations.

Pour en savoir plus : www.starvr.com

Par Frédéric Monflier

L’État explique comment se passer des GAFAM

« Étant donné l’importance du numérique dans nos vies, créer les conditions d’une dépendance maîtrisée et limitée à ces plateformes est une nécessité. Ainsi, Mounir Mahjoubi, Secrétaire d’État auprès du Premier ministre, chargé du Numérique, met à votre disposition plusieurs pistes de solutions alternatives ou complémentaires aux services proposés par les grandes plateformes ».

Tout est dans la nuance. À aucun moment, il n’est fait mention de façon explicite aux GAFAM (Google, Amazon, Facebook, Apple ou Microsoft (GAFAM). Or il s’agit de multinationales tentaculaires : Facebook possède WhatsApp et Instagram, Google détient YouTube et Waze, Microsoft distribue Skype…

Comme l’association Framasoft qui publie régulièrement des alternatives libres et faciles d’accès aux services de Google & consorts, l’État a décidé de publier sa liste.

Elle permet de constater qu’il existe d’autres solutions pour travailler et échanger des données. Indirectement, elle invite à retenir ces alternatives afin de soutenir un écosystème européen et renforcer notre indépendance technique.

Vie privée

Les alternatives sont classées par domaines : gestion de projet, questionnaire en ligne, partage de documents, microblogging, données géographiques ou bien statistiques.

Logiquement, cette liste commence par les navigateurs web et les moteurs de recherche. Firefox, Brave et Vivaldi sont les trois navigateurs proposés. Chrome, Internet Explorer, Edge ou Safari ne sont pas présents dans cette catégorie pour des raisons évidentes.

Concernant les moteurs de recherche, cette liste ne cite pas Google et Bing (Microsoft) mais plutôt Qwant et DuckDuckGo. Le premier est conçu et basé en France. Le second est un méta-moteur de recherche dont la société éditrice est en Pennsylvanie. Les deux moteurs partagent la même philosophie : préserver la vie privée et de ne stocker aucune information personnelle concernant les utilisateurs.

Les entreprises, administrations et, de manière générale, tous les professionnels peuvent (re)découvrir des solutions pour l’organisation de leurs rendez-vous  : Zoutch ! (pour des événements professionnels ou privés entre amis) ou Moreganize qui réunit sur une seule interface un agenda partagé, un outil de sondage privé ou anonyme et une liste de tâches partagée. L’association Framasoft propose des équivalents avec notamment Framadate.

À la place de Dropbox ou de Google Drive, il est possible d’utiliser les services de Owncloud ou de Pydio (une start-up française spécialisée dans le partage sécurisé de fichier open source pour les entreprises) pour partager des documents. La catégorie « Suite collaborative » montre qu’il existe de nombreuses solutions alternatives : Nextcloud, Alfresco (un système de gestion de contenu distribué sous licence libre), Mattermost (un clone de Slack, open source auto-hébergé, sous licence MIT)…

La liste du Secrétaire d’État auprès du Premier ministre n’a pas vocation à être exhaustive. Elle s’enrichira au fur et à mesure de l’évolution de cet écosystème.

Par Philippe Richard

Petits satellites : premières exigences internationales

La nouvelle industrie spatiale, qui s’appuie notamment sur l’utilisation de micro- ou nanosatellites, a ouvert la porte à beaucoup de nouveaux arrivants sur ce secteur particulier. Les experts du secteur se sont inquiétés de voir des engins dont la fabrication, l’exploitation ou la récupération ne soient pas assurées dans des conditions d’exigences minimales que les acteurs historiques se sont fixés pour préserver la sécurité des autres occupants de l’espace. Il faut dire que le nombre de lancements d’engins spatiaux n’a jamais été aussi grand. Et cela va encore augmenter. Un rapport de la société SpaceWorks souligne ainsi une augmentation de 205 % du nombre de nanosatellites lancés entre 2017 et 2016. Une tendance qui devrait perdurer encore plusieurs années au vu des constructions en cours ou prévues. On estime ainsi que 2600 petits engins spatiaux devraient être lancés dans les cinq prochaines années.

Un cadre pour les petits développeurs

Pour l’ISO, ce document n’est pas un frein à l’entrée sur le marché de nouveaux opérateurs mais plutôt une aide pour être plus conformes aussi aux exigences des grandes entreprises du secteur ou des agences gouvernementale avec lesquelles ils travailleront peut-être. En effet, la fabrication de ce type d’engins implique le respect de certaines normes ou réglementations que certains nouveaux arrivants ignorent peut-être. Grâce à ISO/TS 20991, Systèmes spatiaux – Exigences relatives aux petits engins spatiaux, ils peuvent connaître les attendus minimaux pour les différentes étapes du cycle de vie des systèmes des petits engins spatiaux, et ce qu’elle que soit leurs missions. Ces lignes directrices servent notamment à mieux assurer la sécurité et la mitigation des débris spatiaux. Elle aborde tant les phases de conception, de lancement, de déploiement et d’exploitation que celle du retrait de service et se réfèrent aux normes déjà existantes.

Par Sophie Hoguin

Des dizaines de pesticides contaminent les femmes enceintes

Les chercheurs de l’Institut national d’études démographiques (Ined) et de l’Institut national de la santé et de la recherche médicale (Inserm) se sont réunis mi-septembre à Paris pour faire part de leurs nouveaux résultats concernant le projet Elfe. Cette étude longitudinale à envergure nationale a pour but d’étudier durant plusieurs années différents aspects de la vie de plus de 18.000 enfants nés en 2011. Les recherches menées se concentrent autour de trois axes : le cadre social, la santé et l’environnement. Si les enfants sont les premiers concernés par ces recherches, les autres membres de la familles intéressent également. Ainsi, Cécile Chevrier, épidémiologiste à l’Inserm a révélé que la cohorte Elfe s’est penchée sur l’exposition des femmes enceintes aux pesticides.

Une exposition aux pesticides qui influe sur le poids de naissance

L’objectif de cette étude était d’établir le nombre de molécules phytosanitaires auxquelles les femmes sont exposées durant leur grossesse. Pour y parvenir, des analyses de trois à neuf centimètres de mèches de cheveux de plusieurs dizaines de femmes enceintes vivant en zone périurbaine en France ont été soumises à examen dans le but de détecter jusqu’à 140 molécules définies. En partant du principe qu’un centimètre de cheveux pousse en un mois, les mèches étudiées permettent d’analyser entre un trimestre et une grossesse entière d’exposition aux pesticides. Parmi ces molécules se retrouve notamment la perméthrine, un « foudroyant insecticide interdit dans les usages agricoles » atteste l’épidémiologiste de l’Inserm. Elle révèle également que cette substance est également un acaricide, qui se retrouve dans des insecticides domestiques.

Les résultats de l’étude sont édifiants : aucune femme enceinte n’a les cheveux parfaitement sains. Pour la moitié de celles dont les cheveux ont été analysés, 43 molécules ont été détectées. Et sur les 140 molécules recherchées, 122 ont été retrouvées. Bien qu’elle n’ait pas souhaité apporter des précisions sur ce point, Cécile Chevrier a expliqué que ce type de recherche était essentiel pour, à terme, mettre en évidence l’impact probable de l’exposition aux pesticides sur les problèmes neurologiques et de poids des nourrissons à la naissance. La chercheuse a en effet rapidement évoqué l’éventualité que l’exposition aux pesticides des femmes enceintes durant la grossesse pourrait potentiellement favoriser le risque de développement de l’hypospadias, une maladie génitale du petit garçon.

Par Chaymaa Deb

TOP 5 : les articles les plus lus #septembre2018

Emploi des ingénieurs : au beau fixe et pour longtemps

Les études annuelles continuent de confirmer les tendances des années précédentes. L’emploi des ingénieurs ne connaît pas la crise. Le secteur informatique tient le haut du pavé mais toutes les spécialités connaissent une évolution vers une demande massive de digitalisation.

emploibig

 

Spacetrain, le monorail français hyper-rapide : le projet devient concret

Conçu comme une alternative technologique à l’Hyperloop, Spacetrain s’appuie, non pas sur la lévitation magnétique, mais sur des coussins d’air. Le projet industriel a pris une tournure très concrète où acteurs privés et pouvoirs publics commencent à s’impliquer.

spacetrain-1140

 

Les bus à hydrogène se déploient en Europe

Afin de faire baisser le coût des bus électriques à hydrogène et favoriser l’émergence d’une offre industrielle européenne, des stratégies d’achats groupés se mettent en place. La France attend ses premiers bus pour 2019.

bus-hydrogene-1140

 

Les enjeux de l’innovation ouverte

L’innovation n’est plus un processus exclusivement interne à l’entreprise. Aujourd’hui, d’autres modèles émergent, en particulier celui de l’innovation ouverte. Explications.

innovation-ouverte-1140

 

General Electric choisit la blockchain pour valider ses pièces 3D

Les progrès du numérique vont-ils conduire au remplacement des humains par des machines en toutes tâches ? Enquête auprès de chercheurs en intelligence artificielle et en économie sur l’évolution de nos emplois dans dix ou vingt ans

blockchain-impression3D-1140

 

Par I. B

1 milliard d’euros supplémentaires pour la transition écologique

Le projet de loi de finances pour 2019 a été présenté en Conseil des ministres le 24 septembre. Pour 2019, le budget du ministère de la transition écologique et solidaire devrait atteindre 34,2 milliards d’euros, en hausse de 3,1 % par rapport à 2018. Les fonds serviront en priorité à soutenir le développement des énergies renouvelables électriques et la méthanisation : près de 7,3 milliards d’euros, en hausse de 1,3 %. Grâce à la baisse des coûts des nouvelles installations, les projets éoliens et solaires se multiplient : la puissance totale de ces deux énergies devrait atteindre 25 gigawatts (GW) fin 2018, en hausse de 14 %.

Le deuxième poste de dépenses du ministère est consacré à la mobilité : 6,99 milliards d’euros, en hausse de 5 %. En particulier, le gouvernement s’attellera à moderniser le réseau routier et ferroviaire, renouveler les rames des Intercités et des TER, commencera à rembourser la dette de la SNCF et développera le vélo. Le gouvernement consacrera également plus de 2,37 milliards d’euros à des actions dans le domaine de l’eau et de la biodiversité, en hausse de 1,7 %. Enfin, près de 1,22 milliards d’euros seront consacrés à la prévention des risques, à la santé et à la gestion des déchets.

Quelles mesures pour les particuliers ?

Les primes pour aider les particuliers à acheter des véhicules moins polluants, les aides à la rénovation énergétique et le chèque énergie seront renforcés. Face au succès de la prime à la conversion, le budget sera augmenté de 47 % en 2019, pour atteindre près de 570 millions d’euros. Dès la fin 2018, la moitié de l’objectif du quinquennat devrait être atteint, soit près de 250.000 véhicules.

Contrairement à ce qui avait été annoncé, le Crédit d’Impôt pour la Transition Energétique (CITE) sera reconduit en 2019 et ne sera pas transformé en prime immédiate, sur présentation des justificatifs. En revanche, le taux réduit de TVA à 5,5% pour les travaux sera maintenu et l’éco-prêt à taux zéro (EcoPTZ) sera simplifié. Ce dernier sera notamment élargi à des actions simples de rénovation unique et non plus seulement à des « bouquets de travaux ». Le dispositif des certificats d’économies d’énergie (CEE) sera quant à lui largement renforcé, avec une ambition doublée sur la période 2018-2020 et une mobilisation de fonds privés de plus de 2 milliards d’euros par an.

Enfin, le chèque énergie passera de 150 à 200 euros en moyenne pour les 3,7 millions de ménage modestes qui en bénéficient. Ce poste s’élève à près de 710 millions d’euros, en hausse de 22 %.

Le projet de Loi de finances 2019 sera discuté, puis, voté par le Parlement lors du dernier trimestre 2018. Il sera publié au Journal officiel avant fin décembre 2018.

Par Matthieu Combe

Application mobile : le Magazine d’Actualité désormais dans votre poche !

Les plus attentifs d’entre vous l’ont remarqué : au printemps dernier, nous sommes passés de 99e au 101e dossier du Magazine d’actualité !

Pourquoi avoir attendu ?

Pour vous livrer avec une surprise : la sortie de l’application du Magazine d’actualité de Techniques de l’Ingénieur compatible iOS et Android.

Pourquoi marquant ?

Parce qu’à partir d’aujourd’hui, l’actualité scientifique et technique tient dans votre poche, en ligne et hors ligne. Une petite révolution pour rester en veille sur les innovations, l’actu des entreprises et des marchés, mieux comprendre le monde de demain ! Et tout cela gratuitement !

Alors, ça se fête ?

visuel_sortie_appli_apple_portrait
Et oui, à cette occasion, participez au concours pour gagner un voyage Extraordinaire dans l’usine de demain. Vous pouvez remporter votre séjour à Paris à l’occasion de l’exposition l’Usine Extraordinaire.

Téléchargez vite l’application, un indice majeur s’y trouve ! Le premier mot qui apparaît au lancement de l’appli vous aidera à répondre aux questions du concours.

et participez au grand jeu concours lancé pour l’occasion !

(lien direct vers le concours) !

 

Toute la rédaction du Magazine d’Actualité vous remercie de votre fidélité et vous souhaite bonne chance !

 

Gagnez un Voyage extraordinaire dans l’Usine de demain !

Pour jouer (et gagner !) votre voyage, cliquez ici

Il suffit de répondre aux trois questions avant le 16 Novembre 2018. Choisissez votre catégorie : étudiant ou professionnel, un tirage au sort désignera un gagnant dans chacune de ces deux catégories parmi les participants ayant donné toutes les bonnes réponses.

Pour maximiser vos chances de gagner ce voyage, téléchargez l’application « Techniques de l’Ingénieur, le Magazine d’Actualité », disponible sur Play Store et Apple Store, accessible depuis techniques-ingenieur.fr, liens en bas de page. Une des trois bonnes réponses apparaît à l’ouverture de l’appli !

Vous pourrez alors remporter un voyage à Paris*, comprenant une nuit d’hôtel pour 2 personnes et le transport aller-retour pour visiter l’Usine Extraordinaire, exposition qui se tient du 21 au 25 Novembre 2018, sous la nef du Grand Palais.

Le tirage au sort aura lieu au plus tard le 19 novembre 2018.

Répondez simplement aux 3 questions et tentez de gagner votre voyage ici

Pour plus d’informations, vous pouvez consulter le règlement de ce concours.

* départ de la ville de votre choix, en France métropolitaine

 

 

REACH : une réglementation pour les substances chimiques

La production des substances chimiques a connu une ascension fulgurante au cours des 70 dernières années, passant de 1 million de tonnes en 1930 à plus de 400 millions de tonnes actuellement, la part des substances chimiques dangereuses augmentant dans des proportions équivalentes. Si certains produits dangereux sont réglementés voire interdits, les risques liés à l’usage de nombreux produits chimiques sont encore mal identifiés. Cette connaissance insuffisante de l’incidence de ces substances chimiques sur la santé humaine et sur l’environnement entraîne de vives préoccupations tant du public que des autorités. La réglementation européenne en ce domaine, bien qu’ayant évolué depuis une quarantaine d’années, s’est avérée insuffisante pour évaluer correctement les dangers de l’ensemble des substances mises sur le marché et les risques associés à leurs usages. C’est pour répondre à un objectif de meilleure prévention vis-à-vis du risque chimique que la Commission européenne a décidé dès 2001 de mettre en place une nouvelle politique chimique, concrétisée par l’adoption en décembre 2006 du règlement REACH.

Principes généraux du règlement

REACH a donc pour ambition deux objectifs principaux : assurer un haut niveau de protection pour la santé humaine ainsi que l’environnement et renforcer la position concurrentielle de l’industrie chimique européenne. Pour cela, il établit un système intégré d’enregistrement, d’évaluation et d’autorisation des substances chimiques ainsi que de restrictions applicables à ces substances.

« Avec REACH, l’innocuité d’une substance devra être prouvée par l’industriel, faute de quoi la production, la mise sur le marché et la transformation dans l’Union européenne devront cesser »

REACH a introduit une nouvelle ère dans la politique sur les substances chimiques en Europe. Il constitue une véritable refonte du système réglementaire européen en remplaçant près d’une quarantaine de directives existantes. Il s’applique aux fabricants et importateurs, mais aussi aux utilisateurs en aval de substances chimiques, telles quelles ou contenues dans des articles ou des préparations. Il permet d’augmenter les connaissance des propriétés dangereuses des produits chimiques pour une gestion efficace des risques liés à l’utilisation de ces produits tout en promouvant l’utilisation de méthodes alternatives non réalisées sur animaux pour l’évaluation des dangers des substances. Il prévoit le renforcement de la communication et de la mise en œuvre des conditions d’utilisation tout le long des chaînes d’approvisionnement du producteur/importateur à l’utilisateur final. Il tend également à la substitution progressive dans l’Union européenne des substances chimiques les plus dangereuses, en particulier les substances très préoccupantes comme les cancérogènes, mutagènes et toxiques pour la reproduction (CMR).

Parmi les dispositions importantes prévues dans le règlement REACH figure par ailleurs la création d’une Agence européenne des produits chimiques (ou ECHA pour European CHemical Agency), basée à Helsinki, dont le rôle est d’assurer la mise en œuvre, la gestion et la coordination administrative, scientifique et technique du système.

Les éléments essentiels de ce règlement sont :

  • l’obligation par les producteurs/importateurs de fournir des données sur les propriétés mais aussi sur les usages et les risques des substances qu’ils produisent ou importent à plus de 1 t/an : « Pas de données, pas de marché». Ces dispositions doivent permettre de résorber « la charge héritée du passé » par étapes successives pour acquérir les connaissances adéquates sur toutes les substances chimiques ;
  • le renversement de la charge de la preuve ; dorénavant, c’est aux producteurs des substances de prouver que les risques liés aux substances qu’ils produisent sont valablement maîtrisés, et non plus aux autorités publiques. « Il incombe aux fabricants, importateurs et utilisateurs en aval de veiller de fabriquer, mettre sur le marché ou utiliser des substances qui n’ont pas d’effets nocifs pour la santé humaine ou l’environnement. Ses dispositions reposent sur le principe de précaution». Ils doivent donc assurer une gestion responsable des risques et informer la chaîne de leurs utilisateurs en aval. Seules les substances les plus préoccupantes seront traitées par les autorités ;
  • la réduction ou la non-utilisation des essais sur animaux en obligeant les déclarants à partager les données dont ils disposent pour une même substance, en favorisant les méthodes in vitroet en évaluant au cas par cas les demandes d’essais sur animaux ;
  • la mise en place d’un système unique d’évaluation des substances existantes et nouvelles ;
  • la création d’un nouvel outil de gestion des risques qui est la procédure d’autorisation pour les substances extrêmement préoccupantes pour inciter à la substitution de celles-ci ;
  • la reprise de la procédure précédente de la directive « Limitations » sous une forme légèrement différente pour gérer les risques non couverts par ailleurs.

L’ensemble de ces dispositions étant inscrit dans un règlement, c’est une réelle harmonisation de la politique chimique européenne qui se met en place, car ce dispositif évite les délais d’application et les différences de transpositions dans les droits nationaux. Les sanctions et dispositifs de contrôle seront toutefois régis par des textes nationaux.

 

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 14 octobre !

REACH : une nouvelle réglementation pour les substances chimiques, un article de Huguette DÉCHARIAUX

Cybersécurité : le marché de l’emploi va encore grandir

Aujourd’hui la cybersécurité est passée d’un positionnement stratégique pour les entreprises et les administrations à un enjeu vital encadré par une obligation réglementaire (existence d’une responsabilité générale et pénale de sécuriser leurs systèmes d’information). Pour autant les entreprises françaises sont loin d’être matures. Les informaticiens jugent même que 89 % d’entre elles y sont mal préparées (enquête Apec 2017). Les offres d’emplois, dont la quasi-totalité sont de niveau cadre, ne cessent de se multiplier.

A titre d’exemple, entre 2014 et 2016, les offres de postes en cybersécurité recensées par l’Apec sont passées de 315 à 1133.

Une tendance qui ne se dément pas. La réglementation joue un rôle important dans l’augmentation de la demande de compétences en matière de cybersécurité. Par exemple, avec la transposition de la directive européenne dite directive «NIS» (UE 2016/1148) sur la sécurité des réseaux et des systèmes d’information de nombreuses entreprises vont avoir des exigences encore plus drastiques de sécurisation de leurs systèmes d’informations. Il s’agit notamment des entreprises de transports, de banque, d’assurances, de santé, de distribution d’eau ou d’infrastructures numériques. Le liste exacte des entreprises concernées doit être fixée par décret avant la fin de l’année et leurs obligations vont être détaillées dans un arrêté à paraître dans les jours qui viennent.

Une filière qui se structure

La filière et le marché de l’emploi en la matière commencent à se structurer.  On peut distinguer trois-quatre grands structures d’emploi : les entreprises qui veulent monter en compétences et font des embauches directes, les entreprises prestataires de services qui embauchent pour vendre leur expertise aux entreprises utilisatrices qui ont choisi d’externaliser toute ou partie de la fonction et des entreprises de R&D (principalement des start-up) qui vont développer des produits dédiés. L’Apec sépare de ce marché celui très spécifique de la défense qui comprend les grandes entreprises comme Thalès, Airbus ou le ministère de la Défense lui-même. D’un autre côté, tout le secteur de la formation se mobilise : tant en formation initiale que continue. A ce titre, l’Anssi (agence nationale pour la sécurité des systèmes d’information) est devenue centrale et structurante. En effet, depuis 2016 elle labellise les formations (SecNumedu et SecNumedu-FC) et délivre des «Visas sécurité» pour les produits, logiciels, solutions qu’elle a évalué comme fiables.

Des salaires au plus haut

Sans conteste les différentes études qui se sont intéressées à la rémunération des ingénieurs en cybersécurité relève que les salaires sont au plus haut. Ainsi en avril 2017, le site d’offres d’emplois Jobibjoba publiait un palmarès des salaires dans les métiers du numérique construit à partir des offres parues. En salaire brut (sans primes ou avantages en nature), les postes en cybersécurité arrivaient en tête avec une moyenne de 60 000 euros/an devant les architectes logiciel ou responsables acquisition online à 52500 euros. Une enquête de cet été publiée par un analyste en cybersécurité, connu sous le pseudo de x0rz, et menée auprès de 368 professionnels de SSI donne un aperçu des rémunérations dans le secteur. Les données, disponibles en open source, révèlent que le salaire moyen (hors primes) varie de 39k€ à près de 70k€ par an en fonction de l’expérience.

Sophie Hoguin

BIM manager : un métier jeune pour cadres expérimentés

Selon le référentiel des métiers de l’OPIIEC*, le BIM manager «développe et met en place le processus BIM (Building information modeling – maquette numérique) afin de faciliter la conception, coordonner les différentes phases de construction et optimiser l’exploitation de l’ouvrage tout au long de son cycle de vie. Il assure la communication et le travail collaboratif entre les acteurs du projet à travers la mise en commun d’une plateforme.» Bref, c’est le chef d’orchestre de la maquette numérique : il doit à la fois s’assurer que les outils sont en place et fonctionnels et que les personnes les utilisent correctement et qu’elles communiquent entre elles.

Premiers postes et premières formations

Les premiers postes créés datent à peu près de 2012-2013. Ils ont été initiés parce que certains maîtres d’ouvrage voulaient commencer à tester la maquette numérique sur quelques projets, les entreprises ont dû suivre et nommer quelqu’un pour superviser et organiser la mise en place des outils, des compétences et la nouvelle organisation du travail. Du coup, il fallait des profils qui connaissent bien le métier et qui soient partants pour se former à ces nouvelles technologies. Petit à petit, le BIM a infusé le monde du BTP et aujourd’hui en France, le rapport d’étape du Plan Transition numérique dans le bâtiment, publié en mars 2018, affirme que «à la fin de l’année 2017, 35 % de l’ensemble des acteurs du BTP considéraient avoir une connaissance suffisante du BIM, en forte progression puisqu’ils n’étaient que 15 % par rapport à fin 2016». Evidemment, ce taux est très variable selon la taille des entreprises et leurs métiers. Autant en maîtrise d’oeuvre (bureaux d’études, architectes), l’emploi des maquettes numériques est généralisé, notamment pour la conception, et se développe donc facilement vers la réalisation voire parfois l’exploitation autant il peut être moins évident pour certains métiers opérationnels où les outils traditionnels et la culture de l’expérience terrain sont fortes.

Pour accompagner cette montée en puissance, des formations spécifiques se créent. A tous les niveaux de compétences : depuis le Mastère Spécialisé® BIM : conception intégrée et cycle de vie du bâtiment et des infrastructures de l’ESTP qui propose 400h de formation à des professionnels qui ont déjà une dizaine d’années d’expérience et qui veulent devenir BIM manager à l’intégration de modules BIM dans les formations d’ingénieurs BTP, de techniciens ou d’architectes tant en formation initiale que continue.

Polyvalence, curiosité, compétences relationnelles

Mais attention, le BIM ne créé pas d’emplois. Selon une étude** de l’OPIIEC de juillet 2016 «il apparaît que le BIM ne devrait pas créer de besoins supplémentaires en recrutement mais que les entreprises vont recruter des collaborateurs déjà formés au BIM pour accompagner leur montée en compétences en remplaçant les départs à la retraite ». Le BIM devient donc un atout pour l’embauche et pour la valorisation du salaire. En apportant une transformation du travail et des relations entre les travailleurs avec une forme plus collaborative autour de nouveaux outils, il oblige les ingénieurs et cadres du BTP notamment à développer de nouvelles compétences. Pour les BIM Manager : aptitude à la pédagogie et facilité avec les relations humaines car le BIM manager est au coeur de la transmission des savoirs en la matière et doit savoir fédérer et animer des équipes, capacité et volonté à maintenir une veille technologie impliquant d’être pro-actifs dans la recherche d’information et a minima lire couramment l’anglais. Mais le BIM manager doit aussi être adaptable. Car les limites de son poste sont différentes d’une entreprise à l’autre, et vont certainement bouger au fil du temps : selon les capacités d’autonomie des autres collaborateurs, le BIM manager aura plus des fonctions vers l’extérieur qu’en interne où il sera plus orienté vers la gestion de données que vers le support technologique ou encore il mutera vers l’intégration d’autres nouveaux outils : robotisation, intelligence artificielle, réalité augmentée etc. Et, pour les PME qui n’ont pas la chance d’avoir en interne les compétences et qui doivent répondre à des projets BIM, on voit apparaître une offre de sous-traitance des compétences BIM pour de l’accompagnement ou de la gestion de projets via des bureaux de conseils. Un lieu privilégié d’embauche de profils «BIM manager».

Sophie Hoguin

*Observatoire Paritaire de l’Informatique, de l’Ingénierie, des Etudes et du Conseil

**KYU Lab pour OPIIEC –Etude sur l’évolution de l’ingénierie française de la construction liée au BIM -juillet 2016

Entreprises recherchent développeurs polyglottes !

Pendant longtemps, même si les développeurs ont pu étudier plusieurs langages lors de leur formation, le monde du travail leur demandait généralement de se spécialiser. Et puis l’Internet et la mobilité se sont développés. La numérisation des données et des process est entrée dans tous les secteurs d’activité. De nombreux nouveaux langages informatiques sont nés, pour la conception de nouveaux objets numériques liés au développement de l’Internet, de la téléphonie mobile, de l’IoT, d’applications dédiées etc. Les entreprises se sont mises à développer leur propre environnement, des « nuages personnalisés » pour partager leurs données en interne. Et l’accumulation de différentes fonctions et la demande de personnalisation ont logiquement donné lieu à la cohabitation de plusieurs langages informatiques au sein des entreprises.

Une étude commanditée par Cloud Foundry Foundation* et parue en août 2018 sur les langages informatiques les plus usités dans les entreprises souligne ce nouvel état de fait : de plus en plus d’entreprises emploient une stratégie polyglotte pour atteindre leurs objectifs. Pour les auteurs, c’est notamment la flexibilité des technologies liées au cloud qui a permis de se diriger vers une informatique plus flexible, portable et interopérable. Dans cet état d’esprit, les entreprises créent des équipes de développeurs polyglottes qui peuvent piocher dans le langage le plus adapté aux outils qui doivent être utilisés. Cette translation vers le polyglottisme transparaît aussi dans les offres d’emplois analysées par l’Apec : les profils recherchés doivent surtout être adaptables, capables d’apprendre de nouveaux langages. Mais, note cependant l’Apec ces annonces cachent parfois un objectif un peu différent : la constitution de viviers de spécialistes auxquels l’entreprise peut faire appel à la demande.

Polyglottes au quotidien ?

En réalité, le polyglottisme recouvre différentes réalités au sein de la population des développeurs. On trouve ainsi des polyglottes du quotidien qui travaillent avec plusieurs langages tous les jours. En 2013, le cabinet d’étude Forrester Research estimait qu’ils représentaient 4 développeurs sur 10. Mais on trouve aussi, surtout chez les développeurs seniors, des polyglottes au long terme qui travaillent avec plusieurs langages mais successivement dans leur carrière, accumulant ainsi les connaissances au fil des projets qu’ils ont pu mener. L’idée sous-jacente du polyglottisme, c’est que la programmation serait plus mature : chaque langage étant utilisé au mieux de son utilité. Pour certains, c’est aussi la preuve que le développeur dépasse un langage pour comprendre une ou des logiques sous-tendant la programmation et apporte alors une vision globale et généraliste qui permet d’optimiser les processus. Pour les employeurs, il y a parfois une dérive : voyant dans les polyglottes des personnes qui peuvent assurer à elles seules plusieurs postes. Attention, là, l’épuisement professionnel voire le burn-out peuvent surgir. Finalement, on est dans une sorte de transition où le marché du travail lui, répond qu’il veut des développeurs capables de porter un projet avec une vision holistique mais qu’il a aussi besoin de développeurs qui puissent soit coder dans plusieurs langages soit hyper-spécialisés et performants dans un ou deux seulement. En attendant, que le foisonnement de nouveaux langages se tassent et que quelques grands gagnants se stabilisent comme c’est déjà le cas pour Java, Javascript, Python ou C++, il est clair que le marché du travail pour les développeurs est en tension. Mais pas pour les candidats, surtout pour les entreprises qui ont du mal à trouver du personnel.

Un métier pour les jeunes, désertés par les jeunes

C’est là un paradoxe de ce métier : il demande d’être curieux, actif, adaptable, vif, toujours en train d’apprendre. Des qualités plutôt disponibles chez les jeunes ingénieurs. Pour autant, l’étude réalisée par le cabinet YouGov pour l’éditeur CA Technologies cet été et dont les conclusions ont été dévoilées à l’occasion de la journée mondiale des programmeurs le 13 septembre sont plutôt pessimistes : en France, le métier de développeur n’attire pas du tout les jeunes. Ils en ont toujours l’image d’un « geek » solitaire, codant plusieurs heures par jour, enfermé dans son programme et le métier ne fait rêver que 8 % des 15-34 ans. Alors qu’aujourd’hui le métier a évolué et offre de nombreux débouchés. Bien rémunéré, il fait appel de plus en plus à l’imagination, la créativité, et se pratique au sein d’une équipe, souvent en mode projet. La présence des femmes ne cesse de diminuer depuis 10 ans et cette étude semble indiquer que les raisons sont plus à chercher du côté de l’image véhiculée que par des différences de salaires ou des freins à l’entrée en formation ou à l’embauche.

Sophie Hoguin

*La Cloud Foundry Foundation est fondation à but non-lucratif créée pour soutenir et promouvoir la plateforme d’applications pour le Cloud (PaaS – plateforme en tant que service) open-source du même nom.

Emploi des ingénieurs : au beau fixe et pour longtemps

Deux tiers des jeunes ingénieurs sont embauchés en CDI dès leur sortie de l’école soulignait en juin 2018 ainsi l’enquête annuelle de l’IESF (association des Ingénieurs et scientifiques de France, qui rassemble 180 réseaux d’alumni ingénieurs). Un chiffre confirmé par «l’enquête insertion» de juin 2018 de la conférence des grandes écoles (CGE) qui affirmait que 90 % des élèves entrés sur le marché du travail ont trouvé un emploi après 6 mois (et c’est un CDI pour plus de 80 % d’entre eux) et 100 % à 12 mois. Des chiffres en progression par rapport à 2017. L’enquête précise aussi que «l’entrée dans la vie active est rapide puisque 62 % des étudiants ont trouvé un emploi avant même leur sortie de l’école». Ils étaient 60 % en 2017. Une insertion exemplaire qui perdure tout au long de la carrière : le taux de chômage des ingénieurs est ainsi évalué à 3,4 % en 2017 par l’IESF, en baisse par rapport à 2016 (3,9%).

Salaires : l’inégalité hommes/femmes perdure

Selon l’enquête de l’IESF, le salaire médian en début de carrière est de 34000 euros brut annuel, il monte rapidement pour atteindre 42000 au bout de cinq ans et 100 000 en fin de carrière. La part des femmes, qui ne représentent que 20 % des ingénieurs, augmente cependant atteignant 28,5 % de la promotion 2017. Leur salaire brut médian est de  47000 euros contre 60 000 pour les hommes. L’IESF avance deux grandes explications : une expérience en moyenne inférieure et un choix de filières traditionnellement moins rémunératrices (agronomie, agroalimentaire, sciences de la vie, chimie, environnement…). Mais ce constat des inégalités hommes/femmes présent aussi dans l’enquête de la CGE montre que c’est tout de même plutôt une dévalorisation des femmes qui explique ces écarts que des explications techniques. En effet, précise l’étude de la CGE «Qu’il s’agisse du taux net d’emploi, de la nature des contrats de travail, du statut et surtout du niveau de salaire, tous les indicateurs montrent qu’il subsiste un différentiel en défaveur des femmes et aucune amélioration n’est observée sur les dernières années». Par exemple, en 2018 chez les ingénieurs, le taux de CDI offert aux jeunes femmes est inférieur de 14 points comparés aux jeunes hommes et les ingénieures perçoivent en moyenne 1800 euros de moins par mois… Une différence qui atteint 2500 euros avec les primes !

Informatique, informatique et informatique

Quels sont les métiers et secteurs qui embauchent le plus ? Sans surprise les fonctions liées à l’informatique et la digitalisation de la société. Une étude réalisée par l’Apec en exclusivité pour les  Echos Start relève les fonctions qui s’adressent aux jeunes diplômés. Sur les 10 premiers intitulés de métier retenus, quatre relèvent directement de l’ingénierie informatique (développeur, ingénieur en développement informatique, chef de projet informatique, ingénieur en étude et développement informatique) et représentent 9 608 offres soit à peu près 50 % des offres d’emplois totaux de ces 10 premiers métiers recensés. Le reste des offres se répartissant entre des fonctions commerciales, de recrutement ou comptable. Dans les secteurs qui recrutent le plus, on retrouve cette tendance avec le secteur de «programme, conseil et autres activités informatiques) qui tient le haut du pavé (12131 postes offres), devançant les «activités d’architecture et d’ingénierie» (8860 postes) et les «conseils de gestion» (7158). Un tableau qui concorde avec les prévisions présentées par le cabinet McKinsey en mai 2018 dans son rapport sur l’automatisation et l’avenir du travail» qui anticipe les nouveaux besoins en compétences d’ici à 2030. «D’ici 2030, estime le rapport, le temps passé à utiliser des compétences avancées en technologie devrait augmenter de 50 % aux USA et 41 % en Europe. La demande en compétence dans les technologies de l’information et la programmation informatique devraient enregistrer une croissance de 90 % entre 2016 et 2030». Et si, souligne le rapport, les compétences avancées seront aux mains d’une minorité de spécialistes, c’est toute la population qui va devoir intégrer un certain nombre de compétences de base. Soulignant que le besoin de formation, pour tous les secteurs et les métiers est énorme. L’Apec étudie d’ailleurs l’évolution des compétences des cadres et ingénieurs avec l’arrivée de la digitalisation et de l’usine 4.0. Le constat est sans appel : tous les métiers industriels sont impactés qu’il s’agisse de la maintenance, de la production, de l’organisation même du travail. Cela se traduit par des transformations en profondeur pour certains métiers qui vont perdurer mais sous une forme différente comme par exemple les ingénieurs conception qui doivent évoluer avec l’arrivée de la maquette numérique et de la fabrication additive, l’ingénieur en BTP avec le BIM etc…

Sophie Hoguin

Assises de l’eau : comment moderniser l’eau

Selon un diagnostic élaboré dans le cadre des Assises de l’eau, un litre sur cinq se perd dans les réseaux d’eau à cause de fuites. Il existe de forts contrastes en fonction des services et des régions. Lutter contre ces fuites dans les territoires ruraux constitue le premier axe du plan d’actions mis en place. Pour ce faire, doubler le rythme de renouvellement des canalisations est le premier levier que les acteurs veulent actionner.

Des réseaux modernes avec un meilleur service

Actuellement, le cycle de renouvellement des réseaux est de 170 ans. L’ambition du plan est de le diviser par deux, à 85 ans. Entre 2019 et 2024, les investissements dans les infrastructures vont augmenter de 5 milliards d’euros, passant de 36 à 41 milliards d’euros. Deux milliards d’euros seront notamment consacrés au renouvellement des réseaux dans les zones les moins favorisées. Par ailleurs, le gouvernement souhaite améliorer les conditions d’accès à l’emprunt des collectivités. La Caisse des dépôts accordera des prêts pour financer les réseaux ou les usines, sur une durée pouvant atteindre 60 ans. Le taux d’intérêt sera faible, égal à celui du taux du livret A +0,75%.

Le deuxième axe du plan consiste à améliorer la qualité de service pour les Français. À ce jour, seulement la moitié des services d’eau et 40 % des services d’assainissement publient leurs données. La publication deviendra obligatoire pour que chacun puisse connaître de façon transparente la performance de ses services d’eau. Les Assises de l’eau visent également à soutenir l’innovation, en particulier pour améliorer le goût de l’eau, et le suivi de sa qualité. 50 millions d’euros seront consacrés chaque année à cette politique.

Davantage de confiance, de solidarité et d’informations

Le plan veut renforcer la confiance et la solidarité dans le secteur de l’eau. Selon le Ministère de la transition écologique, 20 % des Français ne font pas confiance à l’eau et 47 % des Français déclarent boire de l’eau en bouteille tous les jours ou presque. Un comité stratégique de filière devra rendre plus transparente l’information délivrée aux usagers sur la qualité de l’eau potable. Le gouvernement propose également aux collectivités volontaires de mettre en place un chèque-eau, sur le même modèle que le chèque-énergie, avec le même opérateur national.

Dans un sondage récent, le Centre d’information sur l’eau révèle que 74 % des Français souhaitent recevoir davantage d’informations sur l’eau qu’ils boivent, notamment concernant le traitement et la qualité de l’eau du robinet. En particulier, 37 % des Français souhaitent un engagement accru de l’état sur l’amélioration de la qualité de l’eau et 35 % sur la préservation des ressources.

Le second volet des Assises de l’eau se déroulera d’octobre à décembre autour de la question « Changement climatique et ressource en eau : comment les territoires et l’ensemble des acteurs vont-ils s’adapter? » Les travaux s’articuleront autour de trois axes : économiser, protéger et partager la ressource en eau.

Par Matthieu Combe, journaliste scientifique

Revue de presse anglophone #20 spéciale high tech

Intelligence artificielle : les robots DRH

Certaines entreprises utilisent une intelligence artificielle pour évaluer les demandeurs d’emploi. Mais cette pratique est-elle éthique ?

robot-drh

Source : The Wall Street Journal

 

La salle de bain de plus en plus high tech

Des brosses à dents innovantes aux WC qui lancent vos morceaux préférés, la salle de bain s’apprête à connaître une petite révolution…

0

Source : The Wall Street Journal 

 

Alexa d’Amazon sait ce que vous avez oublié et peut deviner ce que vous pensez

L’assistant vocal sera bientôt capable de rappeler aux habitants de la maison de penser à fermer les portes et à éteindre les lumières.

Amazon_alexa1140

Source : The Guardian

 

La sonnette intelligente de Google

Nest Hello de Google est une sonnette vidéo qui se veut plus intelligente que les autres avec un enregistrement, et une reconnaissance du visage et des objets.

4450

Source : The Guardian

 

La reconnaissance faciale fait son chemin

Les restaurants, les compagnies aériennes et autres veulent utiliser la technologie dans le commerce quotidien.

reconnaissance-faciale-1140

Source : The Wall Street Journal

 

Par I. B.

Revue du web #117 : les 6 vidéos les plus étonnantes

Après la voiture , voici la moto autonome

BMW Motorrad vient de présenter sa R 1200 GS autonome qui devrait servir de plateforme de développement pour la sécurité du motard.

 

Deepfake : un trucage vidéo troublant

Des chercheurs de l’université Carnegie Mellon ont développé une nouvelle technique de trucage vidéo particulièrement inquiétante : grâce à ce procédé, on peut faire dire n’importe quoi à n’importe qui.

 

La réalité augmentée au service des panneaux solaires

La réalité augmentée nous permettait déjà de visualiser notre futur canapé dans le salon. Dorénavant, il sera également possible de se faire une idée de l’esthétique finale avant la pose des panneaux solaires sur le toit et de calculer la production future selon l’emplacement !

 

 

Une intelligence artificielle capable de prédire les réactions chimiques

Des chercheurs d’IBM ont mis au point une intelligence artificielle capable de prédire les réactions de synthèse.

 

DelFly Nimble : le robot-mouche

Des ailes bien sûr mais aussi aussi une paire de contrepoids qui permettent de stabiliser son corps, à la manière d’un gyroscope.

 

Le sprint spatial d’Usain Bolt

Le nouveau défi du champion : faire un sprint en gravité lunaire !

 

Par I. B

 

Vélo électrique: 380 kilomètres d’autonomie ? Avec Delfast, c’est possible

Combien de cycles est-il possible de réaliser avec un vélo électrique ? Selon le site velo-electrique.org les batteries de vélo électrique «se recyclent très bien, elles peuvent tenir entre 600 et 1500 cycles de charge». Delfast explique dans sa FAQ «que dans des conditions d’utilisation optimales, la batterie peut durer 3000 cycles!».  On peut ainsi réaliser plus de 200.000 kilomètres (hypothèse très conservatrice de 250 km x 800 cycles) avec le vélo Delfast.

Combien d’énergie faut-il consommer pour fabriquer la batterie de 3 kWh ? Selon la Fondation pour la Nature et pour l’Homme il fallait il y a quelques années consommer 350-400 kWh par KWh de stockage  (page 51). La baisse très rapide du coût des batteries est corrélée à la baisse de la consommation énergétique, on peut ainsi estimer qu’il ne faut plus que 200 kWh par kWh de stockage aujourd’hui. En retenant une hypothèse ancienne, non actualisée, de 400 kWh par kWh de stockage, l’investissement énergétique dans la batterie du vélo Delfast correspond à 6 Wh/km (hypothèse de 200.000 km) qui s’ajoutent aux 7,9 Wh/km de consommation de ce vélo (à 21,5 km/h), soit un total de 13,9 Wh/km.

delfast-larger-header

Un kWh d’électricité française correspond à 50 grammes de CO2 par kWh (electricitymap.org). Si une entreprise française développait un vélo similaire à celui de Delfast et s’il était utilisé en France, il émettrait par conséquent 0,7 gramme de CO2 par kilomètre (fabrication de la batterie de 3 kWh comprise). 3,9 grammes avec de l’électricité ukrainienne.

Il faut 30 grammes d’hydrogène pour parcourir 100 kilomètres en VAE à hydrogène selon le Député de la Dordogne Michel Delpon. La durée de vie de la pile à combustible est estimée à 4000 heures, soit 80.000 km à 20 km/h. 95% de l’hydrogène provient du gaz fossile en France. «Sauf à réécrire les ouvrages de chimie, on produira toujours onze tonnes de CO2 pour fabriquer de cette manière une tonne d’hydrogène» explique le journaliste Yves Heuliard dans le média We Demain. Par ailleurs la fabrication de la pile à combustible et du réservoir à très haute pression est énergivore et émettrice de CO2. Et la pile à combustible est couplée à une petite batterie. La production de l’hydrogène à partir d’électricité française (ou ukrainienne) est possible par électrolyse, mais étant donné que le rendement de la chaîne hydrogène est trois fois moins bon que celle de la batterie, cela multiplie environ par trois les émissions de CO2.

Le vélo Delfast peut être utilisé soit en mode 100% électrique, soit en mode VAE (avec assistance musculaire).
Sa vitesse peut être bridée pour entrer en conformité avec la législation des différents pays. Une autre version de ce vélo, équipé d’un moteur électrique de 5 kW (au lieu d’1 kW) permet d’atteindre 80 km/h.

Guinness

380 km en vélo électrique avec une seule charge à 21,5 km/h est le record du monde, comme l’a rapporté fin août 2018 le média américain spécialisé Electrek. C’est la distance Lyon/Marseille, Paris/Bruxelles ou encore Kiev/Moscou. Nul besoin de changer de batterie ou d’effectuer une charge rapide de la batterie en cours de voyage. En effet une promenade à vélo dure rarement plus de 17 heures. Dans le cadre du projet The Sun Trip des aventuriers ont parcouru 12.000 kilomètres en 50 jours grâce à des vélos électriques à batterie alimentés par des panneaux solaires. Soit une moyenne de 240 kilomètres par jour. France-Chine via l’Ukraine et le Kazakhstan.

En France 75 % des déplacements domicile-travail font aujourd’hui moins de 5 km et 70% de ces trajets sont réalisés en voiture thermique avec bien souvent une seule personne à bord.  5 km en vélo électrique à une vitesse de 20 km/h, cela ne prend qu’un quart d’heure. Nul besoin par conséquent d’avoir une batterie de 3 kWh pour ce type d’usage. Une capacité de batterie 10 fois inférieure est amplement suffisante, ce qui permet d’économiser les ressources en matières premières et d’améliorer encore davantage le bilan CO2. Ainsi que de réduire les frais à l’achat.

En France les facteurs de la Poste roulent environ 2 heures par jour à faible vitesse mais avec une charge à transporter (lourde en début de tournée, et réduite à zéro à la fin). Disposer d’une batterie de 3 kWh (au lieu de par exemple d’1 kWh) permet de recharger 3 fois moins souvent, et ainsi d’augmenter d’un facteur 3 la durée de vie de la batterie. Au lieu de durer par exemple 1 an et demi elle dure alors alors 4 ans et demi.

Jean-Gabriel Marie

La blockchain, nouvel atout pour le médical

Techniques de l’ingénieur : Qu’est-ce que la blockchain dans le médical?

Anca Petre : La blockchain est un outil. La plupart du temps, les données sont stockées de manière centralisée dans des bases de données conservées par des entreprises. Avec la blockchain, la même information sera stockée dans une multitude de bases de données d’entreprises différentes. L’information est sécurisée et est partagée dans un réseau où tout le monde peut avoir de la visibilité. Pour mettre à jour une information, tous les acteurs doivent être d’accord. On ne peut jamais modifier ce qui a été enregistré, il est seulement possible d’enregistrer une nouvelle version de la donnée, ce qui permet de suivre son évolution.

En santé, la blockchain permet de s’assurer que les informations échangées dans le réseau sont fiables et sécurisées. L’intérêt n’est pas d’y stocker toutes les données de santé, mais plutôt de choisir celles qui sont critiques ou sensibles et qu’il faut authentifier, protéger et tracer. Elle sert par exemple à tracer un médicament de façon transparente pour redonner de la confiance dans les produits de santé surtout sur les marchés émergents où la contrefaçon est un enjeu de santé publique important. L’intérêt est également d’enregistrer des droits d’accès. Concrètement, on enregistre dans la blockchain le fait que le médecin X a ou non le droit d’accès aux informations du patient Y. Si le médecin X demande l’accès, le logiciel vérifie ce qui est enregistré dans la blockchain. Si l’accord a été donné, alors il pourra y accéder, sinon l’accès sera refusé.

E.T.I. : Concrètement, comment cela fonctionne-t-il?

A.P. : La blockchain est une architecture informatique qui permet d’enregistrer des informations dans ce que l’on appelle des blocs qui sont des structures de données. Dès que le réseau valide un certain nombre de transactions, il va les mettre dans un bloc. Les prochaines transactions seront dans un autre bloc qui sera relié au premier et ainsi de suite, pour former une chaîne de blocs.

La même blockchain, avec les mêmes informations, est enregistrée dans plusieurs ordinateurs, appelés « nœuds ». Plus on souhaite sécuriser la donnée, plus on augmente le nombre de nœuds dans le réseau. De quelques-uns jusqu’à des dizaines de milliers.

E.T.I. : Quel est le métier de votre cabinet?

A.P. : 23consulting est une société leader dans l’accompagnement des acteurs de santé sur la technologie blockchain. Basés à Paris, nous travaillons avec un réseau d’experts et de développeurs en France, mais aussi à l’international, surtout aux États-Unis et en Suisse. Le cabinet conseille, forme et accompagne les laboratoires, les startups ou les hôpitaux privés dans la compréhension de la blockchain. Nous répondons à trois besoins : la compréhension de la technologie, l’anticipation de l’impact sur l’organisation et la mise en place de projets de A à Z. Nous participons également à des groupes de travail internationaux. Dans le cadre du projet PHUSE, le but est par exemple de trouver une façon de sécuriser le circuit de données issues des essais cliniques.

Nous essayons également d’approcher les régulateurs et les autorités civiles. Il est important pour les acteurs qui s’intéressent à la blockchain dans le secteur de la santé de comprendre la position des autorités sur cette technologie et sur son utilisation dans des contextes très réglementés. Par ailleurs, nous espérons pouvoir échanger avec les porteurs de la mission parlementaire en cours sur la blockchain afin d’y apporter la vision de l’industrie de la santé et mettre en lumière ces applications encore peu connues de la blockchain.

Propos recueillis par Matthieu Combe, journaliste scientifique

La géolocalisation : une technologie qui change le monde

Géolocalisation au cœur de l’histoire moderne

De l’astrolabe antique jusqu’au GPS d’aujourd’hui, en passant par la boussole, le sextant, le gyroscope et le satellite, les technologies de positionnement ont accompagné et même souvent initié le développement économique, scientifique et social tout au long de notre ère. Mais, il faut attendre que la physique quantique nous révèle les secrets de l’horloge atomique pour que le GPS initie le mouvement de démocratisation que nous connaissons aujourd’hui, et mette la géolocalisation à la portée du plus grand nombre. Les besoins exprimés par les utilisateurs ont aiguisé l’imagination des constructeurs de matériels ou les systémiers, assembleurs de sous-ensembles et développeurs de logiciels spécifiques.

Convergence technologique

Ces 20 dernières années, les technologies de positionnement se sont modernisées : certaines, déjà anciennes comme le gyromètre, l’accéléromètre ou le compas magnétique trouvent, grâce à la miniaturisation des composants et la baisse de leurs coûts, de nouvelles possibilités d’intégration, notamment dans les smartphones. D’autres comme les GNSS, le positionnement par WiFi, Bluetooth, réseau mobile, QR code, RFID ou NFC constituent de véritables ruptures technologiques. De nouvelles pistes s’ouvrent également dans le domaine de l’intelligence artificielle, comme le positionnement par reconnaissance d’image.

Mais ces technologies seules sont insuffisantes. Des plateformes performantes sont nécessaires pour les mettre en œuvre et les exploiter, avec notamment des systèmes d’exploitation multitâches et mobiles, l’explosion de la puissance de calcul disponible, le déploiement des réseaux mobiles haut-débit, ou la création et la mise à jour de cartographies numériques précises et exhaustives…

Impact sur la société

L’amélioration des performances des techniques de géolocalisation a été l’un des facteurs du déclenchement de la mondialisation et de l’émergence du capitalisme entrepreneurial moderne. Les développements récents des technologies numériques créent un contexte nouveau dans lequel la géolocalisation, historiquement cantonnée au voyage et au transport, est placée au cœur d’une explosion d’applications et de services inédits.

Cette révolution est comparable à celle qui a suivi la démocratisation de la mesure du temps. L’introduction de la montre portable, qui donne à tous l’accès à l’heure à la minute près, a modifié en profondeur la société et l’économie au 19e siècle. De même, le smartphone, support essentiel de la diffusion des technologies numériques, n’a que quelques années d’existence.

Mais on perçoit déjà que la géolocalisation s’insinue dans tous les processus de la vie sociale, économique et même privée des individus. Disponible à faible coût, à tout instant et en tout lieu, elle contribue à améliorer le confort, la sécurité, l’efficacité, la productivité et apporte de nouveaux services. En revanche, l’utilisateur n’a pas, ou peu conscience, des informations qui circulent et surtout n’a aucun contrôle.

Intimité et liberté d’action

Sommes-nous toujours maîtres de notre intimité et de notre liberté d’action ? Le débat déjà bien entamé au sujet des moteurs de recherche et de réseaux sociaux s’étend désormais à la géolocalisation. Le questionnement actuel sur l’indépendance et la neutralité d’internet montre bien la nécessité d’anticiper sur ces sujets. Les législations ne peuvent seules apporter la solution. La coopération industrielle et internationale a certainement un rôle à jouer dans la création d’une interface normalisée qui pourrait prendre la forme d’un « GeoCloud ». Celui-ci garantirait à la fois l’interopérabilité nécessaire, la transparence et le contrôle des données de géolocalisation dans le respect le plus absolu de la liberté et de l’intimité de leurs propriétaires et utilisateurs.

geolocalisation
Trafic sur GoogleMap mesuré par la position et le déplacement des smartphones des utilisateurs

 

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 30 septembre !

Applications de la géolocalisation- Une technologie qui change le monde, un article de Philippe Saint-Martin

Téléviseurs : après la 4K, la 8K !

L’IFA de Berlin, la grand-messe de l’électronique qui vient de fermer ses portes, permet de découvrir les appareils qui feront (peut-être) partie de notre quotidien dans les prochaines années. Si l’électroménager connecté était très présent sur des stands, c’est la 8 K qui a le plus retenu l’attention des visiteurs.

Après le choc visuel avec la HD, les définitions n’ont cessé d’augmenter. Ainsi, l’Ultra HD (3840 x 2160 pixels) – ou Quad HD (voire 4 K car assez proche du format cinéma et ses 4096 x 2160 pixels) – propose deux fois plus de lignes horizontales et verticales que la Full HD, soit quatre fois plus de pixels au total. Mais avec le 8K, nous passons dans une autre dimension : ce format a deux fois plus de lignes (toujours en verticale et horizontale) que l’Ultra HD.

Peu de contenus…

Mais il faut le voir pour le croire ! L’IFA a justement permis de constater la qualité des images en 8 K. Et il sera possible d’en profiter chez soi. Samsung a en effet créé la surprise en annonçant la commercialisation de trois téléviseurs Qled 8K. Les écrans Qled reposent sur l’insertion d’une couche de nanocristaux liquides entre l’écran LCD et le système de rétroéclairage LED.

Ils seront disponibles dès le mois d’octobre à des tarifs assez proches de ceux du Q9F (autour de 3200 €). Les téléviseurs Samsung Q900R embarquent une dalle VA 10 bits Qled 8K affichant une définition native de 7 680 x 4 320 px, soit quatre fois plus de pixels que l’Ultra HD.

Le géant coréen grille ainsi la politesse à Sharp qui a prévu d’en proposer en France début 2019. Seul problème, il n’y a pas de contenu grand public au format 8 K.

Même l’offre en 4 K reste encore limitée. Quelques chaînes de télévision en proposent. Des événements sportifs comme Roland Garros, mais aussi la Ligue Europa et la Ligue des Champions sur BT Sport en Angleterre et sur YouTube ont permis aux amateurs d’apprécier des détails encore plus fins.

Grâce à sa LaBox 4K et Decodeur Plus, deux équipements compatibles Ultra HD de SFR, les abonnés de cet opérateur peuvent regarder les contenus en 4 K de Netflix parmi lesquels House of Cards, Unbreakable Kimmy Schmidt, Master of None ou encore Bloodline. À condition, qu’ils soient abonnés à la fibre optique.

Pour profiter de la 4 K, il faut donc compléter l’achat d’une TV par un lecteur Blu-Ray (mais il faudra aussi acheter des Blu-Ray) ou une console de jeu comme la Xbox One X ou la PS4 Pro.

Faute de source 8K, Samsung s’appuie sur son propre moteur pour faire de l’upscaling. L’objectif de cette astuce, qui n’est pas récente, doper le contenu en pixels. Le Coréen s’appuie donc sur son moteur 8K IA Upscaling pour effectuer une mise à l’échelle assez fidèle des contenus SD, HD, Full HD et Ultra HD.

Pour les ménages accros aux belles images, il faudra aussi acheter un câble HDMI 2.1. Validée prochainement, cette norme supporte une bande passante maximale de 48 Gb/s (2,6 fois plus que le HDMI 2.0 limité à 18 Gb/s). Cela permet de transporter des flux vidéo 8K à 60 Hz (60 i/s), et même 4 K à 120 Hz.

Ces différentes limites expliquent le peu d’intérêt des Français. Selon Gfk, 50 % des ménages seulement seront équipés d’une TV UHD 4K d’ici… fin 2020. Quant au 8K, ce seront d’abord des professionnels de l’image qui pourront l’apprécier.

Philippe Richard

En Suisse la route solaire de Jospin constitue une sérieuse rivale de celle de Royal

Jospin n’a a priori aucun lien avec l’ancien premier ministre socialiste français. Et encore moins avec l’ex-ministre de l’écologie Ségolène Royal. Cet ingénieur suisse basé à La Chaux-de-Fonds, une ville du canton de Neuchâtel, a déclaré le 11 septembre 2018 à la Radio Télévion Suisse (RTS) que le concept de solaire routier constitue une « illusion ». Et ceci que ce soit dans ses versions américaine (« Freeking roadway »), hollandaise, française (« Wattway ») ou encore chinoise (« Pavenergy »). Ségolène Royal voulait en faire installer 1000 kilomètres sur l' »autoroute du soleil » en France. Mais même avec le faible trafic d’une route rurale située devant un collège de Vendée à Bellevigny, elle n’a tenu la route que 18 mois. Elle a dû être retirée.

Jospin propose un projet pilote près de Fully, une commune suisse du canton du Valais située dans le district de Martigny. Couvrir d’une toiture solaire une autoroute sur 1,6 kilomètre de long et près de 44 mètres de large. Une surface de 70.000 mètres-carrés pour un investissement de 44,5 M€ (50 millions de francs suisses), soit 635 euros le mètre carré, raccordement compris. Contre 5 M€ pour 2800 mètres-carrés dans le cas de la route solaire normande de Ségolène Royal, soit 1785 €/m2 (sans compter le coût du raccordement par Enedis).

autoroute

Contrairement aux projets initiés et fortement promus par Ségolène Royal dans les médias français le projet suisse est 100% privé, il ne fait pas du tout appel à de l’argent public. Y compris pour le projet pilote. Couvrir les autoroutes avec une toiture solaire permet de réduire le niveau de bruit de 5 à 8 décibels. Cette perspective est très appréciée par les riverains qui souffrent de la pollution sonore. Cette toiture pourrait également retenir une partie de la pollution en particules fines qui pourraient venir adhérer à la surface inférieure de la toiture. En France la Vallée de Chamonix en souffre.

La production de l’autoroute solaire suisse sera de 19 GWh par an selon l’estimation réalisée par l’équipe de Jospin. Cette estimation est facile à faire étant donné qu’il s’agit de solaire standard. Elle est très solide. Cela correspond à 271 kWh par mètre-carré et par an. La route solaire Wattway normande a de son côté produit 53 kWh par mètre carré et par an en 2017, soit 5 fois mois. La route solaire de Boulogne (Paris) n’aurait de son côté produit que 25 kWh par mètre-carré et par an.

Un kWh 900 fois moins coûteux que celui de la route solaire de Bellevigny en Vendée

Par conséquent la route solaire normande correspond à un investissement d’un montant trois fois plus élevé pour une production annuelle 5 fois (voire même 10 fois) plus faible. Un facteur 3 x 5 = 15 de différence, ce qui a un impact direct au niveau du coût de production du kWh obtenu. Si l’on intègre le fait que la durée de vie de la route solaire sera plus courte que le solaire standard pour des raisons physiques de base, cela creuse encore l’écart. La route solaire de Bellevigny en Vendée n’a duré que 18 mois.  Une centrale solaire standard dure 30 ans. D’où un facteur 20 de différence. Le facteur global intégrant l’ensemble des paramètres devient monstrueux: 15 x 20 = 300. A noter que la route solaire de Bellevigny (de taille modeste) a coûté environ trois fois plus cher au mètre carré que celle de Normandie, pour des raisons d’échelle. Le facteur global de différence est ainsi en réalité de 900. Est-il permis d’émettre des doutes concernant l’intérêt pédagogique d’un tel projet ? La densité de puissance des panneaux Wattway est particulièrement faible. Probablement pour éviter la surchauffe. Une toiture photovoltaïque est à l’inverse correctement ventilée, ce qui est rafraîchissant.

Sur le plan paysager la toiture solaire autoroutière cache les véhicules.  Vue depuis les montagnes avoisinantes elle apparaît tel un long ruban bleuté, qui ressemble à un fleuve. Ou à un serpent, selon l’architecte suédois Måns Tham qui en 2016 avait rencontré à ce sujet Maud Fontenoy, vice-présidente de la région PACA. Ce concept avait séduit une association de riverains du projet de rocade marseillaise dite « L2 », association qui avait d’ailleurs écrit à l’état sur ce thème. Sans obtenir de réponse. La Suisse, elle, va probablement passer à l’action: la société Servipier fondée par Jospin a obtenu un premier feu vert de l’Office fédéral des routes (OFROU). Et les collectivités locales sont favorables au projet.

Si le projet-pilote (un seul suffit pour tester le concept, inutile d’en faire une centaine) s’avérait concluant, ce ne sont pas moins de 40% du kilométrage des autoroutes suisses qui pourraient bénéficier de ce système selon les études menées par l’équipe de Jospin. Soit 750 kilomètres, en évitant les secteurs trop sinueux.  Sachant qu’un kilomètre d’autoroute suisse permet de produire environ 12 GWh par an, le potentiel est appréciable: 9 TWh par an. Soit l’équivalent de ce que produisent deux réacteurs nucléaires.

Le concept est très prometteur pour les pays froids (pays scandinaves, Russie, Canada etc.) car il élimine l’enneigement. La neige perchée sur un toit fond plus vite qu’au sol et d’ailleurs la circulation automobile dans un pseudo-tunnel chauffe l’air, ce qui contribue à accélérer la fonte. La structure prévue par Jospin est capable de porter la neige suisse. Il suffira d’attendre qu’elle fonde, nul besoin de l’enlever. Plus besoin de saler ou de chauffer les autoroutes. Le concept est également très prometteur aussi pour les pays à très fort ensoleillement car le rayonnement solaire abîme les routes et écourte leur durée de vie. D’où d’importantes économies en perspective pour le Brésil, l’Inde, les pays du Moyen-Orient et du Maghreb.

Jospin montre qu’il est possible de faire à la fois du solaire performant, de ne pas gaspiller les terres agricoles et d’économiser les besoins en matériaux routiers. En même temps.  De quoi mettre sans dessus-dessous les vendeurs de bitume. C’est «un projet auquel nous pensons depuis longtemps, Solar Linear Canopy» a déclaré la société française Vertsun SAS spécialisée dans le photovoltaïque, basée à Chasseneuil du Poitou et fondée par le polytechnicien David Dornbusch, président de l’association Cleantuesday. «C’est plus qu’une alternative» au concept promu par Ségolène Royal. «C’est la solution sérieuse» estime Vertsun. Jospin rappelle que «d’autres gens se sont posés la même question. Au Japon, aux Etats-Unis et même en Suisse. L’EPFL avait eu un projet il y a quelques années de cela qui portait le nom Tunhelios (…) Maintenant je pense qu’on a une chance réelle d’y arriver, alors que nos prédécesseurs prenaient les choses vraiment par le mauvais bout du point de vue de l’ingénieur.»

«On a vu des images assez impressionnantes de route solaire en Chine, avec des voitures qui roulent sur des panneaux, vous vous voulez placer les panneaux au-dessus des voitures, pourquoi avez-vous choisi une option plutôt que l’autre ?» interroge le journaliste de RTS. «Le problème est que la surface, le revêtement, est l’endroit où il se passe tout: du point de vue de la sécurité, du point de vue du trafic…» a répondu Jospin. «C’est quasiment impossible d’obtenir les performances du bitume et terme de sécurité de freinage, de traction, de résistance à l’usure, etc., et de produire de l’énergie. En plus la route elle bouge, vous ne le remarquez pas, en fonction de l’humidité du terrain, des températures. Et l’électricité supporte très mal ces mouvements. C’est selon moi une illusion de pouvoir utiliser le sol même» tranche l’ingénieur.  «Cela fait longtemps que des gens en parlent, il y a eu un projet qui a levé beaucoup d’argent aux Etats-Unis et que vous retrouvez sur Youtube il s’appelle « solar freeking roadways », allez voir la vidéo. Si vous faîtes une petite recherche il y a un ingénieur américain, collègue à nous, qui a expliqué dans le détail pourquoi cela n’est pas possible et pourquoi cela n’est pas durable. Vous pouvez toujours mettre en route quelque chose, mais ce n’est pas durable. Notre solution à nous est durable sur le plan de la production d’énergie et on a des avantages annexes comme la réduction du service hivernal et la réduction du bruit pour le voisinage

Ségolène Royal aurait-elle peur que le ciel lui tombe sur la tête ?
Contrairement à ce qu’annonçait le 1er avril 2018 le site Actu.fr, la station spatiale chinoise ne va pas « tomber sur la route solaire de Tourouvre en Normandie ». C’est au final une autoroute solaire suisse qui arrive. Selon un proverbe de la confédération suisse « un petit homme peut jeter une grande ombre ».

Laurent Jospin est membre-fondateur du Parti Vert’libéral suisse.

Jean Gabriel Marie

ArevaH2Gen demande que l’électricité nucléaire soit bradée pour produire de l’hydrogène en France

L’hydrogène obtenu par électrolyse avec un rendement de 70% (sans intégrer la compression du gaz) servira notamment à faire rouler des véhicules équipés d’une pile à combustible à base de platine et dont le rendement est inférieur à 50%. Dans le département de La Manche, où sont implantées la centrale nucléaire de Flamanville et l’usine de retraitement des déchets radioactifs de la Hague, un projet de 20 vélos à hydrogène a bénéficié de subventions totalisant un montant de plus de 700.000 euros. La Ville de Pau veut de son côté faire rouler 8 bus à hydrogène subventionnés à plus de 50%.

Le coût du kilo d’hydrogène obtenu par électrolyse dépend en grande partie du prix de l’électricité (OPEX), et bien moins du coût des électrolyseurs (CAPEX). La baisse considérable du coût des électrolyseurs ces dernières années a donc un impact limité sur le coût de l’hydrogène. Tout comme subventionner les électrolyseurs. D’où la demande d’AREVAH2Gen d’autoriser la vente au rabais de l’électricité nucléaire.

En revanche, selon le fondateur de l’agence Bloomberg New Energy Finance (BNEF) utiliser les surplus d’électricité solaire et éolienne pour produire de l’hydrogène n’est pas pertinent économiquement, même avec de l’électricité gratuite. Faire tourner des électrolyseurs que quelques centaines d’heures par an n’est pas rentable. Cette électricité en excès peut d’ailleurs servir pour charger de façon intelligente et avec une haute efficience les batteries des véhicules électriques dans le cadre du V2G/G2V (Vehicule-to-grid / Grid-to-vehicule). Une étude publiée cet été par le cabinet Artelys montre que le potentiel de cette approche est vraiment très important.

Une autre approche pour baisser le coût de l’hydrogène consiste à produire de l’électricité très bon marché grâce à des centrales solaires construites dans des régions de la planète bénéficiant d’un important ensoleillement. Par exemple dans les déserts du Sahara, d’Atacama au Chili, ou d’Australie. Puis à exporter l’hydrogène obtenu (directement ou sous forme d’ammoniac). Plus l’insolation est importante, plus le coût du kWh électrique est bas. Mais il faut de l’eau pour faire fonctionner les électrolyseurs, une ressource qui est par définition très rare dans les secteurs désertiques…Ces centrales pourraient d’ailleurs contribuer à un réchauffement régional selon plusieurs études scientifiques. Sans parler des aspects de géopolitique et d’autonomie / résilience énergétique.

Durant son interview le PDG d’AREVA2Gen a estimé qu’il n’y a pas de modèle économique pour le power-H2-power (du fait de son rendement  médiocre), autrement dit de produire l’hydrogène par électrolyse puis de l’utiliser à nouveau pour générer à nouveau de l’électricité quand c’est nécessaire: «En termes de stockage, le rendement de l’électrolyse est de 70%. Alors oui, c’est moins bien que les batteries (…) Pour ce qui est de réinjecter de l’électricité dans les réseaux en utilisant une pile à combustible, le rendement n’est que de l’ordre de 50%. On arrive au final avec 35% de l’énergie avec laquelle on est parti, donc il n’y a pas de modèle économique.» Autrement dit les projets misant sur l’hydrogène pour faire du stockage saisonnier de l’énergie solaire n’ont selon AREVA2Gen pas de sens sur le plan énergétique et donc économique. Ce type de stockage commencera à devenir nécessaire en France que quand le solaire + éolien aura dépassé le niveau de 60% dans le mix électrique national, ce dont nous sommes encore loin selon la directrice du CEA-Liten. L’équation économique est différente dans les régions (par exemple en Guyane) où l’électricité est très chère. Les projets à base d’hydrogène provenant de l’électrolyse photovoltaïque peuvent avoir du sens dans ce contexte très particulier.

Le marché de la mobilité est donc aujourd’hui vital pour la filière hydrogène. D’où l’important bruit médiatique autour de projets comme « Hype » (le bien nommé), des taxis à hydrogène au cœur de Paris. Problème: pour de très nombreux analystes, dont ceux de BNEF, les véhicules à hydrogène n’ont tout simplement aucun sens, ni sur le plan énergétique, ni sur le plan économique. Ils ne peuvent émerger (avec difficulté), que dans les pays aux subventions très généreuses.

Jean-Gabriel Marie

Agroalimentaire : les ondes radio éradiquent les nuisibles

Fin juin, le « Quotidien des sciences et technologies », journal scientifique chinois, relatait que l’Académie des sciences agricoles du Xinjiang a mis au point un dispositif qui tue les insectes nuisibles à l’aide de radiofréquences, permettant de prolonger la période de stockage des noix et des fruits secs de plus d’un an. Le traitement permet de tuer à la fois les insectes et les œufs sans recours à aucun traitement chimique complémentaire. Le dispositif peut traiter 300 kg de noix en une heure et n’affecte pas la qualité des fruits. La région autonome Ouïgoure du Xinjiang, dans l’extrême nord-ouest de la Chine, où le traitement est mis en place, est particulièrement intéressée : depuis le début des années 2000, la province s’est lancée dans un vaste programme de développement de l’industrie des noix atteignant aujourd’hui plus de 300 000 ha de plantations. Trouver une alternative aux pesticides employés pour se protéger des mites et autres insectes nuisibles qui s’attaquent aux noix une fois récoltées est un élément clé d’un développement plus durable tant pour les travailleurs, les habitants, pour l’environnement que pour s’ouvrir des marchés internationaux sur lesquels de plus en plus de substances chimiques sont interdites. En effet, il a longtemps été courant de traiter les insectes et larves nuisibles aux denrées alimentaires par fumigation. C’était simple, pas cher et efficace. Mais à présent, de nombreux pays ont banni les substances utilisées. Il faut donc trouver des solutions alternatives et les radiofréquences (RF) peuvent être un choix pertinent.  chaleur au sein de l’aliment et en cherchant le meilleur compromis entre préservation des qualités

Chauffer reste la clé

La majorité des techniques de préservation utilisées par l’industrie agroalimentaire pour garantir des aliments sans danger avec des durées de vie étendues s’appuient sur des process thermiques qui inactivent les bactéries, les insectes ou les enzymes. On fait généralement subir aux aliments des hautes températures via des bains de vapeur, d’eau ou d’air selon les propriétés de diffusion de la chaleur au sein de l’aliment et en cherchant le meilleur compromis entre préservation des qualités nutritionnelles et gustatives et assurance que le procédé a atteint son but. Des alternatives aux procédés parfois destructeurs sont sans cesse recherchés et l’utilisation des radiofréquences dans ce but a fait l’objet de nombreux travaux depuis plus de 20 ans (voir cet article de l’Annual Review of Food Science and Technology – 2018). Le chauffage par radiofréquences, qui utilise des ondes électromagnétiques comprises entre 1 et 100 MHz permet de chauffer de manière rapide et en profondeur les aliments. Adoptées pour le bois, les textiles, ou l’industrie papetière et pour de rares applications agroalimentaires (biscuits notamment), les radiofréquences n’ont pas réussi jusqu’à maintenant à s’imposer plus avant pour l’alimentation, même si elles présentent des atouts. En effet, dès 1996 on s’aperçoit que les insectes, œufs et larves ont des propriétés diélectriques telles que l’on peut jouer sur l’intensité des champs électromagnétiques pour atteindre les uns sans altérer les autres. Cependant, les RF sont restées peu utilisées. Principalement pour des raisons économiques et logistiques : trop coûteux lorsque les volumes sont très importants comme pour les grains et peu compétitifs pour des produits que l’on peut étaler et traiter facilement à l’air chaud. Les radiofréquences deviennent intéressantes pour des espaces limités (pour le séchage des biscuits, cela permet par exemple de réduire la taille de la ligne de fabrication de 30 à 40%) ou pour des produits à haute valeur ajoutée qui réclament des standards de qualité organoleptiques très hauts. Les recherches sur l’association air chaud/ RF, qui en théorie est une solution idéale, se sont pour l’instant heurtées au fait que les deux méthodes nécessitent des conditions ou des équipements difficilement compatibles.

Pertinence pour la désinfestation

Parmi les chercheurs qui se sont accrochés à l’idée que les radiofréquences pourraient être utiles dans le secteur agroalimentaire, on peut citer Shaojin Wang, professeur des deux côtés du Pacifique, en Chine (Northwest A &F University – Yangling) et aux Etats-Unis (Washington State University – Pullman). Depuis plus de 15 ans, il s’est spécialisé sur ce sujet et est à la source de nombreuses avancées, tant au niveau des connaissances que de leurs mises en pratique. Dès le début des années 2000 il défriche l’utilité des radiofréquences pour la désinfestation des noix et fruits secs. Certains chercheurs, principalement aux Etats-Unis et en Chine, s’attellent à un long travail pour établir les plages adéquates selon les denrées et les nuisibles en fonction de la température de traitement et les différents stades d’évolution des nuisibles, puis à opérer les premiers essais sur des équipements à l’échelle industrielle et sur l’uniformisation du procédé (grâce à des outils de simulation numérique). Il est ressorti que les RF sont particulièrement adéquates pour les fruits secs, les noix et les grains en raison de l’insensibilité de ces denrées à la chaleur, comparé aux fruits frais et aux légumes.

Les travaux ont montré que l’on pouvait atteindre une efficacité de 100 % sans altérer les produits, prouvant son potentiel pour des applications industrielles, y compris à un coût totalement abordable pour des noix par exemple. Pour autant, les systèmes ou machines utilisant les RF sont peu commercialisés et dans la plupart des cas, quand elles sont employées, elles sont mises en place au sein de compagnies privées qui ne communiquent pas sur leurs installations. L’annonce chinoise de cet été est marquante aussi à ce titre.

Sophie Hoguin

Les métiers de la Chimie, un engagement pour l’UIC IdF

Ainsi, depuis 2003, à l’initiative de l’UIC Île-de-France, plus de 90 000 jeunes sont venus rencontrer de très nombreux professionnels, les Professeurs et Responsables de toutes les écoles et Universités enseignant la Chimie et écouter des conférences passionnantes animées par des scientifiques de haut niveau.

Un grand nombre d’entreprises issues des industries chimiques ou d’autres secteurs d’activité se sont mobilisées pour expliquer leurs métiers et proposer aussi des emplois et stages disponibles.

Des partenariats ont été mis en œuvre avec la Société Chimique de France (SCF), Universcience, la Fondation de la Maison de la Chimie, le Collège de France et l’Académie des Sciences permettant la présence renforcée de scientifiques reconnus au-delà de nos frontières.

Le « Village de la Chimie des Sciences de la Nature et de la Vie » est devenu un lieu d’échanges privilégié entre les écoles, le monde de l’entreprise et nos grands scientifiques au bénéfice de l’emploi des jeunes et l’apprentissage.

Annee-de-la-Chimie_small La prochaine édition du « Village de la Chimie des Sciences de la Nature et de la Vie », inscrite dans « l’Année de la Chimie de l’Ecole à l’Université » sera organisée  les 15 et 16 février 2019 à la Cité des Sciences  et de l’Industrie et nous avons besoin de vous pour continuer notre mission commune afin d’apporter aux jeunes les moyens de construire leur avenir professionnel.

Pour tous ceux qui partagent cet engagement, associez-vous sans tarder à cette belle aventure en retournant le formulaire d’inscription ci-dessous à [email protected]

 

Hypertrains : des vitesses en berne ?

Virgin Hyperloop One fanfaronnait en décembre à 387 km/h et  les étudiants allemands de l’université technique de Munich, avec leur équipe WARR Hyperloop ont atteint 457 km/h fin juillet 2018 lors de la compétition annuelle organisée par Space X sur sa piste de 1300m. Ainsi, même si c’est 50 % mieux que l’an dernier c’est encore en dessous des 574 km/h d’un TGV d’essai en 2007, des 501 km/h du Transrapid de Shanghai (véhicule de série) en 2003 ou encore des 603 km/h du JR-Maglev en 2015 (train à sustentation magnétique japonais).

Un point que les détracteurs de l’Hyperloop n’ont pas manqué de souligner : le concept d’origine et l’engouement qu’il a suscité s’appuyait en grande partie sur cette vitesse supersonique.

Que reste-t-il d’un mode de transport qui irait deux fois moins vite que prévu ?

Peu importe, répondent ceux qui y croient, nous atteindrons les vitesses supersoniques en 2030 au lieu de 2020 et, en attendant, nous aurons progressé sur toutes les autres technologies nécessaires.

Hyperloop-speed-test-comparison-chart

Par Sophie Hoguin

Hypertrains : des Chinois qui ne sont pas en reste

Le journal China Daily rapporte que des chercheurs de l’université de Jiaotong du sud-ouest* de Chengdu (province du Sichuan) travaillent sur un prototype de transport ferroviaire par tubes qui devraient voir le jour d’ici à avril 2021. Un projet qui vient s’ajouter à celui, faramineux annoncé par le groupe aérospatial public Casic l’an dernier où les capsules pourraient, à terme, atteindre les 4000 km/h…

Le 30 août 2017, la CASIC (China Aerospace Science and Industry Corp), l’un des principaux industriels du secteur spatial chinois a en effet annoncé avoir lancé la R&D pour le développement d’un système de transport ultra-rapide de type hyperloop pouvant atteindre à terme les 4000 km/h grâce à un vide total dans les tunnels. Baptisé HyperFlight, les capsules voyageraient dans des tunnels aériens ou souterrains et le réseau serait hiérarchisé en trois niveaux : un réseau régional utilisant des vitesses de 1000 km/h, un réseau national à 2000 km/h et un troisième, international à 4000 km/h. La CASIC aurait déjà déposé plus de 200 brevets sur ses recherches en cours.

Spacetrain, le monorail français hyper-rapide : le projet devient concret

Indéniablement, la communication autour des projets d’Hyperloop a mis en avant le besoin de liaisons à grande vitesse innovantes pour relier les villes et les pays. Les initiatives Hyperloop ont aussi souligné le fait que de nombreux acteurs étaient prêts à y investir de l’argent. Y compris sur des projets dont la faisabilité technologique n’est pas encore avérée.

Et la France semble particulièrement attractive pour ces innovations. Non seulement elle accueille deux des plus grands projets Hyperloop (Hyperloop TT à Toulouse et Transpod en Limousin), mais elle est aussi le berceau d’un projet alternatif : le Spacetrain.

L’héritier de l’Aérotrain

Le principe de fonctionnement du Spacetrain est directement issu de l’Aérotrain conçu par Jean Bertin dans les années 1960. Si les prototypes de l’Aérotrain n’avaient pas pu convaincre en raison de la concurrence des projets de TGV et de certaines contraintes techniques de l’époque concernant notamment la propulsion, aujourd’hui, le Spacetrain est en mesure de proposer une solution viable de transport hyperrapide. Depuis le début de l’aventure du Spacetrain en 2016, porté par l’entrepreneur Emeuric Gleizes, le projet a bien évolué. A l’origine présenté pour se déplacer dans des tubes, le Spacetrain sera finalement à l’air libre : les obstacles techniques – notamment l’échauffement – étaient trop important pour poursuivre dans cette voie. Du coup, les vitesses ont été revues à la baisse plutôt 500 km/h que 1000km/h, mais rien de plus ni de moins que les projets Hyperloop actuels. En contrepartie le coût est aussi largement revu à la baisse : il est aujourd’hui évalué à 8 millions d’euros au kilomètre (en comptant la construction de la ligne, la consommation énergétique, la navette et l’entretien régulier de l’infrastructure). Un net avantage par rapport au TGV (20 à 30M€) ou à d’autres technologies en développement (50M€).

Côté technologique on devrait donc avoir une navette autonome qui circule sur une voie dédiée, en T inversé. Portée par des coussins d’air pour réduire les frottements, elle sera propulsée par des moteurs à induction linéraires alimentés par des piles à combustibles à hydrogène. La vitesse de pointe devrait approcher les 720 km/h mais la circulation commerciale sera certainement plus proche des 500 km/h de moyenne.

Etat, collectivités et acteurs privés intéressés

Depuis juin 2018, le projet Spacetrain est à présent à la recherche de partenaires technologiques et financiers, pour entamer la phase 2 de son développement. Fonctionnant pour l’instant sur fonds propres, la start-up a lancé au début de l’été un appel pour une levée de fond de 30 millions d’euros. En effet, après 18 mois d’études de faisabilité, les premiers contacts avec les services de l’État et des acteurs privés et la validation des principaux choix technologiques, la phase de prototypage peut démarrer. Spacetrain n’a d’ailleurs pas attendu la signature de nouveaux partenariats pour entamer la construction d’une première navette à taille réelle de 25m pouvant accueillir 60 passagers. A terme, le projet prévoit un véhicule accueillant entre 140 et 260 passagers.

La start-up espère pouvoir effectuer les tests de circulation de cette navette à échelle 1 sur l’ancienne voie de l’Aérotrain, située près d’Orléans, entre Ruan et Saran. Cette voie de monorail expérimentale de 18 km est bien conservée. Aujourd’hui coupée en deux par le passage de l’autoroute, les premiers tests pourraient ainsi se faire sur quelques 9km, moyennant un investissement relativement modeste. La réponse institutionnelle est attendue d’ici à la fin de l’année. Cette initiative industrielle française a déjà reçu de nombreuses marques de soutien et d’intérêt. De l’État lui-même, avec lequel Spacetrain aurait eu «  de nombreux échanges pour créer un référentiel à l’image de la SNCF, pour cadrer les conditions de circulation de la navette sur coussins d’air. » selon le magazine Tourmag. Mais aussi avec des laboratoires de recherches universitaires (université Paris-Orléans), déjà partenaires, ainsi que de collectivités ou de gros industriels qui s’intéressent de près au projet, même si aucune annonce officielle n’a encore été faite. Spacetrain espère pouvoir faire rouler sa première navette vers 2020-2021 pour une première commercialisation en 2025. Le projet industriel va d’ailleurs au-delà, visant en France à occuper les voies abandonnées de la SNCF pour désenclaver les régions de manière économique, durable et moderne.

Une filiale dans une entité d’innovation

Spacetrain est une filiale de la société Jacques Vaucanson (du nom de l’inventeur du XVIIIème) spécialisée dans la recherche et le développement de systèmes robotiques autonomes. Née en 2017 sous la houlette d’Emeuric Gleizes, elle travaille sur plusieurs innovations destinées aux industries aéronautiques, spatiales, maritimes, médicales et pétrolières. Les deux principales réalisations à venir sont une caméra aérienne sphérique équipée d’un lidar et munie d’une vision à 360° (la « Flyball ») et une gamme de masque anti-pollution (Air/R) dotés de capteurs permettant une réduction de 99% des polluants dans l’air inspiré.

Vidéo : Spacetrain en 1 minute :

En savoir plus : space-train.fr

Sophie Hoguin

Livre : « Nous voulons des coquelicots »

Le lendemain de la marche pour le climat et la biodiversité, l’état français a décidé de réprimer les protecteurs de l’environnement qui s’opposent à la construction d’une autoroute en Alsace (projet GCO) qui menace une forêt. La député écologiste Karima Delli a été gazée et est tombée inconscience suite à la violence de l’agression. L’abattage d’arbres a commencé quelques heures après. L’association Alsace Nature a filmé la scène.

arton15456-545db

«Ceci n’est pas un livre. C’est un manifeste. Celui de la vie, des coquelicots dans les champs de blé, des oiseaux au bord du chemin, des abeilles» écrivent Nicolino et Veillerette.  «Une véritable Apocalypse les fait disparaître par milliers, par millions, par milliards, et tout le monde connaît le nom des coupables : les pesticides. Une industrie devenue folle détruit tout ce qui nous est cher, jusqu’à notre santé, et l’heure n’est plus à la discussion de salon. Il faut se lever, ensemble, dans un soulèvement pacifique de toute la société. Ce monde qui s’efface est le nôtre et chaque couleur qui  succombe, chaque lumière qui s’éteint est une douleur définitive. Rendez-nous nos coquelicots !  Rendez-nous la beauté du monde !»

Aux arbres citoyens ! Les deux auteurs appellent au réveil: «Le texte que vous allez lire annonce que l’heure est venue de relever la tête après tant de coups reçus. Car c’est l’heure, et elle ne reviendra peut-être pas. Lecteur, c’est à toi que ce livre qui n’est pas un livre s’adresse. A toi. Veux-tu continuer à nourrir les tiens avec des aliments frelatés ? Veux-tu vivre sans le chant de l’alouette ou le violon des cigales ? Une société vivante a le droit et de le devoir de rappeler à ses maîtres provisoires ce qu’elle veut. Et ce qu’elle ne veut plus.»

L’Appel des coquelicots commence.
Publié par Les Liens qui libèrent.

Jean Gabriel Marie

Virgin Hyperloop One s’installe en Andalousie

La société est à ce jour la seule à avoir présenté à la fois une capsule de transport de passagers et une capsule de fret et à avoir testé tous les composants de ce nouveau système de transport  à l’échelle réelle : le sas, le moteur électrique, les commandes avancées et l’électronique, la lévitation magnétique et le système de guidage, la suspension de la capsule et le vide. Ainsi, la dernière phase de test de décembre 2017 où la capsule a atteint la vitesse de 387 km/h a été menée dans un tube dépressurisé à une pression atmosphérique équivalente à celle trouvée à 60 km au-dessus du niveau de la mer.

Plus tôt en 2018, Virgin Hyperloop One avait annoncé un accord-cadre pour développer l’Hyperloop en Inde entre Pune et Mumbai (Bombay) dans l’État du Maharashtra. L’Américain s’apprête maintenant à poser ses valises en Espagne. Le projet à plus de 500 millions d’euros couvre la construction du centre de tests et de développement des technologies avancées de Virgin Hyperloop One dans le village de Bobadilla (province de Malaga) : 19 000 mètres carrés qui doivent ouvrir pour 2020 et accueillir 2 à 300 salariés hautement qualifiés. Ce centre sera en charge « du développement, des tests et de la certification des composants et sous-systèmes de l’Hyperloop afin de continuellement en améliorer la sécurité, la performance et la fiabilité », annonce ainsi le communiqué de presse. Cette installation prend place dans un écosystème local qui comprend plus de 9000 entreprises du transport et de la logistique et qui représente le deuxième plus grand cluster aérospatial d’Espagne, employant près de 20 000 personnes dans la R&D. Un environnement qui n’est pas sans rappeler celui choisi par son principal concurrent, Hyperloop TT.

Hyperloop-One-pod

Par Sophie Hoguin

Arrivo surfe sur la vague Hyperloop pour placer sa technologie

Le californien Arrivo, fondé en 2016 par Brogan BamBrogan, l’ex-cofondateur d’Hyperloop One et transfuge de Space X, a transformé son projet initial d’Hyperloop en un système de transport mêlant la technologie des trains à sustentation magnétique, un système de capsule et l’objectif premier des autoroutes. Exit donc les tubes sous vide onéreux et difficiles à maîtriser. Place à un concept qui s’appuie sur des technologies déjà testées et qui peut s’insérer plus facilement dans les infrastructures déjà existantes. A la place, Arrivo propose donc la construction de voies de circulation ultra-rapides (plus de 300km/h), sur lesquelles circulent des capsules pouvant embarquer des petits véhicules ou du fret. Ces capsules propulsées comme les trains Maglev, empruntent des voies dédiées qui traversent les centre-villes pour désengorger les périphéries des grandes agglomérations. Avantages directs : le reste de la circulation est plus fluide, la pollution baisse drastiquement et les conducteurs peuvent se reposer.

Le projet Denver

En novembre 2017, Arrivo a signé un accord avec la ville de Denver (Colorado) pour tester son système en grandeur nature. Le calendrier prévoit la construction d’une piste d’essai dès 2018 et une mise en service effective d’ici 2021. La voie d’Arrivo longerait l’autoroute E-470 (voire elle pourrait occuper une voie dans chacun des sens) qui relie le nord et le sud de la ville et dessert l’aéroport principal. Le trajet passerait alors de 35 à 70 mn actuellement à 10 minutes. Les projections prévoient que cela permettrait de décupler le trafic : le débit passerait de 2500 véhicules par heure à 20000. L’investissement total est évalué à 10-15 millions de dollars. Bref, et d’ailleurs il s’en cache à peine, Brogan BamBrogan surfe sur l’image attractive de l’Hyperloop d’Elon Musk pour lancer une technologie déjà bien en vogue en Asie en l’adaptant pour en faire un mode de transport plus personnalisé et autonome. Le projet paraît dans tous les cas beaucoup plus réaliste dans les délais impartis. Arrivo a en outre affirmé qu’il avait de nombreux autres projets dans d’autres régions.

Un placement en Chine

La société californienne ne s’est pas contentée de prospecter le sol américain. L’entreprise de Los Angeles a aussi commencé à placer des pions en Chine. Mais de manière beaucoup plus discrète et moins engageante qu’Hyperloop TT. Fin juillet 2018, Arrivo annonçait ainsi avoir provisionné 1 million de dollars dans Genertec America Inc. pour concevoir, fournir et construire des projets qui utilisent ses technologies. Genertec est une filiale d’une entreprise d’État chinoise à Pékin, déjà investie dans des projets d’infrastructures comme des autoroutes ou des trains à grande vitesse, des centrales électriques ou des stades en Chine et à l’international. Cet investissement illustre la stratégie d’Arrivo qui se concentre sur la commercialisation d’une technologie et laisse à des partenaires le soin de s’occuper des autres aspects comme le financement final et le montage du projet.

Sophie Hoguin