Réalité virtuelle et augmentée : les opportunités d’emploi

Entre 2016 et 2017, le nombre d’offres d’emploi diffusées par l’Apec dans le champ de la réalité virtuelle et de la réalité augmentée a été multiplié par 1,8, passant de 470 à 843 offres. Au total, ce sont 1 313 offres d’emploi qui ont été publiées, sur deux ans, par des entreprises recherchant des compétences et proposant des missions en lien avec les technologies de la réalité virtuelle et/ou la réalité augmentée (développement de logiciel, design, vision par ordinateur, environnement 3D…).

La moitié des offres concernent le secteur informatique

Sur l’ensemble des années 2016 et 2017, 50 % des offres d’emploi dans le domaine de la réalité virtuelle et augmentée ont été publiées par des entreprises implantées dans les activités informatiques. Les entreprises et cabinets d’ingénierie et de R&D sont les deuxièmes pourvoyeurs d’offres d’emploi avec 25 % des offres publiées sur ces technologies. Les sociétés de conseil et de gestion des entreprises représentent quant à elles 13 % des recruteurs. Enfin, 8 % des offres ont été émises par des entreprises industrielles, principalement spécialisées dans les équipements électriques et électroniques.

L’île-de-France concentre plus du tiers des offres d’emploi

En 2016-2017, 37 % des offres d’emploi en lien avec la réalité virtuelle et augmentée ont été émises par des entreprises basées en Île-de-France. En effet, le bassin d’emploi parisien concentre plus de 40 % des offres d’emploi du secteur informatique, puisque bon nombre d’ESN (entreprises de services du numérique) et start-up du numérique y sont implantées. Arrivent ensuite les entreprises situées dans les Pays de la Loire, qui sont à l’origine de 12 % des offres d’emploi. En effet, dans le cadre de la stratégie régionale d’innovation intelligente 2014-2020, les Pays de la Loire accompagnent l’émergence de nouveaux champs d’innovation, tels que l’informatique et l’électronique professionnelle dont les réalités virtuelle, augmentée et mixte. Enfin, trois régions concentrent chacune près de 10 % des entreprises qui recrutent dans le domaine de la réalité virtuelle et augmentée : Provence-Alpes-Côte d’Azur, Auvergne – Rhône-Alpes et Occitanie.

La moitié des offres s’adressent à des candidats confirmés

En 2016, 50 % des entreprises ayant souhaité recruter dans le champ de la réalité virtuelle et augmentée étaient à la recherche de candidats expérimentés, ayant un niveau d’expérience dit « confirmé ». Seule une offre d’emploi sur dix est destinée avant tout aux débutants. Toutefois quatre offres sur dix sont accessibles à tous les candidats, quel que soit leur niveau d’expérience.

Des compétences en développement informatique sont attendues

Plus du tiers des offres d’emploi diffusées en 2016- 2017 concernent les métiers du développement informatique : développeur, ingénieur en développement, ou encore concepteur développeur. Des compétences techniques sont donc attendues, notamment la maîtrise des langages PHP, SQL… et des logiciels tels que Java, C++, Xamarin, AngularJS, JUnit, OpenGL, Unity 3D, DirectX… Il s’agit souvent de postes nécessitant un Bac +5, mais certains sont accessibles à des candidats ayant un Bac +3 en informatique.
D’autres profils sont également très recherchés comme les ingénieurs en R&D, les ingénieurs en traitement de l’image ou vision par ordinateur, également les ingénieurs spécialistes de la 3D. Pour ces postes, des compétences techniques sont également un prérequis.
Enfin, près d’une offre sur dix concerne les postes de commerciaux (technico-commerciaux, chargés d’affaires), avec des niveaux de compétences attendus en réalité virtuelle et augmentée très variables d’une offre à l’autre.

Un intérêt porté aux méthodes de travail

Plus d’une offre sur dix mentionne les méthodes de travail Agile et Scrum. Ces méthodes sont souvent évoquées dans les compétences attendues.
Parfois, ces méthodes de travail entrent dans le cadre des missions liées au poste : un ingénieur en développement devra déployer des méthodologies (Cycle en V, méthodes agiles), là où un chef de projet sera attendu sur sa capacité à assurer le rôle de scrum master.
Ainsi, savoir travailler en méthode Agile est un véritable atout, notamment dans le secteur informatique.
De plus, des qualités telles que la passion, la curiosité et, par conséquent, une appétence pour la veille technologique sont appréciées par la plupart des recruteurs.

Source : Apec

Une taxe de 300 milliards de dollars sur l’énergie fossile ?

Le rapport « La taxe sur les dommages climatiques »   estime que les grandes entreprises exploitant des centrales thermiques aux énergies fossiles retardent l’action climatique. Elles ne participent que trop peu à la transition énergétique, mais engrangent des milliards de dollars de bénéfices. Pour contrer cet état de fait, les auteurs proposent de taxer ces entreprises pour chaque tonne de pétrole, de gaz et de charbon qu’elles extraient. Cette taxe pourrait générer environ 300 milliards de dollars chaque année entre 2021 et 2050.

 Assurer un financement stable jusqu’en 2050

À mesure que le monde s’éloigne des énergies fossiles, le prix de la taxe augmenterait pour assurer une enveloppe de financement stable. Le rapport recommande ainsi l’introduction en 2021 d’une taxe de 5 dollars la tonne de CO2 équivalent. Le prix augmenterait de 5 dollars chaque année jusqu’en 2030, puis de 10 dollars chaque année, pour atteindre 250 dollars la tonne en 2050.

Une grande partie de la taxe serait affectée à des programmes de transition visant à aider en priorité les collectivités à faible revenu à adopter des modes de transport, des sources d’énergie et des emplois à faibles émissions de carbone. « L’introduction de la taxe sur les dommages climatiques est possible : elle se fait dans d’autres domaines comme le nucléaire, les marées noires, le tabac ; les institutions existent, y compris le Fonds vert pour le climat ; aux gouvernement de faire preuve de volonté politique » estime Julie-Anne Richards, auteure principale du rapport.

Inverser le poids du fardeau

Cette nouvelle taxe abonderait des institutions financières existantes telles que le Fonds vert pour le climat. Elle aurait pour but de contrer le problème suivant : bien que les sociétés du secteur des combustibles fossiles aient causé la grande majorité des dégâts climatiques, ce sont les communautés les moins développées qui sont les plus touchées par les catastrophes climatiques. Elles se retrouvent face à des financements astronomiques qu’elles ne peuvent pas financer pour se reconstruire et s’adapter.

« Lorsque le cyclone Pam a frappé en 2015, Vanuatu a perdu 64 % de son PIB, soit 449 millions de dollars de pertes et dommages, rappelle Ralph Regenvanu, ministre des Affaires étrangères, de la Coopération internationale et du Commerce extérieur de Vanuatu. Nous avons présenté des demandes de 700 millions de dollars au Fonds vert pour le climat, et la dernière réunion a approuvé une subvention de 18 millions de dollars ». De nouvelles sources de financement sont bien nécessaires pour aider à combler ces écarts. Les auteurs espèrent vivement que les pays réunis à la COP24 agiront dans ce sens.

Les pays en développement sont à présent les leaders de la transition énergétique (agence BNEF)

Le projet annuel Climatescope de la BNEF a révélé que les pays émergents représentaient la majorité des nouvelles capacités en énergie propre ajoutées et des nouveaux fonds déployés à l’échelle mondiale en 2017 parmi les pays sondés.Ces pays jouent également un rôle de premier plan dans la réduction des coûts de l’énergie propre afin que l’énergie puisse être étendue sans augmenter les émissions de CO2.

En 2017, les pays en développement ont ajouté 114 GW de capacité de production zéro carbone, tous types confondus, avec une capacité de production éolienne et solaire de 94 GW à elles seules – deux records. En conséquence, ce sont eux qui ont mis en service la plus faible capacité de production à base de charbon depuis 2006. Au cours de l’année 2017, les nouvelles centrales au charbon ont chuté de 38% à 48 GW.Cela représente la moitié de ce qui a été ajouté en 2015 lorsque le marché a atteint un sommet avec 97 GW de charbon mis en service.

« Le redressement a été assez difficile », a déclaré Dario Traum, associé principal du BNEF et responsable du projet Climatescope. « Il y a quelques années à peine, certains ont fait valoir que les pays moins développés ne pourraient pas, ou ne devraient pas, développer la production d’énergie avec des sources zéro carbone, car ils étaient trop coûteux. Aujourd’hui, ces pays sont à la pointe en matière de déploiement, d’investissement, d’innovation politique et de réduction des coûts. »  

Cette évolution résulte de l’amélioration rapide des équations économiques  des technologies propres, surtout celles relatives à l’énergie éolienne et au solaire. Grâce aux ressources naturelles exceptionnelles de nombreux pays en développement et à des coûts d’équipement considérablement réduits, les nouveaux projets d’énergie renouvelable supplantent désormais régulièrement les nouvelles centrales fossiles au niveau des prix, ceci sans bénéficier de subventions. Des appels d’offres dans les marchés émergents en 2017 ont porté sur des projets éoliens à seulement 17,7 $ / MWh et de projets solaires à 18,9 $ / MWh.

Climatescope a également révélé que l’argent destiné aux énergies propres affluait dans plus de pays que jamais. Fin 2017, environ 54 pays en développement avaient enregistré des investissements dans au moins un parc éolien et 76 pays avaient reçu un financement pour des projets solaires de 1,5 MW ou plus.

Potager Exky : l’innovation dans votre cuisine

Le potager Exky continue à innover pour faciliter la vie des urbains pressés à la recherche d’une alimentation saine. Dans cette perspective, la startup Véritable propose des « lingots » prêts à l’emploi. Ils intègrent tout le nécessaire pour que les plantes poussent en toute autonomie. Les ingrédients? « Des grains bio, un substrat naturel et des nutriments essentiels », affirme Exky. Pas de pesticides, pas d’OGM, simplement « des paramètres optimisés » notamment en termes de « capacité de rétention d’eau et d’oxygénation du substrat, pH, nombre de graines, espacement et profondeur de semis ». Et un système d’éclairage LED développé spécifiquement, qui permet de garantir la croissance des plantes, même sans lumière extérieure.

Contrairement à d’autres systèmes, les substrats utilisés sont « 100% biodégradables et compostables » et tous les produits sont recyclés, recyclables ou biodégradables. « Avec son système hydroponique passif, Exky utilise uniquement l’eau nécessaire à la croissance des plantes, assure la startup. Il est aussi très économe en énergie ». Il existe 34 lingots aux profils aromatiques variés en fonction des envies des utilisateurs. Entre autres, des herbes aromatiques, de jeunes pousses, des fleurs comestibles, des mini légumes ou mini fruits.

Un potager de la French Tech

Une fois le lingot placé dans le bac, l’utilisateur n’a plus rien à faire. L’irrigation et le cycle d’éclairage jour/nuit sont gérés en toute autonomie. Il faudra simplement remplir le réservoir d’eau toutes les 4 semaines. Si vous avez peur d’oublier ou que vous souhaitez tout de même recevoir des conseils ou suivre l’évolution de leur récolte, une édition « CONNECT » sera proposée. Elle sera dotée d’une application mobile pour suivre la croissance des plantes, programmer l’éclairage du potager, obtenir des conseils à chaque étape (semis, récolte…) et recevoir des rappels utiles pour l’arrosage ou le remplacement de lingot. Lancement prévu au printemps 2019.

Veritable est une startup de la Frenc Tech fondée en 2015. Elle propose des potagers pour permettre à tous de cultiver simplement un très large choix de plantes comestibles directement dans sa cuisine.

Par Matthieu Combe, journaliste scientifique

R-Check analyse le formaldéhyde intérieur en 1 heure

Après trois ans de recherche et développement, la startup Ethera lance la station R-Check, associée à la carte Feel’air et à l’application mobile éponyme. La carte présente un matériau nanoporeux breveté qui renferme une molécule organique qui change de couleur lorsqu’elle réagit avec le formaldéhyde. Le matériau est initialement de couleur jaune claire et donne une couleur jaune d’intensité croissante avec le temps.

 

« Nous avons mis au point un calcul qui traduit une cinétique de changement de couleur en concentration en formaldéhyde », explique Frederic Hammel, DG d’Ethera. La technologie a d’abord été utilisée sur le marché professionnel : le changement de couleur y était suivi par opacimétrie avec de l’électronique et de l’optique de précision. « Pour proposer un prix plus abordable, il fallait s’affranchir de l’optique, nous avons donc pensé qu’il était possible de mesurer le changement de couleur grâce à l’appareil photo d’un simple smartphone », se rappelle-t-il.

Un système simple et performant

Ethera finit de développer son système pour le grand public. Avec son smartphone, il suffit de prendre une première photographie de la carte dans l’application. Elle permet l’analyse de la couleur initiale. La carte est ensuite exposée à l’air pendant une heure sur la station, ventilateur calibré en route. Une seconde photo permet à l’application de calculer une estimation de la concentration en formaldéhyde durant l’exposition.

« Au départ, il fallait 24 heures, mais nous avons décidé de mettre notre monolithe devant un ventilateur pour augmenter l’exposition aux polluants et accélérer le changement de couleur pour obtenir un résultat fiable en 1 heure », détaille Frederic Hammel. « Les recommandations de l’application en cas de pollution vont de la ventilation par ouverture des fenêtres, de l’aération des meubles neufs, de la réduction des sources telles que certains produits de nettoyage ou autres bougies parfumantes, jusqu’à l’acquisition d’un purificateur d’air efficace contre le formaldéhyde ».

Quelle pollution au formaldéhyde dans l’air intérieur ?

L’OMS retient une concentration guide pour l’air ambiant d’une valeur de 100 µg/m³ sur 30 minutes, soit 80 ppb. Elle correspond à la plus faible concentration associée à une irritation du nez et de la gorge chez l’homme en population générale identifiée dans la littérature scientifique.

L’Anses fixe pour sa part la valeur-guide pour le formaldéhyde pour une exposition de longue durée à 30 µg/m³ (25 ppb). Elle l’abaissera à 10 µg.m- ³ au 1er janvier 2023. « Dans ces conditions, la carte Feel’air affiche une couleur verte sur la plage de concentration de 0 à 30 ppb ,de l’orange sur la place 30-80 ppb et du rouge au-dessus de 80 ppb », annonce Frederic Hammel. L’entreprise a retenu le seuil de 30 ppb au lieu de 25 ppb pour des questions de fiabilité de la réponse donnée.

En fonction des paramètres de température et d’humidité et de la qualité de l’appareil photo du smarphone, la technologie a une précision variable, de 10 à 30 ppb. « L’application donne l’indication de concentration estimée et l’épaisseur du trait donne une idée de l’incertitude », précise le directeur général d’Ethera.

La startup cherche un partenaire industriel en France ou en Chine pour l’industrialisation de son système sur ses deux marchés prioritaires. Ethera réfléchit à l’incorporation d’autres capteurs dans sa station, notamment un capteur de particules fines et un autre pour les composés organiques volatiles (COV). « Cela devient une station relativement bon marché puisque l’on souhaite vendre notre système au grand public à moins de 100 euros et une carte permettant de faire jusqu’à deux mesures à moins de 10 euros », prévient Frederic Hammel.

Par Matthieu Combe, journaliste scientifique

Helite lance B’Safe, le gilet airbag pour cyclistes

La solution développée pour protéger les cyclistes adapte la technologie utilisée pour les motards. « Nous avons un gilet qui renferme deux airbags, explique Gérard Thevenot, fondateur d’Helite. En cas d’accident, ils se gonflent automatiquement pour protéger la colonne vertébrale et la partie frontale – thorax, abdomen et cou ».

 

Avec le développement du vélo électrique et de la mobilité douce, on observe une augmentation de l’accidentologie et de la mortalité en vélo. En 2017, les accidents en vélo ont par exemple entraîné davantage de morts qu’en moto en Hollande. Ce gilet dont la prévente est prévue en avril 2019 au prix de 649 euros, est donc capital, en association avec un casque de protection.

Des capteurs sur le vélo et sur la veste

Le système utilise deux capteurs qui communiquent entre eux. Le premier est le capteur CDU (crash detection unit) intégré dans la veste qui analyse la situation en temps réel et détecte les chutes du cycliste. Le second est le capteur selle situé sous la selle qui détecte les chocs du vélo et transmet l’information au capteur CDU. Si le  capteur selle envoie une alerte et/ou que des mouvements anormaux sont détectés, l’airbag s’active automatiquement.La détection de l’accident prend 60 ms, le gonflage de l’airbag 80 ms. Ainsi, le cycliste est protégé avant l’impact.

La veste est un tissu polyester qui ressemble à un gilet vélo classique. Elle est disponible en noir ou en jaune. Son étanchéité est assurée par un film polyuréthane. Une bouteille de CO2 permet de gonfler l’airbag lorsqu’une chute ou un accident est détecté. Elle doit être remplacée après chaque gonflage.

Des crash tests et des testeurs en conditions réelles

Une grosse partie du développement a été réalisé grâce à des crash tests. « Soit on met le vélo à l’arrêt avec un mannequin et on lui fonce dessus avec une voiture sous différents angles, soit on lance le vélo avec le mannequin contre différents obstacles », relate Gérard Thevenot.

Actuellement, plusieurs tests sont menés dans différents pays avec des vélos électriques, des vélos de route loisirs et sportifs, et des vélos urbains. « Il y a des capteurs sur le vélo à différents endroits et sur la veste, informe Gérard Thevenot. Lorsque l’on détecte un crash, on enregistre les données avant le déclenchement effectif de l’airbag pour optimiser les seuils de déclenchement ». Les testeurs servent également à vérifier qu’il n’y a pas de déclenchement intempestifs lors du franchissement de trottoirs ou de dos d’âne. « Les données continueront à être récoltées sur un certain nombre de clients types volontaires pour que l’algorithme continue à apprendre pendant quelques années et détecte un maximum d’accidents », prévient le fondateur d’Helite.

Helite est une entreprise née en 2002 et spécialisée dans la protection airbag individuelle pour protéger des personnes ou des objets. Les systèmes airbags sont fabriqués en France dans son atelier de Dijon, du développement jusqu’à l’assemblage final.

Par Matthieu Combe, journaliste scientifique

Meersens passe au crible votre environnement immédiat

Meersens calcule le risque sanitaire permanent que ses utilisateurs rencontrent dans leur vie quotidienne. Son application passe au crible la qualité de l’air, de l’eau, les UV, les ondes, le bruit et la nourriture. Elle analyse l’exposome dans son ensemble, mais permet surtout de le mettre en perspective avec le profil pathologique propre à chacun de ses utilisateurs.

En utilisant la géolocalisation de votre téléphone ou en scannant un produit, l’application vous expose les risques potentiels liés à votre environnement immédiat. L’application propose aussi des solutions et des alternatives pour diminuer le risque. « La solution va adapter le risque qu’elle identifie en fonction de votre profil santé, explique Morane Rey-Huet, CEO et co-fondateur de Meersens. Les préconisations seront par exemple différentes si vous êtes une femme enceinte, un sportif aguerri ou si vous êtes asthmatique ».

Une application communautaire

La technologie repose sur une intelligence artificielle qui recoupe un ensemble de bases de données disponibles en Amérique et en France. « Nous faisons du data-mining et du machine learning pour arriver à projeter une logique prédictive par rapport à l’usage et aux pathologies de l’utilisateur », complète Morane Rey-Huet.
En plus de l’utilisation de ces bases de données, l’application propose un côté communautaire « comme Waze ». Les utilisateurs deviennent des lanceurs d’alertes des risques sanitaires sur la plate-forme. L’alerte est confirmée ou infirmée par les autres pour forger le niveau de crédibilité et de pertinence de chaque utilisateur. « Cela rend le système fiable et évite que quelqu’un puisse dénigrer un restaurateur ou un industriel par pure vengeance », projette Morane Rey-Huet.

Un objet connecté des plus innovants

Dans les lieux privés, un objet connecté permet de faire des mesures supplémentaires. « ll dispose de trois emplacements pour des capteurs spécifiques, car les personnes sont inquiétées par deux à trois types de pollution par nature, affirme Morane Rey-Huet. Le côté modulaire permet de personnaliser l’appareil en fonction des besoins de chacun ».

De la taille d’un smartphone, l’objet est facilement transportable. Il proposera dès sa sortie sept biocapteurs mSens réutilisables, pendant 6 à 12 mois, pour mesurer l’exposome gazeux : les COV, le CO2, les UVA, les UVB, les PM2,5, les ondes électromagnétiques de 2,4 GHz et le bruit. Ces capteurs privilégient les technologies non destructives et non invasives.

« Nous allons commencer à proposer des capteurs sur la qualité de l’eau en 2019, annonce Morane Rey-Huet. Dans certains cas, en particulier pour le radon ou le plomb, nous allons devoir proposer des capteurs à usage unique ». L’entreprise prévoit toutefois de les recycler en les reconditionnant pour de nouvelles utilisations.

Les données personnelles et médicales sont stockées sur un serveur santé dédié. L’entreprise assure qu’elles demeurent la propriété de l’utilisateur et « que ces données ne seront jamais communiquées ou utilisées hormis pour calculer l’indice de risque de l’utilisateur ».
Le lancement officiel du produit est programmé pour le 6 janvier prochain lors du CES de Las Vegas. La pré-vente sera lancée d’ici début février via une campagne de crowdfunding. La box sera vendue au prix de 99 euros, les biocapteurs seront proposés entre 1 et 30 euros. L’application est pour sa part déjà disponible gratuitement sur iOs et Android.

Par Matthieu Combe, journaliste scientifique

Le Magazine d’Actualité s’invite dans la cartographie interactive de Techniques de l’Ingénieur !

La cartographie interactive permettait jusqu’à ce jour de naviguer par concept sur l’ensemble des ressources documentaires (articles de référence et fiches pratiques) de Techniques de l’Ingénieur.

Vous avez été nombreux à nous réclamer une évolution majeure de cet outil, alors nous l’avons fait pour vous  !

Désormais, tous les contenus du Magazine d’Actualité sont également disponibles dans la cartographie ! (Cela concerne les articles d’actualité, les dossiers mensuels, les livres blancs et les conférences en ligne, soit plus de 3000 nouveaux documents).

Pour rappel, la cartographie interactive est une datavisualisation dynamique de l’ensemble des documents présents sur le site de Techniques de l’Ingénieur. Elle vous permet de naviguer par concept, et même de croiser différents concepts.

Le champ de recherche permet d’accéder directement aux mots-clés utilisés ; il est possible de filtrer la liste des résultats par date ou ordre alphabétique. C’est un outil visuel d’exploration du contenu en complément des autres modes de navigation classique de notre site internet tels que le moteur de recherche ou l’accès par thématique.

Pour mieux utiliser la cartographie interactive :

L’Open Source : une alternative économique aux éditeurs américains

Toujours plus ! En marge de l’édition 2018 d’Oracle OpenWorld, son CEO Mark Hurd a indiqué que le géant des logiciels a un gros appétit : il ambitionne ainsi de passer de 11 à 20 milliards de chiffre d’affaires. Pour atteindre cet objectif, Oracle va développer le mode SaaS de ses applications, mais aussi augmenter le tarif de ses licences…

Pour le CIGREF, la situation devient délétère. Cette association loi 1901, créée en 1970, regroupe près de 150 grandes entreprises et administrations publiques françaises dans tous les secteurs d’activité.

À l’occasion de l’Open CIO Summit et de l’Open Source Summit (POSS) tenus à Paris début décembre, le CIGREF a publié un rapport intitulé « Open source : une alternative aux grands fournisseurs ».

Comportement hégémonique

« Aujourd’hui, le marché mondial des licences logicielles et des services numériques se concentre dans les mains de quelques grands acteurs internationaux, essentiellement américains. Ces derniers ont des objectifs de croissance de leur chiffre d’affaires insoutenables pour les entreprises et organisations publiques. De plus, celles-ci acceptent de moins en moins de supporter les coûts de solutions devenues des commodités, ne disposant que d’une valeur d’innovation très limitée, et qui les rendent dépendantes à un fournisseur au comportement hégémonique », peut-on lire dans ce rapport.

L’intérêt des logiciels libres ne se limite pas à la réduction des coûts.  Pour Pierre Baudracco, CEO de BlueMind, « la mainmise des GAFA(M) sur nos données et leur exploitation, les monopoles créés par l’économie numérique américaine, ont montré les dérives et dangers d’une telle hégémonie et nécessitent également des réponses souveraines afin de restaurer la confiance dans le numérique et permettre une indépendance numérique européenne. L’Open Source et les modèles ouverts, avec leur approche collaborative, de partage et de transparence, sur lesquels repose aujourd’hui massivement le numérique, est une réponse à ces nécessités ».

Les business models de l’Open source

À juste titre, le CIGREF précise aussi que pour de nombreuses entreprises, « les grands éditeurs sont des marques cautions, une assurance, un gage de sécurité pour le Comex ».

Mais c’est avant tout un problème culturel, car il existe des solutions dans le logiciel libre pour chaque risque identifié.

Autre frein à la migration vers l’Open source : la méconnaissance de ses différents business models. L’éditeur open source est une entreprise à but lucratif comme une autre. Le développement de ses logiciels représente un coût que l’éditeur finance sur la base d’un retour sur investissement. Il est donc important de bien comprendre le business model de l’éditeur de logiciel Open source afin d’éviter les mauvaises surprises ultérieures.

Les entreprises peuvent aussi consulter ce document consacré aux fondamentaux juridiques de l’Open source.

En guise de conclusions, le CIGREF met en avant des recommandations pour franchir le pas de l’Open source :

  • acculturer les collaborateurs à l’écosystème open source (caractéristiques clés de cet écosystème, inconvénients et avantages) ;
  • définir des critères d’analyse des logiciels open source, communs à toute l’entreprise et qui prennent en compte la prise de risque à long terme ;
  • établir une gouvernance au sein de l’entreprise dans le choix des logiciels ;
  • mettre en place un processus de choix des logiciels.

Les plus grands investisseurs appellent à l’action climatique

Lundi 10 décembre 2018, 415 investisseurs institutionnels cumulant 32 000 milliards de dollars d’actifs ont publié la Déclaration mondiale 2018 des investisseurs aux gouvernements sur le changement climatique. Ils y réitèrent leur « soutien total à l’accord de Paris » et appellent les gouvernements présents à la COP24 en Pologne à « mettre à jour et renforcer leurs contributions nationales pour atteindre l’objectif de réduction des émissions fixé par l’accord de Paris, en commençant le processus dès 2018 et en le menant à bien d’ici 2020 ».

Trois priorités pour davantage de résilience

La déclaration met en avant trois priorités : atteindre les objectifs de l’Accord de Paris, accélérer les investissements du secteur privé dans la transition vers une réduction des émissions de carbone et s’engager à améliorer les rapports financiers sur le climat. Les investisseurs soutiennent des politiques spécifiques, notamment la fixation d’un prix élevé du carbone, ainsi que l’élimination progressive du charbon et des subventions aux combustibles fossiles. Ils appellent aussi les gouvernements à soutenir publiquement les recommandations du Groupe de travail sur l’information financière relative aux changements climatiques (TCFD) et à les appliquer dans leurs juridictions d’ici 2020.

Selon la déclaration, les gouvernements doivent faire beaucoup plus pour accélérer la transition vers une économie à faible carbone. Ils amélioreront ainsi la résilience de notre économie, de notre société et du système financier aux risques liés au climat. Parmi les signataires figurent les plus importants fonds de pension, gestionnaires d’actifs et sociétés d’assurance du monde. On trouve des noms bien connus tels qu’AXA IM, BNP Paribas AM, CM-CIC AM, ERAFP, Mirova, La Banque Postale, HSBC GAM, Allianz GI, BBVA.

Coup de projecteur sur le charbon

Les investisseurs appellent à la suppression progressive du charbon dans le monde entier. Ils saluent le soutien croissant dont bénéficie la Global Powering Coal Alliance. Lancée par le Royaume-Uni et le Canada, l’Alliance compte désormais 28 signataires des gouvernements nationaux, aux côtés d’autres partisans sous-nationaux et d’entreprises. Elle comprend notamment neuf états des États-Unis.

Malgré la politique de l’administration Trump, plusieurs investisseurs américains s’engagent. « À la caisse de retraite commune de l’État de New York, nous sommes toujours engagés et restons déterminés à soutenir les objectifs de l’accord de Paris sur le climat, affirme Thomas P. DiNapoli, contrôleur de l’État de New York qui supervise la caisse de retraite commune de l’état de New York, un fonds de pension de 207 milliards de dollars. La transition vers une économie à faibles émissions de carbone offre de nombreuses possibilités de création de valeur, et les investisseurs qui ignorent l’évolution du monde le font à leurs risques et périls. »

Agrocarburants: «Le remède est pire que la maladie»

Gaspillage monstrueux de l’eau douce, pollution par les engrais chimiques et les pesticides, consommation des terres agricoles, déforestation, pollution de l’air… « Même si l’agrocarburant est produit en France, on se retrouve avec des parcelles agricoles en moins dédiées à l’alimentation. La demande alimentaire étant croissance, il faudra trouver ces terres ailleurs. Ceci peut être facteur de déforestation et d’augmentation des prix des denrées alimentaires. Pas forcément en France mais dans les pays en développement » a expliqué Laura Buffet, chargée de mission au sein de l’ONG Transport & Environnement, comme le rapporte le média Novethic le 16 novembre 2018. L’arrivée au pouvoir de Bolsonaro au Brésil risque d’aggraver la situation. Produire desagrocarburants en France conduit à ce que les aliments soit produits ailleurs dans le monde, y compris au niveau des réserves amérindiennes méprisées par le nouveau président brésilien, profondément raciste et anti-écolo.

Le groupe agroindustriel Avril va commercialiser en France un nouvel agrocarburant à base de colza. Le groupe met en avant qu’il s’agit d’un carburant national, made in France, et qu’il réduirait « de 60% » les émissions de gaz à effet de serre. Sur France-Inter, Clément Sénéchal, chargé de campagne chez Greenpeace explique qu’« Oleo100 va émettre plus de carbone que les carburants fossiles car il faut prendre en compte les émissions indirectes liées au changement d’affectation des sols. Les prairies stockent du carbone mais quand elles sont plantées avec du colza, elles en stockent moins ».

Si l’on voulait alimenter l’intégralité du parc de voitures, de camions et de bus en France par des agrocarburants, les conséquences  seraient lourdes. Le nouveau gouvernement espagnol a prévu d’interdire les véhicules thermiques et mise sur le 100% électrique. Le gouvernement français a publié sa stratégie contre la déforestation et annonce l’interdiction totale des agrocarburants dits de première génération d’ici 2030. A noter que les carburants de troisième génération, les algocarburants, ont un bilan encore pire que ceux de première génération.

Sortir de l’ère de la combustion (moteur thermique) pour entrer dans l’ère de l’électron. Sous la terminologie méprisante du porte-parole du gouvernement Philippe (pas Morris), cela revient à sortir de l’ère « des gars qui fument des clopes et roulent en diesel ». C’est exactement la réponse, durant l’émission C à vous du 6 novembre 2018, du médecin et journaliste Michel Simes à la bretonne Jacline Mouraud.

Mais cette fois-ci sous une forme intelligente et respectueuse, sans mépris de classe. Cette militante des gilets jaunes aux réels talents populistes est propriétaire d’un 4×4 diesel qui est non sans rappeler l’énorme Cadillac du président des USA Donald Trump qui a enfumé le couple Macron à l’Elysée. Parcourant 25000 kilomètres par an à bord de son char polluant elle se plaint que le carburant coûte selon elle trop cher en France et estime que l’herbe (pétrolière) est plus verte en Espagne. Ce qui a laissé dubitatif le journaliste Patrick Cohen.  Michel Cymes, particulièrement sensible aux impacts sanitaires de la pollution automobile, a déclaré: « Le jour où l’on aura enfin compris qu’il faut passer au tout électrique, on s’en sortira de toutes ces histoires, de cette dépendance vis à vis des pétroliers. C’est insensé que l’on n’aille pas plus vite vers le tout-électrique » . Comme l’ont notamment souligné des chercheurs de l’université Stanford, les agrocarburants, tout comme les carburants pétroliers, posent eux aussi d’importants problèmes sanitaires.

Dès 2020 la nouvelle Renault Zoé, 100% électrique à batterie, aura 600 kilomètres d’autonomie. Sur Radio France International, Christine Siebert a estimé le 15 novembre 2018 que « dans l’idéal, la voiture électrique devrait rouler grâce aux énergies renouvelables. Et certaines initiatives locales s’efforcent de répondre à cette exigence. Ainsi, dans les Hautes Alpes, « l’ombrière photovoltaïque de Baratier » permet aux automobilistes de recharger leurs voitures électriques avec de l’énergie solaire. »

Encre électronique : des prises de note instantanées

Les impatients vont l’être encore plus ! Avec les liseuses électroniques comme Kobo ou Kindle, il faut attendre quelques secondes pour que votre écriture s’affiche à l’écran. Cette latence est due au temps nécessaire pour changer l’état des microbilles qui constituent les « pixels » de l’écran.

Avec sa technologie appelée JustWrite, E-Ink (Electronic Ink) affirme que l’écriture sera quasi immédiate. Pour relever ce défi, E-Link a opté pour l’alimentation du stylet et non plus de la dalle. Exit donc la dalle TFT, JustWrite est un « simple » film électronique – légèrement alimenté en énergie pour maintenir l’état des billes et réagir aux mouvements du stylet.

Autre intérêt : ce film flexible pourrait être produit en rouleau. Cet écran entièrement en plastique, durable et léger, pourrait être fixé et retiré facilement. Cette écriture instantanée pourrait aussi bien s’appliquer sur une tablette que sur des écrans allant jusqu’à 1 mètre de diagonale.

Par ailleurs, si le système de rétroéclairage (optionnel) n’est pas allumé, cet écran n’émet pas de lumière et fatigue donc bien moins les yeux que les dalles des PC, tablettes et autres téléphones. D’ailleurs, Kyocera a présenté le KY-01L, un téléphone ultra fin et compact (91x55x5,3 mm pour 47 grammes) qui n’intègre pas un écran TFT ou OLED. Il repose sur un affichage de type e-Ink ayant une diagonale de 2,8 pouces et une définition de 480×600 pixels.

L’entreprise basée dans le Massachusetts a également commencé à produire des écrans (Advanced Color ePaper présenté en 2016) d’encre électronique de couleur. Capables d’afficher 32 000 couleurs différentes et ayant une définition pouvant atteindre 1600 par 2500 pixels, ils sont destinés à l’affichage numérique. Un modèle de 13 pouces (soit environ 33 cm) est prévu pour le deuxième trimestre 2019.

Les émissions mondiales repartent à la hausse en 2018

Le Global Carbon Project estime les émissions mondiales de CO2 provenant des combustibles fossiles et de l’industrie. Ces émissions augmentaient de plus de 3 % par an dans les années 2000, mais leur croissance a ralenti depuis 2010. De 2014 à 2016, les émissions sont restées relativement stables avec une faible augmentation. L’édition 2018 vient de paraître dans les journaux Nature, Environmental Research Letters et Earth System Science Data. Selon ces projections, en 2018, les émissions de CO2 devraient augmenter de 2,7 %. Cela correspond à des niveaux d’avant la crise économique de 2008.

 Des émissions incompatibles avec l’Accord de Paris

 Cette hausse est principalement due à la croissance soutenue de la consommation de pétrole, de gaz et de charbon dans le monde. Cela signifie que les efforts pour décarboner l’économie demeurent insuffisants pour contrer la hausse du recours aux énergies fossiles. Pour contenir la hausse de la température de la planète en dessous de 2°C, les émissions de CO2 doivent diminuer d’environ 20 % d’ici 2030 et atteindre zéro d’ici 2075. Afin de limiter le réchauffement à l’objectif de 1,5°C, il faut même aller encore plus loin. Les émissions de CO2 doivent diminuer de 50 % d’ici 2030 et atteindre un niveau net nul vers 2050.

« On pouvait espérer que l’augmentation des émissions observée en 2017 ne serait que ponctuelle, mais le taux de croissance en 2018 est encore plus élevé, et il devient clair comme de l’eau de roche que le monde est en train de manquer à son devoir de s’engager dans une voie conforme aux objectifs fixés par l’accord de Paris en 2015 », estime Glen Peters, co-auteur de l’étude et directeur de recherche au centre CICERO.

Des hausses d’émissions régionales

La plus forte hausse des émissions s’observe en Asie. L’Inde, qui représente désormais 7 % des émissions mondiales, poursuit son envolée. La hausse est de +6,3 %, après +4 % en 2017. La Chine, qui représente 27 % des émissions mondiales, renoue également avec une hausse de +4,7 % en 2018, après +1,7 % en 2017.

Les émissions repartent aussi à la hausse aux États Unis qui  représentent 15 % des émissions mondiales. Celles-ci bondissent de +2,5 %, après un léger recul de 0,5 % en 2017. Cette hausse est en grande partie liée aux mauvaises conditions météorologiques qui ont entraîné une hausse de la consommation de chauffage et de climatisation durant l’année.

Une bonne nouvelle est tout de même à noter. Représentant 10 % des émissions mondiales, il semblerait que l’Union européenne soit parvenue à réduire ses émissions de 0,7 %, après une hausse de 1,4% en 2017. Pour le reste du monde (et 42 % des émissions de CO2), la hausse attendue pour l’année est de 1,8 %. En moyenne, les émissions de CO2 atteignent 407 ppm en 2018, un niveau supérieur de 45 % par rapport aux niveaux préindustriels.

Pollution : de nouvelles sources d’ammoniac détectées depuis l’espace

Depuis une douzaine d’années, l’interféromètre IASI embarqué à bord des trois satellites Metop2 fournit aux scientifiques des données globales de divers composés atmosphériques, dont l’ammoniac. L’ammoniac atmosphérique est un composé très important puisqu’il se dégrade en particules fines sous forme de sels d’ammonium, altérant la qualité de l’air que nous respirons. Or, les processus régulant les concentrations de ce gaz dans l’atmosphère sont très mal connus, particulièrement à l’échelle locale.

En exploitant les données journalières de NH3 mesurées par l’instrument pendant près de dix ans, les chercheurs ont généré une carte mondiale de la répartition d’ammoniac atmosphérique, au kilomètre carré près.  En combinant cette carte avec des images satellites, ils ont mis en évidence et catégorisé 241 sources localisées de NH3 liées à l’activité humaine, dont 83 liées à l’agriculture intensive et 158 à l’activité industrielle, ainsi que 178 zones d’émissions plus étendues. (Voir carte).

En plus des nouvelles sources répertoriées et donc absentes des inventaires actuels, l’étude a montré que les émissions provenant de sources connues sont très largement sous-estimées. L’évolution des concentrations d’ammoniac a également permis d’identifier des changements dans les activités humaines comme l’ouverture ou la fermeture de complexes industriels ou encore l’agrandissement d’infrastructures d’élevage intensif.

Ces résultats suggèrent qu’une meilleure gestion des impacts de la pollution par l’ammoniac passe par une révision complète des émissions de ce gaz, très largement sous-estimées dans les inventaires actuels.

© Martin Van Damme et Lieven Clarisse / ULB Carte des flux d’ammoniac atmosphérique construite à partir de 9 ans de données de l’instrument IASI : 242 sources ponctuelles, indiquées par des cercles noirs et 178 zones d’émissions plus étendues, entourées par des rectangles blancs.
© Martin Van Damme et Lieven Clarisse / ULB (IASI); © Google / NASA (Landsat)
Images d’une source d’émission de NH3 localisée en Chine, concomitante à la construction d’un complexe industriel. En bas : Photographies des satellites Landsat (2008 – 2016) montrant la construction du complexe industriel. En haut : Mesures d’ammoniac par IASI pour les mêmes années.

Notes :
¹ Ces chercheurs appartiennent au Laboratoire « atmosphères, milieux, observations spatiales » (CNRS/Sorbonne Université/Université Versailles Saint-Quentin) qui fait partie de l’IPSL (Institut Pierre Simon Laplace) regroupant neuf laboratoires dont les thématiques de recherche concernent l’environnement global.

² Le programme Metop lancé par l’ESA et Eumetsat en 2007 couvrira 18 années d’observation de la composition atmosphérique en continu avec trois satellites successifs. Le dernier satellite, Metop-C a été lancé le 7 novembre 2018.
Références :
Industrial and agricultural ammonia point sources exposed. Van Damme, M., Clarisse, L., Whitburn, S., Hadji-Lazaro, J., Hurtmans, D., Clerbaux, C., Coheur, P.-F. Nature, le 5 décembre 2018. DOI: 10.1038/s41586-018-0747-1.

Source : cnrs

Mercurio, la startup qui mêle numérisation 3D et valorisation du patrimoine

Comment mettre en avant et valoriser le patrimoine lorsque les musées n’ont pas assez de place pour exposer toutes leurs collections ? Eloi Gattet, ingénieur et cofondateur de la startup Mercurio, s’est intéressé à cette problématique et a eu l’idée de mettre en place des solutions de numérisation massive adaptées aux oeuvres d’art et aux besoins des professionnels du patrimoine. Grâce à des machines toujours en cours de développement, ce passionné de robotique et de patrimoine utilise la technique de la photogrammétrie pour créer un double virtuel photoréaliste. Il fonde alors Mercurio en septembre 2018, avec son associé François Nogaret. Leur objectif : valoriser les collections cachées et faciliter la recherche. Nous avons rencontré le jeune ingénieur au Centquatre, le centre de coopération culturelle parisien, lors de la convention nationale des SATT le 16 novembre dernier.

Qu’est-ce que Mercurio ?

Mercurio propose un service de numérisation 3D destiné aux oeuvres d’art. Grâce à nos machines, nous répondons aux besoins spécifiques des musées et des chercheurs qui souhaitent numériser massivement leurs collections. Outre le fait que nos machines soient automatiques et transportables, elles prennent aussi en compte la géométrie, la texture et la réflectance des objets afin de rendre une empreinte virtuelle photoréaliste des oeuvres et objets.

Comment fonctionnent vos machines ?

Notre système de numérisation se base sur la photogrammétrie, une technique qui permet de créer un modèle 3D grâce à des photographies. L’inconvénient de cette méthode est la nécessité d’une prise de photos très rigoureuse, sans flou et sans oubli, afin de d’obtenir une couverture totale de l’objet. Or l’être humain peut faire des erreurs. Avec notre technologie, nous automatisons la prise de photo et la numérisation. L’objet à numériser est placé à l’intérieur de notre machine de forme sphérique et composée de plusieurs dizaines de capteurs photo. Des flashs projettent plusieurs illuminations sur l’objet et permettent d’acquérir les propriétés optiques comme la brillance et la texture. Une fois les photos prises, elles sont traitées par plusieurs logiciels que nous développons pour être combinées et en offrir un rendu 3D interactif.

Les collections des musées peuvent être de tailles et de formes très diverses. Comment vos machines s’adaptent-elles à ces variations ?

Les machines sont composées de modules assemblés entre eux par des barres qui peuvent changer de taille. Aujourd’hui, nous pouvons scanner des objets de 10 cm à 1m. En plus de la machine de forme sphérique, nous en avons une autre en forme de dôme, plus appropriée aux objets en 2,5D comme les tableaux, les bas-reliefs ou les pièces de monnaie. Nous avons créé la machine à 100% c’est-à-dire que nous avons réalisé les pièces au moyen d’imprimantes 3D, assemblé l’électronique et développé le code afin d’avoir une grande flexibilité et de pouvoir ajuster les paramètres de la machine selon nos besoins. A terme, notre objectif est de développer des machines adaptées aux besoins particuliers des musées ou chercheurs.

MERCURIO from Eloi Gattet on Vimeo.

Les musées utilisent déjà des scanners 3D. Qu’est-ce que votre machine apporte de nouveau ?

Aujourd’hui, les scanners 3D sont mal adaptés aux besoins concrets des musées. La machine doit être transportable car on ne peut envisager de sortir les collections des réserves des musées. Ensuite, elle doit s’adapter aux oeuvres et être automatique pour permettre une numérisation massive et des économies d’échelle. Afin de développer notre machine, nous avons travaillé avec plusieurs musées, notamment à Marseille, et ils s’intéressent beaucoup à notre technologie. Nous avons même reçu des demandes de chercheurs qui souhaitent numériser des pièces comme des tuiles, des fossiles, et même des poissons ! Nous nous adressons donc aux professionnels du patrimoine au sens large.

En quoi vos machines vont participer à la valorisation du patrimoine ?

Il faut savoir qu’aujourd’hui, environ 95% des collections des musées restent en réserve à cause d’un manque de place ou d’intérêt des visiteurs. Si leur première mission est de protéger les oeuvres, les musées doivent aussi valoriser leurs collections. Aujourd’hui, les professionnels du patrimoine utilisent déjà le scan 3D mais pour valoriser des objets star comme la Victoire de Samothrace. Je m’intéresse plutôt à la partie immergée de l’iceberg. Il est très difficile d’accéder aux réserves des musées donc s’ils avaient la possibilité de numériser massivement leurs collections, ils pourraient les mettre à la disposition des chercheurs et du public à travers des visites virtuelles. Cela pourrait également apporter des pistes de recherches qui n’étaient pas encore envisageables, comme la comparaison massive de pièces muséales qui appartiennent à différents musées du monde.

Quels sont les points à améliorer avant la commercialisation ?

Pour l’instant, notre technologie n’est pas assez mature pour permettre la numérisation massive car nous pouvons scanner uniquement dix objets par jour. Si la prise de vue dure cinq minutes, la récupération des données demeure encore trop longue. J’évalue à un an et demi le temps nécessaire pour rendre notre machine complètement opérationnelle.

Quels sont vos projets avec Mercurio ?

Comme nous proposerons essentiellement du scan 3D et de l’hébergement en ligne, je pense que nous nous associerons à des partenaires qui font de la valorisation de modèles 3D pour les patrimoines. Ainsi, ils pourront mettre en place des appli directement utilisées par les musées et les professionnels. Nous nous intéressons également au secteur de la vente d’art en ligne, nous pensons que la 3D est un support idéal de communication et de valorisation tant elle apporte des informations sur l’œuvre. Si des opportunités se présentent dans ce domaine, c’est sûr que nous les étudierons.

Propos recueillis par Alexandra Vépierre

Domotique : Free fait irruption dans la maison connectée

Ce mardi 4 décembre, l’opérateur telecom Free a dévoilé sa nouvelle box Internet, la Freebox Delta. Associé au Server (raccordé au réseau Internet), le Player, loin d’être un simple décodeur TV,  bénéficie d’une apparence singulière et d’une polyvalence – c’est aussi une barre de son – qui ont déjà fait beaucoup parler. Par l’entremise de cette box tout-en-un, Free fait également irruption dans le Smart Home. Tous les grands opérateurs français, Orange, SFR et Bouygues Telecom, ont déjà tenté l’aventure auparavant. Tous ont lâché l’affaire ou ne communiquent guère plus sur le sujet, faute d’avoir suscité l’adhésion d’un nombre suffisant de clients.

Free a toutefois choisi une voie différente : optionnelle chez les concurrents, la domotique est ici incluse dans l’offre (49,99 €/mois) et le Player agit d’office comme une passerelle conçue pour interagir avec les équipements du foyer, dont le pack Sécurité fourni. Lequel contient un détecteur d’ouverture de porte ou de fenêtre, un détecteur de mouvement par infrarouge, une caméra Wifi et une mini-télécommande. Par ailleurs, la box incorpore une sirène de 110 décibels, une batterie et se connecte au réseau bas débit Sigfox en cas de coupure électrique et Internet, accidentelle ou provoquée. Une façon de transmettre une notification d’alerte à l’utilisateur en toute circonstance.

Chiffrement, mesh et ouverture

L’usage n’est pas centré que sur la sécurité, certes une préoccupation majeure des amateurs de maison connectée. Le Player est en effet également capable de piloter certains équipements de Somfy, spécialisé dans la motorisation des ouvrants (volets roulants, portails, etc) et les micro-modules d’éclairage, grâce à la prise en charge des protocoles radio RTS et io-Home Control développés ou co-développés par cet industriel. « En tout, cinq protocoles radio configurables sont intégrés, précise un technicien Free, soit un sur la bande 433 MHz, trois sur la bande 868 MHz et un sur la bande 2,4 GHz. Nous avons même mis au point notre propre protocole à 865 MHz, car aucun protocole existant ne réunissait les qualités que nous cherchions, à savoir la portée, la capacité mesh (chaque objet peut répéter le signal pour augmenter la portée), le chiffrement pour sécuriser la liaison et l’ouverture ».

Ouverture ? Il est en effet prévu que les spécifications techniques de ce protocole soient rendues publiques, ce qui pourrait inciter des fabricants de capteurs et d’objets connectés à l’adopter. On peut aussi rétorquer qu’il s’agit d’un protocole supplémentaire sur un marché qui en compte déjà beaucoup (Z-Wave, Zigbee, Enocean…), faute d’une unification qui ne viendra sans doute jamais. Il reste à savoir si la Freebox Delta arrive à point nommé ou non sur un marché progressant doucement, bien qu’il soit de plus en plus agité par les assistants à reconnaissance vocale des GAFA et les nombreux mouvements observés ces derniers mois (acquisition de Netatmo par Legrand, alliance entre EDF, Aldes, Delta Dore et Saunier Duval…).

Par Frédéric Monflier

TOP 5 : les articles les plus lus #novembre2018

Impression 3D plastique : l’aérospatial et le médical s’emparent des polycétones

PAEK, PEKK, PEEK et autres variantes de thermoplastiques polycétones sont en train de s’installer durablement sur les marchés des plastiques hautes performances. Alliant résistance mécanique des métaux et légèreté à la facilité de mise en œuvre des plastiques, ils profitent de l’essor des procédés 3D.

 

La pétrochimie, premier facteur de la croissance de la demande de pétrole

Selon un rapport publié le vendredi 5 octobre par l’Agence internationale de l’énergie (AIE), le secteur de la pétrochimie représentera dans les années à venir près de la moitié de la croissance de la demande de pétrole, devant les voitures, les camions et les avions. Un poids dans l’économie mondiale et un impact sur l’environnement largement sous-évalués.

 

La RSE au service des objectifs de développement durable

Comment la RSE peut-elle contribuer à atteindre les objectifs de développement durable (ODD) ? La plate-forme RSE formule 15 recommandations au gouvernement, aux entreprises, à leurs relais et aux partenaires sociaux pour mieux inclure les ODD dans la stratégie RSE.

 

High-Tech : les fatalités et craintes du Gartner

Comme tous les ans, Gartner scrute sa boule de cristal pour repérer les tendances majeures. Mais au-delà de la simple présentation des tendances, le cabinet d’analyses pointe du doigt des craintes.

 

Le renouveau de l’agroalimentaire français par l’innovation

Pour dépasser la guerre des prix, trouver de nouveaux débouchés à l’export, entraîner leur transition digitale et répondre aux nouvelles attentes des consommateurs, les entreprises agroalimentaires françaises misent désormais sur l’innovation.

 

Par I. B.

Tesla a frôlé la mort en 2018

Elon Musk a avoué que Tesla était à « quelques semaines » de la mort il y a quelques mois alors que l’entreprise avait du mal à atteindre les objectifs de production de la berline Model 3.

S’adressant via le média Axios / HBO, le milliardaire a révélé à quel point la tension de l’année dernière avait eu un impact négatif sur sa santé physique et mentale.

« Tesla a vraiment fait face à la menace de mort de cette année en raison de la rampe de production du modèle 3», a-t-il déclaré. «Nous étions dans les semaines à un chiffre. »

Musk a déclaré que l’entreprise « brulait l’argent de façon folle et que si nous ne résolvions pas ces problèmes en très peu de temps, nous mourrions et qu’il serait extrêmement difficile de les résoudre. »

Après avoir raté plusieurs échéances qu’il s’est imposé, Tesla a finalement atteint son objectif de production de 5000 Model 3 par semaine au cours des sept derniers jours de juin. Le mois dernier, la société a publié son premier bénéfice trimestriel depuis 2016, ce qui a surpris les analystes.

« Je travaillais sept jours sur sept, dormant dans une usine. J’étais dans l’atelier de peinture, dans celui d’assemblée générale, dans l’atelier de carrosserie », a déclaré Musk.

Lorsqu’on lui a demandé s’il s’inquiétait de lui-même « imploser », Musk a répondu : « Oui, absolument. Personne ne devrait consacrer autant d’heures au travail. Ce n’est pas bon Les gens ne devraient pas travailler aussi dur. Ils ne devraient pas faire cela. C’est très douloureux. Cela fait mal à mon cerveau et à mon cœur. »

Avant d’atteindre son objectif de production, Tesla était confrontée à des remboursements de dette d’un milliard de dollars US – environ 230 millions de dollars US dus en novembre – sans disposer de suffisamment de liquidités pour maintenir la société en activité.

« J’ai déjà dit qu’il fallait prouver que Tesla pouvait être durablement rentable », a-t-il déclaré à la presse lors de l’appel des résultats du dernier mois. « C’était un pas important dans cette direction. »

Musk a informé les patients qui ont versé des acomptes pour leurs modèles 3 dès mars 2016 que les premières livraisons australiennes auront lieu vers la mi-2019.

Après taxes et droits d’importation, le modèle 3 le moins cher coûtera environ 80000 $ en voiture, à égalité avec une Mercedes-Benz C300 ou une Audi A4 2.0 TFSI quattro.

Le chef de la direction du constructeur de voitures électriques a connu une année tumultueuse avec des scandales personnels et professionnels. Il a quitté son poste de président le mois dernier dans le cadre d’un règlement de 40 millions de dollars avec la Securities and Exchange Commission, qui affirmait que Musk avait induit en erreur les investisseurs par une série de tweets suggérant qu’il disposait d’un financement lui permettant de privatiser la société.

Musk est également poursuivi pour diffamation par l’expert britannique en plongée Vernon Unsworth – qui a participé au sauvetage des cavernes thaïlandaises plus tôt cette année – pour l’avoir traité de« pédophile » («pedo guy») dans le cadre d’une pitoyable attaque sur Twitter.

Marché du gaz en France : lancement d’une zone unique de prix

900 millions d’euros de travaux

Pendant de nombreuses années, la France se caractérisait par l’existence de plusieurs zones de prix pour son marché du gaz (8 zones de prix en 2003, 5 en 2005, 3 en 2009 et 2 en 2015). Depuis le 1er novembre, cette époque est révolue : la France ne possède plus qu’une seule zone de prix pour son réseau gazier.

Ce marché unique, baptisé « La Trading Region France » (TRF), qui signe l’aboutissement d’un chantier débuté il y a 15 ans, est le fruit de la coopération inédite entre les deux gestionnaires de réseaux de transports de gaz en France, GRTgaz et Téréga (ex-TIGF), grâce à l’appui de la Commission de régulation de l’énergie (CRE).

Les investissements dans les infrastructures gazières nécessaires à cette zone unique et à l’amélioration des capacités de transit entre les deux PEG (point d’échange de gaz) s’élèvent à près de 900 millions d’euros.

Le point d’orgue de ce chantier : les mises en service récentes des renforcements des artères Val de Saône et Gascogne-Midi, développés respectivement par GRTgaz et Téréga. Pour assainir le flux entre le Nord et le Sud du pays, GRTGaz a investi 720 millions d’euros dans le développement du projet de canalisation Val de Saône tandis que Terega (ex-TIGF) a achevé la mise en service du gazoduc Gascogne-Midi, pour un montant d’investissement de 152 millions d’euros.

Fin de la disparité des prix Nord-Sud

France Chimie, l’organisation représentant les entreprises de la chimie en France, s’est félicitée de la mise en place d’une zone unique de prix pour le réseau gazier français, une avancée majeure qu’elle réclamait depuis des années.

En effet, le système de zones était responsable d’un fort différentiel de prix entre le Nord et le Sud du pays, pénalisant surtout les sites industriels implantés dans le sud et principalement en hiver, période de fortes demandes.

La raison de ce déséquilibre ? Depuis des décennies, la capacité de liaison entre les réseaux gaziers Nord et Sud était insuffisante et provoquait des congestions chroniques très coûteuses sur l’une des deux zones, les points d’échange (PEG) Nord et Sud.

Ce marché unique est conçu pour devenir bénéfique aux consommateurs et surtout aux industriels gazo-intensifs. Selon GRTgaz et Téréga, alors que la France importe la quasi-totalité de son gaz, la zone de marché unique permettra d’obtenir « un marché français plus liquide, plus compétitif » ainsi qu’« une sécurité d’approvisionnement de la France renforcée car les risques de congestion entre le Nord et le Sud diminuent ».

En outre, « avec la TRF, l’ensemble du marché français est désormais interconnecté aux principales places de marché européennes ».

Aliye Karasu

Une prothèse de bras qui décode les mouvements du membre fantôme

La plupart des personnes amputées perçoivent des sensations au niveau de leur membre disparu, d’où la dénomination de « membre fantôme ». Dans une étude précédente², les chercheurs avaient montré que plus de 75% des personnes amputées sont capables d’effectuer des mouvements volontaires avec leur membre fantôme. Or, l’exécution de ces mouvements « fantômes », comme par exemple la fermeture des doigts ou de la main, la rotation ou flexion du poignet, sont toujours associés à des contractions musculaires spécifiques au niveau du moignon. Chez les personnes amputées de bras au-dessus du coude, ces contractions impliquent des groupes musculaires qui n’ont aucun lien avec les articulations mobilisées avant l’amputation, comme si une réinnervation musculaire avait eu lieu de façon spontanée, sans chirurgie.

L’équipe de chercheurs a donc développé une approche de contrôle de prothèses naturel qui exploite ce phénomène. Pour le prototype mis au point, les chercheurs ont créé des algorithmes capables de reconnaître les activités musculaires générées par la mobilisation du fantôme et de reproduire le mouvement détecté avec la prothèse : un contrôle intuitif, sans apprentissage ni chirurgie.

Dans les tests mis en œuvre, deux participants amputés de bras ont utilisé ce type de contrôle pour actionner une prothèse non portée mais placée près de leur moignon de bras. Les résultats très encourageants montrent que les participants ont été capables de maîtriser la prothèse et de mener à bien l’exercice après seulement quelques minutes de familiarisation avec le système, malgré des temps d’action allongés. Cette recherche est très prometteuse, les personnes amputées du bras ayant souvent beaucoup de difficultés à contrôler efficacement leur prothèse, au point qu’un grand nombre d’entre elles finissent par l’abandonner.

Les chercheurs poursuivent leurs travaux en envisageant de passer à des tests de prothèses portées, tout en contribuant également à augmenter les connaissances sur le phénomène du membre fantôme dont les mécanismes ne sont pas encore parfaitement compris. A travers cette étude, les scientifiques montrent aussi la nécessité de reconsidérer le phénomène du membre fantôme, généralement tabou, souvent attribué au deuil du membre perdu et majoritairement considéré sous l’angle de la douleur.

Source : cnrs

Hyundai versus Tesla: la bataille de l’électrification des camions

«Le Sud-coréen fait le pari que ces modèles seront sur les routes avant les camions électriques que prévoit de fabriquer Tesla» a rapporté l’agence Reuters. 8 réservoirs embarqués permettent de transporter 32 kilos d’hydrogène (500 KWh d’énergie utile). L’ensemble réservoirs + H2 pèse 640 kg. La pile à combustible (190 kW) pèse 95 kg. Si l’on ajoute la batterie qui accompagne la PAC on arrive à un total d’environ 800-900 kilos. Le moteur électrique a une puissance de 350 kW, ce qui signifie qu’il y a une batterie d’appoint d’une puissance de 160 kW.

Le même camion en version 100% batterie moderne (200 Wh/kg, Tesla) aurait besoin d’une batterie de 2,5 tonnes pour parvenir à la même autonomie (400 km). Soit un différentiel d’1,6-1,7 tonne. Le camion pèse 18 tonnes (à vide) et sa charge maximale est de 34 tonnes.  La solution H2 permet d’avoir un dixième de capacité utile en plus. A noter que Volvo a révélé un camion électrique à batterie 100% autonome et sans cabine, ce qui permet un gain de masse très appréciable, ce qui compense le surpoids lié à la batterie.

La consommation énergétique du camion H2 (WtW) est deux à trois fois supérieure à celle du camion à batterie. Et la consommation d’énergie constitue l’essentiel du coût kilométrique par tonne de marchandise transportée. La rémunération du chauffeur (qui deviendra égale à zéro avec les camions 100% autonomes) et l’usure du camion sont secondaires. Et la durée de vie des batteries Tesla est supérieure à celle du système H2.

Au final le modèle n’est viable que parce l’hydrogène est produit pour l’instant par électrolyse directement au niveau d’un barrage, donc avec une électricité à très bas coût, et sans frais de réseau. Et du fait d’une exemption de la taxe de 40 CHF aux 100km. «L’hydrogène étant pour le moment exonéré d’impôt (impôt sur les huiles minérales, RPLP, etc.) il occasionne des frais de carburant par distance parcourue comparables à ceux occasionnés par l’essence et le diesel

Dans l’hypothèse d’un kWh hydroélectrique de barrage à 3 c€ le coût du kilo d’H2 peut être estimé à environ 2€. Soit 64 € les 400 km en camion H2. Le camion à batterie équivalent alimenté par une électricité aussi bon marché ne coûte que 500 kWh x 3 c€/kWh = 15 € les 400 km, ce qui est 4 fois meilleur marché. L’hydrogène doit être transporté par camion jusqu’au stations-service. S’affranchir du coût du transport de l’électricité mais ajouter en parallèle un coût de transport de l’hydrogène, est-ce pertinent ? Selon un expert de l’Agence Internationale de l’Energie, «l’approvisionnement des stations-service par camion, terriblement inefficace, est à proscrire», ajoutant qu’il vaut mieux amener l’électricité jusqu’aux stations-service par le réseau (éventuellement renforcé) et produire sur place l’hydrogène par électrolyse. «Quand les contraintes de place et la réglementation le permettent c’est effectivement à privilégier» confirme Yorick Ligen, doctorant de l’EPFL (Ecole Polytechnique Fédérale de Lausanne) travaillant sur les infrastructures hydrogène.  Des photos des camions transporteurs d’hydrogène sont disponibles sur le site de l’entreprise suisse H2energy, partenaire d’Hyundai. 10 kilomètres séparent le la centrale hydroélectrique d’Aarau (16 MW, 109 GWh/an), où est produit l’hydrogène, et la station service d’Hunzenschwil en Argovie.

En Dordogne EDF va probablement produire de l’hydrogène à partir d’hydroélectricité provenant d’un barrage. EDF injecte parfois de l’air dans l’eau au niveau des turbines hydrauliques pour baisser la production électrique (effacement). Cette hydroélectricité peut servir pour produire de l’hydrogène. «Mais il ne sera pas facile de rentabiliser l’investissement dans des électrolyseurs utilisés sporadiquement» souligne l’expert de l’AIE.Si l’intégralité des 109 GWh produits annuellement par la centrale hydroélectrique d’Aarau étaient utilisés pour l’électrolyse puis la compression (hypothèse d’un rendement global de 70%), on produirait 2.300 tonnes d’hydrogène  (33 kWh/kg) chaque année. Sachant qu’un kilo d’H2 correspond à 12 km en camion (32 kg pour 400 km), la production hydroélectrique annuelle du barrage d’Aarau correspond à 27,6 millions de kilomètres en camion H2. Ou 27.600 km par an et par camion (75 km/jour) pour une flotte de 1000 unités. 1000 camions électriques au même kilométrage consommeraient deux à trois fois moins d’énergie, d’où un moindre impact sur les écosystèmes naturels: construire un barrage n’est pas neutre sur le plan environnemental. Si seulement 2% de l’électricité du barrage est utilisée pour l’électrolyse, alors seulement quelques dizaines de camions pourront être alimentés. Gâcher de l’hydroélectricité pour produire de l’H2, n’est-ce pas dommage ?

«Devant les difficultés d’emploi du gaz hydrogène, il est encore possible que les véhicules hybrides de demain soient plutôt dotés d’un petit moteur thermique en guise de prolongateur d’autonomie. Et on remplira des réservoirs bien plus petits avec de l’essence synthétisée à partir d’hydrogène vert»  estime l’expert de l’AIE. Avec ces carburants synthétiques plus besoin alors de consommer de platine pour fabriquer des piles à combustible: 0,5 g/kW selon l’ENS Cachan, soit 80 grammes dans le cas du camion d’Hyundai. Les réserves mondiales de ce métal sont estimées à seulement 13 kT. Plus besoin non plus ni des stations-service à hydrogène qui coûtent trois fois plus cher que les stations essence, ni des super-chargeurs ultra-rapides pour batteries.

Mais l’arrivée des batteries solid-state sur le marché durant la décennie 2020, multipliant d’un facteur 2 à 3 la densité énergétique, pourrait changer complètement la donne. Le concept de prolongateur d’autonomie deviendrait alors désuet. Nul besoin alors d’une double motorisation électrique + thermique, ce qui est coûteux. Ces batteries solides pourraient porter l’estocade finale aux rêves de véhicules hydrogénés, dans toutes ses variantes.

Emission de CO2 : L’industrie cimentière mobilisée pour une diminution de 80% d’ici 2050

L’industrie cimentière représente 2,9% des émissions carbone en France

Avec une production hexagonale de 18 millions de tonnes de ciment par an et un chiffre d’affaires de 2 milliards d’euros, l’industrie cimentière représente 2,9% des émissions de CO2 en France. Une empreinte carbone importante pour un secteur qui ne compte qu’une quarantaine de sites industriels et qui s’explique par le caractère énergo-intensif de l’industrie ; l’énergie constitue 25 % du coût de la fabrication d’une tonne de ciment.

Néanmoins, grâce à des efforts pour une gestion plus écologique entrepris depuis 30 ans, le secteur a réduit de 40% ses rejets de CO2. La filière compte poursuivre sur cette lancée : la présidente du syndicat, Bénédicte de Bonnechose, a annoncé que le secteur convergera avec la stratégie très bas-carbone nationale pour atteindre une réduction de 80% des émissions carbones à l’horizon 2050, par rapport à 2016 (passant ainsi de 656 kg de co2/tonne de ciment à 130 kg de CO2/tonne de ciment entre 2016 et 2050).

Les différents leviers d’activation envisagés

 Substitution des combustibles :

Une des stratégies d’ores et déjà employée par l’industrie cimentière consiste à remplacer des combustibles fossiles (le coke de pétrole, le charbon ou le fioul lourd) par des combustibles de substitution (huiles usées, plastiques ou déchets de bois non-recyclables, boue de station d’épuration…). En 2017, le taux de substitution des combustibles fossiles atteint 44% selon le SFIC. La filière vise un taux de 50% d’ici à 2025.

 Nouveaux ciments moins polluants :

L’empreinte carbone des ciments est directement proportionnelle à leur teneur en clinker. Ce principal constituant hydraulique, résultant de la cuisson à haute température du calcaire et de l’argile, contribue à la résistance du ciment mais représente la principale source d’émission de gaz à effet de serre.

Une nouvelle génération de ciments à teneur réduites en clinker grâce à l’ajout de composés cimentaires (calcaire, le laitier de haut-fourneau, cendres volantes des centrales à charbon) va être commercialisée dans les 18 mois. Dans ces nouveaux ciments, CEM II/C-M et CEM VI, le taux de clinker sera de 60 % en moyenne pour les premiers et inférieur à 50 % pour les seconds. Grâce à ce procédé, les émissions peuvent être réduites de 35 à 65 % par rapport aux ciments existants. Les LC3 (Limestone calcined clay cement) permettront, eux, de réduire de 40 % les émissions de CO2 grâce à l’effet coopératif entre le métakaolin, le calcaire et le clinker. Ces ciments présentent une résistance physique supérieure à celle des ciments actuels.

Les technologies de rupture

Le but est de transformer les émissions de gaz à effet de serre en atout en travaillant à leur captation, leur stockage et à leur réutilisation via une économie circulaire. Le programme Recybéton lancé en 2012 permet par exemple de réutiliser les granulats et le sable recyclés comme matière première dans la production des liants hydrauliques. Le projet Oxyfuel consistera à concentrer le CO2 en utilisant le procédé de combustion de l’oxygène. Le projet FastCarb, lancé début 2018, quant à lui, vise le stockage du C02 dans les granulats de béton recyclés (carbonatation).

Ces projets exigent des investissements importants de l’ordre de plusieurs dizaines de millions d’euros par cimenterie. Un coût qui ne peut être éludé par le secteur qui doit faire face à deux enjeux majeurs : l’accroissement démographique associé à une urbanisation continue et l’urgence de la situation climatique.

Par Aliye Karasu

Le train à batterie de Bombardier, un hydrogène-killer ?

Nom de code: Talent 3. A l’occasion du salon du ferroviaire InnoTrans, à Hennigsdorf près de Berlin, le groupe Bombardier a présenté du 18 au 21 septembre 2018 un train à batterie qui remplace le train diesel polluant. Une solution qui est, selon Bombardier, DEUX FOIS moins coûteuse que le train à hydrogène. Le constructeur allemand Siemens Mobility, en collaboration avec la compagnie autrichienne ÖBB, va proposer un concept similaire.

Michael Liebreich ne semble pas convaincu par le train à hydrogène. Ni par les véhicules hydrogénés en général. « ll y en a peut-être encore qui sont convaincus que les véhicules électriques à batterie ne seront jamais à la mode, ou que les conducteurs du monde attendront des voitures à hydrogène, mais leur nombre diminuera » a déclaré dans une tribune  ce fondateur de l’agence Bloomberg New Energy Finance (BNEF) devenue une référence à l’échelle mondiale dans le domaine des CleanTechs.

« Au début de 2016 l’Agence internationale de l’énergie prévoyait seulement 23 millions de voitures électriques sur les routes du monde d’ici 2030; cette année, elle avait augmenté ses chiffres à 127 millions en 2030 et à 280 millions en 2040. BP a fait passer ses prévisions pour 2035 de 72 millions à 210 millions. Même l’OPEP est passée de 46 millions d’EV à 253 millions en 2040 » a rappelé cet expert. Selon le patron de l’alliance Renault-Nissan-Mitsubishi, « la technologie liée à l’hydrogène n’est pas accessible dans une phase immédiate car il reste beaucoup de progrès à réaliser en termes de coût et de sécurité. Nous devrons attendre dix ans et plus encore car la force de l’hydrogène se base sur les faiblesses de l’électricité. Or, la prochaine Zoé affichera 600 km d’autonomie ! » Il est donc peu probable que la tortue à hydrogène parvienne à rattraper le lièvre à batterie. A fortiori avec l’arrivée sur le marché, au début de la décennie 2020, de la technologie de batterie solid-state. La fable africaine de Bouki-la-hyène et de Leuk-le-lièvre, héros civilisateur, serait donc mieux adaptée. Assis dans son coin, il y avait Leuk-le-lièvre. Bouki-la-Hyène le regarda longuement, puis, il se dit : « Celui là est un peu trop malin, il est suffisamment petit pour que je puisse le battre mais je suis sûr qu’il va encore me jouer un sale tour, comme il me le fait toujours. Ce n’est pas prudent de le choisir comme adversaire. »

Outre son coût un véhicule à hydrogène (qui est un véhicule à moteur électrique) est  trois fois moins efficient qu’un véhicule à batterie, autrement dit il consomme trois fois plus d’électricité. Il faut en effet produire, compresser, stocker et distribuer le gaz dihydrogène. Egalement conseiller stratégique de l’alliance mondiale pour les solutions efficientes créé par la fondation Solar Impulse, du nom de l’avion électrique à batterie qui a fait le tour du monde par étapes, Liebreich a ajouté: « même si je continue à être cinglant concernant les bénéfices de l’hydrogène pour les transports de courte-distance (tout ce qui fait moins de 400 kilomètres, que ce soit pas route, rail ou air), l’hydrogène, tout comme les agrocarburants, a encore sa chance pour les distances plus longues ».

Concernant les solutions pour remplacer les trains au diesel Liebreich estime que « l’hydrogène n’est pas la seule option (mis à part le fait que si l’hydrogène est généré à partir de méthane, vous pourriez tout aussi bien faire fonctionner le train avec du gaz naturel comprimé, ou GNC, comme c’est parfois le cas en Inde). Une autre façon d’éliminer les émissions sans électrifier l’ensemble de la voie serait que le train transporte une batterie et se recharge périodiquement en cours de route, comme proposé par Bombardier, la start-up anglaise Vivarail ainsi que par d’autres. Cela pourrait bien se révéler moins coûteux et plus simple que l’option sur l’hydrogène, en particulier pour les lignes à courte et moyenne distance ».

Le train à batterie de Bombardier peut aujourd’hui réaliser un trajet de 40 kilomètres. Stefan von Mach, chef de ce projet, a déclaré à l’AFP que « la demande du marché en Europe, c’est une autonomie de 100 km. Nous devrions la proposer d’ici un an ou deux (…) Environ 40% du réseau ferroviaire allemand n’est pas électrifié. Le train à batterie de Bombardier est une option attractive face à cela, tant du point de vue économique qu’écologique ». Sur les tronçons non électrifiés l’hydrogène sera probablement adapté aux (très rares) trajets de plus de 100 kilomètres d’une traite. Il s’agit par conséquent d’un petit marché de niche. Le train à batterie coûte 20 à 30% plus cher qu’un train diesel, mais si l’on intègre les très copieuses économies de carburant alors il revient en coût global environ 20% moins cher qu’un train hybride (électrique et diesel) compte tenu du prix du carburant fossile.

Produire une tonne d’hydrogène à partir de gaz fossile conduit à émettre entre 11 et 13 tonnes de CO2.

Usine Extraordinaire : l’industrie se tourne vers les femmes et la jeunesse

Après quatre jours de démonstrations et de conférences, l’Usine Extraordinaire est maintenant en phase de démontage. Si les manifestations sur les Champs-Elysées ont obligé le Grand Palais à fermer ses portes au public le samedi 25 novembre, l’événement a néanmoins été couronné de succès. Selon les organisateurs, 40 500 visiteurs ont fait le déplacement pour découvrir l’usine grandeur nature installée sous la nef du Grand Palais.

Cible importante de l’événement, les jeunes sont venus en nombre. Près de ¼ des visiteurs était des collégiens et lycéens en visite avec leurs professeurs les jeudi 22 et vendredi 23 novembre. Issus de formations générale ou professionnelle, les élèves ont été accueillis et accompagnés par les étudiants bénévoles en formation d’ingénieurs des écoles partenaires : Arts et Métiers, SUPii Mécavenir, le Lycée de Cachan, Supméca, Polytech Paris-Sud, Polytech Sorbonne et l’ENSIIE.

Les élèves ont ainsi pu déambuler à travers les quatre univers dédiés à l’industrie -Connecter, Fabriquer, Inventer, Partager- et découvrir la grande cheminée Poujoulat de 30 m de haut, les nombreux robots et les machines innovantes. Lors de la conférence « Mon métier, ma passion », ils ont également pu poser leurs questions à la ministre du Travail Muriel Pénicaud à propos de l’emploi dans le secteur de l’industrie.

Un engagement pour la jeunesse

Si l’événement était une bonne occasion de présenter le monde de l’industrie aux scolaires, les organisateurs ont décidé d’aller plus loin. Les industriels de la Fondation Usine Extraordinaire se sont engagés à accueillir 4 100 élèves de 3e en stage de découverte en 2019. Cette initiative s’ajoute aux 800 stages en usine déjà proposés sur la plateforme www.monstagede3eme.fr qui s’adresse essentiellement aux collégiens de Réseaux d’Education Prioritaire. Les stages dans l’industrie représenteraient alors 1/3 des 15 000 stages en entreprise promis par le gouvernement dans le plan PaQte.

En visite les jeudi 22 et vendredi 23 novembre,  le ministre de l’Economie et des Finances Bruno Le Maire a affirmé devant les collégiens et lycéens : « Ce que j’attends des entreprises, c’est qu’elles offrent systématiquement des stages à des jeunes comme vous. Je veux que chaque jeune puisse avoir un stage en entreprise en 3ème qui corresponde à ses souhaits ».

Les collégiennes de l’association « Elles bougent »ont pu rencontrer la secrétaire d’Etat Agnès Pannier-Runacher à l’Usine Extraordinaire – CR : Sébastien D’Halloy

Attirer les femmes vers l’industrie

En 2012, seulement 28% de femmes travaillaient dans le secteur de l’industrie. Afin de promouvoir des métiers encore trop réservés aux hommes, l’association « Elles bougent » a fait découvrir l’Usine Extraordinaire à 150 collégiennes de 10 collèges d’Ile-de-France. Habillées d’un T-shirt rose fushia, les jeunes filles ont eu l’occasion de parcourir les lieux accompagnées de leurs marraines pour la journée, à savoir des apprenties, des ingénieures et des techniciennes du secteur. Elles ont également eu l’occasion d’échanger avec le Premier Ministre Edouard Philippe, et la secrétaire d’Etat Agnès Pannier-Runacher. Cette dernière a annoncé aux participantes : « Dans l’industrie, moins de 30% sont des femmes et 14% sont directeurs. Il n’y a rien qui vous freine pourtant dans les filières scientifiques et techniques. Elles vous sont ouvertes ».

Visant à promouvoir la mixité dans le secteur de l’industrie, l’association « Elles bougent » essaie de démystifier les filières scientifiques et industrielles auprès des jeunes filles. Laure Le Calvé, marraine de l’association et directrice PMO pour le développement des opérations au sein du groupe SKF, explique : « Les barrières à ces carrières sont encore très culturelles et on voit souvent des jeunes filles qui ont peur de ne pas être à la hauteur. Notre rôle est donc de démystifier les métiers de l’industrie et l’évènement de l’Usine extraordinaire en est le parfait exemple. Nous partageons avec elles d’où nous venons, notre parcours scolaire et professionnel et nous mettons en avant le travail d’équipe et le travail collaboratif qui accompagnent l’aspect technique. Toucher les jeunes filles dès le collège est nécessaire car elles commencent à choisir leur orientation ».

Alexandra Vépierre

Une nouvelle balance pour peser les trous noirs super-massifs

Les chercheurs estiment généralement la masse des trous noirs super-massifs situés au cœur des galaxies en observant le mouvement d’étoiles ou de gaz tournant autour : schématiquement, plus ils tournent vite, plus le trou noir est massif. Pour les galaxies lointaines, mesurer directement les mouvements du gaz au plus près du trou noir était jusqu’ici impossible, ces régions gazeuses étant trop petites pour être observables. Pour estimer la masse du trou noir central, les astrophysiciens mesurent alors plutôt le temps séparant l’émission de lumière depuis l’environnement immédiat du trou noir et sa réverbération par les nuages de gaz, pour en déduire la taille de la structure de gaz et, de là, la masse du trou noir. C’est la méthode dite de « cartographie de réverbération ».

Dans cette nouvelle étude, des astrophysiciens ont utilisé l’instrument Gravity du VLT pour plonger au cœur de 3C 273, le premier quasar identifié, situé au centre d’une galaxie à environ 2,5 milliards d’années-lumière. Selon une technique appelée interférométrie, l’instrument Gravity combine la lumière reçue par les quatre télescopes du VLT, au Chili. Equivalente à un télescope de 130 mètres de diamètre, cette combinaison offre aux astronomes un gain énorme en résolution spatiale puisqu’elle permettrait par exemple de déceler une pièce de 1 euro posée sur la Lune.

L’observation du quasar 3C 273 par Gravity a permis de détecter pour la première fois le mouvement des nuages de gaz en rotation au plus près du trou noir d’un quasar. D’un rayon de près de 4 000 milliards de kilomètres, la structure de gaz observée tourne à des vitesses de plusieurs milliers de kilomètres par seconde autour d’un axe correspondant au jet de matière émis par le quasar.

Ces résultats ont ainsi permis de « peser » le trou noir super-massif au cœur de 3C 273. La masse estimée grâce à Gravity, environ 300 millions de masses solaires, est conforme aux mesures antérieures obtenues par cartographie de réverbération, mais avec une précision 100 fois meilleure.

Gravity valide donc la méthode de « cartographie par réverbération » pour peser les trous noirs super-massifs et offre en outre une nouvelle méthode indépendante, et extrêmement précise, pour mesurer leur masse dans des milliers d’autres quasars.

Source : cnrs

Pétrole, gaz fossile et charbon: les 6 plus importantes banques françaises investissent massivement dans les énergies non durables

«Banques françaises, les fossiles raflent la mise». Tel est le titre du rapport d’Oxfam. Les 6 groupes bancaires concernés ont investi, sans aucun scrupule, 20,6 milliards dans les énergies sales en 2016 et 22, 4 milliards en 2017, soit une hausse de 1,8 milliards. Parallèlement 6,8 milliards dans le solaire et l’éolien en 2016 et 5 milliards en 2017. Soit une baisse de 1,8 milliards. Ces banques méprisent par conséquent de façon claire et nette l’environnement et ainsi la possibilité de l’épanouissement humain. Elles n’ont pas compris que la crise écologique est d’une ampleur gravissime. «La situation climatique exigerait d’elles qu’elles fassent au moins l’inverse» s’est indigné Alexandre Poidatz, porte-parole d’Oxfam France. Comment expliquer aux gilets jaunes qui faut qu’ils payent davantage d ‘écotaxes quand des groupes aux puissants moyens financiers se comportent comme des cancres irresponsables en imitant Donald Trump ?

«Trois ans après l’Accord de Paris pris lors de la COP21, les banques françaises continuent de financer massivement les énergies fossiles : sur 10 euros, 7 euros vont à ces énergies climaticides, et seulement 2 euros aux énergies renouvelables» explique avec pédagogie l’ONG. BNP Parisbas et Le Crédit Agricole sont les deux banques les plus irresponsables. Elles ont en effet investi respectivement 12,8  et 12,6 milliards dans les énergies sales. Suit la Société Générale avec 11,5 milliards. 76% des investissements du Crédit Agricole portent sur les énergies fossiles. «Le constat est accablant. Alors que les scientifiques s’accordent à dire qu’il est urgent d’agir, pour préserver le climat, de rester sous la barre fatidique des 1,5 °C de réchauffement climatique, les banques continuent de soutenir massivement les énergies qui produisent le plus de gaz à effet de serre, comme le charbon, le pétrole et le gaz.» Sans parler des autres conséquences très graves de la dépendance envers combustibles fossiles, y compris les conflits armés au Moyen-Orient ou en Ukraine. Ces groupes bancaires n’ont donc aucune éthique. Et la France entend donner des leçons d’écologie au monde entier.

«Il est urgent que les banques jouent leur rôle dans la transition énergétique. Pour cela, Oxfam France les appelle à publier un plan de sortie des énergies fossiles, à cesser de soutenir les entreprises qui développent de nouvelles activités charbonnières, et enfin à travers une réelle transparence, à divulguer une photographie des entreprises qu’elles financent. Mais l’impulsion doit aussi venir de l’Etat, qui peut renforcer l’ambition de la Loi sur la Transition énergétique qui impose aux banques d’évaluer les risques liés aux changements climatiques.» La pratique du pouvoir par Emmanuel Macron s’accompagne ainsi d’une régression de la prise en compte environnementale, et d’un climat de contestation sociale croissante.

La politique énergétique de l’Etat français suscite des inquiétudes au plus haut niveau. En effet Xavier Daval, vice-président du SER (Syndicat des Energies Renouvelables) a lancé un appel de détresse, également le 24 novembre 2018, dans le journal Le Monde: la France pourrait perdre l’énorme marché que représentent les énergies renouvelables. «La France ne peut pas, sous la pression technocratique des lobbies qui ont constitué l’épine dorsale de l’administration de l’énergie depuis près de 50 ans, repousser d’un revers de main l’opportunité que représente les EnR» estime cet expert. «En maintenant le choix du tout-nucléaire, la France compromettrait définitivement ses chances dans les énergies renouvelables»

Vénus par les airs

Depuis cet été et la parution dans Space Science Reviews d’un article faisant le point sur les projets et les moyens possibles d’étudier, d’explorer voire de s’installer sur Vénus, notre proche voisine fait de nouveau rêver les astronautes qui sont en nous. On fait ressortir des cartons les projets de la Nasa sur le sujet, d’autant que celle-ci a allouée, en juin dernier, quelques crédits à l’entreprise Black Swift Technologies (BST) pour développer un véhicule aérien pour des observations atmosphériques sur Vénus. Cette entreprise a été choisie car elle a déjà à son actif des solutions aériennes d’observations de phénomènes violents sur Terre comme les tornades et ouragans, les grands incendies ou les volcans. Leurs plates-formes aériennes utilisent notamment le vol de gradient (dynamic soaring) pour s’alimenter en énergie. Le vol de gradient consiste à gagner de l’énergie en traversant de manière répétitive la limite entre deux masses d’air ayant des vitesses différentes. Il doit permettre d’alimenter le véhicule en consommant peu de carburant et sans faire appel à l’énergie solaire. Cependant, ne vous emballez pas, si tous les pays disposant d’un programme spatial s’intéresse à Vénus, aucun n’a pour l’instant de mission fermement programmée. Et les échéances sont au mieux pour 2030. Cela n’empêche pas les idées et les technologies de prendre forme, doucement mais sûrement.

Vénus, la grande traîtresse

Vénus est bien plus proche de la Terre que Mars. Le voyage n’est que de 5 mois (contre 9 pour Mars) et les fenêtres de départ pour le chemin le plus court sont plus nombreuses (1,6 an contre 2 pour Mars). Alors pourquoi l’a-t-on délaissée ? Pourquoi, après l’engouement des missions russes et américaines des années 1960 à 1985, les programmes vers Vénus se sont-ils éteints peu à peu ? En partie parce que les conditions sur Vénus sont terrifiantes. Les premières et rares sondes qui ont atteint la surface (Venera 7 en 1970, Venera 8 en 1972 puis Venera 9 et 10 en 1975) ont survécu moins d’une heure à l’énorme pression (92 fois celle de la Terre) et à l’infernale température (plus de 480°C) qui y règne. Les réussites suivantes, Venera 11 à 14, survivront plus longtemps mais ne pourront transmettre des données que pendant 2 heures avant que le signal ne soit perdu en raison de la rotation de la planète. Du coup, on a très vite envisagé d’étudier Vénus essentiellement par les airs. Ce qui n’est pas forcément non plus chose aisée. L’atmosphère de Vénus est en effet en état de super-rotation (elle accomplit le tour de la planète en 4 jours) avec de multiples couches de vents violents, balayant les airs à plus de 100m/s. Sans compter bien sûr, la composition de cette atmosphère, hyper riche en CO2 et en acide sulfurique. Alors, si de loin, Vénus ressemble à la Terre, pour un humain mieux vaut s’en tenir un peu éloigné tout de même.

Le paradis dans les nuages

Dans les projets les plus fous de l’URSS des années 1970 ou dans les romans de science-fiction, l’exploration et l’installation de l’homme sur Vénus via des villages dans les nuages ont fait l’objet de quelques recherches spéculatives tout autour du monde. Aujourd’hui, les projets sont tout de même moins ambitieux et consistent surtout à concevoir des véhicules aériens, dirigeables, ballons, planeurs, drones, automatisés embarquant des instruments scientifiques pour cartographier et étudier en finesse l’atmosphère, la surface et la structure de la planète. Voire pour y trouver de la vie atmosphérique. Eh oui, des scientifiques ont étudié les signatures spectrales de cette zone et pensent que les conditions sont réunies pour qu’une forme de vie ait pu s’y développer (voir cet article notamment paru dans Astrobiology . Ces chercheurs ont d’ailleurs approché les responsables russes de la (peut-être) future mission Venera-D pour ajouter des moyens alloués à des recherches d’exobiologie vénusienne. Tout le monde vise une navigation dans cette frange de l’atmosphère vénusienne où température, pression et radiations sont proches d’une zone tropicale terrestre, à quelques 50 km de la surface. Cette zone qui apparaît comme paradisiaque serait pour certains propices même à l’installation de villages dans les nuages comme l’envisageait par exemple l’ambitieux projet HAVOC de la Nasa dont les dirigeables ont fait rêver des milliers de youtubeurs.

Avancées technologiques suffisantes ?

Malgré tout, les recherches se poursuivent pour trouver des moyens efficaces de visiter Vénus. Plusieurs défis se posent. Celui de la durabilité des instruments par exemple, qui doivent être protégés des conditions extérieures ou pouvoir y résister. A ce titre, des chercheurs de la Nasa travaillent ainsi à la mise au point d’une puce électronique dédiée à un usage vénusien [voir cet article de AIP Advance qui décrit cette puce dont on a remplacé l’habituel silicium par du carbure de silicium). Les véhicules eux-mêmes doivent résister à la corrosion de l’acide sulfurique de cette atmosphère. Pour l’instant, c’est la technologie des ballons-sondes qui est la plus avancée, déjà testée en 1985 avec les missions soviétiques Vega 1 et Vega 2, pendant lesquelles le deuxième ballon a pu résister jusqu’à l’épuisement de ses batteries (à peu près deux jours). Le scientifique français à l’origine des ballons de Vega, Jacques Blamont, directeur scientifique et technique au CNES, a d’ailleurs proposé cette technologie aux Indiens dans le cadre de leur future mission d’un orbiteur vénusien (Shukrayaan-1).

Cette idée de ballon a aussi été étudiée par le JPL de la Nasa, notamment un ballon à fluide réversible (hélium / eau) capable de descendre jusqu’à la surface pour prendre des échantillons et remonter. Un prototype a été construit en zylon (un polymère à haute résistance mécanique, haute résistance à la chaleur et à faible porosité) auquel on ajoute un revêtement en or contre la corrosion. Le JPL a d’ailleurs aussi commencé à travailler sur la conception d’une nacelle capable d’encaisser ces conditions particulières. L’énergie est un des autres défis à relever pour rester durablement dans l’atmosphère de Vénus (d’où l’intérêt pour les solutions offertes par BSL évoquées précédemment) car si en altitude l’énergie solaire est utilisable (à la surface, il faudrait trouver des panneaux qui fonctionnent à très haute température) en raison de l’épaisseur de l’atmosphère et de sa rapide rotation, les calculs effectués pour le moment montrent que l’énergie solaire ne serait pas suffisante pour pallier le vent. Le véhicule serait alors dépendant des masses d’air qu’il traverse.

Mais ces défis techniques ne sont pas forcément plus difficiles à résoudre que ceux posés par Mars et les passionnés de Vénus espèrent aujourd’hui un rapprochement et une coopération internationale pour unifier les différents projets de missions américaines, européennes, russes, indiennes ou japonaises vers Vénus afin qu’elles prennent forme. En effet, pour le moment, elles sont régulièrement repoussées ou annulées pour des raisons budgétaires.

Sophie Hoguin

Pourquoi le caca carré des wombats intéresse autant la dynamique des fluides ?

Patricia Yang est une post-doctorante de l’institut de technologie de Géorgie avec une drôle de spécialité scientifique : l’ingénierie mécanique des fluides corporels (sang, flux alimentaires, urine…). Du coup, ses recherches sont régulièrement sous le feu des projecteurs. Eh oui, comment résister à un titre « pipi caca » ?

Après avoir obtenu l’Ig Nobel de physique* en 2015 pour des recherches sur le temps d’urinement comparé des mammifères (qui soit dit en passant est de 21 secondes à 13 secondes près pour tous ceux pesant plus de 3kg…), elle vient une fois de plus de s’attirer l’intérêt de la communauté scientifico-médiatique mondiale pour ses explications sur les raisons de la forme cubique des selles des wombats. Ces petits marsupiaux australiens si particuliers qui sont les seuls animaux connus à faire des cacas carrés !

C’est lors d’une conférence, tout ce qu’il y a de plus sérieux, d’un congrès de l’American Physical Society consacrée à la dynamique des fluides que Patricia Yang a présenté ses avancées en la matière, le 18 novembre dernier.

Une rareté biologique

Faire des crottes cubiques semble a priori assez contre-nature. Les scientifiques, depuis plusieurs années, se sont donc interrogés sur ce phénomène unique en émettant plusieurs hypothèses :

  • l’intestin et/ou l’anus de l’animal sont cubiques ;
  • c’est plus pratique pour empiler les crottes qui ainsi forment des pyramides plus hautes et marquent mieux le territoire des wombats ;
  • le milieu très aride dans lequel ils vivent poussent leur organisme à assécher au maximum les selles.

La troisième hypothèse a le plus de crédibilité, d’autant que les wombats en captivité, où le milieu est moins sec, sont plus sphériques. Pour en avoir le cœur net, Patricia Yang et ses collègues ont décidé d’aller voir au plus profond des entrailles de ces animaux. Ils ont donc disséqués deux animaux morts accidentellement (percutés par des voitures) en Tasmanie.

Résultat : non, leur système digestif n’est pas cubique mais il présente des particularités par rapport à un intestin de cochon.

Une question d’élasticité

Les chercheurs ont comparé l’élasticité des intestins des wombats avec ceux des cochons. Pour ce faire, ils ont gonflé les intestins avec un très long ballon. Alors que l’intestin de cochon s’est révélé uniformément élastique, celui du wombat comportait des sections différenciées avec des variations notables de pression de la paroi intestinale dans les derniers 8 % de l’intestin, là où les selles sont asséchées et prennent leur forme de cube d’environ 2cm de côté. Les chercheurs expliquent « que la pression intestinale varie de 20 % au niveau des coins du cube à 75 % sur les arêtes », précisant que l’intestin s’étend préférentiellement sur ce qui deviendra les parois des cubes d’excrément.

Ces travaux, non seulement éclairent les raisons de la forme unique des selles des wombat mais pourraient aussi ouvrir un nouveau champ de recherches technologiques. En effet, précisent les chercheurs, les objets de formes cubiques sont aujourd’hui fabriqués par extrusion et coupe ou par moulage, les intestins des wombats montrent que l’on peut fabriquer des objets cubiques, ou asymétriques à partir de tissus mous. Reste juste à trouver des applications…

Sophie Hoguin

*Parodie des prix Nobel récompensant les recherches scientifiques les plus insolites.

Radio numérique terrestre : le vrai départ ?

Un son comparable au CD, une réception mobile améliorée (absence de parasites et de décrochages), des mini-textes affichés en temps réel sur l’écran du récepteur… : la radio numérique à la norme DAB (Digital audio broadcasting) a tout pour plaire.

Elle se fait pourtant désirer en France et dans le reste du monde d’ailleurs. Seule la Norvège a décidé d’éteindre définitivement le signal FM. Mais cela va peut-être changer en France. Le 21 novembre, les groupes privés M6 (RTL, Fun Radio, RTL2), Lagardère Active (Europe 1, RFM, Virgin Radio) et NextRadioTV (RMC, BFM Business, et la nouvelle venue BFM Radio) ont annoncé leurs candidatures à l’appel lancé le 25 juillet dernier par le Conseil supérieur de l’audiovisuel (CSA).
Cet appel concerne un multiplex couvrant tout le territoire métropolitain. Mais qui connaît la RNT (Radio numérique terrestre) ? Cette technologie est à la radio ce qu’est la Télévision numérique terrestre (TNT) à la télévision analogique. Pour résumer : ce mode de diffusion utilise des fréquences hertziennes, mais en passant par les ondes numériques. Concrètement, cela permet une meilleure qualité de son et surtout une écoute continue, même lors d’un long voyage : finie la frustration d’entendre le son se brouiller en plein milieu de votre chanson ou émission préférée !

20 % de la population française

Mais les candidatures du 21 novembre représentent-elles le départ officiel de la RNT dans l’hexagone ou une énième annonce ? Retour en 2008 : une quarantaine de programmes sont diffusés par Radio France, des groupes privés comme Towercast (NRJ) ou Autoroute Info. Mais comme il s’agit d’expérimentations, les émissions ne peuvent être captées que dans un rayon de 25 km maximum autour de quelques agglomérations (Paris, Lyon, Marseille, Toulouse et Nantes).

Or, pendant que les Français multipliaient les rapports et tests à l’envi, les Européens passaient à la vitesse supérieure. Des programmes existaient en Suède, au Canada et aux États-Unis. Au Royaume-Uni, les efforts de la BBC et de radios privées avaient permis de bâtir des réseaux desservant 60 % de la population. Des récepteurs DAB étaient en vente dans les magasins.

Aujourd’hui, on parle de DAB+. Le Digital Audio Broadcasting est une norme reconnue au niveau mondial. Pour qu’elle devienne une réalité en France, le CSA a préféré proposer des fréquences couvrant seulement les grandes villes et les grands axes routiers et autoroutiers. Cette couverture (20 % de la population française) a semble-t-il convaincu les grandes radios privées de poser leur candidature.

En attendant, il est possible d’écouter des émissions en DAB+ dans plusieurs villes des Hauts-de-France. Dans les zones frontalières, il est parfois possible de recevoir des radios en DAB+ de Belgique, d’Angleterre, d’Allemagne ou de Suisse.

Philippe Richard

EDF parie sur son plan mobilité électrique

Avec son nouveau plan mobilité électrique, EDF affiche son ambition d’« être l’énergéticien leader de la mobilité électrique en Europe dès 2022 ». Cette ambition se décline sur les quatre marchés européens où l’entreprise possède des filiales : la France, le Royaume-Uni, l’Italie et la Belgique. Sur ces quatre marchés, EDF projette un parc électrique et hybride rechargeable d’un million de véhicules en 2020, de 4 millions en 2025 et de 17 millions en 2035.

Plusieurs millions de véhicules électriques à faire rouler

Actuellement près de 160 000 véhicules électriques ou hybrides rechargeables circulent en France. Il y en aura environ 3,7 millions en 2030 et entre 7 et 9 millions en 2035. À cet horizon, les véhicules électriques représenteraient environ 30 % des ventes de véhicules neufs. « En termes de consommation, nous serons entre 8 et 10 térawattheures pour 2030 et entre 15 et 17 térawattheures pour 2035, soit près de 5 % de la consommation de 2016, prévient Isabel Montelescaut. Cela tend à dire que notre parc de production est parfaitement capable d’absorber ce développement ».

Au-delà de la seule consommation, la question capitale est celle de l’appel de puissance en pointe de consommation. L’objectif est bien de vérifier que nos réseaux sont capables de supporter ce développement. Selon les projections d’Enedis réalisées dans le cadre de leur cahier d’acteur remis pour les Assises de la mobilité, l’appel à puissance de 9 millions de véhicules en 2035 sera de l’ordre de 20 % du parc de production français. « Ce chiffre peut être amené à 4 % si ces véhicules sont pilotés intelligemment », relève Isabel Montelescaut. Tout l’enjeu pour le groupe EDF est justement de développer des offres autour du smart charging, le « pilotage intelligent de la charge » pour ne pas mettre en tension le réseau.

Dans ce cadre, EDF souhaite devenir le premier fournisseur électrique pour ces véhicules et atteindre 30 % de parts de marché. Cela implique de fournir de l’électricité à environ 600 000 véhicules en 2022. Pour atteindre cet objectif, dès 2019, le Groupe proposera des offres intégrées comprenant la fourniture d’électricité, une solution de recharge pour tous les clients disposant d’une place de parking ainsi que des services pour l’optimisation de la recharge et l’usage de la batterie du véhicule.

Être leader sur les bornes de recharge

Via sa filiale Sodetrel, EDF espère également être le premier exploitant de réseaux de bornes. D’ici 2022, le Groupe compte en exploiter 75 000 et donner accès à ses clients européens à 250 000 bornes supplémentaires en interopérabilité. L’entreprise souhaite également être le leader du « smart charging », avec le déploiement de 4 000 bornes intelligentes dès 2022. Ces bornes permettront de recharger les batteries au meilleur moment, mais aussi de les mettre à disposition des réseaux électriques pour contribuer à leur équilibre pendant les périodes de forte consommation. « D’ici 2035, 1,5 millions de véhicules seront pilotés grâce à une borne intelligente proposée par le groupe EDF », projette Isabel Montelescaut.

Dans le cadre du réseau Corridor, 200 bornes de recharge rapide sont déjà installées en France sur les grands axes autoroutiers pour l’inter-urbain. « Nous allons très prochainement lancer un Corridor 2 pour doubler ce réseau à moyen terme », annonce Isabel Montelescaut. L’entreprise compte également se créer une place dans l’ultra-haute puissance. « Il faut adapter l’infrastructure de recharge aux autonomies grandissantes, jusqu’à 500 km en 2020, prévient la responsable du groupe. Une borne de 50 kilowatts ne permettra plus à ces véhicules de se recharge en 30 minutes, il faut déjà penser au palier de demain : de 150 à 350 kilowatts pour travailler sur cette nouvelle gamme de véhicules ».

Par Matthieu Combe, journaliste scientifique